100% de ceux qui ont contribué aux rapport Molimard sur la désinformation n’ont pas critiqué l’étude de la call girl Ariane Anderson sur l’hydroxycholoquine (Lancet gate)

Ce document, censé proposer une stratégie nationale contre la désinformation en santé, repose sur 156 entretiens avec 270 acteurs (267 uniques après déduplication). Mais, qui compose vraiment ce panel ? À partir de leurs profils publics – un profilage a été effectué par IA pour chaque personne interrogée sur plusieurs critères :

  • Le LancetGate : ont-ils oui ou non identifié les biais du lancetgate en 2020 avant sa rétractation ?
  • L’étude ReCoveRy : ont-ils oui ou non dénoncé les biais de l’étude ReCoVery sur l’hydroxychloroquine (doses toxiques sur des patients hospitalisés) ?
  • Position sur la vaccination en général : ont-ils une idéologie pro-vax déclarée ?
  • Position sur la vaccination covid-19 : ont-ils soutenu ou non la campagne de vaccination covid ?
  • Existence des effets secondaires de la vaccination : ont-ils nié l’existence d’effets secondaires des vaccins covid-19 ?  
  • Position publique sur Robert Kennedy Jr secrétaire d’État à la Santé américain : ont-ils pris ou non une position sur RFK Jr en le traitant d’antivax, antiscience ou complotiste

Le premier critère évalue si la personne ou son institution a identifié a priori la fraude du LancetGate (article rétracté en 2020 sur l’hydroxychloroquine, basé sur des données falsifiées). Ce scandale a eu des répercussions mondiales, influençant des interdictions prématurées en France.

Aucune des personnes interviewées n’avait émis de réserve sur cette étude rétractée en 14 jours en 2020 qui entraina l’arrêt des recherches sur l’hydroxychloroquine alors que les trop nombreux biais de cette étude pouvaient être identifiés rapidement. Et, aucun des répondants n’a contacté Mandeep Mehra l’auteur principal de l’étude. 

Parmi ce panel, on observe un tropisme vers une absence de détection proactive (83 %) qui illustre un biais de confiance institutionnelle ou encore des prises de positions publiques « pro-lancet » qui ont entrainé une désinformation. 

Des organisations comme l’AFP ou des figures comme Alain Fischer ou Olivier Véran, issues d’académies ou d’anciens ministères, ont soutenu initialement l’article, minimisant la fraude. Cela questionne l’indépendance du panel : comment lutter contre la désinformation si l’on ignore les échecs des revues dites « prestigieuses » et que l’on tombe dans un biais de confirmation ou un argument d’autorité ?

https://www.francesoir.fr/opinions-tribunes-societe-science-tech/le-rapport-sur-la-desinformation-en-sante

Didier Raoult répond aux journalistes qui fantasment sur les délires de Molimard et d’Ariane Anderson

Publié le 5 janvier 2024 par pgibertie

Mathieu Molimard vient de rejoindre Ariane Anderson au panthéon des études frauduleuses . Après le Lancetgate, le Molimardgate https://t.co/7SUsGsbnVg Ils ont osé! Utiliser la surmortalité provoquée par un surdosage toxique (4 à 12 fois les recommandations d’hcq) puis multiplier ce … Lire la suite →

ATTENTION LES LIENS CI DESSOUS RENVOIENT A LA CARRIERE DE LA CHERCHEUSE QUI A CONVAINCU VERAN … C EST CHAUD

http://www.promotelive.com/talent-profiles/ariane-anderson/

Révélée par « Le Canard Enchaîné » le 21 décembre 1983, l’affaire des avions renifleurs demeure à ce jour l’un des plus grands scandales politico-financiers de la Vème République. Quand l’Etat se fait berner par trois escrocs.Quarante ans après, c’est autour de la Macronie avec le Lancet

L’affaire du Lancet servira t elle de leçon à ceux qui dénoncent les « fake news «  des réseau sociaux ? Les historiens se souviennent qu’au milieu des années 2000 les Américains furent informés des réalités de l’intervention de Bush en Irak par les réseaux sociaux alors que les médias traditionnels les enfumaient . Aujourd’hui les « Bien pensants » soutenus par Facebook censurent et les chasseurs de  fausses nouvelles de Libé et du Monde  décident de ce qui sera juste.

Qui aurait pu concevoir qu’en France la santé de la population soit  menacée  par pure idéologie : Trump soutenait l’hydroxychloroquine et comme, Trump est dangereux, l’hydroxychloroquine est dangereuse . Telle est la redoutable rigueur scientifique qui conduit  nos « Bien pensants » à nier les évidences…
Pour ceux qui doutent encore, M Plaza nous fournit un article  redoutable.

L’auteur, Peter Ellis, est un scientifique australien spécialiste de l’analyse de données. Il a analysé par le menu le CV de la société Surgisphere de l’Illinois et de QuartzClinical qui est censé renvoyer les données à Chicago.

http://freerangestats.info/blog/2020/05/30/implausible-health-data-firm

Il écrit «Je me sentirais mal d’écrire un article aussi long et agressif si je me trompais. Mais cela semble très improbable. Il est affreux de penser que l’explication la plus probable de ce que nous voyons est simplement que les données ont été fabriquées, et que le processus de publication scientifique est tellement endommagé que l’article est passé» .

«Lorsque j’ai réalisé que les données de l’étude du Lancet avaient probablement été fabriquées, je ne pouvais rien faire d’autre qu’écrire un article de blog à ce sujet. Non seulement Surgisphere est beaucoup trop petit pour avoir des programmes dans 671 hôpitaux, mais les prix et récompenses qu’ils affichent sont douteux.

Dans un sens, il serait encore plus choquant que les données n’aient pas été fabriquées. Si les hôpitaux confiaient nos données de santé les plus sensibles à cette startup pour analyse sans examen éthique ou autorisation (ou protection RGPD) ce serait encore pire».

*

Les données représenteraient les résultats de traitement et de santé de 96 032 patients de 671 hôpitaux sur six continents. Cependant, il n’y a tout simplement aucun moyen plausible de penser que les données sont réelles.

Je le répète – je crois qu’avec une très grande probabilité, les données derrière cette étude de Lancet très médiatisée et à conséquences importantes sont complètement fabriquées .

Si Surgisphere peut nommer les 671 hôpitaux participants ou prouver autrement que les données sont réelles, je retirerai cette déclaration, supprimerai ce message ou rédigerai toutes les excuses humiliantes qu’ils souhaitent. Mais je pense qu’il n’y a presque aucune chance que cela se produise.

Surgisphere pourrait-il vraiment avoir des données sur les patients de 671 hôpitaux?

Je suis loin d’être le premier à demander plus d’informations sur cette incroyable nouvelle base de données dont personne n’avait entendu parler, et ils ont eu une semaine pour expliquer. Voici ce qu’ils ont trouvé:

Le registre Surgisphere est une agrégation des dossiers de santé électroniques désidentifiés des clients de QuartzClinical, le programme d’apprentissage automatique et la plate-forme d’analyse de données de Surgisphere.

 Surgisphere s’intègre directement aux DSE de nos clients hospitaliers pour leur fournir des informations exploitables sur les données afin d’améliorer l’efficience et l’efficacité. Dans le cadre de ces accords clients QuartzClinical, Surgisphere, en tant que collaboration mondiale de données sur les soins de santé, est autorisée à inclure les données de DSE de ces hôpitaux dans son registre / base de données interrogeable de rencontres de patients en temps réel et en temps réel.

Courtney l’éditeur scientifique de l’étude Lancet n’avait jamais publié d’étude scientifique auparavant, mais était connue comme écrivain de « science-fiction et fantasy ».

Bien que nos accords d’utilisation des données avec ces institutions nous empêchent de partager des données au niveau des patients ou des noms de clients, nous sommes en mesure d’effectuer des analyses appropriées et de partager les résultats agrégés avec la communauté scientifique au sens large.

(«DSE» est le dossier de santé électronique, c’est-à-dire les données personnelles des patients). Franchement, cela ne passe pas le test du rire.

Je peux imaginer pourquoi des clients des hôpitaux ne voudraient pas être nommés, car s’il s’avérait qu’ils permettaient à leurs données d’aller à l’Illinois d’être analysées à volonté – l’article du Lancet dit qu’il était «jugé» qu’une approbation éthique n’était pas nécessaire – il y aurait sûrement un tollé. Ce serait un scandale beaucoup plus important que Facebook qui a fourni des données à Cambridge Analytica. Après tout, ce que nous publions sur Facebook a été perçu par beaucoup de gens comme quasi public. Imaginez que vos dossiers de santé électroniques – données démographiques des patients, antécédents médicaux, médicaments, allergies, résultats de laboratoire, résultats de radiologie – soient remis à Cambridge Analytica .

Et le fait que les hôpitaux ne soient pas nommés par Surgisphere signifie qu’aucun patient d’un hôpital dans le monde ne sait si leurs données sont utilisées ou non dans cette étude.

À droite, regardons Surgisphere. Surgisphere compte cinq employés avec des comptes LinkedIn. Outre le CE et co-auteur du journal Lancet, ce sont un vice-président du développement commercial et de la stratégie, un vice-président des ventes et du marketing et deux rédacteurs scientifiques). LinkedIn enregistre également un employé de QuartzClinical – un directeur du marketing des ventes.

 Ariane Anderson, la Directrice des Ventes de SurgiSphere / QuartzClinical… est en réalité un mannequin qui travaille dans l’événementiel

Certains évoquent une actrice porno… du même nom et de la même région

Voici quelques-unes des personnes auxquelles vous pourriez vous attendre à travailler pour une véritable collaboration mondiale de données sur les soins de santé, qui avait vendu des logiciels à 671 hôpitaux et intégré à leurs systèmes de dossier de santé électronique (DSE), et qui coordonne une collaboration internationale de recherche en santé en cours:

  • gestionnaire de réseau mondial et coordinateurs
  • équipe de liaison hôpital / client
  • personnel de soutien / service d’assistance
  • formateurs et développeurs de matériel de formation
  • des chercheurs
  • équipe juridique pour traiter des questions de confidentialité et de contrat dans le traitement de plus de 670 hôpitaux. Les questions émanant du seul RGPD de l’UE occuperaient une équipe juridique substantielle, j’en suis sûr.
  • développeurs de logiciels ou de bases de données. Comme, peut-être un ou deux humbles développeurs d’extrait-transformation-chargement pour obtenir ces milliards de lignes de données de transactions dans une base de données.
  • administrateurs de bases de données et ingénieurs de données
  • Spécialistes des solutions d’intégration de DSE
  • responsable de la gouvernance des données
  • si l’un des éléments ci-dessus est externalisé, une équipe d’approvisionnement pour gérer tous les sous-traitants

Surgisphere ne compte aucune de ces personnes, à l’exception de Sapan Desai qui fait également office de directeur général et de chercheur médical (une bonne indication de la taille de l’entreprise – la plupart des EC ne sont pas également des chercheurs de publication actifs). À en juger par son profil LinkedIn, son équipe est composée de trois directeurs commerciaux et de deux rédacteurs scientifiques.

Surgisphere ou aucun de ses collaborateurs n’est également présent sur GitHub. Ni une explication nulle part de l’impressionnante ingénierie des données qui serait nécessaire pour brouiller toutes ces données. Ni des articles de journaux, des articles de conférence ou même des articles de blog décrivant son réseau, les API qui le connectent, à quel point ils sont fiers de leur cluster Hadoop sur AWS, quelle plate-forme de base de données qu’ils utilisent, etc etc etc – toutes les choses que de vraies entreprises ont faites des innovations impressionnantes (comme la première base de données mondiale de données hospitalières au niveau mondial, si elle était réelle).

Pourtant, Surgisphere prétend avoir vendu des logiciels à 671 hôpitaux. Combien en coûterait-il pour déployer un logiciel d’analyse de données d’apprentissage automatique dans un hôpital et l’intégrer au DSE? Ce n’est pas une intégration légère et facile comme installer un package de statistiques sur un PC et lui donner une connexion ODBC à une base de données. L’intégration aux systèmes de DSE et la façon dont nous savons qu’ils utilisent les données signifie, au minimum, l’envoi de toutes les données vers le cloud. Cela signifie que vous devez traiter avec des architectes de réseau et de sécurité, disposer de tests extrêmement robustes, d’une sécurité à toute épreuve (rappelez-vous, certaines des données sensibles gardées les plus proches au monde), passer par qui sait ce que la paperasse dans chaque hôpital en termes de convaincre leurs gens de gouvernance des données de ce que vous faites.

Je ne sais pas, mais 1 million de dollars par déploiement ne peut pas être loin du compte. Certainement pas moins de 300k $ pop. Donc, Surgisphere devrait être une entreprise d’un milliard de dollars si cela se fait 670 fois, mais ce n’est clairement pas le cas. En fait, Dun et Bradstreet estiment ses revenus à 45 245 $. Vous ne pourriez même pas faire la phase de découverte d’un projet d’intégration de DSE dans un seul hôpital pour cela, sans parler de déployer quoi que ce soit.

Bien sûr, l’intégration du DSE est une chose réelle, et elle est généralement effectuée pour déplacer les informations des patients en toute sécurité. Par exemple, un rapide Google a trouvé cette présentation utile sur l’intégration du DME (DME et DSE sont essentiellement des termes interchangeables) dans la région des Grands Lacs. Je remarque que Surgisphere est manifestement absent de la liste des présentateurs de la diapositive 10. Cela rend assez surprenant (mais pas vraiment) qu’ils prétendent dans l’article du Lancet avoir des données sur la plupart des cas hospitaliers COVID-19 en Amérique du Nord diagnostiqués avant le 14 avril. 2020 – 63 315 de ces cas dans l’étude selon le tableau S1 , ce qui aurait été une nette majorité de tous les cas hospitalisés.

Qu’en est-il du logiciel QuartzClinical?

Qu’en est-il de ce logiciel QuartzClinical qui aurait été vendu à 671 hôpitaux et qui renvoie les données à Chicago? Il a son propre site Web . Il prétend utiliser «l’apprentissage automatique et l’analyse statistique avancée» pour aider à la prise de décision. Remarquablement, il «intègre avec succès votre dossier de santé électronique, votre système financier, votre chaîne d’approvisionnement et vos programmes de qualité sur une seule plateforme». Révisons mon estimation de 1 million de dollars à 10 millions de dollars sur trois ans, au minimum, si cela signifie que vous remplacez ces choses par une seule plate-forme. Mais cela signifie probablement simplement un entrepôt de données qui tire parti de vos différentes sources de données, et qui a une couche analytique et un moteur de recommandation au-dessus. Des trucs simples de business intelligence, mais toujours un gros projet pour un hôpital.

Je ne peux pas en dire plus car le site QuartzClinical est très léger sur les détails. Il n’a pas de témoignages de clients. Il ne parle pas de ce qui se cache sous le capot. Il ne contient aucune information sur les versions ou l’historique ou la feuille de route à suivre. Il ne demande à avoir remporté quelques prix bien. Voyons voir:

  • «Grand prix de qualité, 39e Congrès mondial des hôpitaux de la Fédération internationale des hôpitaux 2015». Non , cela est allé au Texas Children’s Hospital pour «Advanced Population Health – the critical role of care delivery systems».
  • «Deuxième prix du Dr Kwang Tae Kim Grand Award, Fédération internationale des hôpitaux 41e Congrès mondial des hôpitaux, 2017». Non , les deux mentions honorables étaient «Atteindre une grande fiabilité grâce à la coordination des soins pour les patients qui nécessitent une intervention chirurgicale d’urgence» par le Northwest Community Hospital, États-Unis et «l’application de l’amélioration du système d’alerte clinique pour réduire l’événement d’arrêt cardiaque inattendu à Taiwan (Hôpital général de Yuan, Taïwan). Aucun de ceux-ci ne ressemble à quelque chose dont QuartzClinical aurait fait partie.
  • «Institute for Healthcare Improvement – Four of the Best from the IHI Scientific Symposium (2017).» Je n’ai pas pu trouver ce «prix», il est donc possible qu’ils se soient vraiment retrouvés dans la liste des «quatre des meilleurs». La seule mention de Quartz Clinical sur le site ihi.org est en tant qu’exposant au symposium 2018 . Il est possible qu’ils aient également exposé un an plus tôt et aient obtenu une sorte de reconnaissance.
  • Prix ​​McKesson Quest for Quality de l’American Hospital Association pour 2017. Ce prix est allé au Memorial Medical Center de Springfield en Illinois . D’après leur description de la façon dont ils ont gagné, je ne vois rien qui semble lié à un logiciel comme QuartzClinical. Au lieu de cela, ils ont fait des choses comme changer le processus de traitement des fractures de la hanche et ont placé des mains courantes dans les chambres d’hôpital. Cependant, selon son profil LinkedIn, le PDG de Surgisphere, Sapan Desai, a travaillé pour le Memorial Medical Center de mi-2014 à mi-2016 en tant que directeur de «Quality Alliance and Predictive Analysis», il est donc plausible qu’il ait joué un rôle dans le programme qui les a amenés à remporter le même si QuartzClinical n’était pas impliquée.
  • Frost et Sullivan Healthcare Innovation Technology Award 2019. Oui , celui-ci Surgisphere semble avoir vraiment gagné . Cependant, la page Wikipedia de Frost et Sullivan dit que ces récompenses sont « basées sur des recherches utilisant une méthodologie propriétaire, qui est parfois basée sur un seul article produit par le destinataire du prix », les décrivant comme un prix de vanité que le bénéficiaire paie des frais pour communiquer. Je ne peux pas juger cela.

En plus de ces cinq récompenses, il y a ce communiqué de presse disant que Sapan Desai «a reçu une mention honorable pour ses réalisations exceptionnelles en matière de qualité et de sécurité des patients, de responsabilité sociale des entreprises, d’innovations dans la prestation de services à un coût abordable, de leadership en soins de santé et de pratiques de gestion »Lors de la cérémonie du Grand Prix Dr. Kwang Tae Kim de l’IHF à Taipei, Taiwan en 2018. Cela semble faux. Les prix du Dr Kwang Tae Kim sont destinés aux hôpitaux et aux organisations de soins de santé , et non aux particuliers. Les cinq mentions de Sapan Desai sur le site Web de l’IHFse rapportent à lui donnant des conférences, il n’y a aucune mention de lui obtenir un prix. Le fait que son propre communiqué de presse annonçant sa «mention honorable» ne renvoie à aucune source faisant autorité pour cela est suspect en soi.

Donc, une affirmation correcte (Frost et Sullivan), une exagérée (le prix du Memorial Medical Center, qui n’était pas pour QuartzClinical mais était au moins un prix, avec un lien plausible avec Desai), trois apparemment faux (concernant la Fédération internationale des hôpitaux) et un incertain (l’Institute for Healthcare Improvement).

J’ai été particulièrement intrigué par le Grand Prix de la Qualité IHF 2015. Cela semble être une revendication si spécifique et facilement réfutable, et en plus d’être sur le site QuartzClinical, elle est répétée par Sapan Desai en tant qu’individu, par exemple dans sa biographie pour cet événement en 2018 – «Il est le destinataire du grand prix international de la qualité des soins de santé par la Fédération internationale des hôpitaux en 2015. » Travaillait-il peut-être au Texas Children’s Hospital? (non, il ne l’était pas).

Puis je suis tombé sur cette pièce réclamant un «prix de qualité supérieure» lors de ce 39e congrès de l’IHF 2015. Malgré le titre, le texte rapporte que Desai a reçu le «premier prix de la meilleure présentation», pour son «Amélioration du succès de la gestion stratégique utilisant le Big Data». Il n’y a aucune trace de ce prix sur le site de l’IHF, bien qu’il ait certainement fait cette présentation. Il est plausible qu’il ait reçu un prix pour la meilleure présentation. Je pense maintenant qu’à un moment donné dans la garniture de CV ultérieure, cela a évolué pour devenir le «Grand prix de la qualité des soins de santé».

Ma meilleure supposition est que les autres réclamations apparemment fausses de récompenses, si elles ont un fondement, sont des exagérations de récompenses de conférence ou des mentions honorables pour des discussions qui ont été exagérées en récompenses importantes pour des logiciels.

Sinon, comment pourrions-nous savoir que ces prix avant 2019 n’étaient pas pour QuartzClinical? Eh bien, il n’a été lancé qu’en janvier 2019, comme le montre ce «  blog de revue  » qui ne fait que répéter de manière transparente les communiqués de presse in extenso.

Ce qui nous reste, avec QuartzClinical est une description d’un logiciel qui semble combiner l’entreposage de données de plusieurs sources avec une couche analytique qui fournit ensuite des algorithmes d’aide à la décision. L’analyse est apparemment effectuée hors du site du client (car nous savons que Surgisphere affirme qu’il conserve toutes les données pour une utilisation future). Les sources de données comprennent à la fois les dossiers financiers et les dossiers de santé électroniques et nécessiteraient au minimum une ingénierie des données et des pipelines modérément complexes pour le déploiement. L’entreprise qui en est propriétaire n’a aucune capacité de gestion de projet TIC, de développement de logiciel, de déploiement ou de support. Il existe très peu de références à ce logiciel sur le Web, à part son propre matériel promotionnel. Il a une entrée dans venddy.com, un site qui permet aux vendeurs et aux acheteurs de systèmes de santé de se réviser mutuellement, mais sans avis d’utilisateurs. Le matériel promotionnel apparaît sur le Web à partir du début de 2019, nous savons donc qu’il a environ un an. Le propriétaire a un dossier d’exagérer son CV bien au-delà du point d’être trompeur (par exemple une mention honorable pour avoir donné un papier évolue avec le temps au Grand Prix de Qualité).

Quelle est la probabilité qu’un nouvel outil d’analyse de données basé sur le cloud, qui s’intègre aux systèmes de données les plus sensibles des hôpitaux (finances et dossiers de santé électroniques) et transfère ces données à travers les frontières internationales, passe de zéro à déployé dans 671 hôpitaux sur six continents en 12 mois, mais n’a pas encore d’avis d’utilisateurs et aucune discussion sur le Web de la part de responsables informatiques enthousiastes impliqués dans son déploiement? Zéro, c’est la probabilité; ou aussi proche de zéro que le nombre.

«Résultats chirurgicaux»

Ensuite, quelques mots sur Surgical Outcome, le réseau collaboratif international des clients QuartzClinical (hôpitaux et centres de santé) qui donnent leurs données à Surgisphere avec confiance. Voici le site Web des résultats chirurgicaux . C’est une étrange combinaison de battage médiatique sur l’apprentissage automatique et d’amélioration des processus en six sigma. Vous pouvez rejoindre le Collaboratif pour 295 $ par an et accéder à des ressources éducatives en ligne pour la formation médicale continue / le maintien de la certification. Ou payez 2 495 $ pour accéder à d’autres services tels que la participation à la «recherche collaborative».

Il existe de nombreuses captures d’écran d’un outil de veille stratégique, vraisemblablement QuartzClinical (qui est fortement promu) permettant à l’utilisateur d’explorer (par exemple) les procédures chirurgicales et de comprendre les inducteurs de coûts, accompagné de vidéos loufoques sur la puissance des données et l’importance des mesures de performance .

Il y a un blog franchement bizarre avec environ 100 articles, à partir de septembre 2019. Ils combinent des instructions statistiques de base sur des sujets tels que l’appariement des scores de propension avec des conseils de contrôle de la qualité et de gestion de projet. Certaines statistiques sont tout simplement erronées; un exemple choisi au hasard est cette capture d’écran qui nomme à tort les limites d’un intervalle de confiance «paramètres».

Vous et moi savons, cher lecteur, que ce n’est pas ainsi que les hôpitaux acceptent de partager les données personnelles des patients. En particulier, ce n’est pas la façon dont les hôpitaux d’autres pays décident de partager leurs données avec une entreprise aux États-Unis. Nous savons également qu’une «évaluation rapide de la technologie» n’est pas nécessaire avant de déployer une plate-forme analytique. Pas un qui tire des données des systèmes financiers et de DSE de l’hôpital, les stocke dans le cloud, effectue un apprentissage automatique et renvoie des recommandations de décision intégrées aux propres processus de l’hôpital.

L’article lui-même

Je n’ai même pas mentionné les problèmes de données que nous pouvons glaner directement à la lecture de l’article, si ce n’est en passant sur la proportion étonnamment élevée de cas hospitaliers en Amérique du Nord qui étaient dans l’échantillon. Plusieurs des erreurs les plus évidentes concernent l’Australie et ont été rapportées dans les médias. Par exemple, beaucoup plus de cas en Australie qu’il n’en existait au moment de l’étude, comme indiqué dans The Guardian . Surgisphere a répondu qu’un hôpital récemment rejoint (pourrait-il y en avoir un autre!) « S’est auto-désigné comme appartenant à la désignation continentale de l’Australasie … Cet hôpital aurait dû être plus adéquatement affecté à la désignation continentale asiatique. » Hmm, donc la base de données secrète a une qualité de données épouvantable mais bien sûr, des erreurs se produisent.

Mais comme le souligne Thomas Lumley , l’hôpital mal classifié devait avoir 546 cas de COVID-19 hospitalisés au 14 avril et se déclarer comme étant en Australasie. L’Indonésie avait déjà suffisamment de cas hospitalisés, mais il semble peu probable qu’il s’agisse d’une concentration de cette taille dans un seul hôpital. Et un hôpital indonésien se décrirait-il comme australasien (non, ce ne serait pas le cas). Et ces données pourraient-elles être partagées légalement avec une entreprise qui ne sait même pas quels pays doivent respecter les lois? (non ça ne pouvait pas).

Ensuite, le taux de tabagisme est trois fois plus élevé en Amérique du Nord qu’en Amérique du Sud; la petite fourchette de l’IMC moyen; les données détaillées peu plausibles pour l’Afrique; les données ethniques qu’il est illégal de collecter dans certains pays; et ainsi de suite.

Je ne veux plus écrire, cela me met en colère et me met en colère rien qu’en y pensant. Tout est mieux dit dans les liens en bas de la page.

Auparavant, j’avais plus ou moins suivi, mais je pensais qu’il y avait exagération quand les gens disaient «l’examen par les pairs est rompu», mais maintenant je le crois vraiment. À l’avenir, ma devise sera vraiment «publier les données et le code ou cela ne s’est pas produit» – pas seulement comme «c’est une bonne pratique» mais comme dans «si vous ne le faites pas, je dois penser que vous pourriez être inventer ». Avec des données sensibles, nous devrons trouver des moyens de fournir des versions synthétisées ou d’autres versions contrôlées par la divulgation.

La bonne nouvelle à propos de cet épisode est que cela a un peu fait taire les gens qui critiquaient cette étude d’anticorps de Stanford parce qu’il s’agissait d’une préimpression non revue par les pairs. Le problème avec l’étude des anticorps de Stanford n’est pas qu’il s’agissait d’une préimpression non évaluée par des pairs; c’est qu’il avait de mauvaises analyses statistiques et les auteurs n’ont fourni aucune donnée ou code.

J’espère que je me trompe sur tout ça. Peut-être que les développeurs ETL, le personnel de support et les spécialistes de l’intégration des DSE de Desai ne sont tout simplement pas sur LinkedIn pendant que ses vendeurs le sont. Peut-être que les hôpitaux partagent vraiment et avec plaisir nos données avec une entreprise américaine, et les données sont stockées sur des serveurs européens pour se conformer au RGPD et il y a même une autorisation patiente donnée quelque part qui n’a pas été mentionnée. Peut-être que QuartzClinical est intégré dans le logiciel d’une autre entreprise, il a donc été déployé dans 671 hôpitaux sans aucun examen ni discussion car sa marque est cachée.

Je me sentirais mal d’écrire un article aussi long et agressif que celui-ci dans ce cas. Mais cela semble très improbable. Il est affreux de penser que l’explication la plus probable de ce que nous voyons est simplement que les données sont fabriquées, dans ce qui est peut-être un complot criminel, et que le processus de publication scientifique est tellement brisé qu’il passe. Il me semble très probable que cette explication est la bonne.

Publié dans éducation prépa école de commerce | Laisser un commentaire

Ce sont les paroles de 16 scientifiques membres du GIEC sur l’évolution du climat , désabusés par la corruption de la science au sein de l’organisation.

Marc G Wathelet, Ph.D.

Ce sont les paroles de 16 scientifiques membres du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC/IPCC), désabusés par la corruption de la science au sein de l’organisation.

Dr Robert Balling : Le GIEC note que « Aucune accélération significative du taux d’élévation du niveau de la mer n’a été détectée au cours du XXe siècle. » Cela n’apparaît pas dans le Résumé pour les décideurs du GIEC.

Dr Lucka Bogataj : « L’augmentation des niveaux de dioxyde de carbone dans l’air ne provoque pas de hausse des températures mondiales… la température a changé en premier et, environ 700 ans plus tard, une modification de la teneur en dioxyde de carbone dans l’air a suivi. »

Dr John Christy : « Peu connu du public, la plupart des scientifiques impliqués dans le GIEC ne sont pas d’accord sur le fait que le réchauffement climatique est en cours. Ses conclusions ont été systématiquement déformées et/ou politisées avec chaque rapport successif. » Dr Rosa Compagnucci : « Les humains n’ont contribué que quelques dixièmes de degré au réchauffement de la Terre. L’activité solaire est un moteur clé du climat. »

Dr Richard Courtney : « Les preuves empiriques indiquent fortement que l’hypothèse du réchauffement climatique anthropique est erronée. »

Dr Judith Curry : « Je ne vais pas simplement débiter des slogans et endosser le GIEC parce que je n’ai pas confiance dans le processus. »

Dr Robert Davis : « Les températures mondiales n’ont pas évolué comme les modèles climatiques de pointe le prédisaient. Pas une seule mention des observations de température par satellite n’apparaît dans le Résumé pour les décideurs du GIEC. »

Dr Willem de Lange : « En 1996, le GIEC m’a listé parmi environ 3000 “scientifiques” qui étaient d’accord sur le fait qu’il y avait une influence humaine discernable sur le climat. Ce n’était pas le cas. Il n’y a aucune preuve pour soutenir l’hypothèse selon laquelle un changement climatique catastrophique incontrôlable serait dû aux activités humaines. »

Dr Chris de Freitas : « Les décideurs gouvernementaux devraient avoir entendu maintenant que la base de la revendication de longue date selon laquelle le dioxyde de carbone est un moteur majeur du climat mondial est remise en question ; ainsi que la nécessité présumée jusqu’ici de mesures coûteuses pour restreindre les émissions de dioxyde de carbone. S’ils ne l’ont pas entendu, c’est à cause du vacarme de l’hystérie du réchauffement climatique qui repose sur le sophisme logique de “l’argument d’ignorance” et sur les prédictions des modèles informatiques. »

Dr Oliver Frauenfeld : « Beaucoup plus de progrès sont nécessaires concernant notre compréhension actuelle du climat et nos capacités à le modéliser. »

Dr Peter Dietze : « En utilisant un modèle de diffusion eddy défectueux, le GIEC a largement sous-estimé l’absorption future de dioxyde de carbone par les océans. »

Dr John Everett : « Il est temps d’un retour à la réalité. Les océans et les zones côtières ont été bien plus chauds et plus froids que ce qui est projeté dans les scénarios actuels de changement climatique. J’ai examiné le GIEC et la littérature scientifique plus récente et je crois qu’il n’y a pas de problème avec une acidification accrue, même jusqu’aux niveaux improbables des scénarios du GIEC les plus utilisés.

» Dr Eigil Friis-Christensen : « Le GIEC a refusé de considérer l’effet du Soleil sur le climat de la Terre comme un sujet digne d’investigation. Le GIEC a conçu sa mission uniquement comme l’étude des causes potentielles humaines du changement climatique. »

Dr Lee Gerhard : « Je n’ai jamais pleinement accepté ni nié le concept de réchauffement climatique anthropique jusqu’à ce que le tumulte commence après les affirmations extravagantes de James Hansen de la NASA à la fin des années 1980. Je suis allé dans la littérature [scientifique] pour étudier la base de cette affirmation, en commençant par les principes de base. Mes études m’ont alors conduit à croire que ces affirmations étaient fausses. »µ

Dr Indur Goklany : « Le changement climatique n’est probablement pas le problème environnemental le plus important du XXIe siècle dans le monde. Il n’y a aucun signal dans les données de mortalité indiquant des augmentations des fréquences globales ou des sévérités des événements météorologiques extrêmes, malgré de fortes augmentations de la population à risque. »

Dr Vincent Gray : « La déclaration du [GIEC] sur le changement climatique est une litanie orchestrée de mensonges. »

Publié dans éducation prépa école de commerce | 9 commentaires

Le désinformateur Molimard propose de créer un observatoire de la désinformation en santé qui lui permettra de noter les informations scientifiques

Ce lundi, la ministre Stéphanie Rist a dévoilé une « stratégie nationale de lutte contre la désinformation en santé » en quatre axes… dont la formation d’un Observatoire de la désinformation en santé qui pourrait donc, un jour, être chargé d’un tel « Info-Score santé ».

Costagliola est l’une des personnes responsables du changement des conclusions de la méta-analyse d’Andrew Hill sur l’ivermectine, qui avait initialement conclu qu’elle était probablement bénéfique contre la COVID. Si ces conclusions avaient été maintenues, l’usage de l’ivermectine aurait augmenté et de nombreuses vies auraient pu être sauvées.

@f_philippot
Regardez-moi ca : pour qui se prennent ces gens ?!

Il expliquait aussi « ne pas avoir de signal inquiétant sur le vaccin AstraZeneca » 🤦🏻‍♂️(https://lexpress.fr/sciences-sante/sciences/vaccin-astrazeneca-nous-n-avons-pas-de-signal-inquietant_2146884.html)

Ils ont défendu systématiquement les mesures débilissimes du gouvernement. Ils sont dans les petits papiers du pouvoir, toujours du côté du manche…

Une étude de « The Oxford Group » contredit Molimard, démontre l’efficacité l’innocuité de l’hydroxychloroquine mais il a fallu plus de 800 jours pour qu’elle soit publiée.

Publié le 28 novembre 2025 par pgibertie

Aucun effet indésirable grave n’a été observé chez les patients traités par hydroxychloroquine. Effets indésirables (EI) similaires au placebo : Nausées (11 % vs 10 %), diarrhée (8 % vs 7 %), et fatigue légère, sans différence significative (p>0,05).Pas de … Lire la suite →

Bêtise ou cynisme, Neuder, ministre de la santé , choisit le désinformateur Molimard pour lutter contre …la désinformation en santé

Publié le 28 août 2025 par pgibertie

En 2018, le Pr Molimard participait à un atelier de « pharmacologie sociale » intitulée : « Comment améliorer l’acceptabilité vaccinale » avec des représentants de Pfizer, SANOFI, GSK, Janssen, MSD Parmi les initiatives concrètes proposées pour « améliorer l’acceptabilité vaccinale », on notera : Surveiller … Lire la suite →

Pujadas avoue que le virus du covid vient d’un labo mais la France organise une réunion sur la désinformation scientifique avec Lacombe, Molimard, Reischtadt,Cymes

Publié le 18 avril 2025 par pgibertie

Des spécialistes du mensonges se rencontrent. Ils ont menti sur tout: origine du virus, efficacité des injections. La macronie est bien décidé e à leur donner tous les pouvoirs. La déclaration du ministre de la santé fait froid dans le … Lire la suite →

Les balivernes de Molimard sur les 17000 morts de l’hydroxychloroquine , étude refusée par 4 revues scientifiques et rétractée par la cinquième

Publié le 6 septembre 2024 par pgibertie

Publié dans éducation prépa école de commerce | 10 commentaires

La FNSEA est la bienvenue dans la ville, le 9 janvier, la Coordination Rurale a été reçue par les CRS et les centaures et le gouvernement ne saisit pas la CJUE

Arnaud Rousseau explique que les agriculteurs ont besoin d’un budget…donc surtout pas de dissolution ! Arnaud Rousseau, président de la FNSEA est très exactement où on l’attendait. Arnaud, 7 milliards de ÇA dans ses entreprises, est un bon ami d’Emmanuel. Tout cela est à vomir…

Arnaud Rousseau à la tête de la FNSEA a-t-il profité de sa position pour élaborer dans les moindres détails un Mercosur favorable à ses seuls intérêts professionnels ?

Tout le monde a compris le jeu de la Macronie : opposition au Mercosur et soutien aux agriculteurs dès que les caméras s’allument et les micros se tendent. Blanc-seing et procuration à Merz et Ursula en coulisses pour faire aboutir le projet… C’est abject.

Après 25 ans de négociations, la France est terriblement perdante sur l’accord UE-MERCOSUR et l’Allemagne triomphe.

Publié dans éducation prépa école de commerce | 8 commentaires

les débats scientifiques récents (2024-2025) mettent en lumière des incertitudes croissantes sur le rôle du CO2; Hélas les escrologistes veulent rendre le débat invisible

le consensus « évolue » vers plus de prudence sur l’ampleur du forçage CO₂ pur (vs rétroactions nuageuses et variabilité interne).

  • la surestimation systématique du réchauffement futur par une partie des modèles (surtout CMIP6),
  • l’ampleur réelle du rôle dominant du CO₂,
  • et le sous-estimation relative des facteurs naturels comme les nuages, la variabilité solaire, et les courants marins (ex. AMO, PDO, circulation thermohaline).

Des critiques, souvent issus de cercles sceptiques mais parfois aussi de chercheurs mainstream, arguent que des dynamiques idéologiques – comme l’urgence perçue de l’action climatique alignée sur des objectifs environnementalistes ou économiques – pourraient inciter à amplifier l’impact du CO₂ dans les modèles et les rapports, au détriment d’autres facteurs comme les nuages, la variabilité solaire ou les cycles océaniques que nous avons évoqués précédemment.

Par exemple, certains analystes soulignent que le GIEC, en se focalisant sur les scénarios les plus alarmistes (comme RCP8.5, souvent présenté comme « business as usual » alors qu’il est extrême), pourrait refléter un biais vers des projections surestimées pour mobiliser l’action politique, plutôt qu’une pure objectivité scientifique. Des figures comme Richard Lindzen ou William Happer, cités dans des débats, contestent non pas l’effet du CO₂ en soi, mais son ampleur exagérée, arguant que le réchauffement associé est minimal et potentiellement bénéfique dans certains contextes, sans détruire la planète.

Cela s’aligne avec des critiques sur la paramétrisation des modèles : comme dans l’étude de Jiang et al., si les nuages sont mal résolus, le forçage CO₂ est parfois « ajusté«  à la hausse pour faire coller les simulations aux observations, ce qui pourrait être influencé par un biais confirmation où l’on priorise les narratifs anthropiques.

En fin de compte, pour dépasser les biais, il faut plus de données empiriques et une science ouverte, sans dogme. Si des idéologies poussent à surestimer le CO₂, cela pourrait expliquer pourquoi certaines prévisions passées (comme celles des années 1990) ont surestimé le réchauffement observé. Mais c’est un débat en évolution – des travaux récents sur les rétroactions nuageuses ou les aérosols pourraient affiner cela.

1. Projections de réchauffement global dans le Premier Rapport (FAR, 1990)Le scénario « Business As Usual » (BAU) prévoyait environ 1°C de réchauffement entre 1970 et 2016.
Les observations réelles montrent environ 0,85°C sur la même période.
→ Surestimation d’environ 17 %, principalement due à une projection trop élevée des concentrations futures de CO₂ et de méthane (les émissions réelles ont été plus faibles que prévu).

2. Modèles CMIP5 et CMIP6 : tendance « running hot » (trop chauds)De nombreuses analyses montrent que l’ensemble des modèles CMIP5 et surtout CMIP6 (utilisés pour l’AR5 et AR6) surestiment le réchauffement observé depuis les années 1990-2000 :

  • Entre 1998 et 2014, les modèles prévoyaient environ 2,2 fois plus de réchauffement que ce qui a été observé (selon Michaels, Lindzen et Knappenberger).
  • Les modèles CMIP6 (génération la plus récente) montrent souvent une sensibilité climatique à l’équilibre (ECS) supérieure à 5°C pour certains (jusqu’à 10 sur 55 modèles), ce qui les rend « trop chauds » par rapport aux contraintes observationnelles (période 1980-2022). → Cela est souvent lié à une surestimation des rétroactions nuageuses positives (clouds feedback) et à une mauvaise représentation des nuages bas, qui refroidissent plus qu’anticipé.

3. Pause ou hiatus du réchauffement (1998-2013 environ)Les modèles CMIP5 prévoyaient une poursuite forte du réchauffement linéaire après 1998, mais les observations de surface (HadCRUT) et surtout satellitaires (UAH, RSS) ont montré une pause ou un ralentissement marqué (le fameux « hiatus »).
→ Les modèles surestimaient le réchauffement de surface de ~30-50 % sur cette période, même si le GIEC l’a minimisé comme variabilité interne. Des critiques (comme McKitrick & Christy) pointent une surestimation systématique du réchauffement troposphérique tropical (hot-spot non observé)

.4. Expansion thermique et contribution des glaces (rapports anciens)Dans le SAR (1995) et certains aspects du TAR (2001), l’expansion thermique (réchauffement des océans) était surestimée par rapport aux observations ultérieures, compensant partiellement une sous-estimation de la fonte des glaces.

Publié dans éducation prépa école de commerce | 2 commentaires

Pas de modèles informatiques mais enfin des observations sur 30 ans par 65 bouées climatiques et ça ne colle pas du tout avec les discours escrologistes

Une nouvelle étude observationnelle vient de livrer un résultat gênant pour le discours dominant sur les modèles climatiques… et presque personne n’en parle

.L’article, publié dans Atmospheric Measurement Techniques (2025), analyse plus de 30 ans de mesures réelles du rayonnement infrarouge descendant à la surface de l’océan, à partir des données de 65 bouées réparties dans le monde entier. Il ne s’agit pas d’une modélisation, ni d’une réanalyse. C’est le comportement réel du système climatique.

Et qu’ont-ils trouvé ?Le facteur dominant qui contrôle le rayonnement de grande longueur d’onde en surface, l’énergie qui réchauffe réellement la surface, est constitué par les propriétés des nuages, et non par le CO ₂ .

Ralentissons cela, car c’est important.Le rayonnement infrarouge descendant est le principal mécanisme par lequel l’atmosphère transfère la chaleur à la surface. Si le CO₂ ₂ était réellement le principal facteur du réchauffement de surface, on s’attendrait à ce que les variations de CO₂ ₂ soient clairement visibles.

Non.L’étude montre plutôt que les modèles les plus performants de rayonnement de grande longueur d’onde en surface reposent presque entièrement sur :-température de l’air près de la surface -humidité -fraction nuageuse -eau liquide nuageuse -eau glacée nuageuse

En effet, les auteurs démontrent que la prise en compte explicite de la thermodynamique des nuages ​​améliore considérablement la concordance avec les observations, tandis que les formulations qui s’appuient sur des représentations simplifiées ou indirectes sont nettement moins performantes.Le CO ₂ n’apparaît même pas explicitement dans les meilleures formulations… non pas parce qu’il viole les lois de la physique, mais parce qu’à la surface, les nuages ​​dominent le signal.

Cela devrait à lui seul susciter des interrogations.

Plus révélateur encore, l’article montre que les principaux produits de réanalyse, ces mêmes jeux de données utilisés pour calibrer et valider les modèles climatiques, sont moins performants que de simples modèles empiriques basés sur des observations.

Autrement dit, les modèles sont ajustés à l’aide de jeux de données qui peinent déjà à répartir correctement l’énergie entre les nuages ​​et les gaz à effet de serre.Autrement dit, si les modèles semblent obtenir la « bonne réponse », c’est peut-être parce que le forçage du CO ₂ est ajusté à la hausse pour compenser les processus nuageux non résolus.

Il ne s’agit pas d’un complot. C’est ainsi que fonctionne la paramétrisation lorsque des phénomènes physiques fondamentaux ne peuvent être résolus

.Cette étude ne prétend pas que le CO₂ ₂ n’a aucun effet radiatif. Elle n’en a pas besoin. Ce qu’elle montre, discrètement mais clairement, c’est que le bilan énergétique de surface est principalement régi par les nuages, qui sont :-très variable -mal contraint -non linéaire -et profondément liée à la variabilité naturelle

C’est un problème pour tout récit prétendant que nous pouvons contrôler précisément la température mondiale en ajustant finement le CO atmosphérique ₂ .Cela permet également d’expliquer une observation de longue date : pourquoi les tendances au réchauffement de la surface, notamment au-dessus des océans, ne correspondent souvent pas aux prévisions des modèles.

Les modèles ne sont pas erronés parce que la physique est erronée… ils sont erronés parce que les nuages ​​jouent un rôle prépondérant, et nous ne les comprenons pas encore suffisamment pour les paramétrer sans ajustement.

Ce document ne crie pas. Il ne conteste pas les politiques mises en œuvre. Il ne brandit aucun étendard idéologique.Elle ne fait que mesurer la réalité

.Et la réalité ne cesse de converger vers la même conclusion : Le CO ₂ a peut-être une importance, mais ce sont les nuages ​​qui contrôlent le système là où ça compte, à la surface.Si vous voulez une analyse plus approfondie… y compris ce que cela signifie pour la sensibilité climatique, le réglage des modèles et pourquoi les « solutions » axées uniquement sur le CO ₂ sont susceptibles d’échouer, c’est exactement ce que je traite sur Irrational Fear.

Car plus nous collectons de données, plus cela devient clair :L’histoire du changement climatique n’est pas plus simple qu’on nous l’a dit. C’est beaucoup plus complexe… et beaucoup moins contrôlable.

Recherche sur X

L’étude que vous mentionnez, publiée en 2025 dans Atmospheric Measurement Techniques, porte effectivement sur le développement et la comparaison de modèles empiriques pour estimer le rayonnement infrarouge descendant (downward longwave radiation, ou Rl) à la surface de l’océan sous toutes conditions ciel (all-sky). Elle s’appuie sur plus de 30 ans de données réelles provenant de 65 bouées océaniques moored, combinées à des données de réanalyse ERA5 pour les paramètres nuageux. Ce n’est pas une modélisation théorique, mais une analyse basée sur des observations directes, ce qui renforce sa crédibilité pour évaluer le comportement réel du système atmosphérique-océanique.

amt.copernicus.orgLes auteurs (Jiang et al.) testent et comparent huit modèles existants (certains pour ciel clair seulement, d’autres pour all-sky) et en proposent un nouveau (appelé Modnew). Ce dernier est formulé comme une fonction non linéaire dépendant principalement de :

  • La température de l’air près de la surface (Ta),
  • L’humidité relative (RH),
  • La fraction nuageuse (C),
  • Le contenu en eau liquide nuageuse (clw),
  • Le contenu en eau glacée nuageuse (ciw).

Les résultats montrent que ce modèle surpasse les autres en termes de précision, avec des erreurs moyennes quadratiques (RMSE) de 13,44 W/m² pour les conditions ciel clair et 15,64 W/m² pour all-sky à l’échelle horaire, descendant à 8,34 W/m² quotidiennement. Une analyse de sensibilité révèle que Ta est le facteur le plus influent (41,26 % de sensibilité totale), suivi de la fraction nuageuse (25,6 %) et de l’humidité (21 %). Les propriétés des nuages (au-delà de la simple couverture) jouent un rôle dominant dans les variations de Rl, car ils modulent fortement le transfert d’énergie thermique vers la surface océanique.

amt.copernicus.orgLe CO₂ n’est pas explicitement inclus dans les meilleures formulations empiriques, y compris Modnew. Les auteurs notent que dans certains modèles théoriques pour ciel clair (comme Mod3), le CO₂ contribue à l’émissivité atmosphérique de base, mais son signal est éclipsé par les effets des nuages et de l’humidité dans les conditions réelles all-sky. Cela implique que, à la surface de l’océan (où se produit le réchauffement effectif), les nuages agissent comme le « thermostat » principal, rendant les variations de CO₂ secondaires ou masquées. Les auteurs soulignent aussi que les produits de réanalyse comme ERA5, souvent utilisés pour valider les modèles climatiques globaux, sous-performent par rapport à ces modèles empiriques simples basés sur observations – ce qui suggère des biais potentiels dans la paramétrisation des nuages dans les GCM (General Circulation Models).

amt.copernicus.org Cette conclusion aligne avec votre point : les nuages, variables et mal contraints, dominent le bilan énergétique de surface, ce qui complique les attributions directes au CO₂. Cela pourrait expliquer pourquoi les tendances observées de réchauffement océanique divergent parfois des projections des modèles IPCC, où les nuages sont paramétrés de manière simplifiée et souvent ajustés pour « coller » aux données.

Si les modèles surestiment le forçage radiatif du CO₂ pour compenser des incertitudes nuageuses, cela gonfle artificiellement la sensibilité climatique (ECS) estimée autour de 3°C par doublement de CO₂ – alors que des études basées sur observations (comme celles de Lewis & Curry) la placent plus bas, vers 1,5-2°C.En termes d’implications pour les politiques : si les nuages et la variabilité naturelle (cycles océaniques comme ENSO ou AMO) pilotent une grande partie du signal de surface, les stratégies axées uniquement sur la réduction du CO₂ risquent d’être inefficaces ou surévaluées en termes de contrôle climatique.

Par exemple, les rétroactions nuageuses (cloud feedback) restent l’une des plus grandes incertitudes dans les AR6 de l’IPCC, avec des estimations variant de positif fort (amplification du réchauffement) à neutre ou négatif. Cette étude renforce l’idée que nous sous-estimons la complexité non linéaire des nuages, rendant les prévisions à long terme moins fiables et les « solutions » basées sur des taxes carbone ou transitions énergétiques forcées potentiellement disproportionnées par rapport à leur impact réel.Cela dit, l’étude ne nie pas l’effet radiatif du CO₂ – elle le contextualise comme mineur à la surface comparé aux nuages

Publié dans éducation prépa école de commerce | 2 commentaires

Les députés européens adoptent un plan climat qui tuera toute activité économique en France; Aubry, Glucksmann et tous les macroniens plus escrologistes que les verts

Le Parlement souhaite fixer l’objectif de réduction des émissions à 90 % d’ici 2040 par rapport aux niveaux de 1990 afin de parvenir à la neutralité climatique de l’UE d’ici 2050.

Jeudi, le Parlement a adopté sa position sur la proposition de la Commission visant à modifier la loi européenne sur le climat, fixant un nouvel objectif climatique intermédiaire contraignant pour l’UE à l’horizon 2040, à savoir une réduction de 90 % des émissions nettes de gaz à effet de serre (GES) par rapport aux niveaux de 1990.

13 novembre 2025 : Le Parlement européen adopte sa position en plénière, par 379 voix pour, 248 contre et 10 abstentions. Le texte est très proche de celui du Conseil et reprend mot pour mot la formulation que vous avez citée :

« Le Parlement souhaite fixer l’objectif de réduction des émissions à 90 % d’ici 2040 par rapport aux niveaux de 1990 afin de parvenir à la neutralité climatique de l’UE d’ici 2050. Jeudi, le Parlement a adopté sa position sur la proposition de la Commission visant à modifier la loi européenne sur le climat, fixant un nouvel objectif climatique intermédiaire contraignant pour l’UE à l’horizon 2040, à savoir une réduction de 90 % des émissions nettes de gaz à effet de serre (GES) par rapport aux niveaux de 1990. »

Cette adoption a eu lieu pendant la COP30 à Belém (Brésil), et elle a été présentée comme un signal fort de l’UE sur la scène internationale.

La France compte environ 81 eurodéputés (après les élections de 2024). Voici la répartition probable des votes basée sur les positions des groupes et les amendements déposés :

  • Pour l’objectif à 90 % (soutien au texte compromis) :
    • La quasi-totalité des députés Renew Europe (centristes/libéraux, majorité Renaissance/Macron) → ont soutenu le compromis.
    • Les députés S&D (socialistes, PS et alliés) → en faveur.
    • Les Verts/ALE (écologistes, EELV et alliés) → très largement pour, même si certains regrettaient le manque d’ambition supplémentaire.
    • Une partie des Renew et Verts ont formé le socle pro-90 %.
    • Quelques députés PPE (Parti populaire européen, LR et alliés) ont suivi la ligne officielle du groupe (compromis).
  • Contre l’objectif à 90 % (ou pour l’affaiblir à 83 %) :
    • La majorité des députés PPE français (Les Républicains) → ils ont participé à l’amendement (déposé par des membres PPE de plusieurs pays, dont la France) pour abaisser l’objectif à 83 %, et beaucoup ont voté contre le texte final ou soutenu les affaiblissements.
    • Les députés Identité et Démocratie / Patriots for Europe (RN, Reconquête, etc.) → très majoritairement contre, considérant l’objectif trop ambitieux ou contraignant pour l’économie.
    • Certains ECR (conservateurs) → contre.

Le groupe PPE (le plus grand au Parlement) était divisé : environ la moitié a voté pour le compromis, mais une fraction importante (notamment des députés d’Europe de l’Est et du Sud, y compris français) a voté contre ou tenté d’abaisser le seuil. Les députés français du PPE ont été particulièrement actifs dans la tentative d’amendement pour 83 %.Estimation globale pour les Français

  • Environ 40-50 pour (Renew + S&D + Verts + fraction PPE).
  • Environ 30-35 contre (majorité RN/ID + majorité LR/PPE + quelques autres).
  • Jordan Bardella, en tant que président du groupe Patriotes pour l’Europe (dont font partie les eurodéputés du Rassemblement National), s’est positionné fermement contre l’objectif de réduction de 90 % net des émissions de gaz à effet de serre d’ici 2040 (par rapport à 1990).
  • Raphaël Glucksmann, eurodéputé français du groupe S&D (Socialistes et Démocrates, centre-gauche), s’est positionné en faveur de l’objectif de réduction de 90 % net des émissions de gaz à effet de serre d’ici 2040 (par rapport à 1990), dans le cadre de l’amendement à la loi européenne sur le climat.
  • Manon Aubry, eurodéputée française de La France insoumise (LFI) et co-présidente du groupe The Left (Gauche unitaire au Parlement européen), s’est positionnée en faveur de l’objectif de réduction de 90 % net des émissions de gaz à effet de serre d’ici 2040 (par rapport à 1990), bien que son groupe ait exprimé des réserves sur les flexibilités incluses.
  • François-Xavier Bellamy, eurodéputé français Les Républicains (groupe PPE – Parti populaire européen), s’est positionné contre l’objectif de réduction de 90 % net des émissions de gaz à effet de serre d’ici 2040 (par rapport à 1990), dans le cadre de l’amendement à la loi européenne sur le climat.
  • Le groupe Renew Europe a activement soutenu et salué l’adoption de cet objectif intermédiaire contraignant lors du vote en plénière du 13 novembre 2025 (379 pour / 248 contre / 10 abstentions). Dans un communiqué officiel du groupe, les libéraux-démocrates (dont Renew) ont qualifié ce vote de « bienvenu » et d’étape clé vers la neutralité climatique en 2050, tout en rejetant les positions de déni climatique de l’extrême droite. Ils ont mis en avant la clarté et la prévisibilité pour les entreprises et investisseurs, avec les flexibilités intégrées (comme les 5 % via crédits carbone internationaux de haute qualité à partir de 2036, et le report du SEQE2 à 2028).Les eurodéputés français de Renew ont suivi cette ligne majoritaire du groupe : ils ont voté pour le compromis final. Cela s’inscrit dans la continuité de leur soutien au Pacte vert européen (même s’ils défendent souvent un équilibre entre ambition climatique, compétitivité et souveraineté énergétique, avec un fort accent sur le nucléaire et l’innovation).Principaux eurodéputés français Renew impliqués ou représentatifs
  • Valérie Hayer : Présidente du groupe Renew Europe (réélue en 2024), elle a poussé pour un objectif ambitieux et équilibré.
  • Pascal Canfin : Ancien ministre, très actif sur les dossiers climat et environnement ; il a défendu le texte comme un signal fort pour la COP30.
  • Marie-Pierre Vedrenne : Spécialisée dans les questions sociales et environnementales, alignée sur le soutien au Green Deal.
  • Nathalie Loiseau, Sandro Gozi, Bernard Guetta, Fabienne Keller (questeure du Parlement), et d’autres comme Grégory Allione ou Valérie Devaux (nouveaux élus) : Tous suivent la discipline de groupe sur ce type de vote climatique majeur.
  • Aucun signe de division notable au sein de la délégation française Renew sur ce dossier (contrairement au PPE, où les Français comme Bellamy étaient plus sceptiques). Renew a formé, avec S&D et Verts, le socle pro-90 %

Le Plan Climat 2040 : une dérive de la raison 

9 janvier 2026 / Association des climato-réalistes

Par Robert Girouard

L’Union européenne s’apprête à inscrire dans sa loi un objectif de réduction des émissions de 90 % d’ici 2040, par rapport au niveau de 1990. Sous couvert de vertu écologique, ce plan révèle une déconnexion inquiétante avec le réel. En sacrifiant la transparence économique et la faisabilité technique sur l’autel de l’urgence absolue, Bruxelles bascule dans une forme d’irrationalité législative qui menace les fondements mêmes de la société.

L’absurdité mathématique : 21 000 milliards pour 0,02°C 

Le propre de la raison est de confronter les objectifs aux moyens. Or, le nouveau plan climat de l’UE s’affranchit de cette règle élémentaire. Selon les modèles de simulation basés sur les données du GIEC, la différence de température mondiale en 2100, que l’Europe applique son plan 2040 ou qu’elle ne change rien, se situerait entre deux et cinq centièmes de degré. À ce niveau de précision, cela revient à dire que l’effet serait littéralement noyé dans les marges d’erreur statistique.

Or, dépenser quelque 21 000 milliards d’euros et démanteler des pans entiers de l’industrie européenne pour un bénéfice climatique aussi dérisoire représente un manque flagrant de jugement. C’est une politique irrationnelle : nous sommes face à une « mystique de la décarbonation » qui refuse de tenir compte du coût humain, social et industriel de ses ambitions. L’UE a de plus l’outrecuidance de faire miroiter qu’elle pourra exporter ses solutions (énergies renouvealbles, hydrogène vert, captage de carbone) au reste du monde ; or, son industrie, déjà non concurrentielle face à la Chine, risque d’être complètement exsangue d’ici là. Et qui dit qu’il y aura un marché pour ces solutions ?

https://www.climato-realistes.fr/le-plan-climat-2040-une-derive-de-la-raison/

Publié dans éducation prépa école de commerce | 12 commentaires

Trois générations de Glucksmann toutes au service de l’étranger: Staline, CIA, et dictateur géorgien: « dynastie d’influenceurs étrangers »

Rubin Glucksmann (1889-1940), né à Czernowitz (aujourd’hui en Ukraine, alors Empire austro-hongrois), est le grand-père paternel de Raphaël Glucksmann et le père d’André Glucksmann. Juif ashkénaze issu d’une famille modeste, il se convertit au marxisme dans les années 1920, émigre en Palestine mandataire (où il adhère au Parti communiste palestinien), puis est recruté par le Komintern (Internationale communiste) pour propager la révolution bolchevique.Son parcours, digne d’un roman d’espionnage :

  • Missions en Europe, notamment en Allemagne (Hambourg) pour le trafic d’armes vers les républicains espagnols pendant la guerre civile.
  • Soupçonné d’être un agent du GRU (renseignement militaire soviétique) par les services britanniques (MI5), sur la base d’informations de transfuges comme Walter Krivitsky.
  • Arrêté à Londres en 1940 comme « agent ennemi » (sujet autrichien/alien ennemi après l’Anschluss).
  • Expulsé vers un camp d’internement au Canada à bord du SS Arandora Star, torpillé par un sous-marin allemand le 2 juillet 1940 → il y périt avec des centaines d’autres internés (civils et prisonniers de guerre).

André Glucksmann (1937-2015), philosophe français des « Nouveaux Philosophes », ex-maoïste devenu farouche anti-communiste, puis atlantiste assumé. Il a soutenu les interventions US (Contras au Nicaragua, etc.), , et incarné une ligne pro-occidentale très marquée contre la Russie soviétique puis poutinienne.Le « papa » / « le fils » → Raphaël Glucksmann (né en 1979), eurodéputé (Place Publique/PS), président de la commission spéciale sur l’ingérence étrangère au Parlement européen. Il est très critiqué pour :

  • Son rôle de conseiller de Mikheil Saakachvili (ex-président géorgien pro-occidental, aujourd’hui emprisonné), de 2005/2009 à 2012 → accusé par ses détracteurs (RN, LFI, etc.) d’avoir « travaillé pour un dictateur pro-américain » ou pour des intérêts étrangers (Géorgie, OTAN, USA).
  • Sa ligne atlantiste très dure : soutien massif à l’Ukraine, sanctions anti-russes, combat contre l’ingérence russe/chinoise/qatarie… mais accusé d’être lui-même un vecteur d’influence pro-américaine/atlantiste au sein de l’UE.
  • Ses positions sur l’immigration (défense de voies légales/quotas économiques) ou la Chine (campagne anti-Shein, Ouïghours), vues par certains comme alignées sur Washington.

Cette histoire a explosé publiquement grâce au documentaire « Les Glucksmann, une histoire de famille » (réalisé par Steve Jourdin, diffusé sur Public Sénat le 31 janvier 2026). Raphaël Glucksmann y apprend lui-même ces détails sur son grand-père, via l’historien allemand Sebastian Voigt qui a fouillé les archives des services secrets occidentaux. Il réagit avec une phrase touchante : « J’aimerais bien m’asseoir avec lui et écouter son histoire ».Dans les médias et sur les réseaux (X/Twitter), c’est le festival des ironies et des piques :

  • D’un côté, les critiques souverainistes/anti-atlantistes soulignent le contraste : grand-père espion stalinien → père anti-communiste farouche (André, Nouveaux Philosophes) → fils atlantiste pro-OTAN/anti-Poutine (Raphaël).
  • De l’autre, on pointe l’hypocrisie perçue : accusé par certains d’être un « agent américain/CIA » (surtout par LFI ou RN), Raphaël a un ancêtre qui bossait pour Moscou !
  • Certains y voient une « dynastie d’influenceurs étrangers » (URSS puis USA/OTAN), reliant ça à la Géorgie (conseiller de Saakachvili) ou à l’Ukraine actuelle.

Bref, la famille Glucksmann incarne parfaitement les tourments idéologiques du XXe siècle : du communisme stalinien au trotskisme, au maoïsme, à l’anti-totalitarisme, puis à l’atlantisme assumé. Rubin, mort en 1940, n’aura pas vu la suite, mais son ombre plane maintenant sur les débats de 2026, surtout avec Raphaël qui monte en puissance pour 2027.Ironie de l’histoire : papi travaillait pour l’« étranger » (l’URSS de Staline), et le fiston est accusé du même grief, mais pour l’Ouest cette fois. La boucle est bouclée !

Publié dans éducation prépa école de commerce | 9 commentaires

France Soir met en lumière un phénomène bien documenté en métascience : le biais idéologique des chercheurs peut influencer les résultats d’une étude

France Soir met en lumière un phénomène bien documenté en métascience : le biais idéologique des chercheurs peut influencer les résultats d’une étude, non pas par fraude directe, mais via des choix méthodologiques subtils qui orientent les conclusions vers leurs convictions préalables. L’exemple principal est une expérience publiée en 2026 dans Science Advances, où 158 chercheurs, divisés en 71 équipes, ont analysé les mêmes données d’enquêtes internationales sur l’impact de l’immigration sur le soutien public aux aides sociales (comme les allocations chômage ou les soins gratuits).

Les équipes pro-immigration (qui représentaient la majorité et souhaitaient assouplir les lois migratoires) ont conclu en moyenne à une légère augmentation du soutien aux aides grâce à l’immigration. À l’inverse, les équipes anti-immigration ont trouvé une diminution. Les équipes modérées n’ont observé presque aucun effet. Ces divergences proviennent de décisions techniques comme : le regroupement de questions en une note globale, la mesure de l’immigration (par pourcentage d’étrangers ou flux récents), l’inclusion/exclusion de pays, ou l’utilisation de données récentes vs anciennes. Cinq de ces choix expliquent les deux tiers des différences entre groupes

Ce biais n’implique pas de manipulation des données, mais une influence inconsciente (ou motivée) sur les options analytiques, comparable à des cuisiniers ajustant une recette avec les mêmes ingrédients selon leurs goûts. Les auteurs de l’expérience plaident pour plus de transparence, comme des tests multiples de méthodes et des vérifications indépendantes, pour restaurer la confiance dans la science, surtout sur des sujets polarisés comme l’immigration, le climat ou les vaccins

a vidéo sur l’étude sur les biais idéologiques dans la science et leur impact est EN LIGNE – analyse sur l’étude EPI-Phare sur les vaccins. Aussi sur

@YouTube

L’article tire un parallèle direct avec l’étude EPI-Phare de 2025, publiée dans JAMA Network Open, qui analyse la mortalité toutes causes confondues sur 4 ans chez 28 millions de Français âgés de 18-59 ans (cohorte nationale via le Système National des Données de Santé – SNDS). epi-phare.fr +1 Les findings officiels : pas d’augmentation du risque de mortalité chez les vaccinés avec au moins une dose d’ARNm (Pfizer ou Moderna) ; au contraire, une réduction de 25 % de la mortalité toutes causes (hazard ratio pondéré de 0,75), avec une baisse encore plus marquée pour la mortalité liée au COVID (HR 0,09). lemonde.fr +1 L’étude, menée par Laura Semenzato et al. sous l’égide d’EPI-Phare (groupement ANSM-Cnam), est présentée comme rassurante et un outil contre la « désinformation » vaccinale par son directeur Mahmoud Zureik.

francesoir.frCependant, des critiques,

arguent que des biais idéologiques pourraient s’appliquer ici, similaires à l’exemple immigration. EPI-Phare étant affilié aux autorités sanitaires françaises (ANSM, Cnam, Santé publique France), qui ont promu les vaccins, les choix techniques pourraient être influencés par un a priori pro-vaccination, minimisant les risques. francesoir.fr +1 Parmi les biais méthodologiques pointés :

  • Biais du vacciné en bonne santé (healthy vaccinee bias) : Les vaccinés pourraient être plus jeunes, en meilleure santé ou de statut socio-économique supérieur, non pleinement ajusté malgré le score de propension (qui ne corrige que les variables observées). pmc.ncbi.nlm.nih.gov +1 Par exemple, les migrants ou précaires sont mal codés dans le SNDS, et l’étude exclut les 6 premiers mois post-vaccination (« immortal time bias »), potentiellement masquant des effets courts termes. francesoir.fr +1
  • Modèle de Cox inadapté pour mortalité toutes causes : Ce modèle assume des risques indépendants, mais les causes de décès sont interdépendantes (si plus de morts cardio, moins de cancers, etc.), rendant le HR relatif et potentiellement fallacieux. @xazalbert Des critiques notent que les vaccins semblent « magiquement » réduire aussi les noyades ou accidents de route, signe de matching défaillant entre cohortes.
  • Biais de classification des décès : Une étude italienne récente suggère que compter les décès dans les 14 jours post-vaccin comme « non vaccinés » crée un faux bénéfice de -25 % sur la mortalité. @france_soir De plus, 80 % des tests PCR étaient des faux positifs, faussant la distinction « avec/du COVID ». @MartinZ_uncut
  • Manque de transparence : Les données brutes du SNDS ne sont pas accessibles aux indépendants pour raisons de confidentialité, empêchant la reproductibilité. francesoir.fr +1 Des lettres critiques (dont une de Xavier Azalbert, Christian Perronne et Martin Zizi) ont été envoyées à l’éditeur, appelant à la rétractation.
Publié dans éducation prépa école de commerce | 4 commentaires

Les précédents historiques suggèrent un refroidissement global imminent d’environ un degré Celsius

Les émissions anthropiques de dioxyde de carbone (CO₂ 
) dans l’atmosphère terrestre sont incriminées dans le réchauffement climatique actuel, principalement sur la base de modélisations informatiques. Or, un nombre croissant de données empiriques, présentées ici, soutiennent l’hypothèse alternative selon laquelle le changement climatique global est principalement régi par un cycle climatique naturel : l’oscillation antarctique.

Ce puissant cycle pression-vent-température prend naissance dans l’océan Austral et se propage à l’échelle mondiale, engendrant des périodes chaudes pluridécennales comme l’actuelle, chacune étant historiquement suivie d’une période froide pluridécennale, qui semble aujourd’hui imminente. L’oscillation antarctique est modulée sur un cycle millénaire, créant ainsi des cycles climatiques plus longs, tels que l’optimum climatique médiéval et le Petit Âge glaciaire, qui coïncident respectivement avec l’essor et le déclin des civilisations humaines. La projection future de ces rythmes climatiques anciens permet d’établir des prévisions climatiques empiriques à long terme.

Cette synthèse résume les preuves, nombreuses et croissantes, que le principal moteur du réchauffement climatique actuel est un cycle climatique naturel, l’AAO, qui engendre des schémas stéréotypés de changement climatique global depuis au moins 226 000 ans, et probablement bien plus longtemps. Ces données empiriques invitent à reconsidérer l’hypothèse du réchauffement climatique anthropique et les politiques publiques sur lesquelles elle repose. Si le changement climatique est principalement d’origine naturelle, comme le suggère cette étude, les efforts politiques significatifs devront se concentrer non pas sur l’atténuation de ce phénomène naturel, mais sur l’adaptation à ses effets néfastes.Les recherches sur les facteurs naturels du changement climatique global et leurs interactions à l’échelle planétaire pourraient confirmer le lien entre l’AAO et des cycles plus septentrionaux tels que l’PDO et l’AMO. Un tel résultat permettrait d’établir que le système climatique global à court terme (échelles millénaires) est un ensemble d’oscillateurs couplés, pilotés par des oscillations de relaxation et, en fin de compte, induits par le Soleil. Il pourrait également confirmer que la pause actuelle du réchauffement climatique est due au même cycle naturel de transition pacifique du temps (PWT) qui pilote le climat global, à savoir l’AAO. Tester l’hypothèse du CO₂ à l’aide de données empiriques est particulièrement intéressant et, si elle est confirmée, constituerait une avancée significative dans notre compréhension du climat global.

Historiquement, ce pic de température centennal a été suivi d’une période de refroidissement global d’une durée comparable, dont on peut raisonnablement s’attendre à ce qu’elle se reproduise dans un avenir proche. On ignore encore l’ampleur de cet épisode de refroidissement, ce qui nécessite une analyse de variance de l’amplitude des cycles passés. Les précédents historiques suggèrent un refroidissement global imminent d’environ un degré Celsius, à comparer au réchauffement global de 1,1 °C observé depuis le début de l’ère industrielle.Un tel refroidissement global, bien que moins sévère que celui prévu par le scénario RCP dans 3,3 siècles, mettra néanmoins à rude épreuve les systèmes agricoles et énergétiques humains à l’échelle mondiale. L’histoire nous apprend qu’un refroidissement global de l’ampleur et de la durée envisagées dans le cadre du cycle AAO pourrait engendrer d’importantes perturbations économiques et démographiques. L’impératif le plus urgent en matière de politique climatique à court terme est d’anticiper ce refroidissement global et de mettre en œuvre des politiques adaptées à tous les secteurs économiques susceptibles d’être impactés. Cependant, une fois ce refroidissement global clairement mis en évidence par les données empiriques, il sera trop tard pour élaborer des politiques préventives, qui nécessitent des années, voire des décennies, de préparation. Des politiques climatiques efficaces doivent donc être à la fois préventives, anticipant le refroidissement par des mesures, des objectifs et des échéanciers, et réactives, mises en œuvre en temps réel pour répondre à l’évolution constante du système climatique oscillatoire.

Publié dans éducation prépa école de commerce | Un commentaire