Comment les escrologistes manipulent les observations réelles pour faire croire à un réchauffement catastrophique

ERA5 n’est pas une simple compilation de mesures thermométriques directes. C’est une réanalyse produite par l’ECMWF (Centre européen pour les prévisions météorologiques à moyen terme), qui combine :

  • Des observations réelles (stations météo, satellites, radiosondages, etc.),
  • Un modèle numérique d’assimilation de données (4D-Var),
  • Des lois physiques pour combler les lacunes spatiales et temporelles.

Le résultat est une grille régulière (environ 31 km) de variables estimées, y compris la température à 2 m, mais ce n’est pas une « donnée brute mesurée » partout. C’est une reconstruction modélisée, ce qui peut introduire des biais systématiques, surtout dans les zones à faible densité d’observations ou avec des changements dans le réseau d’observations au fil du temps.Concernant votre test spécifique (comparaison grille ERA5 vs USCRN aux États-Unis) :

  • USCRN (United States Climate Reference Network) est un réseau de stations très bien maintenu, implanté dans des sites ruraux/pristins depuis ~2001-2005, avec une instrumentation de haute qualité et minimisant les biais d’urbanisation ou de relocalisation. C’est souvent considéré comme une référence « terrain » fiable pour les USA continentaux.
  • Plusieurs études montrent que les réanalyses comme ERA5 présentent des biais de température en surface, variables selon les régions, les saisons et les périodes :
    • En général, ERA5 a tendance à être plus chaud que certaines observations dans des contextes spécifiques (par exemple, en Arctique sur la glace de mer, ou dans des zones complexes topographiquement).
    • Mais pour les USA, les comparaisons directes ERA5 vs stations montrent souvent un accord raisonnable (biais moyens < 0.5–1 °C dans beaucoup d’études européennes ou globales), avec des erreurs plus fortes localement.

Le résultat décrit un biais temporel structuré : ERA5 rendrait le passé plus froid et le présent plus chaud par rapport aux stations USCRN, avec un « point de pivot » (changement de signe du biais au fil du temps), aboutissant à une amplification artificielle du réchauffement d’environ 1,5 °C dans les tendances.C’est une critique sérieuse et récurrente dans certains cercles sceptiques : les réanalyses pourraient artificiellement accentuer les tendances récentes à cause de :

  • L’amélioration progressive des observations assimilées (plus de satellites, meilleurs instruments depuis les années 2000),
  • Des corrections de biais variationnelles (VarBias) qui évoluent,
  • Une dépendance croissante aux modèles quand les observations directes sont moins denses dans le passé.

1/ On utilise le terme « réanalyse » comme s’il s’agissait de données thermométriques. Ce n’est PAS le cas.
La réanalyse est un modèle informatique météorologique.

Nous avons donc effectué un test : comparaison entre ERA5 et USCRN à l’échelle de la grille. Résultat : un point de pivot plus froid dans le passé et plus chaud dans ERA5 par rapport aux stations. Modèle ❌

~1,5 °C 🔴 erreur du modèle par rapport à la vérité terrain (mesurée 🔵 )

Nous essayons deux autres paires. Le bâton de hockey finira bien par se révéler quelque part, non ?

Non. Pas là.

Même l’homogénéisation par paires (probablement imparfaite) ne peut pas lui donner une forme précise.

Eh bien, eh bien… C’est presque comme si les données brutes et précises refusaient de coopérer.

Publié dans éducation prépa école de commerce | 4 commentaires

L’ARNm contaminé qui vous a été injecté: un scandale sanitaire étouffé pendant combien de temps?

L’infographie signée par Jessica Rose, PhD (janvier 2026), résume des conclusions d’une recherche récente (préprint ou preprint publié fin 2025) sur la contamination par ADN résiduel dans les vaccins à ARNm COVID-19 (Pfizer et Moderna).

Elle met l’accent sur les hybrides ARNm:ADN (RNA:DNA hybrids) formés pendant la fabrication, qui posent des problèmes majeurs de contrôle qualité.Points clés de l’infographie et du travail sous-jacentProblème principal (Root Cause) : Lors de la transcription in vitro (IVT) pour produire l’ARNm modifié (avec N1-méthyl-pseudouridine), une partie de l’ADN plasmidique template hybridise avec l’ARNm transcrit (surtout dans les régions complémentaires comme le gène spike). Ces hybrides ARNm:ADN sont très stables et résistent fortement à la digestion par la DNase I standard utilisée en fabrication.
Niveaux de contamination : Les analyses montrent des niveaux d’ADN résiduel 15 à 48 fois supérieurs à la limite FDA (10 ng/dose), et jusqu’à 100-1000 fois plus dans certaines régions protégées par hybridation.
Problèmes de détection (Detection Problem) :La méthode standard (qPCR sur un seul locus, souvent le gène de résistance à la kanamycine – KAN) sous-estime massivement la contamination (jusqu’à >100 fois), car elle cible des régions sensibles à la DNase et rate les hybrides protégés.
La fluorométrie Qubit (avec RNase A) donne des résultats plus précis pour l’ADN total.
Le séquençage Oxford Nanopore détecte des fragments longs (> plusieurs kb) non dégradés.

Solution proposée : Utiliser DNase I-XT (une variante optimisée pour digérer les hybrides ARNm:ADN). Les tests montrent qu’elle dégrade 100-1000 fois mieux l’ADN dans les régions hybrides, y compris le spike et le backbone plasmidique.
Implications cliniques potentielles : Ces fragments d’ADN longs pourraient persister, être captés par les cellules via les nanoparticules lipidiques, et poser des risques (intégration génomique, inflammation chronique, etc.). Les auteurs soulignent un écart réglementaire (regulatory gap) : les méthodes actuelles ne détectent pas correctement ces impuretés.

Ce travail est co-signé par Kevin McKernan, Charles Rixey et Jessica Rose (entre autres). Il s’appuie sur des analyses de fioles non ouvertes (Pfizer et Moderna) conservées en chaîne du froid. Il a été publié en preprint sur Zenodo (décembre 2025) et relayé sur des plateformes comme Substack (Anandamide, le pseudonyme de McKernan), Children’s Health Defense, et des revues alternatives. Des versions antérieures ou liées ont paru dans des journaux comme Autoimmunity ou Science, Public Health Policy and the Law.

Publié dans éducation prépa école de commerce | 3 commentaires

Le rapport Cotton met en lumière des faiblesses objectives et légitimes de l’essai initial Pfizer et de la communication politique.

@StatChrisCotton

Les amis, je vous partage la dernière version de mon rapport sur les essais cliniques pfizer pour son vaccin covid. Ce document a été utilisé dans les plaintes contre les autorités de santé, le recours pour abus de pouvoir contre l’Ansm et la plainte pénale pour tromperie aggravée et administration d’une substance sans consentement.

Ce rapport démontre que le produit injecté a la population n’est pas celui de l’essai clinique aux 95% d’efficacité tant vantée par les politiques, journalistes et médecins de plateau et qu’au moment où il a été autorisé, il n’y avait aucun résultat ni d’efficacité, ni de tolerance.

Il met en evidence les résultats incomplets, les multiples risques et informations manquantes ainsi que les nombreux problèmes méthodologiques voire des fraudes invalidant tous les résultats. Si vous n’avez pas le courage de le lire en entier, lisez au moins la conclusion qui est sans appel.

Ce produit est le plus gros scandale de l’histoire de l’industrie pharmaceutiques, mensonges, manipulations de masse, refus de reconnaître les victimes… A l’avenir, soyez vigilants.

Pour confirmer les propos de Christine Cotton voici un extrait du contrat signé entre l’EU et Pfizer le 19 Mai 2021 à New York puis le 20 Mai 2021 à Bruxelles par l’EU « L’État membre participant reconnaît que les effets à long terme et l’efficacité du vaccin ne sont pas connus à l’heure actuelle et qu’il peut y avoir des effets indésirables du vaccin qui ne sont pas connus à l’heure actuelle. En outre, dans la mesure où cela est applicable, l’État membre participant reconnaît que le vaccin ne doit pas être sérialisé »

christinecotton.fr/expertise_maj

@AnneliseBocquet

Pour les effets à long terme, j’en ai bien une petite idée mais ça ne va pas plaire beaucoup…

1. Maintien des réservoirs viraux via activation mTOR

2. Amyloses et dégénérescence

3. Pathologies auto-immunes

4. Immunodéficience avec réactivation de virus latents (y compris le SARS-CoV-2 lui même)

5. Cancers

6. Atteinte de la fertilité Et ça, ce n’est qu’un extrait car on n’a aucune idée des impacts réels chez les embryons… notamment au niveau du système immunitaire et au niveau épigénétique (modifications à la surface des gènes, ce qui impacte leur expression).

@AnneliseBocquet reprend les communications officielles

Le rapport Cotton met en lumière des faiblesses objectives et légitimes de l’essai initial et de la communication politique.

Sur la SEP (sclérose en plaques) et autres auto-immunes (ex. pemphigoïde bulleuse) : pas de signal fort d’augmentation significative du risque lié aux vaccins dans les grandes cohortes et méta-analyses récentes. L’infection COVID reste plus risquée pour déclencher/aggraver ces pathologies. Sauf que, les injections anti-covid n’arrêtent pas les contaminations… c’est ballot. https://pmc.ncbi.nlm.nih.gov/articles/PMC9965204/ https://pubmed.ncbi.nlm.nih.gov/36242513/ https://pmc.ncbi.nlm.nih.gov/articles/PMC10289159/ https://tandfonline.com/doi/full/10.1080/14760584.2025.2505754 https://thelancet.com/journals/lanmic/article/PIIS2666-5247(22)00390-1/fulltext https://thelancet.com/journals/lanres/article/PIIS2213-2600(23)00015-2/fulltext

Absence de PCR systématique dans l’essai Pfizer : limite méthodologique réelle. Tests PCR seulement sur symptomatiques déclarés. Il y a donc bien une sous-détection probable des infections asymptomatiques et biais sur l’efficacité contre infection/transmission. Christine Cotton,

@StatChrisCotton, pointe justement cette faiblesse ; le design était cependant standard pour l’endpoint principal (maladie symptomatique confirmée). Biais dès le départ. Je rappelle juste que les covids asymptomatiques sont documentés depuis… pfiou… https://x.com/i/status/1929455753338765319https://x.com/i/status/1778032082502987907https://pmc.ncbi.nlm.nih.gov/articles/PMC12490459/https://pmc.ncbi.nlm.nih.gov/articles/PMC7404334/

Des vaccins… Pas stérilisants du tout : Les vaccins (même actualisés LP.8.1/JN.1 pour 2025-2026) ne stoppent pas les infections/breakthroughs. VE contre infection Omicron-descendants : souvent 20-50 % court terme post-booster, waning rapide (quelques mois à ~10-30 %). Breakthroughs massifs, surtout asymptomatiques/légers. Ça contredit les surpromesses 2021 (« protège les autres », pass sanitaire justifié par ça). https://pmc.ncbi.nlm.nih.gov/articles/PMC12424867/ https://nature.com/articles/s41467-025-67796-0 https://nejm.org/doi/full/10.1056/NEJMsa2514268

Transmission : Pfizer n’a jamais revendiqué de preuve directe contre la transmission dans les documents d’essai ou d’autorisation. Les affirmations fortes (« stoppe la transmission », « vaccinés ne transmettent pas ») venaient principalement des discours politiques (Biden, Macron, Véran, Trudeau, etc.) et ont servi à justifier pass sanitaire / vaccinal. En France, la politique officielle 2021-2022 était : une infection COVID comptait comme équivalent à une dose de vaccin (voire booster) pour valider/prolonger le pass sanitaire.

Publié dans éducation prépa école de commerce | 4 commentaires

Interdiction des réseaux sociaux aux ados: le but est de tracer, contrôler, ficher toute la population ,les ados pourront se défouler sur le site ministériel Onsexprime

L’Assemblée nationale a adopté (130 voix pour, 21 contre) la proposition de loi interdisant l’accès aux réseaux sociaux aux mineurs de moins de 15 ans. Le texte, porté par Laure Miller (Renaissance) et soutenu par le gouvernement Macron, sera examiné au Sénat dans les semaines à venir, avec une procédure accélérée pour une entrée en vigueur visée dès la rentrée scolaire 2026 (septembre pour les nouveaux comptes, vérification d’âge pour tous les utilisateurs d’ici janvier 2027).

  • Plateformes concernées : Services de réseaux sociaux en ligne (TikTok, Instagram, Snapchat, Facebook, X/Twitter, YouTube dans sa dimension sociale, etc.). Exclusions : messageries privées (WhatsApp, Signal), plateformes éducatives.
  • Justification officielle : Protéger la santé mentale des adolescents (cyberharcèlement, exposition à contenus inappropriés, troubles du sommeil, anxiété, addiction). Études Anses et rapports internationaux cités.
  • Application prévue : Les plateformes devront mettre en place une vérification d’âge efficace (sous contrôle de l’Arcom). Le gouvernement vise une compatibilité avec le DSA européen (Digital Services Act).

Le lien avec le traçage numériqueC’est le point critique soulevé par de nombreux observateurs (y compris sur X) : pour interdire réellement l’accès aux <15 ans, il faut vérifier l’âge de tous les utilisateurs, pas seulement les mineurs déclarés. Cela implique :

  • Vérification systématique : Upload de pièce d’identité (CNI, passeport), selfie biométrique, ou systèmes comme FranceConnect / portefeuille d’identité numérique européen (eIDAS 2.0, prévu fin 2026).
  • Conséquences : Fin de l’anonymat sur les réseaux pour tous les Français (et potentiellement les Européens si harmonisé). Chaque compte rattaché à une identité réelle → traçabilité totale des publications, likes, partages, messages (même si pas encore de scan généralisé des privés).
  • Risques soulignés : Usurpation d’identité massive (piratages de bases centralisées), dissuasion à l’expression libre (surtout dissidente), porte ouverte à la censure ciblée via ARCOM ou signalements associatifs.

Nos publications récentes sur la censure (climat, tensions USA-Europe, etc.) rejoignent un courant sceptique : cette loi n’est pas seulement protectrice, mais un outil de contrôle plus large. Sur X, des voix (comme Victor Ferry, Ericds, Camille Moscow) parlent explicitement de :Fin de l’anonymat → rattachement identité réelle → flicage des opinions.
Prétexte « enfants » pour verrouiller la dissidence (critiques du pouvoir, info alternative).
Risque dystopique : FranceConnect sur tous les réseaux, scan IA des contenus, backdoors potentielles.

Si le Sénat valide rapidement, la France deviendra pionnière européenne sur ce contrôle d’âge → traçage. Le vrai test sera l’application technique : sans vérification massive, l’interdiction restera théorique ; avec, le traçage deviendra réalité pour tous.

Alternative « officielle » pour les ados :Onsexprime.fr (ou « On s’exprime »), site de Santé publique France (tutelle ministère de la Santé) depuis 2009. Il cible les 11-18 ans avec infos « fiables » sur sexualité, consentement, contraception, IST, relations, plaisir…

Publié dans éducation prépa école de commerce | 35 commentaires

Japon: l’ancien ministre de l’intérieur développe un cancer après ses injections ARNm ( spike trouvée dans les cellules), maintenant il accuse

Kazuhiro Haraguchi (@kharaguchi), ancien ministre des Affaires intérieuresa personnellement révélé avoir développé un lymphome malin après ses doses, avec des protéines Spike détectées dans ses cellules cancéreuses (confirmé par analyses, selon ses déclarations publiées en 2025)

Il a multiplié les déclarations publiques sur ce qu’il qualifie de « décès massifs et mystérieux » au Japon, affirmant que les autorités connaissent la cause (selon lui, principalement les vaccins) mais refusent d’enquêter ou d’agir pour sauver des vies.

Des études indépendantes ou critiques (comme celles relayées par des groupes anti-vaccins ou le Pr Yasufumi Murakami en 2025, avec analyse de millions de dossiers vaccinaux) revendiquent des corrélations plus fortes avec les vaccinations, allant jusqu’à des estimations de 600 000+ décès attribués aux vaccins,

Le professeur Yasufumi Murakami, professeur émérite à l’Université des Sciences de Tokyo (Tokyo University of Science), est un chercheur en virologie et immunologie qui s’est particulièrement intéressé aux effets secondaires des vaccins à ARNm contre la COVID-19. Il est connu pour ses positions critiques vis-à-vis de ces vaccins, affirmant qu’ils pourraient contribuer à une surmortalité, des cancers et des suppressions immunitaires.

Méthodologie : Analyse rétrospective des taux de mortalité ajustés sur l’âge (AMR) pour les cancers au Japon de 2020 à 2022, comparés à des prédictions basées sur 2010-2019 (régression logistique). Données officielles du ministère japonais de la Santé (Vital Statistics). Pas d’analyse au niveau individuel (pas de statut vaccinal par personne), mais corrélation temporelle avec les campagnes de vaccination.Résultats clés :

  • Pas d’excès de mortalité par cancer en 2020 (début de la pandémie).
  • Excès modéré en 2021 après les 1re et 2e doses (1,1 % pour tous cancers).
  • Excès significatif en 2022 après la 3e dose (2,1 % pour tous cancers, soit ~7 162 décès supplémentaires ; +9,7 % pour ovarien, +8 % pour leucémie, +5,9 % pour prostate, +5,5 % pour lèvres/oral/pharynx, +2 % pour pancréas).
  • Ralentissement de la baisse tendancielle pour les cancers majeurs (poumon, colorectal, estomac, foie).
  • Excès plus marqués chez les >70 ans, où >90 % ont reçu la 3e dose.

Discussion et mécanismes proposés : Les auteurs suggèrent que les vaccins à ARNm (via la protéine Spike) pourraient causer immunosuppression (via IgG4, suppression d’IFN de type I), thromboses, dommages ADN et promotion de cancers sensibles aux œstrogènes (ovarien, prostate, sein). Corrélation temporelle avec les doses booster

.Conclusions : Les excès de 2022 seraient liés aux vaccins plutôt qu’à la COVID ou aux retards de soins. Appel à des études supplémentaires et à une suspension potentielle.

Publié dans éducation prépa école de commerce | 15 commentaires

Les escrologistes parisiens osent tout! Ils veulent même peindre en blanc les toits de la ville , Alger la Blanche !Une étude bidon pour faire élire Grégoire

Oui, toujours des modèles, et c’est précisément le point que soulignent les critiques . Pascal Yiou et son équipe n’ont pas observé 50 °C à Paris hier ou demain : ils ont fouillé dans l’énorme base de simulations CMIP6 (plus de 100 modèles climatiques mondiaux, des milliers de runs sur des siècles, sous différents scénarios d’émissions) pour voir si un tel extrême est physiquement plausible un jour, et sous quelles conditions.Dans l’article principal (Yiou et al., 2024) :

  • Ils admettent explicitement que beaucoup de modèles CMIP6 ont des biais de température (souvent trop chauds ou trop froids selon les régions/saisons).
  • Au lieu de corriger ces biais (ce qui est risqué pour les extrêmes), ils font une sélection : ils cherchent les cas où les modèles simulent quelque chose pour des événements chauds extrêmes.
  • Résultat : des pics > 48–50 °C n’apparaissent que dans les scénarios impossibles (surtout SSP5-8.5, ), quand le réchauffement global dépasse largement +4 °C (par rapport à 1950–2000, soit ~ +4,5–5 °C préindustriel). »

Sur la fiabilité des modèles CMIP6 en général (pas spécifique à cet article) :

  • Beaucoup d’études montrent que CMIP6 surestime souvent les extrêmes chauds ou les tendances récentes dans certaines régions (par ex. surchauffe en Arctique, biais positifs sur les températures maximales quotidiennes, ou overestimation des changements d’extrêmes dans des papiers de 2020–2024).

Donc, non, Yiou n’a pas forcé sur la coke ou la bouteille , il est financé et commandé en partie par la Ville de Paris pour anticiper. Mais oui, c’est basé sur des modèles qui ont leurs limites et biais connus — et SSP5-8.5 est vu par beaucoup comme un scénario extrême peu probable aujourd’hui

Dans le Plan Climat 2024–2030 (adopté fin 2023/début 2024) : Intègre l’adaptation aux canicules extrêmes comme priorité. Mesures phares :

  • Programme « 1000 toits anti-surchauffe » (peinture blanche sur toits

On sait que le pic de chaleur de 2023/24 n’était pas du au CO2 mais au volcan Tonga. En 2100, la température devrait rester inférieure à ce pic exceptionnel

Publié le 23 janvier 2026 par pgibertie

L’éruption du #volcan Tonga est la cause du #climat chaud et humide actuel au cours des années 2023/24. De grandes quantités d’eau de mer ont été projetées dans la stratosphère. L’eau excédentaire arrivée dans la stratosphère revient lentement au sol. … Lire la suite →

Aucune réaction contre le vote du plan climat qui détruira la France et personne ne bouge ! Aubry, Glucksmann et tous les macroniens unis pour le pire

Publié le 19 janvier 2026 par pgibertie

un coût exorbitant (estimations à 21 000 milliards € pour l’UE) pour un impact climatique minime (0,02 °C selon certains calculs), une « dérive de la raison » et un risque de désindustrialisation. La loi Climat de l’UE établit pour le continent … Lire la suite →

Publié dans éducation prépa école de commerce | 4 commentaires

l’ICE de Trump a tué et celle d’Obama plus encore. Son chef a été décoré par Obama, le même est présenté comme un nazi. Seul le regard des média a changé

Dossier d’expulsion de Barack Obama

  • 3 millions de déménagements officiels
  • 2,2 millions de retours
  • 75 % n’ont reçu AUCUNE PROCÉDURE RÉGULIÈRE
  • 56 décès en détention par l’ICE
  • Tom Homan a reçu la plus haute distinction.
  • A fait face à 0 manifestations

Pourquoi ce traitement différencié envers Trump ?


Morts en détention ICE par président

🇺🇸 George W. Bush (2003–2008)

👉 ICE vient d’être créé

  • ≈ 60–70 morts
  • Début du système de détention massif
  • Très peu de transparence à l’époque

🇺🇸 Barack Obama (2009–2016)

👉 Période la plus longue + détention élevée

  • ≈ 140–150 morts
  • Obama est souvent appelé “deporter-in-chief” par les ONG
  • Beaucoup de décès liés à :
    • soins médicaux refusés ou retardés
    • maladies chroniques
    • suicides

🇺🇸 Donald Trump (2017–2020)

👉 Détention plus dure, conditions dénoncées

  • ≈ 40–45 morts
  • Augmentation des critiques internationales
  • Cas très médiatisés (négligence médicale, isolement)

🇺🇸 Joe Biden (2021–2024)

👉 Discours plus modéré, système toujours actif

  • ≈ 20–25 morts
  • Léger recul, mais aucune rupture structurelle
  • Plusieurs décès toujours attribués à des soins inadéquats
Publié dans éducation prépa école de commerce | 2 commentaires

le rythme du réchauffement 1910/40 est similaire à 1980/2010 mais les escrologistes nous disent que les mécanismes naturels expliquent le premier et pas le second

les deux périodes montrent un rythme de réchauffement global très proche (environ 0,13°C par décennie pour 1910–1940 vs 0,16C par décennie pour 1980–2010, selon les datasets comme HadCRUT, NASA GISS ou Berkeley Earth), et même en se limitant aux stations rurales (où l’effet d’îlot de chaleur urbain est minimal ou nul), les tendances restent similaires pourquoi les scientifiques majoritaires (IPCC, NASA, etc.) attribuent majoritairement le réchauffement précoce (1910–1940) à des facteurs naturels, mais pas (ou très peu) celui post-1980 ?

L’étude de la période 1850-1940 constitue l’une des méthodes les plus efficaces pour tester cette hypothèse. Cette période avait déjà connu un réchauffement significatif bien avant le boom industriel massif des années 1950. Sur une période de 90 ans, les températures mondiales ont augmenté d’environ 0,5 à 0,6 degré, tandis que les niveaux de CO₂ atmosphérique ₂ n’ont augmenté que d’environ 25 ppm, passant de 285 à 310 ppm. En résumé, le rythme du réchauffement au début du XXᵉ siècle est quasiment identique à celui de la fin du XXᵉ siècle, malgré un impact industriel à peine perceptible.

Si l’on compare ces données à la période postérieure à 1950 – où la concentration de CO₂ ₂ a bondi de plus de 115 ppm – les calculs deviennent révélateurs. Si seulement 25 ppm ont contribué à un réchauffement aussi important dès les premières années, une relation linéaire suggère qu’une hausse catastrophique aurait dû suivre l’essor industriel de l’après-guerre. Autre point important : l’effet du CO₂ ₂ sur le réchauffement est, techniquement, logarithmique (rendements décroissants). L’absence de hausse concomitante des températures indique que d’autres facteurs importants étaient – ​​et sont encore – à l’œuvre.

Trois principaux facteurs naturels peuvent expliquer ce réchauffement précoce : l’activité solaire, les éruptions volcaniques et les cycles océaniques. La Terre sortait déjà du Petit Âge glaciaire (1300-1850), une période de froid intense de 600 ans caractérisée par les minimums solaires de Maunder et de Dalton. Au début du XXe siècle, l’activité solaire était déjà en nette augmentation. Le XIXe siècle fut également marqué par d’importantes éruptions volcaniques, comme celles du Tambora et du Krakatoa, qui provoquèrent un obscurcissement de l’atmosphère par les aérosols. Cependant, le début du XXe siècle fut caractérisé par une faible activité volcanique, ce qui permit à l’atmosphère de se purifier et de se réchauffer naturellement.

Les oscillations multidécennales de l’Atlantique (AMO) et du Pacifique (PDO) se produisent selon des cycles de 30 à 60 ans. Les phases chaudes de ces océans peuvent facilement imiter ou amplifier les tendances au réchauffement climatique, créant ainsi un important « lacune d’attribution ». Si la Terre s’est considérablement réchauffée entre 1910 et 1940 – avant l’apparition des SUV, des moteurs à réaction et le boom économique d’après-guerre –, pourquoi affirme-t-on au public que le réchauffement actuel est entièrement dû à l’activité humaine ?

Ce « rebond de la variabilité naturelle » suggère que la Terre possède un thermostat interne dont la tendance était déjà à la hausse bien avant que nous n’accélérions nos émissions de CO₂ ₂ . De plus, l’hypothèse de Svensmark suggère que ce n’est pas seulement la chaleur solaire qui entre en jeu, mais aussi le flux magnétique solaire. Cela indique que le soleil ne se contente pas de nous éclairer, mais qu’il gère activement notre couverture nuageuse. Lorsque le champ magnétique solaire est puissant, il protège la Terre des rayons cosmiques, ce qui réduit la formation de nuages ​​et permet à davantage de chaleur d’atteindre la surface.

Tout cela ajoute une couche de complexité naturelle qu’un modèle CO ₂ seul ne peut tout simplement pas expliquer.

Entre 1940 et 1970 les températures baissent et le CO2 augmente

Les causes naturelles potentielles de la stagnation/léger refroidissement global entre 1940 et 1970 (environ -0,05 à +0,05 °C/décennie, ou une variation totale quasi nulle à légèrement négative de ~ -0,1 °C sur 30 ans).L

  1. Volcans
    Quelques éruptions modérées à fortes ont eu un impact temporaire :
    • Agung (1963, Indonésie) : refroidissement global de ~0,1–0,3 °C pendant 1–3 ans (aérosols stratosphériques).
    • Autres (Awu 1966, Fernandina 1968, etc.) : effets mineurs.
      → Contribution : réelle mais limitée et épisodique (pas une tendance soutenue sur 30 ans). Sans ces volcans, la stagnation aurait été un peu moins prononcée, mais le signal principal reste ailleurs. Les volcans expliquent ~10–20 % de la variabilité de la période, pas la tendance moyenne.
  2. Activité solaire
    Le cycle solaire 18 (1944–1954) et 19 (1954–1964) étaient parmi les plus forts du XXe siècle (pic en 1957–1958).
    Puis cycle 20 (1964–1976) un peu plus faible, mais globalement, l’irradiance solaire était élevée ou stable pendant cette période (pas de déclin marqué avant les cycles 21–24 post-1980).
    → Contribution : négative ou nulle pour le refroidissement. Au contraire, un solaire fort aurait dû favoriser un léger réchauffement. Pas d’explication naturelle ici pour la stagnation.
  3. Oscillations océaniques (PDO, AMO, etc.)
    • PDO (Pacific Decadal Oscillation) : Passage à une phase négative autour des années 1940–mid-1970 (froid dans le Pacifique Nord-Est). Cela a contribué à un refroidissement relatif dans certaines régions (Amérique du Nord, Pacifique), et globalement à une variabilité négative.
    • AMO (Atlantic Multi-decadal Oscillation) : Phase négative dans les années 1960–1970 (après une phase positive dans les 1930–1950). Cela a amplifié le refroidissement en Atlantique Nord et hémisphère Nord.
      → Contribution : significative pour la variabilité inter-décennale (~0,1–0,2 °C d’amplitude possible). Les phases négatives de PDO/AMO ont aidé à « masquer » ou amplifier le refroidissement temporaire, mais elles oscillent (pas une tendance unidirectionnelle). Elles expliquent une partie des fluctuations, pas la cause racine de la stagnation sur 30 ans.
  4. Autres variabilités naturelles (ENSO, etc.)
    Des séquences La Niña plus fréquentes ou intenses dans les années 1950–1970 ont contribué à des années plus fraîches (ex. 1970s).

Depuis 1980 les températures augmentent et les facteurs naturels?

L’albédo planétaire global (Terre entière, incluant surface + atmosphère + nuages) est en déclin depuis les années 1970, passant d’environ 0,31–0,32 à des valeurs plus basses (autour de 0,29–0,30 récemment, avec des records bas en 2023–2025).

depuis 1970, l’albédo nuageux a globalement diminué (surtout via nuages bas moins réfléchissants), contribuant à un forçage positif (chauffant) C’est largement lié à la réduction anthropique des aérosols + rétroactions (réchauffement → moins de nuages bas dans certaines régions), pas à un driver naturel dominant comme les rayons cosmiques. Les données satellites (CERES depuis 2000, ISCCP avant) et études récentes le confirment.

Publié dans éducation prépa école de commerce | Laisser un commentaire

Comment l’usage massif des outils numériques dans le système éducatif détruit l’intelligence des enfants et à la maison l’ingénierie de la dopamine parachève le désastre

Horvath met le doigt sur un vrai renversement historique (première génération « moins capable » cognitivement malgré plus d’éducation formelle), et les écrans (surtout en contexte scolaire non maîtrisé) sont un facteur majeur plausible selon les données corrélatives.

Dr Jared Cooney Horvath, neuroscientifique cognitif, éducateur et auteur australien (PhD, ancien chercheur à Harvard et Melbourne, directeur de LME Global). Il est devenu une figure médiatique sur ce sujet grâce à son livre The Digital Delusion: How Classroom Technology Harms Our Kids’ Learning — And How To Help Them Thrive Again (sorti fin 2025), et à des apparitions comme un témoignage devant le Sénat américain (janvier 2026

« La génération Z est la première génération de l’histoire moderne à obtenir des résultats inférieurs aux nôtres dans pratiquement tous les domaines cognitifs, de l’attention de base à la mémoire, en passant par l’alphabétisation, le calcul, les fonctions exécutives et même le QI général, alors même qu’ils vont à l’école plus longtemps que nous. »« Alors pourquoi ?… La réponse semble résider dans les outils que nous utilisons au sein des écoles pour favoriser cet apprentissage (les écrans).

»« Si l’on analyse les données, on constate qu’une fois que les pays adoptent largement les technologies numériques dans les écoles, les performances scolaires chutent considérablement, au point que les élèves qui utilisent des ordinateurs environ cinq heures par jour à l’école à des fins d’apprentissage obtiennent des résultats inférieurs de plus des deux tiers d’écart-type à ceux des élèves qui utilisent rarement ou jamais les technologies à l’école. Et ce, dans 80 pays. »

Mais les écrans ne se contentent pas de décimer l’apprentissage et de rendre les nouvelles générations moins intelligentes que les précédentes.

  • Depuis la fin du XIXe siècle (début des mesures standardisées du QI et des performances cognitives), chaque génération surpassait la précédente en moyenne (effet Flynn : +3 points de QI par décennie environ jusqu’aux années 1990-2000).
  • La Génération Z (née ~1997-2012) est la première à inverser cette tendance : scores inférieurs à leurs parents sur de nombreux domaines cognitifs (attention soutenue, mémoire de travail, littératie, numératie, fonctions exécutives, créativité divergente, QI général), malgré plus d’années d’école.
  • Les données précoces pour la Génération Alpha (post-2012) montrent une accélération du déclin.
  • Cause principale qu’il met en avant : l’explosion des technologies numériques dans les écoles (ordinateurs portables 1-to-1, tablettes, logiciels éducatifs) à partir des années 2010, pas seulement les écrans récréatifs ou sociaux.
  • Il cite des corrélations internationales (souvent basées sur des données PISA et autres études transversales) : les élèves utilisant des ordinateurs ~5 heures/jour à l’école pour l’apprentissage scorent plus de 2/3 d’écart-type en dessous de ceux qui en utilisent rarement ou jamais — et cela dans ~80 pays.

Il insiste sur le fait que les écrans ne remplacent pas efficacement l’apprentissage humain (connexion sociale, multimodalité papier-main-cerveau), entraînent une fragmentation attentionnelle, un « mode effect » (lecture/écriture sur écran moins profonde que sur papier), et un mismatch entre le fonctionnement cérébral et les outils numériques.

Déclin cognitif générationnel : Oui, observé dans plusieurs datasets. L’effet Flynn s’est inversé dans de nombreux pays développés depuis ~1990-2000 (baisse de QI de ~0,2-0,3 points par an dans certains pays, surtout en Scandinavie, Allemagne, France, UK, USA).

Scores PISA en baisse depuis ~2012 (maths, lecture, sciences), même avant COVID. Des méta-analyses confirment une baisse en fluid intelligence et en performances scolaires standardisées pour les cohorts récentes.

Lien avec écrans scolaires : Il y a des corrélations négatives solides dans PISA 2018/2022 et d’autres études OCDE : usage excessif d’appareils numériques en classe (surtout > plusieurs heures/jour) associé à des scores plus bas, distractions fréquentes (65-70 % des élèves distraits par devices en classe selon PISA 2022). Des revues montrent que le papier reste supérieur pour la compréhension profonde et la rétention (effet « mode papier vs écran »).

Un phénomène sans précédent et extrêmement préoccupant se produit au niveau du cerveau des enfants.

Les tout-petits ne se contentent pas de regarder des écrans ; ils sont conditionnés neurologiquement par eux.

Des coupes rapides, des couleurs éclatantes, une nouveauté constante.

Et rien de tout cela n’est dû au hasard. Tout est intentionnel.

Ce qui ressemble à du « contenu pour enfants » est souvent en réalité une ingénierie de la dopamine visant à maximiser l’engagement, et non le développement sain, quels que soient les dommages que cela cause.

Des images de dessins animés masquant des thèmes adultes, des stimuli de peur, de la violence et de la détresse psychologique sont présentées aux tout-petits. Des couleurs vives en surface. Quelque chose de très, très grave en dessous.

Ce contenu n’a aucune valeur éducative ni développementale. Pas d’histoire. Pas de morale. Aucun apprentissage. Juste une surenchère de nouveautés conçue pour captiver l’attention à tout prix, même si cela se fait littéralement au détriment du développement cérébral et nerveux du spectateur.

Les médias optimisés pour la dopamine et les contenus médiocres générés par l’IA conditionnent nos enfants à la dépendance, à la dysrégulation émotionnelle et à des dommages neurologiques à long terme.

Nous devons empêcher cela avant que cela ne commence — et avant que les grands groupes pharmaceutiques n’interviennent avec la « solution ».

Publié dans éducation prépa école de commerce | 12 commentaires

DNC des vaches, transmissibilité du vaccin ARNm canard par la viande: l’amateurisme des sachants du ministère de l’agriculture

Décidément, ce XXIe siècle persiste à démontrer l’extraordinaire amateurisme de nos instances d’État pour appréhender avec raison le surgissement des maladies infectieuses. On l’a vu pour la COVID, on ré-assiste à un nouveau spectacle consternant, cette fois-ci avec nos vaches. La situation pourrait se révéler risible si le contexte ne se révélait pas aussi dramatique : utilisation maladroite de nouveaux vaccins par ailleurs non correctement testés, tests immunologiques mal réalisés, décisions lapidaires totalement en dépit du bon sens et de la protection de la vie. Hélène Banoun nous emmène aujourd’hui en débriefing d’un cas d’école, celui posé par les 83 vaches de la famille Lhomme. C’est franchement désespérant. Bonne lecture. 

 https://www.aimsib.org/2026/01/25/diagnostic-de-la-dnc-comment-interpreter-les-resultats-officiels/

Ce texte analyse les résultats des analyses faites sur les vaches d’un troupeau abattu en totalité pour cause de dermatose nodulaire contagieuse. Il s’agit des 83 vaches de la famille Lhomme dans le Haut-Doubs (France, décembre 2025). Cet abattage a été médiatisé par la volonté des éleveurs qui ont résisté à l’abattage et auraient aimé transformer l’exploitation en « ferme test » pour observer l’évolution de la maladie dans un troupeau vacciné.
 Les résultats des PCR montrent que la vache malade qui a déclenché l’abattage était certainement porteuse du virus sauvage. En revanche, les PCR des quatre vaches testées après euthanasie, à la limite du positif, sont sans doute de faux positifs. C’est pourquoi il est primordial que les éleveurs puissent faire effectuer des contre-expertises comme autorisé par la réglementation européenne

existe t il une étude sur la transmissibilité du vaccin arn m canard via la viande

Non, il n’existe pas d’étude spécifique sur la transmissibilité du vaccin à ARNm pour canards (contre la grippe aviaire) via la consommation de viande. researchgate.net +1

Des préoccupations théoriques ont été soulevées par certains experts, suggérant que l’ARNm auto-amplificateur, encapsulé dans des nanoparticules lipidiques, pourrait potentiellement résister à la digestion et se transmettre via de la viande mal cuite (comme un magret)

Aucune étude de biodistribution ou pharmacocinétique n’a été menée sur les résidus d’ARNm dans la viande de canards vaccinés avant leur commercialisation en France.

Le principe de précaution, inscrit dans la Charte de l’environnement de 2004 (article 5) et dans le droit européen, impose que, en cas d’incertitude scientifique grave et irréversible sur des dommages potentiels pour la santé ou l’environnement, des mesures de prévention doivent être prises même sans preuve formelle de risque.Dans le cas du vaccin à ARNm auto-amplificateur utilisé pour les canards contre la grippe aviaire (depuis fin 2023 en France, obligatoire pour les élevages > 250 têtes), plusieurs critiques, pointent un manque d’application stricte de ce principe :

  • Absence d’études spécifiques de biodistribution et de résidus dans la viande, les abats ou via la chaîne alimentaire (transmission potentielle à l’humain par ingestion, même après cuisson). Aucune étude pharmacocinétique dédiée n’a été publiée ou exigée publiquement avant la mise sur le marché massif (plus de 60 millions de canards vaccinés par campagne).
  • Différence avec d’autres pays : Aux États-Unis, l’USDA impose souvent des délais de retrait (withdrawal periods) pour les vaccins vétérinaires afin d’exclure tout résidu. En France, l’ANMV (Agence nationale du médicament vétérinaire) et le ministère de l’Agriculture n’ont pas imposé de tel délai pour ce vaccin, affirmant que l’ARNm se dégrade très rapidement (heures/jours) et ne résiste pas à la digestion ni à la cuisson (>70°C).
  • Nature du vaccin : Il s’agit d’ARNm auto-amplificateur (plus persistant que les ARNm classiques), encapsulé dans des nanoparticules lipidiques, ce qui soulève des questions théoriques sur sa stabilité en cas de viande peu cuite (magret saignant, foie gras mi-cuit). Des voix critiques estiment que l’absence de tests sur la transmissibilité via l’alimentation viole le principe de précaution, surtout face à l’incertitude sur les effets à long terme
Publié dans éducation prépa école de commerce | 19 commentaires