C

omment ? » diront certains : « Je croyais que le principe de l'agriculture bio, c'était précisément de ne pas employer de pesticide ? » - C'est la réaction de près de la moitié des gens en France, qui met en lumière un profond malentendu, savamment entretenu par un grand nombre d'acteurs de la filière.

Voici la définition de l'agriculture biologique (AB), d'après Wikipédia :

Mais qui le sait ?

Je suis sûr que ce titre sera mis en doute par les trois quarts des gens. Que dis-je les trois quarts ? plutôt la presque totalité ! Et pourtant, si l’on se cantonne à la doxa des organismes se disant officiels qui semble vouloir lutter contre l’idée selon laquelle la pollution viendrait d’ailleurs (suivez mon regard à droite de la carte de France), et si on admet donc que la pollution que l’on constate est celle que l’on émet, les chiffres sont là

Pbas un mois  ne se passe aujourd'hui sans qu'un média se répande en diatribes violentes contre ce que certains qualifient de "saloperies" : je veux parler des pesticides.

La télévision nous assène régulièrement des messages anxiogènes sur ces produits, avec l'aide de tous les effets bien connus au cinéma pour manipuler le spectateur, voix et musique angoissantes à l'appui. Les émissions sont systématiquement à charge,

L'observation attentive de l'évolution des températures terrestres réserve quelques surprises

Les températures de la basse atmosphère mesurées par les satellites et exploitées par l’Université d’Alabama à Huntsville (UAH) s’affranchissent des biais des températures de surface (relief, zones terrestres peu ou pas couvertes) et l’évolution de leur moyenne est probablement un reflet le plus fidèle possible de l’évolution des températures globales. L’orbite des satellites en question passe systématiquement au-dessus des pôles en se décalant à chaque tour, réalisant finalement un survol complet et homogène de toutes les zones de la surface terrestre. Ce survol permet une couverture beaucoup plus homogène que celle apportée par les stations terrestres.

Les mesures satellitaires sont régulièrement critiquées par les carbocentristes car elles donnent des valeurs qui ne correspondent pas exactement à la doxa réchauffiste (ce qui les rend d’autant sympathiques pour le climatosceptiques…). Cela ne les empêche d'ailleurs pas d'accepter sans aucune réticence les températures de surface de la mer qui proviennent pourtant pour une part, des mesures satellitaires...  

Dans l’ancienne édition de ClimatDeTerreur.info, j’ai reproduit, tous les mois, le graphique des températures de la basse atmosphère réalisé et tenu à jour par Roy Spencer. Dans la présente édition, j’ai préféré réaliser moi-même le graphique à partir des données publiées chaque mois par l’Université de l’Alabama. Voici ce graphique :

UAH2018 10 12
Graphique 1 mis à jour le 12 octobre 2018

Les écarts de température représenté en ordonnées sur le graphique représentent la différence entre la moyenne des températures réelles mesurées, et la température moyenne calculée sur la période 1981 – 2010 (30 ans) pour le mois correspondant. Il est important de savoir que les périodes de référence des différents organismes publiant des données de température ne sont pas forcément identiques. Les valeurs des écarts (appelés souvent « anomalies » comme s’il existait une température réglementaire « normale ») sont donc différentes suivant les organismes qui publient, sans que cela signifie nécessairement que les températures mesurées sont différentes.

Quelques explications sur ce graphique

Il y a six différentes courbes sur ce graphique :

  • Les courbes en zigzags sont constituées par des points reliés entre eux par des segments pour faciliter la lecture. Ces points représentent la moyenne des températures mensuelles de la basse atmosphère au-dessus de : 
    • Les océans (points bleus, entourés de rouge)
    • Les terres (points verts entourés d'orange)
  • Les courbes continues épaisses sont constituées par les moyennes glissantes annuelles des valeurs ci-dessus :
    • Moyenne annuelle glissante au-dessus des océans (courbe épaisse bleue).
    • Moyenne annuelle glissante au-dessus des terres (courbe épaisse verte)
    • Moyenne annuelle pondérée des deux valeurs ci-dessus (courbe épaisse jaune

Depuis septembre 2018, le point représentant cette moyenne est positionné sur le 15 du dernier mois (méthode Microsoft). Il était auparavant positionné sur le 15 du septième mois. La courbe représentative démarre à gauche au 15 janvier 2016

Autre observation : 

La température moyenne obtenue à partir des stations terrestres fait traditionnellement la une des grand médias parce qu’elle est considérée comme une valeur simple et facile à comprendre pour tout le monde. C’est cependant une valeur entachée de nombreux défauts qui sont tels qu’il est peu pertinent de lui attacher une importance quelconque. En effet :

  • La répartition des stations de mesure de température à la surface de la terre est très loin d’être homogène. Par exemple, le nombre de stations de mesures aux USA est d’environ 1 200, alors que le nombre total des stations dans le monde est de 7 200 environ. Les USA représentent donc 1 200/7 200*100 = 17 % des points de mesure alors que la surface des USA ne représente qu’environ 2 % de la surface du globe (Hansen 2001).
  • Certaines régions du globe ne sont pas couvertes du tout ou couvertes par un nombre très petit de stations par rapport à leur surface. Les températures sont donc extrapolées sur des distances pouvant aller jusqu’à 1 200 km (GISS).
  • L’altitude des différents points de mesure n’est pas prise en compte. Or, les températures mesurées à la surface du globe sont prises conventionnellement au-dessus du sol à une hauteur de 1 à 2 m. C’est donc la température de l’atmosphère qui est, en fait, mesurée. La température étant une grandeur intensive, c’est en fait l’énergie liée à la température qui est tacitement considérée lorsqu’on en fait la moyenne. Or, l’énergie en question est elle-même liée à la masse spécifique de l’air, et donc à l’altitude du point de mesure.

La surface de la mer représente plus de 70 % de la surface du globe. Sa température est mesurée par des bateaux sillonnant en permanence les océans, par des satellites munis de radiomètres qui mesurent la température par la mesure de l’émission infrarouge des premiers millimètres de la surface, et enfin par une série récente et importante de bouées, les bouées du projet ARGO. Ces mesures peuvent être comparées entre elles et servir au calcul bien plus rationnel d’une moyenne à altitude constante, fiable et plus significative que la moyenne des températures terrestres.

Le graphique suivant représente l’évolution des températures de surface marines (SST[ii]) publiée par la NOAA :

SST2018 10 12 2
Graphique 2 mis à jour le 12 octobre 2018

 

La NOAA publie les valeurs moyennes des températures calculées sur une période de 7 jours. Son site peut calculer à la demande la moyenne globale hebdomadaire des SSTs qui a été utilisée pour construire le graphique ci-dessus

Ci-dessous, le graphique complet des moyennes hebdomadaires des SST de la NOAA (Le premier graphique ci-dessus ne représente les valeurs que depuis janvier 2016, il correspond au rectangle bleu en haut et à droite du graphique suivant).

SST2018 10 12 1Graphique 3 mis à jour le 12 octobre 2018

Remarquons la divergence importante entre les valeurs de températures de surface marines UAH (graphique 1, points bleus cerclés de rouge) et NOAA (graphique 3). Le seul point commun entre ces deux graphiques semble être que les températures de surface marines baissent depuis 2016. 

Il existe évidemment d'autres sites de référence qui recueillent et publient régulièrement les mesures de température. Le plus respecté est probablement le Hadley Centre, branche du Met Office londonien qui fournit les prévisions météos britannique depuis 150 ans. Il existe également les données du GISS (Goddard Institute for Space Studies), branche de la NASA. Le problème des données du GISS, c'est que dans les zones de la surface terrestre où les stations de mesure sont très éloignées les unes des autres, le GISS utilise un algorithme qui interpole les valeurs de températures sur des distances allant jusqu'à 1 200 km. Ce procédé à été analysé et conduit à des exagérations des valeurs de réchauffement dans des zones comme l'Arctique.

Voici les données de températures du Hadley Centre depuis 1997 :

Hadcrut 1997 2018

Graphique 4 mise à jour le 16 octobre 2018

Cette représentation a l'intérêt de montrer non seulement la valeur moyenne des températures (points bleus) mais aussi le degré d'incertitude avec lequel cette valeur moyenne est donnée. Chaque point bleu est en effet assorti d'un point vert (maximum) et d'un point orange (minimum). La température est en fait connue avec une certaine incertitude et les deux points vert et orange nous indiquent simplement la zone dans laquelle se trouve la température avec une certitude de 95 %. En d'autres termes, on sait, que la température a 95 % de chances de se trouver entre les valeurs maximum et minimum indiquées.

On voit que l'incertitude sur les valeurs est donc assez grande (environ 0,2 degré à 95 % de certitude).  Le graphique met bien en évidence les phénomènes "el Niño" et "la Niña". Les auteurs des annonces "triomphantes" de certains organismes officiels déclarant des records de température  au cours de ces dernières années qui ne dépassent pas 0,1 degré montrent par là leur ignorance du calcul de probabilités. (Ou peut-être comptent-ils plutôt sur l'ignorance de l'auditoire). En réalité, au vu de ce graphique, et si on élimine les phénomènes "el Niño" et "la Niña" on ne sais pas si la température est montée ou a baissé au cours de ces vingt dernières années, Elle a plutôt l'air d'être restée assez constante.

Ils décident et nous nous adaptons...

L'imagination de nos politiques ne connaît pas de borne en ce qui concerne l'amorce 1, lorsqu'il s'agit d'aller à la pêche aux suffrages. Il semble néanmoins que c'est l'amorçage à l'innovation verte qui soit le plus à la mode. Ce type d'amorçage présente en effet l'énorme avantage d'être auto-protégé, puisqu'il est de fait interdit de contester son utilisation.

C'est ce que Monsieur Hulot nous propose avec sa transition écologique

Soyons juste : Monsieur Hulot n'est pas le seul responsable, car il hérite d'une situation qu'il n'a pas lui-même créée. Mais il est fondamentalement d'accord avec les objectifs de cette transition, longuement concoctée par  les instances européennes sous l'influence permanente des lobbys climatiques,

U Bleun dossier spécial de "Pour la Science" consacré à l'eau (janvier - mars 2008) avait mis à mal un certain nombre de poncifs répétés à l'envie par les "milieux généralement bien informés", poncifs qui finissent par conduire à des actions carrément stupides.

Contrairement aux annonces triomphantes de la maire de la capitale

L

'amère de Paris poursuit ses projets dévastateurs : sa hargne anti-voitures s'est dernièrement traduite par une interdiction temporaire de circulation des voitures particulières dans la capitale, et ce, pendant une journée. Cette durée était considérée comme suffisante pour permettre de constater que l'air de Paris se trouverait débarrassé partiellement de ses polluants, en particulier des poussières fines dont le diamètre est inférieur à 2,5 millièmes de millimètre (cette valeur limite étrange montre d'ailleurs que la norme n'est pas d'origine cartésienne française, mais bien plutôt anglo-américaine). Hélas ! Le pouvoir municipal n'allant pas encore jusqu'à commander au temps (qu'il fait), le résultat n'est pas à la hauteur espérée par Notre Drame de Paris : voyez plutôt les valeurs reprises dans les deux graphiques ci-dessous qui reprennent, heure par heure, les valeurs moyennes du taux de PM2.5 dans l'air de la capitale.

Particules fines (PM2.5)

PM25 Paris 1 oct 2017PM25 10 sept 2097

Le graphique de gauche représente l'évolution journalière du taux de particules fines PM2.5 mesuré à la station Paris-centre par Airparif le dimanche 10 septembre 2017. 

D'après Airparif, cette journée peut servir de référence de comparaison par rapport au 1 octobre 2017 : c'était aussi un dimanche et la journée faisait suite à un épisode de pluie, ce qui est, en général, favorable aux taux de particules bas.

Le graphique de droite représente l'évolution journalière du taux de particules PM2.5 mesuré à la même station le 1 octobre 2017, jour de Paris sans voiture, qui devrait, logiquement, si les particules étaient apportées par la circulation automobile, montrer un taux de particules significativement plus bas que celui de gauche, puisque la circulation automobile privée y a été interdite. 

Il est facile de constater, au vu de ces deux graphiques, que malheureusement, la journée sans voiture n'a apporté aucune amélioration concernant le taux de particules fines de l'air de Paris...

Et il faut encore ajouter un élément important à ce résultat. En effet, la journée du 1 octobre 2017 se situe en plein au milieu d'un creux pour les valeurs du taux de PM2.5, comme on peut le constater sur le graphique ci-dessous montrant les valeurs du taux de PM2.5 sur une période de 40 jours incluant les deux jours (10 septembre et 1 octobre) sur lesquels portent les comparaisons :

  PM25 30 08 a 08 10 2017 Paris centre

 Les ronds rouges représentent les valeurs relevées par les sondes d'Airparif. Le creux observé entre le 28 septembre et le début du mois d'octobre s'explique par le fait qu'il a plu les 28 (0,2 mm), 29 (8,8 mm) et 30 octobre (1,4 mm). La pluie "lave" l'atmosphère de ses particules fines. La journée du 1 octobre devait donc, de toutes façons, présenter un taux de PM2.5 particulièrement faible.

Enfin, selon Airparif, l'incertitude sur la valeur du taux de PM2.5 est de 9,6 % (référence).

Oxydes d'azote (NOx)

NOx 10 sept et 1 octPour les oxydes d'azote, les résultats sont encore plus probants, et d'ailleurs en complète contradiction avec les annonces triomphantes de Madame Hidalgo. En effet, et le graphique de gauche le montre bien, le taux de NOx (oxydes d'azote toutes catégories) relevé à la station Paris-centre d'Airparif pour la journée sans voiture du 1 octobre 2017 est en moyenne supérieur à celui relevé dans la journée comparable du 10 septembre 2017 pendant presque toute la journée, sauf entre 9h30 et 10h00 et à partir de 18h30. Les moyennes sont les suivantes : 20,75 µg/m³ pour le 10 septembre contre 25,96 µg/m³ pour la journée sans voiture. 

Il est consternant que les médias, bien sûr à la botte, ne vérifient pas tout simplement les valeurs diffusées par Airparif et effectuent les comparaisons comme il se devrait qu'ils le fassent. Le spécialiste scientifique auto-proclamé de l'environnement,  Sylvestre Huet (il est vrai, niveau scientifique : licence d'histoire) n'a pas cru prudent de se livrer à cet exercice...

Le Monde, prudemment sur le Huffpost, se contente de reprendre les chiffres des annonces de la municipalité : -25 % en oxydes d'azote à la jonction entre l'A6 et le boulevard périphérique (Porte d'Orléans ou Porte d'Italie).

Mais maintenant que vous avez vu la forme des courbes de valeurs, et constaté que celle-ci peuvent varier entre environ 50 µg/m³ et 10 µg/m³ dans la même journée, vous pouvez vous-mêmes juger de la validité de l'affirmation de Madame Hidalgo : à peu près zéro...

Quant aux mesures en vélo effectuées le long des axes par Airparif (probablement à la demande de la municipalité d'ailleurs) leurs valeurs ne valent pas plus que si elles avaient été faites directement au niveau du pot d'échappement des voitures pour pouvoir annoncer triomphalement une amélioration de 25 % (par rapport à quoi d'ailleurs ? ça n'est pas précisé...)

Cette affaire de la "journée sans voiture" à Paris montre enfin clairement jusqu'où peut aller le dogmatisme en matière d'environnement. Dans d'autres cercles, l'utilisation du mensonge est sanctionnée rapidement par la démission forcée. Ici, il semble que l'impunité soit encore garantie. Mais pour combien de temps ?  

Réflexions matutinales devant un miroir, un rasoir à la main

I rougel m'arrive régulièrement, comme à beaucoup de mes compatriotes, de me couper en me rasant. J'utilise donc, pour soigner ces microcoupures et bloquer le saignement, un baume apaisant dit “à la pierre d'alun naturelle” très efficace.

Au-dessus de la vasque de ma voisine de salle de bain qui est aussi mon épouse, il y a une armoire à onguents contenant, entre autres, un spray anti-transpirant garanti « sans sels d'aluminium ». Ces fameux sels d'aluminium sont considérés comme suspects parce qu'un chercheur lanceur d'alerte a trouvé un jour qu'ils étaient associés avec la maladie d'Alzheimer. Cette association a été plus tard démontrée comme fausse, mais la suspicion est naturellement restée.1 Il est vrai que ces sels d'aluminium peuvent être considérés comme chimiques, et ça, c'est impardonnable.

La pierre d'alun, nom très écologique parce que naturelle désigne simplement le sulfate double d'aluminium et de potassium cristallisé avec 12 molécules d'eau. C'est donc un sel d'aluminium qui se décompose partiellement en présence d'eau en donnant un autre sel d'aluminium : l'alumine aux propriétés astringentes et anti perspirantes bien connues.

Pascal a dit : Vérité en deçà des Pyrénées, erreur au-delà. Dans mon cas, la distance est bien plus faible : Vérité à droite, erreur deux mètres à gauche. Une seule chose est sûre : le consommateur est couillonné.

Le mot a acquis de nos jours une importance démesurée : en effet, il suffit d'affecter un objet, un produit, une action, d'un qualificatif approprié pourSanex
qu'aussitôt cet objet, ce produit ou cette action prenne des propriétés extraordinaires… Magie du mot : ainsi, une activité agricole classique devient soudain un mystère pratiqué par le prêtre de la religion nouvelle parce qu'on l'a qualifié de biologique… Remarquons, à ce sujet, que les Français ont su donner à cette pratique un qualificatif bien plus évocateur que les Américains avec leur simple organic. Et son diminutif : bio est encore plus efficace.

Les partisans de l'écopartout se sont fait une spécialité de l'utilisation du mot qui frappe, et qui fait dévier le jugement du lecteur dans le sens désiré. Ces partisans se retrouvent partout : chez les activistes verts, bien sûr, dans les sphères de l'administration (voir l'ADEME par exemple), et aussi chez les politiques qui suivent les tendances électorales. Prenons l'exemple du langage de l'administration utilisé dans les documents traitant de la circulation, et sous l'influence probable de convaincus écolos qui se sont infiltrés dans cet organisme. En langage administratif, on appelle « circulation douce » la circulation non automobile. Mais le qualificatif « douce » n'a pas été choisi innocemment. Il évoque, dans l'esprit du lecteur ou de l'auditoire dans le cas des discours de réunion publique tout ce que le cerveau associe au mot « douceur ». A l'inverse, il crée, pour la circulation qui n'est pas « douce » le qualificatif non-dit, mais bien présent de « dure ». Ainsi, dans l'esprit des citoyens, se fabrique, pas innocemment du tout, un sentiment d'aversion vis-à-vis de l'automobile, ce qui est le but des écolos en question. Le même mot « douce » qualifie aussi les médecines non conventionnelles, pour les mêmes raisons et avec les mêmes résultats : la médecine conventionnelle devient la médecine « dure » dans l'esprit des usagers et les pousse vers la pratique de l'alternative « douce » ce qui est évidemment l'objectif des praticiens de ces activités de soins. Je ne connais qu'un seul cas où les relégués des « sciences dures » par l'arrivée des « sciences douces » se sont non seulement appropriés le qualificatif avec joie, mais encore ont retourné le colis en nommant « sciences molles » toutes les sciences qui n'étaient pas « dures » comme les mathématiques, la physique ou la chimie.

Pour en revenir au contenu de nos pots et fioles dans nos armoires de salle de bain, je m'extasie devant l'inventivité toujours plus étonnante des concepteurs marketing. Par exemple, j'utilise un « gel douche » qui n'a d'ailleurs du point de vue de la physique aucune des propriétés d'un gel, mais qui est caractérisé par l'absence d'une liste de produits définitivement étiquetés comme « nocifs » : Son nom est d'ailleurs « zéro% ». Il est « sans parabènes » et aussi « sans colorants », « sans phtalates » et « sans phénoxyéthanol » (On peut se demander s'il ne contient pas finalement que de l'eau). Heureusement, il contient malgré tout un agent mouillant« 100 % naturel » sur la composition duquel le chimiste que je reste se pose quelques questions. Enfin, pour sacrifier à la mode du « non jetable », le produit est emballé dans un conteneur en plastique simplifié et souple et contenant « 79 % de plastique en moins ». J'approuve à 100 % cette dernière propriété qui occupe dans la poubelle spécialisée, un espace bien moindre. Par contre, je ne vois objectivement pas quel est l'avantage d'être « sans parabènes » lorsque l'on sait que les fraises contiennent des parabènes ainsi d'ailleurs qu'entre autres, les oignons,les mûres l'orge, le cassis, la vanille et les carottes. Ces légumes ou fruits ont trouvés, bien avant nous, les vertus antibactériennes et fongicides de ces fameux parabènes, et les utilisent comme pesticides contre la pourriture.>

« Sans phtalates » m'interroge également. En effet, chose la plupart du temps ignorée de nos « lanceurs d'alertes », ces produits sont très peu solubles dans l'eau et doivent se comporter comme le ferait de l'huile dans votre shampoing : former des globules d'un effet mitigé dans l'eau de rinçage. Autrement dit, les produits « avec phtalates » (s'ils existaient) seraient caractérisés par des propriétés très visibles (les globules) et pas très commerciales.

Ainsi sont les comportements de nos congénères, dirigés par des convictions très écologiques mais pas toujours très logiques…


(1) D'autres chercheurs ont observé que le chlorure d'aluminium pouvait favoriser l'apparition de cancers chez certaines espèces de souris et la formation de cancer du sein in vitro sur des cellules épithéliales mammaires. De là une suspicion étendues (peut-être un peu rapidement) aux sels d'aluminium en général et au cancer du sein in vivo.