Contrairement aux annonces triomphantes de la maire de la capitale

L

'amère de Paris poursuit ses projets dévastateurs : sa hargne anti-voitures s'est dernièrement traduite par une interdiction temporaire de circulation des voitures particulières dans la capitale, et ce, pendant une journée. Cette durée était considérée comme suffisante pour permettre de constater que l'air de Paris se trouverait débarrassé partiellement de ses polluants, en particulier des poussières fines dont le diamètre est inférieur à 2,5 millièmes de millimètre (cette valeur limite étrange montre d'ailleurs que la norme n'est pas d'origine cartésienne française, mais bien plutôt anglo-américaine). Hélas ! Le pouvoir municipal n'allant pas encore jusqu'à commander au temps (qu'il fait), le résultat n'est pas à la hauteur espérée par Notre Drame de Paris : voyez plutôt les valeurs reprises dans les deux graphiques ci-dessous qui reprennent, heure par heure, les valeurs moyennes du taux de PM2.5 dans l'air de la capitale.

Particules fines (PM2.5)

PM25 Paris 1 oct 2017PM25 10 sept 2097

Le graphique de gauche représente l'évolution journalière du taux de particules fines PM2.5 mesuré à la station Paris-centre par Airparif le dimanche 10 septembre 2017. 

D'après Airparif, cette journée peut servir de référence de comparaison par rapport au 1 octobre 2017 : c'était aussi un dimanche et la journée faisait suite à un épisode de pluie, ce qui est, en général, favorable aux taux de particules bas.

Le graphique de droite représente l'évolution journalière du taux de particules PM2.5 mesuré à la même station le 1 octobre 2017, jour de Paris sans voiture, qui devrait, logiquement, si les particules étaient apportées par la circulation automobile, montrer un taux de particules significativement plus bas que celui de gauche, puisque la circulation automobile privée y a été interdite. 

Il est facile de constater, au vu de ces deux graphiques, que malheureusement, la journée sans voiture n'a apporté aucune amélioration concernant le taux de particules fines de l'air de Paris...

Et il faut encore ajouter un élément important à ce résultat. En effet, la journée du 1 octobre 2017 se situe en plein au milieu d'un creux pour les valeurs du taux de PM2.5, comme on peut le constater sur le graphique ci-dessous montrant les valeurs du taux de PM2.5 sur une période de 40 jours incluant les deux jours (10 septembre et 1 octobre) sur lesquels portent les comparaisons :

  PM25 30 08 a 08 10 2017 Paris centre

 Les ronds rouges représentent les valeurs relevées par les sondes d'Airparif. Le creux observé entre le 28 septembre et le début du mois d'octobre s'explique par le fait qu'il a plu les 28 (0,2 mm), 29 (8,8 mm) et 30 octobre (1,4 mm). La pluie "lave" l'atmosphère de ses particules fines. La journée du 1 octobre devait donc, de toutes façons, présenter un taux de PM2.5 particulièrement faible.

Enfin, selon Airparif, l'incertitude sur la valeur du taux de PM2.5 est de 9,6 % (référence).

Oxydes d'azote (NOx)

NOx 10 sept et 1 octPour les oxydes d'azote, les résultats sont encore plus probants, et d'ailleurs en complète contradiction avec les annonces triomphantes de Madame Hidalgo. En effet, et le graphique de gauche le montre bien, le taux de NOx (oxydes d'azote toutes catégories) relevé à la station Paris-centre d'Airparif pour la journée sans voiture du 1 octobre 2017 est en moyenne supérieur à celui relevé dans la journée comparable du 10 septembre 2017 pendant presque toute la journée, sauf entre 9h30 et 10h00 et à partir de 18h30. Les moyennes sont les suivantes : 20,75 µg/m³ pour le 10 septembre contre 25,96 µg/m³ pour la journée sans voiture. 

Il est consternant que les médias, bien sûr à la botte, ne vérifient pas tout simplement les valeurs diffusées par Airparif et effectuent les comparaisons comme il se devrait qu'ils le fassent. Le spécialiste scientifique auto-proclamé de l'environnement,  Sylvestre Huet (il est vrai, niveau scientifique : licence d'histoire) n'a pas cru prudent de se livrer à cet exercice...

Le Monde, prudemment sur le Huffpost, se contente de reprendre les chiffres des annonces de la municipalité : -25 % en oxydes d'azote à la jonction entre l'A6 et le boulevard périphérique (Porte d'Orléans ou Porte d'Italie).

Mais maintenant que vous avez vu la forme des courbes de valeurs, et constaté que celle-ci peuvent varier entre environ 50 µg/m³ et 10 µg/m³ dans la même journée, vous pouvez vous-mêmes juger de la validité de l'affirmation de Madame Hidalgo : à peu près zéro...

Quant aux mesures en vélo effectuées le long des axes par Airparif (probablement à la demande de la municipalité d'ailleurs) leurs valeurs ne valent pas plus que si elles avaient été faites directement au niveau du pot d'échappement des voitures pour pouvoir annoncer triomphalement une amélioration de 25 % (par rapport à quoi d'ailleurs ? ça n'est pas précisé...)

Cette affaire de la "journée sans voiture" à Paris montre enfin clairement jusqu'où peut aller le dogmatisme en matière d'environnement. Dans d'autres cercles, l'utilisation du mensonge est sanctionnée rapidement par la démission forcée. Ici, il semble que l'impunité soit encore garantie. Mais pour combien de temps ?  

Pbas un mois  ne se passe aujourd'hui sans qu'un média se répande en diatribes violentes contre ce que certains qualifient de "saloperies" : je veux parler des pesticides.

La télévision nous assène régulièrement des messages anxiogènes sur ces produits, avec l'aide de tous les effets bien connus au cinéma pour manipuler le spectateur, voix et musique angoissantes à l'appui. Les émissions sont systématiquement à charge,

L'observation attentive de l'évolution des températures terrestres réserve parfois quelques surprises

Les températures de la basse atmosphère mesurées par les satellites et exploitées par l’Université d’Alabama à Huntsville (UAH) s’affranchissent des biais des températures de surface (relief, zones terrestres peu ou pas couvertes) et l’évolution de leur moyenne est probablement un reflet le plus fidèle possible de l’évolution des températures globales. L’orbite des satellites en question passe systématiquement au-dessus des pôles en se décalant à chaque tour, réalisant finalement un survol complet et homogène de toutes les zones de la surface terrestre. Ce survol permet une couverture beaucoup plus homogène que celle apportée par les stations terrestres.

Les mesures satellitaires sont régulièrement critiquées par les carbocentristes car elles donnent des valeurs qui ne correspondent pas exactement à la doxa réchauffiste (ce qui les rend d’autant sympathiques pour le climatosceptiques…). Cela ne les empêche d'ailleurs pas d'accepter sans aucune réticence les températures de surface de la mer qui proviennent pourtant pour une large part, des mesures satellitaires...  

Dans l’ancienne édition de ClimatDeTerreur.info, j’avais reproduit, tous les mois, le graphique des températures de la basse atmosphère réalisé et tenu à jour par Roy Spencer. Dans la présente édition, j’ai préféré réaliser moi-même le graphique à partir des données publiées chaque mois par l’Université de l’Alabama. Voici ce graphique :

UAH 2021-06-30
Graphique 1 mis à jour le 9 août 2021

 

Les écarts de température représenté en ordonnées sur le graphique représentent la différence entre la moyenne des températures réelles mesurées, et la température moyenne calculée sur la période 1981 – 2010 (30 ans) pour le mois correspondant. Il est important de savoir que les périodes de référence des différents organismes publiant des données de température ne sont pas forcément identiques. Les valeurs des écarts (appelés souvent « anomalies » comme s’il existait une température réglementaire « normale ») sont donc différentes suivant les organismes qui publient, sans que cela signifie nécessairement que les températures mesurées sont différentes.

Quelques explications sur ce graphique

Il y a six différentes courbes sur ce graphique :

  • Les courbes en zigzags sont constituées par des points reliés entre eux par des segments pour faciliter la lecture. Ces points représentent la moyenne des températures mensuelles de la basse atmosphère au-dessus de : 
    • Les océans (points bleus, entourés de rouge)
    • Les terres (points verts entourés d'orange)
  • Les courbes continues épaisses sont constituées par les moyennes glissantes annuelles des valeurs ci-dessus :
    • Moyenne annuelle glissante au-dessus des océans (courbe épaisse bleue).
    • Moyenne annuelle glissante au-dessus des terres (courbe épaisse verte)
    • Moyenne annuelle pondérée des deux valeurs ci-dessus (courbe épaisse jaune

Depuis septembre 2018, le point représentant cette moyenne est positionné sur le 15 du dernier mois (méthode Microsoft). Il était auparavant positionné sur le 15 du septième mois. La courbe représentative démarre à gauche au 15 janvier 2016

Autre observation : 

La température moyenne obtenue à partir des stations terrestres fait traditionnellement la une des grand médias parce qu’elle est considérée comme une valeur simple et facile à comprendre pour tout le monde. C’est cependant une valeur entachée de nombreux défauts qui sont tels qu’il est peu pertinent de lui attacher une importance quelconque. En effet :

  • La répartition des stations de mesure de température à la surface de la terre est très loin d’être homogène. Par exemple, le nombre de stations de mesures aux USA est d’environ 1 200, alors que le nombre total des stations dans le monde est de 7 200 environ. Les USA représentent donc 1 200/7 200*100 = 17 % des points de mesure alors que la surface des USA ne représente qu’environ 2 % de la surface du globe (Hansen 2001).
  • Certaines régions du globe ne sont pas couvertes du tout ou couvertes par un nombre très petit de stations par rapport à leur surface. Les températures sont donc extrapolées sur des distances pouvant aller jusqu’à 1 200 km (GISS).
  • L’altitude des différents points de mesure n’est pas prise en compte. Or, les températures mesurées à la surface du globe sont prises conventionnellement au-dessus du sol à une hauteur de 1 ou de 2 m. C’est donc la température de l’atmosphère qui est, en fait, mesurée. La température étant une grandeur intensive, c’est en fait l’énergie liée à la température qui est tacitement considérée lorsqu’on en fait la moyenne. Or, l’énergie en question est elle-même liée à la masse spécifique de l’air, et donc à l’altitude du point de mesure. Ce qui signifie qu'en bonne logique, les points bas devraient être affectés d'un coefficient de pondération plus élevé que les points hauts. 

La mise à jour du 20 février 2021 apporte des données intéressantes. En effet, pour une raison non encore clairement expliquée 1 , les températures moyennes marines et terrestres ont plongé de presque 0,6 degré pour la température terrestre et de 0,15 degré pour la température marine, au mois de décembre 2020. En janvier, la température terrestre est remontée un peu, tandis que la température marine continuait à descendre. Ces mouvements ont affecté la moyenne glissante sur 12 mois, ce qui est bien visible sur le graphique. La droite de tendance des températures (pointillée noire) est, elle, presque horizontale (pente égale à -0,0013 degré par an) ce qui signifie que la température moyenne de la basse atmosphère n'a pas bougé depuis le mois de mars 2015.

13 mars 2021 : Le phénomène observé se poursuit. Notons qu'il est également apparent sur les SST, avec une plongée des températures de 0,5 degrés en 5 semaines.

7 avril 2021 : toujours le même phénomène. La température de la surface de la mer observée par les satellites est devenue négative (points bleus du graphique 1).

22 mai 2021 : l'anomalie des SSTs semble se stabiliser autour de +0,22 degré. En effet, cette grandeur oscille autour de cette valeur depuis maintenant 4 semaines consécutives.

30 juin 2021 : les températures marines et terrestres remontent un peu ce mois-ci, mais restent cependant en-dessous des valeurs moyennes.

8 août 2021 : les températures semblent maintenant avoir atteint un maximum et recommencent peut-être à descendre.

 

La surface de la mer représente plus de 70 % de la surface du globe. Sa température est mesurée par des bateaux sillonnant en permanence les océans, par des satellites munis de radiomètres qui mesurent la température par la mesure de l’émission infrarouge des premiers millimètres de la surface, et enfin par une série récente et importante de bouées, les bouées du projet ARGO. Ces mesures peuvent être comparées entre elles et servir au calcul bien plus rationnel d’une moyenne à altitude constante, fiable et plus significative que la moyenne des températures terrestres.

Le graphique suivant représente l’évolution des températures de surface marines (SST[ii]) publiée par la NOAA :


SST 2021 02 20 détail

Graphique 2 mis à jour le 8 août 2021
Origine: http://iridl.ldeo.columbia.edu/SOURCES/.NOAA/.NCEP/.EMC/.CMB/.GLOBAL/.Reyn_SmithOIv2/.weekly/.ssta/%5BX%5D0.0/average/%5BY%5D0.0/average/T/%28jan%202012%29%2814-20%20Apr%202013%29RANGEEDGES/ 

La température de surface de la mer baisse depuis 2016, après avoir connu une montée importante entre 2012 et 2016 et une quasi-stagnation en 1998 et 2012. Les modèles informatiques n'expliquent pas ces variations qui ne suivent pas précisément l'augmentation du taux atmosphérique de CO2. 


La NOAA publie les valeurs moyennes des températures calculées sur une période de 7 jours. Son site peut calculer à la demande la moyenne globale hebdomadaire des SSTs qui a été utilisée pour construire le graphique ci-dessus.

Ci-dessous, le graphique complet des moyennes hebdomadaires des SST de la NOAA (Le premier graphique ci-dessus ne représente les valeurs que depuis janvier 2016, il correspond au rectangle bleu en haut et à droite du graphique suivant).

SST depuis 2016 11 10 2019Graphique 3 mis à jour le 8 août 2021

Origine: http://iridl.ldeo.columbia.edu/SOURCES/.NOAA/.NCEP/.EMC/.CMB/.GLOBAL/.Reyn_SmithOIv2/.weekly/.ssta/%5BX%5D0.0/average/%5BY%5D0.0/average/T/%28jan%202012%29%2814-20%20Apr%202013%29RANGEEDGES/

Saviez-vous que les températures de la mer baissaient régulièrement depuis 2016 ? Probablement pas si vous vous contentez de suivre celles-ci sur les médias traditionnels : aucun d'entre eux n'annonce ce phénomène pourtant très net. An contraire, des annonces tonitruantes vous persuadent que les températures foncent vers des sommets très inquiétants. L'objectif est en effet de vous amener à accepter des prix de l'énergie qui vont progressivement doubler ou tripler si on produit celle-ci avec des procédés moyenageux comme les éoliennes. C'est ce qu'on nomme de la désinformation. 

Il existe évidemment d'autres sites de référence qui recueillent et publient régulièrement les mesures de température. Le plus respecté est probablement le Hadley Centre, branche du Met Office londonien qui fournit les prévisions météos britannique depuis 150 ans. Il existe également les données du GISS (Goddard Institute for Space Studies), branche de la NASA. Le problème des données du GISS, c'est que dans les zones de la surface terrestre où les stations de mesure sont très éloignées les unes des autres, le GISS utilise un algorithme qui interpole les valeurs de températures sur des distances allant jusqu'à 1 200 km. C'est un peu comme si on déterminait la température de Marseille à partir de celle de Lille. Ce procédé à été analysé et conduit à des exagérations des valeurs de réchauffement dans des zones comme l'Arctique. Mais il faut noter que l'objectif de l'inventeur de ce procédé, James Hansen, était aussi d'alarmer les populations.

Voici les données de températures du Hadley Centre depuis  janvier 2016 : admirons la tendance de la droite de régression, pas très conforme au discours ambiant...

Hadcrut4 2020 11 07

Graphique 4 mise à jour le 22 mai 2021

Origine : https://www.metoffice.gov.uk/hadobs/hadcrut4/data/current/download.html (serie : Global (NH+SH)/2 annual).

Le graphique ci-dessus est construite à partir des données dites "médianes" du Hadley Centre. La valeur médiane d'une série de valeurs est la valeur telle qu'il y a autant de valeurs plus grandes que de valeurs plus petites que cette valeur dans la série. Attention ! c'est une valeur en général différente de la moyenne. La courbe rouge pointillée est donc la courbe des médianes de températures. Cette courbe est entourée (au-dessus et au-dessous) par deux valeurs  telles que tous les points situés dans cet intervalle représentent une valeur qui a plus de 95 % de chances de représenter la valeur réelle. Les deux valeurs mentionnées (supérieure et inférieure) sont calculées en combinant les incertitudes liées aux mesures : biais de mesure, incertitudes liées à l'échantillonnage et incertitudes liées à la couverture spatiale des points de mesure.. Voir https://www.metoffice.gov.uk/hadobs/hadcrut4/data/current/series_format.html. La largeur de la zone blanche qui s'étend de part et d'autre de la courbe des valeurs médianes dépasse par endroit, les 2 dixièmes de degré. Ce qui signifie qu'on ne connait les températures moyenne qu'avec une approximation assez grande. Les "records battus" qui font les gros titre de la presse, mais aussi des publications comme celles de l'Organisation Météorologique Internationales prêteraient à sourire nonobstant les conséquences négatives qu'ils provoquent chez les politiques complètement ignares de la science des probabilités.  

Un autre organisme américain fondé par un scientifique de renom, Richard Muller, publie des données de températures terrestres depuis 2012 : le Berkeley Earth Surface Temperature (BEST). Cet organisme sans but lucratif affirme que ses méthodes sont plus fiables que celles des autres organismes (NOAA, NASA et Hadley Centre). On constate effectivement que la zone de certitude à 95 % et plus, représentée par la bande blanche entourant la courbe des valeurs moyennes des températures (ouf) est nettement plus étroite que celle du Hadley Centre. Richard Muller est un sceptique converti au réchauffisme anthropique, ce qui ne l'empêche pas d'écrire dans le New York Times après sa conversion : "I still find that much, if not most, of what is attributed to climate change is speculative, exaggerated or just plain wrong. I’ve analyzed some of the most alarmist claims, and my skepticism about them hasn’t changed". (Je pense toujours que beaucoup, sinon la plupart des faits attribués au changement climatique sont spéculatifs, exagérés ou juste complètement faux. J'ai analysé quelques-unes des affirmations les plus alarmistes, et mon scepticisme vis à vis d'elles n'a pas changé).

Voici la courbe des températures d'après le BEST :

BEST 2020 11 07

Graphique 5 : Evolution des températures terrestre depuis 2016 selon le BEST. Mis à jour le 22 mars 2021

Pour le BEST, comme en témoigne le graphique 5 ci-dessus, les températures descendent bien aussi entre 2016 et aujourd'hui, en dépit des nouvelles alarmantes :  2016 : nouveau record de chaleur sur terre, La température de la planète grimpe deux fois plus vite que prévuLe réchauffement climatique explose en 2016 !  Le rythme du réchauffement climatique progresse, L'OMM confirme l'accélération dramatique du réchauffement etc. etc. Les superlatifs volent en escadrille. Aucun de ces journaux ne fait mention de l'évolution des températures depuis 2016, pourtant notée par tous les grands organismes qui la publient. Notons la précision des mesures nettement meilleure que celles publiées par le Hadley Centre; (les courbes haute et basse sont nettement plus proches l'une de l'autre. 

Un grand scientifique, le docteurRoy Spencer de l'Université de l'Alabama à Huntsville, spécialiste des mesures des températures par satellite a comparé l'évolution réelle de la température moyenne des mers situées entre 60° Sud et 60° Nord entre 1979 et 2021 (42 ans) avec celle donnée par 68 simulations de 13 modèles climatiques différents. Le résultat, dont le graphique est donné ci-dessous, est édifiant : (source : https://www.drroyspencer.com/)

 68 models vs obs 1979 2021 oceans

Graphique 6 : Mis à jour le 5 mai 2021

Ajoutons que les prévisions apocalyptiques qui font la une des médias sont représentées par les courbes de températures situées à la partie supérieure de l'ensemble - Sans autre commentaire...

 Un scientifique français célèbre m'a affirmé une fois, il y a longtemps, que l'exagération qui entoure les annonces concernant les conséquences du changement climatique était uniquement destinée à faire prendre conscience aux gens de l'importance du phénomène et de l'obligation d'accepter les mesures prises pour lutter contre lui. Je trouve cette explication pertinente, mais je conteste néanmoins la méthode.

 

 _______________________________

1:  D'aucun invoquent le phénomène "La Niña" pour expliquer la baisse soudaine des températures, mais il faut remarquer que ce phénomène est en cours depuis le deuxième trimestre 2020 et son influence est plutôt maintenant en phase descendante, ce qui affaiblit beaucoup l'argument.

 

Ou l'on voit le couple infernal Laurent - Ségolène exécuter leur stupéfiant numéro de comédiens dans la pièce "le bal des cocus".

R orangeeconnaissons-le : l'enjeu était de taille. Convaincre les représentants de 195 pays de limiter leurs émissions de CO2 assez pour que l'élévation de la température mondiale depuis 1850 ne dépasse pas deux degrés (alors qu'on en est déjà à un, mais ne l'ébruitons pas trop), il fallait le faire. 

C'est ce que Monsieur Hulot nous propose avec sa transition écologique

Soyons juste : Monsieur Hulot n'est pas le seul responsable, car il hérite d'une situation qu'il n'a pas lui-même créée. Mais il est fondamentalement d'accord avec les objectifs de cette transition, longuement concoctée par  les instances européennes sous l'influence permanente des lobbys climatiques,

Iol y a une dizaine d'années, au moment où pas mal de fables écologiques voyaient le jour et se répandaient, un dossier spécial de "Pour la Science" consacré à l'eau (janvier - mars 2008) avait mis à mal un certain nombre de mythes répétés à l'envie par les "milieux généralement bien informés", mythes qui finissent par conduire le public à des actions carrément stupides.

I orangel y a des canulars (hoaxes, en anglais) qui finissent, tant ils sont répétés, par devenir des évidences irréfutables.

La nocivité des produits "chimiques" sur la santé, et son corollaire, la non-nocivité des produits "naturels" en est un des plus solides : tout le monde est forcément d’accord, il faut éviter d’ingurgiter des saletés "chimiques" et ne se nourrir que de produits "naturels" qui, eux, sont bons pour la santé.

Réflexions matutinales devant un miroir, un rasoir à la main

I rougel m'arrive régulièrement, comme à beaucoup de mes compatriotes, de me couper en me rasant. J'utilise donc, pour soigner ces microcoupures et bloquer le saignement, un baume apaisant dit “à la pierre d'alun naturelle” très efficace.

Au-dessus de la vasque de ma voisine de salle de bain qui est aussi mon épouse, il y a une armoire à onguents contenant, entre autres, un spray anti-transpirant garanti « sans sels d'aluminium ». Ces fameux sels d'aluminium sont considérés comme suspects parce qu'un chercheur lanceur d'alerte a trouvé un jour qu'ils étaient associés avec la maladie d'Alzheimer. Cette association a été plus tard démontrée comme fausse, mais la suspicion est naturellement restée.1 Il est vrai que ces sels d'aluminium peuvent être considérés comme chimiques, et ça, c'est impardonnable.

La pierre d'alun, nom très écologique parce que naturelle désigne simplement le sulfate double d'aluminium et de potassium cristallisé avec 12 molécules d'eau. C'est donc un sel d'aluminium qui se décompose partiellement en présence d'eau en donnant un autre sel d'aluminium : l'alumine aux propriétés astringentes et anti perspirantes bien connues.

Pascal a dit : Vérité en deçà des Pyrénées, erreur au-delà. Dans mon cas, la distance est bien plus faible : Vérité à droite, erreur deux mètres à gauche. Une seule chose est sûre : le consommateur est couillonné.

Le mot a acquis de nos jours une importance démesurée : en effet, il suffit d'affecter un objet, un produit, une action, d'un qualificatif approprié pourSanex
qu'aussitôt cet objet, ce produit ou cette action prenne des propriétés extraordinaires… Magie du mot : ainsi, une activité agricole classique devient soudain un mystère pratiqué par le prêtre de la religion nouvelle parce qu'on l'a qualifié de biologique… Remarquons, à ce sujet, que les Français ont su donner à cette pratique un qualificatif bien plus évocateur que les Américains avec leur simple organic. Et son diminutif : bio est encore plus efficace.

Les partisans de l'écopartout se sont fait une spécialité de l'utilisation du mot qui frappe, et qui fait dévier le jugement du lecteur dans le sens désiré. Ces partisans se retrouvent partout : chez les activistes verts, bien sûr, dans les sphères de l'administration (voir l'ADEME par exemple), et aussi chez les politiques qui suivent les tendances électorales. Prenons l'exemple du langage de l'administration utilisé dans les documents traitant de la circulation, et sous l'influence probable de convaincus écolos qui se sont infiltrés dans cet organisme. En langage administratif, on appelle « circulation douce » la circulation non automobile. Mais le qualificatif « douce » n'a pas été choisi innocemment. Il évoque, dans l'esprit du lecteur ou de l'auditoire dans le cas des discours de réunion publique tout ce que le cerveau associe au mot « douceur ». A l'inverse, il crée, pour la circulation qui n'est pas « douce » le qualificatif non-dit, mais bien présent de « dure ». Ainsi, dans l'esprit des citoyens, se fabrique, pas innocemment du tout, un sentiment d'aversion vis-à-vis de l'automobile, ce qui est le but des écolos en question. Le même mot « douce » qualifie aussi les médecines non conventionnelles, pour les mêmes raisons et avec les mêmes résultats : la médecine conventionnelle devient la médecine « dure » dans l'esprit des usagers et les pousse vers la pratique de l'alternative « douce » ce qui est évidemment l'objectif des praticiens de ces activités de soins. Je ne connais qu'un seul cas où les relégués des « sciences dures » par l'arrivée des « sciences douces » se sont non seulement appropriés le qualificatif avec joie, mais encore ont retourné le colis en nommant « sciences molles » toutes les sciences qui n'étaient pas « dures » comme les mathématiques, la physique ou la chimie.

Pour en revenir au contenu de nos pots et fioles dans nos armoires de salle de bain, je m'extasie devant l'inventivité toujours plus étonnante des concepteurs marketing. Par exemple, j'utilise un « gel douche » qui n'a d'ailleurs du point de vue de la physique aucune des propriétés d'un gel, mais qui est caractérisé par l'absence d'une liste de produits définitivement étiquetés comme « nocifs » : Son nom est d'ailleurs « zéro% ». Il est « sans parabènes » et aussi « sans colorants », « sans phtalates » et « sans phénoxyéthanol » (On peut se demander s'il ne contient pas finalement que de l'eau). Heureusement, il contient malgré tout un agent mouillant« 100 % naturel » sur la composition duquel le chimiste que je reste se pose quelques questions. Enfin, pour sacrifier à la mode du « non jetable », le produit est emballé dans un conteneur en plastique simplifié et souple et contenant « 79 % de plastique en moins ». J'approuve à 100 % cette dernière propriété qui occupe dans la poubelle spécialisée, un espace bien moindre. Par contre, je ne vois objectivement pas quel est l'avantage d'être « sans parabènes » lorsque l'on sait que les fraises contiennent des parabènes ainsi d'ailleurs qu'entre autres, les oignons,les mûres l'orge, le cassis, la vanille et les carottes. Ces légumes ou fruits ont trouvés, bien avant nous, les vertus antibactériennes et fongicides de ces fameux parabènes, et les utilisent comme pesticides contre la pourriture.>

« Sans phtalates » m'interroge également. En effet, chose la plupart du temps ignorée de nos « lanceurs d'alertes », ces produits sont très peu solubles dans l'eau et doivent se comporter comme le ferait de l'huile dans votre shampoing : former des globules d'un effet mitigé dans l'eau de rinçage. Autrement dit, les produits « avec phtalates » (s'ils existaient) seraient caractérisés par des propriétés très visibles (les globules) et pas très commerciales.

Ainsi sont les comportements de nos congénères, dirigés par des convictions très écologiques mais pas toujours très logiques…


(1) D'autres chercheurs ont observé que le chlorure d'aluminium pouvait favoriser l'apparition de cancers chez certaines espèces de souris et la formation de cancer du sein in vitro sur des cellules épithéliales mammaires. De là une suspicion étendues (peut-être un peu rapidement) aux sels d'aluminium en général et au cancer du sein in vivo.

L

orsqu'on essaye de prendre un peu de recul, et qu'on examine avec un minimum d'esprit critique la pression énorme exercée par notre État sur un certain nombre d'aspects de notre vie, même très intime, on est saisi de vertige et d'effroi : oui, chez nous, l'État prétend nous guider, et même nous forcer dans un certain nombre d'attitudes,  et notre liberté, théoriquement sacrosainte et même inscrite dans la devise de notre pays