mercredi 28 mai 2014

De la difficulté de prévoir les orages


Récemment, Jean-Yves Frique du collectif Belgorage écrivait que "la prévision convective est, avec la prévision neigeuse, la plus difficile en météorologie". Cette remarque est à l'évidence d'une grande pertinence et nous abondons dans ce sens. Cela est d'autant plus judicieux de le rappeler que, pour beaucoup de personnes, les orages sont associés à la chaleur et à l'humidité, et qu'il est donc "naturel" d'avoir des orages quand il fait trop chaud. Les passionnés d'orages savent combien les choses sont hautement plus compliquées. A ce titre, l'auteur de cet article, effrayé par les orages durant son enfance, les attendant comme une délivrance de la chaleur quelques années plus tard, et maintenant passionné depuis 2 ans par ces machines de thermodynamique, les découvre encore un peu comme un novice, en tout cas par rapport à certaines sommités kérauniques.



C'est donc avec ces yeux de néo-passionné que j'aimerais vous faire partager quelques réflexions autour de la difficulté de la prévisions d'orages. En effet, je découvre encore tous les jours la complexité de la formation des orages, un peu comme notre public parfois plus que novice qui ne comprend pas pourquoi un orage n'a pas éclaté dans son patelin. Il arrive effectivement parfois qu'une prévision d'orages ne se révèle pas correcte, que ce soit dans son timing, sa localisation, ou son niveau de sévérité. Il y a bien évidemment mille raisons à ce manque de prévisibilité, et cela demanderait de longues recherches et des explications probablement fort techniques. Il n'empêche : le public se sent parfois frustré de voir que les prévisions ne se sont pas réalisées "comme prévu" et les discours anti-scientifiques pleuvent. Cet article aimerait donc vous expliquer la difficulté de prévoir les orages à partir de 3 cas théoriques mais bien réels : l'inversion de température, la brise de mer, et l'instabilité.

L'inversion de température

Nous avons déjà parlé de l'inversion de température dans cet article. Il faut néanmoins revenir et insister sur certains points. Etant donné que l'inversion de température est une couche d'air plus chaude que celle qui se trouve en-dessous et qu'elle bloque donc la convection comme un couvercle, comment fait-on pour la vaincre et permettre ainsi le développement de nuages convectifs ? On pourrait évidemment espérer un échauffement de la couche inférieure qui rétablirait un profil vertical classique et donc favorable à la convection, mais cela est trop rarement le cas. Reste alors un forçage suffisamment puissant pour percer cette couche d'inversion. Et c'est là qu'intervient la difficulté de la prévision kéraunique.

Il est en effet important d'établir quel est le degré de coriacité de la couche d'inversion, en d'autres termes son épaisseur, mais aussi de combien de degrés la température remonte dans cette couche. Le problème est donc le suivant : qu'est-ce qui nous permet de savoir qu'une couche de 100m avec une inversion de 1° pourrait être percée alors qu'une autre de 150m avec une inversion de 1.5° ne pourrait pas l'être ? Dans les discussions rédigées par les spécialistes analystes des couches et masses d’air, il arrive régulièrement que le doute subsiste sur les possibilités de perçage. Entrent en ligne des facteurs non pas de méso-échelle, mais de micro-échelle tels le relief très local ou d’autres. Ainsi, comment pouvoir déterminer qu’une colline de X mètres avec une pente de Y % permettrait d’induire une dynamique de forçage qui percerait alors l’inversion de température ? 

C’est probablement à ce moment-là qu’on arrive aux limites de nos capacités techniques et intellectuelles. En effet, les modèles numériques de prévisions, même ceux à maille fine, n’offrent des résolutions que de plusieurs kilomètres et certaines particularités du relief ou d’une manière générale de la topographie ne sont pas ou peu prises en compte par ces modélisations. Elaborer des machines avec encore une résolution plus fine impliquerait non seulement d’intégrer des éléments géographiques d’une infinie précision, mais aussi de mettre en équation ces composants, avec toute la complexité que cela suppose. Evidemment, on peut espérer que le progrès technologique et humain nous permettra dans le futur (proche ou lointain) une meilleure gestion de cette complexité, mais cela demandera encore du temps, de l’argent, et d’autres ressources.

La brise de mer

Rappelons que la brise de mer est ce phénomène essentiellement estival où le vent marin se lève à cause de la différence de température entre la terre plus chaude et la mer plus froide. Elle se forme donc dans certaines conditions de gradient thermique mais aussi lorsque le vent continental de Sud à Est est insuffisant pour empêcher la levée de ce vent particulier. L’importance de cette brise pour la formation des orages est qu’elle forme un véritable pseudo front froid le long duquel les vents convergent pour forcer l’ascension de la masse d’air et la convection. Il est donc important de bien évaluer la présence (ou non) de cette brise marine et de l’intégrer dans un contexte orageux avec les autres paramètres tels que l’énergie potentielle ou la dynamique d’altitude. 

Le problème de la brise marine est qu’elle réagit là aussi à une situation précise et complexe. En effet, si c’est le gradient thermique qui la provoque, comment peut-on évaluer qu’un gradient thermique de 5° la provoquera et qu’un autre de 4° ne la provoquera pas ? Dans la majorité des cas, les modélisations numériques appréhendent cela assez bien et cela est répercuté dans les bulletins généralistes, mais il existe encore des exceptions qui peuvent perturber les prévisions et en surprendre plus d’un. Malheureusement, intervient aussi l’autre facteur déterminant, à savoir l’orientation du vent continental qui affrontera donc la brise marine. Pour que ce front soit efficace au niveau des convergences et des forçages, il faut que l’angle créé par les vents continentaux et marins soit le plus proche possible des 180°, ce qui permettra un affrontement maximal. Dès lors, vu l’orientation de la côte belge et la brise marine de Nord-Ouest, c’est un vent continental de Sud-Est qui sera le plus à même de générer un forçage efficace. A contrario, un vent plus orienté au Sud ou à l’Est créera un angle d’affrontement qui s’écartera des 180° avec à la clef des forçages moins importants.

Toute la difficulté de la modélisation et de la prévision réside donc dans la mécanique de précision de l’orientation des vents. Un écart de 10° peut être suffisant pour perturber la convergence et les forçages. Comme pour l’inversion de température, certains détails topographiques, synoptiques ou thermiques provoqueront un changement dans l’orientation des vents susceptible ou non de déclencher la convection. Ces paramètres sont encore difficiles à appréhender par les supercalculateurs car ils sont inférieures à leur résolution. Ils échappent donc à la prévision convective dont la résolution est plus de micro-échelle que de méso-échelle. Il reviendra donc au prévisionniste d’affiner cela via l’observation visuelle, satellite, radar, et par l’expérience.

L’instabilité

Un troisième cas n’est pas le moins rencontré : il s’agit de l’instabilité, et plus précisément d’une instabilité revue à la baisse à cause d’une couverture nuageuse plus dense que prévue et donc d’un ensoleillement moins généreux. Durant les grandes périodes estivales, il arrive en effet fréquemment que la dégradation orageuse positionnée sur l’Atlantique voie ses restes envoyés vers la Belgique durant la nuit et en matinée. Dès lors, alors que celle-ci est prévue dans l’après-midi avec un degré de sévérité plus ou moins élevé, la présence de nuages limitera d’autant l’instabilité prévue. Le tout est de savoir de combien sera ce « autant ».

Cela dépendra évidemment de la capacité des nuages à se dissiper durant la journée. Interviendront le taux d’humidité, la puissance du soleil, l’orientation et la puissance du vent (humide ou sec), les champs nuageux situés sur la France et remontant vers nos régions, et même des différences thermiques et hygrométriques entre différentes couches de l’atmosphère, entre autres facteurs. Un des problèmes est que la modélisation numérique ne pourra être modifiée qu’à partir des données récoltées au moment de cette invasion nuageuse, c’est-à-dire vers 6h du matin, avec une sortie du « run » à 12h. La présence nuageuse de la matinée sera elle intégrée à 12h avec une prévision à 18h, en pleine dégradation orageuse. Il existe donc déjà un problème de timing de la prévision qui sera « en retard » par rapport aux événements en cours. Notons aussi que ces nouvelles données imprévues sont difficiles à intégrer dans les nouvelles équations et ont du mal à « rattraper » la situation.

De plus, une des difficultés du prévisionniste de la convection sera de pouvoir déterminer quelles régions seront les plus exposées aux éclaircies et jusqu’à quel niveau. De cela dépendra évidemment le risque orageux et celui-ci pourrait être redistribué en fonction de la répartition de l’ensoleillement. A ce moment-là, la modélisation numérique sera en grande partie inefficace et seule une observation du ciel et des images satellite et radar pourra donner au prévisionniste une idée des possibilités de développement convectif en fonction des régions. L’expérience jouera aussi un rôle non-négligeable. Toutefois, il arrive encore régulièrement que des « surprises » se produisent et que les prévisionnistes soient tout simplement dépassés par les éléments.

Conclusion

On a pu donc le voir à travers 3 cas particuliers, théoriques, mais réels et assez fréquents : la prévision convective est chaque jour délicate. Elle requiert des moyens humains, intellectuels, technologiques, et financiers colossaux. Prévoir des phénomènes aussi localisés que les orages et qui réagissent à des détails aussi infimes et variables relève à chaque fois de la pirouette et du génie humain. Nous nous trouvons à mille lieux de l’équation simpliste : chaleur + humidité = orage. Ces machines de thermodynamique ont besoin de situation beaucoup plus précise que le quidam ne l’imagine car elles réagissent à une dynamique de basse couche (les forçages) réglée presque au degré près, à une énergie potentielle suffisante trop souvent perturbée par un manque d’ensoleillement mal géré par la modélisation numérique, et à un profil vertical thermique dont la progression parfois particulière perturbe les mouvements convectifs. Monsieur tout-le-monde sera alors bien souvent surpris, frustré, et même trop souvent énervé par le manque de prévisibilité et de fiabilité de la prévision convective.

Pourtant, si on voulait améliorer la prévision kéraunique, il faudrait une petite révolution. Le météorologiste Luc Trullemans a déclaré un jour que « pour mieux maîtriser cette prévision, il faudrait envoyer des ballons-sondes tous les 5 kilomètres avec des mesures d’altitude tous les 10 mètres, ce qui impliquerait un investissements colossal ». On pourrait rajouter que ce seraient les personnes les plus insatisfaites des prévisions actuelles qui refuseraient de mettre la main à la poche pour financer cet effort scientifique. Dès lors, la prévision convective est et restera la prévision la plus difficile où même les meilleures machines construites par l’homme ne pourront rien face à la complexité des orages. Le dire n’est pas un aveu d’échec ou d’incompétence. C’est de l’humilité.




Aucun commentaire:

Enregistrer un commentaire

Remarque : Seul un membre de ce blog est autorisé à enregistrer un commentaire.