Fiabilité des prévisions météorologiques : progrès et limites
Avec le développement d’outils de plus
en plus performants, la prévision du temps a beaucoup progressé
depuis une trentaine d’années, surtout pour les échéances
allant de deux à sept jours. On peut penser que les progrès
vont continuer. Mais tous les phénomènes ne sont pas également
prévisibles : la « prévisibilité » du
temps et ses progrès dépendent beaucoup du phénomène
météorologique considéré.
De plus en plus d’activités humaines sont
dépendantes du temps, ainsi que la sécurité des biens
et des personnes dans le cas de phénomènes météorologiques
extrêmes. Depuis longtemps, on a donc cherché à surveiller
et à prévoir le comportement de l’atmosphère,
avec plus ou moins de réussite. La plupart des pays se sont dotés
de services météorologiques chargés, entre autres
activités, du développement et de la maintenance de réseaux
d’observation, ainsi que de la prévision du temps. Ces activités
météorologiques se sont fortement fédérées,
au niveau européen surtout, mais aussi au niveau mondial, compte
tenu des caractères particuliers suivants de la météorologie
:
- l’observation et la modélisation de l’atmosphère
doivent être traitées à l’échelon planétaire
;
- l’observation de l’atmosphère par satellite nécessite
des programmes et des investissements lourds qui dépassent les
capacités de la plupart des pays. En Europe, ce sont des organismes
regroupant de quinze à vingt pays qui traitent ces programmes ;
- le développement et l’exploitation de modèles météorologiques
pour certains aspects de la prévision du temps est une activité
qui s’est fédérée naturellement au niveau de
l’Europe, dès 1975, par le regroupement de météorologistes
autour de lourds moyens informatiques communs avec la création
du Centre européen de prévision météorologique
à moyen terme (CEPMMT) à Reading (Grande-Bretagne).
Les outils utilisés en prévision
du temps et leur évolution
La prévision numérique du temps consiste
à appliquer à l’atmosphère les lois de l’hydrodynamique
qui pilotent son évolution par un système d’équations
aux dérivées partielles, système que l’on résout
par des méthodes numériques. Ce principe consistant à
calculer l’état futur de l’atmosphère à
partir d’un état présent avait été imaginé
dès la fin de la Première Guerre mondiale par un météorologiste
britannique, Richardson, soit trente ans avant l’invention de l’ordinateur.
La première expérience de prévision
numérique du temps fut réalisée avec un modèle
très simple aux Etats-Unis, en 1950, mais il fallut attendre la
fin des années soixante pour que les modèles météorologiques
commencent à être utilisés au quotidien pour prévoir
le temps. Auparavant, les prévisionnistes s’efforçaient
d’analyser subjectivement les phénomènes qu’ils
jugeaient pertinents pour la prévision du temps sur une région,
en utilisant au mieux les observations disponibles, avant d’extrapoler
dans le temps ces phénomènes par des lois empiriques.
Puis les modèles ont joué un rôle
sans cesse croissant dans l’élaboration des prévisions,
au fur et à mesure qu’ils se perfectionnaient, sur les aspects
suivants :
- modélisation de plus en plus poussée des processus physiques
se déroulant dans l’atmosphère et à ses frontières
;
- prise en compte d’observations de plus en plus variées pour
décrire l’état initial des modèles, et par des
algorithmes mathématiques de plus en plus sophistiqués ;
- augmentation de leur résolution spatiale.
Ce dernier aspect correspond au découpage de l’atmosphère
en « boîtes « que l’on doit nécessairement
faire pour les calculs numériques associés aux équations
du modèle. L’augmentation de la résolution des modèles
est naturellement liée à l’augmentation de la puissance
des calculateurs que l’on a observée depuis trente ans. Mais
cette évolution rapide des ordinateurs a été déterminante
aussi pour les progrès des autres aspects des modèles numériques.
Actuellement, la résolution horizontale des modèles de prévision
est de l’ordre de quelques dizaines de kilomètres (contre
quelques centaines il y a vingt ou trente ans) : cette résolution
donne une idée de la taille minimale des phénomènes
météorologiques que l’on peut espérer prévoir
directement par ces modèles.
A Météo-France, la prévision opérationnelle
se base sur plusieurs modèles : d’abord le modèle européen
du CEPMMT (voir page précédente) qui, depuis Reading en
Grande-Bretagne, fournit des prévisions numériques jusqu’à
dix jours d’échéance. Pour affiner les prévisions
jusqu’à quatre jours d’échéance, on utilise
aussi les modèles nationaux Arpège et Aladin. Ce sont des
versions légèrement différentes du précédent,
spécialement adaptées pour un « effet de zoom «
sur nos zones d’intérêt : Arpège est équipé
d’une version à maille variable permettant d’avoir beaucoup
plus de résolution sur la France que sur le reste du globe ; Aladin
est une version couvrant un domaine limité seulement, judicieusement
choisi autour de la France, qui permet actuellement d’atteindre des
résolutions de l’ordre de 10 kilomètres.
La chaîne de prévision météorologique
continue ensuite avec l’examen et l’interprétation des
résultats des modèles par des ingénieurs prévisionnistes.
Il s’agit, d’une part, de traduire les résultats numériques
sous une forme utilisable et, d’autre part, de soumettre ces résultats
à un examen critique afin de discriminer l’information fiable
de l’information incertaine et, le cas échéant, de
détecter des signaux précurseurs d’événements
dangereux. Compte tenu des multiples facteurs dont dépend la qualité
des modèles, cet examen critique peut être très différent
d’un jour à l’autre, de sorte qu’une des principales
difficultés pour les prévisionnistes est de repérer,
au milieu de l’énorme quantité de données produites
par les modèles, quelles sont celles qui sont importantes ou significatives.
Les prévisionnistes disposent pour cela d’un système
de traitement et de visualisation de données, appelé Synergie,
développé spécialement pour cette fonction.
La dernière étape de la chaîne de
prévision est la mise en forme des résultats de façon
adaptée aux besoins des utilisateurs. En l’occurrence la diversité
est extrême, depuis ce que l’on désigne sous le terme
générique de « grand public «, jusqu’à
l’utilisateur professionnel qui requiert une présentation
spécifique.
La fiabilité des prévisions
et leur évolution
Notons enfin que, dans l’état actuel de la
science, les outils principaux de la prévision pour les deux ou
trois heures qui viennent, dite « prévision immédiate
», ne sont pas les modèles numériques mais les informations
fournies par les satellites et les radars hydrologiques. Le système
Synergie de visualisation et d’édition des informations fournit
aussi les fonctionnalités nécessaires à l’utilisation
de ces données : superposition de champs, zoom, animation, alerte
lors du dépassement de seuils météorologiques critiques,
etc.
Si les modèles décrits précédemment
sont utilisés jusqu’à une échéance maximale
de dix jours, c’est parce qu’au-delà, on estime qu’ils
n’apportent pas d’information significative, du moins sous cette
forme déterministe : calcul d’un état atmosphérique
prévu à partir d’un état présent. Pour
cette même raison, en France, les bulletins de prévision
destinés au grand public (et décrivant le temps région
par région) sont élaborés jusqu’à une
échéance maximale de sept jours. Cette limite à la
prévisibilité du temps est fondamentalement due au caractère
chaotique de l’atmosphère : une petite modification de l’état
atmosphérique à un instant donné peut parfois se
transformer en une grosse modification quelques jours plus tard. Et donc
une petite erreur sur la connaissance de certains paramètres atmosphériques
à un moment donné peut parfois entraîner une forte
erreur de prévision.
Les vérifications des prévisions de modèles
opérationnels font l’objet de scores objectifs qui permettent
de suivre l’évolution de leur qualité. La figure ci-contre
montre l’évolution d’un tel score pour le modèle
du CEPMMT depuis son fonctionnement opérationnel. Le diagramme
indique qu’au cours des vingt dernières années, la
prévision à cinq jours d’échéance s’est
hissée au niveau de ce qu’était la prévision
à trois jours d’échéance, et la prévision
à sept jours d’échéance s’est hissée
au niveau de ce qu’était la prévision à cinq
jours d’échéance.
Un résumé elliptique permet de dire que
« en vingt ans, on a gagné deux jours sur l’échéance
de la prévision, en moyenne «. Le même diagramme indique
aussi que les prévisions dans l’hémisphère sud,
naturellement moins bonnes que dans l’hémisphère nord
du fait de sa densité inférieure en données conventionnelles,
ont progressé plus vite, et ont même tendance à rattraper
l’hémisphère nord pour ce score particulier. Ceci est
manifestement dû aux développements des systèmes d’observation
par satellite, et à l’utilisation de plus en plus grande et
de plus en plus soignée de ces observations dans les modèles.
Ce score illustre la qualité de la prévision
des phénomènes qui pilotent le temps dans les latitudes
extra-tropicales : perturbations et fronts associés, centres dépressionnaires
et anticycloniques. Il n’est pas représentatif de tout phénomène
météorologique. En effet, le caractère « prévisible
ou pas « d’un phénomène dépend beaucoup
de son échelle spatio-temporelle.
Ainsi, dans une situation orageuse, le développement
d’un orage, sa violence, sa trajectoire exacte… restent très
peu prévisibles, car le phénomène se déroule
à l’échelle de l’heure et de quelques kilomètres
sur l’horizontale, même si le caractère « fortement
orageux « du temps sur une région peut être anticipé
plusieurs jours à l’avance.
Inversement, si l’on s’intéresse aux
anomalies de température et de précipitation sur une période
de plusieurs jours et à l’échelle d’un continent,
les modèles météorologiques associés à
des traitements statistiques appropriés permettent de prévoir
des indications utiles au-delà des quelques jours de la prévision
conventionnelle. On commence même à faire ce type de prévision
à l’échelle de la saison.
Evolution de la qualité de la
prévision du modèle européen du Centre
européen de prévision météorologique
à moyen terme (CEPMMT) de 1981 à 2002 (axe
horizontal).
L’indicateur de qualité considéré,
sur l’axe vertical, est une corrélation (en
%) : 100 est la limite haute idéale ; en-dessous
de 60, on considère généralement que
le modèle n’apporte plus aucune information
utile aux prévisionnistes. Le grisé foncé
évalue les prévisions à trois jours
d’échéance, le grisé moyen à
cinq jours, et le grisé clair à sept jours.
Les courbes en trait épais indiquent le score du
modèle sur l’hémisphère nord,
les courbes en trait fin sur l’hémisphère
sud. Les trois plages grisées matérialisent
le « déficit de qualité « des
prévisions sur l’hémisphère sud
par rapport à l’hémisphère nord.
|
|
|
Progrès futurs
La qualité des prévisions finales résultant
de l’interprétation des prévisions numériques
est également systématiquement mesurée. Dans un certain
nombre de cas, l’intervention du prévisionniste est déterminante,
parfois dans des circonstances mettant en jeu la sécurité
des personnes et des biens.
Un exemple récent, exceptionnel par son intensité
et sa gravité, est celui des pluies catastrophiques qui ont fait
vingt-quatre victimes dans le Gard les 8 et 9 septembre 2002. Sur cet
épisode, les prévisions déduites directement des
modèles numériques étaient sous-estimées d’un
facteur de l’ordre de 3, et seule l’expertise des prévisionnistes
a permis de lancer une alerte au niveau requis.
Les progrès de ces vingt dernières années
devraient se poursuivre, en particulier du fait des développements
prévus dans l’observation et la modélisation.
Pour l’observation par satellite, des sondeurs de
température et d’humidité à plus haute résolution
devraient être disponibles : sondeur américain Airs dès
2003, sondeur européen Iasi vers 2006. Une mission exploratoire
de l’Agence spatiale européenne, programmée pour 2007,
devrait aussi fournir des données de vent sur tout le globe et
toute l’épaisseur de l’atmosphère au moyen d’un
instrument embarqué mesurant le vent (lidar).
De nombreux autres satellites peuvent apporter une information
complémentaire sur l’atmosphère, information encore
inexploitée, par exemple le système de positionnement GPS
permettra très indirectement de restituer une information sur la
température et l’humidité de l’atmosphère.
Pour que ces nouvelles données améliorent effectivement
les prévisions, un gros travail de recherche et de développement
est nécessaire sur les algorithmes servant à introduire
ces données dans les modèles. Ceci est vrai également
pour les observations de radar.
Outre la prise en compte des données nouvelles,
les progrès de la modélisation vont porter sur la résolution
spatio-temporelle, en essayant de profiter de l’accroissement de
la puissance des calculateurs. A Météo-France, le projet
Arome vient d’être lancé : il vise un système
de prévision à échelle de deux ou trois kilomètres
sur la France, pour la fin de la décennie. Il sera forcément
couplé avec un autre modèle météorologique
de plus grande échelle. Son objectif est d’améliorer
sensiblement les détails de la prévision locale du temps,
mais aussi d’aider les prévisions de phénomènes
extérieurs à l’atmosphère, par couplage avec
des modèles hydrologiques, par exemple. C’est d’ailleurs
une tendance générale de la modélisation atmosphérique
d’inclure de plus en plus de processus, et d’être de plus
en plus couplée à d’autres milieux connexes : océan,
sol, végétation…
Du point de vue de l’usager des prévisions
météorologiques, le progrès se manifeste dans trois
directions différentes : l’amélioration de la qualité
de la prévision elle-même, l’amélioration des
moyens de mise à disposition de l’information, et la diversification
ou l’enrichissement de l’information fournie. Il s’agit
de trois directions de progrès, complémentaires mais distinctes.
Paradoxalement, ce n’est pas l’amélioration
de la qualité de la prévision que l’usager de la météorologie
ressent en premier. En effet, cette amélioration ne se manifeste
pas de façon spectaculaire, mais au contraire régulièrement
au fil des ans. En revanche, les progrès de la mise à disposition
procèdent par montées de niveau, au fur et à mesure
des avancées technologiques. Comme tous les fournisseurs d’information,
les services météorologiques enrichissent leur gamme de
produits, avec notamment des sites internet de plus en plus pratiques
et attrayants, avec aussi l’envoi d’alertes ou autres informations
ciblées par SMS, etc. Une des retombées les plus significatives
de ces progrès est l’amélioration de l’efficacité
des procédures liées à la sécurité
des personnes et des biens.
La vigilance météorologique mise en œuvre
en France en octobre 2001 en est un exemple. L’information pertinente
est, d’une part, transmise avec un délai de quelques minutes
à tous les services concernés et, d’autre part, disponible
en accès libre sur internet, ce qui marque une avancée considérable
par rapport aux anciennes procédures.
En ce qui concerne la diversification des informations
fournies, l’évolution la plus marquante consiste en l’adjonction
d’informations sur la fiabilité attendue de la prévision.
Jusqu’à récemment, on ne savait formuler la prévision
météorologique que de façon déterministe,
sans indication de marge d’erreur ou d’intervalle de confiance.
Des méthodes objectives, dites de prévision d’ensemble,
permettent maintenant d’estimer la probabilité attachée
à la prévision d’un événement donné.
Pour l’utilisateur, il s’agit d’une information très
importante pour optimiser la prise de décision : ainsi les mesures
à prendre pour se protéger contre tel ou tel événement
météorologique ne seront pas les mêmes selon que l’événement
est très probable ou simplement possible.
Bibliographie
- La Météorologie. Numéro spécial « Prévision numérique du temps », 8ème série, n°30, revue éditée par la Société météorologique de France et par Météo France (http://www.meteo.fr/), juin 2000
http://www.constructif.fr/bibliotheque/2003-2/fiabilite-des-previsions-meteorologiques-progres-et-limites.html?item_id=2453
© Constructif
Imprimer
Envoyer par mail
Réagir à l'article