Suite

5.7.9 : Prévision probabiliste - Géosciences

5.7.9 : Prévision probabiliste - Géosciences


Aperçu

Nous nous tournons maintenant vers prévision probabiliste. Des exemples de probabilité sont :

  1. La chance de gagner à la loterie,
  2. Le risque que vous soyez heurté dans une collision frontale sur l'autoroute, ou
  3. Le risque que votre maison soit détruite par un incendie.

Même si vous ne savez pas si vous gagnerez à la loterie ou si votre maison sera incendiée, la probabilité ou la probabilité de ces résultats est suffisamment connue pour que les loteries et les casinos puissent fonctionner à profit. Vous pouvez souscrire une assurance contre une collision frontale ou un incendie de maison à un taux suffisamment bas pour être à la portée de la plupart des gens, et la compagnie d'assurance peut dégager un profit (voir chapitre 10).

Dans la prévision probabiliste des tremblements de terre, nous utilisons la géodésie, la géologie, la paléosismologie et la sismicité pour considérer la probabilité d'un grand tremblement de terre dans une région donnée ou sur une faille particulière dans le futur. Une période de trente à cinquante ans est généralement choisie parce qu'elle est proche de la durée d'un prêt hypothécaire et est susceptible d'être dans la portée de l'attention des dirigeants politiques et du grand public. Un délai d'un an donnerait une probabilité trop faible pour attirer l'attention de la législature de l'État ou du gouverneur, alors qu'un délai de cent ans, plus long que la plupart des durées de vie, pourrait ne pas être pris au sérieux, même si la probabilité serait être beaucoup plus élevé.

En 1954, Beno Gutenberg et Charles Richter de Caltech ont étudié la sismicité instrumentale de différentes régions du monde et observé une relation systématique entre la magnitude et la fréquence des séismes de petite à moyenne taille. Les séismes d'un intervalle de magnitude donné sont environ dix fois plus fréquents que ceux de magnitude immédiatement supérieure (Figure 7-3). L'écart de la courbe par rapport à une droite aux faibles magnitudes s'explique par l'incapacité des sismographes à mesurer de très petits séismes. Ces petits événements ne seraient détectés que lorsqu'ils sont à proximité d'un sismographe ; d'autres plus éloignés nous manqueraient. Gutenberg et Richter ont donc pensé que si les sismographes pouvaient mesurer tous les événements, ils tomberaient sur la même ligne droite que les événements plus importants qui ne manqueront pas d'être détectés, peu importe où ils se produisent dans la région d'intérêt. Notez que la figure 7-3 est logarithmique, ce qui signifie que les unités plus grandes sont dix fois plus grandes que les plus petites.

Ceci est connu comme le Relation Gutenberg-Richter (G-R) pour une zone donnée. Si la courbe est une ligne droite, alors seulement quelques années d'enregistrements sismographiques de tremblements de terre de faible magnitude pourraient être extrapolées pour prévoir la fréquence à laquelle se produiraient des tremblements de terre de plus grande magnitude non couverts par l'ensemble de données.

Un défaut dans les hypothèses intégrées dans la relation (ou, plutôt, une mauvaise utilisation de la relation involontaire par Gutenberg et Richter) est que la ligne continuerait d'être droite pour des tremblements de terre beaucoup plus importants que ceux déjà mesurés. Par exemple, si la courbe de Gutenberg-Richter prédisait un séisme de M 7 en dix ans pour une région, cela impliquerait un M 8 pour cent ans, un M 9 pour mille ans et un M 10 pour dix mille ans ! Il est clair que cela ne peut pas être le cas, car aucun séisme de plus de M 9,5 n'est connu pour s'être produit. Clarence Allen de Caltech a souligné que si une seule faille se rompait tout autour de la Terre, une hypothèse impossible, la magnitude du séisme ne serait que de 10,6. Ainsi, la relation Gutenberg-Richter, utilisée (ou mal utilisée) de cette manière, nous fait défaut là où nous en avons le plus besoin, en prévoyant la fréquence des plus grands tremblements de terre qui sont les plus dévastateurs pour la société.

Roy Hyndman et ses associés du Pacific Geoscience Centre ont construit une courbe de Gutenberg-Richter pour les séismes crustaux dans les régions de Puget Sound et du sud du détroit de Georgia (figure 7-4). La période de temps de leur analyse est assez courte car ce n'est qu'au cours des vingt dernières années qu'il a été possible de séparer les séismes crustaux de ceux de la plaque sous-jacente de Juan de Fuca. Ils ont des données fiables pour les séismes de magnitudes 3,5 à 5 et des données moins fiables pour des magnitudes allant jusqu'à environ 6,2. La courbe de fréquence signifie un séisme de magnitude 3,6 chaque année et 0,1 séisme de magnitude 5,1 chaque année (ou un séisme de cette magnitude tous les dix ans). L'extension de la courbe en ligne droite permettrait de prédire un tremblement de terre de magnitude 6 tous les cinquante ans.

Hyndman et ses collègues ont suivi la pratique moderne et n'ont pas extrapolé la relation G-R en ligne droite à des magnitudes encore plus élevées. Ils ont montré la ligne s'incurvant vers le bas pour se rapprocher d'une ligne verticale, qui serait la magnitude maximale, qu'ils ont estimée comme M 7,3 à 7,7. Cela conduirait à un séisme de magnitude 7 tous les quatre cents ans. D'autres estimations basées sur la géologie conduisent à une magnitude maximale (MCE) de 7,3, une estimation déterministe. En supposant que la majeure partie du raccourcissement de la croûte terrestre dérivé du GPS entre le sud de Washington et le sud de la Colombie-Britannique est due à des tremblements de terre, il devrait y avoir un tremblement de terre de la croûte dans cette zone tous les quatre cents ans. Le dernier tremblement de terre sur la faille de Seattle a frappé il y a environ onze cents ans, mais on suppose que d'autres failles dans cette région, telles que la faille de Tacoma ou la faille de l'île de Whidbey du sud, pourraient faire la différence. Ainsi la géologie et la géodésie tectonique donnent des estimations comparables à l'estimation de Gutenberg-Richter pour les séismes de M 7 tant que G-R ne suit pas une ligne droite pour les plus fortes magnitudes.

Cette analyse fonctionne pour Puget Sound et le détroit de Georgia, où il y a une grande quantité de sismicité instrumentale. Il suppose que plus il y a de tremblements de terre enregistrés sur les sismogrammes, plus la probabilité de tremblements de terre beaucoup plus importants à l'avenir est grande. Supposons que votre région ait connu plus de tremblements de terre de magnitude inférieure à 7 que la courbe illustrée à la figure 7-3. Cela impliquerait un plus grand nombre de grands tremblements de terre et un plus grand risque. Au début, cela semble logique. Si vous ressentez les effets de petits tremblements de terre de temps en temps, vous êtes plus susceptible de vous inquiéter des plus gros.

Pourtant, la sismicité instrumentale de la faille de San Andreas conduit à la conclusion exactement opposée. Les parties de la faille de San Andreas qui se sont rompues lors de grands tremblements de terre en 1857 et 1906 sont aujourd'hui très calmes du point de vue sismique. Ceci est illustré à la figure 7-5, une carte de sismicité du centre de la Californie, avec la région de la baie de San Francisco dans son coin nord-ouest. La faille de San Andreas s'étend du coin supérieur gauche au coin inférieur droit de cette carte. Les parties de la faille de San Andreas qui déclenchent fréquemment des tremblements de terre de taille modérée, comme Parkfield et la zone au nord-ouest de Parkfield, ressortent sur la carte de sismicité. La faille est la plus faible dans cette zone et il est peu probable qu'elle stocke suffisamment d'énergie de déformation pour déclencher un séisme de magnitude 7. Cependant, la faille dans le coin nord-ouest de la carte (partie de la rupture de 1906 de M 7.9) a relativement faible sismicité instrumentale, et la faille dans le coin sud-est (partie de la rupture de 1857, également M 7,9) n'est pas du tout marquée par des tremblements de terre. Les segments de la faille avec la sismicité instrumentale la plus faible ont le potentiel pour le plus grand séisme, presque une magnitude 8.

La zone de subduction de Cascadia a une sismicité instrumentale essentiellement nulle au nord de la Californie (figure 4-13). Pourtant, les preuves géologiques et les comparaisons avec d'autres zones de subduction fournissent des preuves convaincantes que Cascadia s'est rompu lors de tremblements de terre aussi importants que la magnitude 9, le dernier en janvier 1700.

Cela montre que l'extrapolation de Gutenberg-Richter à des magnitudes plus élevées fonctionne dans les zones où il y a de nombreux tremblements de terre de petite à moyenne taille, mais pas là où la faille est complètement verrouillée. La sismicité, qui mesure la libération d'énergie de déformation élastique stockée, dépend de la résistance de la croûte étudiée. Une faille relativement faible comme la faille de San Andreas à Parkfield aurait de nombreux petits tremblements de terre car la croûte ne pourrait pas stocker suffisamment de tension pour en libérer une grande. Une faille forte comme la faille de San Andreas au nord de San Francisco ne déclencherait que peu ou pas de tremblements de terre jusqu'à ce que la tension se soit accumulée suffisamment pour rompre la croûte lors d'un très grand tremblement de terre, comme le tremblement de terre du 18 avril 1906.

La paléosismologie confirme les problèmes liés à l'utilisation de la relation de Gutenberg-Richter pour prédire la fréquence des grands séismes. Dave Schwartz et Kevin Coppersmith, alors de Woodward-Clyde Consultants à San Francisco, ont pu identifier des tremblements de terre individuels dans les excavations de tranchées de pelles rétrocaveuses de failles actives dans l'Utah et la Californie sur la base du décalage des failles des couches sédimentaires dans les tranchées. Ils ont constaté que les décalages de faille ont tendance à être à peu près les mêmes pour différents séismes dans la même tranchée de pelle rétrocaveuse, ce qui suggère que les tremblements de terre produisant les décalages de faille ont tendance à être à peu près de la même taille. Cela les a conduits au concept de séismes caractéristiques : un segment donné de faille a tendance à produire le même séisme de taille à chaque fois qu'il se rompt à la surface. Cela nous permettrait de creuser des tranchées de pelle rétrocaveuse à travers une faille suspecte, de déterminer le glissement sur la dernière rupture sismique (de préférence sur plus d'un événement de rupture) et de prévoir la taille du prochain tremblement de terre. Comparé à la courbe de Gutenberg-Richter pour la même faille, qui est basée sur la sismicité instrumentale, le séisme caractéristique pourrait être plus grand ou plus petit que ce que l'extrapolation en ligne droite prédira. De plus, la courbe de Gutenberg-Richter ne peut pas être utilisée pour extrapoler à des séismes de taille supérieure au séisme caractéristique. Le tremblement de terre caractéristique est aussi grand que jamais sur cette faille particulière.

Avant que nous ne soyons trop impressionnés par l'idée caractéristique du tremblement de terre, il faut dire que là où l'histoire paléosismique d'une faille est bien connue, comme cette partie de la faille de San Andreas qui s'est rompue en 1857, certains tremblements de terre de surface sont plus importants que d'autres, une autre façon de dire que tous les grands tremblements de terre sur la faille de San Andreas ne sont pas caractéristiques. De même, bien que nous soyons d'accord pour dire que le dernier tremblement de terre sur la zone de subduction de Cascadia était d'une magnitude 9, les preuves des marais affaissés à Willapa Bay, Washington (Figure 4-10a) et des turbidites générées par le tremblement de terre (Figure 4-9) suggèrent que certains des premiers peuvent avoir été plus petits ou plus grands qu'un M 9.

Cette discussion suggère qu'aucun lien significatif ne peut exister entre la relation Gutenberg-Richter pour les petits événements et la récurrence et la taille des grands séismes. Pour que cette relation soit significative, la période d'observation instrumentale doit être de plusieurs milliers d'années. Malheureusement, les sismographes ne fonctionnent que depuis un peu plus d'un siècle, ce n'est donc pas encore une option.

Avant d'envisager une analyse probabiliste pour la région de la baie de San Francisco en Californie du Nord, il est nécessaire d'introduire le principe d'incertitude. Il n'y a pratiquement aucune incertitude dans la prédiction des marées hautes et basses, des éclipses solaires ou lunaires, ou même de la période de retour de la comète de Halley. Ces événements sont basés sur des orbites bien comprises de la Lune, du Soleil et d'autres corps célestes. Malheureusement, l'intervalle de récurrence des séismes est contrôlé par de nombreuses variables, comme nous l'avons appris à Parkfield. La force de la faille peut varier d'un séisme à l'autre. D'autres tremblements de terre peuvent modifier l'accumulation de tension sur la faille, comme le tremblement de terre de Coalinga de 1983 aurait pu le faire pour le tremblement de terre de Parkfield prévu qui n'a pas frappé en 1988. Pourquoi un arbre dans une forêt tombe-t-il aujourd'hui, mais son voisin du même âge et même environnement de croissance met encore cent ans à tomber ? C'est le genre d'incertitude à laquelle nous sommes confrontés avec la prévision des tremblements de terre.

Comment gérer cette incertitude ? La figure 7-6 montre une courbe de probabilité pour la récurrence du prochain séisme dans une zone donnée ou le long d'une faille donnée. Le temps en années avance de gauche à droite, en commençant à zéro au moment du séisme précédent. La probabilité d'un tremblement de terre à un moment donné depuis le dernier tremblement de terre augmente dans un premier temps. La courbe est à son plus haut à ce moment-là, nous pensons que le tremblement de terre est le plus susceptible de se produire (l'intervalle de récurrence moyen), puis la courbe descend vers la droite. Nous sommes convaincus que le tremblement de terre se sera sûrement produit au moment où la courbe tombe à près de zéro sur le côté droit de la courbe.

Le graphique de la figure 7-6 a une bande plus sombre, qui représente la période d'intérêt dans notre prévision de probabilité. Le côté gauche de la bande sombre est aujourd'hui, et le côté droit est la fin de notre période, généralement dans trente ans, la durée de la plupart des hypothèques immobilières. Il y a une certaine probabilité que le séisme se produise pendant la période que nous avons choisie.

Ceci est similaire à la prévision météorologique, sauf que nous parlons d'une prévision sur trente ans plutôt que d'une prévision sur cinq jours. Si le météorologue au journal de 18 heures dit qu'il y a 70 % de chances qu'il pleuve demain, cela signifie également qu'il y a 30 % de chances qu'il pleuve. ne pas pluie demain. Le météorologue se trompe souvent en ce sens que le résultat le moins probable se réalise. Le prévisionniste du tremblement de terre a également une chance que le résultat le moins probable se produise, comme ce fut le cas pour la prévision Parkfield de 1988.

Imaginez que vous allumiez la télévision et que vous receviez les prévisions du tremblement de terre sur trente ans. Le sismologue de la télévision a déclaré : « Il y a 70 % de chances qu'un tremblement de terre d'une magnitude de 6,7 ou plus dans notre région au cours des trente prochaines années. » Les habitants de la région de la baie de San Francisco ont en fait reçu ces prévisions en octobre 1999, couvrant une période de trente ans commençant en janvier 2000. Cela pourrait ne pas affecter leurs projets de vacances, mais cela devrait affecter leurs codes du bâtiment et leurs tarifs d'assurance. Cela signifie également que la région de la baie de San Francisco pourrait ne pas avoir un séisme de M 6,7 ou plus au cours des trente prochaines années (Figure 7-7). Plus d'informations sur cette prévision plus tard.

Comment tracer notre courbe de probabilité ? Nous considérons tout ce que nous savons : la fréquence des tremblements de terre basée sur des enregistrements historiques et des preuves géologiques (paléosismiques), la vitesse géologique à long terme à laquelle une faille se déplace, etc. Un panel d'experts est convoqué pour débattre des différentes sources de données et parvenir à un consensus, appelé arbre logique, sur les probabilités. Le débat est souvent houleux et un accord peut ne pas être trouvé dans certains cas. Nous ne sommes même pas sûrs que la courbe de la figure 7-6 soit le meilleur moyen de prévoir un tremblement de terre. Le processus pourrait être plus irrégulier, voire chaotique.

Notre courbe de probabilité a la forme qu'elle a parce que nous savons quelque chose sur le moment où le prochain séisme se produira, sur la base de l'historique des séismes précédents, des taux de glissement des failles, etc. Mais supposons que nous ne sachions rien du moment où le prochain tremblement de terre se produirait ; c'est-à-dire que notre ensemble de données n'avait aucun « souvenir » du dernier tremblement de terre pour nous guider. Le tremblement de terre serait tout aussi susceptible de se produire une année que l'autre, et la « courbe » de probabilité serait une ligne horizontale droite. C'est la même probabilité qui contrôle vos chances de lancer une pièce et de la faire retourner face : 50 %. Vous pourriez alors lancer la pièce et obtenir face les cinq fois suivantes, mais la sixième fois, la probabilité d'obtenir face serait la même qu'au début : 50 %.

Cependant, notre courbe de probabilité a la forme d'une cloche ; il « se souvient » qu'il y a eu un séisme sur la même faille ou dans la même région précédemment. Nous savons qu'un autre tremblement de terre se produira, mais nous ne sommes pas sûrs du déplacement par événement ou du taux de glissement à long terme, et la nature crée une incertitude supplémentaire. La largeur de cette courbe intègre toutes ces incertitudes.

Considérée de manière probabiliste, la prévision de Parkfield n'était pas vraiment un échec ; le prochain tremblement de terre est quelque part sur le côté droit de la courbe. Nous sommes sûrs qu'il y volonté être un autre tremblement de terre de Parkfield, mais nous ne savons pas quand le côté droit de la courbe descendra à près de zéro. Le temps 0 est 1966, l'année du dernier tremblement de terre de Parkfield. Le côté gauche de la bande sombre est aujourd'hui. Avant 1988, lorsque le prochain tremblement de terre de Parkfield était attendu, le point culminant de la courbe de probabilité aurait été en 1988. Le temps représenté par la courbe au-dessus de zéro serait l'intervalle de récurrence le plus long connu pour Parkfield, qui serait de trente-deux ans , le temps entre les tremblements de terre de 1934 et 1966. Ce temps est révolu depuis longtemps ; l'échantillon historique des récurrences des tremblements de terre à Parkfield, bien que plus complet que pour la plupart des failles, n'était pas assez long. Le prochain séisme de Parkfield s'est effectivement produit en 2004, ce qui aurait été à droite de la bande sombre de la figure 6-6 et peut-être à droite des lignes zéro sur cette figure.

Qu'en est-il du prochain tremblement de terre de la zone de subduction de Cascadia ? Le temps 0 correspond à 1700 après JC lorsque le dernier tremblement de terre s'est produit. Le bord gauche de la bande sombre est aujourd'hui. Prenons la largeur de la bande sombre comme trente ans, comme nous le faisions auparavant. Nous serions toujours à gauche du point haut de la courbe de probabilité. Notre intervalle de récurrence moyen basé sur la paléosismologie est d'un peu plus de cinq cents ans, et cela ne fait qu'un peu plus de trois cents ans depuis le dernier tremblement de terre. Quel doit être le moment où la courbe est à nouveau à zéro ? Pas cinq cents ans après 1700 car la paléosismologie (Figures 4-9, 4-21) montre qu'il existe une grande variabilité dans l'intervalle de récurrence. Le tremblement de terre pourrait frapper demain, ou il pourrait se produire mille ans après 1700, ou 2700 après JC.


Post-traitement statistique des prévisions d'ensemble pour le temps violent à Deutscher Wetterdienst

Cet article donne un aperçu du système de post-traitement de Deutscher Wetterdienst (DWD) appelé Ensemble-MOS ainsi que sa motivation et les conséquences de conception pour les prévisions probabilistes d'événements extrêmes basées sur des données d'ensemble. Les prévisions des systèmes d'ensemble COSMO-D2-EPS et ECMWF-ENS sont statistiquement optimisées et calibrées par Ensemble-MOS en mettant l'accent sur les phénomènes météorologiques violents afin de soutenir la gestion des décisions d'avertissement à DWD.

La moyenne et l'étalement d'ensemble sont utilisés comme prédicteurs pour les régressions multiples linéaires et logistiques afin de corriger les biais conditionnels. Les prédictants sont dérivés d'observations synoptiques et incluent la température, les quantités de précipitations, les rafales de vent et bien d'autres et sont estimés statistiquement dans une approche statistique de sortie de modèle (MOS) complète. Des séries chronologiques longues et des collections de stations sont utilisées comme données d'apprentissage qui capturent un nombre suffisant d'événements observés, comme requis pour une modélisation statistique robuste.

Les régressions logistiques sont appliquées aux probabilités que des événements météorologiques prédéfinis se produisent. Les détails de la mise en œuvre, y compris la sélection de prédicteurs avec des tests de signification, sont présentés. Pour les probabilités de fortes rafales de vent, des paramétrisations logistiques globales sont développées qui dépendent des estimations locales de la vitesse du vent. De cette manière, des prévisions de probabilité robustes pour les événements extrêmes sont obtenues tout en préservant les caractéristiques locales.

Les problèmes d'Ensemble-MOS, tels que les changements de modèle et les exigences de cohérence, qui surviennent avec les systèmes MOS opérationnels du DWD sont abordés.

La prévision d'ensemble a augmenté avec la compréhension de la prévisibilité limitée du temps. Cette limitation est causée par des observations éparses et imparfaites, se rapprochant de l'assimilation et de la modélisation de données numériques, et par la nature physique chaotique de l'atmosphère. L'idée de base de la prévision d'ensemble est de faire varier les observations, les conditions initiales et aux limites et les paramétrisations physiques au sein de leur échelle d'incertitude supposée et de réexécuter le modèle de prévision avec ces changements.

L'ensemble de prévisions obtenu exprime la distribution des scénarios météorologiques possibles à prévoir. Des prévisions probabilistes peuvent être dérivées de l'ensemble, comme des erreurs de prévision, des probabilités d'événements météorologiques spéciaux, des quantiles de la distribution ou même des estimations de la distribution complète. L'étalement d'ensemble est souvent utilisé comme estimation des erreurs de prévision. Dans un système d'ensemble parfait, la propagation est statistiquement cohérente avec l'erreur de prévision de la moyenne d'ensemble par rapport aux observations (par exemple, Wilks, 2011), mais elle est souvent considérée comme trop petite, en particulier pour les éléments météorologiques proches de la surface et les délais courts. Typiquement, une relation écart-compétence optimale proche de 1 et sa fiabilité de prévision impliquée sont obtenues beaucoup plus facilement pour les variables atmosphériques dans les couches verticales supérieures, par ex. 500 hPa de hauteur géopotentielle, que pour les variables au niveau de l'écran comme la température de 2 m, la vitesse du vent de 10 m ou les précipitations (par exemple Buizza et al., 2005 Gebhardt et al., 2011 Buizza, 2018) voir aussi Sect. 4.

Afin de tirer le meilleur parti des informations probabilistes contenues dans les ensembles, par ex. en reliant les probabilités d'événements météorologiques néfastes à la valeur économique dans les évaluations des coûts-pertes (par exemple, Wilks, 2001 Ben Bouallègue et al., 2015) , les prévisions d'ensemble doivent être calibrées sur les fréquences relatives observées, comme motivé par Buizza (2018) . Les seuils d'avertissement sont les niveaux de probabilité auxquels les avertissements météorologiques doivent être émis. Ces seuils peuvent être adaptés au public en fonction de scores catégoriels tels que la probabilité de détection (POD) et le taux de fausses alarmes (FAR). La fiabilité statistique des probabilités de prévision est considérée comme essentielle pour les définitions de seuil qualifiées et pour les conseils d'avertissement automatisés.

Pour les prévisions déterministes, un post-traitement statistique est utilisé pour l'optimisation et l'interprétation. Ceci est également vrai pour les prévisions d'ensemble, où le calibrage statistique est une application supplémentaire du post-traitement. Gneiting et al. (2007) décrivent le post-traitement probabiliste comme une méthode pour maximiser la netteté d'une distribution prédictive sous condition de calibrage (la moyenne climatologique est également calibrée, cependant, elle n'a pas de netteté et est inutile comme prévision). Néanmoins, l'optimisation reste un problème pour les prévisions d'ensemble. En général, les erreurs systématiques du modèle numérique sous-jacent apparaissent dans chaque membre de prévision et sont donc conservées dans la moyenne d'ensemble. La moyenne ne réduit que les erreurs aléatoires des membres de l'ensemble.

En raison de sa capacité à améliorer la compétence et la fiabilité des prévisions probabilistes, de nombreuses méthodes de post-traitement différentes existent pour les ensembles mono et multi-modèles. Il existe des systèmes multivariés complets et des systèmes univariés qui sont spécifiques à un certain élément de prévision. La longueur des données de formation dépend généralement de la méthode statistique et de l'application, cependant, la disponibilité des données est également souvent une sérieuse limitation. Certains systèmes effectuent une formation individuelle pour différents emplacements afin de tenir compte des caractéristiques locales, tandis que d'autres appliquent le même modèle statistique à des ensembles de stations ou de points de grille. La modélisation globale améliore l'échantillonnage statistique au prix des disparités orographiques et climatologiques.

Les systèmes MOS classiques ont tendance à sous-estimer les erreurs de prévision si des corrections sont appliquées à chaque membre de l'ensemble individuellement. Afin de maintenir la variabilité des prévisions, Vannitsem (2009) suggère de considérer les erreurs d'observation. Gneiting et al. (2005) proposent une régression gaussienne non homogène (NGR) qui repose sur des distributions gaussiennes. Les paramètres d'emplacement et d'échelle des distributions gaussiennes correspondent à une fonction linéaire de la moyenne d'ensemble et de l'étalement d'ensemble, respectivement. Les coefficients NGR sont entraînés en minimisant le score de probabilité classé continu (CRPS). Dans la moyenne du modèle bayésien (BMA) (par exemple Raftery et al., 2005 Möller et al., 2013), les distributions de prévisions déjà corrigées du biais sont combinées en moyennes pondérées à l'aide de fonctions noyau.

De nombreuses méthodes de post-traitement différentes adaptées à différentes variables existent, seules certaines sont mentionnées ici. Pour les précipitations sur 24 heures, Hamill (2012) présente un post-traitement d'ensemble multimodèle basé sur une régression logistique étendue et 8 ans de données d'entraînement. Hamill et al. (2017) décrivent une méthode pour mélanger des ensembles multimodèles à haute résolution par cartographie quantile avec de courtes périodes d'entraînement d'environ 2 mois pour des précipitations de 6 et 12 heures. Des méthodes de post-traitement spécialisées dans la vitesse du vent ont également été développées, par ex. Sloughter et al. (2013) utilisent BMA en combinaison avec des distributions Gamma. Un aperçu des approches de post-traitement univariées conventionnelles est donné dans Wilks (2018).

En plus des méthodes de post-traitement univariées évoquées ci-dessus, il existe également des approches pour modéliser des structures de dépendance spatio-temporelles et donc produire des ensembles de scénarios de prévision. Cela permet, par exemple, d'estimer des probabilités liées au domaine. Schefzik et al. (2013) et Schefzik et Möller (2018) utilisent le couplage de copules d'ensemble (ECC) et des approches basées sur le shuffle de Schaake afin de générer des scénarios de prévision post-traités pour la température, les précipitations et le vent. Les ensembles de scénarios de prévision ECC offrent une grande flexibilité dans la génération de produits à la contrainte que toutes les données d'ensemble sont accessibles.

Moins de méthodes se concentrent sur les événements extrêmes de précipitations et de rafales de vent qui sont essentiels pour le support d'avertissement automatisé. Friederichs et al. (2018) utilisent les queues de distributions de valeurs extrêmes généralisées afin d'estimer les probabilités conditionnelles d'événements extrêmes. Comme les événements météorologiques extrêmes sont (heureusement) rares, de longues séries chronologiques sont nécessaires pour capturer un nombre suffisamment grand d'événements survenus afin d'en déduire des estimations statistiquement significatives. Par exemple, de fortes précipitations avec des quantités de pluie de plus de 15 mm h -1 ne sont enregistrées qu'environ une fois par an à chaque pluviomètre en Allemagne. Des événements extrêmes de plus de 40 et 50 mm apparaissent néanmoins rarement, des avertissements sont indispensables lorsqu'ils le font.

Avec de longues séries chronologiques, une partie importante des données consiste en un temps calme sans pertinence pour les avertissements. Il est toutefois problématique de restreindre ou de concentrer les données d'entraînement sur des événements graves. Ce faisant, il est possible de sélectionner des prédicteurs hautement corrélés avec la série sélectionnée d'événements graves, mais aussi accidentellement avec des scénarios calmes qui ne sont pas contenus dans les données d'apprentissage. Afin d'exclure ces faux prédicteurs et de dériver des modèles statistiques habiles, des données d'entraînement plus générales doivent être utilisées, car sinon la surestimation des résultats, du biais de fréquence (FB) et du FAR augmente. Cela correspond fondamentalement à l'idée de la le dilemme du prévisionniste (voir Lerch et al., 2017 ) qui affirme que la surestimation est une stratégie prometteuse lorsque les prévisions sont évaluées principalement pour des événements extrêmes.

L'utilisation de prévisions probabilistes pour les avertissements de temps violent influence également la manière dont les prévisions doivent être évaluées. À des fins de vérification également, de longues périodes de temps sont nécessaires pour capturer suffisamment d'événements extrêmes et rares pour obtenir des résultats statistiquement significatifs. Les scores de vérification comme l'erreur quadratique moyenne (RMSE) ou CRPS (par exemple Hersbach, 2000 Gneiting et al., 2005) sont fortement dominés par l'écrasante majorité des cas où aucun événement ne s'est produit. Des prévisions excellentes mais non pertinentes de temps calme peuvent prétendre à de bons résultats de vérification, bien que les quelques cas extrêmes pertinents puissent ne pas être bien prévus. Les scores catégoriques tels que POD et FAR sont considérés comme plus pertinents pour les cas rares et extrêmes, ainsi que d'autres scores plus complexes tels que le score de compétence Heidke (HSS) ou le score de menace équitable (ETS). De plus, les diagrammes de dispersion révèlent des valeurs aberrantes et sont sensibles aux valeurs extrêmes.

Nous présentons ici une approche MOS qui a été adaptée au post-traitement des prévisions d'ensemble pour les événements extrêmes et rares. Il s'appelle Ensemble-MOS et a été mis en place au DWD afin de prendre en charge la gestion des alertes avec des prévisions probabilistes d'événements météorologiques potentiellement dangereux au sein d'AutoWARN voir Reichert et al. (2015) et Reichert (2016, 2017) . Au total, 37 éléments d'avertissement différents existent à DWD, notamment de fortes pluies et de fortes rafales de vent, à la fois à plusieurs niveaux d'intensité, des orages, des chutes de neige, du brouillard, une visibilité limitée, du gel et autres. Actuellement, les systèmes d'ensemble COSMO-D2-EPS et ECMWF-ENS sont statistiquement optimisés et calibrés à l'aide de plusieurs années de données d'apprentissage, mais Ensemble-MOS est applicable à d'autres ensembles en général.

Au DWD, les prévisions statistiquement post-traitées des systèmes d'ensemble COSMO-D2-EPS et ECMWF-ENS ainsi que des modèles déterministes ICON et ECMWF-IFS sont combinées dans une deuxième étape afin de fournir un ensemble de données cohérent et une transition transparente de très prévisions à court et moyen terme. Ce produit combiné fournit une base vocale unique pour la génération de propositions d'avertissement voir Reichert et al. (2015) . La combinaison est basée sur une seconde approche MOS similaire au système décrit ici, elle utilise les prévisions statistiques individuelles des modèles numériques comme prédicteurs. Comme une combinaison linéaire de prévisions calibrées ne préserve pas nécessairement l'étalonnage (par exemple, Ranjan et Gneiting, 2010), des prédicteurs constants supplémentaires sont ajoutés aux équations MOS comme remède. Primo (2016) et Reichert (2017) affirment que les avertissements automatisés de rafales de vent basés sur le produit combiné atteignent une performance comparable à celle des prévisionnistes humains.

Le plan supplémentaire de l'article est le suivant : après l'introduction, les observations et les systèmes d'ensemble utilisés sont présentés dans la Sect. 2. Par la suite, Sect. 3 décrit la conception conceptuelle d'Ensemble-MOS avec la définition des prédicteurs et des prédicteurs et fournit des détails techniques sur les régressions linéaires et logistiques par étapes. En particulier pour les rafales de vent extrêmes, une régression logistique globale est présentée qui utilise des prévisions statistiques de la vitesse des rafales de vent comme prédicteurs des probabilités d'événements forts. Les mises en garde générales de MOS comme les changements de modèle et la cohérence des prévisions sont abordées à la fin de cette section. Les résultats présentés ici se concentrent sur les rafales de vent et sont fournis dans la Sect. 4. Enfin, la sect. 5 fournit un résumé et des conclusions.

Les observations synoptiques et les données de modèle des systèmes d'ensemble COSMO-D2-EPS et ECMWF-ENS sont utilisées comme données d'apprentissage et pour les prévisions statistiques actuelles. Des séries chronologiques de 8 ans d'observations et de données de modèle ont été recueillies pour la formation au moment de la rédaction. Les données utilisées sont présentées ci-après.


2.1 Participants

L'EA opère sur 14 zones différentes (c'est-à-dire largement basées sur les délimitations des bassins versants) avec sept centres de prévision (ci-après dénommés « centres » voir figure 1). Au sein de ces centres, il a plusieurs rôles MFDO et FWDO, remplis par un certain nombre de personnes différentes. Il s'agit de missions bénévoles, ajoutées au travail quotidien du personnel, pour lesquelles il suit une formation adaptée. MFDOs receive, process and communicate forecast information to FWDOs, who are responsible for interpreting the information and working out the potential impacts on the ground. The Duty Officers' schedules are predetermined by a rota, and Duty Officers are on call for a period of 1 week at a time. During times of increased flood risk, when more forecasting or warning activities are required, additional rostering takes place. Duty Officers receive a range of forecasts (nowcasting ∗ products to monthly outlooks ∗ ) and are aware of potential situations from a month out. Five days ahead is when the activity really starts to build and is the focus of these interviews.

Figure 1Map showing the geographical areas of the EA's operations (green numbered areas), highlighting the three areas which the centres where interviews were carried out are responsible for (blue boxes) (source: EA).

A total of six EA MFDOs and FWDOs from three different EA centres (one pair per centre) were interviewed to capture a range of perspectives in relation to the topic at hand, following best practice (Sivle et al., 2014 participant information sheet provided as the Supplement). Forecasting and decision-making varies between EA centres due to different management approaches and different types of geography and catchment responses ∗ . To protect anonymity, the three centres where interviews were carried out are shown in terms of the wider area they are responsible for: (1) the Yorkshire area (YOR) in the north (area 3), (2) the Thames area (THM) in the south-east (area 11), and (3) the Solent and South Downs area (SSD) in the south-east (area 14) (Fig. 1).

MFDOs and FWDOs were interviewed in pairs as they are used to working together and the information they use sits between these two roles. The thought was that by talking to the MFDOs alone we would lose the element of “and so what?”, while talking to the FWDOs alone the forecasting expertise would be lost. All MFDOs and FWDOs interviewed had several years of experience and so were able to describe the current practice and express personal expectations of how it might change with probabilistic forecasting.

Participants were selected by EA study co-developer I1 to meet the above criteria. For the purpose of anonymity, the interviewees will thereafter be reported using codes. The three MFDOs interviewed will be referred to as MFDO1, MFDO2 and MFDO3, and the three FWDOs interviewed as FWDO1, FWDO2 and FWDO3 (interviewed pairs are represented by the same number). As well as those from the MFDOs and FWDOs, quotes from two EA study co-developers are reported in this paper, I1 and I2, who helped the interviewer (Louise Arnal) by providing some context about the EA's organisational landscape, forecasting systems and MFDO and FWDO roles prior to the three interviews.


STEPS: A probabilistic precipitation forecasting scheme which merges an extrapolation nowcast with downscaled NWP

An ensemble-based probabilistic precipitation forecasting scheme has been developed that blends an extrapolation nowcast with a downscaled NWP forecast, known as STEPS: Short-Term Ensemble Prediction System. The uncertainties in the motion et evolution of radar-inferred precipitation fields are quantified, and the uncertainty in the evolution of the precipitation pattern is shown to be the more important. The use of ensembles allows the scheme to be used for applications that require forecasts of the probability density function of areal and temporal averages of precipitation, such as fluvial flood forecasting—a capability that has not been provided by previous probabilistic precipitation nowcast schemes. The output from a NWP forecast model is downscaled so that the small scales not represented accurately by the model are injected into the forecast using stochastic noise. This allows the scheme to better represent the distribution of precipitation rate at spatial scales finer than those adequately resolved by operational NWP. The performance of the scheme has been assessed over the month of March 2003. Performance evaluation statistics show that the scheme possesses predictive skill at lead times in excess of six hours. © Crown copyright, 2006.


1.3 Outline of the paper

The paper is structured as follows. The theoretical framework for precipitation nowcasting and using stochastic perturbations to characterize the uncertainty is formulated in Sect. 2. The general architecture of the pysteps library is presented in Sect. 3. A comprehensive verification of pysteps nowcasts is given in Sect. 4. Various experiments to understand the sensitivity of pysteps to the model parameters and define the default configuration are done in Sect. 5. The limits of pysteps are tested in Sect. 6 using a tropical cyclone and severe convection case in Australia. Section 7 concludes the paper and lists potential future applications of pysteps. Finally, code listings demonstrating the use of pysteps are given in Appendix A.

This section introduces the basic concepts and components of probabilistic nowcasting models based on the Lagrangian persistence of radar precipitation fields and describes how these are currently implemented in pysteps.


Probability Aggregation Methods in Geoscience

The need for combining different sources of information in a probabilistic framework is a frequent task in earth sciences. This is a need that can be seen when modeling a reservoir using direct geological observations, geophysics, remote sensing, training images, and more. The probability of occurrence of a certain lithofacies at a certain location for example can easily be computed conditionally on the values observed at each source of information. The problem of aggregating these different conditional probability distributions into a single conditional distribution arises as an approximation to the inaccessible genuine conditional probability given all information. This paper makes a formal review of most aggregation methods proposed so far in the literature with a particular focus on their mathematical properties. Exact relationships relating the different methods is emphasized. The case of events with more than two possible outcomes, never explicitly studied in the literature, is treated in detail. It is shown that in this case, equivalence between different aggregation formulas is lost. The concepts of calibration, sharpness, and reliability, well known in the weather forecasting community for assessing the goodness-of-fit of the aggregation formulas, and a maximum likelihood estimation of the aggregation parameters are introduced. We then prove that parameters of calibrated log-linear pooling formulas are a solution of the maximum likelihood estimation equations. These results are illustrated on simulations from two common stochastic models for earth science: the truncated Gaussian model and the Boolean. It is found that the log-linear pooling provides the best prediction while the linear pooling provides the worst.

This is a preview of subscription content, access via your institution.


Voir la vidéo: Gestion Projets . PERT aléatoire ou probabiliste, Simulation