Suite

5.3.8 : Résumé - Géosciences

5.3.8 : Résumé - Géosciences


Aperçu

Les tremblements de terre se produisent lorsque la tension élastique s'accumule dans la croûte jusqu'à ce que la résistance de la croûte soit dépassée et que la croûte se rompe le long d'une faille. Certaines des ruptures de faille n'atteignent pas la surface et ne sont détectées que par des sismogrammes, mais de nombreux séismes plus importants sont accompagnés d'une rupture de surface, qui peut être étudiée par les géologues. Les failles inversées sont moins susceptibles de rompre la surface que les failles décrochantes ou les failles normales. Une classe spéciale de faille inversée à faible angle appelée poussée aveugle n'atteint pas la surface mais plie les roches à la surface en un pli appelé anticlinal. La paléosismologie étend la description des séismes contemporains à la préhistoire, avec l'objectif d'apprendre le taux de glissement et l'intervalle de récurrence des séismes le long d'une faille donnée.

Au siècle dernier, les séismes ont été enregistrés sur des sismogrammes, avec la taille du séisme, sa magnitude, exprimée par l'amplitude de l'onde sismique enregistrée à la station sismographe, et la distance entre le séisme et la station sismographe basée sur le délai en temps d'arrivée des ondes de cisaillement (S) plus lentes par rapport aux ondes de compression (P). Un problème avec la mesure de la taille des tremblements de terre de cette manière est le large spectre de vibrations sismiques produites par l'orchestre des tremblements de terre. Une meilleure mesure de la taille des grands séismes est la magnitude du moment, calculée à partir de la zone de rupture de la faille et du déplacement de la faille pendant le séisme. En plus de la magnitude, les sismographes mesurent la profondeur du séisme et la nature et l'orientation du déplacement de la faille à la source du séisme.

L'intensité du tremblement de terre est une mesure du degré de forte secousse à une localité donnée, importante pour l'étude des dommages. Les informations provenant d'un réseau dense de sismographes dans les zones urbaines, lorsqu'elles sont combinées avec la géologie des failles et les types de sols de surface, permettent la création de cartes d'intensité dans les cinq minutes suivant un tremblement de terre, ce qui est suffisamment rapide pour diriger les équipes d'intervention d'urgence vers les zones où des dommages sont susceptibles de se produire. être le plus grand. En se basant sur une meilleure connaissance de la croûte terrestre dans des zones bien instrumentées, il est même possible de déterminer la magnitude des séismes qui ont frappé à l'ère pré-sismographique.

La géodésie tectonique, en particulier l'utilisation du GPS, permet de mesurer l'accumulation à long terme de contraintes élastiques dans la croûte et le relâchement des contraintes après un séisme majeur. Si la géologie enregistre les tremblements de terre passés et la sismographie enregistre les tremblements de terre au fur et à mesure qu'ils se produisent, la géodésie tectonique enregistre l'accumulation de contraintes vers les tremblements de terre du futur.


Revue annuelle des sciences de la Terre et des planètes

OBJECTIFS ET PORTÉE DE LA REVUE : Le Revue annuelle des sciences de la Terre et des planètes, publié depuis 1973, couvre les développements importants dans tous les domaines des sciences de la Terre et des planètes, du climat, de l'environnement et des risques géologiques à la formation des planètes et à l'évolution de la vie.

Variations et datation au radiocarbone

Les géoscientifiques utilisent le radiocarbone, ou carbone-14, pour établir une chronologie des processus terrestres. En raison de la demi-vie de 5 730 ± 40 ans de cet isotope, la datation au carbone 14 est utilisée dans des disciplines telles que la géologie, l'archéologie, la géochimie, l'océanographie, les sciences médico-légales, etc. Les niveaux de carbone 14 dans l'atmosphère ont considérablement varié. Cette variation a des causes naturelles, telles que l'activité magnétique solaire et la circulation océanique, mais depuis la période industrielle, elles peuvent également être anthropiques, telles que la combustion de combustibles fossiles ou de bombes et d'essais nucléaires. Ceci doit être compris afin d'augmenter la précision de la datation au carbone 14, en particulier dans la formation récente de matériaux organiques. Cet article examine les facteurs qui causent les variations de l'isotope. L'objectif est d'augmenter la précision de la datation, notamment dans le cas des matériaux modernes, de quelques décennies à quelques années.


Contenu

La médiane d'une liste finie de nombres est le nombre « moyen », lorsque ces nombres sont classés du plus petit au plus grand.

Si l'ensemble de données a un nombre impair d'observations, celle du milieu est sélectionnée. Par exemple, la liste suivante de sept nombres,

a la médiane de 6, qui est la quatrième valeur.

Un ensemble d'un nombre pair d'observations n'a pas de valeur médiane distincte et la médiane est généralement définie comme la moyenne arithmétique des deux valeurs médianes. [1] [2] Par exemple, l'ensemble de données

a une valeur médiane de 4.5, c'est-à-dire ( 4 + 5 ) / 2 . (En termes plus techniques, cela interprète la médiane comme le milieu de gamme entièrement rogné). Avec cette convention, la médiane peut être définie comme suit (pour un nombre pair d'observations) :

m e d i a n ( x ) = x n / 2 + x ( n / 2 ) + 1 2 (x)=+x_<(n/2)+1>><2>>>

Comparaison des moyennes communes des valeurs [ 1, 2, 2, 3, 4, 7, 9 ]
Taper La description Exemple Résultat
Moyenne arithmétique Somme des valeurs d'un ensemble de données divisée par le nombre de valeurs : x ¯ = 1 n ∑ i = 1 n x i >=>somme _^X_> (1 + 2 + 2 + 3 + 4 + 7 + 9) / 7 4
Médian Valeur moyenne séparant les moitiés supérieure et inférieure d'un ensemble de données 1, 2, 2, 3, 4, 7, 9 3
Mode Valeur la plus fréquente dans un ensemble de données 1, 2, 2, 3, 4, 7, 9 2

Définition formelle Modifier

Formellement, une médiane d'une population est toute valeur telle qu'au plus la moitié de la population est inférieure à la médiane proposée et au plus la moitié est supérieure à la médiane proposée. Comme vu ci-dessus, les médianes peuvent ne pas être uniques. Si chaque ensemble contient moins de la moitié de la population, alors une partie de la population est exactement égale à la médiane unique.

La médiane est bien définie pour toutes les données ordonnées (unidimensionnelles) et est indépendante de toute mesure de distance. La médiane peut ainsi être appliquée à des classes classées mais non numériques (par exemple, calculer une note médiane lorsque les élèves sont notés de A à F), bien que le résultat puisse être à mi-chemin entre les classes s'il y a un nombre pair de cas.

Une médiane géométrique, d'autre part, est définie dans un nombre quelconque de dimensions. Un concept connexe, dans lequel le résultat est forcé de correspondre à un membre de l'échantillon, est le médoïde.

Il n'y a pas de notation standard largement acceptée pour la médiane, mais certains auteurs représentent la médiane d'une variable X soit comme X ou comme μ1/2 [1] parfois aussi M. [3] [4] Dans tous ces cas, l'utilisation de ces symboles ou d'autres pour la médiane doit être explicitement définie lors de leur introduction.

Utilisations Modifier

La médiane peut être utilisée comme mesure de l'emplacement lorsque l'on attache une importance réduite aux valeurs extrêmes, généralement parce qu'une distribution est asymétrique, que les valeurs extrêmes ne sont pas connues ou que les valeurs aberrantes ne sont pas dignes de confiance, c'est-à-dire qu'il peut s'agir d'erreurs de mesure/transcription.

La médiane est de 2 dans ce cas, (tout comme le mode), et cela pourrait être considéré comme une meilleure indication du centre que la moyenne arithmétique de 4, qui est plus grande que toutes les valeurs sauf une. Cependant, la relation empirique largement citée selon laquelle la moyenne est décalée « plus loin dans la queue » d'une distribution que la médiane n'est généralement pas vraie. Tout au plus peut-on dire que les deux statistiques ne peuvent pas être « trop éloignées » voir § Inégalités reliant les moyennes et les médianes ci-dessous. [5]

Comme une médiane est basée sur les données intermédiaires d'un ensemble, il n'est pas nécessaire de connaître la valeur des résultats extrêmes pour la calculer. Par exemple, dans un test de psychologie étudiant le temps nécessaire pour résoudre un problème, si un petit nombre de personnes n'ont pas réussi à résoudre le problème dans le temps imparti, une médiane peut toujours être calculée. [6]

Parce que la médiane est simple à comprendre et facile à calculer, tout en étant une approximation robuste de la moyenne, la médiane est une statistique récapitulative populaire dans les statistiques descriptives. Dans ce contexte, il existe plusieurs choix pour une mesure de la variabilité : l'intervalle, l'intervalle interquartile, l'écart absolu moyen et l'écart absolu médian.

À des fins pratiques, différentes mesures de localisation et de dispersion sont souvent comparées sur la base de la manière dont les valeurs de population correspondantes peuvent être estimées à partir d'un échantillon de données. La médiane, estimée à partir de la médiane de l'échantillon, a de bonnes propriétés à cet égard. Bien qu'il ne soit généralement pas optimal de supposer une distribution de population donnée, ses propriétés sont toujours raisonnablement bonnes. Par exemple, une comparaison de l'efficacité des estimateurs candidats montre que la moyenne de l'échantillon est statistiquement plus efficace lorsque – et seulement lorsque – les données ne sont pas contaminées par des données de distributions à queue lourde ou de mélanges de distributions. [ citation requise ] Même alors, la médiane a une efficacité de 64% par rapport à la moyenne de la variance minimale (pour les grands échantillons normaux), c'est-à-dire que la variance de la médiane sera

50% supérieur à la variance de la moyenne. [7] [8]

Pour toute distribution de probabilité à valeur réelle avec fonction de distribution cumulative F, une médiane est définie comme tout nombre réel m qui satisfait les inégalités

Une formulation équivalente utilise une variable aléatoire X répartis selon F:

Notez que cette définition ne nécessite pas X avoir une distribution absolument continue (qui a une fonction de densité de probabilité ƒ), il n'en nécessite pas non plus un discret. Dans le premier cas, les inégalités peuvent être revalorisées en égalité : une médiane satisfait

Toute distribution de probabilité sur R a au moins une médiane, mais dans les cas pathologiques il peut y avoir plus d'une médiane : si F est constante 1/2 sur un intervalle (de sorte que ƒ= 0 là), alors toute valeur de cet intervalle est une médiane.

Médianes de distributions particulières Modifier

Les médianes de certains types de distributions peuvent être facilement calculées à partir de leurs paramètres de plus, elles existent même pour certaines distributions sans moyenne bien définie, comme la distribution de Cauchy :

  • La médiane d'une distribution unimodale symétrique coïncide avec le mode.
  • La médiane d'une distribution symétrique qui possède une moyenne μ prend aussi la valeur μ.
    • La médiane d'une distribution normale avec la moyenne μ et l'écart σ 2 est . En fait, pour une distribution normale, moyenne = médiane = mode.
    • La médiane d'une distribution uniforme dans l'intervalle [une, b] est (une + b) / 2, qui est aussi la moyenne.

    Propriété d'optimalité Modifier

    Le erreur absolue moyenne d'une variable réelle c par rapport à la variable aléatoire X est

    A condition que la distribution de probabilité de X est telle que l'attente ci-dessus existe, alors m est une médiane de X si et seulement si m est un minimiseur de l'erreur absolue moyenne par rapport à X. [11] En particulier, m est une médiane d'échantillon si et seulement si m minimise la moyenne arithmétique des écarts absolus. [12]

    Plus généralement, une médiane est définie comme un minimum de

    comme indiqué ci-dessous dans la section sur les médianes multivariées (en particulier, la médiane spatiale).

    Cette définition de la médiane basée sur l'optimisation est utile dans l'analyse de données statistiques, par exemple, dans k-regroupement des médianes.

    Moyens et médianes relatifs aux inégalités Modifier

    Si la distribution a une variance finie, alors la distance entre la médiane X

    Cette borne a été prouvée par Mallows, [13] qui a utilisé deux fois l'inégalité de Jensen, comme suit. Utilisation de |·| pour la valeur absolue, on a

    Les première et troisième inégalités proviennent de l'inégalité de Jensen appliquée à la fonction valeur absolue et à la fonction carrée, qui sont chacune convexes. La seconde inégalité vient du fait qu'une médiane minimise la fonction de déviation absolue a ↦ E ⁡ ( | X − a | ) (|X-a|)> .

    La preuve de Mallows peut être généralisée pour obtenir une version multivariée de l'inégalité [14] simplement en remplaçant la valeur absolue par une norme :

    Une preuve alternative utilise l'inégalité de Chebyshev unilatérale qui apparaît dans une inégalité sur les paramètres d'emplacement et d'échelle. Cette formule découle également directement de l'inégalité de Cantelli. [17]

    Distributions unimodales Modifier

    Pour le cas des distributions unimodales, on peut atteindre une borne plus nette sur la distance entre la médiane et la moyenne :

    Une relation similaire existe entre la médiane et le mode :

    L'inégalité de Jensen indique que pour toute variable aléatoire X avec une espérance finie E[X] et pour toute fonction convexe F

    Cette inégalité se généralise également à la médiane. On dit qu'une fonction f:ℝ→ℝ est une fonction C si, pour tout t,

    est un intervalle fermé (permettant les cas dégénérés d'un seul point ou d'un ensemble vide). Toute fonction C est convexe, mais l'inverse n'est pas vrai. Si F est une fonction C, alors

    Si les médianes ne sont pas uniques, l'énoncé est valable pour le suprema correspondant. [19]

    La médiane de l'échantillon Modifier

    Calcul efficace de la médiane de l'échantillon Modifier

    Même si le tri par comparaison m les éléments nécessitent Ω(m Journal m), les algorithmes de sélection peuvent calculer le k ième plus petit des n éléments avec seulement Θ(m) opérations. Cela inclut la médiane, qui est la m / Statistique d'ordre 2 (ou pour un nombre pair d'échantillons, la moyenne arithmétique des deux statistiques d'ordre moyen). [20]

    Les algorithmes de sélection ont toujours l'inconvénient de nécessiter Ω(m), c'est-à-dire qu'ils doivent avoir l'échantillon complet (ou une partie de taille linéaire) en mémoire. Parce que cela, ainsi que l'exigence de temps linéaire, peut être prohibitif, plusieurs procédures d'estimation de la médiane ont été développées. Une règle simple est la médiane de trois règles, qui estime la médiane comme la médiane d'un sous-échantillon à trois éléments. Elle est couramment utilisée comme sous-programme dans l'algorithme de tri rapide, qui utilise une estimation de la médiane de son entrée. Un estimateur plus robuste est celui de Tukey neuvième, qui est la médiane de trois règles appliquées avec une récursivité limitée : [21] si A est l'échantillon présenté sous forme de tableau, et

    Le remède est un estimateur de la médiane qui nécessite un temps linéaire mais une mémoire sous-linéaire, fonctionnant en un seul passage sur l'échantillon. [22]

    Distribution de l'échantillonnage Modifier

    Les distributions de la moyenne de l'échantillon et de la médiane de l'échantillon ont été déterminées par Laplace. [23] La distribution de la médiane de l'échantillon d'une population avec une fonction de densité f ( x ) est asymptotiquement normale avec la moyenne m et la variance [24]

    Dérivation de la distribution asymptotique Modifier

    Par conséquent, la fonction de densité de la médiane est une distribution bêta symétrique poussée par F . Sa moyenne, comme on peut s'y attendre, est de 0,5 et sa variance est de 1 / ( 4 ( N + 2 ) ) . Par la règle de la chaîne, la variance correspondante de la médiane de l'échantillon est

    Le 2 supplémentaire est négligeable dans la limite.

    Densité locale empirique Modifier

    v 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
    f(v) 0.000 0.008 0.010 0.013 0.083 0.108 0.328 0.220 0.202 0.023 0.005
    F(v) 0.000 0.008 0.018 0.031 0.114 0.222 0.550 0.770 0.972 0.995 1.000

    Étant donné que les observations sont à valeur discrète, la construction de la distribution exacte de la médiane n'est pas une traduction immédiate de l'expression ci-dessus pour Pr ( Median = v ) =v)> on peut (et a généralement) plusieurs instances de la médiane dans son échantillon. Il faut donc additionner toutes ces possibilités :

    Ici, je est le nombre de points strictement inférieur à la médiane et k le nombre strictement supérieur.

    En utilisant ces préliminaires, il est possible d'étudier l'effet de la taille de l'échantillon sur les erreurs types de la moyenne et de la médiane. La moyenne observée est de 3,16, la médiane brute observée est de 3 et la médiane interpolée observée est de 3,174. Le tableau suivant donne quelques statistiques de comparaison.

    La valeur attendue de la médiane diminue légèrement à mesure que la taille de l'échantillon augmente tandis que, comme on pouvait s'y attendre, les erreurs types de la médiane et de la moyenne sont proportionnelles à la racine carrée inverse de la taille de l'échantillon. L'approximation asymptotique pèche par excès de prudence en surestimant l'erreur type.

    Estimation de la variance à partir des données de l'échantillon Modifier

    La valeur de ( 2 f ( x ) ) − 2 > —la valeur asymptotique de n − 1 2 ( ν − m ) <2>>>( u -m)> où ν est la médiane de la population—a été étudié par plusieurs auteurs. La méthode jackknife standard "supprimer un" produit des résultats incohérents. [25] Une alternative - la méthode "delete k" - où k augmente avec la taille de l'échantillon s'est avérée asymptotiquement cohérente. [26] Cette méthode peut être coûteuse en temps de calcul pour les grands ensembles de données. Une estimation bootstrap est connue pour être cohérente, [27] mais converge très lentement (ordre de n − 1 4 <4>>>> ). [28] D'autres méthodes ont été proposées mais leur comportement peut différer entre les grands et les petits échantillons. [29]

    Efficacité Modifier

    L'efficacité de la médiane de l'échantillon, mesurée comme le rapport de la variance de la moyenne à la variance de la médiane, dépend de la taille de l'échantillon et de la distribution de la population sous-jacente. Pour un échantillon de taille N = 2 n + 1 de la distribution normale, l'efficacité pour un grand N est

    Autres estimateurs Modifier

    Pour les distributions univariées qui sont symétrique environ une médiane, l'estimateur de Hodges-Lehmann est un estimateur robuste et très efficace de la médiane de la population. [31]

    Si les données sont représentées par un modèle statistique spécifiant une famille particulière de distributions de probabilités, alors des estimations de la médiane peuvent être obtenues en ajustant cette famille de distributions de probabilités aux données et en calculant la médiane théorique de la distribution ajustée. [ citation requise ] L'interpolation de Pareto en est une application lorsque la population est supposée avoir une distribution de Pareto.

    Auparavant, cet article traitait de la médiane univariée, lorsque l'échantillon ou la population avait une dimension. Lorsque la dimension est de deux ou plus, il existe plusieurs concepts qui étendent la définition de la médiane univariée, chaque médiane multivariée est en accord avec la médiane univariée lorsque la dimension est exactement une. [31] [32] [33] [34]

    Médiane marginale Modifier

    La médiane marginale est définie pour des vecteurs définis par rapport à un ensemble fixe de coordonnées. Une médiane marginale est définie comme étant le vecteur dont les composantes sont des médianes univariées. La médiane marginale est facile à calculer et ses propriétés ont été étudiées par Puri et Sen. [31] [35]

    Médiane géométrique Modifier

    La médiane géométrique d'un ensemble discret de points d'échantillonnage x 1 , … x N ,ldots x_> dans un espace euclidien est le point [a] minimisant la somme des distances aux points d'échantillonnage.

    Contrairement à la médiane marginale, la médiane géométrique est équivariante par rapport aux transformations de similarité euclidiennes telles que les translations et les rotations.

    Point central Modifier

    Une généralisation alternative de la médiane dans les dimensions supérieures est le point central.

    Médiane interpolée Modifier

    Pseudo-médiane Modifier

    Pour les distributions univariées qui sont symétrique environ une médiane, l'estimateur de Hodges-Lehmann est un estimateur robuste et très efficace de la médiane de la population pour les distributions non symétriques, l'estimateur de Hodges-Lehmann est un estimateur robuste et très efficace de la population pseudo-médiane, qui est la médiane d'une distribution symétrisée et qui est proche de la médiane de la population. [37] L'estimateur de Hodges-Lehmann a été généralisé aux distributions multivariées. [38]

    Variantes de régression Modifier

    L'estimateur de Theil-Sen est une méthode de régression linéaire robuste basée sur la recherche de médianes de pentes. [39]

    Filtre médian Modifier

    Dans le contexte du traitement d'images d'images matricielles monochromes, il existe un type de bruit, connu sous le nom de bruit de sel et de poivre, lorsque chaque pixel devient indépendamment noir (avec une faible probabilité) ou blanc (avec une faible probabilité), et reste inchangé sinon (avec une probabilité proche de 1). Une image construite à partir des valeurs médianes des quartiers (comme un carré de 3 × 3) peut réduire efficacement le bruit dans ce cas. [ citation requise ]

    Analyse de cluster Modifier

    Dans l'analyse de cluster, l'algorithme de clustering k-médianes fournit un moyen de définir des clusters, dans lequel le critère de maximisation de la distance entre les moyennes de cluster qui est utilisé dans le clustering k-means, est remplacé par la maximisation de la distance entre les médianes de cluster.

    Ligne médiane-médiane Modifier

    Nair et Shrivastava en 1942 ont suggéré une idée similaire mais ont plutôt préconisé de diviser l'échantillon en trois parties égales avant de calculer les moyennes des sous-échantillons. [41] Brown et Mood en 1951 ont proposé l'idée d'utiliser les médianes de deux sous-échantillons plutôt que les moyennes. [42] Tukey a combiné ces idées et a recommandé de diviser l'échantillon en trois sous-échantillons de taille égale et d'estimer la ligne en fonction des médianes des sous-échantillons. [43]

    Tout signifierL'estimateur sans biais minimise le risque (perte attendue) par rapport à la fonction de perte d'erreur au carré, comme observé par Gauss. UNE médianL'estimateur sans biais minimise le risque par rapport à la fonction de perte par écart absolu, comme observé par Laplace. D'autres fonctions de perte sont utilisées en théorie statistique, en particulier dans les statistiques robustes.

    La théorie des estimateurs médians sans biais a été reprise par George W. Brown en 1947 : [44]

    Une estimation d'un paramètre unidimensionnel θ sera dite médiane sans biais si, pour θ fixe, la médiane de la distribution de l'estimation est à la valeur c'est-à-dire que l'estimation sous-estime aussi souvent qu'elle surestime. Cette exigence semble, dans la plupart des cas, accomplir autant que l'exigence sans biais de moyenne et a la propriété supplémentaire d'être invariante sous une transformation un-à-un.

    D'autres propriétés des estimateurs médians sans biais ont été rapportées. [45] [46] [47] [48] Les estimateurs sans biais médians sont invariants sous les transformations un-à-un.

    Il existe des méthodes pour construire des estimateurs sans biais de la médiane qui sont optimaux (dans un sens analogue à la propriété de variance minimale pour les estimateurs sans biais de la moyenne). De telles constructions existent pour les distributions de probabilité ayant des fonctions de vraisemblance monotones. [49] [50] Une telle procédure est un analogue de la procédure Rao-Blackwell pour les estimateurs sans biais moyen : la procédure tient pour une plus petite classe de distributions de probabilité que la procédure Rao-Blackwell mais pour une plus grande classe de fonctions de perte. [51]

    Les chercheurs scientifiques de l'ancien Proche-Orient semblent ne pas avoir utilisé complètement les statistiques sommaires, choisissant plutôt des valeurs offrant une cohérence maximale avec une théorie plus large qui intégrait une grande variété de phénomènes. [52] Au sein de la communauté scientifique méditerranéenne (et, plus tard, européenne), les statistiques comme la moyenne sont fondamentalement un développement médiéval et moderne. (L'histoire de la médiane hors d'Europe et de ses prédécesseurs reste relativement peu étudiée.)

    L'idée de la médiane est apparue au XIIIe siècle dans le Talmud, afin d'analyser équitablement des appréciations divergentes. [53] [54] Cependant, le concept ne s'est pas étendu à la communauté scientifique plus large.

    Au lieu de cela, l'ancêtre le plus proche de la médiane moderne est le milieu de gamme, inventé par Al-Biruni. [55] : 31 [56] La transmission des travaux d'Al-Biruni aux savants ultérieurs n'est pas claire. Al-Biruni a appliqué sa technique au dosage des métaux, mais, après avoir publié ses travaux, la plupart des essayeurs ont encore adopté la valeur la plus défavorable de leurs résultats, de peur qu'ils ne semblent tricher. [55] : 35-8 Cependant, l'augmentation de la navigation en mer pendant l'Âge de la découverte signifiait que les navigateurs du navire devaient de plus en plus tenter de déterminer la latitude par temps défavorable contre les rivages hostiles, ce qui a conduit à un regain d'intérêt pour les statistiques sommaires. Qu'il soit redécouvert ou inventé indépendamment, le milieu de gamme est recommandé aux navigateurs nautiques dans les "Instructions pour le voyage de Raleigh en Guyane, 1595" de Harriot. [55] : 45–8

    L'idée de la médiane est peut-être apparue pour la première fois dans le livre d'Edward Wright en 1599 Certaines erreurs de navigation sur une section sur la navigation à la boussole. Wright était réticent à rejeter les valeurs mesurées et a peut-être estimé que la médiane – incorporant une plus grande proportion de l'ensemble de données que la moyenne – était plus susceptible d'être correcte. Cependant, Wright n'a pas donné d'exemples d'utilisation de sa technique, ce qui rend difficile de vérifier qu'il décrivait la notion moderne de médiane. [52] [56] [b] La médiane (dans le contexte des probabilités) est certes apparue dans la correspondance de Christiaan Huygens, mais comme un exemple de statistique inappropriée pour la pratique actuarielle. [52]

    La première recommandation de la médiane remonte à 1757, lorsque Roger Joseph Boscovich a développé une méthode de régression basée sur le L 1 norme et donc implicitement sur la médiane. [52] [57] En 1774, Laplace a rendu ce désir explicite : il a suggéré que la médiane soit utilisée comme estimateur standard de la valeur d'un PDF postérieur. Le critère spécifique était de minimiser l'ampleur attendue de l'erreur | − α ∗ | |> où α ∗ > est l'estimation et α est la vraie valeur. À cette fin, Laplace a déterminé les distributions de la moyenne et de la médiane de l'échantillon au début des années 1800. [23] [58] Cependant, une décennie plus tard, Gauss et Legendre ont développé la méthode des moindres carrés, qui minimise ( α − α ∗ ) 2 )^<2>> à obtenir la moyenne. Dans le contexte de la régression, l'innovation de Gauss et Legendre offre un calcul beaucoup plus facile. Par conséquent, la proposition de Laplaces a été généralement rejetée jusqu'à l'essor des appareils informatiques 150 ans plus tard (et est encore un algorithme relativement rare). [59]

    Antoine Augustin Cournot en 1843 fut le premier [60] à utiliser le terme médian (valeur médiane) pour la valeur qui divise une distribution de probabilité en deux moitiés égales. Gustav Theodor Fechner a utilisé la médiane (Centralwerth) dans les phénomènes sociologiques et psychologiques. [61] Il avait été utilisé auparavant uniquement dans l'astronomie et les domaines connexes. Gustav Fechner a popularisé la médiane dans l'analyse formelle des données, bien qu'elle ait été utilisée auparavant par Laplace, [61] et la médiane est apparue dans un manuel de F. Y. Edgeworth. [62] Francis Galton a utilisé le terme anglais médian en 1881, [63] [64] ayant déjà utilisé les termes valeur la plus médiane en 1869, et le moyen en 1880. [65] [66]

    Les statisticiens ont intensément encouragé l'utilisation des médianes tout au long du XIXe siècle pour leur clarté intuitive et la facilité de calcul manuel. Cependant, la notion de médiane ne se prête pas aussi bien à la théorie des moments supérieurs que la moyenne arithmétique, et est beaucoup plus difficile à calculer par ordinateur. En conséquence, la médiane a été progressivement supplantée en tant que notion de moyenne générique par la moyenne arithmétique au cours du 20e siècle. [52] [56]


    Introduction

    La température et les précipitations ont une influence critique sur la société humaine et les systèmes naturels. Ils influencent les décisions concernant les cultures les plus appropriées à cultiver dans une région, les exigences de chauffage et de refroidissement des bâtiments et la taille d'un égout pluvial de rue. La température et les précipitations sont également les variables climatiques les mieux surveillées et les plus étudiées. Ce chapitre porte sur les changements dans les températures et les précipitations moyennes et extrêmes au Canada. Il évalue les changements passés, notre compréhension des causes de ces changements, ainsi que les projections futures. De plus, nous évaluons les indices climatiques dérivés des données de température et de précipitation qui sont pertinentes pour les impacts ou la planification, tels que le chauffage, le refroidissement et les degrés-jours de croissance. Ce rapport évalue également les changements de l'environnement physique qui sont principalement dus à la combinaison de la température et des précipitations, tels que les conditions météorologiques d'incendie (voir encadré 4.2), les conditions de neige et de glace (voir le chapitre 5) et le ruissellement des rivières, les inondations et la sécheresse (voir le chapitre 6). D'autres variables climatiques, telles que les vitesses moyennes et extrêmes du vent, ne sont pas évaluées dans ce rapport en raison des analyses limitées des observations disponibles et des recherches limitées sur les mécanismes et les causes des changements observés et projetés au Canada, bien qu'elles soient très pertinentes pour des questions telles que production d'énergie éolienne et codes du bâtiment.

    Les événements climatiques extrêmes entraînent fréquemment des impacts climatiques coûteux. Un seul événement, comme l'inondation de 2013 dans le sud de l'Alberta, peut entraîner des dommages évalués à des milliards de dollars. Pour mieux comprendre si le changement climatique a contribué à la survenue d'un événement extrême particulier, nous évaluons dans quelle mesure l'influence humaine sur le climat a pu jouer un rôle dans de tels événements catastrophiques. Comme la science de l'attribution des événements est encore en émergence, nous fournissons une description générale de l'attribution des événements, ainsi que deux exemples : l'inondation de 2013 dans le sud de l'Alberta et l'incendie de forêt de Fort McMurray en 2016.

    Le climat canadien est très varié, variant d'une région à l'autre. Elle fluctue aussi naturellement d'une année à l'autre et d'une décennie à l'autre, sur fond de changements climatiques d'origine anthropique. Comme nous le verrons, la variabilité naturelle interne du climat 4 est un contributeur important à certains des changements observés discutés dans ce chapitre. La variabilité naturelle interne du climat fait référence aux fluctuations à court terme autour du climat moyen à un endroit ou sur une région. Certains aspects de la variabilité naturelle sont associés à des « modes de variabilité » à grande échelle, qui sont des caractéristiques robustes du système climatique avec des caractéristiques spatiales et temporelles identifiables (voir chapitre 2, encadré 2.5). Par exemple, la phase positive (chaude) d'El Niño–oscillation australe (ENSO), connue sous le nom d'El Niño, a tendance à être associée en hiver à des températures de l'air plus chaudes et à des conditions plus sèches dans une grande partie du Canada. L'inverse est vrai pendant la phase négative (froide) d'ENSO, connue sous le nom de La Niña. D'autres modes de variabilité courants sont également caractérisés par des phases positives (chaudes) ou négatives (froides) qui ont tendance à être associées à des températures saisonnières plus chaudes ou plus froides pour tout ou partie du Canada (voir le chapitre 2, encadré 2.5).


    Le système de positionnement global pour les géosciences

    Comité directeur sur l'amélioration de l'infrastructure GPS différentielle pour les applications des sciences de la Terre et de l'atmosphère

    Bureau du génie aéronautique et spatial

    Commission de l'ingénierie et des systèmes techniques

    Conseil National de Recherche

    AVIS : Le projet faisant l'objet de ce rapport a été approuvé par le conseil d'administration du Conseil national de la recherche, dont les membres sont issus des conseils de la National Academy of Sciences, de la National Academy of Engineering et de l'Institute of Medicine. Les membres de la commission responsable du rapport ont été choisis pour leurs compétences particulières et dans le respect d'un juste équilibre.

    Ce rapport a été examiné par un groupe autre que les auteurs selon des procédures approuvées par un comité d'examen des rapports composé de membres de la National Academy of Sciences, de la National Academy of Engineering et de l'Institute of Medicine.

    L'Académie nationale des sciences est une société privée, à but non lucratif et auto-entretenue d'universitaires distingués engagés dans la recherche scientifique et technique, dédiée à l'avancement de la science et de la technologie et à leur utilisation pour le bien-être général. En vertu de la charte qui lui a été accordée par le Congrès en 1863, l'Académie a un mandat qui l'oblige à conseiller le gouvernement fédéral sur les questions scientifiques et techniques. Le Dr Bruce M. Alberts est président de la National Academy of Sciences.

    La National Academy of Engineering a été créée en 1964, en vertu de la charte de la National Academy of Sciences, en tant qu'organisation parallèle d'ingénieurs exceptionnels. Il est autonome dans son administration et dans la sélection de ses membres, partageant avec l'Académie nationale des sciences la responsabilité de conseiller le gouvernement fédéral. La National Academy of Engineering parraine également des programmes d'ingénierie visant à répondre aux besoins nationaux, encourage l'éducation et la recherche et reconnaît les réalisations supérieures des ingénieurs. Dr. William A. Wulf is president of the National Academy of Engineering.

    The Institute of Medicine was established in 1970 by the National Academy of Sciences to secure the services of eminent members of appropriate professions in the examination of policy matters pertaining to the health of the public. The Institute acts under the responsibility given to the National Academy of Sciences by its congressional charter to be an adviser to the federal government and, upon its own initiative, to identify issues of medical care, research, and education. Dr. Kenneth I. Shine is president of the Institute of Medicine.

    The National Research Council was organized by the National Academy of Sciences in 1916 to associate the broad community of science and technology with the Academy's purposes of furthering knowledge and advising the federal government. Functioning in accordance with general policies determined by the Academy, the Council has become the principal operating agency of both the National Academy of Sciences and the National Academy of Engineering in providing services to the government, the public, and the scientific and engineering communities. The Council is administered jointly by both Academies and the Institute of Medicine. Dr. Bruce M. Alberts and Dr. William A. Wulf are chairman and vice-chairman, respectively, of the National Research Council.

    This study was supported by a grant from the National Science Foundation to the National Academy of Sciences. Any opinions, findings, conclusions, or recommendations expressed in this publication are those of the author(s) and do not necessarily reflect the view of the organizations or agencies that provided support for the project.

    Available in limited supply from:

    The Aeronautics and Space Engineering Board

    2101 Constitution Avenue, N.W.

    Copyright 1997 by the National Academy of Sciences. Tous les droits sont réservés.

    Imprimé aux États-Unis d'Amérique.

    All Papers in Part II of this report are reprinted as they were received from the authors. They were not formatted or edited by the National Research Council.


    Featured Projects

    This modern regional assessment of the geothermally prospective Garibaldi Volcanic Belt builds on work that started in the mid 1970s. The project brings updated geophysical and geological techniques and ideas to provide a modernized assessment of the geothermal potential of the region.

    Assessment of Fugitive Natural Gas on Near-Surface Groundwater Quality

    This multi-year, multi-disciplinary study aims to build the understanding of how unintentional gas leaks from natural gas development ('fugitive emissions') can move into shallow aquifers and what happens when this occurs. The findings will guide policy and industry practice as well as informing affected communities.

    Peace Region Scientific Groundwater Monitoring Network Installation Study

    The Energy and Environment Research Initiative (EERI) at the University of British Columbia, Simon Fraser University, the University of Calgary, the BC Oil and Gas Commission, and Geoscience BC have teamed up to conduct research toward addressing some aspects of public concern around oil and gas activities and groundwater methane in the Peace Region of Northeast BC.

    Central Interior Copper-Gold Research: Surficial Exploration Project

    This project is generating new data about the layers of sediments deposited by glaciers (e.g. till) found in an area between the Mount Polley (Quesnel), and Gibraltar (Williams Lake) and Mount Milligan (Mackenzie) mines to provide a framework that can be used to trace till samples and geochemical anomalies back to their source, which may help to identify areas of potential mineral exploration interest.


    Voir la vidéo: QUEST-CE QUE LES GÉOSCIENCES?