Suite

Comment calculer la distance orthodromique dans QGIS ?

Comment calculer la distance orthodromique dans QGIS ?


J'ai ouvert un fichier geotiff avec QGIS. Le CRS de ce fichier est EPSG:3857 (web mercator). Lorsque j'utilise l'outil distance dans le menu, la distance calculée est vers les coordonnées web mercator et non la distance "réelle" au sol. J'ai trouvé l'extension GeoServer pour calculer la distance orthodromique. Cela fonctionne mais ce n'est pas vraiment facile à utiliser. Existe-t-il un moyen de modifier les paramètres QGIS ou tout autre élément permettant d'obtenir la distance orthodromique avec l'outil natif ?


Va Paramètres -> Propriétés du projet, dans SCR onglet activer la transformation à la volée ; dans Général dans le menu de l'outil Mesurer, choisissez l'ellipsoïde pour les calculs de distance. Voir l'image:

Lorsque vous démarrez la mesure, déplacez le curseur sur la fenêtre de mesure : les informations sur vos paramètres de mesure s'affichent :

REMARQUE: Vérifiez TOUJOURS les paramètres de mesure dans la fenêtre de mesure (comme dans l'image ci-dessus) car les paramètres de l'ellipsoïde ne sont pas toujours enregistrés (ou affichés dans les paramètres de l'outil de mesure comme sur la première image) correctement.


Utilisation de l'échantillonnage à distance et du taux d'occupation pour estimer l'abondance des couples reproducteurs d'Océanite de Wilson (Océanites océaniques) en Antarctique

Des estimations de population fiables sont nécessaires pour la gestion de la conservation des populations d'oiseaux marins. Ne pas tenir compte de la probabilité de détection dans les enquêtes conduit souvent à sous-estimer la taille de la population et, si la probabilité de détection varie d'une enquête à l'autre, à biaiser les tendances estimées. Ceci est particulièrement pertinent pour les pétrels tempête, qui sont de petits oiseaux marins nichant dans des terriers ou des cavités, qui ont de faibles probabilités de détection sur terre et en mer et dont l'état et les tendances des populations sont les moins connus parmi les oiseaux marins. Ici, nous avons utilisé la méthode d'échantillonnage à distance pour estimer la probabilité de détection et la taille de la population reproductrice de l'Océanite de Wilson nichant dans des cavités (Océanites océaniques) dans l'archipel de la Pointe Géologie, Antarctique de l'Est. La probabilité de détection était de 0,353 ± 0,053 et la densité moyenne de nids actifs était de 45,53 ± 15,63 nids/ha. La proportion de nids occupés par les reproducteurs a été estimée à l'aide d'un endoscope sur un échantillon de nids et était de 0,455 ± 0,053. La population reproductrice était estimée à 793 (IC à 95 % 344-1359) couples reproducteurs en janvier 2016. Nous préconisons la méthode d'échantillonnage à distance comme une approche robuste pour estimer l'abondance des pétrels tempête de Wilson reproducteurs en Antarctique. La comparaison avec un relevé antérieur suggère que la population a diminué au cours des 30 dernières années, peut-être en partie à cause d'une réduction de l'habitat de nidification suite à l'extension de la superficie occupée par les colonies de manchots.

Ceci est un aperçu du contenu de l'abonnement, accessible via votre institution.


Nous avons trouvé un dimorphisme de taille sexuel, les mâles étant plus gros que les femelles. La variation de forme entre les sexes, ainsi qu'entre les écorégions, s'explique principalement par l'effet de l'allométrie. Les spécimens de la savane uruguayenne sont plus gros que ceux de la forêt atlantique. La variation de taille était également significativement corrélée à la latitude, à la température et aux régimes de précipitations. Aucune corrélation entre la forme du crâne et la distance géographique n'a été détectée.

Les mesures morphométriques et les données alimentaires des petits grisons dans les régions situées à des latitudes plus élevées que notre échantillonnage montrent une tendance à des individus plus lourds, et la consommation de proies plus grosses par rapport à la savane uruguayenne. Les résultats ont indiqué les spécimens plus petits associés à une faible variabilité de la température annuelle, congruente à la région de la forêt atlantique. Une explication de la variation observée peut être liée à la "règle des ressources", mais, en raison des informations minimales sur l'histoire naturelle concernant cette espèce, nous pouvons simplement spéculer à ce sujet.


1. INTRODUCTION

La génomique du paysage est un sous-domaine de la génomique des populations, dans le but d'identifier la variation génétique sous-jacente à l'adaptation locale dans les populations naturelles et gérées (Balkenhol et al., 2017 Joost et al., 2007 Rellstab, Gugerli, Eckert, Hancock, & Holderegger, 2015 ) . L'approche consiste à analyser simultanément la diversité génomique et la variabilité environnementale afin de détecter des variantes génétiques associées à une composition spécifique du paysage. Les études de ce type intègrent généralement une analyse de la structure de la population, de sorte que la variation génétique neutre peut être distinguée de la variation adaptative (Rellstab et al., 2015). Au cours des dernières années, l'approche génomique du paysage s'est généralisée (voir Tableau 1 Balkenhol et al., 2017 Rellstab et al., 2015 ). Il est appliqué à une gamme d'espèces, y compris le bétail (Colli et al., 2014 Lv et al., 2014 Pariset, Joost, Marsan, & Valentini, 2009 Stucki et al., 2017 Vajana et al., 2018), sauvage animaux (Harris & Munshi-South, 2017 Manthey & Moyle, 2015 Stronen et al., 2015 Wenzel, Douglas, James, Redpath, & Piertney, 2016 ), insectes (Crossley, Chen, Groves, & Schoville, 2017 Dudaniec, Yong, Lancaster, Svensson, & Hansson, 2018 Theodorou et al., 2018 ), les plantes (Abebe, Naz, & Léon, 2015 De Kort et al., 2014 Pluess et al., 2016 Yoder et al., 2014 ) et les organismes aquatiques ( DiBattista et al., 2017 Hecht, Matala, Hess, & Narum, 2015 Laporte et al., 2016 Riginos, Crandall, Liggins, Bongaerts, & Treml, 2016 Vincent, Dionne, Kent, Lien, & Bernatchez, 2013 ).

Étude Espèce Conception d'échantillonnage () Lieux d'échantillonnage (L) Taille de l'échantillon (S)
Colli et al. (2014) Chèvre Représentativité spatiale et raciale 10 emplacements 43
Pariset et al. (2009) Chèvre Représentativité spatiale et raciale 16 régions 497
Stucki et al. ( 2017 ) et Vajana et al. ( 2018 ) Bovins Représentativité spatiale 51 régions 813
Harris et Munshi-Sud ( 2017 ) Souris à pattes blanches Représentativité des habitats 6 emplacements 48
Stronen et al. (2015) Loup Opportuniste, représentativité de la population 59 emplacements 59
Wenzel et al. (2016) Le tétras lyre Représentativité spatiale 21 emplacements 231
Crossley et al. (2017) Doryphore de la pomme de terre Représentativité des habitats 16 emplacements 192
Dudaniec et al. ( 2018 ) Demoiselle Représentativité environnementale et spatiale 25 emplacements 426
Théodorou et al. ( 2018 ) Bourdon à queue rousse Représentativité des habitats 18 emplacements 198
Abebe et al. (2015) Orge Représentativité spatiale 10 régions 260
De Kort et al. (2014) Aulne noir Représentativité spatiale et de l'habitat 24 habitants 356
Plusss et al. (2016) hêtre européen Représentativité spatiale et environnementale 79 habitants 234
Yoder et al. (2014) Trèfle Représentativité spatiale 202 emplacements 202
DiBattista et al. (2017) Vivaneau rayé Représentativité spatiale 51 emplacements 1,016
Hecht et al. (2015) saumon quinnat Représentativité spatiale 53 emplacements 1,956
Laporte et al. (2016) anguille européenne Représentativité spatiale et environnementale 8 emplacements 179
Vincent et al. ( 2013 ) Saumon atlantique Représentativité spatiale 26a une Les chiffres de Vincent et al. rapport ( 2013 ) concernant les échantillons non regroupés.
rivières
641a une Les chiffres de Vincent et al. rapport ( 2013 ) concernant les échantillons non regroupés.

La stratégie d'échantillonnage joue un rôle central dans la recherche expérimentale et doit être théoriquement adaptée au(x) objectif(s) d'une étude (Rellstab et al., 2015 Riginos et al., 2016 ). Dans le contexte de la génomique du paysage, le plan d'échantillonnage doit couvrir une échelle spatiale représentative à la fois des processus démographiques et de la variabilité environnementale vécue par la population étudiée (Balkenhol et al., 2017 Leempoel et al., 2017 Manel et al., 2010 Rellstab et al., 2015). Ceci est impératif pour pouvoir correctement tenir compte de l'effet de confusion de la structure de la population, pour fournir un contraste biologiquement significatif entre les variables environnementales d'intérêt et pour permettre définitivement la recherche de variantes adaptatives réelles (Balkenhol et al., 2017 Manel et al. , 2010 Rellstab et al., 2015 ). Par conséquent, un vaste échantillonnage sur le terrain est généralement requis et doit être couplé à un séquençage du génome à haut débit pour caractériser les échantillons sur un grand nombre de loci (Balkenhol et al., 2017 Rellstab et al., 2015 ). Au-delà de ces aspects théoriques, des choix pragmatiques doivent être faits au regard des contraintes financières et logistiques qui sont souvent imposées (Manel et al., 2010 Rellstab et al., 2015 ). Une stratégie d'échantillonnage consiste en : (a) un plan d'échantillonnage (la disposition spatiale des emplacements d'échantillonnage, ) (b) le nombre de sites d'échantillonnage (L) et (c) la taille de l'échantillon (le nombre d'individus échantillonnés, N Tableau 1). Le soin avec lequel ces paramètres sont définis affecte le rendement scientifique d'une expérience ainsi que ses coûts (Manel et al., 2010 Rellstab et al., 2015 ).

La communauté de la génomique du paysage s'est traditionnellement concentrée sur la formulation de directives théoriques pour la collecte d'individus dans toute la zone d'étude. Dans cette littérature, un accent particulier a été mis sur la manière dont les échelles spatiales et les variations environnementales doivent être prises en compte lors de la sélection des sites d'échantillonnage (Leempoel et al., 2017 Manel, Albert, & Yoccoz, 2012 Manel et al., 2010 Rellstab et al., 2015 Riginos et al., 2016 ). Des simulations théoriques ont montré que la réalisation de transects le long de gradients environnementaux ou de paires d'échantillonnage à partir de sites contrastés qui sont spatialement proches réduisait les taux de fausses découvertes (FDR) causés par les effets de confusion des processus démographiques (De Mita et al., 2013 Lotterhos & Whitlock, 2015 ). Cependant, dans ces études, l'environnement a été décrit à l'aide d'une seule variable, ce qui simplifie à l'excès le choix des sites d'échantillonnage. En fait, dans une véritable application de génomique du paysage, plusieurs variables sont généralement analysées afin d'explorer une variété de pressions environnementales possibles provoquant la sélection (Balkenhol et al., 2017 ). L'utilisation simultanée de plusieurs descripteurs environnementaux nous permet également de contrôler le biais associé aux conditions colinéaires (Rellstab et al., 2015 ). Par ailleurs, ces travaux se sont concentrés sur la comparaison de différentes méthodes statistiques avec l'inconvénient de ne confronter que quelques combinaisons des éléments déterminant la stratégie d'échantillonnage (De Mita et al., 2013 Lotterhos & Whitlock, 2015 ). Enfin et surtout, le nombre d'échantillons utilisés dans les simulations (entre 540 et 1 800 Lotterhos & Whitlock, 2015 ) semble irréaliste pour une utilisation dans la plupart des expériences génomiques de paysage réel (tableau 1) et donc les lignes directrices proposées sont à peine applicables dans la pratique .

Il est donc nécessaire d'identifier des lignes directrices pragmatiques et réalistes telles qu'une stratégie d'échantillonnage soit conçue pour maximiser la puissance statistique, minimiser les fausses découvertes et optimiser les efforts et les dépenses financières (Balkenhol et al., 2017 Rellstab et al., 2015). En particulier, les questions fondamentales qui doivent être abordées sont : (a) comment déterminer la disposition spatiale des emplacements d'échantillonnage (b) comment organiser l'effort d'échantillonnage (par exemple, préférer de nombreux échantillons sur quelques sites, ou plutôt moins d'échantillons sur plusieurs sites) et (c) combien d'échantillons sont nécessaires pour obtenir une puissance statistique suffisante (Rellstab et al., 2015 Riginos et al., 2016 ).

Ici, nous étudions comment le résultat des analyses génomiques du paysage est déterminé par la stratégie d'échantillonnage. Nous avons effectué des simulations à l'aide d'un ensemble de données génétiques fictives englobant des génotypes adaptatifs façonnés par des variables environnementales réelles. Les simulations ont pris en compte des scénarios démographiques antithétiques englobant une structure de population forte ou faible. Nous avons proposé des stratégies d'échantillonnage qui différaient selon trois éléments : l'approche du plan d'échantillonnage (), nombre de sites d'échantillonnage (L) et la taille de l'échantillon (nombre d'échantillons, N). Pour chacun de ces trois éléments, nous avons mesuré leurs impacts relatifs sur les taux de vrais positifs (TPR) et les FDR des analyses, ainsi que leur impact sur la valeur prédictive positive (PPV Marshall, 1989) des signaux adaptatifs les plus forts.


Comment calculer la distance orthodromique dans QGIS ? - Systèmes d'information géographique

Abstrait. Cette ressource donne un bref aperçu d'un site Web et d'une liste de lecture de vidéos YouTube utilisant des logiciels open source (R, GeoDa et QGIS) conçus pour aider les chercheurs à se lancer dans l'analyse de leurs propres données à l'aide de Spatial Econometrics. Des exemples de données, de documents, de code et de fichiers de carte sont fournis pour faciliter la réplication. Le cours couvre les bases de l'intégration de données dans un ensemble de données spatiales, la contiguïté et la corrélation spatiale, la réalisation de régressions spatiales de base dans GeoDa et la réalisation de tests de spécification et de régressions plus sophistiqués dans R.

Classement JEL : R1, C21

Mots clés : économétrie spatiale, vidéos pédagogiques

1. Introduction

Internet a considérablement amélioré la capacité de fournir des opportunités d'apprentissage à distance de qualité au cours de la dernière décennie. L'explosion des MOOC et des vidéos éducatives de haute qualité hébergées sur YouTube a réduit le besoin pour les professionnels de se rendre à un certain endroit afin d'apprendre ou de rafraîchir leurs compétences en mathématiques ou en analyse de données. Bien qu'il existe encore de nombreuses possibilités de suivre ces cours dans diverses conférences ou universités, des substituts de haute qualité moins chers deviennent disponibles. En ce qui concerne spécifiquement l'économétrie spatiale, il existe de nombreuses possibilités de voyager pour un enseignement en face-à-face (tableau 1 ), et l'auteur de cet article a grandement bénéficié d'un cours de courte durée offert par Luc Anselin à l'UI-UC en 2003. Cependant , ces cours peuvent facilement coûter bien plus de 5 000 $ lorsque les frais de scolarité, les déplacements et l'hébergement sont pris en compte. Dans cet article, nous présentons une série complète mais continue de ressources gratuites disponibles.

Emplacement Offres récentes Coût
Institut régional de recherche, Été, 1 semaine, 3 000 $ + hébergement,
Université de Virginie-Occidentale, États-Unis 2016-2019 voyage (2018)
Econométrie spatiale avancée Eté, 4 semaines, € 2 300-3 300 + hébergement,
Institut, Università Cattolica 2018 voyage (2018)
du Sacro Cuore de Rome
ICPSR, Université du Michigan, Été, 1 semaine 1 700-3 200 $ + hébergement,
Etats-Unis voyage (2018)
Atelier NARSC, San Anto- 1 jour, avant le 95 $ en plus du
nio, Texas, États-Unis début du 2018 frais de participation
Conférence NARSC Conférence NARSC

2 Aperçu du cours

Le cœur du cours est composé de 12 vidéos YouTube, d'une durée comprise entre 15 et 41 minutes. Ces vidéos utilisent la technologie de capture d'écran (Burkey�), plutôt que des vidéos d'un professeur devant une salle de classe typique. Toutes les vidéos et le matériel sont gratuits, publiés sur http://spatial.burkeyacademy.com. Les logiciels utilisés sont également tous disponibles gratuitement 1 , ce qui rend le cours très accessible aux professeurs comme aux étudiants. Chaque vidéo est accompagnée d'un document, d'un ensemble de données, d'un fichier Excel ou d'un fichier texte contenant du code, selon le cas.

3 Bref aperçu du cours

Bien que des ajouts à la série continueront d'être effectués en fonction des commentaires des téléspectateurs, les 12 vidéos principales (plus une brève vidéo supplémentaire de 9 minutes « Bienvenue » 8221) forment une introduction complète, bien que basique, à l'économétrie spatiale. On suppose que les téléspectateurs sont familiarisés avec l'économétrie transversale et la notation matricielle de base. Une connaissance de base des fichiers de carte et de R serait utile, mais pas obligatoire.

3.1 Introduction à la pensée spatiale avec quelques modèles économétriques

La première vidéo décrit certains des principaux modèles économétriques spatiaux et explique comment penser l'interaction spatiale/le débordement en termes de base. La vidéo et le document discutent également de certains des principaux chercheurs qui ont développé les modèles et donnent quelques références pour des livres et des articles de revues où les téléspectateurs peuvent trouver plus d'informations. Dans cette section, nous présentons les modèles suivants :

Modèle OLS

(1)

Le modèle OLS ne contient pas de relation spatiale, mais est souvent utilisé comme point de départ. Anselin  (1988) a privilégié l'approche du multiplicateur de Lagrange pour les recherches de spécifications. En commençant par OLS, Anselin a dérivé 5 statistiques du multiplicateur de Lagrange qui aident à déterminer si le modèle OLS (peut-être mal spécifié) pointe vers les modèles Spatial Lag, Spatial Error ou SARMA, bien qu'il ait suggéré que le modèle SARMA n'était probablement jamais la spécification correcte.

La mesure des « voisins » avec une matrice de poids spatiaux, W , nous permet de spécifier mathématiquement comment les relations spatiales entre les régions peuvent être structurées. Les régions peuvent être liées à leurs voisines de trois manières différentes : 1. La valeur de y dans une région peut avoir un impact (ou être liée à) la valeur de y dans une région voisine 2. Les valeurs de X ’s dans une région peuvent affecter (ou être lié à) la valeur de y dans une région voisine 3. Les résidus ϵ peuvent affecter (ou être liés à) les résidus dans une région voisine (hétéroscédasticité spatiale ou autocorrélation spatiale)

Modèle Manski

(2)

Le modèle Manski intègre les trois types de relations spatiales. Si θ = 0 alors Manski devient le modèle Kelejian-Prucha :

Kelejian-Prucha, SARAR, Cliff-Ord, modèle SAC

(3)

Ou si λ = 0, nous obtenons le modèle spatial de Durbin (SDM), qui implique y retardé et des résidus liés à l'espace. LeSage, Pace (2009) préfèrent commencer par cette spécification (ou le modèle d'erreur spatiale de Durbin, discuté dans la dernière des vidéos principales), puis utiliser les techniques du rapport de vraisemblance pour tester si le modèle doit être restreint à un modèle plus simple. , modèle imbriqué.

Modèle spatial de Durbin

(4)

Si ρ = 0, alors cela devient le

Modèle X spatialement retardé (SLX)

(5)

Si θ = 0, alors (4 ) dégénère dans le modèle de décalage spatial

Décalage spatial, Autorégressif spatial (SAR)

(6)

Si θ = - ρβ , alors (4 ) se simplifie dans le modèle d'erreur spatiale (car λ = ρ dans ce cas) 2 .

Bien sûr, la définition de tous les paramètres spatiaux ( λ , ρ et le vecteur de θ ’s) à zéro restreindra le modèle à OLS.

3.2 Les bases du SIG

Les deux vidéos suivantes donnent une brève introduction à l'utilisation de QGIS (QGIS Development Team�). L'accent est mis sur la façon de télécharger un fichier SHP mappant un ensemble de régions, de l'ouvrir dans un programme SIG, de le modifier en supprimant les régions qui pourraient ne pas être intéressantes et d'ajouter des données supplémentaires pour les régions à analyser. Les utilisateurs reçoivent un fichier ZIP à télécharger qui contient les fichiers cartographiques et des données supplémentaires à importer pour s'entraîner avec la vidéo.

3.3 Comprendre l'idée de contiguïté et de corrélation spatiale

Une vidéo axée sur la contiguïté et la corrélation spatiale (Moran’s I) suit, ainsi qu'une feuille de calcul téléchargeable. Dans ce fichier, les téléspectateurs aident à remplir à la main de petites matrices de contiguïté et de pondération, en utilisant un simple ensemble de régions. On montre aux utilisateurs comment une simple standardisation des rangées peut être effectuée. Cette feuille de calcul permet aux utilisateurs de modifier les valeurs des données dans chaque région et de voir de manière dynamique comment la valeur de la corrélation spatiale change à mesure que l'utilisateur crée différents modèles dans les données.

3.4 ESDA, création et visualisation de poids spatiaux pour les données spatiales avec GeoDa

Les quatre prochaines vidéos de la série utilisent les outils de visualisation fantastiques de GeoDa (Anselin etਊl.�) pour effectuer une analyse exploratoire des données spatiales (ESDA), créer et exporter des matrices de pondérations spatiales, calculer des corrélations spatiales et effectuer des analyses spatiales de base. régressions et tests de spécification. Les forces et les faiblesses de GeoDa sont discutées, et l'utilisateur est encouragé à apprendre également R pour l'analyse de données spatiales dans les vidéos restantes.

3.5 R pour l'analyse et la régression des données spatiales

Dans les quatre dernières vidéos de la séquence, l'utilisateur est présenté à R et à de nombreux packages courants utilisés pour la manipulation et l'analyse de données spatiales (en particulier spdep (Bivand, Piras�,਋ivand etਊl.�) . Les deux premières vidéos se concentrent sur l'obtention de données dans R et la création de matrices de contiguïté. Les spectateurs apprennent à lire des données spatiales, à créer des matrices de pondération, à importer des pondérations créées dans GeoDa, à exporter des pondérations et à tracer des relations de contiguïté.

Les deux dernières vidéos au cœur de la série explorent les moyens d'effectuer une recherche de spécifications spatiales et d'estimer de nombreux modèles économétriques spatiaux courants dans R. La différence entre les tests du multiplicateur de Lagrange (LM) et les tests du rapport de vraisemblance (LR) est discutée. En résumé, les tests LM commencent par estimer un modèle OLS non spatial et calculer le score, indiquant le taux d'amélioration de l'ajustement du modèle lorsque nous assouplissons les contraintes rendant le modèle non spatial. Anselin a dérivé cinq tests LM : un pour le SEM et le SAR (avec une version robuste pour ceux-ci, essayant de filtrer une certaine propension à un faux positif entre ces deux modèles), et un test pour un modèle SARMA 3 .

L'avantage de l'approche LM est que seul le modèle OLS doit être estimé avant de calculer les statistiques LM. Cependant, cette méthode de recherche de spécification spatiale est très limitative, car seuls trois types de modèles peuvent être considérés. Ainsi, de nombreux économètres spatiaux privilégient l'approche LR, car n'importe quel modèle peut être testé pour voir si un modèle emboîté plus simple peut être plus approprié (voir la figure 1 ). La statistique LR est également très facile à calculer après avoir exécuté les deux modèles à comparer :

LeSage (2014) suggère d'exécuter le SDM si une spécification globale est nécessaire, et si une structure locale est nécessaire, exécutez d'abord le modèle d'erreur spatiale de Durbin (SDEM) :

(9)

Ce modèle est “local” car il ne contient pas de terme de décalage. Ainsi, bien que les voisins s'affectent les uns les autres, cet effet ne se propage pas dans tout l'espace. Des liens vers les données, les commandes et les documents sont inclus, ainsi qu'une économétrie spatiale de deux pages dans la feuille de référence R avec des commandes et des conseils (Figure 2).

4. Conclusion

Bien que cette page Web et cette série YouTube ne remplacent pas parfaitement un cours de courte durée, on espère qu'elle aidera à présenter l'économétrie spatiale à un public plus large et servira de ressource pour ceux qui n'ont pas les moyens de suivre un cours en face à face. L'auteur accueille toutes suggestions et corrections de la part de la communauté académique. L'auteur espère ajouter à cette série de vidéos des entretiens avec des chercheurs de premier plan dans le domaine, ainsi que d'autres sujets d'intérêt.

Reconnaissance

Merci à Stéphanie Kelly pour son aide éditoriale.

Les références

    Anselin L (1988)  Econométrie spatiale : méthodes et modèles . Kluwer Academic Publishers, Dordrecht. CrossRef.

    Anselin L, Syabri I, Kho Y (2006) Geoda : Introduction à l'analyse de données spatiales. Analyse géographique ꀸ[1] : 5󈞂. CrossRef.

    Bivand RS, Hauke ​​J, Kossowski T (2013)਌omputing the Jacobian in Gaussian spatial autoregressive models: Une comparaison illustrée des méthodes disponibles. Analyse géographique ꁅ[2] : 150�. CrossRef.

    Bivand RS, Piras G (2015)਌omparaison des implémentations de méthodes d'estimation pour l'économétrie spatiale. Journal of Statistical Software ꁣ[18] : 1󈞐. CrossRef.

    Burkey ML (2015) Réalisation de vidéos éducatives et savantes avec un logiciel de capture d'écran. RÉGION ਂ[2] : R2󈝶. CrossRef.

    Burkey ML (2018) La mère de tous les documents d'économétrie spatiale R. Disponible sur http://spatial.burkeyacademy.com

    LeSage JP (2014)ꃎ que les scientifiques régionaux doivent savoir sur l'économétrie spatiale. L'examen des études régionales ꁄ[1] : 13󈞌

    LeSage JP, Pace RK (2009)  Introduction à l'économétrie spatiale . CRC Press, Boca Raton, Floride. CrossRef.


5. Conclusion

Le fait que les pollinisateurs puissent façonner la distribution de ces plantes spécialisées est une idée qui a de vastes implications pour la compréhension et la prévision des aires de répartition géographiques des plantes, des changements évolutifs des pollinisateurs et de la diversification des plantes. Cette étude vient étayer l'idée que les pollinisateurs sont une composante de la niche fondamentale de certaines espèces végétales et souligne l'importance générale des interactions écologiques entre plantes et pollinisateurs pour le maintien de la biodiversité.


Discussion

Cartographie des types de forêts

Dans la région étudiée, le réseau U-net a identifié les forêts naturelles et d'eucalyptus avec une précision globale supérieure à 95 %. En comparaison, les précisions globales de MapBiomas étaient de 88,45 % pour les forêts naturelles et de 77,7 % pour les plantations forestières. Dans notre étude, la haute performance du modèle U-net pour cette segmentation pourrait s'expliquer par les valeurs spectrales et les informations texturales des types de forêts, comme le montre la figure 2, qui sont identifiables/séparables par un œil humain sur une image RVB. . Comme la région contient beaucoup de plantations d'eucalyptus, l'échantillon d'apprentissage contient des plantations d'eucalyptus à différents âges de peuplement. Pour les plantations d'eucalyptus, l'une des caractéristiques importantes est la ligne de plantation. Lorsque certains eucalyptus meurent ou lorsque la plantation est ancienne et que la ligne des plantations n'est pas si évidente visuellement, le modèle a tendance à faire quelques erreurs (Figure 6). Pour les forêts naturelles, l'une des caractéristiques importantes du U-net semble être la présence d'ombre, et le modèle prédit parfois de très grandes cimes homogènes sans ombre en arrière-plan, probablement prédites comme pâturage (figure 6). A la résolution spatiale de 0,3 m, nous avons trouvé

8% de forêts en plus que la cartographie forestière à 30 m de 2017 de MapBiomas (44,80 % vs 36,94 % respectivement). Ceci est attendu, car les pixels doivent avoir une couverture arborée élevée pour être classés comme forêt, et MapBiomas n'est pas en mesure de délimiter avec précision la bordure de la forêt, en raison de sa résolution spatiale de 30 m. Cela a également été confirmé par les valeurs de couvert arboré plus élevées pour les pixels forestiers de MapBiomass. Il faut noter que les résultats obtenus pourraient être encore améliorés avec un ensemble d'entraînement plus large. Nous reconnaissons que le modèle U-net n'est pas nécessairement la meilleure méthode pour produire une cartographie de la végétation/de la couverture terrestre à une plus grande échelle que l'échelle régionale. Des travaux récents utilisant principalement des images Landsat et des méthodes d'apprentissage non approfondi (Hansen et al. 2013 MapBiomas, 2018 ) ou d'autres méthodes d'apprentissage profond (Jia et al. 2017 Kussul et al. 2017 Lyu et al. 2018 ) montrent également des performances élevées et peuvent couvrir de plus grandes surfaces. Cependant, dans le cas d'une étude régionale utilisant une ou deux images Worldview à très haute résolution et avec l'objectif de cartographier des objets à l'intérieur d'une classe de végétation particulière, comme dans cette étude, nous recommandons de produire le modèle de classe de végétation avec U-net. Premièrement, parce que U-net a démontré des performances élevées pour la segmentation d'images à très haute résolution [cette étude et Huang et al. ( 2018 )] d'autre part parce qu'il permet la réalisation d'un masque de végétation à très haute résolution et enfin parce que U-net est relativement simple et pratique à utiliser.

Implications pour l'analyse de l'utilisation des terres

Avec une image Worldview-3 et avec quelques jours de travail pour préparer les images d'entraînement, entraîner le modèle et faire des prédictions, une information fiable sur l'occupation du sol peut être produite par une seule personne. Cette classification de l'utilisation des terres n'existe pas dans les régions tropicales à partir des cartes mondiales disponibles à cette résolution spatiale. Il est important de cartographier les types forestiers de cette région afin d'interpréter la forte augmentation de 5 à 30 % de la couverture arborée observée depuis les années 1990 (FAO, 2010 Hansen et al. 2013 Silva et al. 2018 ) et de comprendre son implication dans le contexte du changement global et de la conservation du carbone. Alors qu'avoir une grande quantité de nouvelles forêts en croissance est positif pour le bilan carbone, le fait que 80% de ces nouvelles forêts en croissance soient des plantations d'eucalyptus est un aspect négatif pour la biodiversité. Lors de la production de l'ensemble de données d'apprentissage, les limites de la forêt ont été facilement évaluées, car les deux types de forêts sont denses et les autres types d'utilisation des terres sont spectralement différents (principalement la construction humaine ou les pâturages). Pour la physionomie de la végétation clairsemée avec des arbres tels que ceux de la formation Savannah, il peut être plus difficile de produire l'échantillon de formation et il peut être nécessaire de cartographier tous les arbres individuels et de voir comment la taille de la cime et la densité des arbres varient à travers le paysage.

Reconnaissance de C. hololeuca des arbres

Dans cette étude, la première carte de répartition régionale de tous les individus d'une espèce d'arbre naturel avec une image de télédétection multispectrale a été produite à l'aide d'un réseau U-net. On estime que seulement 0,01 % de la superficie totale de la forêt atlantique a été étudié depuis 1945 par le biais d'études sur le terrain (1817 ha) (de Lima et al. 2015 ) ici, C. hololeuca a été cartographié dans 64 713 ha de forêts naturelles, soit ∼ 0,35% des vestiges de la forêt atlantique. Cette carte de l'espèce C. hololeuca avait une précision globale de 97%. Cette grande précision pourrait s'expliquer par les valeurs spectrales uniques de la Cécropia les feuilles et la structure de la couronne, comme le montre la figure 3, les rendant ainsi identifiables même pour un œil humain dans une image RVB, ce qui n'est pas le cas pour la plupart des espèces d'arbres. De plus, contrairement à des objets segmentés plus courants, tels que les voitures, les animaux ou les bâtiments, les individus d'une espèce d'arbre ont théoriquement la même réponse spectrale, qui est liée à la fois à la composition biochimique des feuilles et à l'architecture de l'espèce (Asner et al. 2015 Ferreira et al. 2016 ). Cela pourrait aider le réseau à identifier les arbres. Les précisions de la bordure du segment (score F1 = 0,804) n'étaient pas élevées pour les raisons suivantes : Premièrement, à cause de la difficulté de délimiter avec précision la bordure des arbres Cecropia, qui n'est pas nette. En comparaison, la bordure d'une voiture dans une image est plus facile à distinguer et à délimiter avec précision. Deuxièmement, en raison de la petite taille de la couronne, chaque contribution de pixel est importante par rapport à la taille de la couronne, c'est-à-dire que le fait de ne manquer que quelques pixels affecte fortement la valeur du score F1. Dans les Néotropiques, plusieurs autres espèces du genre Cécropia ont des feuilles brillantes, y compris Cecropia téléalba en Colombie (Franco-Rosselli et Berg 1997 Kattan et Murcia 2012 ) et Cecropia telenitida dans les sections centrales et septentrionales de la cordillère des Andes (Franco-Rosselli et Berg 1997 ), et sont de bons candidats pour la cartographie avec la méthode U-net.

Considération pour la cartographie des espèces d'arbres

Des études récentes sur le dénombrement des arbres et l'identification des espèces avec un apprentissage en profondeur n'utilisent que des bandes RVB ((Li et al. 2017 Onishi et Ise 2018 ) et cet article). Pour les autres végétations vertes, les essences d'arbres et les grandes plantes, l'intérêt d'ajouter d'autres bandes multispectrales dans le modèle, sachant qu'il ajoutera un nombre important de paramètres au modèle et augmentera le temps de calcul, reste à explorer. En comparaison avec les récentes analyses d'images basées sur des objets pour identifier les espèces d'arbres dans les forêts (Clark et al. 2005 Warner et al. 2006 Feret et Asner 2013 Fassnacht et al. 2016 Ferreira et al. 2016 ), le principal avantage du U-net est qu'aucune délimitation individuelle préalable des cimes des arbres n'est nécessaire, tandis que son principal inconvénient est qu'elle nécessite beaucoup d'images d'apprentissage (dans notre cas entre 1 000 et 10 000). Pour créer l'échantillon pour la formation, il est nécessaire d'être en mesure d'identifier les espèces d'arbres dans l'image. Cela implique que les cibles ont une certaine taille et une réponse ou structure spectrale particulière. Nous vous recommandons également d'utiliser des images avec une résolution spatiale de 0,3 m. Dans notre région, la méthode sera testée avec d'autres espèces identifiables sur l'image VHR, comme les bambous ou les espèces en danger critique d'extinction. Araucaria angustifolia. Some tree species could also be mapped during the reproduction period, if the tree is visible from space when flowering, such as the species Tibouchina mutabilis in the Atlantic Forest. C. hololeuca is distributed across the Atlantic forest biome (Franco-Rosselli and Berg 1997 ), but for a species with a narrower distribution range, we might be able to fully describe its specific climatic envelope with its real occurrence data (He et al. 2015 ). Furthermore, the large majority of tropical forest tree species are locally very rare, with adult population sizes <1 per hectare (ter Steege et al. 2013 , 2015 ), so that it is difficult to derive population sizes with field surveys based on

1 ha plots. For those tree species clearly identifiable in imagery, the coordinates of all adults in a region could be used to guide botanical collections or for genetics analysis of parenting, for example. Given that information on widespread, precise locations of species is generally unobtainable from field studies, applying methods such as the one developed here could have great value in the urgent task of describing and mapping rare, poorly known, and potentially threatened tropical tree species (ter Steege et al. 2015 ).

Natural forest fragmentation and disturbance

Although we are still far from recognizing all the species, species such as C. hololeuca which describe the disturbance and early successional stage of the forests can be accurately mapped (Figure 11). Cecropia is a reliable indicator of short-term disturbance, since it may persist in the canopy from half a century to a century depending on the lifetime of the species (Zalamea et al. 2012 Guitet et al. 2018 ). Their mapping could help to assess and understand forest disturbances at regional scale, with information not accessible by another means for example, if disturbance was older than the first satellite observations, and this with only one very high resolution image. In the future, it could be interesting to map an end-succession species to improve the understanding of the successional stage of these endangered forest fragments. The index based on the distribution of species in the fragment revealed information that is not accessible from the classical fragment analysis, which is based on size, shape and connectivity of the fragments (Vogt et al. 2007 , 2009 Strassburg et al. 2016 ). For example, here, we show that fragments above 10 ha can present a high degree of disturbance (Figure 10). We have to acknowledge that the index disturbance works on a fragment scale and does not account for the diversity of forest physiognomy within a fragment for example, if the fragment contains both old growth forest and secondary forest. The largest fragment in the south-east, as shown in Figure 9, is crossed by roads and other human-made barriers, such as fences that are not detected below the tree cover thus, it is still likely that we underestimated forest fragmentation. As fragmentation is increasing over all tropical forests (Taubert et al. 2018 ), our index disturbance, in addition to the classical fragmentation analysis, can provide valuable information to guide the conservation of the Atlantic Rain Forest in particular and Neotropical forests in general.

Considerations for the processing

As shown in this study, automatic tropical forest mapping may be feasible in the near future, but there are still limitations from both the hardware and the model. The raster of one band of the full region at 0.3-m spatial resolution contains over 22 billion pixels. Consequently, the images must be processed in smaller tiles, which adds significant computational time to the analysis. Another limitation is that the geographical information of the original image is not conserved during the run of the model, because these models are still not designed for georeferenced imagery. The geographical information of the image must be saved before the run and added after the prediction, which adds computational time as data has to be written several times on the hard drive. To speed-up the predictions step, the model can be run on larger images than the image used for training. For example, the prediction were made from 640 × 640 pixels images, which was the maximum size supported by our GPU, while the models were trained with images of a maximum size of 256 × 256 pixels. Finally, the model required the use of a GPU with at least three Gigabytes of dedicated memory for both training and testing, which is not yet of standard installation in personal computers. In this study, the model ran on a GPU Nvidia K6000 of 2013 with 12 Gigabytes of dedicated memory and with a compute capacity of 3.5, and faster processing time might be expected with new generation of GPUs.

Considerations for generalization and scalability

The largest image produced by the Worldview-3 satellite covers 7336 km², 112 × 65.5 km, with the collecting scenario ‘Large area collect’ (DigitalGlobe, 2019 ). Due to this limitation, to cover a region larger than this size, several Worldview-3 images will be needed and, as Worldview satellites do not cover all the Earth at regular intervals, they will have different days, hours, solar and sensor angles. Consequently, the reflectance of targeted objects will vary between the images and new training samples will be necessary. Furthermore, forests can display different features. For example, if in one image forests contain Cecropia trees, and in the other they contain pink-flowering trees, each feature must be presented to the model for it to be able to predict pink trees and Cecropia trees as forest features. New training samples will have to be produced for new images but can be added to the first training set to train only one multiclass model for all images (and not one model per image or per feature). As the U-net model is scale dependent, a trained model at a defined resolution is not expected to work with another spatial resolution. Further work is needed to compare U-net performances for tree species and vegetation mapping with other convolutional neural networks that can handle the task of semantic labeling in very high resolution images (He et al. 2017 Maggiori et al. 2017 Huang et al. 2018 ).

Considerations for atmospheric corrections

Very thin clouds which are transparent and contain reflectance information of the ground targets (Bai et al. 2016 ) might be treated during data augmentation. Further analysis should be made to analyze and simulate the reflectance of the ground targets above the very thin cloud cover. Other reflectance variations due to sun-view angle effects could also be included in the data augmentation, as some of these effects have been studied for decades, such as the bidirectional reflectance characteristics of vegetation (Ranson et al. 1985 ). The simulation of atmospheric variations and sun-view angle effects on the reflectance during the data augmentation remains to be explored and is of primary importance for the development of deep learning methods for remote sensing.


Conclusion

Human movement and gully erosion are related to each other. Results of this study suggest that, for the Ethiopian Highlands, the more pathways develop, the more likely gullies are to occur in an area. If the cross profile of these gullies reaches dimensions of minimum 2 m depth and 2𠄳 m width, they obtain the characteristics of obstacles for movement of people. Consequently, humans will search for another pathway to continue moving and reach their destination while keeping the costs of movement as low as possible. This process will make their way longer when going around one or several topographical obstacles. When gullies result in deflection of pathways, this may lead to the creation of new gullies, subsequently forming a feedback mechanism between the two. Moreover, former decisions for least cost pathways on the basis of given topography might be revised when new topographical obstacles develop, potentially resulting in the decision to include formerly avoided topographical barriers into the new pathway. This may possibly result in a shorter but more difficult pathway than the preceding one. In the Ethiopian Highlands, this relationship potentially impacted commerce and the exchange of goods, as well as large scale accessibility for military and other purposes. From a socio-cultural perspective, gullies may have contributed to a more diversified and sub-divided population in the Ethiopian Highlands, one that is less susceptible to external influences and trends as compared with nearby areas. As concepts of physical movement changed dramatically in recent decades, the gully-movement feedback mechanism in Tigray serves as an early example of the effect humans may have had on their natural environment.


Author information

Tomasz Suchan and Sereina Rutschmann contributed equally to this work.

Affiliations

Department of Ecology and Evolution, University of Lausanne, 1015, Lausanne, Switzerland

Morgan Gueuning, Tomasz Suchan, Sereina Rutschmann, Jean-Luc Gattolliat, Camille Pitteloud, Michel Sartori & Nadir Alvarez

Competence Division for Research Technology and Knowledge Exchange, Method Development and Analytics, Agroscope, 8820, Wädenswil, Switzerland

Department of Biochemistry, Genetics and Immunology, University of Vigo, 36310, Vigo, Spain

Cantonal Museum of Zoology, Palais de Rumine, 1014, Lausanne, Switzerland

Jean-Luc Gattolliat & Michel Sartori

Plant Breeding Section, Faculty of Agriculture, Andalas University, 25163, Padang, West-Sumatera, Indonesia

Jamsari Jamsari & Al Ihsan Kamil

Institute of Terrestrial Ecosystems, ETH Zürich, Switzerland

Swiss Federal Research Institute WSL, Birmensdorf, Switzerland

Department of Life Sciences, Natural History Museum, Cromwell Road, London, SW7 5BD, United Kingdom

Department of Biological Sciences, Boise State University, 1910 University Drive, Boise, Idaho, 83725, USA

Zoologische Staatssammlung München, Münchhausenstr. 21, 81247, München, Germany

Natural History Museum of Geneva, 1 route de Malagnou, 1208, Geneva, Switzerland

W. Szafer Institute of Botany, Polish Academy of Sciences, ul. Lubicz 46, 31-512, Kraków, Poland

You can also search for this author in PubMed Google Scholar

You can also search for this author in PubMed Google Scholar

You can also search for this author in PubMed Google Scholar

You can also search for this author in PubMed Google Scholar

You can also search for this author in PubMed Google Scholar

You can also search for this author in PubMed Google Scholar

You can also search for this author in PubMed Google Scholar

You can also search for this author in PubMed Google Scholar

You can also search for this author in PubMed Google Scholar

You can also search for this author in PubMed Google Scholar

You can also search for this author in PubMed Google Scholar

Contributions

Research question and sampling were designed by N.A., M.S., J.L.G., M.B. and M.G. J.J., A.I.K., M.B. and M.G. organized and performed the sampling. Taxonomical identification was done by J.L.G., M.S. and M.G. C.P., T.S., N.A. and M.G. were involved in the library preparation and sequencing. Bioinformatics and statistical analyses were carried by T.S., N.A. and M.G. S.R. did the phylogenetic analyses as well as the corresponding figures. The main manuscript was written by N.A. and M.G. and all other authors reviewed the manuscript.

Corresponding authors


Graph model building and analysis

A necessary preliminary step for the connectivity analysis is to build a graph model of the proposed ecological corridors. First, the land cells that make up these corridors, identified as described in the previous section, are intersected with the original patches from the land cover map, producing a vector map, in which land patches are homogeneous from the point of view of land use codes. The node set shall correspond to this set of land patches. A spatial graph model is built by linking pairs of nodes when they correspond to pairs of adjacent patches on the map.

For this case study, the graph model built with this process has 6995 nodes and 17464 edges, organized in 18 connected components (the number of nodes in each component is reported in Table 1). Each component corresponds either to a single candidate corridor between Natura 2000 sites, or to a connected set of candidate corridors, which form multiple bridges to connect sites.

Method of analysis

The identification of cut nodes, i.e. those nodes that determine the separation of a connected component into two or more smaller components when removed, can be considered a first step in assessing the robustness of a corridor set and ranking critical patches, which may require further inspection.

While this seems straightforward enough, the identification of cut nodes turns out to be of little use by itself, as the method to build a graph model for a set of ecological corridors is such that cut nodes can be expected to be abundant by construction. In this study, out of 6995 nodes in the graph model, 569 are cut nodes (about 8.13%) clearly, it is not very helpful to have this number of cut nodes reported as corresponding to critical habitat patches. It can also be observed that the problem is only made worse by the fact that the land cover map has a large number of enclaves, i.e. patches that are topologically surrounded by another patch. Enclaves translate to leaf nodes in the graph model, so each patch surrounding one is counted as a cut node, even in situations where its removal does not cause an interruption of an ecological corridor in the underlying map. These cut nodes can be interpreted as noise, especially when the leaf node corresponds to a very small patch, which may be due to artifacts in the source spatial data.

These observations suggest that the identification of cut nodes has to be followed by the application of some criterion to rank cut nodes by priority, or to filter out those of little interest for land managers. For this purpose, the removal of each cut node is simulated, in order to record relevant measures corresponding to each node removal:

the number of additional connected components that result from removal of the node

the size of each new connected component.

Formally, let g ′ =(V ′ ,E ′ ) be a connected component of graph g, and let vV ′ be a cut node in the component g ′ . The removal of v results in the split of g ′ into n smaller components (G^_ = left (V'_, E'_ ight)) with k ∈ <0,1. n−1>, and n≥2. Choose indices such that |V0′|≥|V1′|≥. |Vn−1′|.

Define the additional component count of a cut node as

corresponding to the number of components that are added to the total for the graph when the cut node is removed and the second-size of a cut node as the size of the second-largest component it generates, that is,

This definition is such that the second-size attribute is 1 for a cut node if its removal results in the disconnection of one or more leaf nodes from a single larger component in this context, this is useful to identify cut nodes that are most likely to be noise, under the assumption that a disconnected leaf node may be an enclave due to artifacts in the original data.

Other measures associated to cut nodes can be considered. In this study, a normalized betweenness centrality index of each node will be calculated for inclusion in the definition of a combined score. Recall that the betweenness centrality index of a node v is defined as:

where σst(v) is the number of shortest paths from s à t that include v, et σst is the total number of shortest paths from s à t. This measure can be normalized to a scale from 0 to 1 by dividing the number of node pairs excluding v. For simple unweighted graphs, this is given by

where N=|V|. The normalized version of the betweenness centrality will be used in this study.

Lastly, it may also be of interest to make use of additional measures, not based on graph properties. One such example is the minimum geographical distance from a Natura 2000 site. Formally, if S is the set of Natura 2000 sites, this measure is given by

where d expresses the geographical distance, calculated between boundaries of land patches.

The entire process of ranking nodes can be summarized as follows:

build a graph model, by instantiating a node for each homogeneous patch, and connecting nodes corresponding to adjacent patches on the map

identify the set of connected components in the graph model, treating each component separately in the remainder of the process

for each component, identify its set of cut nodes, and note its geographical distance from a site

perform the removal of each single cut node, noting the number of additional components resulting from the split (CUNE) and their second-size (CS) as attributes of the cut node

rank patches according to one of their attributes, or a combination of these attributes, complex network indices (such as the betweenness centrality), and other measures (such as the distance of the patch from a nature preservation site).

For this study, steps 1 and 5 were performed with custom Python scripts developed for use within the QGIS software suite (QGIS Development Team 2009) code for the remaining steps was implemented in Java, using the open source library JGraphT for graph representation and analysis Footnote 1 . The connectivity inspector included within JGraphT was used for the identification of connected components (steps 2 and 4), while the biconnectivity inspector was used to identify cut nodes (step 3). QGIS was also used to export maps as images. Calculations of the betweenness centrality index were performed with Cytoscape version 3.6.0 (Shannon et al. 2003). Geographical distances (as part of step 3) were calculated by importing data into a SQLite database and using the Spatialite extension for spatial analysis. All distances are calculated on map projections, and are to be treated as an approximation for this reason however, at this scale, the degree of distortion can be considered small enough to be negligible.

Choice of a combined score

A discussion of the distribution of the additional component count et second-size attributes will be helpful in supporting the choice of a combined score for the ranking of patches.

Table 2 reports the occurrences of additional component counts for all cut nodes in the considered area in the Metropolitan City of Cagliari. A majority of cut nodes (372, i.e. over 65% of the total number of cut nodes) split their corresponding component into two new ones (i.e. 1 additional component), while 108 cut nodes split their component into three parts (2 additional components). After these, the number of occurrences of higher figures quickly drops the statistical distribution is visualized in Fig. 2. The percentile score reported in the table is discussed later.

Statistical distribution of the additional component count resulting from the removal of each cut node

The second-size attribute behaves similarly. There are 338 cut nodes (over 59%) which only disconnect leaf nodes if removed, 50 that disconnect pairs of nodes, etc. (see Table 3), with an even steeper drop for the number of occurrences of sizes larger than 1. The largest second-size value with at least two occurrences is 57, and the global maximum is 810. The complete distribution is visualized in Fig. 3.

Statistical distribution of size of second-largest component resulting from the removal of each cut node

An attempt to summarize the considered attributes into a single value could be made by computing a summation or a linear combination. However, as the measures are not in the same scale of values, a problem lies in the fact that one of the measures could dominate the other ones. To address this issue with finding a meaningful aggregated score value to rank cut nodes and assess priorities, it is possible to make use of a combination of percentiles, so that each measure is brought to a comparable scale from 0 to 100.

Multiple definitions and interpretations of percentile scores exist. Since the goal is to filter out patches with the smallest possible values for the component count and component size measures, the interpretation that was selected for this study is the percentage of values that are strictly less than the measure Footnote 2 . This excludes 100 as a possible value, while assigning a score of 0 for patches with the smallest value (see Tables 2 and 3), avoiding a contribution to the combined score, which is a desirable behavior in this context. At the same time, there is no significant difference in the percentile score of the top values, regardless of the actual difference in the raw values, and this is also consistent with the goal of identifying patches with abnormally high attribute values, without giving too much importance to the actual value.

Résultats

An example of visualization of results is provided for a portion of the area being analyzed in Figs. 4, 5 and 6. In each map, the shades of color are darker for patches corresponding to cut nodes with higher scores or attribute values, with patches marked in grey not corresponding to a cut node. In the remainder of this section, the component lying closest to the North-West corner of the represented area is used as an example of how results can be interpreted. This is the sixth-largest component in the study, with 298 nodes, and 13 cut nodes.

A darker shade represents a higher count of components resulting from the removal of a cut node


Voir la vidéo: Qgis Tutorial 132: Création dune matrice de distance - méthode 1