Suite

Attribution d'un score au raster en fonction du chevauchement des cellules avec d'autres valeurs de raster et de champ

Attribution d'un score au raster en fonction du chevauchement des cellules avec d'autres valeurs de raster et de champ


J'ai un ensemble de rasters auxquels j'ai attribué des scores individuellement (notés principalement en fonction des valeurs d'autres champs). L'échelle de notation est la même pour tous les rasters, mais les facteurs qui déterminent la valeur du score diffèrent pour chaque raster.

J'essaie de trouver la meilleure méthode pour attribuer un score à l'un des rasters, appelez-le raster1.

Si field1 (un attribut de raster 1) est < 70 et que raster1 chevauche raster2, alors affectez la valeur x à raster1.

Je n'essaie pas de créer un nouveau raster, je veux juste identifier les cellules de raster1 qui se chevauchent avec raster2 et attribuer une valeur à ces cellules, en supposant qu'elles répondent également à l'autre paramètre (ci-dessus). Faire un ajout de superposition de raster identifierait les cellules qui se chevauchent, mais je ne sais pas comment j'utiliserais cela comme identificateur efficacement.


Comment fonctionne la superposition pondérée

Comme pour toute analyse de superposition, dans l'analyse de superposition pondérée, vous devez définir le problème, diviser le modèle en sous-modèles et identifier les couches en entrée.

Étant donné que les couches de critères d'entrée seront dans différents systèmes de numérotation avec des plages différentes, pour les combiner en une seule analyse, chaque cellule de chaque critère doit être reclassée dans une échelle de préférence commune telle que 1 à 10, 10 étant la plus favorable. Une préférence attribuée sur l'échelle commune implique la préférence du phénomène pour le critère. Les valeurs de préférence sont sur une échelle relative. Autrement dit, une préférence de 10 est deux fois plus préférée qu'une préférence de 5.

Les valeurs de préférence doivent non seulement être attribuées les unes par rapport aux autres au sein de la couche, mais doivent avoir la même signification entre les couches. Par exemple, si un emplacement pour un critère se voit attribuer une préférence de 5, il aura la même influence sur le phénomène qu'un 5 dans un deuxième critère.

Par exemple, dans un modèle d'adéquation du logement simple, vous pouvez avoir trois critères d'entrée : pente, aspect et distance aux routes. Les pentes sont reclassées sur une échelle de 1 à 10, la plus plate étant la moins coûteuse : elles sont donc les plus favorables et se voient attribuer les valeurs les plus élevées. Au fur et à mesure que les pentes deviennent plus raides, on leur attribue des valeurs décroissantes, les pentes les plus raides se voyant attribuer un 1. Vous effectuez le même processus de reclassement à l'échelle de 1 à 10 pour l'exposition, les aspects les plus favorables, en l'occurrence les plus au sud, étant attribué les valeurs les plus élevées. Le même processus de reclassement est appliqué au critère de distance aux routes. Les emplacements plus proches des routes sont plus favorables car ils sont moins coûteux à construire car ils ont un accès plus facile à l'électricité et nécessitent des allées plus courtes. Un emplacement affecté d'une valeur d'aptitude de 5 sur la couche de pente reclassée sera deux fois plus coûteux à construire qu'un emplacement affecté d'une valeur de 10. Un emplacement affecté d'une aptitude de 5 sur la couche de pente reclassée aura le même coût qu'un 5 affecté sur la couche reclassée distance aux routes.

Chacun des critères de l'analyse de superposition pondérée peut ne pas avoir la même importance. Vous pouvez pondérer les critères importants plus que les autres critères. Par exemple, dans notre exemple de modèle d'adéquation du logement, vous pourriez décider, à des fins de conservation à long terme, que les meilleurs aspects sont plus importants que les coûts à court terme associés aux critères de pente et de distance aux routes. Par conséquent, vous pouvez pondérer les valeurs d'aspect comme deux fois plus importantes que les critères de pente et de distance aux routes.

Les critères d'entrée sont multipliés par les poids puis additionnés. Par exemple, dans le modèle d'adéquation du logement, l'aspect est multiplié par 2 et les trois critères sont additionnés, ou représentés d'une autre manière, (2 * aspect) + pente + distance aux routes.

La dernière étape du processus d'analyse de superposition consiste à valider le modèle pour s'assurer que ce que le modèle indique se trouve sur un site est bien là. Une fois le modèle validé, un site est sélectionné et la maison est construite.


Modèles de données raster (modèle Propriétés de uniformément espacés cellules de grille)

Motivation historique

Concept général d'analyse d'adéquation (c.-à-d. utilisation appropriée des terres en fonction des caractéristiques des terres)
  • très prolifique (1700 projets en carrière) et influent
  • aidé à créer le système des parcs nationaux des États-Unis
  • écrit le premier « Plan national » prônant les zones de conservation ainsi que le développement
  • planification basée sur les ressources (les caractéristiques naturelles devraient influencer la forme de la ville) « plusieurs centres basés sur les quartiers déterminés par les ressources disponibles »
  • importance des parcs : « les villes les mieux conçues ont environ un huitième de leur superficie en parcs et environ un acre pour 75 habitants. (Manning 1919)
  • Différencié du « mouvement City Beautiful » qui mettait l'accent sur les centres civiques monumentaux et les bâtiments publics
Comment mettre en œuvre ces idées dans un monde prénumérique ? (pas facile!)
      • ressources naturelles cartographiées par sondage (pas de photos aériennes !)
      • tables lumineuses utilisées et traçage manuel pour l'analyse spatiale

      • les caractéristiques peuvent être « bonnes », auquel cas les zones de chevauchement sont « appropriées »
      • les caractéristiques peuvent être « mauvaises », auquel cas les zones de chevauchement sont « inappropriées »
      • les caractéristiques peuvent être « moyennement bonnes » ou « plutôt mauvaises » pour les cas intermédiaires

      Les idées et méthodes de Manning revisitées et popularisées dans les années 1960 par Ian McHarg (Penn) et Carl Steinitz (Harvard)

      Pourquoi ne pas faire des superpositions avec Vector Model ?
      • Le "Problème de ruban" ne s'adapte pas bien
        • Dans une analyse avec des dizaines de couches, peut passer autant de temps sur le nettoyage que sur l'analyse
        • Le modèle de données vectorielles, en particulier avec les polygones, est complexe (la superposition "simple" nécessite de nombreux calculs)
        • Le modèle de données raster est une représentation très efficace à l'intérieur des ordinateurs numériques

        Modèle de données raster

        • Orthophotos (2m x 2m 0.5m x 0.5m)
          • La valeur de la cellule est la luminosité des pixels dans l'orthophoto
          • C'est la représentation par défaut
          • A des restrictions de nommage étranges (basées sur Fortran) : 13 caractères + trait de soulignement
          • Peut également utiliser "geoTIFF" simplement en spécifiant l'extension (sortie : this_is_my_long_descriptive_filename.tif)
          • Peut afficher les rasters dans la version de base, mais pas manipuler

          Surfaces hydrologiquement correctes : Topo à Raster

          La fonction Topo to Raster (TopoGrid dans Map Algebra) est une méthode d'interpolation spécialement conçue pour la création de modèles d'élévation numériques (MNE) hydrologiquement corrects. Topo to Raster est basé sur le programme ANUDEM développé par Michael Hutchinson (1988, 1989). Voir Hutchinson et Dowling (1991) pour un exemple d'application substantielle d'ANUDEM et pour des références supplémentaires associées. Un bref résumé d'ANUDEM et de quelques applications est donné dans Hutchinson (1993).

          Topo to Raster interpole les valeurs d'altitude pour un raster, en imposant des contraintes qui garantissent :

          • Un ouvrage de drainage connecté
          • Représentation correcte des crêtes et des ruisseaux à partir des données de contour d'entrée

          Topo to Raster est le seul interpolateur ArcGIS spécialement conçu pour fonctionner intelligemment avec les entrées de contour.

          Les sections suivantes fournissent des informations supplémentaires sur le processus d'interpolation et des conseils pour tirer le meilleur parti de la fonction Topo to Raster.


          Le processus d'interpolation

          La procédure d'interpolation a été conçue pour tirer parti des types de données d'entrée couramment disponibles et des caractéristiques connues des surfaces d'élévation. La méthode utilise une technique d'interpolation aux différences finies itérative. Il est optimisé pour avoir l'efficacité de calcul des méthodes d'interpolation locale telles que l'interpolation pondérée en distance inverse, sans perdre la continuité de surface des méthodes d'interpolation globale, telles que le krigeage et la spline. Il s'agit essentiellement d'une technique de spline à plaque mince discrétisée (Wahba, 1990), dans laquelle la pénalité de rugosité a été modifiée pour permettre au MNT ajusté de suivre les changements brusques de terrain, tels que les ruisseaux et les crêtes.

          L'eau est la principale force érosive qui détermine la forme générale de la plupart des paysages. Pour cette raison, la plupart des paysages ont de nombreux sommets de collines (maximums locaux) et peu de puits (minimums locaux), ce qui entraîne un modèle de drainage connecté. Topo to Raster utilise ces connaissances sur les surfaces et impose des contraintes sur le processus d'interpolation qui se traduisent par une structure de drainage connectée et une représentation correcte des crêtes et des cours d'eau. Cette condition de drainage imposée produit des surfaces plus précises avec moins de données d'entrée. La quantité de données d'entrée peut être jusqu'à un ordre de grandeur inférieur à ce qui est normalement requis pour décrire de manière adéquate une surface avec des contours numérisés, minimisant davantage le coût d'obtention de MNT fiables. La condition de drainage global élimine également pratiquement tout besoin d'édition ou de post-traitement pour supprimer les éviers parasites dans la surface générée.

          Le programme agit de manière conservatrice en supprimant les puits et n'imposera pas les conditions de drainage dans des emplacements qui contrediraient les données d'élévation d'entrée. Ces emplacements apparaissent normalement dans le fichier de diagnostic en tant que récepteurs. Utilisez ces informations pour corriger les erreurs de données, en particulier lors du traitement de grands ensembles de données.

          Le processus d'exécution du drainage

          L'objectif du processus d'application du drainage est de supprimer tous les points de puits dans le MNT de sortie qui n'ont pas été identifiés comme des puits dans la couverture de puits d'entrée. Le programme suppose que tous les puits non identifiés sont des erreurs, car les puits sont généralement rares dans les paysages naturels (Goodchild et Mark, 1987).

          L'algorithme d'application du drainage tente d'éliminer les puits parasites en modifiant le MNT, en déduisant les lignes de drainage via le point de selle le plus bas dans la zone de drainage entourant chaque puits parasite. Étant donné que le dégagement des puits est soumis à la tolérance d'élévation, le programme est prudent lorsqu'il tente de nettoyer les puits parasites. En d'autres termes, il n'efface pas les puits parasites qui contrediraient les données d'altitude d'entrée par plus d'une tolérance d'entrée.

          L'application du drainage peut également être complétée par l'incorporation de données sur les lignes de cours d'eau. Ceci est utile lorsqu'un placement plus précis des flux est requis.

          L'application de drainage peut être désactivée, auquel cas le processus de nettoyage de l'évier est ignoré. Cela peut être utile si vous disposez de données de contour autre que l'altitude, par exemple la température, pour laquelle vous souhaitez créer une surface.

          Utilisation des données de contour

          Les contours ont toujours été la méthode la plus courante pour le stockage et la présentation des informations d'altitude. Malheureusement, cette méthode est aussi la plus difficile à utiliser correctement avec les techniques d'interpolation générales. L'inconvénient réside dans le sous-échantillonnage des informations entre les contours, notamment dans les zones de faible relief.

          Au début du processus d'interpolation, Topo to Raster utilise les informations inhérentes aux courbes de niveau pour construire un modèle de drainage généralisé. En identifiant les zones de courbure locale maximale dans chaque contour, les zones de pente la plus raide sont identifiées et un réseau de ruisseaux et de crêtes est créé (Hutchinson, 1988). Ces informations sont utilisées pour garantir les propriétés hydrogéomorphiques appropriées du MNT de sortie et peuvent également être utilisées pour vérifier l'exactitude du MNT de sortie.

          Une fois que la morphologie générale de la surface a été déterminée, les données de contour sont également utilisées dans l'interpolation des valeurs d'altitude à chaque cellule.

          Lorsque les données de contour sont utilisées pour interpoler les informations d'altitude, toutes les données de contour sont lues et généralisées. Un maximum de 50 points de données sont lus à partir de ces contours dans chaque cellule. A la résolution finale, un seul point critique est utilisé pour chaque cellule. Pour cette raison, avoir une densité de contours avec plusieurs contours traversant des cellules de sortie est redondant.

          Interpolation multirésolution

          Ce programme utilise une méthode d'interpolation multirésolution, en commençant par un raster grossier et en progressant vers la résolution la plus fine spécifiée par l'utilisateur. A chaque résolution, les conditions de drainage sont appliquées, une interpolation effectuée et le nombre de puits restants est enregistré dans le fichier de diagnostic.


          Tirer le meilleur parti de Topo to Raster

          Vous trouverez ci-dessous une variété de sujets d'intérêt si vous souhaitez maximiser les ressources disponibles pour créer les meilleurs DEM possibles.

          Création et mosaïquage de rasters adjacents

          Parfois, il sera nécessaire de créer des DEM à partir de tuiles adjacentes de données d'entrée. Cela se produit généralement lorsque les jeux de données d'entrée sont dérivés d'une série de feuilles de carte ou lorsque les données d'entrée doivent être traitées en plusieurs parties.

          Le processus d'interpolation Topo vers raster utilise les données d'entrée des zones environnantes pour définir la morphologie et le drainage de la surface, puis interpole les valeurs de sortie. Pour faire les prédictions les plus précises aux bords de la zone d'intérêt, l'étendue des ensembles de données d'entrée doit être supérieure à la zone d'intérêt. L'option Marge fournit une méthode pour rogner les bords des MNT de sortie en fonction d'une distance spécifiée par l'utilisateur.

          Même avec la précaution ci-dessus, les bords du DEM de sortie peuvent ne pas être aussi fiables que le reste de l'ensemble de données. Sans la précaution ci-dessus, les bords de l'ensemble de données seraient interpolés avec deux fois moins d'informations. En raison du manque de fiabilité des bords dans les DEM, lorsque plusieurs DEM en sortie doivent être combinés en un seul raster, vous devez définir une étendue plus grande pour chacun des DEM en sortie afin qu'ils prédisent dans les zones adjacentes, chevauchant quelques cellules avec un un autre. Sans ce chevauchement, lors de la fusion des MNT de sortie, les bords peuvent ne pas être lisses.

          Ainsi, lors de la combinaison de plusieurs DEM de sortie de Topo vers Raster :

          • L'étendue de sortie pour chaque DEM doit être de quelques cellules plus large que les zones d'intérêt, de sorte qu'il y aura un certain chevauchement entre les DEM lorsqu'ils seront fusionnés.
          • L'étendue des jeux de données en entrée de chaque interpolation Topo vers raster doit être encore plus grande que la zone d'intérêt accrue afin que les contours puissent être prédits aussi précisément que possible.

          Lorsque les DEM ont été créés, ils peuvent être combinés au mieux à l'aide de l'outil Mosaic dans la boîte à outils Data Management dans le géotraitement ou de la fonction Mosaic dans Map Algebra. Cette fonction fournit des options pour gérer les zones qui se chevauchent afin de lisser la transition entre les jeux de données.

          Évaluation de la sortie

          Toutes les surfaces créées doivent être évaluées pour s'assurer que les données et les paramètres fournis au programme ont abouti à des représentations réalistes de la surface. Il existe de nombreuses façons d'évaluer la qualité d'une surface de sortie en fonction du type d'entrée disponible pour créer la surface.

          L'évaluation la plus courante consiste à créer des contours à partir de la nouvelle surface et à les comparer aux données de contour d'entrée. Il est préférable de créer ces nouveaux contours à la moitié de l'intervalle de contour d'origine pour examiner les résultats entre les contours. Dessiner les contours d'origine et les contours nouvellement créés les uns sur les autres peut aider à identifier les erreurs d'interpolation. Les contours peuvent être générés avec la fonction Contour.

          Une autre méthode de comparaison visuelle consiste à comparer l'ensemble de données de drainage de sortie facultatif avec des cours d'eau et des crêtes connus. L'ensemble de données sur le drainage contient les cours d'eau et les crêtes qui ont été générés par le programme pendant le processus d'application du drainage. Ces cours d'eau et crêtes devraient coïncider avec les cours d'eau et crêtes connus dans la région. Si un ensemble de données de flux a été utilisé comme entrée, les flux de sortie devraient presque parfaitement recouvrir les flux d'entrée, bien qu'ils puissent être un peu plus généralisés.

          Une méthode courante pour évaluer la qualité d'une surface générée consiste à retenir un pourcentage des données d'entrée du processus d'interpolation. Après avoir généré la surface, la hauteur de ces points connus peut être soustraite de la surface générée pour examiner à quel point la nouvelle surface représente la vraie surface. Ces différences peuvent être utilisées pour calculer une mesure d'erreur pour la surface, telle que l'erreur quadratique moyenne.

          Le fichier de diagnostic créé peut être utilisé pour évaluer l'efficacité avec laquelle les paramètres de tolérance effacent les puits dans les données d'entrée. La diminution des valeurs des tolérances peut faire en sorte que le programme se comporte de manière plus conservatrice lors de la suppression des puits.

          Biaisage des contours

          Il y a un biais mineur dans l'algorithme d'interpolation qui fait que les contours d'entrée ont un effet plus fort sur la surface de sortie au niveau du contour. Ce biais peut entraîner un léger aplatissement de la surface de sortie lorsqu'elle traverse le contour. Cela peut contribuer à des résultats trompeurs lors du calcul de la courbure du profil de la surface de sortie, mais n'est autrement pas perceptible.


          Références topo vers raster

          Goodchild, M. F. et D. M. Mark. 1987. La nature fractale des phénomènes géographiques. Annales de l'Association des géographes américains . 77 (2) : 265-278.

          Hutchinson, M.F. 1988. Calcul de modèles numériques d'élévation hydrologiquement valables. Communication présentée au troisième symposium international sur la gestion des données spatiales à Sydney, Australie.

          Hutchinson, M.F. 1989. Une nouvelle procédure pour le maillage des données d'élévation et de ligne de courant avec suppression automatique des fosses parasites. Journal d'hydrologie 106 : 211-232.

          Hutchinson, M. F. et Dowling, T. I. 1991. Une évaluation hydrologique continentale d'un nouveau modèle d'élévation numérique basé sur une grille de l'Australie. Processus hydrologiques 5: 45-58.

          Hutchinson, M. F. 1993. Développement d'un DEM à l'échelle du continent avec des applications à l'analyse du terrain et du climat. Dans Modélisation environnementale avec SIG, éd. M.F. Goodchild et al., 392–8211399. New York : Oxford University Press.

          Hutchinson, M. F. 1996. Une approche localement adaptative de l'interpolation des modèles altimétriques numériques. Dans Actes, troisième conférence/atelier international sur l'intégration des SIG et de la modélisation environnementale. Santa Barbara, Californie : Centre national d'information et d'analyse géographiques. Voir : http://www.ncgia.ucsb.edu/conf/SANTA_FE_CD-ROM/sf_papers/hutchinson_michael_dem/local.html

          Wahba, G. 1990. Modèles spline pour les données d'observation. Article présenté à la série de conférences régionales CBMS-NSF en mathématiques appliquées. Philadelphie : Soc. Ind. Appl. Mathématiques.


          Un algorithme efficace pour l'attribution de la direction du flux sur des surfaces planes dans les MNT raster basé sur la transformation de distance

          Les surfaces planes ou les zones sans gradient local sont des types généraux de terrain dans les modèles numériques d'élévation (MNE) raster. Lorsqu'un DEM est utilisé pour une analyse hydrologique automatisée, il est nécessaire d'attribuer des directions d'écoulement sur des surfaces planes. Cet article présente un algorithme amélioré pour attribuer des directions d'écoulement sur des surfaces planes qui s'appuie sur des travaux antérieurs et offre des améliorations d'efficacité. L'algorithme amélioré utilise la méthode de transformation de distance pour calculer les valeurs de distance des cellules sur des surfaces planes vers un terrain plus bas et loin d'un terrain plus élevé, ce qui peut remplacer le processus récursif de l'algorithme précédent par un processus linéaire et réduire l'accès aléatoire aux données. De plus, l'algorithme amélioré attribue des poids avec des valeurs et des signes différents aux deux valeurs de distance pour garantir que toutes les surfaces planes sont drainées, ce qui évite d'avoir à étiqueter chaque surface plane à l'aide de l'algorithme de remplissage des travaux antérieurs. Des comparaisons de vitesse indiquent que l'algorithme amélioré est plus efficace pour attribuer des directions d'écoulement sur des surfaces planes.

          Ceci est un aperçu du contenu de l'abonnement, accessible via votre institution.


          Analyse géospatiale et environnementale

          Appliquez vos connaissances SIG dans ce cours sur l'analyse géospatiale, en vous concentrant sur les outils d'analyse, les données 3D, l'utilisation de rasters, de projections et de variables d'environnement. Tout au long des quatre semaines de ce cours, nous travaillerons ensemble sur un projet - quelque chose d'unique à ce cours - de la conception du projet à la récupération des données, à la gestion et au traitement initiaux des données et enfin à nos produits d'analyse. Dans ce cours, vous apprendrez les principes fondamentaux de l'analyse géospatiale et environnementale au cours de quatre modules d'une semaine : Semaine 1 : Visitez ArcToolbox et apprenez à utiliser les outils d'analyse géospatiale courants intégrés à ArcGIS Semaine 2 : Acquérir une compréhension pratique des modèles de données raster : symboliser , reprojetez, superposez et évaluez les rasters. Faites un détour par les modèles de données 3D et l'interpolation des observations en surfaces et rasters 3D Semaine 3 : Approfondissez les projections et les systèmes de coordonnées, qui sont à la base de tous les SIG. Apprenez à utiliser les variables d'environnement pour contraindre vos analyses et obtenir des produits de données de meilleure qualité. Semaine 4 : Développez vos connaissances en symbologie. Apprenez à afficher visuellement vos données en les classant dans des regroupements logiques, puis en les symbolisant sur votre carte. Suivez l'analyse géospatiale et environnementale en tant que cours autonome ou dans le cadre de la spécialisation en systèmes d'information géographique (SIG). Vous devez avoir une expérience équivalente à celle des premier et deuxième cours de cette spécialisation, "Fundamentals of GIS" et "GIS Data Formats, Design, and Quality", avant de suivre ce cours. En complétant ce troisième cours de spécialisation, vous acquerrez les compétences nécessaires pour réussir le programme complet.

          Ецензии

          Des informations utiles sur l'analyse spatiale, les rasters, les systèmes de coordonnées. Et une visite guidée sur l'approche d'un projet personnel. Les cours sont bien structurés et le professeur facile à suivre.

          J'ai apprécié cette partie la plupart des trois cours de la spécialisation SIG pour lesquels j'ai obtenu des certificats. Merci au Dr Nick Santos pour son enseignement interactif, ses devoirs et ses projets.

          Dans ce troisième module, nous allons commencer par parler de toutes les projections. Si vous avez suivi la spécialisation avec nous, vous vous souviendrez peut-être que nous en avons discuté dans le premier cours, mais ce sera un aperçu approfondi et plus technique des projections et des systèmes de coordonnées. Dans la seconde moitié du module, nous apprendrons les variables d'environnement. À la fin de ce module, vous serez capable de décrire les systèmes de coordonnées, les systèmes de coordonnées projetés, de comparer les avantages et les inconvénients de différentes projections et de définir ce que sont les variables d'environnement et à quoi elles servent. Vous aurez également la possibilité de commencer réellement à analyser vos données dans le projet de cours.

          Реподаватели

          Nick Santos

          Екст идео

          [MUSIQUE] Re-bonjour et bienvenue à nouveau. Dans cette conférence, je vais vous montrer trois nouveaux paramètres d'environnement : la taille de la cellule, le masque et les paramètres d'environnement Snap Raster qui fonctionnent avec les données raster. D'après mon expérience, ils vont bien ensemble et ils sont généralement nécessaires pour différents types d'analyse raster. Tout d'abord, vous remarquerez que nous utilisons enfin de nouvelles données ici par rapport aux trois dernières conférences. Nous utilisons le même modèle d'élévation numérique que nous utilisions. Mais au lieu d'utiliser des données d'entités avec, nous avons maintenant un raster en arrière-plan ici qui est un autre raster de couverture terrestre historique pour 1966. Et la raison pour laquelle je l'utilise est parce qu'il a une taille de cellule de deux cent cinquante mètres où notre modèle numérique d'élévation est à une taille de cellule de trente mètres. Vous devriez probablement être en mesure de voir cela à partir de votre vidéo ici où cela semble très lisse et ici nous pouvons voir les bords de cette liste ici. Si je devais zoomer sur la résolution de la liste où un pixel de la liste était un pixel sur mon écran. Nous avons zoomé loin ici. Mais ensuite, si je zoome sur cette résolution raster, j'obtiens un zoom où je ne peux même plus voir l'autre raster, donc des tailles de cellules très différentes ici. J'ai fait un zoom arrière sur ce calque. Imaginez maintenant un problème dans lequel je souhaite travailler avec le raster de couverture terrestre et le raster de modèle d'élévation numérique dans la calculatrice. Et ce modèle d'élévation numérique a déjà été efficacement découpé, il a été extrait dans une zone d'intérêt qui est effectivement circulaire ici. Et je veux seulement analyser les données dans cette zone par opposition à toute la zone ici dans cet investisseur régional de la couverture terrestre. Donc, si je fais un zoom arrière sur la couche, je dois trouver un moyen de faire en sorte que cette liste de noyaux terrestres et ce modèle d'élévation numérique se conforment et vraiment, c'est la zone qui m'intéresse. Donc, je n'ai pas seulement besoin de les amener à conforme, mais j'ai aussi besoin qu'ils analysent simplement la zone dans ce modèle d'élévation numérique. Donc, la question que je me pose est de savoir où se trouve une zone d'espace ouvert, cette zone verte qui a une valeur huit dans la liste de couverture du sol qui se trouve dans la zone du modèle d'élévation numérique ici. Eh bien, je peux le faire, avec un simple Extract By Attributes ici. Et si je vais à Input Roster, je peux sélectionner Blank Cover Roster et je peux dire que la valeur de la clause Where est égale à huit. Et cela extraira toute la valeur des huit cellules du raster vers un nouveau raster et laissera tout le reste comme nul. Mais si je veux que ce soit dans cette zone du niveau d'élévation, je devrais aller dans les paramètres d'environnement. Je vais maintenant définir deux paramètres particuliers. Tout d'abord, dans l'analyse raster, je vais définir le masque sur le modèle d'élévation numérique de Leavenworth. Un masque peut être familier à certains d'entre vous d'autres disciplines de traitement d'images, mais pas à beaucoup d'entre vous. Masque vous permet de dire n'importe où dans les pixels de ce calque de masque, rendez-moi des pixels dans le calque d'analyse. Partout où ce n'est pas une image ou il y a des valeurs nulles, je ne veux pas que ces données soient traitées. Ne me le rendez pas, sauf pour ces valeurs nulles. Et vous pouvez fournir un masque raster ou un masque polygonal qui sera converti en raster, et si les polygones ne sont pas complètement connectés si vous avez un espace ouvert entre eux, cela ne vous donnera toujours que les pixels qui se chevauchent. le polygone. Dans le même temps, je vais également définir à nouveau l'étendue du traitement sur le même modèle que le modèle d'élévation numérique, car sinon, même avec le masque, il remplira le reste de la zone avec des valeurs nulles. Tout le chemin jusqu'à l'étendue d'origine des listes d'occupation du sol. Donc ça prend du temps, ça prend de l'espace disque, je ne veux pas le faire. Je vais donc également définir l'étendue du traitement. Et puis juste pour vous montrer un autre paramètre d'environnement en même temps, je vais définir la taille de la cellule pour l'analyse de la liste. Normalement, il est intelligent et indique les entrées maximales, ce qui me donne le calcul le moins précis possible. C'est en fait le plus précis. Mais c'est le moins de cellules raster. Il vous donne le raster le plus grossier impliqué dans une analyse en tant que taille de cellule. Parce que c'est vraiment le facteur limitant de vos analyses. Vous ne pouvez pas vraiment être plus précis que ce raster. Même si vos autres données sont à une résolution plus élevée. Ainsi, il choisit généralement la plus grande taille de cellule. Les entrées maximales. Mais dans ce cas, nous voulons rééchantillonner la liste en même temps, nous allons donc définir le même niveau d'élévation de Leavenworth, puis cliquez sur OK. Maintenant, je veux d'abord confirmer qu'il respecte ces paramètres d'environnement. Je vais donc aller à l'aide de l'outil et cela respecte la taille de la cellule. Il honore l'étendue, et il honore le masque. Donc, je devrais pouvoir utiliser tous ces paramètres d'environnement dans ce calcul ici. Et j'appellerai cet espace ouvert dans la région de Leavenworth et j'appuierai sur OK pour l'exécuter. Il va s'exécuter, comme d'habitude, et il me redonne ces valeurs en tant que nouveau raster et si je ne le laisse que allumé, je peux voir que 1, il ne m'a renvoyé que des données et un aperçu de ce raster deux. C'est à la nouvelle taille de cellule, je peux le voir d'ici. Même si c'est encore volumineux, parce que la liste de couverture terrestre est volumineuse. Je peux voir d'ici qu'il est à cette taille de cellule, qui était en fait à dix mètres, pas trente, parce qu'il a ce bord vraiment lisse. Mais quand je zoome, je peux voir qu'il y a les minuscules morceaux de la liste ici, au lieu de cela, la taille de 250 mètres étant en quelque sorte un vestige de l'original, il y a encore un tas de cellules. Mais je peux voir qu'il y a beaucoup de cellules là-dedans avec l'inspecteur de pixels. Donc, ces paramètres d'environnement sont sortis comme le masque. Et comme la taille de la cellule. Mais, j'ai peut-être encore un petit problème. Si je voulais prendre cela dans la calculatrice raster, mes cellules ne s'alignent pas. Je reçois ces bords étranges ici. Avec l'inspecteur de pixels, je peux le voir. Je chevauche partiellement un tas d'autres cellules. Et si je voulais les intégrer au calculateur de liste pour une analyse plus approfondie avec le modèle d'ovation numérique. Peut-être que je voulais sous-ensemble l'espace ouvert qui est au-dessus ou en dessous d'une certaine altitude pour l'analyse d'un habitat spécifique ou quelque chose. Ou pour trouver un emplacement de parc que je voudrais construire. Étant donné que ces cellules ne s'alignent pas, notre analyse est beaucoup plus imprécise. Et donc ce que je veux faire, c'est aussi définir un raster d'accrochage. Et vous pouvez penser à une sorte de raster instantané viscéral. La façon dont il parle. Comme un claquement. Comme si le coin de ces cellules finissait par se casser. Pour qu'elles s'attachent au coin des autres cellules raster et réalignent complètement le raster en tant que sortie. Alors exécutons à nouveau cet outil. J'irai aux résultats et nous l'exécuterons tel quel. Et je vais le renommer puisqu'il a déjà la sortie, et je vais juste ajouter un snap à la fin. Et puis dans les environnements, notre étendue de traitement est déjà définie parce que nous l'avons fait avant et sous l'analyse raster, nous avons notre masque auto-dimensionné. Également dans l'étendue du traitement, nous avons un raster d'accrochage. Et nous pouvons spécifier n'importe quel raster sur lequel aligner les coins de nos cellules. Un clic ici, Leavenworth Digital Elevation Model UTM. Et je n'ai pas besoin d'utiliser le raster d'accrochage sur quelque chose où je vais réellement aligner les tailles de cellules. Mais c'est généralement bon. Si je faisais un raster d'accrochage où je n'alignais pas non plus les tailles de cellule, cela alignerait en fait le coin inférieur gauche du raster sur le même coin du raster en entrée. Et puis l'utilisation de sa taille de cellule s'accumulerait à partir de là. Vous pouvez donc obtenir un alignement si vous le souhaitez, mais la meilleure façon de le faire est de faire en sorte que la taille de la cellule soit la même et un raster d'accrochage. Et de cette façon, vous obtenez des cellules qui se chevauchent complètement. Et parce que nous modifions la taille des cellules et l'emplacement réel des cellules avec le raster d'accrochage, nous allons ré-échantillonner ici. Donc, c'est important à savoir. Et exécutons ceci une fois de plus. Cliquez sur OK. Et OK pour courir. Zoom arrière Et nous en obtenons un autre ici et faisons un zoom avant et jetons un coup d'œil à nouveau. Bon, nous avons encore un problème. Je n'ai pas encore bien compris, n'est-ce pas ? La liste instantanée n'était pas la seule chose dont j'avais besoin. Et en fait, même si ce calque recouvre l'autre partie, il est possible qu'il s'accroche correctement. Mais il ne s'aligne toujours pas correctement avec les cellules, en raison d'un autre facteur. Et cela m'a vraiment pris un moment pour comprendre. Voyez si vous pouvez comprendre ce qui pourrait se passer. D'accord, donc la chose que je sais que vous ne savez pas, c'est que cet ensemble de données et cet ensemble de données sont des systèmes de coordonnées différents. Et ce que cela signifie, c'est que même si le coin inférieur gauche s'enclenche, cela ne signifie pas nécessairement que les cellules s'alignent à partir de là, ou qu'elles se chevauchent à ce stade. Les coins inférieurs gauches sont au même endroit, mais comme ils ne sont pas dans les mêmes systèmes de coordonnées, les cellules convergent en quelque sorte dans la direction. Je vais donc recommencer et je peux définir mes paramètres d'environnement. J'ai donc une étendue de traitement, [INAUDIBLE] ci-dessous. J'ai mon raster d'accrochage défini sur le modèle d'élévation numérique. Et puis je vais définir mon système de coordonnées de sortie sur le modèle d'élévation numérique. Supprimez ces extras qui se sont accumulés pendant que j'essayais des alternatives. Et puis je vais juste m'assurer que mon analyse raster est toujours définie. D'accord, maintenant avec le raster d'accrochage et le système de coordonnées en sortie définis de manière à ce qu'ils soient identiques à la couche avec laquelle je veux finalement m'aligner, ainsi que l'étendue du traitement, ce n'est pas nécessaire, mais l'accélère à nouveau. Et puis mon ensemble de taille de cellule et mon masque, je devrais obtenir ce que je voulais ici. Et je l'appellerai cassé, et UTM. Cliquez sur OK pour l'exécuter. Et voilà. Il chevauche les cellules du modèle altimétrique numérique comme il se doit. Et si je veux, faisons juste un coup, en fait. J'allais le rendre semi-transparent, mais nous allons faire un rapide balayage et prendre ce calque et utiliser l'outil Balayage. Et nous pouvons voir que les cellules s'alignent parfaitement sur les bords là-bas. C'est donc tout pour cette conférence. Dans cette conférence, je pense que nous avons tous appris quelque chose, et nous avons couvert le paramètre d'environnement de taille de cellule où il réduira ou augmentera la taille de cellule du raster pour vous. Pendant qu'il fait une autre analyse. Nous avons examiné le masque d'analyse, qui extrait essentiellement des données et n'analyse qu'une zone en fonction d'un ensemble de données masqué que vous fournissez. And we looked at the snap raster environment setting, which aligns cells in a raster based on the bottom left corner. But it doesn't perfectly align it as we all learned unless you set that output coordinate system to be the same as the snap raster that you've selected. That's it for our lesson on environment settings. There's plenty more about different environment options that you can look at but that's all we're going to cover in this course. So I encourage you to take a look at some of the others if you think they'll be relevant to your work. And now you should have a good, general understanding of environment settings. To take with you as you go look at those other options. À la prochaine.


          3 METHOD

          bRacatus uses binomial GLMs to estimate the accuracy () and biogeographical status () of biological records based on their geographical position relative to trusted reference regions, that is, all regions known to form part of the respective species' native or alien distribution. The theoretical foundation of these models is geographical distance decay of similarity (Tobler, 1970 ). Even without biological assumptions, the expectation is that species' records collected closer to their respective known native or alien ranges are more likely to be accurate and have the same biogeographical status. This is reflected in models considering the distance-decaying signals sent from all cells within reference regions to each grid cell in which a georeferenced record may be located. To estimate the default model parameters implemented in the associated bRacatus R package, we trained and validated the GLMs for predictive performance with a combination of real and simulated species occurrence information. In the following sections, we provide an overview of the data preparation for building these models, and a detailed account of the models' construction, evaluation and validation steps.

          3.1 Method development using empirical and simulated data

          We developed bRacatus with occurrence data for 400 species, representing amphibians, birds, terrestrial mammals and vascular plants with 100 species each. We selected the species based on the following three criteria to ensure broad generality and applicability for the models: (a) availability of species range maps for both native and alien ranges (the latter applied for 148 out of the 400 species known to occur outside their native ranges), (b) availability of ≥5 unique GBIF records per species and (c) the species' representation of 14 different terrestrial biomes (Olson et al., 2001 ), four continents and four range size classes (Table S2). All calculations were performed in R (R Core Team, 2019 ). We chose 0.5°-grid cell resolution (corresponding to

          25 x 25 km at the equator) as the minimal spatial grain for distinguishing accuracy and biogeographical status, both because we deemed native versus alien status distinctions over shorter distances biologically dubious for most taxa, and to enable fast computation times using the bRacatus R package even for large datasets.

          3.1.1 Georeferenced biological records

          We obtained species point-occurrence records from www.gbif.org (GBIF) (GBIF Occurrence Download, 2020 ). Afterwards, to avoid carrying spatial sampling bias into the models (Anderson, 2012 ), we thinned the points to a maximum of one record per 0.5°-grid cell (Figure 2a). Subsequently, we classified the points by accuracy for further model validation. Specifically, we classified a species' records falling within the terrestrial ecoregions (Olson et al., 2001 ) overlapping their respective ranges as ‘likely true’, and as ‘likely false’ when falling outside those limits (Figure 2b). In addition to these range-validated GBIF data, we simulated three categories of records (‘easy-to-detect false’ (EDF), ‘hard-to-detect false’ (HDF) and ‘pseudo-true’ (PT) occurrences), to compensate for remaining sampling bias while mimicking common data errors. To simulate likely locations of EDF and HDF records, we considered species-specific habitat suitability, considering species' expert-based habitat preferences and elevational limits (Figure 2c see Supporting Information 1 for details).

          In order to evaluate the performance of the biogeographical models, we classified the combined GBIF and simulated records according to their presumed biogeographical status, that is, those falling within their 1°-buffered native ranges as ‘likely native’, those within their 1°-buffered alien ranges as ‘likely alien’ and those falling outside of both buffers as ‘unknown status’ (Figure 2d).

          The selection and simulation of point-occurrence records resulted in 377,796 unique point occurrences for all species combined (Supporting Information 1, Table S2). Note that the records' binary classifications of both accuracy and biogeographical status according to the above protocol had the sole aim of assessing model performance, and are independent of the general bRacatus method.

          3.1.2 Reference regions

          The definition of species reference regions may be based on expert-drawn range maps or on regional checklists. We derived the reference regions used for training and validating our models from range map data for birds (BirdLife International, 2019 ), amphibians, terrestrial mammals and vascular plants (IUCN, 2019 ). Since range maps are not available for most taxonomic groups, less precise and potentially more incomplete regional checklists are often the only option for reference regions. Therefore, we additionally validated our models with such checklist-based reference regions. To control the checklist regions' degrees of imprecision and incompleteness, we simulated regional checklists of different realistic levels of geographical precision and completeness, by overlaying the range maps with checklist-region boundaries stored in the GIFT database (a comprehensive resource of regional vascular plant species distributions based on checklists and floras Weigelt et al., 2020 see Section 3.2.2).

          We estimated the model parameters from records' positions relative to all available reference regions, with each region sending an independent distance-decaying signal to all records. The bRacatus method accommodates for the large heterogeneity in sizes and shapes of reference regions and the spatial grain (resolution) at which species occupancy can be reliably inferred from these data types, by distributing this signal over the region's entire area.

          Specifically, range maps only delimit the outer range boundaries within which species are expected to be present (Jetz et al., 2012 ), but do not indicate which precise areas are occupied. However, it has been shown that they can estimate species occupancies at coarse grains of circa 2° (Hurlbert & Jetz, 2007 ). Hence, each 2°-grid cell overlaying a range map is considered an independent reference region that sends its own signal (Figure 2e). Unlike in expert-based range maps, the sizes and shapes of the politically defined sampling units of regional checklists are not indicative of the extents of occurrence of the listed species, but merely confirm that those species were recorded at least once somewhere within those regions. Without further information, a priori confidence that a species was recorded in any particular subregion within those regional boundaries (or, in the case of range maps, within a 2°-grid cell) is thus inversely proportional to the share of the larger region represented by the subregion.

          bRacatus represents location uncertainty for three categories: presence (), nativeness () and alienness (). To do this, it calculates an area weighting of confidence for each uncertainty category by rasterising reference regions to 0.5°-resolution and assigning each raster cell overlapping the region a value calculated by (1) where is the a priori confidence that the species in category has been detected in each cell and is the number of cells covering the region of that category (Figure 2f).

          All reference regions used for model training during our testing and default parametrisation of bRacatus were 2°-grid cells artificially derived from range maps (Figure 2e), having exactly the same number of cells and no overlap. For each species, we generated three raster layers from the checklists, carrying the information on presence, nativeness and alienness. Due to this area weighting of confidence, the bRacatus framework can probabilistically validate fine-scale biological records without needing to assume that reference regions can indicate species occupancy at fine scales. It does assume, however, that the broad-scale evidence on species' native or alien presences provided by range maps and checklists is credible (for tests of the method's sensitivity to violating this assumption, see Supporting Information 3).

          3.1.3 Signals sent from reference regions to points

          Each record receives distance-decaying signals from three raster layers, presence, nativeness and alienness respectively (Figure 2g). To calculate the strength of the signals reaching each record, bRacatus first uses pre-computed pairwise geographical distances between all 0.5°-cells globally (). It then normalises to obtain a proximity index () between all pairs of cells as (2) où is the maximum value of all . While developing bRacatus , we identified the distance-decay function that would lead to the best predictive power by comparing 13 alternative exponential decays given by (3) où represents the decayed proximity indices and ranges from 0 to 12. bRacatus calculates the index for all species by computing the signals sent from all cells within every independent reference region to each individual record according to the formula (4) où is the value assigned to a record that will further be used in the model, is the a priori confidence of each cell within the species range, is the distance-decayed proximity index between the cell under consideration and the cell sending the signal and is the maximum value obtained in the signal calculation. The denominator ranges from 0 to 1, making these values comparable among species. The rationale behind this transformation is that the individual record receiving the highest signal has the highest probability of being accurate, or the highest probability of representing the correct biogeographical status among all the species' records. During bRacatus development, we repeated this process for the aforementioned 12 exponential decay functions and a linear decay function (), thus producing 13 alternative versions per records of each index: , et .

          3.2 Model construction, evaluation and validation steps

          We developed our models based on binomial GLMs for both the accuracy and the biogeographical status analyses (Supporting Information 2). Accuracy models use the index as the only predictor. Biogeographical status models use both et indices as predictors, with species having only native range reference regions receiving an score of 0 for all points. The model output is continuous probabilities, ranging from ‘most-likely false’ (0) to ‘most-likely true’ (1) for the accuracy analysis and from ‘most-likely alien’ (0) to ‘most-likely native’ (1) for the biogeographical status analysis (Figure 1b).

          We conducted in-sample and out-of-sample predictive tests to verify the models' performance and ensure their broad applicability, testing for potential biases in model performance towards certain taxa, range sizes or continents, and whether our models can be extrapolated to other taxa, range size bins and continents than those that were used for model training (Supporting Information 2). The model selection relied on two metrics—the area under the receiver operating characteristic curve (AUC) and the root mean squared error (RMSE Figure 2h). The AUC ranges from 0 to 1 and informs about the model's ability to separate classes in a prediction (Swets, 1988 ). For the biogeographical status analyses, we applied a variation of AUC calculation, the multiclass receiver operating characteristic (ROC), which allows analysing multiclass data (Wandishin & Mullen, 2009 ). The RMSE indicates how close the predictions are to the actual values (Chai & Draxler, 2014 ). High AUC and low RMSE values indicate better performing models. To evaluate the models considering both the metrics simultaneously, we calculated the Euclidean distance from the AUC and RMSE obtained in each model to the ideal values (1 and 0 respectively) of these metrics (Draisma et al., 2014 ).

          3.2.1 Model selection

          Initially, we tested 260,000 models (see Supporting Information 2 for details) to identify the best-performing distance-decay function, not considering other parameters. Subsequently, we combined three variations of the signal calculations (), four link functions and two other covariates (average distance to other occurrence points and background sampling effort), resulting in 460,000 different models. We trained and tested all models with all combinations among the aforementioned variables. We deliberately avoided variables based on biological grounded relationships, such as environmental distances, to ensure greatest-possible applicability in downstream analyses without risks of circularities (see Supporting Information 2 for further details).

          The three variations of aimed to ensure that records within reference regions' boundaries are assessed with higher values than those in neighbouring areas. Thus, we performed an analysis on how the models would perform with stronger signals sent from the very cell where a point is located, computing two extra versions of the indices by multiplying the signal sent from the cell where each point is located by 10 (sig10) and by 100 (sig100). For the accuracy analysis, only points assessed as ‘likely true’ underwent signal variation, as the HDF points seeded within the range would magnify the noise they represent. We trained all models with different link functions: logit, probit, cauchit and cloglog. The following equations depict the models using a cauchit link function, which generally performed best: (5 – accuracy)

          (6 – biogeographical status)

          For each record , où is the number of records is estimated accuracy of each record is the intercept of Equation 5 is the slope associated with the covariate , which represents the presence index of each record is estimated biogeographical status of each record is the intercept of Equation 6 is the slope associated with the covariate , which represents the nativeness index of each record and is the slope associated with the covariate , which represents the alienness index of each point.

          We further included two other covariates in the models: (a) average distance to the closest five occurrence points, to account for the extent to which records are geographical outliers and (b) density of records in the same taxonomic order of the focus species, to represent background sampling intensity (Supporting Information 3).

          3.2.2 Sensitivity tests with reference regions based on regional checklists

          (7) where is the final a priori confidence in the cell and is the confidence of no occurrence informed by each checklist, je, represented in the cell (Figure 2f). We then applied the accuracy and the biogeographical models using the reference regions derived from the simulated checklists and calculated the evaluation metrics (Figure 2h). Checklist data are not necessarily complete and differ in geographical precision. Thus, we ran additional sensitivity tests to evaluate the models' performance under different levels of checklist data incompleteness and different region sizes (Supporting Information 3).

          4.4 Brownian Bridge Movement Models (BBMM)

          The BBMM requires (1) sequential location data, (2) estimated error associated with location data, and (3) grid-cell size assigned for the output utilization distribution. The BBMM is based on two assumptions: (1) location errors correspond to a bivariate normal distribution and (2) movement between successive locations is random conditional on the starting and ending location (Horne et al. 2007). Normally distributed errors are common for GPS data and 1 h between locations likely ensured that movement between successive locations was random (Horne et al. 2007). The assumption of conditional random movement between paired locations, however, becomes less realistic as the time interval increases (Horne et al. 2007).

          1. Exercise 4.4 - Download and extract zip folder into your preferred location
          2. Définissez le répertoire de travail sur le dossier extrait dans R sous Fichier - Changer dir.

          Nous devons d'abord charger les packages nécessaires à l'exercice
          require(survival)
          bibliothèque(maptools)
          require(sp)
          require(gpclib)
          require(foreign)
          require(lattice)
          require(BBMM)

          Now open the script "BBMMscript.R" and run code directly from the script
          panther<-read.csv("pantherjitter.csv",header=T)
          str(panther)
          panther$CatID <- as.factor(panther$CatID)#make CatID a factor

          First, we need to get Date and time into proper format for R because Time in
          DateTimeET2 is single digit for some hours
          panther$NewTime <- str_pad(panther$TIMEET2,4, pad= "0")
          panther$NewDate <- paste(panther$DateET2,panther$NewTime)
          #Used to sort data in code below for all deer
          panther$DT <- as.POSIXct(strptime(panther$NewDate, format='%Y %m %d %H%M'))
          #Sort Data
          panther <- panther[order(panther$CatID, panther$DT),]

          timediff <- diff(panther$DT)*60
          # remove first entry without any difference
          panther <- panther[-1,]
          panther$timelag <-as.numeric(abs(timediff))
          #Subset for only one panther
          cat143<-subset(panther, panther$CatID == "143")
          cat143 <- cat143[-1,] #Remove first record with wrong timelag
          cat143$CatID <- factor(cat143$CatID)

          Figure 4.2: Example of 95% BBMM home range for a Florida Panther.

          BBMM = brownian.bridge(x=cat143$X, y=cat143$Y, time.lag=cat143$timelag,
          location.error=34, cell.size=100)
          bbmm.summary(BBMM)
          #Plot results for all contours
          contours = bbmm.contour(BBMM, levels=c(seq(50, 90, by=10), 95, 99),
          locations=cat143, plot=TRUE)
          # Print result
          print(contours)
          REMARQUE:
          (a) Time lag refers to the elapsed time between consecutive GPS locations
          that was presented in section 2.3
          (b) GPS collar error can be from error reported by the manufacturer of the GPS
          collar or from error test conducted at the study site
          (c) Cell size refers to grid size we want to estimate the BBMM

          Figure 4.3: Example of 95% KDE home range with hplug-in for a Florida Panther.

          Figure 4.4: Example of 95% KDE home range with href for a Florida Panther.

          bbmm.95 = bbmm.95[bbmm.95$probability <= contours$Z[4],]

          bbmm.contour = data.frame(x = BBMM$x, y = BBMM$y, probability = BBMM$probability)
          # Pick a contour for export as Ascii

          bbmm.50 = data.frame(x = BBMM$x, y = BBMM$y, probability =
          BBMM$probability)
          bbmm.50 = bbmm.50[bbmm.50$probability >= contours$Z[1],]
          # Output ascii file for cells within specified contour.
          m = SpatialPixelsDataFrame(points = bbmm.50[c("x", "y")], data=bbmm.50)
          m = as(m, "SpatialGridDataFrame")
          writeAsciiGrid(m, "50ContourInOut.asc", attr=ncol(bbmm.50))
          # Print result for 80 percent BBMM
          print(contours)
          # Pick a contour for export as Ascii
          bbmm.80 = data.frame(x = BBMM$x, y = BBMM$y, probability =
          BBMM$probability)
          bbmm.80 = bbmm.80[bbmm.80$probability >= contours$Z[4],]
          # Output ascii file for cells within specified contour.
          m = SpatialPixelsDataFrame(points = bbmm.80[c("x", "y")], data=bbmm.80)
          m = as(m, "SpatialGridDataFrame")
          writeAsciiGrid(m, "80ContourInOut.asc", attr=ncol(bbmm.80))
          # Print result for 95 percent BBMM
          print(contours)
          # Pick a contour for export as Ascii
          bbmm.95 = data.frame(x = BBMM$x, y = BBMM$y, probability =
          BBMM$probability)
          bbmm.95 = bbmm.95[bbmm.95$probability >= contours$Z[4],]
          # Output ascii file for cells within specified contour.
          m = SpatialPixelsDataFrame(points = bbmm.95[c("x", "y")], data=bbmm.95)
          m = as(m, "SpatialGridDataFrame")
          writeAsciiGrid(m, "95ContourInOut.asc", attr=ncol(bbmm.95))
          # Print result for 99 percent BBMM
          print(contours)
          87
          # Pick a contour for export as Ascii
          bbmm.99 = data.frame(x = BBMM$x, y = BBMM$y, probability =
          BBMM$probability)
          bbmm.99 = bbmm.99[bbmm.99$probability >= contours$Z[7],]
          # Output ascii file for cells within specified contour.
          m = SpatialPixelsDataFrame(points = bbmm.99[c("x", "y")], data=bbmm.99)
          m = as(m, "SpatialGridDataFrame")
          writeAsciiGrid(m, "99ContourInOut.asc", attr=ncol(bbmm.99))

          Figure 4.5: This figure shows how to summarize size of home range in ArcMap.

          Now we can create shapefiles of contours from ascii files in ArcMap
          (a) Convert ASCII files to Rasters using Conversion Toolbox
          Toolbox>Conversion Tools>To Raster>ASCII to Raster
          Input ASCII raster file: 50ContourInOut.asc
          Output raster: AsciiToRast
          Output data type (optional): INTEGER
          (b) Convert No Data values to value of 1 and those that are not to value of 0 by:
          Toolbox>Spatial Analyst Tools>Math>Logical>Is Null
          Input raster: tv53_99contr
          Output raster: IsNull_bv53_3
          (c) Convert raster probability surface to a shapefile by opening shapefile table.
          Highlight all raster cells with a value=1 then open appropriate Toolbox as follows:
          Toolbox>Conversion Tools>From Raster>Raster to Polygon
          Input raster: IsNull_bv53_3
          Field (Optional): Value
          Output Polygon Features: RasterT_IsNull_2.shp
          Uncheck the "Simplify polygons (optional)" box for proper results. Select OK.
          Tool will convert all cells with value=1 to a shapefile with multiple polygons.
          (d) Calculate area of new shapefile using appropriate tool (i.e., Xtools) Open table to view area of polygon and summarize to get total size of home range (Fig. 4.5)
          Right click on column heading "Hectares"
          Select Statistics and Sum will be the total hectares in the home range

          #First an alternate way to create the ascii files after creating "contours" #from Step 5 above.

          # Create data.frame indicating cells within the contour desired and export as Ascii Grid
          bbmm.contour = data.frame(x = BBMM$x, y = BBMM$y, probability = BBMM$probability)

          str(contours) #Look at contour or isopleth levels 1 to 7 (50%-99%)
          #$List of 2
          #$ Contour: chr [1:7] "50%" "60%" "70%" "80%" .
          #$ Z : num [1:7] 7.35e-05 5.66e-05 4.22e-05 2.81e-05 1.44e-05 .


          Famille

          Free format text: CORRECTIVE ASSIGNMENT TO CORRECT THE CORRECT ASSIGNEE NAME PREVIOUSLY RECORDED AT REEL: 044090 FRAME: 0317. ASSIGNOR(S) HEREBY CONFIRMS THE ASSIGNMENTASSIGNOR:PETERSON, PERRYREEL/FRAME:052890/0555

          Effective date: 20090901

          Free format text: PAYMENT OF MAINTENANCE FEE, 8TH YR, SMALL ENTITY (ORIGINAL EVENT CODE: M2552) ENTITY STATUS OF PATENT OWNER: SMALL ENTITY


          Résultats

          Case study area

          In this paper, Dhaka in Bangladesh was adopted as the case study for the following reasons: (1) good availability of detailed parcel information and hydraulic modelling results (2) large areas and number of buildings to push the boundaries of modelling capacity of the tools (3) dense building distribution to demonstrate the issues of analysing and masking cell sizes (4) rapid urban expanding in the past and in the foreseeable future that highlights the needs of urban growth modelling for planning and (5) potential for other types (e.g. health impact) of impact assessment.

          The Greater Dhaka area includes areas beyond the central Dhaka City Corporation. It is bounded by the Balu River in the east, the Tongi Khal in the north, the Turag-Buriganga Rivers in the west and the Dhaka-Demra-Chittagong Road embankment in the south. The average population density in central Dhaka city is 48,000 inhabitants per km 2 . With rapid urbanisation and the development of city infrastructure, combined with the reduction in water storage and percolation areas, flooding and waterlogging from local rainfall have become a serious problem. Gain and Hoque (2013) recently combined 1D hydraulic modelling results and depth-vulnerability functions to evaluate the flood risk of Eastern Dhaka Area that considered the fluvial flooding scenario only. In the paper, we adopted 2D hydraulic model approach and included the Western Dhaka Area that is also affected by pluvial flooding.

          The drainage in Dhaka depends on the operation of a storm-water drainage system (including pumps and regulators) and the water levels in peripheral rivers (IWM 2008). Thus, flooding in Dhaka may occur due to: congestion of storm-water/wastewater drainage systems inside the city area the high water level in the peripheral rivers under which circumstance drainage is only possible through pumping and the intrusion of floodwater from the peripheral rivers to city area through the drainage routes.

          Flood modelling

          The DHI MIKE Urban model was applied to simulate the urban flooding. The drainage network for Central Dhaka contains a network of underground pipes and some open channels. In this network, there are 9.7 km of box culverts, 40 km of open channels and 134 km of pipes. The city drainage system was schematised from secondary data collection and stakeholder consultation. Accurate records of the drainage infrastructure were difficult to find, so information from different sources was used to cross-verify the model.

          Within MIKE Urban, the 2D overland flow is simulated by MIKE 21 using a 25-m resolution regular grid, and terrain models were built for both Eastern and Central Dhaka. MOUSE and MIKE FLOOD models were used to simulate the storm sewer and the river channel flows, respectively. Both models were coupled with MIKE21 to reflect the flow interactions between the ground surface, the drainage networks and the rivers.

          Données sur l'utilisation des terres

          The Institute of Water Modelling (IWM), Bangladesh, has collected Detailed Area Plan (DAP) of 2006 that included 1.14 million building parcel information of in Dhaka from the City Development Authority which is (RAJUK). IWM further reviewed and updated for new development or any change in parcel information within the study area. Figure 5 shows the current, i.e. the baseline year 2010, building layouts and uses in a local region. Most buildings are used as residential properties, followed by manufacturing and processing activities, mixed use and commercial activities. The IWM investigated different sectors in Dhaka and established the damage functions for six main building use types in Dhaka: commercial activity, education and research, governmental services, mixed use, manufacturing and processing, and residential.

          The building layouts and land use types in a local region in Dhaka for the baseline year

          Depth-damage functions

          The damage functions were developed by Haque et al. (2014) from a survey of 430 properties. Survey was conducted using a systematic stratified random sampling method based on the land elevation (flood depth) and structure of the building/premise. Questionnaires were designed for different types of properties to include all types of damage items with their coping mechanisms against waterlogging situations. All flood damage categories have been covered that could be reasonably expected to occur. The curve for commercial entities ranged from 4.56 BDT (currency of Bangladesh) per square foot for 5 in. depth of flooding to 33.28 BDT per square foot for 30 in. depth of flooding. The residential asset damage starts at 4 in. depth without considering flood duration. Up to 4 in. of flood depth, there is no damage. With the increase in flood depth at 40 in., damage becomes 28 BDT per square feet. The values were converted into SI system for damage assessment in the paper. Due to lack of historic data on actual damage after a flood event, it was not possible to carry out any validation. More details regarding the depth-damage functions adopted in the paper can be found in Haque et al. (2014).

          Urban growth

          To evaluate the impact of urban growth on flooding, a UGM was developed based on a 2D cellular automata in which cells expressing specific land use characteristics that change state depend on internal growth characteristics and external pressures. LULC classification is based on 30 m cell Landsat 5 TM data, using a maximum-likelihood multi-temporal land cover classification (Bruzzone and Serpico 1997) after which manual corrections were applied (Veerbeek et al. 2015). Similar approach was also adopted by Corner et al. (2014) for the urban sprawl analysis (Dewan and Corner 2014) in Dhaka. The internal growth characteristics are derived using a supervised learning algorithm, which is trained on historic growth data. This means that the generic growth model is adapted to fit the local characteristics of a case study area. Furthermore, spatial constraints and external pressures (e.g. land demand) expressed within scenarios and measures create a probability distribution of future urbanisation which is fulfilled in a probabilistic fashion. The UGM output is primarily a land use distribution for some future point in time. These are translated into possible land cover characteristics, which provide spatial and physical characteristics, required for the flood modelling and impact assessment. It should be noted that the output can include multiple instances in time for a given scenario and response portfolio the model expresses the urban dynamics over a range of years.

          Figure 6 shows the LULC in the area shown in Fig. 4 for the baseline year 2010, predicted by the UGM using historical data. The higher class number (darker colour) represents denser urban development. Compared to the building data shown in Fig. 5, the north-eastern part of the region has a sparser building distribution such that the LULC in Fig. 6 are lower in the area. The detailed relationship between building use and land cover was analysed further. Table 2 shows the building components of each land use cover. The total built-up area of these six main categories for the land cover varies from 3.1 (class 1) to 56.4 % (class 10). These area ratios of building components were used as the weighting factor to combine DDCs for different building uses and to generate new DDCs for each land cover class.

          LULC for area shown in Fig. 5 for the baseline year generated by UGM using historical data

          Flood damage assessment

          Assessment for current baseline and sensitivity analysis

          The main parameters in the tool for raster-based analysis are (1) the cell size used to calculate the damage value of each cell, and (2) the cell size used to clip out the non-building area from a coarse analysing cell. We adopted five combinations, as shown in Table 3, of these two parameters for the sensitivity and performance analysis. Table 3 also lists the damage assessment results of these five cases for a 100-year flood event. The inputs (rainfall and water levels in the rivers) for flood modelling of the event were determined based on statistical analysis, which adopted 50 years historical records in the surrounding catchments of Dhaka City. The current exchange rate for the Bangladeshi Taka (BDT) is €1 ≑ 104 BDT as of 5 August 2014.

          No real data are available for model verification, and so we assumed Case 1, which had the finest resolution of cell sizes, would provide the best estimation and the results are used as benchmark for other cases.

          The dataset includes information on 1.14 million buildings in Dhaka City, although only 250 thousand were within the hydraulic modelling domain. The video in the electronic supplementary material, as well as on Youtube at https://www.youtube.com/watch?v=skAk3giQGrE, illustrates the hydraulic modelling and the damage assessment results for Dhaka City. Table 3 shows that the number of buildings estimated to show flood damage using a 5-m masking cell size was about 11,000 less than when using a 1-m masking cell size. The reason was that only a single building index can be applied to each cell, when the cell contains more than one building (e.g. the three cells in right column of Fig. 3 that each contains two buildings). In the coarser cell representation, the buildings that occupied less area within a cell were filtered out and the total flood damage was smaller than when using fine masking cell size.

          The mean and bias show that the coarse analysis and masking cell sizes produced lower damage estimations. It was due to some buildings being filtered out for the damage calculation such that those buildings had shown no damage and resulted in a lower mean damage. For Case 4 and 5, the MAEs are 19 and 21 % and the RMSEs are 39 and 50 % of mean damage for Case 1, respectively. But the bias is only −6 %, which shows that some of the positive and negative errors were cancelled out when calculating the total damage and Mean. The RMSEs are relatively large, compared to the mean, which indicate that large errors exist when using coarse analysis cells.

          Table 4 lists the statistical information for the cases, using the key residual criteria including mean, bias, mean absolute error (MAE) and root-mean-square error (RMSE). Although 250 thousand buildings were located inside the modelling domain, only about a quarter of them had flood damage for 100-year event. The statistic only considered those with flood damage. However, the number of buildings differed in the five cases. To make a fair comparison, we took the number of the union of buildings with flood damage, i.e. 67,458, as the common base for the comparisons of all cases. The mean is the average flood damage of the 67,458 buildings for each case. The bias, MAE and RMSE were calculated according to the damage differences of individual buildings between each case and Case 1.

          The mean and bias show that the coarse analysis and masking cell sizes produced lower damage estimations. It was due to some buildings being filtered out for the damage calculation such that those buildings had shown no damage and resulted in a lower mean damage. For Cases 4 and 5, the MAEs are 19 and 21 % and the RMSEs are 39 and 50 % of mean damage for Case 1, respectively. But the bias is only −6 %, which shows that some of the positive and negative errors were cancelled out when calculating the total damage and mean. The RMSEs are relatively large, compared to the mean, which indicates that large errors exist when using coarse analysis cells.

          Figure 7 shows the distribution of errors for each case in different bands. Orders of magnitude of errors are used to classify the band of errors. O(m) represents the error between 10 m−1 and 10 m , while −O(m) for the error between −10 m and −10 m−1 , where n is a positive integer or 0. For m = 0, O(0) represents the positive error band less than 1 and −O(0) is the negative error band greater than −1. The majority of Case 2 and Case 3, using 1 m masking cell size, have zero error while as Case 4 and Case 5 have most errors spreading between −O(3) to −O(1) and O(1) to O(3). Figure 8 shows the sum of errors in each error band. The outliers in the bands −O(5) to −O(4) and O(4) to O(5) contribute significant amount to the error for Cases 3, 4 and 5, which resulted in a large RMSE.


          Voir la vidéo: Concevoir un projet SIG Episode 5-Traitement des données RASTER