Suite

Filtrage d'un raster par taille de cluster de pixels dans ArcGIS ?

Filtrage d'un raster par taille de cluster de pixels dans ArcGIS ?


J'ai une image raster représentant des îles dans une rivière (voir image) créée à l'aide du processus suivant :

1) Délimiter un MNA de surface d'eau et un MNA de bassin versant par un polygone de délimitation (bord de l'eau).

2) Soustraire le DEM de la surface de l'eau du DEM du bassin versant (contenant l'île - c'est-à-dire les valeurs d'altitude > la surface de l'eau).

3) Appliquer un conditionnel pour que seules les valeurs > 0 (au-dessus de la surface de l'eau) soient conservées. Toutes les autres valeurs deviennent « pas de données ». Cela produit l'image suivante :

En regardant cette image, vous pouvez généralement choisir la grande île et en coupler les plus petites. Ce que je voudrais faire, c'est uniquement conserver ces îles et supprimer des pixels uniques ou des lignes de pixels qui sont des artefacts du processus de découpage. Existe-t-il un moyen d'y parvenir dans ArcObjects/ArcGIS 10 ?

Je pense à quelque chose du genre : ne conservez un groupe de pixels que s'il contient au moins une fenêtre 3x3 contenant des valeurs. Cela ne devrait produire que des îlots de 3x3 ou plus et supprimer toutes les longues "chaînes" de pixels d'artefact.

EDIT: Grâce à @whuber, j'ai trouvé la solution suivante. Je vais continuer avec l'étape quatre là où je m'étais arrêté ci-dessus :

4) Convertissez le raster conditionnel en sortie au format entier.

5) Groupe de régions le raster d'entiers.

6) Effectuez une analyse de la géométrie zonale en fonction de la zone.

7) Appliquez une condition au raster de l'étape 3 en fonction de la zone géométrique zonale. Pour cet exemple, j'ai juste utilisé une "VALEUR > 1", ce qui signifie une zone supérieure à 1 m² (étant donné que le raster d'origine avait une résolution de 30 cm.

Voici le raster obtenu :


Les opérateurs morphologiques sont conçus pour cela, mais je pense que votre idée est meilleure car elle peut être augmentée pour capitaliser (potentiellement) sur les données d'altitude.

Tout d'abord, RegionGroup la grille de sorte que chaque "île" apparente soit identifiée séparément. Utilisez-le comme base pour les résumés zonaux. Parmi vos nombreuses options, citons :

  • Si la plage d'élévations zonales d'une île est négligeable, vous avez probablement un artefact (ou un très petite île).

  • Calculez le nombre de focales 3x3 de la grille indicatrice de l'îlot. Si le maximum zonal de celui-ci est strictement inférieur à 9, votre île est en effet trop maigre.

  • Calculez les superficies insulaires (nombre de cellules). Réduire temporairement toutes les îles d'une cellule (c'est l'un des opérateurs morphologiques). Recalculez les zones insulaires. Éliminez ceux dont les zones ont trop changé (peut-être une réduction de 75 %, voire de 100 %).

Les résultats des résumés zonaux peuvent être utilisés pour identifier, et ainsi sélectionner, les cellules à effacer. Une opération conditionnelle prendra en charge cette dernière étape.


Vue d'ensemble du jeu d'outils Mapping Clusters

Les outils Mapping Clusters effectuent une analyse de cluster pour identifier les emplacements des points chauds, des points froids, des valeurs aberrantes spatiales et des entités ou zones similaires statistiquement significatifs. Le jeu d'outils Mapping Clusters est particulièrement utile lorsqu'une action est nécessaire en fonction de l'emplacement d'un ou plusieurs clusters. Un exemple est l'affectation d'agents de police supplémentaires pour faire face à un groupe de cambriolages. Il est également important de localiser l'emplacement des clusters spatiaux lors de la recherche de causes potentielles de clusters lorsqu'une épidémie de maladie survient peut souvent fournir des indices sur ce qui pourrait en être la cause. Contrairement aux méthodes de l'ensemble d'outils Analyse des modèles, qui répondent à la question : Y a-t-il un clustering spatial ? avec oui ou non, les outils Mapping Clusters permettent de visualiser les emplacements et l'étendue des clusters. Ces outils répondent aux questions, Où sont les clusters (points chauds et points froids) ? , Où les incidents sont-ils les plus denses ?, Où sont les valeurs aberrantes spatiales ?, Quelles caractéristiques se ressemblent le plus ?, Comment pouvons-nous regrouper ces caractéristiques pour que chaque groupe soit le plus dissemblable ? et Comment pouvons-nous regrouper ces caractéristiques pour que chaque zone soit homogène ? .

Crée des zones spatialement contiguës dans votre zone d'étude à l'aide d'un algorithme de croissance génétique basé sur des critères que vous spécifiez.

Compte tenu d'un ensemble de caractéristiques pondérées, identifie les points chauds, les points froids et les valeurs aberrantes statistiquement significatifs à l'aide de la statistique I d'Anselin Local Moran.

Trouve des groupes d'entités ponctuelles dans le bruit environnant en fonction de leur distribution spatiale. Le temps peut également être incorporé pour trouver des clusters spatio-temporels.

Étant donné un ensemble de caractéristiques pondérées, identifie les points chauds et les points froids statistiquement significatifs à l'aide de la statistique Getis-Ord Gi*.

Recherche des clusters naturels d'entités uniquement en fonction des valeurs d'attributs d'entités.

À partir de points d'incident ou d'entités pondérées (points ou polygones), crée une carte des points chauds et froids statistiquement significatifs à l'aide de la statistique Getis-Ord Gi*. Il évalue les caractéristiques de la classe d'entités en entrée pour produire des résultats optimaux.

Compte tenu de points d'incident ou d'entités pondérées (points ou polygones), crée une carte des points chauds, des points froids et des valeurs aberrantes statistiquement significatifs à l'aide de la statistique I d'Anselin Local Moran. Il évalue les caractéristiques de la classe d'entités en entrée pour produire des résultats optimaux.

Identifie les entités candidates les plus similaires ou les plus dissemblables à une ou plusieurs entités en entrée en fonction des attributs de l'entité.

Identifie les valeurs aberrantes spatiales dans les entités ponctuelles en calculant le facteur de valeur aberrante locale (LOF) de chaque entité. Les valeurs aberrantes spatiales sont des caractéristiques dans des emplacements qui sont anormalement isolés, et le LOF est une mesure qui décrit à quel point un emplacement est isolé de ses voisins locaux. Une valeur LOF plus élevée indique une isolation plus élevée. L'outil peut également être utilisé pour produire une surface de prédiction raster qui peut être utilisée pour estimer si de nouvelles entités seront classées comme valeurs aberrantes compte tenu de la distribution spatiale des données.

Recherche des clusters d'entités spatialement contigus en fonction d'un ensemble de valeurs d'attributs d'entités et de limites de taille de cluster facultatives.

Héritage:

L'outil d'analyse de regroupement était disponible dans cet ensemble d'outils avant ArcGIS Pro 2.2, mais a été supprimé car les algorithmes derrière cet outil ont été améliorés. Pour simplifier les nouvelles méthodes et fonctionnalités, deux outils ont été créés pour remplacer l'outil Grouping Analysis. Utilisez l'outil de clustering multivarié spatialement contraint pour créer des groupes spatialement contigus. Utilisez l'outil Clustering multivarié pour créer des groupes sans contraintes spatiales.


ASTER

ASTER ou 'Advanced Spaceborne Thermal Emission and Reflection Radiometer' est un imageur multispectral avancé qui a été lancé par la NASA en décembre 1999. ASTER couvre une large région spectrale avec 14 bandes allant du visible à l'infrarouge thermique avec une haute résolution spatiale, spectrale et radiométrique . La résolution spatiale varie en fonction de la longueur d'onde : le visible et le proche infrarouge (VNIR) à 15 mètres, l'infrarouge à ondes courtes (SWIR) à 30 mètres et l'infrarouge thermique (TIR) ​​à 90 mètres. Chaque scène ASTER couvre une superficie de 60 km sur 60 km. Pour en savoir plus sur ce capteur, voir ASTER.


A propos de l'analyse des données raster

Il existe de nombreuses manières de travailler avec des données raster lors d'une analyse. Vous souhaiterez peut-être analyser visuellement les données raster, les utiliser comme arrière-plan (fond de carte) pour analyser visuellement d'autres données ou les utiliser dans une opération d'analyse.

Si vous utilisez les données raster dans une analyse visuelle, vous examinez peut-être les résultats d'une étude de bassin versant ou recherchez des entités dans un relief ombré créé à partir d'un modèle numérique d'altitude (MNE). Si vous utilisez les données raster pour analyser d'autres données, vous pouvez examiner et mettre à jour des données vectorielles, telles que des routes, en utilisant des données raster à jour comme fond de carte pour déterminer l'emplacement des routes manquantes. Pour n'importe lequel de ces types d'analyses, vous êtes très probablement concerné par l'apparence visuelle du raster. Vous devez tenir compte des types de rendus utilisés pour afficher les rasters (tels que les rendus étirés ou composites RVB) et peut-être souhaiter les modifier, appliquer différents types d'étirements à l'histogramme pour améliorer des informations spécifiques dans le jeu de données raster, ou même supprimer certains des valeurs de la trame à partir de l'affichage.

Il existe des outils supplémentaires dans ArcMap pour vous aider dans votre analyse des données raster, tels que l'outil Inspecteur de pixels, qui est utilisé pour afficher une zone de valeurs de pixels dans votre jeu de données raster, ou l'outil Balayer la couche, qui est utilisé pour révéler de manière interactive couches sous la couche en cours de balayage. Pour en savoir plus sur ces outils, voir Affichage interactif des valeurs de pixel et Révélation interactive des rasters à l'aide de l'outil Faire glisser la couche. Vous pouvez également utiliser l'outil Identifier pour obtenir des informations sur la valeur des pixels d'un seul pixel, ou utiliser l'outil Obtenir la valeur de la cellule lorsque vous travaillez dans un modèle de géotraitement.

  • ArcGIS Spatial Analyst—Cette extension fournit un ensemble complet d'outils avancés de modélisation et d'analyse spatiales qui vous permettent d'effectuer une analyse raster et vectorielle intégrée.
  • ArcGIS 3D Analyst—Cette extension vous permet de visualiser, d'analyser et de générer efficacement des données de surface et fournit les outils pour la modélisation et l'analyse en trois dimensions.

Lorsque vous utilisez les outils de géotraitement fournis par ArcGIS ou l'une de ces extensions, vous pouvez automatiser vos workflows en créant des modèles pour effectuer votre analyse. La construction de modèles permet d'enchaîner les outils entre eux. Pour en savoir plus sur la création de modèles, voir Création d'un modèle simple.

Vous pouvez utiliser des opérations ou des fonctions mathématiques sur un (ou plusieurs) jeu de données raster pour générer un nouveau jeu de données raster. Vous pouvez le faire à l'aide de la calculatrice raster ou à l'aide d'outils de géotraitement.

La calculatrice raster vous permet d'effectuer des calculs mathématiques à l'aide d'opérateurs et de fonctions ainsi que des requêtes de sélection (pour plus d'informations, voir Utilisation de la calculatrice raster). La boîte à outils Spatial Analyst fournit une suite similaire d'opérateurs et de fonctions mathématiques qui permet la combinaison arithmétique de valeurs dans plusieurs rasters, la manipulation mathématique des valeurs dans un seul raster en entrée, l'évaluation de plusieurs rasters en entrée et l'évaluation et la manipulation de valeurs dans format binaire.
Vous trouverez ci-dessous un exemple mathématique de base qui utilise l'addition pour ajouter les valeurs de deux jeux de données raster afin de produire un troisième jeu de données raster. Vous pouvez le faire à l'aide de l'outil Algèbre cartographique à sortie unique ou de l'outil Plus.

Distance

Vous pouvez utiliser des données raster dans les calculs pour mesurer ou calculer la distance. Vous pouvez effectuer deux types de calculs de distance à l'aide de l'extension Spatial Analyst : distance euclidienne et de coût.

Les fonctions de distance euclidienne décrivent la relation de chaque cellule avec une source ou un ensemble de sources. Il existe trois fonctions euclidiennes :

  • La distance euclidienne indique la distance entre chaque cellule du raster et la source la plus proche. Cela peut être utilisé pour répondre à la question : Quelle est la distance jusqu'à la ville la plus proche ?
  • L'allocation euclidienne identifie les cellules qui doivent être allouées à une source en fonction de la proximité la plus proche. Cela peut être utilisé pour répondre à des questions telles que : Quelle est la ville la plus proche ?
  • La direction euclidienne donne la direction de chaque cellule à la source la plus proche. Cela peut être utilisé pour répondre à des questions telles que : Quelle est la direction vers la ville la plus proche ?

Analyse de surface

  • Aspect—Vous êtes peut-être un agriculteur qui souhaite implanter un champ dans une zone exposée au sud.
  • Contours—Les contours peuvent être utiles pour rechercher des zones de même valeur. Vous pourriez être intéressé à obtenir des valeurs d'altitude pour des emplacements spécifiques et à examiner la gradation globale du terrain.
  • Déblai/remblai—Le calcul de déblai/remblai est utile lorsque vous voulez connaître les zones et les volumes de changement entre deux surfaces. Il identifie les zones et les volumes des surfaces qui ont été modifiés par l'ajout ou le retrait de matériau de surface. Vous voudrez peut-être connaître les volumes et les zones de matériaux de surface à enlever et les zones à remplir pour niveler un site pour la construction de bâtiments, ou vous voudrez peut-être identifier les régions d'érosion et de dépôt de sédiments dans une vallée fluviale.
  • Ombrage—Vous pouvez créer un ombrage à des fins graphiques et analytiques. Graphiquement, un ombrage peut fournir une toile de fond attrayante et réaliste, montrant comment les autres couches sont réparties par rapport au relief du terrain. D'un point de vue analytique, vous pouvez analyser comment le paysage est éclairé à différents moments de la journée en abaissant et en augmentant l'angle du soleil.
  • Pente—Vous voudrez peut-être connaître les variations de la pente du paysage parce que vous voulez trouver les zones les plus à risque de glissement de terrain en fonction de l'angle d'inclinaison d'une zone (les pentes les plus raides étant les plus à risque).
  • Champ de vision (ligne de mire)—Le calcul du champ de vision est utile lorsque vous souhaitez connaître la visibilité des objets. Par exemple, vous souhaiterez peut-être trouver l'emplacement offrant la vue la plus étendue dans une zone, car vous souhaitez connaître le meilleur emplacement pour une tour d'observation ou un point de vue panoramique.

Extraction

Il existe différentes manières d'extraire ou de découper un sous-ensemble de cellules à partir d'un jeu de données raster. Cela peut être fait par leurs attributs ou leur emplacement spatial.

L'extraction de cellules par attribut s'effectue via une clause WHERE à l'aide de l'outil Extraire par attributs. Par exemple, votre analyse peut nécessiter une extraction de cellules de plus de 100 mètres d'altitude à partir d'un raster d'altitude.

  • Les groupes de cellules sont identifiés en répondant à un critère de chute à l'intérieur ou à l'extérieur d'une forme géométrique spécifiée.
  • Les emplacements des cellules individuelles sont identifiés.

La majorité des outils d'extraction sont disponibles avec l'extension Spatial Analyst, cependant, l'outil Clip est disponible avec n'importe quelle licence ArcGIS.

Filtrage ou généralisation

Parfois, un jeu de données raster contient des données erronées ou non pertinentes pour l'analyse en cours ou qui sont plus détaillées que nécessaire. Par exemple, si un jeu de données raster a été dérivé de la classification d'une image satellite, il peut contenir de nombreuses zones petites et isolées mal classées. Les fonctions de généralisation aident à identifier ces zones et à automatiser l'attribution de valeurs plus fiables aux cellules qui composent les zones. Les fonctions de généralisation généralisent des zones ou des bords de zone lisses.

Le jeu d'outils Généralisation est fourni avec l'extension ArcGIS Spatial Analyst. Les outils de généralisation sont divisés en trois catégories : ceux qui fonctionnent sur (généraliser) les zones, y compris Region Group, Nibble, Shrink, Expand et Thin, ceux qui fonctionnent sur les bords de zone (lisse) y compris Boundary Clean et Majority Filter et ceux qui modifient la résolution des données, y compris l'agrégat.

Analyse à base d'eau

Il existe deux manières principales d'effectuer une analyse à base d'eau. Une méthode modélise l'écoulement de l'eau, tandis que l'autre modélise l'advection/dispersion des constituants dans les eaux souterraines. L'extension ArcGIS Spatial Analyst fournit des outils pour les deux types d'analyse et nécessite un DEM comme entrée pour la plupart des outils.

Le jeu d'outils Hydrologie fournit les outils nécessaires pour comprendre comment l'eau s'écoule dans une zone et comment les changements dans cette zone peuvent affecter le débit, comme l'identification des puits, la détermination de la direction du flux, le calcul de l'accumulation de flux, la délimitation des bassins versants et la création de réseaux de cours d'eau. Par exemple, vous pouvez identifier des réseaux de cours d'eau à l'aide de l'outil d'accumulation de flux ou identifier des bassins versants à l'aide de l'outil Direction du flux et de l'outil Bassin versant. L'image ci-dessous représente un réseau de cours d'eau dérivé d'un modèle d'élévation.

L'ensemble d'outils Eaux souterraines fournit les outils nécessaires pour effectuer une modélisation rudimentaire de l'advection/dispersion des constituants des eaux souterraines. Darcy Flow et Darcy Velocity génèrent un champ de vitesse d'écoulement des eaux souterraines à partir de données géologiques, Particle Track suit le chemin d'advection à travers le champ d'écoulement à partir d'une source ponctuelle, et Porous Puff calcule la dispersion hydrodynamique d'une libération ponctuelle instantanée d'un constituant au fur et à mesure de son advection. le long du chemin d'écoulement.

Modification des valeurs de cellule (reclassification)

  • Pour remplacer des valeurs en fonction de nouvelles informations
  • Pour regrouper certaines valeurs
  • Pour reclasser des valeurs sur une échelle commune, par exemple, pour une utilisation dans une analyse d'adéquation ou pour créer un raster de coût à utiliser dans la fonction de distance de coût
  • Pour définir des valeurs spécifiques sur NoData ou pour définir des cellules NoData sur une valeur

Analyses statistiques

L'extension ArcGIS Spatial Analyst contient de nombreux outils pour effectuer diverses analyses statistiques basées sur les cellules (raster). Ceux-ci sont divisés en trois groupes principaux : local, multivarié et de voisinage avec des ensembles d'outils pour chacun.

  • Ceux qui calculent une statistique pour chaque emplacement, par exemple, la valeur minimale
  • Ceux qui attribuent une valeur unique pour chaque combinaison unique de valeurs à chaque emplacement
  • Ceux qui attribuent le nombre de fois que les valeurs d'entrée d'emplacement de cellule pour l'emplacement répondent à un critère spécifié par rapport à une autre valeur d'entrée
  • Ceux qui attribuent la valeur à l'emplacement de la cellule qui répond à un critère spécifié par rapport à d'autres valeurs d'entrée
  • Ceux qui attribuent la position du raster contenant la valeur de cellule qui répond à un critère spécifié par rapport à une autre valeur en entrée
  1. Créez une collection multicanal (Créer un jeu de données raster).
  2. Créez les classes ou les clusters (Créer des signatures et Iso Cluster).
  3. Évaluez et modifiez les classes ou les clusters (Dendrogramme et Modifier les signatures).
  4. Effectuez la classification (Classification de vraisemblance maximale et probabilité de classe).

Les fonctions de voisinage créent des valeurs de sortie pour chaque emplacement de cellule en fonction de la valeur de l'emplacement et des valeurs identifiées dans un voisinage spécifié. Le voisinage peut être de deux types : rayon de déplacement ou rayon de recherche.

Les quartiers mobiles peuvent se chevaucher ou ne pas se chevaucher. Les fonctions de voisinage qui se chevauchent sont également appelées fonctions focales et calculent généralement une statistique spécifiée dans le voisinage. Ces outils incluent les statistiques focales, le filtre et le flux focal. Par exemple, vous souhaiterez peut-être trouver la valeur moyenne ou maximale dans un voisinage 3 x 3. Les fonctions de filtrage passe-haut et passe-bas, qui lissent et accentuent les données, sont des variantes de la fonction statistique de voisinage qui se chevauchent. Les fonctions de voisinage sans chevauchement, ou fonctions de bloc, permettent de calculer des statistiques dans un voisinage spécifié sans chevauchement. Celles-ci sont effectuées avec l'outil Statistiques de bloc. Les fonctions de bloc sont particulièrement utiles pour changer la résolution d'un raster en une taille de cellule plus grossière. Les valeurs attribuées aux cellules plus grossières peuvent être basées sur un calcul séparé, tel que la valeur maximale dans la cellule plus grossière, par opposition à l'utilisation de l'interpolation par défaut du voisin le plus proche.

Les fonctions de rayon de recherche effectuent divers calculs en fonction de ce qui se trouve à une distance spécifiée des entités ponctuelles et linéaires. Les outils pour cela incluent les statistiques de ligne et les statistiques de point.

Conditionnel

Les outils conditionnels permettent de contrôler les valeurs de sortie en fonction des conditions placées sur les valeurs d'entrée. La condition qui peut être appliquée est soit une requête d'attribut, soit une condition basée sur la position de l'instruction conditionnelle dans une liste.

La requête de condition par attribut permet à toutes les cellules évaluées comme vraies d'être explicitement identifiées. Ces cellules peuvent conserver leur valeur d'origine ou être définies sur une autre valeur ou sur NoData. Les cellules évaluées à faux peuvent être définies sur une plage de valeurs différente de la condition vraie. Par exemple, si la valeur dans le raster en entrée est supérieure à 10, retournez 1 sinon, retournez 100.

La condition par position de l'instruction conditionnelle—l'outil de sélection—requiert un paramètre d'entrée (un raster ou une constante) spécifiant la position de l'instruction conditionnelle (un raster ou une constante) qui doit être utilisée pour la sortie. Par exemple, si la valeur d'une cellule spécifiée du raster en entrée est 1, renvoie la valeur spécifiée par la première condition—qui peut être un raster, une constante ou une expression en algèbre cartographique—dans la liste d'instructions conditionnelles si une cellule dans le le raster en entrée est 2, renvoie la valeur spécifiée par le deuxième raster dans l'instruction conditionnelle, et ainsi de suite.

L'extension ArcGIS Spatial Analyst dispose de trois outils conditionnels principaux. L'outil Con effectue une évaluation conditionnelle, l'outil Pick effectue plusieurs évaluations pour la condition vraie et l'outil Set Null définit les valeurs spécifiées sur NoData.

Superposition pondérée

Une requête d'analyse spatiale courante consiste à identifier la pertinence de chaque emplacement de cellule par rapport à certains critères. Les critères peuvent être des coûts relatifs, des préférences ou des risques. Les modèles d'adéquation répondent à des questions telles que : Quel est le meilleur emplacement pour construire une maison ? Quelle est la route la moins chère pour construire une route ? et Quelles zones devraient être conservées pour l'habitat du cerf?


Résultats

Groupes significatifs par méthode

Dans les figures 1, 2 et 3, nous affichons les isolignes des clusters de filtrage spatial de niveau 95 % en utilisant des tailles de filtre de 0,4, 0,5 et 0,6 milles pour les années à somme forfaitaire de 2000 à 2002. Ceux-ci sont superposés sur les clusters les plus probables de SaTScan à des fins de comparaison. Nous avons évalué l'effet des changements de taille de filtre en créant des cartes avec différentes tailles de filtre. Les taux élevés d'insuffisance pondérale à la naissance sont restés alors que nous augmentions la taille des filtres à 0,4, 0,5 à 0,6 mille. Cela indique que ces différences sont moins probablement dues au hasard. La taille de filtre de 0,4 mile ou les tailles de filtre plus petites ont montré la variabilité locale bien mieux que les tailles de filtre plus grandes de 0,5 et 0,6 mile (Figure 1). La taille du filtre de 0,4 mile a donné lieu à cinq zones regroupées. D'autre part, les grappes ont augmenté en taille et des grappes supplémentaires ont émergé vers la partie nord-est du comté lorsque nous avons utilisé la taille de filtre de 0,5 mile (Figure 2). Au fur et à mesure que nous augmentions la taille du filtre à 0,6 mile, les grappes localisées se sont réunies en un motif uniforme plus large couvrant la partie ouest du comté (Figure 3). Le tableau 1 montre la superficie totale des clusters pour les deux méthodes avec différentes tailles de filtre. Une fois que nous avons appliqué une taille de filtre spatial plus grande que 0,8 mile, la technique de filtrage spatial a perdu la capacité de détecter des taux élevés, sauf pour les zones les plus densément peuplées de Memphis.

Zones avec des taux élevés statistiquement significatifs d'insuffisance pondérale à la naissance, Shelby, TN, 2000-2002. Les cartes montrent des clusters SaTScan avec une taille de cluster spatiale maximale de 0,4 miles. Il montre également des groupes de filtres spatiaux importants avec une taille de filtre maximale de 0,4 mile.

Zones avec des taux élevés statistiquement significatifs d'insuffisance pondérale à la naissance, Shelby, TN, 2000-2002. Les cartes montrent des clusters SaTScan avec une taille de cluster spatiale maximale de 0,5 mile. Il montre également des groupes de filtres spatiaux importants avec une taille de filtre maximale de 0,5 mile.

Zones avec des taux élevés statistiquement significatifs d'insuffisance pondérale à la naissance, Shelby, TN, 2000-2002. Les cartes montrent des clusters SaTScan avec une taille de cluster spatiale maximale de 0,6 mile. Il montre également des groupes de filtres spatiaux importants avec une taille de filtre maximale de 0,6 mile.

D'un autre côté, SaTScan a donné des résultats cohérents avec des tailles de filtres plus grandes. Les zones qui ont des taux statistiquement significatifs ajustés après plusieurs tests sont également apparues comme des zones à taux élevé sur les cartes lissées par filtrage spatial des taux de faible poids à la naissance. Les clusters SaTScan étaient discrets par rapport à la distribution continue des clusters de filtrage spatial. Les clusters SaTScan les plus probables et les clusters de filtrage spatial continu étaient concentrés dans la partie ouest du comté de Shelby. Des grappes secondaires de moindre importance sont apparues à mesure que la taille des grappes augmentait. Les grappes résultantes étaient de forme circulaire à l'intérieur de la taille de grappe spatiale maximale prédéfinie. Les amas les plus probables sont apparus aux mêmes endroits avec des rayons plus grands à l'exception de nouveaux amas secondaires à proximité.

Le tableau 2 illustre les caractéristiques maternelles et familiales selon la méthode et le type d'estimation par grappes. Les caractéristiques ethniques, économiques et éducatives des mères dont les naissances sont dans la grappe sont assez similaires, quelle que soit la taille du filtre. Avec les deux méthodes, les clusters deviennent de plus en plus hétérogènes à mesure que la taille du filtre augmente. Bien que l'on puisse s'attendre à plus d'hétérogénéité à mesure que la taille de l'échantillon augmente, il est possible que les parties externes de la grappe commencent à empiéter sur les communautés mieux éduquées et plus riches. La seule différence majeure entre les deux méthodes était le nombre total de naissances au sein de chaque type respectif de grappe. Les clusters de filtrage spatial comprennent près de 3 fois plus de naissances totales que SaTScan à la taille de filtre de 0,4 mile. Cela peut être dû en partie au fait que la superficie totale couverte par les clusters de filtrage spatial est presque 3 fois plus grande que la superficie totale couverte par les clusters SaTScan.


FME considère qu'un ensemble de données de destination CADRG est un nom de dossier de conteneur. Chaque type d'entité possède un sous-dossier dans le dossier du conteneur. A l'intérieur de chaque sous-dossier, il y a un fichier de table des matières A. COT et un ou plusieurs sous-dossiers contenant des fichiers de trame. Les fichiers frame et leurs sous-dossiers sont nommés selon la spécification MIL-STD-2411.

Toutes les entités raster du même type d'entité CADRG sont regroupées sous un fichier de table des matières. Chaque entité raster représente un rectangle de limite, mais lorsque les étendues de l'entité raster chevauchent deux zones ou plus, l'entité raster sera décomposée en plusieurs rectangles de limite, dont chacun couvre le sous-ensemble raster dans une zone. Selon la spécification, les zones adjacentes se chevauchent et les données raster dans la zone d'intersection seront répétées dans les deux rectangles de frontière. Étant donné que chaque zone a des intervalles et des résolutions verticaux/horizontaux spécifiques, il peut être nécessaire de rééchantillonner les rectangles de délimitation.

Chaque rectangle de délimitation sera décomposé en un ou plusieurs fichiers de trame. Chaque fichier de cadre a une taille de 1536 x 1536. Lorsque le nombre de lignes ou de colonnes dans un cadre est inférieur à 4, le rédacteur ne créera pas le fichier de cadre, car le rédacteur a besoin d'au moins 4 lignes et colonnes pour effectuer la compression spatiale. . Les trois palettes ont respectivement 216, 32 et 16 entrées lorsque le raster n'a pas de valeur NoData, ou 217, 33 et 17 entrées, respectivement, lorsque le raster a une valeur NoData. Chaque entrée de palette est une valeur RGBM de quatre octets. Le premier octet R contient le niveau d'intensité rouge, le deuxième octet G contient le niveau d'intensité vert, le troisième octet B contient le niveau d'intensité bleu et le quatrième octet M contient un niveau d'intensité monochrome (niveaux de gris), qui est une combinaison arithmétique de rouge , niveaux d'intensité vert et bleu. L'équation utilisée pour calculer le niveau d'intensité monochrome est : 0,299 (Rouge) + 0,587 (Vert) + 0,114 (Bleu).

Dans les palettes, les dernières entrées (respectivement les 217e, 33e et 17e entrées) sont réservées à la valeur NoData, ou aux pixels « transparents », pour les cas où les données sont manquantes ou non disponibles à l'emplacement géographique donné. Les valeurs RGBM dans la palette CADRG pour l'entrée nodata sont 0, 0, 0, 0.


Introduction

Les satellites en orbite autour de la Terre avec leurs capacités de télédétection capturent des informations sur la géographie de la Terre sous forme d'images de télédétection. Ces images sont des représentations de la surface de la Terre vue de l'espace et contiennent l'intensité des grandeurs physiques telles que le rayonnement solaire réfléchi par le sol, le rayonnement infrarouge émis ou l'intensité radar rétrodiffusée [14]. Ces informations sont capturées par de multiples capteurs à bord des satellites qui captent le rayonnement pour différentes longueurs d'onde et sont fournies sous la forme de données raster multispectrales. L'utilisation de plusieurs capteurs pour la même zone géographique capture divers types d'informations, notamment l'imagerie thermique (infrarouge), le rayonnement visible (bleu, vert et rouge), etc., et est stockée sous forme de bandes individuelles [2]. Les données multispectrales et multidimensionnelles sont généralement disponibles sous la forme de fichiers au format de fichier d'images étiquetées géoréférencées multibandes (GeoTIFF), une extension du format TIFF. Une image Landsat 7 se présente sous la forme d'un fichier GeoTIFF composé de 8 bandes spectrales et chacune des bandes spectrales stocke une longueur d'onde différente diffusée ou émise par la surface de la Terre. La norme GeoTIFF précédente était limitée à la prise en charge de 4 Go de données raster, qui a été remplacée par la norme actuelle Big GeoTIFF et permet le stockage de fichiers image de plus de 4 Go dans le conteneur TIFF [17]. Cela était nécessaire en raison de la résolution spatiale croissante et du nombre de bandes simultanées qui devaient être stockées pour une zone géographique. Il existe également une grande disponibilité d'images de résolution Giga Pixel (10 9 pixels) provenant de domaines tels que la biotechnologie et la médecine légale, qui sont également stockées au format Big GeoTIFF. L'organisation et la gestion de ce type de données est en soi une tâche énorme et son traitement nécessite la conception de systèmes parallèles et distribués qui permettront un traitement plus rapide de téraoctets de données et fourniront les résultats en un temps limité.

L'image raster consiste en la représentation d'objets géographiques dans une scène bidimensionnelle et il s'agit d'un tableau bidimensionnel d'éléments d'image individuels appelés pixels disposés en colonnes et en rangées [45]. Chaque pixel représente individuellement des informations sur une zone de la surface de la Terre. Les informations sur la zone sont représentées par une valeur d'intensité et une adresse de localisation dans une image bidimensionnelle. Alors que la valeur d'intensité est représentée par la réflectance mesurée, l'emplacement est représenté par la valeur (longitude, latitude) pour une image géo-référencée [43]. Un seul pixel dans une image multibande a plusieurs valeurs en fonction du nombre de capteurs qui ont capturé des informations pour cet emplacement géographique. Les bandes individuelles sont généralement utilisées indépendamment en fonction de l'analyse géospatiale requise et des résultats intermédiaires combinés pour former les résultats finaux. Toutes ces bandes, lorsqu'elles sont utilisées conjointement pour l'analyse géospatiale, fourniront une représentation plus précise des phénomènes à la surface de la Terre. Il existe de nombreuses techniques disponibles pour stocker et organiser les données multibandes (pixels) d'une image dans des fichiers binaires tels que la bande séquentielle (BSQ), la bande entrelacée par pixel (BIP) et la bande entrelacée par ligne (BIL). Le format BIL stocke les données du premier pixel de toutes les différentes bandes de la première rangée, et les données du deuxième pixel de toutes les différentes bandes de la deuxième rangée et ainsi de suite [20]. Un exemple d'un tel format est les données du capteur qui proviennent des données du satellite français [également connu sous le nom de SPOT (Satellite Pour l'Observation de la Terre qui se traduit par Satellite pour l'observation de la Terre)] [64]. Cette étude utilise un format d'entrée personnalisé similaire à celui de la BIL pour surmonter certaines des difficultés rencontrées lors du traitement de tels formats de données binaires dans un environnement MapReduce. Il existe une section distincte (« Espace géométrique à espace spectral (phase de préparation) ») qui traite des détails et du format de données requis en tant qu'entrée dans le cadre d'exploitation minière développé.

Le papier a la structure suivante. Un examen des progrès de l'exploration de données Big Geospatial a été présenté dans la section « Travaux connexes ». La nouvelle approche de conversion de données multispectrales en espace géométrique est discutée et développée dans la section « Méthodologie proposée ». La section « Résultat et discussion » fournit une synthèse d'analyse des résultats obtenus. Finally, “Conclusion and future work” section concludes the paper and provides directions for further research.


Map-projection-independent crater size-frequency determination in GIS environments—New software tool for ArcGIS

Statistical analysis of crater size-frequency distributions (CSFDs) of impact craters on planetary surfaces is a well-established method to derive absolute ages on the basis of remotely-sensed image data. Although modelling approaches and the derivation of absolute ages from a given CSFD have been described and discussed in considerable depth since the late 1960s, there is no standardised methodology or guideline for the measurement of impact-crater diameters and area sizes that are both needed to determine absolute ages correctly. Distortions of distances (i.e., diameters) and areas within different map projections are considerable error sources during crater and area measurements.

In order to address this problem and to minimize such errors, a software extension for Environmental Systems Research Institute's (ESRI's) ArcMap (ArcGIS) has been developed measuring CSFDs on planetary surfaces independently of image and data frame map projections, which can also be theoretically transferred to every Geographic Information System (GIS) capable of working with different map projections.


How to set the x,y resolution and domain

Before you specify the x,y resolution and domain, there are three things to consider:

  • Will the resolution maintain the accuracy of your data collection?
  • Will the domain cover the entire extent of your study area?
  • For ArcSDE geodatabases, is the resolution large enough to minimize storage and maximize performance?

You don't always need to worry about all these issues. Many times, you can let the default settings generated by the software deal with these issues for you. Below are three different approaches. Choose the one that is most appropriate for your application.

A. Take the defaults when importing data.

B. Specify the domain and accept the resolution default.

C. Specify the resolution and domain.

Approach A: Take the defaults when importing data

This is the easiest of the approaches because you simply take the default resolution and domain generated for you when you import data. Use this approach if you

  • Have at least one vector dataset or a group of tiled datasets that covers the entire extent of your study area
  • Want the smallest resolution possible within your study area

If you have a dataset that covers the entire study area, import the dataset first and accept the default values for the resolution and domain. The defaults will create a domain that encompasses all the features with a little room to grow. If you have tiled datasets that together cover the entire study area, calculate a domain that encompasses all the datasets using the Create Spatial Reference tool. Then create an empty feature class with this domain and load the tiled data into it.

Using this method, the resolution value will be minimized within the default domain. Because the resulting resolution could be small, this would not be the best approach if you are trying to get the optimum performance out of an ArcSDE geodatabase. However, this approach will ensure that all your data will fit inside the domain and you are using the smallest resolution possible for your data.

As you create or import subsequent datasets to the geodatabase, use the spatial reference calculated from this original feature class. You can do this by importing the spatial reference from this feature class whenever you create new feature classes or feature datasets. You can also set your geoprocessing settings to use the spatial reference from this feature class by following these steps:

  1. In ArcCatalog or ArcMap, click the Geoprocessing menu and click Environments .
  2. Expand Output Coordinates .
  3. For Output Coordinates, click As Specified Below .
  4. Next to the following text box, click the folder icon.
  5. On the XY Coordinate System tab, click Import .
  6. Navigate to and choose the first feature class that you imported into the geodatabase.
  7. Click Add .
  8. Click OK on all the open dialog boxes.

Once you've finished these steps, all subsequent geoprocessing operations, including importing new data, performed by the current user on this machine will use this spatial reference.

Approach B: Specify the domain and accept the resolution default

This approach helps you determine the domain for your study area, then minimizes the resolution within that study area. Use this approach if you

  • Do not have a single vector dataset that covers the extent of your study area, but you can define your study area on a map
  • Want the smallest resolution possible within your study area

The result of this approach will be exactly the same as approach A therefore, it has the same strengths and weaknesses. Before you can begin, you must know the coordinate system that you plan to use. For information on choosing a coordinate system, see the "Map projections" topic in the ArcGIS Desktop Help. If you plan to use the state plane or UTM coordinate systems, you can find data defining the zone locations at <ArcGIS installation location>ArcGISReference Systems in the usstpln83 and utm shapefiles.

First, determine the domain for your study area:

  1. Start ArcMap and add reference data for the world or your area of interest. Look for reference data in the following locations:
    • ESRI Data & Maps CD-ROM (included with ArcGIS)
    • <ArcGIS installation location>ArcGISMetadataData
    • Geography Network
  2. Set the coordinate system of the data frame to the one that you want to use for the new dataset.

une. Open the data frame properties.

b. Click the Coordinate System tab.

c. Open the Predefined folder and navigate to the coordinate system that you plan to use.

Now apply this domain when creating a new feature class:

  1. In the Catalog tree, navigate to your version 9.2 or higher geodatabase, right-click, point to New , then click Feature Class .
  2. Type an appropriate name, such as StudyArea.
  3. Choose the feature type and whether z- or m-values are supported.
  4. Select or import your coordinate system.
  5. Click Next .
  6. Copy and paste your coordinates out of the text file into the appropriate text boxes. Notice that the resolution adjusts as you change the domain.
  7. Click Next .
  8. Add any fields to the feature class.
  9. Click Finish on the New Feature Class wizard.

Now you can import the spatial reference from the StudyArea feature class for all other data that you create in that study area. You can also set your geoprocessing environment so all new data created from geoprocessing operations uses this spatial reference. See approach A for how to set the geoprocessing environment to use a spatial reference from a feature class.

Approach C: Specify the resolution and domain

With this approach, you calculate the resolution and domain manually. Use this approach if you want to maximize the performance of low-precision data in an ArcSDE geodatabase.

Step 1: Calculate the resolution.

First, you must calculate an appropriate resolution. Set your resolution values to be 10 times smaller than the best accuracy of your data collection. This will ensure that the precision of your data collection is maintained in the geodatabase regardless of how you manipulate the data with ArcGIS (geoprocessing, topology cluster tolerance, geometry operations, and so on). Consider the following examples:

Calculating resolution based on data that uses a geographic coordinate system (GCS) is slightly more difficult because angular units (degrees) are not consistent everywhere on the planet. As the latitude changes, each degree of longitude represents a different length on the ground. If you want to calculate the resolution by using a linear unit with data in a GCS, you will have to perform some calculations. If you calculate an appropriate resolution when your angular units are at their largest, you will maintain even more precision in areas where angular units are smaller. For example, if you are maintaining 1-meter precision where 1 degree equals 100 miles on the ground, your geodatabase will maintain 1-centimeter precision where 1 degree equals 1 mile on the ground. In a geographic coordinate system, angular units are largest at the equator. Resolution will be the inverse of the linear length in 1 degree at the equator. As mentioned above, the resolution value should be divided by 10 to account for any ArcGIS processing operations. You can use the following equation:

For example, GCS_WGS_1984 has a circumference of 40075016.7 meters. Thus

Another option is to multiply the semimajor axis of the GCS by the number of radians per angular unit, which is the equivalent of

You can find this technical information about your GCS by opening its property dialog box in the Catalog tree. If you don't see the Coordinate Systems folder in the ArcCatalog tree, you can make coordinate systems visible from the General tab of the ArcCatalog Options dialog box in ArcCatalog.

Step 2: Check the resolution against your study area.

To validate that your resolution will work given your study area, divide the greater of the width or height (range) of your study area by the resolution. If the result is less than 2,147,483,647, your data can fit inside a domain with your chosen resolution.

Even though your data can fit inside a domain, your coordinates may fall outside the coordinate system boundary. Consider the following fictitious dataset with map units of meters:

A range of 800,000 (the width) divided by a resolution of 0.0001 equals 800,000,000, which is less than 2.14 billion therefore, the data will fit. However, the upper right corner of the study area will be 1,000,000,000x, 4,060,000,000y (that is, [1,000,000x] / 0.0001 and [4,060,000y] / 0.0001). Notice that the y-value is outside the 0 to 2.14 billion range by about 1.9 billion units. To store these coordinates inside the geodatabase, you must shift the domain to surround the data.

Step 3: Calculate an appropriate minimum x,y.

Before you can shift the domain to surround your data, you must identify the center of your domain in map units. The goal is to place your data in the center of the domain so your data can expand in all directions if necessary. All the calculations for shifting the coordinate system are in coordinate system units.

First, find the center of the domain in integer space:

Next, convert the center to coordinate system units by multiplying by the resolution. This example uses a resolution of 0.001:

Now that you have found the center of the domain in coordinate system units, you need to calculate a new minimum x and y of your domain. The formula for calculating the minimum x and y of your domain is as follows:

This equation finds the minimum coordinates of your domain to locate the center of your data at the center of the domain. Remember, all these calculations are in coordinate system units. Examine this equation for the x dimension given the example data.

First, find the center of your data:

Next, find the difference between the center of your data and the center of geodatabase space:

Because this is a negative number, the domain will shift to the left. Remember, the shift is applied to the domain, not the data. The shift is calculated for both dimensions, so you would need to repeat this process for the y-coordinate. If you are trying to maximize performance in an ArcSDE geodatabase, do not center the domain. Instead, set the minimum domain values as close to the data as possible.

Step 4: Create the dataset.

Once you have calculated the resolution and minimum x- and y-values, you are ready to create a feature dataset or stand-alone feature class. The first time you create one of these with the New Feature Class or New Feature Dataset wizard, uncheck the Accept default resolution and domain extent check box and enter the resolution and minimum x- and y-values you calculated. The maximum x- and y-values will be calculated automatically. For all subsequent data that you import or create, you can simply import this spatial reference. You can also set your geoprocessing environment so all new data created from geoprocessing operations uses this spatial reference. See approach A for how to set the geoprocessing environment to use a spatial reference from a feature class.


Processing an Image

Most image processing functions act on a bitmap in memory, which means that the changes become permanent when you save the image in a file. Some low-level functions act on a buffer that you manage (for example, when you process data as it is loaded).

Changing the Data Format

You can change the color resolution (bits per pixel) of an image using a number of high-level and low-level functions. For a list of these functions, refer to Doing Color Expansion or Reduction.

Windows always uses the RGB color-space model, and when loading or saving a file, LEADTOOLS converts image data to or from RGB, as necessary. Nevertheless, LEADTOOLS provides functions for other color-space models. You can use the high-level L_ColorSeparateBitmap and L_ColorMergeBitmap functions to create and merge color separations using a number of color-space models, including RGB, CMYK, CMY, HSV, and HLS. You can also use the low-level L_ConvertColorSpace function to convert raw data in a buffer from one color-space model to another, including RGB, YUV, CMYK, CMY, YIQ, HSV, and HLS.

If the source data is in the YUV colorspace rather than in BGR/RGB format, you can use the L_SetBitmapYUVData function to convert the YUV data to grayscale/BGR before being set in the BITMAPHANDLE. Use the L_GetBitmapYUVData function to convert a bitmap's grayscale or BGR data to YUV and store it in an output buffer.

The L_AutobinarizeBitmap automatically converts color images into binary (black and white) images, with several pre-processing options. These include eliminating the bitmap's background, (while keeping key features such as text) performing automatic color-leveling, and performing color-leveling with user-specified thresholds.

Changing the Data Type (Signed / Unsigned)

Image data can be changed from signed to unsigned and vice versa. Signed image data may contain some negative values. Converting data from signed to unsigned, and vice versa, is done by shifting the image data/intensity values by a specific value. The ability to shift image data back and forth between signed and unsigned is often useful in medical or analytical applications.

To change image data from signed to unsigned, which is often done before applying image processing or analysis functions, there are the following options:

L_ConvertBitmapUnsignedToSigned shifts the image data based on internal aspects of the bitmap.

L_ShiftMinimumToZero provides the user with the value by which the image data was shifted. This information can be used later, after image processing, to return the image to signed data.

L_ClearNegativePixels sets all negative pixels to 0, therefore creating an unsigned image.

After signed images have been converted to unsigned images image processing or analysis functions can be performed on the unsigned images. (Most image processing functions work only on unsigned data.) When the image processing or analysis is complete, convert the unsigned data back to signed data.

To change image data from unsigned to signed, which is often done after applying image processing or analysis functions, there are the following options:

L_ConvertBitmapSignedToUnsigned shifts the image data based on internal aspects of the bitmap.

L_ShiftZeroToNegative gives the user the ability to specify the amount by which to shift the image data, and dictates the minimum and maximum values that are output by the function.

Doing Geometric Transformations

Geometric transformations include resizing, trimming, rotating, shearing, flipping, or reversing a bitmap. Some geometric transformation functions are designed mainly for document imaging. For example, L_DeskewBitmap (Document and Medical Imaging toolkits ) and L_DeskewBitmapExt(Document and Medical Imaging toolkits ) let you automatically straighten scanned documents. L_DeskewBitmap has special flags that make it possible to straighten bank check images. For more information, refer to Deskewing.

LEADTOOLS also provides the L_TransformFile function for performing lossless flips, rotations and reversals. However, only certain file formats are supported at this time. This function provides better results than loading an image, transforming it using L_RotateBitmap, L_FlipBitmap or L_ReverseBitmap and then resaving it. It uses the TRANSFORMFILECALLBACK function for processing the file. The TRANSFORMFILECALLBACK function in turn uses the LEADMARKERCALLBACK function for writing any updated markers within the file. For more information, refer to L_TransformFile, TRANSFORMFILECALLBACK and LEADMARKERCALLBACK.

The L_DisplaceMapBitmap function displaces bitmap pixels horizontally and vertically according to the values of the displacement map image.

The L_PerspectiveBitmap function gives a bitmap a 3-D depth, as if it exists on a flat plane and has been skewed into a different shape. The L_ManualPerspectiveDeskew function corrects the view perspective.

The L_Keystone function maps a polygon to a rectangle (an inverse perspective transformation), and can be used to correct the perspective of images that were captured from portable devices at an angle.

The L_UnWarp function removes the distortion in an image of a cylindrical object, as if removing a label from off of the cylinder and flattening it out.

Use the L_BezierPath function to match the output curve with the curve between two corners of the shape before calling L_UnWarp. Be sure to call L_FreeBezierPath when finished in order to free all the memory associated with the structure.

The L_AlignImages function aligns two images (the pRefBitmap and pTempBitmap images) based on the locations of the input points. The images are combined, creating the ppOutBitmap image.

For a list of functions in this group, refer to Raster Image Functions: Doing Geometric Transformations. For information about memory allocation when a bitmap gets bigger, refer to Resizing Considerations.

Lightening, Darkening, and Filtering Images

A number of image processing functions let you change the values of pixels across a bitmap (or a region in the bitmap) using various algorithms and filters. You might do this to improve the appearance of the image, to analyze details in the image, or to apply artistic effects. The following topics provide details:

Adding Another Image to a Bitmap

The L_CombineBitmap function lets you add all or part of another bitmap to the target bitmap. You can pass flags to control whether the new pixels simply replace the old ones or are combined with the old ones in a specified way. You can also define regions in either or both of the bitmaps, and if you do, the function affects only the intersection of the regions. The L_CombineBitmap also lets the user combine bitmaps of different bits per pixel and specify which color planes to use when combining the bitmaps. For information about regions, refer to Defining and Using a Bitmap Region.

Source and destination bitmaps may be combined by warping all or part of a source bitmap into part of a destination bitmap. To combine images in this manner, use L_CombineBitmapWarp.

The L_UnderlayBitmap function also combines images, but it has a much more specific purpose. It combines two bitmaps so that one appears to be an underlying texture for the other.

LEADTOOLS provides several functions for picturizing an image. The L_PicturizeBitmap function replaces an image with a new image created by combining images present in a specific directory. L_PicturizeBitmapList replaces an image with a new image created by combining images present in a bitmap list. The L_PicturizeBitmapSingle function picturizes an image using various versions of a single image.

Two bitmaps can also be blended by combining the images with an opacity value. The L_AlphaBlendBitmap function combines two bitmaps with a fixed opacity value to create a new blended image. The L_FeatherAlphaBlendBitmap function combines two bitmaps with feathering by using a variable opacity that depends on a fade mask with specifying the region of the fade mask. A fade mask bitmap can be created using the L_CreateFadedMask function.

Borders and frames may be added to a bitmap using the L_AddBorder and L_AddFrame functions.

The L_BumpMapBitmap function lets you combine a bitmap with a bump image to create a three-dimensional texture pattern.

The L_CanvasBitmap function applies an image as an overlay for another image.

A number of other functions let you get and put pixel data. For example, you can fill a bitmap with a color, and you can get and put individual pixel values. For a list of functions, refer to Getting and Setting Pixel Values.

Treating the bitmap as a device context opens up many possibilities. The L_CreateLeadDC function lets you get the device context. You can then use Windows GDI functions to draw lines, text, or images on the bitmap. You can also use the LEADTOOLS special effects functions to add three-dimensional shapes or text, or to combine images in interesting ways. For details, refer to Implementing Special Effects.

L_TextureAlphaBlendBitmap combines image data from pBitmapMask and pBitmapUnderlay with an underlay effect. The result is used as a fade mask that will be used to combine pBitmapSrc and pBitmapDst with variable opacity. The result is combined again with pBitmapDst using a constant opacity (using nOpacity). The L_BricksTextureBitmap function creates a brick texture that makes the image look like it has been drawn on a brick wall.

The L_DigitalSubtractBitmap function does not combine images, but subtracts the live (destination) bitmap from the mask (source) bitmap to show the differences between the two bitmaps.

Comparing Images

Two bitmaps or parts of two bitmaps can be compared using the L_CorrelationBItmap function. This function compares all or part of one bitmap with all the areas of the same dimensions in another bitmap and finds those areas that match according to the measure of correlation. The L_CorrelationListBitmap function compares the images in hCorList with all the areas of the same dimensions in pBitmap and finds those portions that match according to the measure of correlation.

Extracting Bitmaps from a Series

The L_SliceBitmap function is designed to extract the individual slices from radiographic scanned film.

Detecting Image Features

The L_BlankPageDetectorBitmap function determines whether the scanned image is a blank page (empty) or not, also it gives the accuracy percentage of the result. This function helps in reducing disk storage of scanned images.

The L_InvertedPageBitmap function detects whether the image (page) is inverted (white text and black background). If it is inverted it is inverted again so the text is black and the background is white. Use this function to enhance OCR and clean-up function performance.

The L_LambdaConnectedness function performs image segmentation using a special region-growing algorithm called Lambda Connectedness.

The L_LevelsetBitmapRgn function performs semi-automatic segmentation (using the Levelset algorithm) to find the best-fitting contour that encapsulates the object.

The L_OtsuThreshold function performs image segmentation and color reduction using Otsu clustering on grayscale images. Otsu thresholding is typically used as a way to binarize an image.

Use the L_MICRDetection function to automatically detect Magnetic Ink Character Recognition (MICR) zones in a document image.

Use the L_MRZDetection function to automatically detect a Machine-Readable passport Zone (MRZ) in a document image.

The L_BlurDetection function determines whether an image is blurred. The L_GlareDetection function automatically detects the glare zone in an image.

The L_SignalToNoiseRatio function calculates the Signal To Noise Ratio (SNR) as the 10*log10 of the real value. This value gives an indication of the homogeneity of adjacent pixels in an image.

The L_KMeansBitmapSegmentation function is an algorithm for analyzing data. Each observation gets placed in the cluster having the mean nearest it.

The L_GWireGetMinPath function detects objects in an image using the G-Wire algorithm.

Auto Zoning (Detecting Image Features)

The L_AutoZoneBitmap function detects different zones (Text, Graphic and Tables) in an image automatically, and return the location (rectangle) and the data of each zone such as (text lines and table&aposs cells ) in an allocated memory. It could be used with OCR, or any application that needs to automatically separate images, tables and text within mixed raster content (MRC) images.

If the user has defined an AUTOZONECALLBACK function and passed a pointer to this function to L_AutoZoneBitmap, the callback function will receive each zone detected. This allows the user to process each image as desired.

When the allocated memory that contains the detected zones is no longer needed, it should be freed by calling the L_FreeZoneData function.

Magic Wand and Fast Magic Wand Operations

Magic Wand

Typically, the Magic Wand operation creates a Windows region or a LEAD region (L_RGN). Although the Fast Magic Wand operation works in the same manner and under the same conditions, it creates an OBJECTINFO structure containing two elements: a rectangle and a two-dimensional array.

The rectangle corresponds to the bounding box of the region. The two-dimensional array corresponds to the pixels belonging to that region by referencing included elements as 1 as opposed to 0 when they are not included.

The number, orientation and order of the elements of the two-dimensional array correspond to those pixels within the bounding rectangle. Thus, the exact shape and position of the region can be known.

To begin using the Fast Magic Wand operation, you must first initialize a Fast Magic Wand handle. This is done by calling the L_StartFastMagicWandEngine function. Once the handle is initialized, perform the fast magic wand operation by calling the L_FastMagicWand function. This function is used when it is needed to select many regions over one image, especially large images as it performs faster. When the OBJECTINFO structure obtained by the L_FastMagicWand is no longer needed, delete it by calling the L_DeleteObjectInfo function.

The L_ObjectCounter counts the objects in a binary image. It counts the black objects against a white background. If the background is black and the objects are white, use L_InvertBitmap and then use L_ObjectCounter.

When the fast magic wand handle is no longer needed, free the handle by calling L_EndFastMagicWandEngine. At this point this handle becomes invalid.


Voir la vidéo: convert shapefile to raster in ArcGIS