Suite

Pointez à l'intérieur de st_dwithin avec des résultats erronés

Pointez à l'intérieur de st_dwithin avec des résultats erronés


Je veux obtenir tous les points, qui sont dans la même zone. Par conséquent, j'ai la requête suivante pour ma vérification de table :

SELECT l.location_id, l.location FROM vérifier l INNER JOIN vérifier l2 ON ST_DWithin (l.location, l2.location, 500) AND l.location_id <> l2.location_id;

L'emplacement de la colonne est unGéométrie (Point)Type de données.

L'exécution me donne une erreur et me donne plus de 2 millions de jeux de résultats… à partir de 1560 lignes initiales. Les points sont normalement répartis à travers l'Europe et fixer le seuil à 500 (m) semble être bien. Est-ce peut-être un problème avec le type de données?


Il y a fort à parier que votre SRID est 4326, et que vous testez si chaque géométrie est à moins de 500° de latitude et/ou de longitude, ce qui est une distance de non-sens. Comme tout est à moins de 500° l'un de l'autre, le retour attendu est de 1560 * 1560 = 2433600 lignes.

Essayez de diffuser sur unla géographietype, qui utilise des unités de distance en mètres (par exemple, voir ST_DWithin pour les entrées géographiques). Essaye ça:

ST_DWithin (l.location::geography, l2.location::geography, 500)

Il fonctionnera plus lentement. Si vous voulez l'accélérer, vous pouvez soit créer un index GiST sur la distribution géographique, soit convertir le type en géographie et y créer un index GiST régulier, ouuse_spheroid=falseapproximer les distances sur une sphère plutôt que sur un ellipsoïde de révolution.

Ou si vous n'avez pas vraiment besoin d'exactement 500 m de distance, vous pouvez approximativement 500 m en degrés, ce qui dépend de votre position. Par exemple, à 40° de latitude, 500 m correspondent à environ 0,00450310° N-S et 0,00585522° E-W.


Évaluation de l'étendue et des sources de contamination par les nitrates dans le système aquifère du sud du comté de Baldwin, en Alabama

Une étude des eaux souterraines à l'échelle régionale a été menée sur une période de 2 ans pour évaluer l'étendue de la contamination par les nitrates et l'identification de la source pour le sud du comté de Baldwin, AL. Des puits d'eau souterraine ont été échantillonnés et analysés pour le nitrate et une foule d'autres paramètres géochimiques qui ont révélé que de vastes zones dans la zone aquifère A2 présentaient des concentrations de nitrate dépassant les limites réglementaires. Des cartes spatiales d'isoconcentration de nitrate ont été construites à l'aide du logiciel ArcGIS pour déterminer l'étendue et la gravité de la contamination des aquifères sous-jacents au sud du comté de Baldwin, l'intérêt principal étant concentré sur la zone aquifère fortement utilisée A2. Les niveaux de nitrate dans la partie centrale et nord-est de la zone d'étude étaient les plus élevés avec des concentrations maximales de 63 mg/L résultant probablement d'intrants agricoles. Plusieurs autres petites régions de la zone d'étude présentaient des niveaux élevés de nitrate et de chlorure pouvant atteindre 112 et 51,1 mg/L, respectivement, et les sources varient probablement (c.-à-d. installations septiques résidentielles, déchets animaux destinés à l'agriculture). À l'exception de quelques échantillons d'eau souterraine, il n'y avait pas de relation corrélative évidente entre les concentrations de chlorure et de nitrate pour les données recueillies au cours de la période de 2 ans. Collectivement, une relation inverse générale entre les concentrations de nitrate et la profondeur du puits a été observée pour le système aquifère à l'étude. L'étude fournit un premier ensemble de données actuelles sur les zones touchées ou les plus vulnérables à la contamination par les nitrates et une évaluation initiale des sources probables de nitrate dans la région.

Ceci est un aperçu du contenu de l'abonnement, accessible via votre institution.


Abstrait

L'utilisation du crowdsourcing – l'obtention de grandes quantités de données via Internet – a été d'une grande valeur en météorologie urbaine. Le crowdsourcing a été utilisé pour obtenir des données sur la température de l'air, la pression atmosphérique et les précipitations urbaines à partir de sources telles que les téléphones portables ou les stations météorologiques personnelles (PWS), mais jusqu'à présent, les données sur le vent n'ont pas été étudiées. Le comportement du vent urbain est très variable et difficile à mesurer, car les observations dépendent fortement de l'emplacement et de l'installation instrumentale. Le crowdsourcing peut fournir un réseau dense d'observations du vent et peut donner un aperçu de la configuration spatiale du vent urbain. Dans cette étude, nous évaluons la compétence du populaire anémomètre PWS « Netatmo » par rapport à une référence pour un site rural et un site urbain. Par la suite, nous utilisons des observations participatives de la vitesse du vent de 60 PWS à Amsterdam, aux Pays-Bas, pour analyser les distributions de la vitesse du vent de différentes zones climatiques locales (LCZ). L'anémomètre Netatmo PWS semble sous-estimer systématiquement la vitesse du vent, et les épisodes de pluie ou d'humidité relative élevée dégradent la qualité de la mesure. Par conséquent, nous avons développé un protocole d'assurance qualité (AQ) pour corriger les mesures PWS pour ces erreurs. Le protocole QA appliqué améliore fortement les données PWS à un point où elles peuvent être utilisées pour déduire la distribution de densité de probabilité de la vitesse du vent d'une ville ou d'un quartier. Cette distribution de densité consiste en une combinaison de deux distributions de Weibull, plutôt que de la distribution unique typique de Weibull utilisée pour les observations de la vitesse du vent en milieu rural. La capacité limitée de l'anémomètre Netatmo PWS à mesurer la vitesse du vent proche de zéro fait que le protocole QA fonctionne mal pendant les périodes avec des vitesses de vent très faibles. Cependant, les résultats pour une climatologie de la vitesse du vent d'un an sont satisfaisants, ainsi que pour une période plus courte avec des vitesses de vent plus élevées.


1. Introduction

Le climat urbain est un sujet d'intérêt croissant pour la science et la société. Avec le changement climatique et l'urbanisation en cours, le besoin d'informations météorologiques urbaines précises n'a jamais été aussi urgent. Afin de lutter contre les effets des canicules, de la pollution de l'air ou des inondations urbaines, la connaissance de la météo urbaine peut aider à identifier les zones à risques, auxquelles les urbanistes peuvent trouver une solution. Le climat urbain est d'une importance particulière pour le confort thermique humain et la qualité de l'air, et les risques pour la santé qui y sont associés (Moonen et al., 2012 ).

Le manque d'observations météorologiques urbaines est un défi majeur dans la caractérisation du climat urbain. Plusieurs villes ont des réseaux d'observation dédiés, par exemple Birmingham (Angleterre, Warren et al., 2016 ), Berlin (Allemagne Fenner et al., 2014 ), Novi Sad (Serbie Savić et al., 2019 ), Gand (Belgique Caluwaerts et al., 2020 ) ou Amsterdam (Pays-Bas Ronda et al., 2017 ), mais la majorité des villes du monde ne disposent pas d'un réseau aussi détaillé. Les réglementations de l'OMM empêchent l'implantation de stations météorologiques officielles dans les villes, car elles nécessitent un environnement relativement ouvert. Si les obstructions caractérisent le climat urbain, leur hétérogénéité complique la prise de mesures représentatives de la ville dans son ensemble. D'une rue à l'autre, de grandes différences peuvent se produire, notamment dans la vitesse du vent, mais aussi dans la température et, dans une moindre mesure, l'humidité (Heusinkveld et al., 2014 ).

Pour compenser ce manque de données, la communauté de recherche en météorologie urbaine a adopté l'utilisation du crowdsourcing. Muller et al. ( 2015 ) définissent le crowdsourcing comme « Obtention de données ou d'informations en faisant appel aux services d'un nombre (potentiellement important) de personnes et/ou d'une gamme de capteurs publics, généralement connectés via Internet. " Un nombre croissant d'études de crowdsourcing ont été menées récemment, principalement pour étudier l'effet d'îlot de chaleur urbain (Wolters et Brandsma, 2012 Chapman et al., 2017 Fenner et al., 2017 Feichtinger et al., 2020 ), pluviométrie urbaine (de Vos et al., 2017 ) et la pression atmosphérique (Mass et Madaus, 2014 ). La température de l'air urbain et les précipitations sont bien captées par les stations météorologiques personnelles (PWS) : de petites stations météorologiques conçues pour être utilisées par les citoyens, qui peuvent être installées sur les balcons, dans les jardins ou sur les toits.

Le vent n'a jusqu'à présent pas fait l'objet de recherches via le crowdsourcing. La vitesse et la direction du vent urbain sont difficiles à quantifier en raison de la forte nature turbulente du vent. Les études d'observation ont généralement été confinées à des rues isolées, où les profils de canyon de la vitesse et de la direction du vent sont mesurés avec des mâts (Rotach et al., 2005 Eliasson et al., 2006 ). Les études des vents urbains reposent souvent sur des expériences en soufflerie ou sur des modèles informatiques de dynamique des fluides pour étudier les charges de vent sur les bâtiments, au niveau des piétons, et pour la dispersion des polluants urbains (Carpentieri et Robins, 2015 Ramponi et al., 2015 Toparlar et al., 2017 ). La connaissance du vent urbain est importante pour des sujets tels que la dispersion de la pollution atmosphérique (Pascal et al., 2013 ), les charges mécaniques de vent sur les bâtiments (Ramponi et al., 2015 ), confort thermique humain (Hsieh et Huang, 2016 Heusinkveld et al., 2017 ) et le potentiel éolien urbain (Kent et al., 2017 ).

Le crowdsourcing pourrait être utile pour étudier le climat éolien urbain. Les données de crowdsourcing sont disponibles en grande quantité, mais la qualité est souvent relativement faible, un examen minutieux des données est donc nécessaire. L'implantation de la station et la représentativité du site sont généralement moins connues (Muller et al., 2015 ), ce qui a un impact sur l'interprétation des données. Dans cette étude, nous visons à savoir si les données de vitesse du vent issues du crowdsourcing des PWS « Netatmo » sont adaptées à l'analyse de la vitesse du vent urbain. Nous effectuons cette recherche à Amsterdam (Pays-Bas), où le groupe Météorologie et qualité de l'air de l'Université de Wageningen exploite un réseau de stations météorologiques automatisées avec des mesures de vent de haute qualité (Ronda et al., 2017 ), pour servir de référence par rapport à laquelle les stations crowdsourcées peuvent être testées. Dans un premier temps, le module éolien Netatmo est comparé aux enregistrements d'anémomètres soniques de référence sur le terrain, en milieu rural comme en milieu urbain. Par la suite, à partir de ces tests sur le terrain, un protocole de correction des biais et d'assurance qualité (QA) est établi, qui est ensuite appliqué aux mesures de vitesse du vent urbain en crowdsourcing. Enfin, ces données sont utilisées pour analyser les caractéristiques de vitesse du vent de différentes zones climatiques locales (LCZ Stewart et Oke ( 2012 )) à Amsterdam, et pour comparer les résultats au réseau de référence.

La section 2 présente les données (stations de crowdsourcing et de référence), ainsi que le protocole d'assurance qualité utilisé pour filtrer les données de crowdsourcing.


Point à l'intérieur de st_dwithin avec des résultats erronés - Systèmes d'Information Géographique

Le texte intégral PDF est disponible pour la plupart des articles énumérés ci-dessous. Le HTML est également disponible pour certains des articles. Les rapports techniques sont également inclus à la fin de la liste des documents. Je suis heureux d'envoyer des copies de tous les autres, s'il vous plaît envoyez-moi un e-mail contenant votre adresse postale habituelle et les documents qui vous intéressent.

Nous présentons une méthode pour prendre en charge les recommandations de visualisation de haute qualité pour les tâches analytiques. La visualisation convertit de grands ensembles de données en images qui permettent aux utilisateurs d'explorer, de découvrir et de valider efficacement leurs données. Des recommandateurs de visualisation ont été proposés pour stocker les séquences passées : une collection ordonnée de choix de conception menant à la réussite de la tâche, puis les associe à une construction de visualisation en cours. Sur la base de cette correspondance, un système recommande des visualisations qui prennent mieux en charge les tâches des analystes. Un problème d'évolutivité survient lorsque de nombreuses séquences sont stockées. Une solution serait d'indexer la base de données de séquences. Cependant, lors de l'appariement, nous avons besoin de séquences similaires à la visualisation partiellement construite, pas seulement de celles qui sont identiques. Nous implémentons un algorithme de hachage sensible à la localité qui convertit les visualisations en représentations d'ensembles, puis utilise la similarité Jaccard pour stocker des nœuds de séquence similaires dans des seaux de hachage communs. Cela nous permet de comparer des séquences partielles à une base de données contenant des dizaines de milliers de séquences complètes en moins de 100 ms. Les expériences montrent que notre algorithme localise 95% ou plus des séquences trouvées dans une recherche exhaustive, produisant des recommandations de visualisation de haute qualité.

Nie, S., Healey, C. G., Chirkova, R. Y et Reutter, J. L. Correspondance de séquence rapide pour les systèmes de recommandation de visualisation. Dans Proceedings of Graphics Interface (GI 2019) Conference (Kingston, Canada, 2019), à paraître.

Ombre douce multi-vues déformée pour les lumières locales -->

Marrs, A., Watson, B., et Healey, C. G. "View-Warped Soft Shadowing for Local Area Lights." Dans Actes du Symposium ACM SIGGRAPH Interactive 3D Graphics and Games (I3D 2019) (Montrèal, Canada, 2019).


Les techniques de visualisation de scénario existantes présentent les récits sous la forme d'un graphique nœud-lien où une séquence de liens montre l'évolution des relations causales et temporelles entre les personnages du récit. Ces techniques font cependant un certain nombre d'hypothèses simplificatrices sur la structure narrative. Ils supposent que tous les récits progressent linéairement dans le temps, avec un début, un milieu et une fin bien définis. Ils supposent que le récit est terminé avant la visualisation. Ils supposent également qu'au moins deux participants interagissent à chaque événement. Enfin, ils supposent que tous les événements du récit se déroulent le long d'une même chronologie. Ainsi, bien que les techniques existantes soient adaptées à la visualisation de récits linéaires, elles ne sont pas bien adaptées à la visualisation de récits avec plusieurs chronologies, de récits non linéaires tels que ceux avec des flashbacks ou de récits contenant des événements avec un seul participant. Dans nos travaux précédents, nous avons présenté Yarn, un système de construction et de visualisation automatique de récits avec plusieurs chronologies. Yarn utilise une planification de réseau de tâches hiérarchique pour générer toutes les chronologies narratives possibles et les visualiser dans une interface Web. Dans ce travail, nous étendons Yarn pour prendre en charge les récits non linéaires avec des flashbacks et des flash-forwards, et des récits de point de vue non linéaires. Notre technique prend en charge à la fois les événements à participant unique et à participants multiples dans le récit, et construit des récits à la fois linéaires et non linéaires. De plus, il permet une comparaison par paires au sein d'un groupe de plusieurs chronologies narratives.

Padia, K., Kaveen, H. B. et Healey, C. G. "A System for Generating Storyline Visualizations Using Hierarchical Task Network Planning." Computer & Graphics 78 (2019), 64&ndash75.

Le rendu d'ombres douces projetées par des objets dynamiques en temps réel avec peu d'artefacts visuels est difficile à réaliser. Nous introduisons un nouvel algorithme pour les sources lumineuses locales qui présente moins d'artefacts que les approximations rapides à vue unique et est plus rapide que les solutions multi-vues de haute qualité. Inspiré des images de profondeur en couches, de la déformation des images et du rendu basé sur des points, notre algorithme traverse une fois la géométrie complexe de l'occlusion et crée un nuage de points multi-vues optimisé en tant que proxy. Nous rendons ensuite plusieurs cartes de profondeur simultanément sur du matériel graphique à l'aide de GPU Compute. En réduisant considérablement le temps passé à produire des cartes de profondeur, notre solution présente une nouvelle alternative pour les applications qui ne peuvent pas encore se permettre les méthodes les plus précises, mais qui s'efforcent d'obtenir des ombres de meilleure qualité que celles possibles avec des approximations courantes.

Marrs, M., Watson, B. et Healey, C. G. "View-Warped Multi-View Soft Shadowing for Local Area Lights." Journal of Computer Graphics Tools 7, 3 (2018), 1&ndash28.

La création de visualisations de données fonctionnelles et esthétiques est importante mais difficile. Ici, nous demandons si la création de visualisations en utilisant les techniques picturales des artistes de l'époque impressionniste peut aider. Dans deux expériences, nous avons converti les données météorologiques du Groupe d'experts intergouvernemental sur l'évolution du climat en un style de visualisation commun, des styles de peinture inspirés du glyphe et de l'impressionnisme : sculptural, confinement et empâtement. L'expérience 1 a testé la mémoire de reconnaissance des participants pour ces visualisations et a découvert que l'empâtement, un style ressemblant à des peintures comme Starry Night (1889) de Vincent van Gogh, était comparable aux glyphes et supérieur aux autres styles impressionnistes. L'expérience 2 a testé la capacité des participants à signaler la prévalence de la couleur bleue (représentative d'une seule condition météorologique) dans chaque visualisation, et ici l'empâtement était supérieur aux glyphes et aux autres styles impressionnistes. Les questionnaires administrés à la fin de l'étude ont révélé que les styles que les participants aimaient avaient une meilleure performance aux tâches par rapport aux styles moins appréciés. Le suivi oculaire accidentel dans les deux études a également révélé que les visualisations impressionnistes suscitaient une plus grande exploration visuelle que les glyphes. Ces résultats offrent une preuve de concept que les techniques picturales de l'impressionnisme, et en particulier celles du style empâtement, peuvent créer des visualisations fonctionnelles, appréciées et encourager l'exploration visuelle.

Kozik, P., Tateosian, L., Healey, CG et Enns, JT "Les visualisations de données inspirées par Impressionsim sont à la fois fonctionnelles et appréciées". Psychologie de l'esthétique, de la créativité et des arts (2018), http://dx. doi.org/10.1037/aca0000175.

Les techniques de visualisation de scénario existantes représentent les récits sous la forme d'un graphique nœud-lien où une séquence de liens montre l'évolution des relations causales et temporelles entre les personnages du récit. Ces techniques font cependant un certain nombre d'hypothèses simplificatrices sur la structure narrative. Ils supposent que tous les récits progressent linéairement dans le temps, avec un début, un milieu et une fin bien définis. Ils supposent qu'au moins deux participants interagissent à chaque événement. Enfin, ils supposent que tous les événements du récit se déroulent le long d'une même chronologie. Ainsi, alors que les techniques existantes sont adaptées à la visualisation de récits linéaires, elles ne sont pas bien adaptées à la visualisation de récits avec plusieurs chronologies, ni pour les récits qui contiennent des événements avec un seul participant. Dans cet article, nous présentons Yarn, un système pour générer et visualiser des récits avec plusieurs chronologies. En plus des événements multi-participants, Yarn peut également visualiser des événements à un seul participant dans le récit. De plus, Yarn permet une comparaison par paires de plusieurs chronologies narratives.

Padia, K., Kaveen, H. B. et Healey, C. G. Yarn : générer des visualisations de scénario à l'aide de la planification HTN. Dans Actes de la conférence Graphics Interface (GI 2018) (Toronto, Canada, 2018), 26&ndash33.


Malgré l'amélioration des conditions de santé dans le monde au cours des dernières décennies, les maladies transmissibles restent parmi les principales causes de mortalité dans de nombreux pays. La lutte contre les maladies transmissibles dépend de la surveillance, des mesures préventives, des enquêtes sur les épidémies et de la mise en place de mécanismes de contrôle. Les retards dans l'obtention de données au niveau des pays sur les cas confirmés de maladies transmissibles, comme la dengue, incitent à de nouveaux efforts pour les données à court et moyen terme. Les articles de presse mettent en évidence les infections de la dengue et peuvent révéler comment les messages de santé publique, les conclusions d'experts et les incertitudes sont communiqués au public. Dans cet article, nous analysons les articles de presse sur la dengue dans les pays asiatiques, en mettant l'accent sur l'Inde, pour chaque mois de 2014. Nous examinons comment les rapports se regroupent et découvrons comment les cas de dengue, les messages de santé publique et les résultats de la recherche sont communiqués dans la presse. .Nos principales contributions consistent à : (1) découvrir des sujets sous-jacents à partir d'articles de presse qui traitent de la dengue dans les pays asiatiques en 2014 (2) construire des graphiques d'évolution des sujets au cours de l'année et (3) analyser le cycle de vie des articles de presse sur la dengue en Inde, puis mettre en relation les précipitations, les cas de dengue signalés mensuellement et l'indice Breteau. Nous montrons que les cinq principaux sujets abordés dans les journaux en Asie en 2014 correspondent à : (1) la prévention (2) les cas signalés de dengue (3) la politique (4) la prévention par rapport aux autres maladies et (5) les plans d'urgence. Nous identifions que les précipitations ont une corrélation de 0,92 avec les cas de dengue signalés extraits d'articles de presse. Sur la base de nos résultats, nous concluons que la méthode proposée facilite la découverte efficace des thèmes et des modèles évolutifs de la dengue.

Villanes, A., Griffith, E., Rappa, M. et Healey, CG "Dengue Fever Surveillance in India Using Text Mining in Public Media." American Journal of Tropic Medicine & Hygiene 98, 1, (2018), pp. 181&ndash191 .

Les géovisualisations offrent un moyen d'inspecter de grands ensembles de données multivariées complexes à la recherche d'informations qui ne seraient autrement pas disponibles avec une vue tabulaire ou des statistiques récapitulatives uniquement. Des visualisations esthétiquement attrayantes peuvent susciter une exploration prolongée et encourager la découverte. Créer des géovisualisations de données efficaces et belles est un défi important mais difficile. Nous présentons ici un outil de rendu de géovisualisations de données spatiales continues à l'aide de techniques de peinture impressionnistes. Les techniques, qui ont été testées dans des études contrôlées, varient les propriétés visuelles (par exemple, la teinte, la taille et l'inclinaison) des coups de pinceau pour représenter plusieurs attributs de données simultanément à chaque emplacement. Pour démontrer cette technique, nous présentons deux exemples : 1) les attributs de données météorologiques (par exemple, la température, la vitesse du vent, la pression atmosphérique) du système de prévision mondial de la NOAA et 2) les indices d'état fragile évalués par le Foreign Policy Magazine. Ces exemples montrent comment les visualisations géospatiales open source peuvent exploiter l'esthétique pour améliorer la communication visuelle et l'engagement des téléspectateurs.

Tateosian, L., Amindarbari, R., Healey, CG, Kozik, P. et Enns, JT "The Utility of Beautiful Visualizations." In Proceedings Free and Open Source Software for Geospatial (FOSS4G 2017) Conference (Boston, Massachusetts, 2017) ), 157&ndash162

Cet article décrit un prototype de périphérique d'entrée tangible à six degrés de liberté (6 DoF) qui est peu coûteux et intuitif à utiliser : un cube avec des coins colorés de formes spécifiques, suivi par une seule caméra, avec une pose estimée en temps réel. Un système de suivi et de réglage automatique des couleurs est conçu pour que l'appareil puisse fonctionner de manière robuste dans un environnement bruyant et qu'il soit invariant aux changements d'éclairage et de bruit de fond. Une évaluation du système montre de bonnes performances à la fois pour le rafraîchissement (au-dessus de 60 FPS en moyenne) et la précision de l'estimation de la pose (erreur angulaire moyenne d'environ 1°). Une étude utilisateur des tâches de rotation 3D montre que le périphérique surpasse les autres périphériques d'entrée 6 DoF utilisés dans un environnement de bureau similaire. L'appareil a le potentiel de faciliter les applications interactives telles que les jeux ainsi que la visualisation d'informations 3D.

Chen, Z., Healey, CG et St. Amant, R. "Caractéristiques de performance d'un périphérique d'entrée tangible basé sur une caméra pour la manipulation d'informations 3D". Dans Proceedings Graphics Interface 2017 (GI 2017) (Edmonton, Canada, 2017), 74&ndash81.


Le matériel graphique existant parallélise mal la génération de vues, plaçant de nombreux effets multi-vues tels que les ombres douces, le flou de défocalisation et les réflexions et hors de portée pour les applications en temps réel. Nous présentons des solutions émergentes qui résolvent ce problème en utilisant un ensemble de points à haute densité adapté par image à la configuration multi-vues actuelle, couplée à des noyaux de reconstruction relativement simples. Les points sont une primitive de rendu plus flexible, que nous utilisons pour rendre de nombreuses vues haute résolution en parallèle. Les résultats préliminaires montrent que notre approche accélère la génération de points et le rendu des ombres douces multi-vues jusqu'à 9 fois.

Marrs, A., Watson, B., et Healey, CG "Real-Time View Independent Rasterization for Multi-View Rendering." Actes 38th Annual Conference of the European Association for Computer Graphics (EuroGraphics 2017) (Lyon, France, 2017), 17&ndash20.

Cet article présente les étapes de base pour créer un outil de visualisation basé sur la similarité pour les grandes collections d'images. Nous construisons les métriques de similarité basées sur la perception humaine. Des expériences psychophysiques ont montré que les observateurs humains peuvent reconnaître l'essentiel des scènes en 100 millisecondes (msec) en comprenant les propriétés globales d'une image. La couleur joue également un rôle important dans la reconnaissance rapide des scènes humaines. Cependant, les travaux antérieurs négligent souvent les caractéristiques de couleur. Nous proposons de nouveaux descripteurs de scènes qui préservent les informations des régions de couleurs cohérentes, ainsi que les dispositions spatiales des scènes. Les expériences montrent que nos descripteurs surpassent les approches de pointe existantes. Compte tenu des métriques de similarité, une structure hiérarchique d'une collection d'images peut être construite de manière descendante. Des images représentatives sont choisies pour les groupes d'images et visualisées à l'aide d'un graphique dirigé par la force.

Chen, Z. et Healey, C. G. "Large Image Collection Visualization Using Perception-Based Similarity with Color Features." In Proceedings 12th International Symposium on Visual Computing (ISVC '16) (Las Vegas, Nevada, 2016), 379&ndash390.

Une tâche importante de la science est de communiquer des données complexes aux pairs et au public. Ici, nous nous demandons si l'exploitation des techniques picturales des peintres de l'époque impressionniste est bénéfique. Dans deux expériences, les participants ont visualisé des cartes météorologiques du Panel international sur l'évolution du climat qui ont été rendues à l'aide d'une technique standard de l'industrie (glyphes) ou de l'un des trois styles inspirés des maîtres impressionnistes. La technique des glyphes utilisait des glyphes rectangulaires qui varient les propriétés de couleur et de texture (par exemple, la teinte, la saturation et la taille) pour représenter les valeurs de données correspondantes. Pour les styles impressionnistes, les régions de contraste maximal dans les données sous-jacentes ont été rendues à l'aide d'algorithmes de coup de pinceau pour souligner la complexité d'interprétation (deux couches de peinture distinctes où des régions uniques ont un plus grand chevauchement de coups de pinceau), des indications et des détails (les régions uniques sont rendues avec une épaisseur de coup de pinceau accrue et densité) et la complexité visuelle (les régions uniques sont rendues avec différents coups de pinceau au niveau global et renforcées par une variation accrue des coups de pinceau au niveau local). La complexité visuelle devait être plus mémorable et permettre une extraction d'informations plus précise, car elle attire l'attention sur des régions d'image distinctes et engage le spectateur à ces endroits avec une variabilité accrue du coup de pinceau. Dans l'expérience 1, trente participants ont effectué un nouveau-ancien test de reconnaissance pour lequel les valeurs d-primes de complexité visuelle et de glyphe étaient comparables, et toutes deux supérieures aux autres styles. L'expérience 2 a testé la précision de l'estimation de la numérotation avec un groupe différent de trente participants et ici, la complexité visuelle était supérieure à tous les autres styles. Un sondage de sortie réalisé à la fin des deux études a en outre révélé que le style que les participants ont identifié comme étant « le plus aimé » était associé à des performances plus élevées par rapport à ceux qui n'avaient pas été sélectionnés. Le suivi oculaire accessoire a révélé que les styles impressionnistes ont suscité une plus grande exploration visuelle par rapport aux glyphes. Ces résultats offrent une preuve de concept que les visualisations basées sur des coups de pinceau impressionnistes peuvent être mémorables, fonctionnelles et engageantes.

Kozik, P., Tateosian, L., Healey, CG et Enns, J. "Applying Painterly Techniques to Data Visualization." Journal of Vision (Abstract Issue, Vision Science Society 16th Annual Meeting, St. Pete Beach, FL) 16, 12, (2016), 188.

Les défis de la prise de conscience de la situation cyber appellent des moyens d'apporter une assistance aux analystes et aux décideurs. Dans de nombreux domaines, les analyses de systèmes et d'activités complexes bénéficient de la visualisation des données et des produits analytiques. Les analystes utilisent des images afin d'engager leur perception visuelle dans l'identification des caractéristiques des données et d'appliquer les connaissances du domaine des analystes. On pourrait s'attendre à ce qu'il en soit de même dans la pratique des cyberanalystes lorsqu'ils essaient de prendre conscience de la situation des réseaux complexes. Ce chapitre examine de près la visualisation pour la connaissance de la situation cybernétique. Nous commençons par un aperçu de base de la visualisation scientifique et informationnelle, et des systèmes de visualisation récents pour la prise de conscience de la situation cyber. Ensuite, nous décrivons un ensemble d'exigences, dérivées en grande partie de discussions avec des cyberanalystes experts, pour un système de visualisation candidat.

Hao, L., Healey, C. G., Bass. S.A., et Yu, H.-Y. "Visualiser des ensembles statiques pour une comparaison efficace des formes et des données." Visualisation et analyse de données 2016, (San Francisco, Californie, 2016), 1-10 (10).

Une ensemble est un ensemble d'ensembles de données connexes, appelé membres, construit à partir d'une série d'exécutions d'une simulation ou d'une expérience. Les ensembles sont grands, temporels, multidimensionnels et multivariés, ce qui les rend difficiles à analyser. Un autre défi important est de visualiser des ensembles qui varient à la fois dans l'espace et dans le temps. Les techniques de visualisation initiales affichaient des ensembles avec un petit nombre de membres, ou présentaient une vue d'ensemble d'un ensemble entier, mais sans détails potentiellement importants. Récemment, des chercheurs ont suggéré de combiner ces deux directions, permettant aux utilisateurs de choisir des sous-ensembles de membres à visualiser. Ce processus de sélection manuel impose à l'utilisateur la charge d'identifier les membres à explorer. Nous introduisons d'abord un système de visualisation d'ensemble statique qui aide automatiquement les utilisateurs à localiser des sous-ensembles intéressants de membres à visualiser. Nous étendons ensuite le système pour prendre en charge l'analyse et la visualisation d'ensembles temporels. Nous utilisons une comparaison de formes 3D, une visualisation d'arborescence de clusters et une visualisation basée sur des glyphes pour représenter différents niveaux de détail au sein d'un ensemble. Cette stratégie est utilisée pour fournir deux approches pour l'analyse d'ensemble temporel : (1) analyse d'ensemble basée sur des segments, pour capturer les pas de temps de transition de forme importants, regrouper des groupes de membres similaires et identifier les changements de forme communs au fil du temps sur plusieurs membres et (2) analyse d'ensemble basée sur le pas de temps, qui suppose que les membres de l'ensemble sont alignés dans le temps en combinant des formes similaires à des pas de temps communs. Les deux approches permettent aux utilisateurs de visualiser et d'analyser de manière interactive un ensemble temporel sous différentes perspectives à différents niveaux de détail. Nous démontrons nos techniques sur un ensemble étudiant la transition de matière du gaz hadronique au plasma quark-gluon lors de collisions de particules or-or.

Hao, L., Healey, C. G. et Bass, S. A. "Visualisation efficace des ensembles temporels." Transactions IEEE sur la visualisation et l'infographie 22, 1, (2015), 787&ndash796.

L'analyse de la sécurité du réseau et la visualisation des données d'ensemble sont deux domaines de recherche actifs. Bien qu'ils soient traités comme des domaines distincts, ils partagent de nombreux défis et caractéristiques communs. Les deux se concentrent sur l'évolutivité, l'analyse de données en fonction du temps et l'exploration de modèles et de comportements inhabituels dans de grands ensembles de données. Ces chevauchements offrent une opportunité d'appliquer la recherche de visualisation d'ensemble pour améliorer l'analyse de la sécurité du réseau. Pour étudier cet objectif, nous proposons des méthodes pour interpréter les alertes de sécurité du réseau et le trafic de flux en tant que membres de l'ensemble. Nous pouvons ensuite appliquer des techniques de visualisation d'ensemble dans un environnement d'analyse de réseau pour produire un système de visualisation d'ensemble de réseau. L'inclusion de représentations d'ensemble fournit de nouvelles informations approfondies sur les relations entre les alertes et le trafic de flux. Les analystes peuvent regrouper le trafic avec un comportement similaire et identifier le trafic avec des modèles inhabituels, ce qui est difficile à réaliser avec des aperçus de haut niveau de grands ensembles de données réseau. De plus, notre approche globale facilite l'analyse des relations entre les alertes et le trafic de flux, améliore l'évolutivité, maintient l'accessibilité et la configurabilité, et est conçue pour s'adapter à l'environnement de travail, aux modèles mentaux et aux stratégies de résolution de problèmes de nos analystes.

Hao, L., Healey, C. G. et Hutchinson, S. E. "Ensemble Visualization for Cyber ​​Situation Awareness of Network Security Data." In Proceedings Visualization for Cyber ​​Security 2015 (Chicago, Illinois, 2015), pp. 25&ndash32.

Les défis de la prise de conscience de la situation cyber appellent des moyens d'apporter une assistance aux analystes et aux décideurs. Dans de nombreux domaines, les analyses de systèmes et d'activités complexes bénéficient de la visualisation des données et des produits analytiques. Les analystes utilisent des images afin d'engager leur perception visuelle dans l'identification des caractéristiques des données et d'appliquer les connaissances du domaine des analystes. On pourrait s'attendre à ce qu'il en soit de même dans la pratique des cyberanalystes lorsqu'ils essaient de prendre conscience de la situation des réseaux complexes. Ce chapitre examine de près la visualisation pour la connaissance de la situation cybernétique. Nous commençons par un aperçu de base de la visualisation scientifique et informationnelle, et des systèmes de visualisation récents pour la prise de conscience de la situation cyber. Ensuite, nous décrivons un ensemble d'exigences, dérivées en grande partie de discussions avec des cyberanalystes experts, pour un système de visualisation candidat.

Healey, C. G., Hao, L. et Hutchinson, S. E. "Visualizations and Analysts", dans Cyber ​​Defence and Situation Awareness, A. Kott, C. Wang et R. Erbacher, Eds. New York, New York : Springer Publishing Company, pp. 145&ndash165.

La visualisation efficace des régions à haute probabilité de l'espace des paramètres est gravement entravée par le grand nombre de dimensions de paramètres que possèdent de nombreux modèles. Nous présentons une nouvelle technique, Optimal Percentile Region Projection, pour visualiser une fonction de densité de vraisemblance de haute dimension qui permet au spectateur de comprendre la forme de la région de haute probabilité. La projection optimale de la région centile comporte trois nouveaux composants : tout d'abord, nous sélectionnons la région de haute probabilité dans l'espace de grande dimension avant de projeter son ombre dans un espace projeté de plus faible dimension. Deuxièmement, nous analysons les caractéristiques à la surface de la région dans l'espace projeté pour sélectionner la direction de projection qui montre les dépendances de paramètres les plus intéressantes. Enfin, nous utilisons un espace de projection en trois dimensions pour montrer les caractéristiques qui ne sont pas saillantes en seulement deux dimensions. Le spectateur peut également choisir des ensembles d'axes sur lesquels se projeter pour explorer des sous-ensembles de l'espace des paramètres, en utilisant soit les axes des paramètres d'origine, soit les axes des composants principaux. La technique a été évaluée par nos collaborateurs scientifiques du domaine, qui l'ont trouvée supérieure à leur flux de travail existant à la fois lorsqu'il y avait des dépendances intéressantes entre les paramètres et lorsqu'il n'y en avait pas.

Canary, H., Taylor II, RM, Quammen, C., Pratt, S., Gomez, F., O'Shea, B. et Healey, CG "Visualiser les fonctions de densité de vraisemblance via une projection optimale de la région" Computers & Graphics 41 , (2014), 62&ndash71.

Cet article décrit un système de visualisation basé sur le Web conçu pour les analystes de la sécurité des réseaux du U.S. Army Research Laboratory (ARL). Notre objectif est de fournir un support visuel aux analystes lorsqu'ils enquêtent sur les alertes de sécurité pour les activités malveillantes au sein de leurs systèmes. Nos collaborateurs ARL ont identifié un certain nombre d'exigences importantes pour tout système de visualisation candidat. Ceux-ci concernent les modèles mentaux et l'environnement de travail de l'analyste, ainsi que la configurabilité, l'accessibilité, l'évolutivité et l'"ajustement" de l'outil de visualisation avec les stratégies d'analyse existantes. Pour répondre à ces exigences, nous avons conçu et mis en œuvre un outil Web qui utilise différents types de graphiques comme cadre de représentation de base. Une bibliothèque de graphiques JavaScript (RGraph) a été étendue pour fournir l'extensibilité de l'interface et les capacités de corrélation nécessaires pour aider les analystes à explorer différentes hypothèses sur une attaque potentielle. Nous décrivons les éléments clés de notre conception, expliquons comment l'intention d'un analyste est utilisée pour générer différentes visualisations et montrons comment l'interface du système permet à un analyste de produire rapidement une séquence de visualisations pour explorer des détails spécifiques sur une attaque potentielle au fur et à mesure qu'elles surviennent. Nous concluons par une discussion sur les plans visant à améliorer davantage le système et à recueillir les commentaires de nos collègues ARL sur ses forces et ses limites dans des scénarios d'analyse du monde réel.

Hao, L., Healey, C. G. et Hutchinson, S. E. "Flexible Web Visualization for Alert-Based Network Security Analytics." Dans Proceedings Visualization for Cyber ​​Security 2013 (Atlanta, Géorgie, 2013), pp. 33&ndash40.

Cet article décrit une approche perceptive du niveau de détail pour la visualisation des données. Les propriétés d'un ensemble de données qui ne peuvent pas être résolues dans l'environnement d'affichage actuel n'ont pas besoin d'être affichées, par exemple, lorsque trop peu de pixels sont utilisés pour restituer un élément de données, ou lorsque l'angle visuel sous-tendu de l'élément tombe en dessous des limites d'acuité de notre système visuel. Pour identifier ces situations, nous avons demandé : (1) Quel type d'informations un utilisateur humain peut-il percevoir dans un environnement d'affichage particulier ? (2) Pouvons-nous concevoir des visualisations qui contrôlent ce qu'elles représentent par rapport à ces limites ? et (3) Est-il possible de mettre à jour dynamiquement une visualisation à mesure que l'environnement d'affichage change, pour continuer à utiliser efficacement nos capacités de perception ? Pour répondre à ces questions, nous avons mené des expériences contrôlées qui ont identifié la résolution des pixels et l'angle visuel sous-tendu nécessaires pour distinguer différentes valeurs de luminance, de teinte, de taille et d'orientation. Ces informations sont résumées dans une hiérarchie d'affichage perceptuel, une formalisation décrivant le nombre de pixels&mdashresolution&mdashand combien de surface physique sur la rétine d'un spectateur&mdashvisual angle&mdashis est nécessaire pour que les propriétés visuelles d'un élément soient facilement visibles. Nous démontrons nos résultats théoriques en visualisant les données climatologiques historiques du Panel international sur l'évolution du climat.

Healey, C. G. et Sawant, A. P. "On the Limits of Resolution and Visual Angle in Visualization." ACM Transactions on Applied Perception 9, 4, (2012), article 20.

Cet article décrit une nouvelle méthode d'exploration et de découverte au sein d'un grand ensemble de données. Nous appliquons des techniques d'élicitation des préférences pour identifier automatiquement les éléments de données susceptibles d'intéresser le spectateur. Ces « éléments d'intérêt » sont regroupés en clusters spatialement locaux et connectés ensemble pour former un graphe. Le graphique est utilisé pour créer des chemins de caméra qui permettent aux téléspectateurs de « tourner » les zones d'intérêt au sein de leurs données. Il est également visualisé pour fournir des repères d'orientation. Notre modèle de préférence utilise la classification bayésienne pour marquer les éléments d'un ensemble de données comme intéressant ou alors pas intéressant au spectateur. Le modèle répond en temps réel, mettant à jour les éléments d'intérêt en fonction des actions d'un spectateur. Cela nous permet de suivre les intérêts d'un spectateur au fur et à mesure qu'ils changent au cours de l'exploration et de l'analyse. Les téléspectateurs peuvent également interagir directement avec les règles d'intérêt définies par le modèle de préférence. Nous démontrons nos résultats théoriques en visualisant les données climatologiques historiques recueillies à des endroits dans le monde entier.

Healey, C.G.et Dennis, B. M. "Interest Driven Navigation in Visualization."IEEE Transactions on Visualization and Computer Graphics 18, 10, (2012), 1744&ndash1756.


Un objectif fondamental de la visualisation est de produire des images de données qui prennent en charge l'analyse visuelle, l'exploration et la découverte de nouvelles idées. Une considération importante lors de la conception de la visualisation est le rôle de la perception visuelle humaine. La façon dont nous voyons les détails dans une image peut avoir un impact direct sur l'efficacité et l'efficience d'un spectateur. Cet article examine les recherches sur l'attention et la perception visuelle, en mettant l'accent sur les résultats qui ont un rapport direct avec la visualisation et l'analyse visuelle. Nous discutons des théories de la perception visuelle de bas niveau, puis montrons comment ces résultats constituent une base pour des travaux plus récents sur la mémoire visuelle et l'attention visuelle. Nous concluons par un bref aperçu de la façon dont la connaissance de l'attention visuelle et de la mémoire visuelle est appliquée à la visualisation et aux graphiques. Nous discutons également de la façon dont les défis de la visualisation motivent la recherche en psychophysique.

Healey, C. G. et Enns, J. T. "Attention and Visual Memory in Visualization and Computer Graphics." IEEE Transactions on Visualization and Computer Graphics 18, 7, (2012), 1170&ndash1188.

Un ensemble est une collection d'ensembles de données connexes. Chaque ensemble de données, ou membre, d'un ensemble est normalement grand, multidimensionnel et spatio-temporel. Les ensembles sont largement utilisés par les scientifiques et les mathématiciens, par exemple, en exécutant une simulation à plusieurs reprises avec des paramètres d'entrée légèrement différents et en enregistrant les résultats dans un ensemble pour voir comment les choix de paramètres affectent la simulation. Pour tirer des conclusions d'un ensemble, les scientifiques doivent comparer les données à la fois au sein et entre les membres de l'ensemble. Nous proposons deux techniques pour soutenir l'exploration et la comparaison d'ensembles : une animation séquentielle par paires méthode qui visualise les membres localement voisins simultanément, et un teinte de porte moustiquaire méthode qui visualise des sous-ensembles de membres à l'aide de la subdivision de l'espace d'écran. Nous démontrons les capacités des deux techniques, d'abord en utilisant des données synthétiques, puis avec des données de simulation de collisions d'ions lourds en physique des hautes énergies. Les résultats montrent que les deux techniques sont capables de soutenir des comparaisons significatives de données d'ensemble.

Phadke, MN, Pinto, L., Alabi, O., Harter, J., Taylor II, RM, Wu, X., Petersen, H., Bass, SA et Healey, CG "Exploring Ensemble Visualization."Visualization and Data Analytics 2012, (San Francisco, Californie, 2012), vol. 8294, article 0B, pp. 1&ndash12.

Par définition, un ensemble est un ensemble de surfaces ou de volumes dérivés d'une série de simulations ou d'expériences. Parfois, la série est exécutée avec des conditions initiales différentes pour un paramètre afin de déterminer la sensibilité du paramètre. La compréhension et l'identification des similitudes et des différences visuelles entre les formes des membres d'un ensemble est un défi aigu et croissant pour les chercheurs des sciences physiques. Plus précisément, la tâche d'acquérir une compréhension spatiale et d'identifier les similitudes et les différences entre plusieurs ensembles de données géométriques complexes simultanément s'est avéré difficile. Cet article propose une technique de comparaison et de visualisation pour soutenir l'étude visuelle de la sensibilité des paramètres. Nous présentons une nouvelle technique de vue et d'échantillonnage d'une seule image que nous appelons Ensemble Surface Slicing (ESS). ESS produit une image unique qui est utile pour déterminer les différences et les similitudes entre les surfaces simultanément à partir de plusieurs ensembles de données. Nous démontrons l'utilité de l'ESS sur deux ensembles de données du monde réel de nos collaborateurs.

Alabi, O., Wu, X., Harter, J., Phadke, MN, Pinto, L., Petersen, H., Bass, SA, Keifer, M., Zhong, S., Healey, CG et Taylor II , RM "Visualisation comparative d'ensembles à l'aide du découpage de surface d'ensemble" Visualisation et analyse de données 2012, (San Francisco, Californie, 2012), vol. 8294, papier 0U, pp. 1&ndash12.

Nous proposons un nouveau schéma pour visualiser les enchères combinatoires qui impliquent la vente simultanée de plusieurs articles. Les acheteurs enchérissent sur des ensembles d'articles complémentaires, ou lots, où l'utilité de sécuriser tous les articles du lot est supérieure à la somme de l'utilité des articles individuels. Nos visualisations utilisent des anneaux concentriques divisés en arcs pour visualiser les paquets dans une vente aux enchères. Les positions d'arcs et les chevauchements permettent aux téléspectateurs d'identifier et de suivre les stratégies d'enchères. Les propriétés de couleur, de texture et de mouvement sont utilisées pour représenter différents attributs de l'enchère, y compris les lots actifs, les prix proposés pour chaque lot, les offres gagnantes et les intérêts des enchérisseurs. Les animations d'images clés sont utilisées pour montrer les changements dans une vente aux enchères au fil du temps. Nous démontrons notre technique de visualisation sur un ensemble de données de banc d'essai standard généré par des chercheurs pour évaluer les stratégies d'enchères combinatoires, et sur les récentes enchères de la Federal Communications Commission (FCC) conçues pour attribuer des licences de spectre sans fil aux fournisseurs de services de téléphonie mobile.

Hsiao, J.P.-L. et Healey, C. G. "Visualizing Combinatorial Auctions."The Visual Computer 27, 6&ndash8, (2011), 633&ndash643.

La visualisation fait désormais partie intégrante du processus de découverte des connaissances dans divers domaines. Cependant, des défis subsistent dans l'utilisation efficace des techniques de visualisation, en particulier lors de l'affichage, de l'exploration et de l'analyse de grands ensembles de données multidimensionnelles, telles que les données météorologiques et météorologiques. Les visualisations directes de ces ensembles de données ont tendance à produire des images encombrées de détails excessifs et inefficaces pour communiquer des informations à des niveaux d'abstraction plus élevés. Pour résoudre ce problème, nous proposons un cadre de résumé visuel pour réduire intuitivement les données à leurs caractéristiques importantes et pertinentes. La synthèse s'effectue en trois grandes étapes. Tout d'abord, des éléments de données de haute pertinence et des groupes d'attributs de données similaires sont identifiés pour réduire la taille et la dimensionnalité d'un ensemble de données. Ensuite, les modèles, les relations et les valeurs aberrantes sont extraits des données réduites. Enfin, les caractéristiques récapitulatives extraites sont visualisées à l'utilisateur. De telles visualisations réduisent les détails visuels excessifs et sont plus adaptées à la compréhension rapide de données complexes. Les utilisateurs peuvent guider de manière interactive le processus de récapitulation en obtenant un aperçu à la fois de la manière et de la raison pour laquelle les résultats récapitulatifs sont produits. Notre cadre améliore les avantages de l'analyse mathématique et de la visualisation interactive en combinant les forces de l'ordinateur et de l'utilisateur pour générer des résumés de haute qualité. Les premiers résultats de l'application de notre cadre à de grands ensembles de données météorologiques ont été positifs, suggérant que notre approche pourrait être bénéfique pour un large éventail de domaines et d'applications.

Kocherlakota, S. et Healey, C. G. "Interactive Visual Summarization of Multidimensional Data." Dans IEEE International Conference on Man, Systems, and Cybernetics 2009 (San Antonio, Texas, 2009), pp. 362&ndash369.

Cet article décrit l'intégration des directives perceptives de la vision humaine avec une stratégie de recherche d'initiative mixte basée sur l'IA. Le résultat est un assistant de visualisation appelé ViA, un système qui collabore avec ses utilisateurs pour identifier des visualisations perceptuellement saillantes pour de grands ensembles de données multidimensionnels. ViA applique sa connaissance de la vision humaine de bas niveau pour : (1) évaluer l'efficacité d'une visualisation particulière pour un ensemble de données et des tâches d'analyse donnés et (2) orienter rapidement sa recherche vers de nouvelles visualisations qui sont les plus susceptibles d'offrir des améliorations par rapport à celles perçues comme telles. Date. Le contexte, l'expertise du domaine et une compréhension de haut niveau d'un ensemble de données sont essentiels pour identifier des visualisations efficaces. Nous appliquons une stratégie d'initiative mixte qui permet à ViA et à ses utilisateurs de partager leurs différentes forces et d'améliorer continuellement la compréhension de ViA des préférences d'un utilisateur. Nous visualisons les conditions météorologiques historiques pour comparer la stratégie de recherche de ViA à une analyse exhaustive, un recuit simulé et une recherche tabou réactive, et pour mesurer l'amélioration apportée par l'interaction d'initiative mixte. Nous visualisons également des agents intelligents en compétition dans une vente aux enchères en ligne simulée pour évaluer les directives perceptives de ViA. Les résultats de chaque étude sont positifs, suggérant que ViA peut construire des visualisations de haute qualité pour une gamme d'ensembles de données du monde réel.

Healey, CG, Kocherlakota, S., Rao, V., Mehta, R., et St. Amant, R. "Visual Perception and Mixed-Initiative Interaction for Assisted Visualization Design." IEEE Transactions on Visualization and Computer Graphics 14, 2, (2008), 396&ndash411.

La représentation efficace de vastes et complexes collections d'informations (ensembles de données) présente un défi difficile. La visualisation est une solution qui utilise une interface visuelle pour prendre en charge une analyse et une découverte efficaces au sein des données. Notre objectif principal dans cet article est une technique qui permet aux téléspectateurs de comparer plusieurs résultats de la requête représentant des sous-ensembles sélectionnés par l'utilisateur d'un ensemble de données multidimensionnel. Nous présentons un algorithme qui visualise des informations multidimensionnelles le long d'une spirale remplissant l'espace. Des glyphes graphiques dont la position, la couleur et l'apparence de la texture varient sont utilisés pour représenter les valeurs d'attribut des éléments de données dans chaque résultat de requête. Les lignes directrices de la perception humaine nous permettent de construire des glyphes spécifiquement conçus pour soutenir l'exploration, faciliter la découverte de tendances et de relations à la fois au sein et entre les éléments de données, et mettre en évidence les exceptions. Un algorithme de regroupement appliqué à un attribut de classement choisi par l'utilisateur regroupe des éléments de données similaires. Cette encapsulation est utilisée pour montrer les relations entre différentes requêtes via des animations qui se transforment entre les résultats de la requête. Nous appliquons nos techniques au système de recommandation MovieLens, pour démontrer leur applicabilité dans un environnement réel, puis concluons avec une simple expérience de validation pour identifier les forces et les limites de notre conception, par rapport à une visualisation côte à côte traditionnelle.

Sawant, A. P. et Healey, C. G. "Visualizing Multidimensional Query Results Using Animation." Dans Proceedings Visualization and Data Analysis 2008 (San Jose, Californie, 2008), vol. 6809, papier 04, pp. 1&ndash12.

Cet article présente une technique qui permet aux ingénieurs de test d'analyser et d'explorer visuellement les données de test des puces mémoire. Nous représentons les résultats des tests d'une génération de puces le long d'un la grille et un spirale. Nous montrons également des correspondances dans les résultats des tests sur plusieurs générations de puces mémoire. Nous utilisons des « quotglyphes » géométriques simples qui varient leur emplacement spatial, leur couleur et leurs propriétés de texture pour représenter les valeurs d’attribut critiques d’un test. Lorsqu'ils sont affichés ensemble, les glyphes forment des modèles visuels qui soutiennent l'exploration, facilitent la découverte des caractéristiques et des relations des données et mettent en évidence les tendances et les exceptions dans les données de test qui sont souvent difficiles à identifier avec les outils statistiques existants.

Sawant, A. P., Raina, R. et Healey, C. G. "ChipViz: Visualizing Memory Chip Test Data." In Proceedings Third International Symposium on Visual Computing 2007 (Lake Tahoe, Nevada, 2007), pp. 711𤳀.

Dans de nombreuses applications, il est important de comprendre les valeurs individuelles et les relations entre plusieurs variables scalaires associées définies dans un domaine commun. Plusieurs approches ont été proposées pour représenter les données dans ces situations. Dans cet article, nous nous concentrons sur les stratégies de visualisation de données multivariées qui reposent sur le mélange des couleurs. En particulier, à travers une série d'expériences d'observation contrôlées, nous cherchons à établir une compréhension fondamentale des capacités de transport d'informations de deux méthodes alternatives pour coder des informations multivariées en utilisant la couleur : le mélange de couleurs et le tissage de couleurs. Nous commençons par une expérience de base dans laquelle nous évaluons les capacités des participants à lire avec précision des données numériques codées dans six échelles de couleurs de base différentes définies dans l'espace colorimétrique L*a*b*. Nous évaluons ensuite les capacités des participants à lire des combinaisons de 2, 3, 4 et 6 valeurs de données différentes représentées dans une région commune du domaine, codées à l'aide d'un mélange de couleurs ou d'un tissage de couleurs. Dans le mélange de couleurs, une seule couleur mélangée est formée via une combinaison linéaire des valeurs individuelles dans l'espace L*a*b*, et dans le tissage des couleurs, les couleurs individuelles d'origine sont affichées côte à côte dans une texture à haute fréquence qui remplit la région. Une troisième expérience a été menée pour clarifier certaines des tendances concernant le contraste des couleurs et son effet sur l'ampleur de l'erreur qui a été observée dans la deuxième expérience. Les résultats indiquent que lorsque les couleurs des composants sont représentées côte à côte dans une texture à haute fréquence, les capacités de la plupart des participants à déduire les valeurs des composants individuels sont considérablement améliorées par rapport au moment où les couleurs sont mélangées. Les performances des participants étaient significativement meilleures avec le tissage des couleurs, en particulier lorsque plus de 2 couleurs étaient utilisées, et même lorsque les couleurs individuelles ne sous-tendaient que 3 minutes d'angle visuel dans la texture. Cependant, la capacité de transmission d'informations de l'approche du tissage de la couleur a ses limites. Nous avons constaté que les capacités des participants à interpréter avec précision chacun des composants individuels dans une texture de couleur à haute fréquence diminuent généralement lorsque le nombre de composants augmente de 4 à 6. Nous n'avons trouvé aucun avantage significatif, que ce soit dans le mélange des couleurs ou le tissage des couleurs, à utiliser échelles de couleurs basées sur les teintes des composants qui sont plus largement séparées dans l'espace colorimétrique L*a*b*. De plus, nous avons trouvé des indications que des difficultés supplémentaires peuvent survenir lorsque des teintes adverses sont utilisées.

Hagh-Shenas, H., Kim, S., Interrante, V., et Healey, CG "Weaving Versus Blending : Une évaluation quantitative des capacités de transport d'informations de deux méthodes alternatives pour transmettre des données multivariées avec la couleur. " Transactions IEEE sur la visualisation et Infographie 13, 6, (2007), 1270 & 1501277.

Les recherches sur la cognition visuelle humaine suggèrent que de belles images peuvent engager le système visuel, l'encourageant à s'attarder à certains endroits dans une image et à absorber des détails subtils. En développant des visualisations esthétiques des données, nous visons à engager les téléspectateurs et à promouvoir une inspection prolongée, ce qui peut conduire à de nouvelles découvertes dans les données. Nous présentons trois nouvelles techniques de visualisation qui appliquent des styles de rendu pictural pour faire varier la complexité d'interprétation (IC), l'indication et les détails (ID) et la complexité visuelle (VC), propriétés d'image importantes pour l'esthétique. La connaissance de la perception visuelle humaine et des modèles psychophysiques de l'esthétique constituent la base théorique de nos conceptions. La géométrie computationnelle et les algorithmes non photoréalistes sont utilisés pour prétraiter les données et restituer les visualisations. Nous démontrons les techniques avec des visualisations de données météorologiques réelles et de supernova.

Tateosian, L. G., Healey, C. G. et Enns, J. T. "Engaging Viewers Through Nonphotorealistic Visualizations." In Proceedings Fifth International Symposium on Non-Photorealistic Animation and Rendering 2007 (San Diego, California, 2007), pp. 93 & 150102.

Ce document présente une technique qui permet aux utilisateurs d'analyser, d'explorer et de comparer visuellement les performances d'un contrôleur de stockage. Nous présentons un algorithme qui visualise les métriques de performance du contrôleur de stockage le long d'un Grille 2D ou un remplissage d'espace linéaire spirale. Nous utilisons des "glyphes"s graphiques (objets géométriques simples) dont la couleur, le placement spatial et les propriétés de texture varient pour représenter les valeurs d'attribut contenues dans un élément de données. Lorsqu'ils sont affichés ensemble, les glyphes forment des motifs visuels qui prennent en charge l'exploration, facilitent la découverte des caractéristiques et des relations des données et mettent en évidence les tendances et les exceptions.

Sawant, A.P., Vanninen, M., et Healey, C.G. "PerfViz :Un outil de visualisation pour analyser, explorer et comparer les données de performance du contrôleur de stockage. » Dans Proceedings Visualization and Data Analysis 2007 (San Jose, Californie, 2007), vol. 6495, article 07, p. 1-11.

Cet article décrit une nouvelle technique pour visualiser les champs de flux 2D avec une collection clairsemée de points. Un modèle cognitif proposé par Ken Stevens décrit comment les configurations spatialement locales de points sont traitées en parallèle par le système visuel de bas niveau pour percevoir les orientations à travers l'image. Nous intégrons ce modèle dans un algorithme de visualisation qui convertit une grille clairsemée de points en motifs qui capturent les orientations de flux dans un champ de flux sous-jacent. Parce que nos visualisations sont basées sur des résultats expérimentaux de la vision humaine, les modèles sont perceptuellement saillants. Nous décrivons comment notre algorithme prend en charge des champs de flux importants qui dépassent les capacités d'un dispositif d'affichage et montrons comment inclure des propriétés telles que la direction et la vitesse dans nos visualisations. Nous concluons en appliquant notre technique à des coupes 2D d'un effondrement de supernova simulé.

Tateosian, L. G., Dennis, B. M. et Healey, C. G. "Stevens Dot Patterns for 2D Flow Visualization." In Proceedings Third International Symposium on Applied Perception in Graphics and Visualization 2006 (Boston, Massachusetts, 2006), pp. 93-100.

Bien qu'un large éventail de systèmes de réalité virtuelle (VR) soit utilisé, il existe peu de directives pour aider les développeurs de systèmes et d'applications à sélectionner les composants les plus appropriés pour le problème de domaine qu'ils étudient. En utilisant les résultats d'une étude empirique, nous avons développé de telles directives pour le choix de l'environnement d'affichage pour quatre problèmes de visualisation de volume spécifiques, mais communs : identification et jugement de la taille, de la forme, de la densité et de la connectivité des objets présents dans le volume. Ces tâches découlent des questions posées par les collaborateurs qui étudient la mucoviscidose. Nous avons comparé les performances des utilisateurs dans trois systèmes VR stéréo différents : (1) visiocasque (HMD) (2) aquarium VR (aquarium) et (3) aquarium VR augmenté d'un dispositif haptique (haptique). Les participants HMD ont été placés "à l'intérieur" du volume et ont marché à l'intérieur pour explorer sa structure. Les participants à l'aquarium et à l'haptique ont vu l'intégralité du volume à l'écran et l'ont fait pivoter pour le voir sous différents angles. Le temps de réponse et la précision ont été utilisés pour mesurer les performances. Les résultats ont montré que les groupes aquarium et haptique étaient significativement plus précis pour juger de la forme, de la densité et de la connectivité des objets et accomplissaient les tâches beaucoup plus rapidement que le groupe HMD. Bien que le groupe aquarium était lui-même significativement plus rapide que le groupe haptique, il n'y avait aucune différence statistique de précision entre les deux. Les participants ont classé le système HMD comme un affichage "à l'envers" (regardant vers l'extérieur depuis l'intérieur du volume), et les systèmes d'aquarium et haptiques comme des affichages "dehors-dedans" (regardant vers l'intérieur depuis l'extérieur du volume). Y compris l'haptique a ajouté une capacité à l'envers au système d'aquarium grâce à l'utilisation du toucher. Nous recommandons un système extérieur-intérieur, car il offre à la fois une vue d'ensemble et un contexte, deux propriétés visuelles importantes pour les tâches de visualisation de volume que nous avons étudiées.De plus, sur la base de l'opinion du groupe haptique (80 % positive) selon laquelle le retour haptique aide à la compréhension, nous recommandons de compléter l'affichage visuel extérieur-intérieur par un haptique intérieur-extérieur lorsque cela est possible.

Qi, W., Taylor, R.M., Healey, C.G. et Martens, J-B. "A Comparison of Immersive HMD, Fish Tank VR and Fish Tank with Haptics Displays for Volume Visualization." In Proceedings Third International Symposium on Applied Perception in Graphics and Visualization 2006 (Boston, Massachusetts, 2006), pp. 51-58.

VisTRE : un outil de visualisation pour évaluer les erreurs dans les représentations de terrain
(PDF | Affiche)

De nouvelles sources de données et de nouveaux capteurs offrent de nouvelles possibilités de représentation du terrain et de nouveaux types d'erreurs caractéristiques. Nous développons un système pour visualiser et comparer les représentations du terrain et les erreurs qu'elles produisent.

Healey, C. G. et Snoeyink, J. "VisTRE: A Visualization Tool to Evaluate Errors in Terrain Representations." In Proceedings Third International Symposium on 3D Data Processing, Visualization, and Transmission 2006 (Chapel Hill, North Carolina, 2006).

Cet article décrit une étude expérimentale de trois propriétés perceptives du mouvement : le scintillement, la direction et la vitesse. Notre objectif est de comprendre comment appliquer ces propriétés pour représenter des données dans un environnement de visualisation. Les résultats de nos expériences montrent que les trois propriétés peuvent coder plusieurs valeurs de données, mais que des différences visuelles minimales sont nécessaires pour assurer une détection de cible rapide et précise : le scintillement doit être cohérent et doit avoir une durée de cycle de 120 millisecondes ou plus, la direction doit différer de au moins 20°, et la vitesse doit différer d'au moins 0,43° de l'angle visuel sous-tendu. Nous concluons par un aperçu de la façon dont nous appliquons nos résultats aux données du monde réel, puis discutons des travaux futurs que nous prévoyons de poursuivre.

Huber, D. E. et Healey, C. G. "Visualizing Data with Motion." In Proceedings IEEE Visualization 2005 (Minneapolis, Minnesota, 2005), pp. 527-534.

Cet article décrit notre système de bout en bout initial qui commence par la gestion des données et se poursuit par la conception de visualisation assistée, l'affichage, la navigation et l'interaction avec l'utilisateur. Les objectifs de cette discussion sont de : (1) promouvoir un cadre de visualisation plus complet (2) décrire comment l'expertise de la psychophysique humaine, des bases de données, de la logique rationnelle et de l'intelligence artificielle peut être appliquée à la visualisation et (3) illustrer les avantages d'une approche plus cadre complet en utilisant des exemples tirés de nos propres expériences.

Dennis, B. M., Kocherlakota, S. M., Sawant, A. P., Tateosian, L. G. et Healey, C. G. "Designing a Visualization Framework for Multidimensional Data." IEEE Computer Graphics & Applications (Visualization Viewpoints) 25, 6, (2005), 10-15.

Plusieurs méthodes de corrélation d'alertes ont été proposées au cours des dernières années pour construire des scénarios d'attaque de haut niveau à partir d'alertes d'intrusion de bas niveau signalées par les systèmes de détection d'intrusion (IDS). Ces méthodes de corrélation ont des forces et des limites différentes, aucune d'elles ne domine clairement les autres. Cependant, toutes ces méthodes dépendent fortement des IDS sous-jacents et fonctionnent mal lorsque les IDS ratent des attaques critiques. Afin d'améliorer les performances de corrélation des alertes d'intrusion et de réduire l'impact des attaques manquées, cet article présente une série de techniques permettant d'intégrer deux complémentaire types de méthodes de corrélation d'alertes : (1) celles basées sur la similitude entre les attributs d'alerte, et (2) celles basées sur les conditions préalables et les conséquences des attaques. En particulier, cet article présente des techniques permettant d'émettre des hypothèses et de raisonner sur les attaques éventuellement manquées par les IDS en se basant sur la relation causale indirecte entre les alertes d'intrusion et les contraintes auxquelles elles doivent satisfaire. Ce document aborde également des techniques supplémentaires pour valider les attaques hypothétiques via des données d'audit brutes et pour consolider les attaques hypothétiques afin de générer des scénarios d'attaque concis. Les résultats expérimentaux de cet article démontrent le potentiel de ces techniques dans la construction de scénarios d'attaque de haut niveau et le raisonnement sur les attaques éventuellement manquées.

Ning, P., Xu, D, Healey, CG, et St. Amant, R. "Scenarios d'attaque par l'intégration de méthodes de corrélation d'alertes complémentaires." In Proceedings Tenth Annual Network and Distributed System Security Symposium 2004 (San Diego, Californie, 2004), p. 97𤩟.

Un problème important dans le domaine de l'infographie est la visualisation de grands espaces d'information complexes. Les ensembles de données de ce type ont connu une croissance rapide ces dernières années, tant en nombre qu'en taille. Les images des données stockées dans ces collections doivent permettre une exploration et une analyse rapides et précises. Cet article présente une méthode pour construire des visualisations à la fois efficaces et esthétiques. Notre approche utilise des techniques issues de tableaux de maîtres et de la perception humaine pour visualiser un ensemble de données multidimensionnel. Les éléments de données individuels sont dessinés avec un ou plusieurs coups de pinceau qui varient leur apparence pour représenter les valeurs d'attribut de l'élément. Le résultat est un visualisation non photoréaliste d'informations stockées dans l'ensemble de données. Notre recherche étend les techniques existantes basées sur les glyphes et non photoréalistes en appliquant des directives perceptives pour construire une représentation efficace des données sous-jacentes. Les propriétés non photoréalistes employées par les traits sont sélectionnées à partir d'études sur l'histoire et la théorie de l'art impressionniste. Nous montrons que ces propriétés sont similaires aux caractéristiques visuelles détectées par le système visuel humain de bas niveau. Cette correspondance nous permet de gérer les traits pour produire des visualisations perceptuellement saillantes. Des expériences psychophysiques confirment une forte relation entre le pouvoir expressif de nos propriétés non photoréalistes et les découvertes précédentes sur l'utilisation de motifs de couleur et de texture perceptifs pour l'affichage des données. Les résultats de ces études sont utilisés pour produire des visualisations non photoréalistes efficaces. Nous concluons en appliquant nos techniques à un vaste ensemble de données météorologiques multidimensionnelles pour démontrer leur viabilité dans un cadre pratique et réel.

Healey, C. G., Enns, J. T., Tateosian, L. G. et Remple, M. « Coups de pinceau basés sur la perception pour une visualisation non photoréaliste. » ACM Transactions on Graphics 23, 1, (2004), 64-96.

La visualisation telle qu'elle est pratiquée actuellement est surtout un métier. Les méthodes sont souvent conçues et évaluées en présentant les résultats de manière informelle aux utilisateurs potentiels. Quelle que soit l'efficacité d'une technique de visualisation ou la motivation de la théorie, si elle ne transmet pas efficacement l'information, elle est de peu d'utilité. Les études d'utilisateurs offrent une méthode scientifiquement valable pour mesurer les performances d'une visualisation. Bien que leur utilisation se soit généralisée, nous pensons qu'ils ont le potentiel d'avoir un impact beaucoup plus large. Cet article décrit nos expériences avec les études d'utilisateurs.

Kosara, R. Healey, CG, Interrante, V., Laidlaw, DH et Ware, C. "Réflexions sur les études sur les utilisateurs : pourquoi, comment et quand." IEEE Computer Graphics & Applications (points de vue de visualisation) 23, 4, (2003 ), 20-25.

Le cadre des systèmes visuels doubles a été utilisé pour explorer la détection et la localisation de cibles dans la recherche visuelle. Les observateurs ont recherché une petite parcelle de barres inclinées sur un fond dense de barres verticales. La détection de la cible a été effectuée avec deux tâches de localisation différentes : le pointage direct, conçu pour engager le flux dorsal, et le pointage indirect, conçu pour engager le flux ventral. Les résultats ont indiqué que : (1) la détection de la cible était plus influencée par les différences d'orientation dans l'espace tridimensionnel que par les différences picturales bidimensionnelles, (2) la localisation de la cible était plus précise pour le pointage direct que pour le pointage indirect, et (3) il y avait des performances des coûts pour la localisation indirecte lorsqu'elle a suivi la détection de la cible, mais aucun pour la localisation directe. Ceci est cohérent avec la localisation directe ayant une plus grande dépendance vis-à-vis du système visuel dorsal que la détection de cible ou la localisation indirecte.

Liu, G., Healey, C. G., et Enns, J. T. "Target Detection and Localization in Visual Search: A Dual Systems Perspective." Perception & Psychophysics 65, 5, (2003), 678-694.

Cet article présente une nouvelle technique pour visualiser de grandes collections complexes de données. Le Taille et dimensionnalité de ces ensembles de données les rendent difficiles à afficher de manière efficace. Les images doivent montrer la structure globale des relations spatiales au sein de l'ensemble de données, tout en représentant avec précision les détails locaux de chaque élément de données visualisé. Nous proposons de combiner des idées issues de l'information et de la visualisation scientifique avec un assistant de navigation, un système logiciel conçu pour aider les utilisateurs à identifier et à explorer les domaines d'intérêt au sein de leurs données. L'assistant localise les éléments de données potentiellement importants pour l'utilisateur, les regroupe dans des régions spatiales et crée des structures graphiques sous-jacentes pour connecter les régions et les éléments qu'elles contiennent. Des algorithmes de parcours de graphes, une construction de points de vue basée sur des contraintes et des techniques de planification de caméra intelligentes peuvent ensuite être utilisés pour concevoir des visites animées de ces régions. De cette façon, l'assistant de navigation peut aider les utilisateurs à explorer n'importe quel domaine d'intérêt au sein de leurs données. Nous concluons en démontrant comment notre assistant est utilisé pour visualiser un ensemble de données météorologiques multidimensionnel.

Dennis, B. M. et Healey, C. G. " Assisted Navigation for Large Information Spaces." Dans Proceedings IEEE Visualization 2002 (Boston, Massachusetts, 2002), pp. 419-426.

La visualisation scientifique représente les informations sous forme d'images qui nous permettent d'explorer, de découvrir, d'analyser et de valider de grandes collections de données. Une grande partie de la recherche dans ce domaine est consacrée à la conception de visualisations efficaces qui prennent en charge des besoins d'analyse spécifiques. Récemment, nous nous sommes intéressés à une nouvelle idée : une visualisation est-elle belle ? Une visualisation peut-elle être considérée comme une œuvre d'art ? On pourrait s'attendre à ce que les réponses à ces questions varient considérablement en fonction de l'individu et de son interprétation de ce que signifie être artistique. Cependant, nous pensons que les questions d'efficacité et d'esthétique ne sont peut-être pas aussi indépendantes qu'elles pourraient le paraître à première vue. On peut apprendre beaucoup d'une étude de deux disciplines connexes : la psychophysique humaine et la théorie et l'histoire de l'art. La perception nous enseigne comment nous "voyons" le monde qui nous entoure. L'histoire de l'art nous montre comment les maîtres artistiques ont capté notre attention en concevant des œuvres qui évoquent une réponse émotionnelle. L'intérêt commun pour l'attention visuelle fournit un pont important entre ces domaines. Nous utilisons ce pont pour produire des visualisations à la fois efficaces et engageantes. Cet article décrit nos recherches et discute de certaines des leçons que nous avons apprises en cours de route.

Healey, C. G et Enns, J. T. « Perception et peinture : une recherche de visualisations efficaces et engageantes ».

Cet article décrit un système d'exploration et de sélection d'entrées dans une base de données musicale via une interface de visualisation. Le système est conçu pour être déployé dans des situations où l'attention de l'utilisateur est une ressource étroitement limitée. Le système combine des sujets de recherche dans les interfaces utilisateur intelligentes, les techniques de visualisation et la modélisation cognitive. L'évaluation informelle du système nous a donné des informations utiles sur les compromis de conception auxquels les développeurs peuvent être confrontés lors de la création d'interfaces visuelles pour des applications prêtes à l'emploi.

St. Amant, R., Blair, JE, Barry, P., Bentor, Y., et Healey, CG "A Visual Interface to a Music Database." In Proceedings Advanced Visual Interfaces 2002 (Trento, Italie, 2002), pp. 85-88.

Cet article décrit une nouvelle application de la simplification du maillage préservant les caractéristiques au problème de la gestion de grands ensembles de données multidimensionnels lors de la visualisation scientifique. Pour permettre cela, nous considérons un ensemble de données scientifiques comme un maillage triangulé d'éléments de données, où les attributs intégrés dans chaque élément forment un ensemble de propriétés disposées sur la surface du maillage. Les techniques de simplification existantes n'ont pas été conçues pour répondre à la grande dimensionnalité qui existe dans ces types d'ensembles de données. De même, les opérations de sommet qui déplacent, insèrent ou suppriment des éléments de données peuvent devoir être modifiées ou restreintes. L'analyse en composantes principales fournit une méthode indépendante de l'algorithme pour compresser la dimensionnalité d'un ensemble de données lors de la simplification. Le verrouillage des sommets oblige certains éléments de données à conserver leurs emplacements spatiaux. Cette technique est également utilisée pour garantir une densité minimale dans le jeu de données simplifié. Le résultat est une visualisation qui réduit considérablement le nombre d'éléments de données à afficher, tout en garantissant que les régions à forte variance d'intérêt potentiel restent intactes. Nous appliquons nos techniques à un certain nombre d'algorithmes de préservation de caractéristiques bien connus et démontrons leur applicabilité dans un contexte réel en simplifiant un ensemble de données météorologiques multidimensionnel. Nos résultats montrent une amélioration significative du temps d'exécution avec seulement une petite réduction de la précision, même lorsque l'ensemble de données a été simplifié à 10 % de sa taille d'origine, l'erreur moyenne par attribut était inférieure à 1 %.

Walter, J. D. et Healey, C. G. "Attribute Preserving Dataset Simplification." Dans Proceedings IEEE Visualization 2001 (San Diego, Californie, 2001), pp. 113-120.

Cet article décrit une nouvelle méthode de visualisation des espaces d'information complexes sous forme d'images peintes. La visualisation scientifique convertit les données en images qui permettent aux utilisateurs de « voir » les tendances, les relations et les modèles. Nous introduisons une définition formelle de la correspondance entre les techniques de visualisation traditionnelles et les styles picturaux du mouvement de l'art impressionniste. Cette correspondance nous permet d'appliquer des directives perceptives de la visualisation pour contrôler la présentation de l'information dans une peinture générée par ordinateur. Le résultat est une image visuellement attrayante, mais qui permet également aux téléspectateurs d'explorer et d'analyser rapidement et avec précision les valeurs de données sous-jacentes. Nous concluons en appliquant notre technique à une collection de lectures environnementales et météorologiques, pour démontrer sa viabilité dans un environnement de visualisation pratique et réel.

Healey, C. G. "Formalizing Artistic Techniques and Scientific Visualization for Painted Renditions of Complex Information Spaces." In Proceedings International Joint Conference on Artificial Intelligence 2001 (Seattle, Washington, 2001), pp. 371-376.

À mesure que les systèmes d'IA font leur chemin dans le grand public des applications interactives, la convivialité devient un facteur de plus en plus important de leur succès. Une large gamme de directives de conception d'interface utilisateur a été développée pour la manipulation directe et les conventions d'interface utilisateur graphique des logiciels modernes. Malheureusement, il n'est pas toujours clair comment ceux-ci devraient être appliqués aux systèmes d'IA. Cet article traite d'un assistant de visualisation, d'un domaine de simulation de commerce électronique auquel nous l'avons appliqué et des directives que nous avons trouvées pertinentes dans la construction de son interface utilisateur. L'objectif de cet article est d'expliquer comment un système interactif peut intégrer un comportement intelligent basé sur la recherche tout en respectant des règles bien établies pour une interaction utilisateur efficace.

St. Amant, R. et Healey, C. G. "Useability Guidelines for Interactive Search in Direct Manipulation Systems." In Proceedings International Joint Conference on Artificial Intelligence 2001 (Seattle, Washington, 2001), pp. 1179-1184.

Combiner la perception et les techniques impressionnistes pour une visualisation non photoréaliste de données multidimensionnelles
(PDF | Diapositives PowerPoint | Film Quicktime)

L'objectif de ce cours est d'initier les participants à la richesse de l'inspiration de visualisation disponible à partir de l'art et de l'histoire de l'art. La façon dont les gens perçoivent une image peut avoir un effet profond sur le sens qu'ils attachent à cette image. Un exemple convaincant est l'utilisation par l'artiste de techniques picturales qui exploitent notre perception pour évoquer une réponse émotionnelle spécifique. Ce cours examine un certain nombre de questions importantes dans le rendu non photoréaliste et la perception visuelle, puis discute de leur pertinence directe pour l'infographie et la visualisation scientifique à travers une série de descriptions, d'exemples et d'applications pratiques. Les sujets abordent des questions telles que : Quelles techniques artistiques pouvons-nous appliquer lors de la génération d'images ? Comment ces techniques peuvent-elles être utilisées pour améliorer le pouvoir expressif des méthodes traditionnelles telles que la visualisation de volume ou la convolution intégrale de ligne ? Comment la correspondance entre les propriétés artistiques et la perception humaine nous permet-elle de produire des interprétations picturales d'espaces d'information complexes ? Les réponses à ces questions sont importantes pour les chercheurs et les praticiens en graphisme qui souhaitent construire des images non photoréalistes qui transmettent un sens ou un effet perceptuel voulu lorsqu'elles sont vues par leur public.

Healey, C. G. "Combining Perception and Impressionist Techniques for Nonphotorealistic Visualization of Multidimensional Data." Dans SIGGRAPH 2001 Course 32: Nonphotorealistic Rendering in Scientific Visualization (Los Angeles, Californie, 2001), pp. 20-52.

Visualisation assistée des agents d'enchères du commerce électronique ( PDF | HTML )

Cet article décrit l'intégration de directives perceptives issues de la vision humaine avec une technique de recherche à initiative mixte basée sur l'IA. Le résultat est un assistant de visualisation, un système qui identifie les visualisations perceptuellement saillantes pour de grandes collections de données multidimensionnelles. Comprendre comment le système visuel humain de bas niveau « voit » les informations visuelles dans une image nous permet : (1) d'évaluer une visualisation particulière et (2) d'orienter l'algorithme de recherche vers de nouvelles visualisations qui peuvent être meilleures que celles vues à ce jour. De cette façon, nous pouvons limiter la recherche aux emplacements qui ont le potentiel le plus élevé pour contenir des visualisations efficaces. Une application de banc d'essai pour ce travail est la visualisation d'agents d'enchères de commerce électronique intelligents participant à un environnement d'enchères en ligne simulé. Nous décrivons comment l'assistant de visualisation a été utilisé pour choisir des méthodes permettant de visualiser efficacement ces données.

Healey, C. G., St. Amant, R., et Chang, J. « Visualisation assistée des agents d'enchères du commerce électronique. » Dans Proceedings Graphics Interface 2001 (Ottawa, Canada, 2001), pp. 201-208.

Cet article décrit les techniques de visualisation pour la planification interactive dans une simulation de force physique appelée AFS. Nous avons développé un environnement 3D dans lequel des textures sont superposées sur un paysage simulé pour transmettre des informations sur les propriétés environnementales, les actions des agents et les stratégies possibles. Les scènes sont présentées, via une planification automatisée de la caméra, de telle sorte que, dans certains cas, les objectifs des agents peuvent être induits visuellement avec peu d'effort. Ces deux domaines de fonctionnalité de visualisation dans AFS exploitent respectivement les propriétés de la vision humaine de bas niveau et de niveau intermédiaire. Cet article présente AFS, son environnement de visualisation et une expérience que nous avons menée pour explorer la relation entre les visualisations AFS et le processus de planification de haut niveau.

St. Amant, R., Healey, C.G., Riedl, M., Kocherlakota, S., Pegram, D.A. et Torhola, M."Visualisation intelligente dans un système de planification." Dans Proceedings Intelligent User Interfaces 2001 (Santa Fe, New Mexico, 2001), pp. 153-160.

  • Objectif général de la visualisation : Améliorez la clarté, augmentez la puissance d'expression dans la visualisation d'ensembles de données volumineux, complexes et multidimensionnels.
  • Objectif actuel : Faciliter la visualisation des données via des éléments rectangulaires orientés (pexels)
  • Contexte de perception : La recherche visuelle basée sur l'orientation 3D peut être préattentive (Enns & Rensink, Psychological Science, 1990)

Éclats de texture orientés : une technique d'estimation de la valeur locale de plusieurs champs scalaires
(PDF | HTML)

Cet article décrit une technique de génération de texture qui combine l'orientation et la luminance pour prendre en charge l'affichage simultané de plusieurs champs scalaires qui se chevauchent. Nos orientations et luminances sont sélectionnées sur la base d'expériences psychophysiques qui ont étudié comment le système visuel humain de bas niveau perçoit ces caractéristiques visuelles. Le résultat est une image qui permet aux téléspectateurs d'identifier les valeurs de données dans un champ individuel, tout en mettant en évidence les interactions entre les différents champs. Notre technique prend en charge les ensembles de données avec des limites lisses et nettes. Il est stable en présence de bruit et de valeurs manquantes. Les images sont générées en temps réel, permettant une exploration interactive des données sous-jacentes. Notre technique peut être combinée avec des méthodes existantes qui utilisent des couleurs perceptives ou des dimensions de texture perceptives, et peut donc être considérée comme une extension de ces méthodes pour aider davantage à l'exploration et à l'analyse de grands ensembles de données complexes et multidimensionnels.

Weigle, C., Emigh, WG, Liu, G., Taylor, RM, Enns, JT et Healey, CG "Oriented Texture Slivers: A Technique for Local Value Estimation of Multiple Scalar Fields." In Proceedings Graphics Interface 2000 (Montréal, Canada, 2000), p. 163-170.

Les ensembles de données scientifiques sont souvent difficiles à analyser ou à visualiser, en raison de leur grande taille et de leur grande dimensionnalité. Nous proposons une approche en plusieurs étapes pour résoudre ce problème. Nous commençons par utiliser des techniques de gestion des données pour identifier les domaines d'intérêt au sein de l'ensemble de données. Cela nous permet de réduire la taille et la dimensionnalité d'un ensemble de données, et d'estimer les valeurs manquantes ou de corriger les entrées erronées. Nous affichons les résultats en utilisant des techniques de visualisation basées sur des règles perceptives. Nos outils de visualisation sont conçus pour exploiter la puissance du système visuel humain de bas niveau. Le résultat est un ensemble d'écrans qui permettent aux utilisateurs d'effectuer une analyse de données exploratoire rapide et précise.

Healey, C. G. "Construire une architecture de visualisation perceptuelle." Behavior and Information Technology 19, 5, (2000), 349-366.

Cet article décrit un assistant de visualisation automatisé appelé ViA. ViA est conçu pour aider les utilisateurs à construire des visualisations optimales sur le plan de la perception pour représenter, explorer et analyser des ensembles de données volumineux, complexes et multidimensionnels. Nous avons abordé ce problème en étudiant ce que l'on sait du contrôle de l'attention visuelle humaine. En exploitant le système visuel humain de bas niveau, nous pouvons soutenir nos doubles objectifs de rapide et exact visualisation. Les directives perceptives que nous avons construites à l'aide d'expériences psychophysiques constituent la base de ViA. ViA utilise des algorithmes de planification d'initiative mixte modifiés issus de l'intelligence artificielle pour rechercher des attributs de données perceptuellement optimaux aux mappages de caractéristiques visuelles (caractéristiques de données). Nos directives perceptuelles sont intégrées dans des moteurs d'évaluation qui fournissent des poids d'évaluation pour un mappage de caractéristiques de données donné, et des conseils sur la façon dont ce mappage pourrait être amélioré. ViA commence par poser aux utilisateurs un ensemble de questions simples sur leur ensemble de données et les tâches d'analyse qu'ils souhaitent effectuer. Les réponses à ces questions sont utilisées en combinaison avec les moteurs d'évaluation pour identifier et poursuivre intelligemment des mappages de caractéristiques de données prometteurs. Le résultat est un ensemble de mappages généré automatiquement qui sont perceptuellement saillants, mais qui respectent également le contexte de l'ensemble de données et les préférences des utilisateurs sur la façon dont ils souhaitent visualiser leurs données.

Healey, C. G., St. Amant, R., et Elhaddad, M. "ViA: A Perceptual Visualization Assistant." Dans Actes 28th Applied Imagery Pattern Recognition Workshop, (Washington, D.C., 1999), pp. 1-11.

La façon dont les gens perçoivent une image peut avoir un effet profond sur le sens qu'ils attachent à cette image. Ce cours examine un certain nombre de problèmes fondamentaux de la perception visuelle, puis discute de leur pertinence directe pour l'infographie et la génération d'images à travers une série de descriptions, d'exemples et d'applications pratiques. Les sujets abordent des questions telles que : Comment le système visuel « voit » la couleur, et comment cela affecte-t-il le modèle de couleur RVB que nous utilisons souvent pour choisir nos couleurs ? Comment les motifs de texture peuvent-ils être utilisés pour transmettre plusieurs canaux d'information indépendants à un spectateur ? Comment le mouvement peut-il être utilisé pour améliorer une image ? Les réponses à ces questions sont importantes pour les chercheurs et les praticiens en graphisme qui veulent s'assurer que leurs images transmettent le sens ou l'effet perceptuel souhaité lorsqu'elles sont vues par leur public.

Healey, C. G. "Fundamental Issues of Visual Perception for Effective Image Generation." Dans SIGGRAPH 99 Course 6: Fundamental Issues of Visual Perception for Effective Image Generation (Los Angeles, Californie, 1999), pp. 1-42.

Cet article présente une nouvelle méthode d'utilisation de la texture et de la couleur pour visualiser des éléments de données multivariés disposés sur un champ de hauteur sous-jacent. Nous avons combiné des motifs de texture simples avec des couleurs perceptuellement uniformes pour augmenter le nombre de valeurs d'attributs que nous pouvons afficher simultanément. Notre technique construit des éléments de texture perceptuelle multicolores (ou pexels) pour représenter chaque élément de données. Les valeurs d'attribut codées dans un élément sont utilisées pour faire varier l'apparence de son pexel. Les motifs de texture et de couleur qui se forment lorsque les pexels sont affichés peuvent être utilisés pour explorer rapidement et avec précision l'ensemble de données. Nos pexels sont construits en faisant varier trois dimensions de texture distinctes : hauteur, densité et régularité. Les résultats de l'infographie, de la vision par ordinateur et de la psychophysique visuelle humaine ont identifié ces dimensions comme étant importantes pour la formation de motifs de texture perceptive. Les pexels sont colorés à l'aide d'une technique de sélection qui contrôle la distance de couleur, la séparation linéaire et la catégorie de couleur. La bonne utilisation de ces critères garantit des couleurs qui se distinguent également les unes des autres. Nous décrivons un ensemble d'expériences contrôlées qui démontrent l'efficacité de nos dimensions de texture et critères de sélection de couleur. Nous discutons ensuite de nouveaux travaux qui étudient comment la texture et la couleur peuvent être utilisées simultanément dans un seul écran. Nos résultats montrent que les variations de hauteur et de densité n'ont aucun effet sur la segmentation des couleurs, mais que des motifs de couleurs aléatoires peuvent interférer avec la segmentation des textures. À mesure que la difficulté de la tâche de détection visuelle augmente, la quantité de couleur sur les interférences de texture augmente également. Nous concluons en démontrant l'applicabilité de notre approche à un problème du monde réel, le suivi des conditions des typhons en Asie du Sud-Est.

Healey, C. G. et Enns, J. T. "Large Datasets at a Glance: Combining Textures and Colors in Scientific Visualization." IEEE Transactions on Visualization and Computer Graphics 5, 2, (1999), 145-167.

Création de textures perceptives pour visualiser des ensembles de données multidimensionnels
(PDF | HTML)

Cet article présente une nouvelle méthode d'utilisation de la texture pour visualiser des éléments de données multidimensionnels disposés sur une surface tridimensionnelle sous-jacente. Nous utilisons des motifs de texture simples en combinaison avec d'autres caractéristiques visuelles comme la teinte et l'intensité pour augmenter le nombre de valeurs d'attributs que nous pouvons afficher simultanément. Notre technique construit des éléments de texture perceptuels (ou pexels) pour représenter chaque élément de données. Les valeurs d'attribut codées dans l'élément de données sont utilisées pour faire varier l'apparence d'un pexel correspondant. Les motifs de texture qui se forment lorsque les pexels sont affichés peuvent être utilisés pour explorer rapidement et avec précision l'ensemble de données. Nos pexels sont construits en contrôlant trois dimensions de texture distinctes : la hauteur, la densité et la régularité. Les résultats de l'infographie, de la vision par ordinateur et de la psychologie cognitive ont identifié ces dimensions comme importantes pour la formation de modèles de texture perceptuelle. Nous avons mené une série d'expériences contrôlées pour mesurer l'efficacité de ces dimensions et pour identifier toute interférence visuelle pouvant survenir lorsque les trois sont affichées simultanément au même emplacement spatial. Les résultats de nos expériences montrent que ces dimensions peuvent être utilisées dans des combinaisons spécifiques pour former des textures perceptives permettant de visualiser des ensembles de données multidimensionnels. Nous démontrons l'efficacité de notre technique en l'appliquant au problème de la visualisation des conditions océaniques et atmosphériques sur une carte topographique de l'Asie orientale pendant la saison estivale des typhons.

Healey, C. G. et Enns, J. T. "Building Perceptual Textures to Visualize Multidimensional Datasets." In Proceedings IEEE Visualization '98 (Research Triangle Park, Caroline du Nord, 1998), pp. 111-118.

Cet article décrit notre enquête sur les méthodes de choix de la couleur, de la texture, de l'orientation, de la forme et d'autres caractéristiques pour visualiser certains types de grands ensembles de données multidimensionnels. Ces ensembles de données deviennent de plus en plus des exemples courants, notamment des résultats de simulations scientifiques, des systèmes d'information géographique, des images satellites et des analyses biomédicales. La quantité écrasante d'informations contenues dans ces ensembles de données les rend difficiles à analyser à l'aide de techniques mathématiques ou statistiques traditionnelles. Cela les rend également difficiles à visualiser de manière efficace ou utile.

Healey, C. G. "Applications of Visual Perception in Computer Graphics." Dans SIGGRAPH 98 Course 32: Applications of Visual Perception in Computer Graphics (Orlando, Floride, 1998), pp. 205-242.

Sur l'utilisation des indices perceptuels et de l'exploration de données pour une visualisation efficace des ensembles de données scientifiques
(PDF | HTML)

Les ensembles de données scientifiques sont souvent difficiles à analyser ou à visualiser, en raison de leur grande taille et de leur grande dimensionnalité. Nous proposons une approche en deux étapes pour résoudre ce problème. Nous commençons par utiliser des algorithmes d'exploration de données pour identifier les domaines d'intérêt au sein de l'ensemble de données. Cela nous permet de réduire la taille et la dimensionnalité d'un ensemble de données, et d'estimer les valeurs manquantes ou de corriger les entrées erronées. Nous affichons les résultats de l'étape d'exploration de données en utilisant des techniques de visualisation basées sur des indices perceptuels. Nos outils de visualisation sont conçus pour exploiter la puissance du système visuel humain de bas niveau. Afin de démontrer nos techniques, nous avons visualisé un ensemble de données environnementales utilisé pour modéliser la croissance et les schémas de migration du saumon. L'exploration de données a été utilisée pour identifier les attributs importants et pour fournir des estimations précises de la densité du plancton. Nous avons utilisé la couleur et la texture pour visualiser les attributs significatifs et les densités de plancton estimées pour chaque mois pour les années 1956 à 1964. Le résultat est un outil de visualisation qui permet aux utilisateurs de localiser rapidement les densités de plancton spécifiques et les limites qu'elles forment. Les utilisateurs peuvent comparer les densités de plancton à d'autres conditions environnementales telles que la température de surface de la mer et la force du courant. Enfin, les utilisateurs peuvent suivre les changements dans l'un des attributs de l'ensemble de données sur une base mensuelle ou annuelle.

Healey, C. G. "On the Use of Perceptual Cues and Data Mining for Effective Visualization of Scientific Datasets." Dans Proceedings Graphics Interface '98 (Vancouver, Canada, 1998), pp. 177-184.

Rendu du volume des anévrismes de l'aorte abdominale
(PDF | HTML)

La visualisation volumique des images médicales doit répondre à deux problèmes importants. Premièrement, il est difficile de segmenter les scans médicaux en matériaux individuels en se basant uniquement sur les valeurs d'intensité. Cela peut entraîner des volumes qui contiennent de grandes quantités de matériel sans importance ou inutile. Deuxièmement, bien que les images en niveaux de gris soient la méthode normale pour afficher des volumes médicaux, ces types d'images ne sont pas nécessairement appropriés pour mettre en évidence les régions d'intérêt dans le volume. Nous avons abordé les deux problèmes lors de la visualisation des tomodensitogrammes des anévrismes de l'aorte abdominale. Nous avons développé une méthode de classification qui segmente empiriquement les régions d'intérêt dans chacune des tranches 2D. Nous utilisons une technique de sélection de couleur perceptive pour identifier chaque région d'intérêt à la fois dans les tranches 2D et les volumes reconstruits 3D. Le résultat est un volume colorisé que les radiologues utilisent pour identifier rapidement et avec précision les emplacements et les interactions spatiales de différents matériaux à partir de leurs scans. Notre technique a déjà été utilisée dans un environnement post-opératoire pour aider à évaluer les résultats d'une chirurgie visant à prévenir la rupture de l'anévrisme.

Tam, R. C., Healey, C. G., Flak, B., et Cahoon, P. "Volume Rendering of Abdominal Aortic Aneurysms." Dans Proceedings IEEE Visualization '97 (Phoenix, Arizona, 1997), pp. 43-50.

Une nouvelle méthode est présentée pour effectuer une estimation numérique rapide et précise. Il est dérivé de principes issus d'un domaine de la psychologie cognitive appelé traitement préattentif. Le traitement préattentif fait référence à une organisation initiale du système visuel humain basée sur des opérations considérées comme rapides, automatiques et spatialement parallèles. Des exemples de caractéristiques visuelles pouvant être détectées de cette manière incluent la teinte, l'intensité, l'orientation, la taille et le mouvement. Nous pensons que les études de vision préattentive devraient être utilisées pour aider à la conception d'outils de visualisation, en particulier ceux pour lesquels la détection de cibles, de limites et de régions à grande vitesse est importante. Dans notre présente étude, nous avons étudié deux caractéristiques préattentives connues (teinte et orientation) dans le contexte d'une nouvelle tâche (estimation numérique) afin de voir si l'estimation préattentive était possible. Nos expériences ont testé des écrans conçus pour visualiser les données de simulations en cours au Département d'océanographie. Les résultats ont montré qu'une estimation rapide et précise est en effet possible en utilisant soit la teinte, soit l'orientation. De plus, la variation aléatoire de l'une de ces caractéristiques n'a entraîné aucune interférence lorsque les sujets ont estimé la numérotation de l'autre. Pour déterminer la robustesse de nos résultats, nous avons fait varier deux paramètres d'affichage importants, la durée d'affichage et la différence de caractéristiques, et trouvé des conditions aux limites pour chacun. Les implications de nos résultats pour l'application aux données et aux tâches réelles sont discutées.

Healey, C.G., Booth, K.S., et Enns, J.T. "High-Speed ​​Visual Estimation Using Preattentive Processing." ACM Transactions on Human Computer Interaction 3, 2, (1996), 107-135.

Dans cet article, nous décrivons une technique pour choisir plusieurs couleurs à utiliser lors de la visualisation des données. Notre objectif est une méthode systématique pour maximiser le nombre total de couleurs disponibles pour une utilisation, tout en permettant à un observateur de rechercher rapidement et avec précision un affichage pour l'une des couleurs données. Des recherches antérieures suggèrent que nous devons prendre en compte trois effets distincts lors de la sélection des couleurs : la distance de couleur, la séparation linéaire et la catégorie de couleur. Nous décrivons une méthode simple pour mesurer et contrôler tous ces effets. Notre méthode a été testée en effectuant un ensemble d'études d'identification de cibles. Nous avons analysé la capacité de trente-huit observateurs à trouver une cible de couleur dans des écrans contenant des éléments d'arrière-plan de couleurs différentes. Les résultats ont montré que notre méthode peut être utilisée pour sélectionner un groupe de couleurs qui fournira une bonne différenciation entre les éléments de données lors de la visualisation.

Healey, C. G. "Choisir des couleurs efficaces pour la visualisation des données." Dans Proceedings IEEE Visualization '96 (San Francisco, Californie, 1996), pp. 263-270.

Une nouvelle méthode d'aide à la visualisation de grands ensembles de données multidimensionnels est proposée. Nos techniques de visualisation de données reposent en grande partie sur un domaine de la psychologie cognitive appelé traitement préattentif. Le traitement préattentif est l'étude des caractéristiques visuelles qui sont détectées rapidement et avec peu d'effort par le système visuel humain. Les exemples incluent la teinte, l'orientation, la forme, l'intensité et le mouvement. Nous avons étudié les moyens d'étendre et d'appliquer les résultats de la recherche à partir du traitement préattentif pour répondre à nos besoins de visualisation. Nous avons utilisé nos investigations pour construire des outils de visualisation qui permettent à un utilisateur d'effectuer très rapidement et avec précision des tâches d'analyse exploratoire. Ces tâches incluent la recherche d'éléments cibles, l'identification des limites entre les groupes d'éléments communs et l'estimation du nombre d'éléments ayant une caractéristique visuelle spécifique. Nos résultats expérimentaux ont été positifs, suggérant que des séquences dynamiques d'images peuvent être utilisées pour explorer de grandes quantités de données dans un laps de temps relativement court.

Des travaux récents dans les systèmes de visualisation scientifique et de base de données ont commencé à aborder les problèmes inhérents à la gestion de grands ensembles de données scientifiques. Une technique prometteuse est la découverte de connaissances, "l'extraction non triviale d'informations implicites, inconnues auparavant et potentiellement utiles à partir de données". Nous émettons l'hypothèse que la découverte de connaissances peut être utilisée comme un filtre pour réduire la quantité de données envoyées à l'outil de visualisation. Les éléments de données qui n'appartiennent pas à un groupe d'intérêt choisi par l'utilisateur peuvent être supprimés, la dimensionnalité des éléments de données individuels peut être compressée et des tendances et des relations auparavant inconnues peuvent être découvertes et explorées.

Healey, C. G. "Effective Visualization of Large, Multidimensional Datasets." Thèse de doctorat (1996), Département d'informatique, Université de la Colombie-Britannique.

Une nouvelle méthode est présentée pour visualiser les données telles qu'elles sont générées à partir d'applications en temps réel. Des travaux antérieurs ont montré que les résultats de la recherche en traitement préattentif peuvent être utilisés pour créer des outils de visualisation qui permettent une analyse rapide et précise des blocs de données statiques individuels. Nous étendons ces techniques à un environnement temps réel dynamique. Cela permet aux utilisateurs d'effectuer des tâches similaires sur des séquences dynamiques d'images, exactement comme celles générées par des systèmes en temps réel tels que la simulation visuelle interactive. Nous avons étudié deux caractéristiques préattentives connues, la teinte et la courbure. La principale question étudiée était de savoir si une détection rapide et précise des cibles et des limites dans des séquences dynamiques est possible en utilisant ces caractéristiques. Des expériences comportementales ont été menées pour simuler des affichages à partir de nos outils de visualisation préattentive. L'analyse des résultats des expériences a montré qu'une détection rapide et précise des cibles et des limites est possible à la fois avec la teinte et la courbure. Une deuxième question, à savoir si des interactions se produisent entre les deux fonctionnalités dans un environnement en temps réel, a reçu une réponse positive. Cela suggère que ces caractéristiques visuelles et peut-être d'autres peuvent être utilisées pour créer des outils de visualisation qui permettent une analyse de données multidimensionnelle à grande vitesse pour une utilisation dans des applications en temps réel. Il montre également qu'il faut être prudent dans l'affectation des éléments de données aux caractéristiques préattentives pour éviter de créer certains effets d'interférence visuelle.

Healey, C. G., Booth, K. S. et Enns, J. T. « Visualiser des données multivariées en temps réel à l'aide d'un traitement préattentif. » Transactions ACM sur la modélisation et la simulation informatique 5, 3, (1995), 190-221.

Nous avons émis l'hypothèse que la variabilité interannuelle de la circulation du nord-est de l'océan Pacifique affecte les temps de retour du saumon rouge du fleuve Fraser (Oncorhynchus nerka). Les migrations de retour ont été simulées pour 1982 (avec une circulation Alaska Gyre relativement faible) et 1983 (avec une circulation relativement forte) dans le contexte de trois phases séquentielles de migration de retour : une phase océanique non dirigée, une phase océanique dirigée et une phase côtière dirigée. Des dériveurs passifs ont été simulés pour examiner l'influence des courants océaniques pendant la phase océanique non dirigée : des poissons modèles au sud de 48 degrés N ont été advectés plus près de l'île de Vancouver en 1983 comparativement à 1982, ceux au nord de 48 degrés N ont été advectés plus près de l'île de Vancouver en 1982 que en 1983. Les poissons ont été simulés pendant la phase océanique dirigée en utilisant une variété de scénarios de comportement : les poissons modèles commençant au sud de 50 degrés N avaient des temps de retour plus tôt en 1983 qu'en 1982 ceux commençant au nord de 50 degrés N avaient des temps de retour en 1983 qui étaient généralement le même qu'en 1982 ou plus tard. Nous avons déduit que les courants océaniques moduleraient les influences environnementales sur les temps de retour pendant la phase de migration côtière dirigée, en déviant le saumon rouge vers différents domaines océanographiques le long de la côte de la Colombie-Britannique.

Thompson, KA, Ingraham, WJ, Healey, MC, LeBlond, P., Groot, C. et Healey, CG "Computer Simulations of the Influence of Ocean Currents on Fraser River Sockeye Salmon (Oncorhynchus Nerka) Return Times." Canadian Journal of Pêches et sciences aquatiques 51, 2, (1994), 441-449.

Une nouvelle méthode de conception d'outils de visualisation de données multivariées est présentée. Ces outils permettent aux utilisateurs d'effectuer des tâches simples telles que l'estimation, la détection de cibles et la détection de limites de données rapidement et avec précision. Notre technique de conception est basée sur des principes issus d'un domaine de la psychologie cognitive appelé traitement préattentif. Le traitement préattentif implique des caractéristiques visuelles qui peuvent être détectées par le système visuel humain sans focaliser l'attention sur des régions particulières d'une image. Des exemples de caractéristiques préattentives incluent la couleur, l'orientation, l'intensité, la taille, la forme, la courbure et la longueur de ligne. La détection est effectuée très rapidement par le système visuel, utilisant presque certainement un grand degré de parallélisme. Nous avons étudié deux caractéristiques préattentives connues, la teinte et l'orientation. La question particulière étudiée est de savoir si une estimation rapide et précise est possible en utilisant ces caractéristiques préattentives. Des expériences qui simulaient des affichages à l'aide de notre outil de visualisation préattentive ont été menées. L'analyse des résultats des expériences a montré qu'une estimation rapide et précise est possible à la fois avec la teinte et l'orientation. Une deuxième question, à savoir si une interaction se produit entre les deux caractéristiques, a reçu une réponse négative. Cela suggère que ces fonctionnalités et peut-être d'autres peuvent être utilisées pour créer des outils de visualisation qui permettent une analyse de données multivariée à grande vitesse.

Healey, C. G., Booth, K. S. et Enns, J. T. "Harnessing Preattentive Processes for Multivariate Data Visualization." In Proceedings Graphics Interface '93 (Toronto, Canada, 1993), pp. 107-117.

Une nouvelle méthode est présentée pour visualiser les données telles qu'elles sont générées à partir d'applications en temps réel. Ces techniques permettent aux utilisateurs d'effectuer des tâches d'analyse de données simples telles que la détection de groupes de données et de limites, la détection de cibles et l'estimation. L'objectif est de le faire rapidement et avec précision sur une séquence dynamique de trames de données. Nos techniques tirent parti d'une capacité du système visuel humain appelée traitement préattentif. Le traitement préattentif fait référence à une organisation initiale du système visuel basée sur des opérations considérées comme rapides, automatiques et spatialement parallèles. Des exemples de caractéristiques visuelles pouvant être détectées de cette manière incluent la teinte, l'orientation, l'intensité, la taille, la courbure et la longueur de ligne. Nous pensons que les études de traitement préattentif devraient être utilisées pour aider à la conception d'outils de visualisation, en particulier ceux pour lesquels la détection de cibles, de limites et de régions à grande vitesse est importante.

Des travaux antérieurs ont montré que les résultats de la recherche en traitement préattentif peuvent être utilisés pour créer des outils de visualisation qui permettent une analyse rapide et précise des blocs de données statiques individuels. Nous étendons ces techniques à un environnement temps réel dynamique. Cela permet aux utilisateurs d'effectuer des tâches similaires sur des séquences dynamiques d'images, exactement comme celles générées par des systèmes en temps réel tels que la simulation visuelle interactive. Nous avons étudié deux caractéristiques préattentives connues, la teinte et la courbure. La principale question étudiée était de savoir si une détection rapide et précise des cibles et des limites dans des séquences dynamiques est possible en utilisant ces caractéristiques. Des expériences comportementales ont été menées pour simuler des affichages à partir de nos outils de visualisation préattentive. L'analyse des résultats des expériences a montré qu'une détection rapide et précise des cibles et des limites est possible à la fois avec la teinte et la courbure. Une deuxième question, à savoir si des interactions se produisent entre les deux fonctionnalités dans un environnement en temps réel, a reçu une réponse positive. Cela suggère que ces caractéristiques visuelles et peut-être d'autres peuvent être utilisées pour créer des outils de visualisation qui permettent une analyse de données multidimensionnelle à grande vitesse pour une utilisation dans des applications en temps réel. Il montre également qu'il faut être prudent dans l'affectation des éléments de données aux caractéristiques préattentives pour éviter de créer certains effets d'interférence visuelle.

Healey, C. G. "Visualization of Multivariate Data Using Preattentive Processing." Mémoire de maîtrise (1993), Département d'informatique, Université de la Colombie-Britannique.

Nous émettons l'hypothèse que la variabilité interannuelle de la circulation de l'océan Pacifique Nord-Est affecte la latitude d'atterrissage et la vitesse de migration des saumons rouges adultes (Oncorhynchus nerka) retournant dans le fleuve Fraser. Le modèle OSCURS (Ocean Surface Current Simulations) a été utilisé pour simuler les trajectoires de migration de retour du saumon rouge à la boussole pendant deux ans : 1982, qui présentait une faible circulation du tourbillon d'Alaska et un faible taux de détournement vers le nord (défini comme le pourcentage de saumons rouges retournant autour de la l'extrémité nord de l'île de Vancouver au lieu de l'extrémité sud) et 1983, avec une forte circulation et un taux de détournement vers le nord élevé. La majorité des saumons rouges modèles ont touché terre plus au nord en 1983 qu'en 1982. La différence d'atterrissage entre 1983 et 1982 dépendait de la position de départ de la migration, de la vitesse de nage, de la direction de l'orientation et de la date de début de la migration. Les courants ont facilité la migration vers le rivage du saumon rouge à partir du sud de 55 degrés N et ont entravé la migration du saumon rouge à partir du nord. Les résultats de la simulation étaient cohérents avec notre hypothèse et suggèrent que les effets des courants du Pacifique Nord-Est doivent être inclus dans les modèles de migration du saumon rouge. Nous proposons un modèle conceptuel pour la prédiction du taux de dérivation nordique qui inclut le modèle de déplacement de température de Blackbourn (1987), amélioré pour inclure les effets des courants pendant la phase océanique de la migration, et l'utilisation de deux formules prédictives pour la phase côtière de migration : la formule de Xie et Hsieh (1989) pour le saumon rouge s'approchant de l'île de Vancouver directement depuis l'océan, et une formule encore à développer pour le saumon rouge s'approchant de l'intérieur du domaine de downwelling côtier directement au nord de l'île de Vancouver.

Thompson, KA, Ingraham, WJ, Healey, MC, LeBlond, P., Groot, C., et Healey, CG "L'influence des courants océaniques sur la latitude d'atterrissage et la vitesse de migration du saumon rouge retournant dans le fleuve Fraser." Pêcheries Océanographie 2, 1, (1992), 163-179.

L'un des principaux problèmes auxquels est confrontée la visualisation est de savoir comment afficher efficacement de grands ensembles de données de grande dimension dans une zone d'affichage limitée, sans surcharger l'utilisateur. Dans ce rapport, nous discutons d'une approche de synthèse des données pour résoudre ce problème. La synthèse est le processus par lequel les données sont réduites de manière significative et intelligente, à leurs caractéristiques importantes et pertinentes. Nous étudions plusieurs techniques différentes issues de l'informatique, qui peuvent être utilisées pour extraire diverses caractéristiques des données brutes. L'utilisation intelligente de techniques de résumé dans les systèmes de visualisation pourrait potentiellement réduire la taille et la dimensionnalité de données volumineuses et de grande dimension, mettre en évidence des caractéristiques pertinentes et importantes et améliorer la compréhension.

Kocherlakota, S. M. et Healey, C. G. "Summarization Techniques for Visualization of Large Multidimensional Datasets." Technical Report TR-2005-35 (2005), Department of Computer Science, North Carolina State University.

L'avènement des ordinateurs à haute puissance de traitement a conduit à la génération d'énormes ensembles de données contenant un grand nombre d'éléments, où chaque élément est souvent caractérisé par plusieurs attributs. Cela a conduit à un besoin critique de moyens d'explorer et d'analyser de grands espaces d'information multidimensionnels. La visualisation se prête bien à ce défi en permettant aux utilisateurs d'explorer, d'analyser et de découvrir visuellement des modèles au sein de leurs données. La plupart des techniques de visualisation sont basées sur l'hypothèse que le dispositif d'affichage a une résolution suffisante et que notre acuité visuelle est adéquate pour effectuer les tâches d'analyse. Cela peut ne pas être vrai cependant, en particulier pour les dispositifs d'affichage spécialisés (par exemple, les PDA ou les murs de projection grand format). Cet article traite des propriétés d'un périphérique d'affichage à prendre en compte lors de la visualisation de grands ensembles de données multidimensionnels. Nous étudions également les forces et les limites de notre système visuel, en particulier pour comprendre comment se distinguent les propriétés visuelles de base telles que la couleur, la texture et le mouvement. Ces résultats formeront la base de nouvelles recherches sur la meilleure façon de faire correspondre une conception de visualisation aux caractéristiques physiques d'un écran et aux capacités visuelles d'un spectateur.

Sawant, A. P. et Healey, C. G. "A Survey of Display Device Properties and Visual Acuity for Visualization." Technical Report TR-2005-32 (2005), Department of Computer Science, North Carolina State University.

Le rendu non photoréaliste est un domaine de l'informatique dans lequel les scientifiques appliquent des techniques artistiques pour améliorer l'infographie. Cet article aborde les questions sur quoi, comment et pourquoi à propos de NPR. La discussion s'élargit quelle NPR est et quels types de projets sont réalisés dans NPR, en particulier il se concentre sur trois problèmes: deux gros problèmes dans NPR, simulant l'illustration au stylo et l'encre et simulant la peinture, et enfin l'application de NPR à la visualisation. L'exploration approfondie de ces sujets fournit des réponses spécifiques à comment ces effets sont accomplis. Tout au long de l'article, diverses motivations pour l'utilisation de la NPR sont révélées, y compris l'application de la NPR à la visualisation (comme preuve de Pourquoi). Notre laboratoire s'intéresse à l'application des techniques NPR à la visualisation. L'article se termine donc par quelques conjectures sur la façon de vérifier l'efficacité de cet objectif.

Tateosian, L. G. et Healey, C. G. "NPR: Art Enhancing Computer Graphics." Technical Report TR-2004-17 (2004), Department of Computer Science, North Carolina State University.

Cet article présente une méthode simple pour segmenter les régions de couleur en catégories comme le rouge, le vert, le bleu et le jaune. Nous sommes intéressés à étudier comment les catégories de couleurs influencent la sélection des couleurs lors de la visualisation scientifique. La capacité de nommer des couleurs individuelles est également importante dans d'autres domaines problématiques tels que les affichages en temps réel, la conception d'interfaces utilisateur et les systèmes d'imagerie médicale. Notre algorithme utilise les modèles de couleurs Munsell et CIE LUV pour segmenter automatiquement un espace colorimétrique tel que RVB ou CIE XYZ en dix catégories de couleurs. Les utilisateurs sont ensuite invités à nommer un petit nombre de couleurs représentatives de chaque catégorie. Cela fournit trois résultats importants : une mesure du chevauchement perceptuel entre les catégories voisines, une mesure de la force d'une catégorie et un nom choisi par l'utilisateur pour chaque catégorie forte.

Healey, C. G. "A Perceptual Color Segmentation Algorithm." Technical Report TR-96-09 (1996), Department of Computer Science, University of British Columbia.


Résultats de la recherche de ressources électroniques

Utilisez des bases de données d'articles pour trouver des articles, des critiques, des chapitres de livres, etc.

Parcourir les bases de données par sujet

OU Parcourir les bases de données par titre

Votre recherche a trouvé 8072 enregistrements. Souhaitez-vous chercher à nouveau?

Résultats de recherche

  • Bibliothèque en ligne WileyUtilisation autorisée 1 2001-Actuel
  • Base de données des sciences de la Terre, de l'atmosphère et de l'eau2014-02-01&ndashActuel
  • Academic Search Premier (abonné)Utilisation autorisée2001-02-01&ndashCurrent
  • Répertoire des revues en libre accès (DOAJ - Tous les titres)2017&ndash2021
  • Répertoire des revues en libre accès (DOAJ - Tous les titres)2005-01&ndash2021-05
  • Base de données des sciences de la Terre, de l'atmosphère et de l'eau2005-01-01&ndashActuel
  • Academic Search Premier (abonné)Utilisation autorisée2015-06-01&ndashActuel
  • Taylor & Francis Online - eJournals (archives des sciences biologiques, de la terre et de l'environnement achetées en 2017)Utilisation autorisée1919-04&ndash1964-12 (volume 1, numéro 1&ndashvolume 46, numéro 4)
  • Collection JSTOR Arts & Sciences IIUtilisation autorisée1919-01-01&ndash1964-01-01 (volume 1&ndashvolume 46, numéro 4)
  • Taylor & Francis Online - eJournals (archives des sciences biologiques, de la terre et de l'environnement achetées en 2017)Utilisation autorisée1965-04&ndash1996-12 (volume 47, numéro 1&ndashvolume 78, numéro 4)
  • Taylor & Francis Online - eJournals (archives des sciences biologiques, de la terre et de l'environnement achetées en 2017)Utilisation autorisée1965-04&ndash1996-10 (volume 47, numéro 1&ndashvolume 78, numéro 3)

Recherchez des documents de référence, des dictionnaires, des encyclopédies, des manuels, etc.

Parcourir les documents de référence par sujet

Recherchez dans nos vastes collections de livres électroniques des titres adaptés à votre ordinateur, tablette ou liseuse.

OU Parcourir les collections de livres électroniques :

"La collection de journaux Nichols des 17e et 18e siècles comprend les journaux, périodiques, brochures et journaux grand format qui forment la collection de journaux Nichols conservée à la bibliothèque Bodleian d'Oxford, au Royaume-Uni. Les 296 volumes de documents reliés, couvrant la période 1672-1737 sont présentés en format numérisé ici.

Cette collection retrace l'histoire du développement de la presse en Angleterre et fournit un aperçu inestimable de l'Angleterre des XVIIe et XVIIIe siècles."

Divers livres couvrant une gamme de sujets publiés par les Presses universitaires canadiennes.

L'UNB a accès à certaines publications de 2014-2016 en plus de nombreuses publications en libre accès. Lorsque les utilisateurs accèdent au site, la recherche par défaut est conçue pour trouver UNIQUEMENT les livres disponibles à l'UNB.

Archives Unbound présente des collections numériques thématiques de documents historiques qui soutiennent les besoins de recherche et d'étude des universitaires et des étudiants au niveau collégial et universitaire. Les collections d'Archives Unbound couvrent un large éventail de sujets allant du Moyen Âge à la sorcellerie, à la Seconde Guerre mondiale et à l'histoire politique du XXe siècle. Les collections sont choisies pour Archives Unbound en fonction des demandes des universitaires, des archivistes et des étudiants.

Les bibliothèques de l'UNB donnent accès à :

Partie I : 1800-1900 Allant des premiers tabloïds comme Illustrated Police News à des journaux radicaux comme le Chartist Northern Star, les publications de la première partie couvrent un vaste éventail d'intérêts nationaux, régionaux et locaux.

Partie IV : 1732-1950 Des premiers titres de journaux clés comme le Stamford Mercury à ce qui est peut-être le plus ancien magazine au monde encore en cours de publication, le Scots Magazine, Part IV offre des perspectives locales et régionales clés. »

Livres électroniques : Les limites d'utilisateurs varient selon le titre

L'Art Canada Institute est un organisme de recherche bilingue à but non lucratif basé au Massey College, Université de Toronto, qui se consacre à faire de l'histoire de l'art canadien une conversation contemporaine.

Les livres d'art en ligne ACI contiennent en moyenne 17 000 mots de texte et 50 à 60 images. Chaque titre comprend six sections principales :
• Biographie
• Travaux clés
• Importance et problèmes critiques
• Style et technique
• Où voir
• Sources et ressources

Tout le contenu des titres ACI est original et Art Book Project.

Toutes les thèses de doctorat et les thèses de maîtrise des universités déposantes sont disponibles à partir de 1997, sauf si l'auteur du document a demandé un délai temporaire.

Il est également possible d'effectuer une recherche dans une interface exclusive à Dissertations & Thèses @ Université du Nouveau-Brunswick.

Pour les thèses de l'UNB soumises après 2012, veuillez consulter le référentiel institutionnel de l'UNB, UNB Scholar, ou le catalogue de la bibliothèque, UNBWorldCat.

La collection comprend : • uvres d'auteurs dramatiques des Premières nations • uvres de divers auteurs dramatiques • pièces de théâtre avec de grandes distributions • monologues • pièces de théâtre canadiennes classiques • pièces de théâtre canadiennes contemporaines

EEBO est basé sur les collections de microfilms conservées par l'éditeur d'Ann Arbor Eugene B. Power (1905-1993). Fondateur de ce qui est devenu University Microfilms International ou UMI, le premier projet étranger de Power a établi l'opération de microfilmage au British Museum en 1942 et, depuis lors, plus de 200 bibliothèques dans le monde ont contribué à la collection de microfilms.

Après son lancement numérique en 1998, Early English Books Online contient désormais des images de page de pratiquement tous les ouvrages imprimés en Angleterre, en Irlande, en Écosse, au Pays de Galles et en Amérique du Nord britannique, ainsi que des ouvrages en anglais imprimés ailleurs entre 1473 et 1700.

Depuis le tout premier livre publié en anglais, l'EEBO s'appuie sur quatre ressources bibliographiques faisant autorité - à la fois le Short-Title Catalog de Pollard & Redgrave (1475-1640) et le Wing's Short-Title Catalog (1641-1700) dans leurs versions révisées, ainsi que les Thomason Tracts (1640-1661) et le Early English Books Tract Supplement – ​​pour présenter plus de 146 000 titres et plus de 17 millions de pages numérisées de contenu.

Les textes transcrits – TCP I et TCP II – sont désormais inclus sur EEBO, ajoutant des transcriptions à environ 50 % des textes présentés. EEBO couvre également des textes dans plus de 30 langues, allant de l'algonquin au gallois, et intègre des éditions variantes et des copies multiples.
Date de couverture/publication : 1473-1700
Suite: Informations sur le produit de l'éditeur
URL durable : https://web.lib.unb.ca/eresources/index.php?id=173

Nineteenth Century Collections Online est un programme de numérisation et de publication axé sur les collections de sources primaires du long XIXe siècle. Le programme comprend une variété de types de contenu - monographies, journaux, brochures, manuscrits, éphémères, cartes, statistiques, etc. 12 collections sont désormais disponibles :

Collections d'éditeurs achetées notables :
- L'université de Cambridge
- Loi Irwin
- Oxford University Press
-Taylor et François

Informations d'accès : Une petite différence avec cette collection est que votre compte utilisateur ProQuest Ebook Central, pour le téléchargement, l'enregistrement, etc., est directement lié à votre identifiant de connexion UNB. Vous utiliserez vos identifiants de connexion UNB pour créer un nouveau compte d'utilisateur et pour les futures connexions à votre compte d'utilisateur et à votre bibliothèque sur ProQuest Ebook Central.

Lors de la première connexion à votre nouveau compte ProQuest Ebook Central, vous serez alors invité à migrer votre ancienne bibliothèque ebrary, si vous le souhaitez, et à la synchroniser avec votre nouveau compte utilisateur sur le nouveau site.
Autorisations d'accès variables.
Le degré: Plus de 160 000 livres, plus de 1 000 cartes, des centaines de titres de référence supplémentaires.
Fréquence de mise à jour: En cours
Suite: Informations sur le produit de l'éditeur
URL durable : https://web.lib.unb.ca/eresources/index.php?id=329

Bibliothèque et Archives nationales du Québec (BAnQ) s'est dotée d'un ambitieux programme de numérisation de l'ensemble du patrimoine documentaire publié et archivistique produit au Québec depuis le XVIIe siècle, ou d'origine étrangère et lié au Québec. Toutes les catégories de documents sont incluses : documents imprimés et manuscrits, photographies, enregistrements sonores, etc. Les ressources numérisées sont disponibles gratuitement sur le Web et d'autres s'y ajoutent.

Cette interface de ressources est disponible en anglais et en français, certains outils n'étant disponibles qu'en français et le contenu étant également principalement en français.

Remarque : UNB a accès en ligne à plus de 15 000 titres publiés entre 2005 et 2008, ainsi qu'à certains titres des années suivantes.

Taylor & Francis Group publie des livres pour tous les niveaux d'études universitaires et de développement professionnel, dans un large éventail de sujets et de disciplines, notamment les sciences humaines, les sciences sociales, les sciences du comportement, le droit et l'environnement bâti ainsi que les sciences naturelles, la technologie et la médecine.

L'UNB a acheté accès à plus de 10 000 titres grâce à une entente du RCDR, ainsi qu'à souscrit accès à plus de 4 000 titres de presse CRC.

Le US Government Publishing Office (GPO) est responsable de la production et de la distribution de produits et services d'information pour les trois branches du gouvernement fédéral, y compris les passeports américains pour le département d'État ainsi que les publications officielles du Congrès, de la Maison Blanche, et d'autres agences fédérales dans des formats numériques et imprimés. GPO fournit un accès public permanent aux informations du gouvernement fédéral sans frais.

Cette collection donne accès à des livres et des revues/séries.

Pour les thèses de l'UNB soumises avant 2012, veuillez consulter ProQuest Dissertations & Thèses, ou le catalogue de la bibliothèque, UNBWorldCat pour une sélection de thèses disponibles en ligne via la ressource ProQuest.

Contenu disponible sur: Emond Publishing (accès 3 utilisateurs abonnés) - 66 titres

VEUILLEZ NOTER: Visiter un lien de livre "empruntera" immédiatement le livre et limitera les copies disponibles pour les autres utilisateurs. Merci de "retourner" les livres non utilisés.
Autorisations d'accès variables.
Suite: Informations sur le produit de l'éditeur
URL durable : https://web.lib.unb.ca/eresources/index.php?id=3672

Recherchez parmi nos collections de vidéos, y compris les titres VHS/DVD.

OU Parcourir les collections de vidéos :

À compter du 1er juin 2019, l'accès des bibliothèques de l'UNB à la diffusion en ligne de Kanopy passera de l'achat automatique de titres (recevant quatre lectures ou plus) à des achats médiatisés nécessitant une demande préalable de l'utilisateur.

Kanopy est un service de vidéo en streaming à la demande pour les établissements d'enseignement qui donne accès à plus de 26 000 films chaque année. Kanopy travaille directement avec des cinéastes et des sociétés de distribution de films pour proposer des collections primées, notamment des titres de PBS, BBC, Criterion Collection, Media Education Foundation, etc.

À compter du 1er juin 2019, l'accès des bibliothèques de l'UNB à la diffusion en ligne de Kanopy passera de l'achat automatique de titres (recevant quatre lectures ou plus) à des achats médiatisés nécessitant une demande préalable de l'utilisateur.

Kanopy est un service de vidéo en streaming à la demande pour les établissements d'enseignement qui donne accès à plus de 26 000 films chaque année. Kanopy travaille directement avec des cinéastes et des sociétés de distribution de films pour proposer des collections primées, notamment des titres de PBS, BBC, Criterion Collection, Media Education Foundation, etc.

À compter du 1er juin 2019, l'accès des bibliothèques de l'UNB à la diffusion en ligne de Kanopy passera de l'achat automatique de titres (recevant quatre lectures ou plus) à des achats médiatisés nécessitant une demande préalable de l'utilisateur.

Informations sur l'utilisation du site Kanopy pour créer des playlists et des clips :
Instructions : Outil de création de liste de lecture et de clip.

Demandez nous

Demandez-nous est actuellement hors ligne. Le service de chat rouvrira à 9h00 aujourd'hui.


EnterpriseRetour en haut

Earth pour les entreprises/Google Earth Pro

Google Earth Enterprise et Google Earth Pro permettent aux entreprises et aux organisations d'exploiter la puissance de la plate-forme Google Earth pour intégrer, organiser et publier les données de localisation de leur organisation et/ou soutenir la prise de décision stratégique basée sur des ensembles de données de localisation. Google Earth fournit une plate-forme puissante et intuitive pour aider les agences gouvernementales et permettre aux citoyens de partager et d'accéder à des informations géographiques pour des besoins critiques tels que les secours en cas de catastrophe et l'aide d'urgence.

Cartes pour l'entreprise

Google Maps for Enterprise et Google Maps Pro offrent la puissance et les fonctionnalités des technologies de cartographie Web de Google aux sites Web internes et aux applications critiques. Les organisations de tous types peuvent intégrer des données et créer de manière transparente une expérience de cartographie Web hautes performances. Idéales pour les applications telles que la gestion des effectifs, les opérations/logistiques et le CRM, ces applications offrent une assistance et un service de niveau entreprise. Les utilisateurs bénéficient de la facilité d'utilisation que les gens apprécient dans l'offre grand public de Google Maps.

Le Google Mini offre la simplicité et la puissance de la technologie de recherche d'entreprise Google aux petites et moyennes entreprises, afin que les employés puissent accéder à des recherches pertinentes et sécurisées sur les intranets, les serveurs de fichiers et les applications professionnelles. Capable de travailler avec plus de 220 formats de fichiers différents, le Google Mini offre également une intégration avec les systèmes de sécurité existants, garantissant que les employés ne peuvent accéder qu'aux informations qu'ils sont censés consulter. Le Mini est disponible en plusieurs versions. Le Mini le plus abordable recherche jusqu'à 50 000 documents, y compris tout le matériel, les logiciels et un an d'assistance. Des versions supplémentaires recherchent jusqu'à 100 000, 200 000 ou 300 000 documents. Comme la mise à niveau est facile, le Mini est idéal pour les organisations en pleine croissance.

Système de recherche

Ce produit matériel et logiciel intégré est conçu pour donner aux entreprises la puissance d'amélioration de la productivité de la recherche Google. Grâce à une interface simple et intuitive, Google Search Appliance offre aux employés un accès instantané, en temps réel et sécurisé à toutes les informations et connaissances de leur entreprise, y compris les serveurs Web, les serveurs de fichiers, les systèmes de gestion de contenu, les bases de données relationnelles et les applications commerciales dans plus de 220 formats de fichiers différents et plus de 109 langues. Les fonctions de sécurité garantissent que les utilisateurs ne peuvent accéder qu'aux informations qu'ils sont autorisés à consulter. Le système de recherche est disponible en plusieurs versions, avec une capacité de recherche allant de 500 000 documents à plus de 30 millions.

SketchUp Pro

SketchUp Pro est un puissant outil de modélisation 3D doté d'un ensemble de fonctionnalités robustes qui permet aux utilisateurs de créer, visualiser et modifier des idées 3D. Avec SketchUp Pro, vous pouvez explorer et communiquer des concepts complexes, importer et exporter une multitude de formats de fichiers et placer vos modèles dans Google Earth. LayOut, une fonctionnalité de SketchUp Pro, vous permet de placer, d'organiser, de titrer et d'annoter des modèles SketchUp, des photos et d'autres éléments de conception pour créer des présentations interactives attrayantes et imprimer des documents haute résolution. Combinant l'élégance et la spontanéité du dessin au crayon avec la vitesse et la flexibilité des médias numériques d'aujourd'hui, Google SketchUp fournit un outil puissant mais facile à apprendre pour créer et modifier des modèles 3D. En insérant leurs modèles dans Google Earth, les professionnels du design comme les amateurs peuvent partager leurs créations avec le monde. Les architectes, décorateurs d'intérieur, architectes paysagistes, directeurs artistiques, développeurs de jeux, urbanistes et autres professionnels de la création comptent sur SketchUp pour donner vie à leurs idées de conception.


Points forts

Au point
La réponse de la FAO à la pandémie de COVID-19

Découvrez ce que fait la FAO en ce qui concerne la pandémie actuelle et ses impacts sur l'alimentation et l'agriculture. Consultez le Programme de réponse et de relèvement de la FAO COVID-19.

La FAO lance le Programme d'action des villes vertes pour l'Afrique

Des plans ambitieux pour aider les petites, moyennes et grandes villes à devenir plus vertes, plus propres et intégrées dans des systèmes agroalimentaires durables.

La Conférence de la FAO approuve un nouveau cadre stratégique pour stimuler la transformation des systèmes agroalimentaires

Les membres soulignent l'importance de promouvoir l'innovation, les technologies numériques et les données.


Point à l'intérieur de st_dwithin avec des résultats erronés - Systèmes d'Information Géographique

Guo, Yang Lin, Wenfang Yu, Shuyang Ji, Yang

La maintenance prédictive joue un rôle important dans les systèmes cyber-physiques (CPS) modernes et les méthodes basées sur les données ont été une direction intéressante pour la gestion de la santé des pronostics (PHM). Cependant, deux défis principaux ont des influences significatives sur les modèles traditionnels de diagnostic des défauts : l'un est que l'extraction de caractéristiques artisanales à partir de capteurs multidimensionnels avec des dépendances internes dépend trop de la connaissance de l'expertise, l'autre est qu'il existe un déséquilibre omniprésent entre les échantillons défectueux et normaux. Comme les modèles d'apprentissage en profondeur se sont avérés être de bonnes méthodes pour l'extraction automatique de caractéristiques, l'objectif de cet article est d'étudier un modèle d'apprentissage en profondeur optimisé pour le diagnostic de défaut déséquilibré pour les CPS. Ainsi, cet article propose un modèle LSTM à convolution récurrente longue pondérée avec politique d'échantillonnage (wLRCL-D) pour faire face à ces défis. Le modèle se compose de CNN à 2 couches, de LSTM internes à 2 couches et de LSTM externes à 2 couches, avec une politique de sous-échantillonnage et une fonction de perte pondérée sensible aux coûts. Des expériences sont menées sur des ensembles de données de défi PHM 2015, et les résultats montrent que wLRCL-D surpasse les autres méthodes de référence. PMID : 29621131

Ma, Jing Wang, Qiang Zhao, Zhibiao

Dans le contexte de l'Industrie 4.0, la demande de production en série de produits hautement personnalisés conduira à des produits complexes et à une demande croissante de flexibilité du système de production. La simple mise en œuvre d'une production centrée sur l'humain basée sur la production allégée ou d'une automatisation élevée pour améliorer la flexibilité du système est insuffisante. Actuellement, l'automatisation allégée (Jidoka) qui utilise des systèmes cyber-physiques (CPS) est considérée comme une approche rentable et efficace pour améliorer la flexibilité du système dans des conditions économiques mondiales en déclin. Par conséquent, un moteur d'automatisation lean intelligent activé par les technologies CPS (SLAE-CPS), basé sur une analyse des fonctions Jidoka et de la capacité intelligente des technologies CPS, est proposé dans cette étude pour fournir une approche intégrée et standardisée pour la conception et la mise en œuvre. un système Jidoka intelligent basé sur CPS. Un ensemble d'architecture complète et de technologies clés standardisées doit être présenté pour atteindre l'objectif susmentionné. Par conséquent, une architecture distribuée qui joint l'architecture orientée services, l'agent, le bloc fonctionnel (FB), le cloud et l'Internet des objets est proposée pour prendre en charge la configuration, le déploiement et les performances flexibles de SLAE-CPS. Ensuite, plusieurs techniques clés standardisées sont proposées sous cette architecture. Le premier sert à convertir des données physiques hétérogènes en services uniformes pour une analyse et une détection ultérieures des anomalies. Le second est un ensemble de règles de scène Jidoka, qui est abstraite sur la base de l'analyse de l'opérateur, de la machine, du matériau, de la qualité et d'autres facteurs dans différentes dimensions temporelles. Ces règles Jidoka peuvent aider les FB exécutifs à exécuter différentes fonctions Jidoka. Enfin, soutenue par l'approche intégrée et standardisée de notre moteur proposé, une étude de cas est menée pour vérifier les résultats de recherche actuels. Le SLAE-CPS proposé peut servir de valeur de référence importante pour combiner les avantages d'une technologie innovante et d'une méthodologie appropriée. PMID : 28657577

Ma, Jing Wang, Qiang Zhao, Zhibiao

Dans le contexte de l'Industrie 4.0, la demande de production en série de produits hautement personnalisés entraînera des produits complexes et une demande croissante de flexibilité du système de production. La simple mise en œuvre d'une production centrée sur l'humain basée sur la production allégée ou d'une automatisation élevée pour améliorer la flexibilité du système est insuffisante. Actuellement, l'automatisation allégée (Jidoka) qui utilise des systèmes cyber-physiques (CPS) est considérée comme une approche rentable et efficace pour améliorer la flexibilité du système dans des conditions économiques mondiales en déclin. Par conséquent, un moteur d'automatisation intelligent Lean activé par les technologies CPS (SLAE-CPS), qui est basé sur une analyse des fonctions Jidoka et la capacité intelligente des technologies CPS, est proposé dans cette étude pour fournir une approche intégrée et standardisée pour concevoir et mettre en œuvre un système Jidoka intelligent basé sur CPS. Un ensemble d'architectures complètes et de technologies clés standardisées doit être présenté pour atteindre l'objectif susmentionné. Par conséquent, une architecture distribuée qui associe une architecture orientée services, un agent, un bloc fonctionnel (FB), un cloud et l'Internet des objets est proposée pour prendre en charge la configuration, le déploiement et les performances flexibles de SLAE-CPS. Ensuite, plusieurs techniques clés standardisées sont proposées sous cette architecture. Le premier sert à convertir des données physiques hétérogènes en services uniformes pour une analyse et une détection ultérieures des anomalies. Le second est un ensemble de règles de scène Jidoka, qui est abstraite sur la base de l'analyse de l'opérateur, de la machine, du matériau, de la qualité et d'autres facteurs dans différentes dimensions temporelles. Ces règles Jidoka peuvent aider les FB exécutifs à exécuter différentes fonctions Jidoka. Enfin, soutenue par l'approche intégrée et standardisée de notre moteur proposé, une étude de cas est menée pour vérifier les résultats de recherche actuels. Le SLAE-CPS proposé peut servir de valeur de référence importante pour combiner les avantages d'une technologie innovante et d'une méthodologie appropriée.

Zhang, Zhaoyang Wang, Honggang Wang, Chonggang Fang, Hua

Les réseaux corporels sans fil (WBAN) sont des systèmes cyber-physiques (CPS) qui sont devenus une technologie clé pour fournir une surveillance de la santé en temps réel et des services de santé omniprésents. Les WBAN pourraient fonctionner dans des environnements denses comme dans un hôpital et conduire à une interférence de communication mutuelle élevée dans de nombreux scénarios d'application. Les interférences excessives dégraderont considérablement les performances du réseau, notamment en épuisant plus rapidement l'énergie des nœuds WBAN, et finiront même par mettre en danger la vie des personnes en raison de collectes de données de santé peu fiables (causées par les interférences). Par conséquent, il est essentiel d'atténuer les interférences entre les WBAN pour augmenter la fiabilité du système WBAN tout en minimisant la consommation d'énergie du système. De nombreuses approches existantes peuvent gérer l'atténuation des interférences de communication dans les réseaux sans fil généraux, mais ne conviennent pas aux WBAN en raison de leur ignorance de la nature sociale des WBAN. Contrairement aux recherches précédentes, nous proposons pour la première fois une approche basée sur un jeu de pouvoir pour atténuer les interférences de communication pour les WBAN sur la base des informations d'interaction sociale des personnes. Nos principales contributions comprennent : (1) modéliser l'interférence inter-WBAN et déterminer la distribution à distance de l'interférence à la fois par une analyse théorique et des simulations de Monte Carlo (2) développer des algorithmes de détection et de prédiction des interactions sociales pour les personnes porteuses de WBAN (3) développer un jeu de contrôle de puissance basé sur les informations d'interaction sociale pour maximiser l'utilité du système tout en minimisant la consommation d'énergie du système WBAN. Les nombreux résultats de simulation montrent l'efficacité du jeu de contrôle de puissance pour l'atténuation des interférences inter-WBAN en utilisant les informations d'interaction sociale. Notre recherche ouvre une nouvelle perspective de recherche sur les WBAN utilisant les réseaux sociaux.

3d Imagination est une nouvelle société qui fonde son activité sur la vente et l'amélioration de matériel 3D open source. Les appareils qu'ils vendent comprennent des imageurs 3D, des imprimantes 3D, des machines de prélèvement et de placement et des graveurs laser. Ils disposent d'un intranet d'entreprise rapide pour faciliter le partage, le stockage et l'impression de conceptions 3D complexes et volumineuses. Ils ont un ensemble d'employés qui nécessite une variété de systèmes d'exploitation, y compris Windows, Mac et une variété de Linux, à la fois pour exécuter des services commerciaux ainsi que pour concevoir et tester des machines. Il existe une grande variété de réseaux privés pour tester les taux de transfert vers et depuis plus » les appareils 3D, sans interférence avec les autres tra c réseau. Ils font des conférences vidéo avec des clients et d'autres concepteurs. L'une de leurs machines est basée sur le projet trouvé sur delta.firepick.org (Krassenstein, 2014 Biggs, 2014), qui à l'avenir, exécutera la plupart de ces fonctions. Leurs appareils incluent tous des systèmes embarqués, qui peuvent avoir des systèmes d'exploitation complets. La plupart de leurs systèmes sont conçus pour avoir des pièces interchangeables. Ainsi, lorsqu'une nouvelle technologie est née, elle peut être rapidement adoptée par les personnes possédant du matériel 3D Imagination. Cette société produit un bon nombre de systèmes et de composants, mais pour obtenir le financement dont elle a besoin pour produire en masse des pièces de qualité, elle se prépare donc à une introduction en bourse pour lever les fonds dont elle a besoin. Ils souhaitent faire réaliser un audit de cyber-sécurité afin de pouvoir rassurer leurs investisseurs sur la protection proactive de leurs données, informations clients et imprimantes.« moins

Nellen, Ted Hogue, Dawn Patterson, Nancy G. Schulze, Patricia

Quatre enseignants expérimentés ont remplacé la dynamique et l'environnement de classe traditionnels ayant des routines microgérées par une structure de classe Cyber ​​English qui soutient les choix et les voix des universitaires. Le manque de voix dans l'écriture des élèves était l'une des raisons des changements dans les salles de classe et des résultats passionnants ont été obtenus avec différents…

David P. Turner William D. Ritts Zhiqiang Yang Robert E. Kennedy Warren B. Cohen Maureen V. Duane Peter E. Thornton Beverly E. Law

La séquestration du carbone est de plus en plus reconnue comme un service écosystémique, et la gestion des forêts a un grand potentiel pour modifier les flux de carbone régionaux, notamment par le biais des prélèvements et des impacts connexes sur la production nette de l'écosystème (NEP). Dans la région du nord-ouest du Pacifique des États-Unis, la mise en œuvre du Northwest Forest Plan (NWFP) en 1993 a établi une région.

Lee, June Hyuck Noh, Sang Do Kim, Hyun-Jung Kang, Yong-Shin

La prédiction des défauts internes de la coulée de métal immédiatement après le processus de coulée permet d'économiser du temps et de l'argent inutiles en réduisant la quantité d'intrants dans l'étape suivante, telle que le processus d'usinage, et permet une planification flexible. Les systèmes de production cyber-physique (CPPS) répondent parfaitement aux exigences susmentionnées. Cette étude porte sur la mise en œuvre du CPPS dans une usine réelle pour prédire la qualité de la coulée du métal et le contrôle des opérations. Tout d'abord, un cadre d'architecture CPPS pour la prédiction de la qualité et le contrôle des opérations dans la production de moulage de métal a été conçu. Le cadre décrit la collaboration entre l'Internet des objets (IoT), l'intelligence artificielle, les simulations, les systèmes d'exécution de fabrication et les systèmes avancés de planification et d'ordonnancement. Par la suite, la mise en œuvre du CPPS dans des usines réelles est décrite. La température est un facteur majeur qui affecte la qualité de la coulée et, par conséquent, des capteurs de température et des dispositifs de communication IoT ont été attachés aux machines de coulée. La base de données NoSQL bien connue, HBase et l'outil de traitement/analyse à grande vitesse, Spark, sont respectivement utilisés pour le référentiel IoT et le prétraitement des données. De nombreux algorithmes d'apprentissage automatique tels que l'arbre de décision, la forêt aléatoire, le réseau de neurones artificiels et la machine à vecteurs de support ont été utilisés pour la prédiction de la qualité et comparés au logiciel R.Enfin, le fonctionnement de l'ensemble du système est démontré à travers un tableau de bord CPPS. À une époque où la plupart des études liées au CPPS sont menées sur des modèles abstraits de haut niveau, cette étude décrit des cadres architecturaux plus spécifiques, des cas d'utilisation, des logiciels utilisables et des méthodologies analytiques. De plus, cette étude vérifie l'utilité du CPPS en estimant les effets quantitatifs. Cela devrait contribuer à la prolifération des CPPS dans l'industrie.

Lee, June Hyuck Noh, Sang Do Kim, Hyun-Jung Kang, Yong-Shin

La prédiction des défauts internes de la coulée de métal immédiatement après le processus de coulée permet d'économiser du temps et de l'argent inutiles en réduisant la quantité d'intrants dans l'étape suivante, telle que le processus d'usinage, et permet une planification flexible. Les systèmes de production cyber-physique (CPPS) répondent parfaitement aux exigences susmentionnées. Cette étude porte sur la mise en œuvre du CPPS dans une usine réelle pour prédire la qualité de la coulée du métal et le contrôle des opérations. Tout d'abord, un cadre d'architecture CPPS pour la prédiction de la qualité et le contrôle des opérations dans la production de moulage de métal a été conçu. Le cadre décrit la collaboration entre l'Internet des objets (IoT), l'intelligence artificielle, les simulations, les systèmes d'exécution de fabrication et les systèmes avancés de planification et d'ordonnancement. Par la suite, la mise en œuvre du CPPS dans des usines réelles est décrite. La température est un facteur majeur qui affecte la qualité de la coulée et, par conséquent, des capteurs de température et des dispositifs de communication IoT ont été attachés aux machines de coulée. La base de données NoSQL bien connue, HBase et l'outil de traitement/analyse à grande vitesse, Spark, sont respectivement utilisés pour le référentiel IoT et le prétraitement des données. De nombreux algorithmes d'apprentissage automatique tels que l'arbre de décision, la forêt aléatoire, le réseau de neurones artificiels et la machine à vecteurs de support ont été utilisés pour la prédiction de la qualité et comparés au logiciel R. Enfin, le fonctionnement de l'ensemble du système est démontré à travers un tableau de bord CPPS. À une époque où la plupart des études liées au CPPS sont menées sur des modèles abstraits de haut niveau, cette étude décrit des cadres architecturaux plus spécifiques, des cas d'utilisation, des logiciels utilisables et des méthodologies analytiques. De plus, cette étude vérifie l'utilité du CPPS en estimant les effets quantitatifs. Cela devrait contribuer à la prolifération des CPPS dans l'industrie. PMID : 29734699

Zhang, Zhaoyang Wang, Honggang Wang, Chonggang Fang, Hua

Les réseaux corporels sans fil (WBAN) sont des systèmes cyber-physiques (CPS) qui sont devenus une technologie clé pour fournir une surveillance de la santé en temps réel et des services de santé omniprésents. Les WBAN pourraient fonctionner dans des environnements denses comme dans un hôpital et conduire à une interférence de communication mutuelle élevée dans de nombreux scénarios d'application. Les interférences excessives dégraderont considérablement les performances du réseau, y compris l'épuisement plus rapide de l'énergie des nœuds WBAN, et finiront même par mettre en danger la vie des personnes en raison de collectes de données de santé peu fiables (causées par l'interférence). Par conséquent, il est essentiel d'atténuer les interférences entre les WBAN pour augmenter la fiabilité du système WBAN tout en minimisant la consommation d'énergie du système. De nombreuses approches existantes peuvent gérer l'atténuation des interférences de communication dans les réseaux sans fil généraux, mais ne conviennent pas aux WBAN en raison de leur ignorance de la nature sociale des WBAN. Contrairement aux recherches précédentes, nous proposons pour la première fois une approche basée sur un jeu de pouvoir pour atténuer les interférences de communication pour les WBAN en fonction des informations d'interaction sociale des personnes. Nos principales contributions incluent : (1) modéliser l'interférence inter-WBAN et déterminer la distribution à distance de l'interférence à la fois par une analyse théorique et des simulations de Monte Carlo (2) développer des algorithmes de détection et de prédiction des interactions sociales pour les personnes porteuses de WBAN (3) développer un jeu de contrôle de puissance basé sur les informations d'interaction sociale pour maximiser l'utilité du système tout en minimisant la consommation d'énergie du système WBAN. Les nombreux résultats de simulation montrent l'efficacité du jeu de contrôle de puissance pour l'atténuation des interférences inter-WBAN en utilisant les informations d'interaction sociale. Notre recherche ouvre une nouvelle perspective de recherche sur les WBAN utilisant les réseaux sociaux. PMID : 25436180

Glantz, Clifford S. Coles, Garill A. Bass, Robert B.

Une méthode d'auto-évaluation de la cybersécurité (la méthode) a été développée par le Pacific Northwest National Laboratory. Le développement de la méthode a été parrainé et dirigé par la Nuclear Regulatory Commission des États-Unis. Les membres du groupe de travail sur la cybersécurité du Nuclear Energy Institute ont également joué un rôle important dans le développement de la méthode. L'approche structurée de la méthode guide les centrales nucléaires dans l'examen de leurs systèmes numériques, l'évaluation des conséquences potentielles pour la centrale d'une cyberexploitation, l'identification des vulnérabilités, l'estimation des risques de cybersécurité et l'adoption de mesures de protection rentables. La méthode se concentre sur les actifs numériques critiques. Un actif numérique critique est plus » un appareil ou un système numérique qui joue un rôle dans l'exploitation, la maintenance ou le bon fonctionnement d'un système critique (c'est-à-dire un système de centrale qui peut avoir un impact sur la sûreté, la sécurité ou la préparation aux situations d'urgence). Un actif numérique critique peut avoir une connexion directe ou indirecte à un système critique. Les connexions directes comprennent à la fois des voies de communication filaires et sans fil. Les connexions indirectes incluent les voies de sneakernet par lesquelles des logiciels ou des données sont transférés manuellement d'un appareil numérique à un autre. Une connexion indirecte peut également impliquer l'utilisation d'instructions ou de données stockées sur un actif numérique critique pour apporter des ajustements à un système critique. L'auto-évaluation de la cybersécurité commence par la formation d'une équipe d'évaluation et est suivie d'un processus en six étapes.« moins

Les réseaux électriques doivent évoluer pour devenir plus intelligents, plus flexibles et moins coûteux. Le réseau intelligent est la prochaine génération d'énergie électrique, utilise des flux d'électricité et d'information dans les deux sens pour créer un réseau de distribution d'énergie automatisé distribué. Construire un réseau intelligent complet est un défi pour la protection, l'optimisation et l'efficacité énergétique du système. Une modélisation et une analyse appropriées sont nécessaires pour construire un vaste système énergétique distribué et une infrastructure électrique intelligente. Dans cet article, l'ensemble du modèle de réseau intelligent a été proposé à l'aide de réseaux de Petri stochastiques généralisés (GSPN). La simulation du modèle créé est également explorée. La simulation du modèle a permis d'analyser à quel point le comportement du modèle est proche de l'utilisation du réseau intelligent réel.

Les réseaux électriques doivent évoluer pour devenir plus intelligents, plus flexibles et moins coûteux. Le réseau intelligent est la prochaine génération d'énergie électrique, utilise des flux d'électricité et d'information bidirectionnels pour créer un réseau de distribution d'énergie automatisé distribué. Construire un réseau intelligent complet est un défi pour la protection, l'optimisation et l'efficacité énergétique du système. Une modélisation et une analyse appropriées sont nécessaires pour construire un vaste système énergétique distribué et une infrastructure électrique intelligente. Dans cet article, l'ensemble du modèle de réseau intelligent a été proposé à l'aide de réseaux de Petri stochastiques généralisés (GSPN). La simulation du modèle créé est également explorée. La simulation du modèle plus » a permis d'analyser à quel point le comportement du modèle est proche de l'utilisation du réseau intelligent réel. « moins

Les systèmes énergétiques connaissent un changement graduel mais substantiel en passant de systèmes non interactifs et contrôlés manuellement à l'utilisation d'une intégration étroite des représentations cyber (calcul, communications et contrôle) et physiques guidées par des modèles basés sur les premiers principes, à toutes les échelles et niveaux. En outre, les programmes de réduction de puissance de pointe tels que la réponse à la demande (DR) deviennent de plus en plus importants à mesure que la volatilité sur le réseau continue d'augmenter en raison de la réglementation, de l'intégration des énergies renouvelables et des conditions météorologiques extrêmes. Afin de se protéger du risque de volatilité des prix, les consommateurs finaux d'électricité doivent surveiller les prix de l'électricité et faire preuve de souplesse dans la manière dont ils choisissent d'utiliser l'électricité. Cela nécessite l'utilisation de modèles prédictifs axés sur le contrôle de la dynamique et de la consommation d'énergie d'un système énergétique. De tels modèles sont nécessaires pour comprendre et améliorer l'efficacité énergétique globale et les coûts d'exploitation. Cependant, l'apprentissage de modèles dynamiques à l'aide d'approches boîte grise/blanche est très coûteux et chronophage car il nécessite souvent des investissements financiers importants pour moderniser le système avec plusieurs capteurs et embaucher des experts du domaine pour construire le modèle. Nous présentons l'utilisation de méthodes basées sur les données pour rendre la capture de modèles facile et efficace pour les systèmes énergétiques cyber-physiques. Nous développons Model-IQ, une méthodologie d'analyse de la propagation des incertitudes pour la construction de modèles et de contrôles inverses. Étant donné une structure de modèle en boîte grise et des données d'entrée réelles provenant d'un ensemble temporaire de capteurs, Model-IQ évalue l'effet de la propagation de l'incertitude des données des capteurs sur la précision du modèle et sur les performances de contrôle en boucle fermée. Nous avons également développé une méthode statistique pour quantifier le biais dans la mesure du capteur et pour déterminer le placement et la densité presque optimaux du capteur pour une collecte de données précise pour l'entraînement et le contrôle du modèle. À l'aide d'un véritable banc d'essai de bâtiment, nous montrons comment l'exécution d'une analyse d'incertitude peut révéler des tendances sur

disponible sur http://www.geocities.com/Area51/Shadowlands/6583/project395.html Accès Internet le 14 avril 2004. DCSINT Handbook 1.02, Cyber ​​. www.geocities.com/Area51/Shadowlands/6583/project395.html Accès Internet le 14 avril 2004. Raufer, Xavier. « Nouveau désordre mondial, nouveau

Carroll, Thomas E. Greitzer, Frank L. Roberts, Adam D.

Cet article aborde les implications cognitives et les besoins de recherche entourant le problème des cyber-friendly re (FF). Nous définissons les cyber-FF comme des actions cyber/électroniques offensives ou défensives intentionnelles destinées à protéger les cybersystèmes contre les forces ennemies ou à attaquer les cybersystèmes ennemis, qui nuisent involontairement à l'e*cacité de la mission des forces amies ou neutres. Nous décrivons des exemples de cyber FF et discutons de la façon dont ils s'intègrent dans un cadre conceptuel général pour les défaillances de la cybersécurité. Parce qu'elle implique une défaillance humaine, la cyber FF peut être considérée comme appartenant à une sous-classe de défaillances de la cybersécurité caractérisées comme des menaces internes non intentionnelles. Cyber ​​FF est plus » lié au combat amical en ce sens que le maintien de la connaissance de la situation (SA) est primordial pour éviter les conséquences imprévues. Cyber ​​SA concerne la connaissance de la topologie d'un système (connexion et relations des nœuds dans un système), et des éléments de connaissance critiques tels que les caractéristiques et les vulnérabilités des composants qui composent le système et ses nœuds, la nature des activités ou du travail exécutées et les contre-mesures défensives et offensives disponibles qui peuvent être appliquées pour contrecarrer les attaques de réseau. Nous décrivons un banc d'essai conçu pour soutenir la recherche empirique sur les facteurs affectant la cyber FF. Enfin, nous discutons des stratégies d'atténuation pour lutter contre la cyber FF, y compris à la fois des concepts de formation et des suggestions d'aides à la décision et d'approches de visualisation.« moins

propriétés qui peuvent être appliquées aux systèmes informatiques, aux réseaux et aux logiciels. Par exemple, dans notre cours d'introduction à la cybersécurité, donné à. Vous trouverez ci-dessous le calendrier de soumission pour les domaines d'intérêt que nous recherchons : Data Mining in Metrics ? Juil/ JAug 2015 Date limite de soumission des numéros : Fév. Phone Arena. PhoneArena.com, 12 novembre 2013. Web. 08 août 2014. 8. Divers. "SI110 : Introduction à la cybersécurité, fondements techniques." SI110

Bechta Dugan, Joanne Ciardo, Gianfranco

Un modèle Petrinet stochastique d'un système de fichiers répliqué est présenté pour un environnement distribué où les fichiers répliqués résident sur différents hôtes et un algorithme de vote est utilisé pour maintenir la cohérence. Les témoins, qui enregistrent simplement l'état du fichier mais ne contiennent aucune donnée, peuvent être utilisés en plus ou à la place des fichiers pour réduire les frais généraux. Un modèle suffisamment détaillé pour inclure l'état du fichier (actuel ou obsolète), ainsi que la défaillance et la réparation des hôtes où résident des copies ou des témoins, est présenté. Le nombre de copies et de témoins est un paramètre du modèle. Deux protocoles de majorité différents sont examinés, l'un où une majorité de toutes les copies et témoins est nécessaire pour former un quorum, et l'autre où seule la majorité des copies et des témoins sur les hôtes opérationnels est nécessaire. Ce dernier, connu sous le nom de vote adaptatif, augmente la disponibilité des fichiers dans la plupart des cas.

L'écart cyber-physique (CPG) est la différence entre l'état « réel » du monde et la façon dont le système le perçoit. Cet écart découle souvent des limites des technologies et des capacités de détection et de collecte de données, et est inévitable dans une certaine mesure dans tout système cyber-physique (CPS). Ignorer ou déformer ces limitations lors de la modélisation, de la spécification, de la conception et de l'analyse du système peut potentiellement entraîner des idées fausses systémiques, une fonctionnalité et des performances perturbées, une défaillance du système, des dommages graves et des impacts négatifs potentiels sur le système et son environnement. Nous proposons CPG-Aware Modeling & Engineering (CPGAME), une approche conceptuelle basée sur un modèle pour capturer, expliquer et atténuer le CPG. CPGAME améliore la capacité de l'ingénieur système à faire face aux CPG, à les atténuer dès la conception et à prévenir les décisions et actions erronées. Nous démontrons CPGAME en l'appliquant à la modélisation et à l'analyse de l'accident nucléaire de Three Miles Island 2 en 1979, et montrons comment sa fusion pourrait être atténuée. Nous utilisons ISO-19450:2015—Object Process Methodology comme cadre de modélisation conceptuelle. PMID : 28714910

L'écart cyber-physique (CPG) est la différence entre l'état « réel » du monde et la façon dont le système le perçoit. Cet écart découle souvent des limites des technologies et des capacités de détection et de collecte de données, et est inévitable dans une certaine mesure dans tout système cyber-physique (CPS). Ignorer ou déformer ces limitations lors de la modélisation, de la spécification, de la conception et de l'analyse du système peut potentiellement entraîner des idées fausses systémiques, une fonctionnalité et des performances perturbées, une défaillance du système, des dommages graves et des impacts négatifs potentiels sur le système et son environnement. Nous proposons CPG-Aware Modeling & Engineering (CPGAME), une approche conceptuelle basée sur un modèle pour capturer, expliquer et atténuer le CPG. CPGAME améliore la capacité de l'ingénieur système à faire face aux CPG, à les atténuer dès la conception et à prévenir les décisions et actions erronées. Nous démontrons CPGAME en l'appliquant à la modélisation et à l'analyse de l'accident nucléaire de Three Miles Island 2 en 1979, et montrons comment sa fusion pourrait être atténuée. Nous utilisons ISO-19450:2015-Object Process Methodology comme cadre de modélisation conceptuelle.

J'ai récemment développé dmfs, un système de fichiers de migration de données, pour Net BSD. Ce système de fichiers est basé sur le système de fichiers de superposition, qui est discuté dans un article séparé, et fournit une prise en charge du noyau pour le système de migration de données développé par mon groupe de recherche ici à la NASA/Ames. Le système de fichiers utilise un magasin de fichiers sous-jacent pour fournir la sauvegarde des fichiers et coordonne l'accès des utilisateurs et du système aux fichiers. Il stocke ses métadonnées internes dans un fichier plat, qui réside sur un système de fichiers séparé . Notre système de migration de données fournit des services d'archivage et de migration de fichiers. Les utilitaires système analysent le système de fichiers dmfs à la recherche de fichiers récemment modifiés et les archivent dans deux magasins de bandes distincts. Une fois qu'un fichier a été doublement archivé, les fichiers plus grands qu'une taille spécifiée seront tronqués à cette taille, libérant potentiellement de grandes quantités du magasin de fichiers sous-jacent. Certains sites choisiront de ne rien conserver du fichier (en supprimant entièrement son contenu du système de fichiers), tandis que d'autres pourront choisir de conserver une partie, par exemple un préambule décrivant le reste du fichier. La couche dmfs coordonne l'accès au fichier, en conservant les temps d'accès et de modification perçus par l'utilisateur, la taille du fichier et en limitant l'accès aux fichiers partiellement migrés à la partie réellement résidente. Lorsqu'un processus utilisateur tente de lire la partie non-résidente d'un fichier, il est bloqué et la couche dmfs envoie une demande à un démon système pour restaurer le fichier. Au fur et à mesure qu'une plus grande partie du fichier devient résidente, le processus utilisateur est autorisé à commencer à accéder aux parties désormais résidentes du fichier. Pour plus de simplicité, notre système de migration de données divise un fichier en deux parties, une partie résidente suivie d'une partie non résidente facultative. En outre, un fichier se trouve dans l'un des trois états suivants : entièrement résident, entièrement résident et archivé, et (partiellement) non-résident et archivé. Pour un fichier qui n'est que partiellement résident, toute tentative d'écriture ou de troncature du fichier, ou de lecture d'une partie non résidente, déclenchera une restauration de fichier

Greitzer, Frank L. Carroll, Thomas E. Roberts, Adam D.

Cet article aborde les implications cognitives et les besoins de recherche entourant le problème du tir cybernétique (FF). Nous définissons les cyber-FF comme des actions cyber/électroniques intentionnelles offensives ou défensives destinées à protéger les cybersystèmes contre les forces ennemies ou à attaquer les cybersystèmes ennemis, qui nuisent involontairement à l'efficacité de la mission des forces amies ou neutres. Tout comme pour le tir ami de combat, le maintien de la connaissance de la situation (SA) est primordial pour éviter les incidents cyber FF. Cyber ​​SA concerne la connaissance de la topologie d'un système (connexité et relations des nœuds dans un système), et des éléments de connaissance critiques tels que les caractéristiques et les vulnérabilités des composants qui plus » comprennent le système et ses nœuds, la nature des activités ou des travaux effectués , et les contre-mesures défensives et offensives disponibles qui peuvent être appliquées pour contrecarrer les attaques de réseau. Les stratégies d'atténuation pour lutter contre la cyber FF, y compris à la fois des concepts de formation et des suggestions d'aides à la décision et d'approches de visualisation, sont discutées.« moins

RTO-MP-IST-091 P4 - 1 RFID comme outil dans la cyberguerre Mikko Kiviharju P.O.Box 10 FIN-11311 Riihimaki FINLANDE [email protected] auditer les systèmes existants et planifier de nouveaux établissements. 1 INTRODUCTION La guerre informatique, en particulier les opérations de réseau informatique (CNO) ont une profonde. SOUS-TITRE La RFID comme outil dans la cyberguerre 5a. NUMÉRO DE CONTRAT 5b. NUMÉRO DE SUBVENTION 5c. ÉLÉMENT DE PROGRAMME NUMÉRO 6. AUTEUR(S) 5d. PROJET NUMÉRO 5e. TÂCHE

force opérationnelle, en traitant les capacités de cyberguerre de la même manière qu'elle traite ses autres systèmes d'armes . Il soutient que malgré les idées préconçues. En tant que tel, bien que l'automatisation soit requise, la cyberguerre nécessitera beaucoup plus de main-d'œuvre qu'on ne le pense actuellement et nécessitera une force qui. maintenir constamment les capacités de cyberguerre en phase avec les technologies de l'environnement.Ce document parvient à ces conclusions en fournissant d'abord un

force opérationnelle, en traitant les capacités de cyberguerre de la même manière qu'elle traite ses autres systèmes d'armes . Il soutient que malgré les idées préconçues. En tant que tel, bien que l'automatisation soit nécessaire, la cyberguerre nécessitera beaucoup plus de main-d'œuvre qu'on ne le pense actuellement et nécessitera une force. maintenir constamment les capacités de cyberguerre en phase avec les technologies de l'environnement. Cet article parvient à ces conclusions en fournissant d'abord une

Le guide décrit l'utilisation du système de développement de la base de connaissances Net Weaver. La représentation des connaissances dans Net Weaver est basée sur des réseaux de logique floue orientés objet qui offrent plusieurs avantages significatifs par rapport à la représentation basée sur des règles plus traditionnelle. Par rapport aux bases de connaissances basées sur des règles, les bases de connaissances Net Weaver sont plus faciles à créer, tester et maintenir car.

Usui, H. Matsumoto, H. Ogino, T. Fujimoto, M. Omura, Y. Okada, M. Ueda, HO Murata, T. Kamide, Y. Shinagawa, H. Watanabe, S. Machida, S. Hada, T .

Un projet de recherche pour le développement de simulation spatiale / système de laboratoire en réseau a été approuvé par Japan Science and Technology Corporation (JST) dans la catégorie Recherche et développement pour l'application de la science et de la technologie informatiques avancées (ACT-JST) en 2000. Ce projet de recherche , qui se poursuit pendant trois ans, est une collaboration avec un groupe de simulation astrophysique ainsi que d'autres groupes de simulation spatiale utilisant des modèles MHD et hybrides. Dans ce projet, nous développons un prototype de système de simulation unique qui nous permet d'effectuer des simulations en fournissant ou en sélectionnant des paramètres de plasma via une interface Web sur Internet. Nous développons également un système de base de données en ligne pour la simulation spatiale à partir duquel nous pourrons rechercher et extraire diverses informations telles que la méthode et le programme de simulation, les manuels et les résultats de simulation typiques au format graphique ou ascii. Ce système unique aidera les débutants en simulation à démarrer une étude de simulation sans trop de difficulté ni d'effort, et contribuera à la promotion des études de simulation dans le domaine STP. Dans cette présentation, nous rapporterons la vue d'ensemble et l'état actuel du projet.

dotés d'une autorité régionale, ils restent limités dans leur capacité à répondre aux cybercriminels. Les CERT nationaux occupent un rôle d'intervenant de première ligne. economiccrime/ cybercrime/Documents/CountryProfiles/default_en.asp Federal Bureau of Investigation. (2006). Réseautage des cybercriminels. Récupéré en février

Avec le développement rapide d'Internet, les jeux en ligne sont devenus un moyen de divertissement pour de nombreux jeunes de l'ère moderne. Cependant, ces dernières années, des problèmes de cybersécurité dans les jeux en ligne sont apparus en un flot incessant, ce qui a également suscité une grande attention de la part de nombreux opérateurs de jeux. Les problèmes de cybersécurité courants dans le jeu incluent la divulgation d'informations et les cyberattaques. Ces problèmes causeront directement ou indirectement des pertes économiques aux joueurs. De nombreuses sociétés de jeux améliorent la stabilité et la sécurité de leur réseau ou de leurs systèmes de jeu afin d'améliorer l'expérience de jeu des utilisateurs. Cet article a effectué la recherche des problèmes de cybersécurité dans les jeux en ligne en introduisant le contexte et certaines menaces de cybersécurité courantes, et en proposant la solution latente. Enfin, il spécule sur l'orientation future de la recherche sur les problèmes de cybersécurité des jeux en ligne dans l'espoir d'apporter une solution réalisable et des informations utiles aux opérateurs de jeux.

Le réseau de Petri est un outil important pour la modélisation et l'analyse de systèmes dynamiques à événements discrets. Et il a une grande capacité à gérer des phénomènes concurrents et des phénomènes non déterministes. Actuellement, les réseaux de Petri utilisés dans le diagnostic des pannes d'éoliennes n'ont pas participé au système actuel. Cet article combinera les algorithmes flous existants du réseau de Petri pour créer une simulation de système de contrôle d'éolienne basée sur l'API Siemens S7-1200, tout en créant une interface graphique matlab pour la migration du système vers différentes plates-formes.

Chai, Rifai Naik, Ganesh R Ling, Sai Ho Nguyen, Hung T

L'un des principaux défis du système biomédical cyber-physique est de combiner les neurosciences cognitives avec l'intégration de systèmes physiques pour aider les personnes handicapées. L'électroencéphalographie (EEG) a été explorée en tant que méthode non invasive pour fournir une technologie d'assistance en utilisant des signaux électriques cérébraux. Cet article présente un prototype unique d'une interface cerveau-ordinateur hybride (BCI) qui détecte une classification combinée de la tâche mentale, du potentiel évoqué visuel à l'état d'équilibre (SSVEP) et de la détection des yeux fermés en utilisant seulement deux canaux EEG. De plus, un capteur EEG sans fil monté sur la tête et fonctionnant sur batterie combiné à un système intégré séparé est utilisé pour améliorer la portabilité, la commodité et la rentabilité. Cette expérience a été menée avec cinq participants en bonne santé et cinq patients atteints de tétraplégie. Généralement, les résultats montrent des précisions de classification comparables entre les sujets sains et les patients tétraplégiques. Pour la classification hors ligne du réseau de neurones artificiels pour le groupe cible de patients atteints de tétraplégie, le système BCI hybride combine trois tâches mentales, trois fréquences SSVEP et les yeux fermés, avec une précision de classification moyenne de 74 % et un taux de transfert d'informations moyen (ITR) du système de 27 bits/min. Pour le test en temps réel du signal intentionnel sur des patients tétraplégiques, le taux de réussite moyen de détection est de 70 % et la vitesse de détection varie de 2 à 4 s.

Hanna, Moheb M. Buck, A.A. Smith, R.

L'article présente une approche de réseau de Petri pour la modélisation, la surveillance et le contrôle du comportement d'une cellule FMS. La cellule FMS décrite comprend un robot pick and place, un système de vision, une fraiseuse CNC et 3 convoyeurs. Le travail illustre comment les diagrammes de blocs dans une structure hiérarchique peuvent être utilisés pour décrire des événements à différents niveaux d'abstraction. Il se concentre sur les réseaux de Petri flous (logique floue avec réseaux de Petri), y compris un réseau de neurones artificiels (réseaux de Petri flous) pour modéliser et contrôler les décisions du système de vision et les séquences de robots au sein d'une cellule FMS. Cette méthodologie peut être utilisée comme un outil de modélisation graphique pour surveiller et contrôler les situations imprécises, vagues et incertaines, et déterminer la qualité du produit de sortie d'une cellule FMS.

de Las Heras, Jose I Zuleger, Nikolaj Batrakou, Dzmitry G Czapiewski, Rafal Kerr, Alastair R W Schirmer, Eric C

Différents types de cellules présentent des schémas distincts d'organisation du génome en 3D qui sont en corrélation avec les modifications de l'expression des gènes dans les tissus et les systèmes de différenciation. Il a été découvert que plusieurs protéines transmembranaires d'enveloppe nucléaire ( NET ) spécifiques aux tissus influencent le positionnement spatial des gènes et des chromosomes qui se produit normalement au cours de la différenciation tissulaire. Nous étudions ici 3 de ces NETs : NET 29, NET 39 et NET 47, qui s'expriment préférentiellement dans la graisse, le muscle et le foie, respectivement. Nous avons découvert que même lorsqu'ils sont exprimés de manière exogène dans un système hétérologue, ils peuvent spécifier des modèles particuliers d'organisation du génome et altérer l'expression des gènes. Chaque TNE affectait des sous-ensembles de gènes largement différents. Notamment, la NET 47 spécifique du foie a régulé à la hausse de nombreux gènes dans les cellules fibroblastiques HT1080 qui sont normalement régulées à la hausse dans l'hépatogenèse, montrant que les NET spécifiques aux tissus peuvent favoriser les modèles d'expression associés au tissu où la NET est normalement exprimée. De même, le profilage global de la chromatine périphérique après l'expression exogène de ces TNE à l'aide de la lamine B1 DamID a révélé que chaque TNE affectait le positionnement nucléaire d'ensembles distincts de régions génomiques avec une importante composante spécifique aux tissus. Ainsi, les influences de NET sur l'organisation du génome peuvent contribuer aux changements d'expression génique associés à la différenciation même en l'absence d'autres facteurs et de changements manifestes de différenciation cellulaire.

Karnawati, D. Wilopo, W. Fathani, T.F. Fukuoka, H. Andayani, B.

Un réseau intelligent est un outil informatique destiné à faciliter un réseau de capteurs pour surveiller et communiquer le risque de glissement de terrain et fournir l'alerte précoce. Le capteur est conçu comme un capteur électronique installé dans les instruments de surveillance et d'alerte précoce existants, ainsi que comme des capteurs humains qui comprennent des personnes engagées sélectionnées dans la communauté locale, telles que l'arpenteur local, l'observateur local, le membre du groupe de travail local pour la réduction des risques de catastrophe, et toute personne de la communauté locale qui s'est inscrite pour consacrer ses engagements à l'envoi de rapports relatifs aux symptômes de glissement de terrain observés dans son milieu de vie. Cet outil est conçu pour être capable de recevoir jusqu'à des milliers de rapports/informations en même temps via les capteurs électroniques, les SMS (téléphone portable), le web participatif en ligne ainsi que divers médias sociaux tels que Twitter et Facebook. . Les informations qui doivent être enregistrées/rapportées par les capteurs sont liées aux paramètres des symptômes de glissement de terrain, par exemple la progression de l'apparition de fissures, l'affaissement du sol ou la déformation du sol. En 10 minutes, cet outil sera capable d'élaborer et d'analyser automatiquement les symptômes signalés pour prédire l'aléa et les niveaux de risque de glissement de terrain. Le niveau prévu de danger/risque peut être renvoyé au réseau de capteurs électroniques et humains en tant qu'information d'alerte précoce. Les paramètres clés indiquant les symptômes du risque de glissement de terrain ont été enregistrés/surveillés par les capteurs électriques et humains. Ces paramètres ont été identifiés sur la base de l'enquête sur les conditions géologiques et géotechniques, appuyée par l'analyse en laboratoire. La cause et le mécanisme de déclenchement du glissement de terrain dans la zone d'étude ont également été analysés afin de définir la condition critique pour lancer l'alerte précoce. Cependant, non seulement le système technique mais aussi le système social ont été développés pour sensibiliser la communauté et s'engager à servir la mission en tant que capteurs humains, qui

Zhang, Yun Wei, Hongxing Yang, Bo

Pour concevoir un système robotique modulaire, les réseaux de Petri et la théorie des catégories sont combinés et la capacité de simulation du réseau de Petri est discutée. Selon la théorie des catégories, la méthode de description de la catégorie des composants dans les caractéristiques dynamiques du système est déduite. De plus, un système de robot modulaire est analysé, ce qui fournit une description vérifiable des caractéristiques dynamiques du système.

Cette étude a examiné l'efficacité d'un Cyber ​​Home Learning System (CHLS), un système d'apprentissage en ligne actuellement utilisé en Corée du Sud pour améliorer l'accès et la qualité de l'enseignement public ainsi que pour réduire les dépenses de tutorat privé. La conception de la recherche quasi expérimentale a utilisé des méthodes d'expérimentation et d'enquête pour en savoir plus sur l'impact…

Janvier–Février 2013 Air & Space Power Journal | 44 En vedette Cyber ​​Focus Refocalisation de la pensée sur la cyberguerre Maj Sean C. Butler, USAF En septembre 2007. 1. DATE DU RAPPORT FÉV 2013 2. TYPE DE RAPPORT 3. DATES COUVERTES 00-00-2013 à 00-00-2013 4. TITRE ET SOUS-TITRE Refocus Pensée sur la cyberguerre 5a. 2013 Air & Space Power Journal | 45 Butler Refocusing Cyber ​​Warfare Thought Feature Cyber ​​Focus caractérisé par l'utilisation de l'électronique et la

des intrusions spécifiques dont les coûts et les dommages peuvent varier. Ces outils à potentiel moyen sont utilisés pour accéder aux systèmes, maintenir l'accès et masquer l'accès. Dans le. réponse appropriée. Une cyber-intrusion visant à espionner ou à extraire des données entraînera des réponses internationales et nationales différentes d'une arme. voler des cartes de crédit ou des données à un DDoS ou créer et vendre des logiciels malveillants au plus offrant. Le cyberespace non sécurisé est le rêve d'un syndicat du crime en

outils et techniques non classifiés qui peuvent être partagés avec les PN, pour inclure l'ingénierie sociale, le spear phishing, les faux sites Web, les tentatives d'accès physique et. et plutôt s'appuyer sur des services commerciaux tels que Yahoo ou Google. Certains pays ont des pratiques de cybersécurité assez avancées, mais cela peut prendre beaucoup de temps. accès non autorisé aux données/systèmes Injecter l'analyse de réseau externe, le phishing par e-mail, l'accès à des sites Web malveillants, l'ingénierie sociale Échantillon

Leung, Angel N. M. Wong, Natalie Farver, JoAnn M.

La présente étude a testé comment l'exposition à deux types de réponses à un environnement Facebook simulé hypothétique a influencé le contrôle perçu des cyber-spectateurs et les croyances normatives en utilisant un groupe de 4 cyber-intimidateurs (pures cyberintimidations, non impliquées, pures victimes de cyberintimidation et victimes de cyberintimidation ) × 2 condition (offense contre défense) plan expérimental. 203 étudiants chinois du secondaire et de l'université de Hong Kong (132 filles, 71 garçons 12 à 28 H = 16,70 SD = 3,03 ans) ont été répartis au hasard dans l'une des deux conditions. Les résultats ont montré que l'implication des participants dans la cyberintimidation était liée de manière significative à leurs croyances de contrôle sur les comportements d'intimidation et d'assistance aux victimes, tandis que l'exposition aux deux conditions différentes (commentaires offensants vs défendus) était liée à la fois à leurs croyances de contrôle et normatives. En général, la condition de défense a favorisé des croyances de contrôle plus élevées pour aider les victimes et des croyances normatives plus élevées pour aider les victimes. Indépendamment de leur implication passée dans la cyberintimidation et de leur exposition à des conditions d'infraction ou de défense, les cyber-intimidateurs et les cyber-victimes étaient plus enclins à démontrer des croyances normatives pour aider les victimes que pour aider les intimidateurs. Ces résultats ont des implications pour l'examen des influences environnementales dans la prédiction des comportements des spectateurs dans des contextes de cyberintimidation et pour la création d'un environnement positif pour motiver les adolescents à devenir des « vraisemblables » dans les programmes éducatifs de lutte contre la cyberintimidation. PMID : 29740362

Leung, Angel N M Wong, Natalie Farver, JoAnn M

La présente étude a testé comment l'exposition à deux types de réponses à un environnement Facebook simulé hypothétique a influencé le contrôle perçu des cyber-spectateurs et les croyances normatives en utilisant un groupe de 4 cyber-intimidateurs (pures cyberintimidations, non impliquées, pures victimes de cyberintimidation et victimes de cyberintimidation ) × 2 condition (offense contre défense) plan expérimental. 203 étudiants chinois du secondaire et de l'université de Hong Kong (132 filles, 71 garçons 12 à 28 H = 16,70 SD = 3,03 ans) ont été répartis au hasard dans l'une des deux conditions. Les résultats ont montré que l'implication des participants dans la cyberintimidation était significativement liée à leurs croyances de contrôle sur les comportements d'intimidation et d'assistance aux victimes, tandis que l'exposition aux deux conditions différentes (commentaires offensants vs défendus) était liée à la fois à leurs croyances de contrôle et normatives. En général, la condition de défense a favorisé des croyances de contrôle plus élevées pour aider les victimes et des croyances normatives plus élevées pour aider les victimes. Indépendamment de leur implication passée dans la cyberintimidation et de leur exposition à des conditions d'infraction ou de défense, les cyber-intimidateurs et les cyber-victimes étaient plus enclins à démontrer des croyances normatives pour aider les victimes que pour aider les intimidateurs. Ces résultats ont des implications pour l'examen des influences environnementales dans la prédiction des comportements des spectateurs dans des contextes de cyberintimidation, et pour la création d'un environnement positif pour motiver les adolescents à devenir des « défenseurs » dans les programmes éducatifs pour lutter contre la cyberintimidation.

Abdul-Hussin, Mowafak Hassan

Cet article présente une approche pour construire une classe d'un réseau S3PR pour la modélisation, la simulation et le contrôle des processus se produisant dans le système de fabrication flexible (FMS) utilisé à base de siphons élémentaires d'un réseau de Petri. Les siphons sont très importants pour l'analyse et le contrôle des blocages de FMS qui sont des objectifs importants des siphons. Les modèles de réseau de Petri dans l'analyse de la structure d'efficacité et l'utilisation des FMS lorsque différentes politiques peuvent être mises en œuvre conduisent à la prévention des blocages. Nous représentons une politique efficace sans blocage d'une classe spéciale de réseaux de Petri appelée S3PR. La simulation de l'analyse structurelle du réseau de Petri et l'analyse du graphique d'accessibilité sont utilisées pour l'analyse et le contrôle des réseaux de Petri. Les réseaux de Petri sont devenus avec succès l'un des outils les plus puissants pour la modélisation du FMS, où en utilisant l'analyse structurelle, nous montrons que la vivacité de tels systèmes peut être attribuée à l'absence de siphons sous-marqués.

Objectif : La connaissance des informations sur la tête du LINAC est essentielle pour les algorithmes de calcul de dose basés sur un modèle. Cependant, les géométries sont difficiles à mesurer avec précision. Le but de cette étude est de développer des modèles de tête de linac pour le système Cyber ​​Knife (CKS). Méthodes : Pour CKS, les données de mise en service ont été mesurées dans l'eau à 800 mm SAD. La pleine largeur mesurée à mi-hauteur (FWHM) pour chaque cône a été trouvée supérieure à la valeur nominale, ceci a été confirmé par une mesure supplémentaire du film dans l'air. Des modèles de correction de diamètre, de décalage de cône et de décalage de source (DCM, CSM et SSM) sont proposés pour tenir compte des différences. En plus » DCM, une correction spécifique au cône est appliquée. Pour CSM et SSM, un seul décalage est appliqué à la position physique du cône ou de la source. Les trois modèles ont été validés avec un algorithme de calcul de dose de faisceau crayon développé en interne, et évalués par la correction du facteur de diffusion du collimateur (Sc). Résultats : L'erreur quadratique moyenne (MSE) entre le diamètre nominal et la FWHM dérivée des données de mise en service et de la mesure dans l'air est de 0,54 mm et 0,44 mm, l'écart augmentant avec la taille du cône. Le décalage optimal pour le CSM et le SSM est respectivement de 9 mm vers le haut et de 18 mm vers le bas. Le MSE en FWHM est réduit à 0,04 mm et 0,14 mm pour le DCM et le CSM (SSM). DCM et CSM donnent tous deux le même ensemble de valeurs Sc. En combinant tous les cônes à SAD 600-1000 mm, l'écart moyen de 1 en Sc de DCM (CSM) et SSM est de 2,6 % et 2,2 %, et réduit à 0,9 % et 0,7 % pour les cônes d'un diamètre supérieur à 15 mm. Conclusion : Nous avons développé trois modèles géométriques pour CKS. Tous les modèles peuvent gérer l'écart entre les spécifications du fournisseur et les données de mise en service. Et SSM a les meilleures performances pour la correction Sc. L'étude a également validé qu'une source ponctuelle peut être utilisée dans les algorithmes de calcul de dose CKS.« moins

Gersh, J Spectrum Medical Physics, LLC, Greenville, SC Noll, M

Conformément aux exigences de la théorie et de la technologie de l'enseignement modernes, basées sur l'ingénierie logicielle, la théorie des bases de données, la technique de sécurité de l'information en réseau et l'intégration de système, un système de test de réseau sur le réseau local a été conçu et réalisé. Le système permet de diviser les tests et l'enseignement et résout les problèmes de…

Avec l'intérêt accru du public pour la protection de l'environnement, les scientifiques et les ingénieurs visent à améliorer l'efficacité de la conversion énergétique. Les thermoélectriques offrent de nombreux avantages en tant que technologie de gestion thermique. Par rapport à la réfrigération à compression de vapeur, au-dessus d'environ 200 à 600 watts, le coût en dollars par watt ainsi que le COP ne sont pas avantageux pour les thermoélectriques. L'objectif de ce travail était de déterminer si une opération de surfusion pulsée optimisée pouvait améliorer la capacité de refroidissement ou l'efficacité d'un dispositif thermoélectrique. La base de cette recherche est une étude de modélisation basée sur l'analogie thermique-électrique utilisant SPICE. Deux modèles ont été développés. Le premier modèle, un thermocouple autonome sans masse attachée à refroidir. Le second, un système qui comprend un module attaché à une masse génératrice de chaleur. Avec l'étude des thermocouples, une nouvelle approche de génération de surfaces de réponse avec des paramètres caractéristiques a été appliquée. La hauteur d'impulsion actuelle et le temps d'activation de l'impulsion ont été identifiés pour maximiser l'avantage transitoire net, une métrique nouvellement définie. La hauteur d'impulsion et le temps d'activation d'impulsion correspondants ont été utilisés pour le modèle de système. En plus du courant de démarrage traditionnel en régime permanent d'Imax, Iopt a été utilisé. La forme du pouls était un triangle isocèle. Pour le modèle de système, les métriques nouvelles pour le refroidissement par impulsion étaient le Qc, la consommation électrique et le COP. Les effets des impulsions de courant optimisées ont été étudiés en changeant les variables du système. D'autres études ont exploré l'espacement entre les impulsions et la distribution de la température dans le thermoélément.Il a été trouvé que Qc net sur un événement d'impulsion entier peut être amélioré par rapport à un fonctionnement stable Imax mais pas par rapport à un fonctionnement I opt stable. Qc peut être amélioré par rapport à l'opération Iopt, mais uniquement pendant la première partie de l'événement d'impulsion. Le COP est réduit en fonctionnement à impulsions transitoires en raison des constantes de temps différentes de Qc et Pin. Dans certains cas, les matériaux d'interface moins performants permettent plus de Qc et un meilleur COP pendant le fonctionnement transitoire que les matériaux d'interface plus performants

cyberattaques comme moyen de faire avancer leur programme. Des exemples courants de cyberattaques incluent les virus informatiques, les vers, les logiciels malveillants et le déni distribué de. tirer parti des failles de sécurité et endommager les systèmes informatiques, voler des données financières ou acquérir des secrets sensibles. Alors que la technologie devient

Davis, E. Zender, C.S. Arctur, D.K. O'Brien, K. Jelenak, A. Santek, D. Dixon, M.J. Whiteaker, T.L. Yang, K.

Net CDF-CF est une convention développée par la communauté pour stocker et décrire les données scientifiques du système terrestre au format de données binaires net CDF. Il s'agit d'une norme reconnue par l'OGC avec de nombreux FOSS (logiciels libres et open source) existants et des outils logiciels commerciaux peuvent explorer, analyser et visualiser les données stockées et décrites comme des données CDF-CF nettes. Afin de mieux soutenir un segment plus large de la communauté scientifique du système terrestre, un certain nombre d'efforts sont en cours pour étendre la convention CDF-CF nette dans le but d'augmenter les types de données pouvant être représentées comme des données CDF-CF nettes. Cette présentation donnera un aperçu et une mise à jour des travaux visant à étendre la convention CDF-CF nette existante. Il détaillera les types de données scientifiques sur le système terrestre actuellement pris en charge par le net CDF-CF et les types de données ciblées pour le soutien des efforts actuels de développement de la convention nette CDF-CF. Il décrira également certains des outils qui prennent en charge l'utilisation d'ensembles de données conformes au net CDF-CF, les types de données qu'ils prennent en charge et les efforts pour les étendre afin de gérer les nouveaux types de données que net CDF-CF prendra en charge.

Dimitrov, Velin Jagtap, Vinayak Skorinko, Jeanine Chernova, Sonia Gennert, Michael Padir, Taşkin

Nous décrivons le processus de conception d'une unité de traitement d'urgence sûre, fiable et intuitive pour faciliter un degré plus élevé de sécurité et de connaissance de la situation pour le personnel médical, conduisant à un niveau accru de soins aux patients lors d'une épidémie dans un environnement non préparé, sous-développé, ou une zone sinistrée. Nous commençons par un processus de conception centré sur l'humain pour comprendre le défi de conception de travailler avec des unités de traitement Ebola en Afrique de l'Ouest lors de la dernière épidémie d'Ebola, et montrons les travaux préliminaires vers les technologies cyber-physiques applicables pour aider potentiellement lors de la prochaine épidémie.

Cet article analyse les objectifs de conception du système de recherche d'informations standard d'instrumentation médicale. Sur la base de la structure B/S, nous avons établi un système de récupération standard d'instruments médicaux avec ASP. NET C # langage de programmation, serveur Web IIS f, base de données SQL Server 2000, dans le. environnement NET. Le document présente également la structure du système, les modules du système de récupération, l'environnement de développement du système et la conception détaillée du système.

Ammendola, R. Biagioni, A. Cretaro, P. Di Lorenzo, S. Fiorini, M. Frezza, O. Lamanna, G. Lo Cicero, F. Lonardo, A. Martinelli, M. Neri, I. Paolucci, PS Pastorelli , E. Piandani, R. Pontisso, L. Rossetti, D. Simula, F. Sozzi, M. Valente, P. Vicini, P.

Na Net est un cadre pour le développement de cartes d'interface réseau (NIC) PCI Express (PCIe) basées sur FPGA avec une architecture de transport de données en temps réel qui peuvent être utilisées efficacement dans les systèmes TRIDAQ. Les principales caractéristiques de l'architecture sont la flexibilité dans la configuration du nombre et du type de canaux d'E/S, le déchargement matériel de la pile de protocoles réseau, la capacité de traitement de flux et l'accès direct à la mémoire à distance CPU et GPU sans copie ( RDMA). Trois conceptions de cartes réseau ont été développées avec le framework Na Net : Na Net -1 et Na Net -10 pour le déclencheur bas niveau NA62 du CERN et Na Net 3 pour le système DAQ du télescope sous-marin à neutrinos KM3NeT-IT. Nous concentrerons notre description sur la conception Na Net -10, car elle est la plus complète des trois en termes de capacités et d'IP intégrées du framework.

Chen, Juei-Nan Huang, Yueh-Min Chu, William

Cette enquête présente un modèle DFPN (Dynamic Fuzzy Petri Net) pour augmenter la flexibilité du comportement de l'agent tuteur et ainsi fournir une structure de contenu d'apprentissage pour un cours magistral. L'agent de tutorat est un assistant logiciel pour un seul utilisateur, qui peut être un expert dans un cours e-Learning. En fonction du comportement de chaque apprenant, le…

Barrera-Vargas, Ana Gómez-Martín, Diana Carmona-Rivera, Carmelo Merayo-Chalico, Javier Torres-Ruiz, Jiram Manna, Zerai Hasni, Sarfaraz Alcocer-Varela, Jorge Kaplan, Mariana J

Évaluer si les protéines ubiquitinées potentiellement présentes dans les pièges extracellulaires des neutrophiles (NET) peuvent modifier les réponses cellulaires et induire des mécanismes inflammatoires chez les patients atteints de lupus érythémateux disséminé (LED) et les sujets sains. Nous avons étudié 74 sujets atteints de LED et 77 témoins sains. Des neutrophiles et des granulocytes de faible densité ont été isolés et des TNE ont été induites. La teneur en ubiquitine a été quantifiée dans les NET par analyse western blot, ELISA et microscopie par immunofluorescence, tandis que l'ubiquitination des protéines NET a été évaluée par immunoprécipitation. Les macrophages dérivés des monocytes du LED et les témoins ont été isolés et stimulés avec des TNE ou de l'ubiquitine. Le flux de calcium et la synthèse de cytokines ont été mesurés suite à ces stimuli. Les TNE contiennent des protéines ubiquitinées, avec une expression plus faible de protéines polyubiquitinées chez les sujets atteints de LED que chez les témoins. La myéloperoxydase (MPO) est présente sous forme ubiquitinée dans les TNE. Les patients atteints de LED développent des anticorps MPO anti-ubiquitinés, et les titres sont en corrélation positive avec le score de l'indice d'activité de la maladie du lupus érythémateux systémique (SLEDAI) (PNET ou avec l'ubiquitine a conduit à une augmentation du flux de calcium. De plus, la stimulation avec les NET a conduit à une augmentation des cytokines (tumor necrosis factor- α et interleukine-10) dans les macrophages de patients atteints de LED par rapport aux témoins, qui était entravée par l'inhibition de l'internalisation des NET par les macrophages. Il s'agit de la première étude à trouver des protéines ubiquitinées dans les NET et des preuves de réponses immunitaires adaptatives dirigées contre les NET ubiquitinées. Protéines NET dans le LED. Les différences distinctes dans le profil des espèces d'ubiquitine dans les NET par rapport aux témoins sains peuvent contribuer à l'atténuation des réponses anti-inflammatoires observées dans le LED. Ces résultats soutiennent également le rôle de l'ubiquitine extracellulaire dans l'inflammation dans le LED. © Auteur(s) de l'article (ou leur(s) employeur(s) sauf indication contraire

Sintov, Nicole Orosz, Michael Schultz, P. Wesley

La mission du système cyber-physique personnalisé de réduction de l'énergie (PERCS) est de créer de nouvelles possibilités pour améliorer l'efficacité de fonctionnement des bâtiments, améliorer la fiabilité du réseau, éviter les coupures de courant coûteuses et atténuer les émissions de gaz à effet de serre. PERCS propose d'atteindre ces résultats en engageant les occupants des bâtiments en tant que partenaires dans une plate-forme de services intelligents centrée sur l'utilisateur. En utilisant une approche de surveillance de la charge non intrusive, PERCS utilise un point de détection unique dans chaque maison pour capturer les données des compteurs électriques intelligents en temps réel. Le signal d'énergie domestique est désagrégé en signatures de charge individuelles d'appareils courants (par exemple, les climatiseurs), ce qui donne des informations énergétiques au niveau de l'appareil en temps quasi réel. Les utilisateurs interagissent avec PERCSmore » via une plate-forme de téléphonie mobile qui fournit un retour d'énergie au niveau des ménages et des appareils électroménagers, des recommandations personnalisées et un jeu compétitif lié à la consommation d'énergie et aux changements de comportement. PERCS remet en question les approches traditionnelles de gestion de l'énergie en engageant directement l'occupant en tant qu'élément clé d'un système technologique .« moins

collections et l'a appliqué de diverses manières aux problèmes liés à l'énergie. 1. DATE DU RAPPORT (JJ-MM-AAAA) 4. TITRE ET SOUS-TITRE 13. SUPPLÉMENTAIRE. UU UU 05-10-2017 1-Oct-2011 30-Sep-2016 Dynamique du système de systèmes et applications aux installations à énergie nette zéro Les points de vue, opinions et/ou. Research Triangle Park, NC 27709-2211 Analyse de l'opérateur Koopman, Systèmes énergétiques PAGE DE DOCUMENTATION DU RAPPORT 11. NUMÉRO(S) DU RAPPORT DU SPONSOR/MONITOR 10

gérer la cybersécurité est souvent un processus très manuel et exigeant en main-d'œuvre. Lorsqu'une crise survient, les réponses du DoD vont de hautement automatisées à instrumentées. Rapport du groupe de travail de l'ORD sur la gestion de la cyberdéfense septembre 2016 (U) Cette page est intentionnellement vierge RAPPORT DE L'ÉTUDE DU DEFENSE SCIENCE BOARD SUR la cyber. DÉFENSE POUR L'ACQUISITION, LA TECHNOLOGIE ET ​​LA LOGISTIQUE OBJET : Rapport final du groupe de travail du Defense Science Board (DSB) sur la gestion de la cyberdéfense Je suis

L'article étudie les particularités de la modélisation des systèmes robotiques engagés dans l'exploitation minière. Les mécanismes de modélisation existants sont considérés, qui sont basés sur des réseaux de Petri emboîtés, et un nouveau formalisme de réseaux de Petri en croissance est présenté qui permet de modéliser des systèmes robotiques fonctionnant sous risque. La modélisation est fournie à la fois pour le mode de fonctionnement normal et pour les modes non standard dans lesquels des éléments individuels du système peuvent exécuter des fonctions non caractéristiques. L'exemple montre des réseaux de Petri en croissance qui sont utilisés pour modéliser l'extraction de filons de charbon plats par un système robotique composé de plusieurs robots autonomes de types différents.

Sumida, Iori Shiomi, Hiroya Higashinaka, Naokazu Murashima, Yoshikazu Miyamoto, Youichi Yamazaki, Hideya Mabuchi, Nobuhisa Tsuda, Eimei Ogawa, Kazuhiko

La précision du suivi du système Synchrony du Cyber ​​Knife est généralement évaluée à l'aide d'une méthode de vérification sur film. Nous avons évalué un système de vérification qui utilise une webcam et une grille calibrée imprimée pour vérifier la précision du suivi sur trois modèles de mouvement différents. Une boîte avec une grille calibrée imprimée attachée et quatre marqueurs de repère a été attachée au fantôme de mouvement. Un marqueur cible a été placé au centre de la grille. La boîte a été mise en place en utilisant les trois autres marqueurs. La précision du suivi de cible a été évaluée dans trois conditions : 1) stationnaire 2) mouvement sinusoïdal avec différentes amplitudes de 5, 10, 15 et 20 mm pour le même cycle de 4 s et différents cycles de 2, 4, 6 et 8 s avec la même amplitude de 15 mm et 3) des schémas respiratoires irréguliers chez six volontaires humains respirant normalement. Des marqueurs infrarouges ont été placés sur l'abdomen des volontaires et leurs trajectoires ont été utilisées pour simuler le mouvement de la cible. Tous les tests ont été effectués avec un mouvement unidimensionnel dans la direction cranio-caudale. La webcam a capturé le mouvement de la grille et un faisceau laser a été utilisé pour simuler le faisceau du Cyber ​​Knife. L'erreur de poursuite a été définie comme la différence entre le centre de la grille et le faisceau laser. Avec une cible stationnaire, l'erreur de poursuite moyenne a été mesurée à 0,4 mm. Pour le mouvement sinusoïdal, l'erreur de suivi était inférieure à 2 mm pour toute amplitude et cycle respiratoire. Pour les schémas respiratoires des volontaires, la plage d'erreur de suivi moyenne était de 0,78 à 1,67 mm. Par conséquent, un ciblage précis des lésions nécessite une assurance qualité individuelle pour chaque patient.

Shiomi, Hiroya Higashinaka, Naokazu Murashima, Yoshikazu Miyamoto, Youichi Yamazaki, Hideya Mabuchi, Nobuhisa Tsuda, Eimei Ogawa, Kazuhiko

La précision du suivi du système Synchrony du Cyber ​​Knife est généralement évaluée à l'aide d'une méthode de vérification basée sur un film. Nous avons évalué un système de vérification qui utilise une webcam et une grille calibrée imprimée pour vérifier la précision du suivi sur trois modèles de mouvement différents. Une boîte avec une grille calibrée imprimée attachée et quatre marqueurs de repère a été attachée au fantôme de mouvement. Un marqueur cible a été placé au centre de la grille. La boîte a été mise en place en utilisant les trois autres marqueurs. La précision du suivi de cible a été évaluée dans trois conditions : 1) stationnaire 2) mouvement sinusoïdal avec différentes amplitudes de 5, 10, 15 et 20 mm pour le même cycle de 4 s et différents cycles de 2, 4, 6 et 8 s avec la même amplitude de 15 mm et 3) des schémas respiratoires irréguliers chez six volontaires humains respirant normalement. Des marqueurs infrarouges ont été placés sur l'abdomen des volontaires et leurs trajectoires ont été utilisées pour simuler le mouvement de la cible. Tous les tests ont été effectués avec un mouvement unidimensionnel dans la direction cranio-caudale. La webcam a capturé le mouvement de la grille et un faisceau laser a été utilisé pour simuler le faisceau du Cyber ​​Knife. L'erreur de poursuite a été définie comme la différence entre le centre de la grille et le faisceau laser. Avec une cible stationnaire, l'erreur de poursuite moyenne a été mesurée à 0,4 mm. Pour le mouvement sinusoïdal, l'erreur de suivi était inférieure à 2 mm quelle que soit l'amplitude et le cycle respiratoire. Pour les schémas respiratoires des volontaires, la plage d'erreur de suivi moyenne était de 0,78 à 1,67 mm. Par conséquent, un ciblage précis des lésions nécessite une assurance qualité individuelle pour chaque patient. Numéro(s) PACS : 87.55.D‐, 87.55.km, 87.55.Qr, 87.56.Fc PMID : 27074474

DEVECT ( CYBER -205 Devectorizer) est un programme informatique de préprocesseur en langage source CYBER -205 FORTRAN réduisant les instructions vectorielles en FORTRAN standard. De plus, DEVECT possède de nombreuses autres fonctionnalités standard et optionnelles simplifiant la conversion des programmes de processeur vectoriel pour CYBER 200 vers d'autres ordinateurs. Écrit en FORTRAN IV.

domaines, cyber , commandement et contrôle, USCYBERCOM, commandement combattant, force cyber PAGES 65 16. CODE PRIX 17. SÉCURITÉ 18. SÉCURITÉ 19. SÉCURITÉ 20. USCYBERCOM, plaident en faveur de la création d'une cyber force autonome.11 Ils affirment que la nature traditionnelle et inélastique de l'armée rend le

Les politiques de sécurité existantes dans l'aviation civile ne protègent pas de manière adéquate contre l'évolution des cybermenaces. La cybersécurité a été reconnue comme une priorité absolue par certains leaders de l'industrie aéronautique. Des préoccupations accrues concernant les cybermenaces et les vulnérabilités entourent les composants utilisés conformément à la mise en œuvre du transport aérien de nouvelle génération (NextGen) de la Federal Aviation Administration (FAA). La surveillance dépendante automatisée-B (ADS-B) et les sacs de vol électroniques (EFB) ont tous deux été exploités grâce à la recherche de professionnels de la sécurité informatique expérimentés. L'aviation civile est essentielle à l'infrastructure internationale et si ses actifs critiques étaient compromis, elle pourrait poser un grand risque pour la sécurité publique et l'infrastructure financière. Le but de cette recherche était de sensibiliser aux vulnérabilités des systèmes d'aéronefs afin de provoquer des changements parmi les politiques, procédures et normes de cybersécurité nationales et internationales actuelles. Bien que l'éducation aux cybermenaces augmente dans l'industrie aéronautique, il n'y a pas assez d'urgence lors de la création de politiques de cybersécurité. Ce projet visait à répondre aux questions suivantes : Quelles sont les cybermenaces pour l'ADS-B d'un aéronef en vol ? Quelles sont les cybermenaces pour EFB ? Quelle est la réponse de l'industrie aéronautique à la question de la cybersécurité et de la sécurité en vol ? L'ADS-B reste non crypté alors que le mandat de la FAA pour mettre en œuvre ce système approche à grands pas. La cybermenace des EFB portables et non portables a reçu une publicité accrue, cependant, les compagnies aériennes ne réagissent pas assez rapidement (voire pas du tout) pour créer des politiques pour l'utilisation de ces appareils. Collectivement, l'industrie aéronautique n'est pas suffisamment proactive pour protéger ses aéronefs ou les systèmes de son réseau aéroportuaire . Cela ne veut pas dire qu'il n'y a pas de leaders dans l'avancement de la cybersécurité. Ces organisations proactives doivent établir la norme pour l'avenir afin de mieux protéger la société et son mode de transport le plus fiable.

O'Connor, Sean M. Zhang, Yilan Lynch, Jerome Ettouney, Mohammed van der Linden, Gwen

Un objectif louable pour le domaine de la surveillance de la santé structurelle est la création d'une architecture de système de surveillance évolutive qui extrait de nombreux détails du système (p. processus de fabrication. Alors qu'un large éventail de technologies de capteurs ont émergé, la capacité des systèmes de détection à générer de grandes quantités de données a largement dépassé les avancées en matière de gestion et de traitement des données. Pour inverser cette tendance, cette étude explore la création d'un système SHM sans fil cyber-activé pour les ponts routiers. Le système est conçu de haut en bas en tenant compte des mécanismes de dommages qui préoccupent les propriétaires de ponts, puis en adaptant le système de détection et d'aide à la décision à ces préoccupations. L'élément habilitant du système proposé est un puissant système de référentiel de données appelé SenStore. SenStore est conçu pour combiner les données des capteurs avec les métadonnées du pont (par exemple, la configuration géométrique, les propriétés des matériaux, l'historique de maintenance, les emplacements des capteurs, les types de capteurs, l'historique des inspections). Un réseau de capteurs sans fil déployé sur un pont transmet de manière autonome ses données de mesure à SenStore via une connexion cellulaire 3G pour le stockage. SenStore expose en toute sécurité les métadonnées et les données des capteurs du pont aux clients logiciels qui peuvent traiter les données pour extraire des informations pertinentes pour le processus de prise de décision du propriétaire du pont. Pour valider le système SHM cyber-enable proposé, le système est mis en œuvre sur le pont Telegraph Road (Monroe, MI). Le pont Telegraph Road est un pont traditionnel composé de poutres d'acier et de tablier en béton situé le long d'un couloir très fréquenté de la région métropolitaine de Détroit. Un réseau permanent de capteurs sans fil a été installé pour mesurer les accélérations, les contraintes et les températures des ponts. Des algorithmes d'identification du système et de détection des dommages sont créés pour extraire automatiquement les données de réponse des ponts stockées dans SenStore sur une période de 18 mois. Des outils comme le processus gaussien (GP

Objectif : étudier la capacité de Cyber ​​Knife à suivre les clips chirurgicaux utilisés comme marqueurs de référence. Méthodes : Le détecteur Octavius ​​1000SRS et le fantôme de dalle d'eau solide (RW3) ont été utilisés avec une plate-forme de mouvement pour évaluer l'étude. Le fantôme de dalle RW3 a été mis en place pour mesurer la distribution de dose à partir du plan coronal. Il se compose de 9 plaques et l'épaisseur de chaque plaque est de 10 mm. Parmi eux, une plaque a été fixée avec 3 clips chirurgicaux, qui sont positionnés orthogonalement sur la région externe du tableau. La longueur du clip attaché était représentée par 1 cm sur la planification CT. La plaque clip a été placée sur le plus » détecteur 1000SRS et 3 dalles ont été empilées sur la plaque pour construire la profondeur de mesure. Sous le détecteur, 5 dalles ont été posées. La plate-forme de mouvement à deux axes a été programmée avec un mouvement sinusoïdal 1D (20 mm crête à crête, période de 3 s) vers les directions supérieure/inférieure et gauche/droite pour simuler le mouvement cible. Lors de la livraison, deux clips ont été extraits par deux imageurs à rayons X, ce qui a conduit à une correction d'erreur de translation uniquement. Synchrony a également été utilisé pour le suivi dynamique. Après l'irradiation, la distribution de dose mesurée du plan coronal a été comparée à la distribution de dose planaire calculée par le système de planification de traitement Cyber ​​Knife (Multiplan) pour une vérification croisée. Les résultats ont été évalués en comparant l'indice Gamma (γ) absolu. Résultats : Les distributions de dose mesurées par le détecteur 1000SRS étaient en bon accord avec celles calculées par Multiplan. Dans la comparaison dosimétrique utilisant des critères de fonction basés sur la distance à l'accord de 3 mm et la différence de dose locale de 3 %, le taux de réussite avec le paramètre γ 1 était de 91 % dans le plan coronal. Conclusion : Les clips chirurgicaux peuvent être considérés comme de nouveaux repères pour la livraison de radiochirurgie robotique en considérant la marge cible avec moins de 5 mm.

repose tellement sur des systèmes de commandement et de contrôle complexes et sur l'interconnectivité en général, que la cyberguerre est devenue un sujet d'intérêt sérieux au sein du. cyberguerre défensive dans les opérations et les plans actuels et futurs. En particulier, les commandants de la Force opérationnelle interarmées (FOI) doivent développer une méthode optimale pour

Rodríguez, Alfonso Valverde, Juan Portilla, Jorge Otero, Andrés Riesgo, Teresa de la Torre, Eduardo

Les systèmes cyber-physiques connaissent un changement de paradigme dans lequel le traitement a été déplacé vers la couche de détection distribuée et n'est plus effectué de manière centralisée. Cette approche, généralement appelée Edge Computing, nécessite l'utilisation de plates-formes matérielles capables de gérer les exigences en constante augmentation des performances informatiques, tout en conservant l'efficacité énergétique et l'adaptabilité imposées par l'interaction avec le monde physique. Dans ce contexte, les FPGA basés sur SRAM et leur reconfigurabilité inhérente à l'exécution, lorsqu'ils sont associés à des stratégies de gestion de l'alimentation intelligentes, constituent une solution appropriée. Cependant, ils échouent généralement dans l'accessibilité des utilisateurs et la facilité de développement. Dans cet article, un cadre intégré pour développer des systèmes embarqués haute performance basés sur FPGA pour l'Edge Computing dans les systèmes cyber-physiques est présenté. Ce cadre fournit une architecture de traitement basée sur le matériel, une chaîne d'outils automatisée et un environnement d'exécution pour générer et gérer de manière transparente des systèmes reconfigurables à partir de descriptions de système de haut niveau sans intervention supplémentaire de l'utilisateur. De plus, il permet aux utilisateurs d'adapter dynamiquement les ressources de calcul disponibles pour basculer le point de fonctionnement de l'architecture dans un espace de solution défini par les performances de calcul, la consommation d'énergie et la tolérance aux pannes. Les résultats montrent qu'il est en effet possible d'explorer cet espace de solutions au moment de l'exécution et prouvent que le cadre proposé est une alternative compétitive aux plates-formes informatiques de pointe basées sur des logiciels, étant capable de fournir non seulement des solutions plus rapides, mais également une efficacité énergétique plus élevée pour l'informatique. algorithmes intensifs avec des niveaux importants de parallélisme au niveau des données.

Tadda, George Salerno, John J. Boulware, Douglas Hinman, Michael Gorton, Samuel

Les problèmes de connaissance de la situation (SA) nécessitent tous une compréhension des activités en cours, une capacité à anticiper ce qui peut arriver ensuite et des techniques pour analyser la menace ou l'impact des activités et des prévisions actuelles. Ces processus de SA sont communs quel que soit le domaine et peuvent être appliqués à la détection de cyberattaques. Ce document décrira l'application d'un cadre SA à la mise en œuvre de Cyber ​​SA, décrira certaines métriques pour mesurer et évaluer les systèmes mettant en œuvre Cyber ​​SA, et discutera des travaux en cours dans ce domaine. Nous concluons avec quelques idées d'activités futures.

Lv, Chen Liu, Yahui Hu, Xiaosong Guo, Hongyan Cao, Dongpu Wang, Fei-Yue

En tant que système cyber-physique (CPS) typique, le véhicule électrifié devient un sujet de recherche brûlant en raison de son efficacité élevée et de ses faibles émissions. Afin de développer des groupes motopropulseurs électriques avancés, des estimations précises des états hybrides non mesurables, y compris la non-linéarité du jeu discret et le couple continu au demi-arbre, sont d'une grande importance. Dans cet article, un nouvel algorithme d'estimation pour identifier simultanément la position du jeu et le couple de demi-arbre d'un groupe motopropulseur électrique est proposé en utilisant une approche de système hybride. Les modèles de système, y compris les modèles de transmission électrique et de dynamique du véhicule, sont établis en tenant compte du jeu et de la flexibilité de la transmission, et également calibrés et validés à l'aide des données d'essais routiers des véhicules. Sur la base des modèles de système développés, le comportement du groupe motopropulseur est représenté à l'aide d'automates hybrides selon la propriété affine par morceaux de la dynamique du jeu. Un observateur à état hybride, composé d'un observateur à état discret et d'un observateur à état continu, est conçu pour l'estimation simultanée de la position du jeu et du couple de demi-arbre. Afin de garantir la stabilité et l'accessibilité, la propriété de convergence de l'observateur proposé est étudiée. Les observateurs proposés sont validés sous des transitions hautement dynamiques d'états de véhicules. Les résultats de la validation démontrent la faisabilité et l'efficacité de l'observateur à état hybride proposé.

A. Lee. "Un modèle de programmation pour le temps - Systèmes en temps réel distribués synchronisés". Dans : Actes du Symposium sur les technologies et applications en temps réel et embarquées. 2007, p. 259-268. . De MetroII à Metronomy, conception d'un cadre de co-simulation d'architecture de fonction basée sur un contrat pour la vérification temporelle des systèmes cyber-physiques. la collecte d'informations est estimée en moyenne à 1 heure par réponse, y compris le temps consacré à l'examen des instructions, à la recherche des données existantes

Le Smart Grid est un système cyber-physique composé de composants physiques, tels que des lignes de transmission et des générateurs, et d'un : réseau de systèmes embarqués déployés pour leur cyber-contrôle. Notre objectif est d'analyser qualitativement et quantitativement.

Gao, Hong-li Jia, Ying-lian Yang, Ji-long Jiang, Wei

Un nouveau type de schéma de système PDM basé sur le . NET pour résoudre les problèmes d'application du système PDM actuel appliqué dans une entreprise est décrite. Les technologies clés de ce système , telles que . NET, l'accès aux données, le traitement de l'information, le Web, etc., ont été abordés. L'architecture 3-tiers d'un système PDM basé sur le mode mixte C/S et B/S a été présentée. Dans ce système, tous les utilisateurs partagent le même serveur de base de données afin d'assurer la cohérence et la sécurité des données clients. ADO. NET exploite la puissance de XML pour fournir un accès déconnecté aux données, ce qui libère la connexion pour qu'elle puisse être utilisée par d'autres clients. En utilisant cette approche, les performances du système ont été améliorées. De plus, les modules de fonction importants dans un système PDM tels que la gestion de projet, la gestion de la structure du produit et le module de gestion des documents ont été développés et réalisés.

Liu, Yanchi Wang, Xue Liu, Youda Cui, Sujin

Les problèmes d'analyse de la qualité de l'énergie, en particulier la mesure des harmoniques et des interharmoniques dans les systèmes énergétiques cyber-physiques, sont abordés dans cet article. Au fur et à mesure que de nouvelles situations sont introduites dans le système électrique, l'impact des véhicules électriques, de la production distribuée et des énergies renouvelables a introduit des demandes supplémentaires pour les capteurs distribués, les informations au niveau de la forme d'onde et l'analyse des données sur la qualité de l'énergie. Les harmoniques et interharmoniques, en tant que perturbations les plus importantes, nécessitent des méthodes de détection soigneusement conçues pour une mesure précise des charges électriques dont les informations sont cruciales pour l'analyse et le contrôle ultérieurs. Cet article donne une description détaillée du cadre d'analyse de la qualité de l'alimentation dans un environnement en réseau et présente une méthode rapide et à résolution améliorée pour la mesure des harmoniques et interharmoniques. La méthode proposée extrait d'abord efficacement les composants harmoniques et interharmoniques à l'aide de la version monocanal de Robust Independent Component Analysis (RobustICA), puis estime la fréquence haute résolution à partir de trois échantillons de transformée de Fourier discrète (DFT) avec peu de calculs supplémentaires, et enfin calcule le amplitudes et phases avec le réseau de neurones linéaire adaptatif. Les expériences montrent que la méthode proposée est efficace en termes de temps et conduit à une meilleure précision des signaux simulés et expérimentaux en présence de bruit et d'écart de fréquence fondamentale, fournissant ainsi un aperçu plus approfondi des sources (inter)harmoniques ou même de l'ensemble du système. .

Liu, Yanchi Wang, Xue Liu, Youda Cui, Sujin

Les problèmes d'analyse de la qualité de l'énergie, en particulier la mesure des harmoniques et des interharmoniques dans les systèmes énergétiques cyber-physiques, sont abordés dans cet article. Au fur et à mesure que de nouvelles situations sont introduites dans le système électrique, l'impact des véhicules électriques, de la production distribuée et des énergies renouvelables a introduit des demandes supplémentaires pour les capteurs distribués, les informations au niveau de la forme d'onde et l'analyse des données sur la qualité de l'énergie. Les harmoniques et interharmoniques, en tant que perturbations les plus importantes, nécessitent des méthodes de détection soigneusement conçues pour une mesure précise des charges électriques dont les informations sont cruciales pour l'analyse et le contrôle ultérieurs. Cet article donne une description détaillée du cadre d'analyse de la qualité de l'alimentation dans un environnement en réseau et présente une méthode rapide et à résolution améliorée pour la mesure des harmoniques et interharmoniques. La méthode proposée extrait d'abord efficacement les composants harmoniques et interharmoniques à l'aide de la version monocanal de Robust Independent Component Analysis (RobustICA), puis estime la fréquence haute résolution à partir de trois échantillons de transformée de Fourier discrète (DFT) avec peu de calculs supplémentaires, et enfin calcule le amplitudes et phases avec le réseau de neurones linéaire adaptatif. Les expériences montrent que la méthode proposée est efficace en termes de temps et conduit à une meilleure précision des signaux simulés et expérimentaux en présence de bruit et d'écart de fréquence fondamentale, fournissant ainsi un aperçu plus approfondi des sources (inter)harmoniques ou même de l'ensemble du système. . PMID : 27355946

Wang, Yang Wang, Enmin Pan, Li Dai, Jiazhong Zhang, Nan Wang, Xin Liu, Xiaoxia Mei, Guanghai Sheng, Xiaofang

Le bevacizumab bloque les effets du facteur de croissance de l'endothélium vasculaire dans les capillaires sujets aux fuites et a été suggéré comme nouveau traitement de l'œdème de rayonnement cérébral et de la nécrose. Cyber ​​Knife est un nouveau système de radiochirurgie stéréotaxique sans cadre. Ce travail a étudié l'innocuité et l'efficacité du Cyber ​​Knife suivi d'un traitement précoce au bevacizumab pour les métastases cérébrales avec un œdème cérébral étendu. Les critères d'éligibilité des patients sélectionnés pour une radiochirurgie suivie d'une utilisation précoce d'un traitement adjuvant par le bevacizumab étaient : (1) tumeurs cérébrales métastatiques avec une lésion cérébrale solitaire et œdème cérébral étendu symptomatique (2) > 18 ans (3) le patient a refusé chirurgie en raison des conditions physiques et du risque chirurgical (4) pas de contre-indications pour le bevacizumab. (5) le bevacizumab a été appliqué pour un minimum de 2 injections et un maximum de 6 injections avec un intervalle de 2 semaines entre les traitements, commençant dans les 2 semaines suivant la thérapie Cyber ​​Knife (6) Indice de performance de Karnofsky (KPS) ≥30. La taille de la tumeur et l'œdème ont été surveillés par imagerie par résonance magnétique (IRM). La posologie de la dexaméthasone, le KPS, la survenue d'événements indésirables et les résultats cliniques associés ont également été enregistrés. Huit patients ont été recrutés pour ce nouveau traitement. La dose de rayonnement variait de 20 à 33 Gy en une à cinq séances, prescrite à la ligne d'isodose 61-71 %. Le traitement par bevacizumab a été administré 3 à 10 jours après la fin du traitement par Cyber ​​Knife pendant au moins deux cycles (5 mg/kg, à 2 semaines d'intervalle). L'IRM a révélé des réductions moyennes de 55,8 % (post-gadolinium) et 63,4 % (T2/FLAIR). Sept patients ont montré des améliorations neurologiques cliniques significatives. La dexaméthasone a été réduite chez tous les patients, dont cinq ont arrêté avec succès le traitement par la dexaméthasone 4 semaines après le début du traitement par le bevacizumab. Une hypertension, un événement indésirable lié au bevacizumab, est survenue chez un patient. Après 3 à 8 mois, tous les patients étudiés étaient vivants et les métastases cérébrales primaires étaient sous contrôle, 2 ont développé un nouveau cerveau

Visant à accroître la flexibilité, l'efficience, l'efficacité et la transparence du traitement de l'information et du déploiement des ressources dans les organisations afin d'assurer la satisfaction des clients et la haute qualité des produits et services, les systèmes d'information orientés processus (POIS) représentent une forme de réalisation prometteuse des systèmes d'information commerciaux informatisés. En raison de la complexité du POIS, des modèles de processus logiciels explicites et spécialisés sont nécessaires pour guider le développement du POIS. Dans ce chapitre, nous caractérisons POIS avec un cadre d'architecture et présentons un modèle de processus logiciel basé sur un réseau de Petri adapté au développement de POIS en tenant compte des rôles organisationnels. En tant que parties intégrées du modèle de processus logiciel, nous introduisons également les réseaux XML , une variante des réseaux de Petri de haut niveau comme méthodologie de base pour la modélisation des processus métier, et un ensemble d'outils logiciels basés sur le réseau XML offrant des fonctionnalités complètes pour le développement de POIS.

Wu, Yanfang Wan, Xin Shi, Weixiang

La conception de la planification consiste à élaborer un plan plus global à long terme. Afin de garantir un système de fabrication mécanique (MMS) conçu pour obtenir un avantage économique maximal, il est nécessaire d'effectuer une conception de planification raisonnable pour le système. Tout d'abord, quelques principes sur la conception de la planification pour le MMS sont introduits. Les problèmes d'ordonnancement de la production et leurs règles de décision pour la simulation informatique sont présentés. La méthode réalisable de chaque règle de décision d'ordonnancement de la production dans le modèle de réseau de Petri est discutée. Deuxièmement, la solution des règles de conflit pour les problèmes de conflit lors de l'exécution du réseau de Petri est donnée. Troisièmement, sur la base du modèle de réseau de Petri du MMS qui comprend le flux de pièces et le flux d'outils, selon le principe de l'avance de temps d'événement minimale, une simulation dynamique par ordinateur du modèle de réseau de Petri, c'est-à-dire une simulation dynamique par ordinateur du MMS, est réalisée . Enfin, le programme de simulation est appliqué à un exemple de simulation, de sorte que le schéma d'une conception de planification pour le MMS peut être évalué efficacement.

Yin, George Wang, Le Yi Zhang, Hongwei

Les méthodes d'approximation stochastique ont trouvé des applications étendues et diversifiées. L'émergence récente de systèmes en réseau et de systèmes cyber-physiques a suscité un regain d'intérêt pour l'avancement de l'approximation stochastique dans un cadre général pour soutenir le développement d'algorithmes pour le traitement de l'information et les décisions dans de tels systèmes. Cet article présente une étude sur quelques développements récents dans les méthodes d'approximation stochastique et leurs applications. En utilisant des véhicules connectés dans la formation et la coordination de peloton en tant que plate-forme, nous mettons en évidence certaines méthodologies traditionnelles et nouvelles d'algorithmes d'approximation stochastique et expliquons comment elles peuvent être utilisées pour capturer des caractéristiques essentielles dans les systèmes en réseau. Des caractéristiques distinctes des systèmes en réseau avec des topologies de commutation aléatoires, des paramètres évoluant dynamiquement et des retards inconnus sont présentées et des stratégies de contrôle sont fournies.

Abdul-Hussin, Mowafak Hassan

Cet article présente une approche pour la construction d'une analyse structurelle de classe des réseaux de Petri, où les siphons élémentaires sont principalement utilisés dans le développement d'une politique de contrôle des interblocages de systèmes de fabrication flexibles (FMS), qui a été exploitée avec succès pour la conception de superviseurs de certains problèmes de contrôle de supervision. Le fonctionnement sans blocage des FMS est un objectif important des siphons dans le réseau de Petri. L'analyse de la structure des modèles de réseau de Petri a une efficacité dans le contrôle des FMS, cependant une politique différente peut être mise en œuvre pour la prévention des blocages. La prévention des blocages basée sur les modèles de réseaux de Petri pour les FMS a suscité un intérêt considérable dans le développement de la théorie du contrôle et des méthodes de conception, de contrôle, d'exploitation et d'évaluation des performances en fonction de la classe spéciale de réseaux de Petri appelée S3PR. L'analyse structurelle et l'analyse de l'arbre d'accessibilité sont utilisées à des fins d'analyse, de simulation et de contrôle des réseaux de Petri. Dans notre approche expérimentale basée sur le siphon est capable de résoudre le problème d'impasse survenu aux réseaux de Petri qui sont illustrés avec un FMS.

Richters, Lindsey K. Pope, Kevin L.

Vingt-six plans d'eau du Nebraska représentant deux types d'écosystèmes (petites eaux stagnantes et grandes eaux stagnantes) ont été étudiés en 2008 et 2009 avec des filets cerceaux posés en tandem et des filets maillants expérimentaux pour déterminer si des tendances similaires existaient dans les taux de capture et les structures de taille du poisson-chat de rivière. Ictalurus punctatus capturé avec ces engins. L'efficacité des engins a été évaluée comme le nombre de poses (filets) qui seraient nécessaires pour capturer 100 barbues de rivière compte tenu des prises observées par unité d'effort (PUE). L'efficacité des filets maillants n'était pas corrélée à l'efficacité des filets à cerceaux pour la capture de barbue de rivière. Les petites tailles d'échantillon interdisaient l'estimation des distributions de tailles proportionnelles dans la plupart des relevés dans les quatre relevés pour lesquels la taille de l'échantillon était suffisante pour quantifier les distributions de fréquences de longueur des barbues de rivière capturées, les distributions différaient entre les engins. La CPUE de la barbue de rivière ne différait pas entre les petits et les grands plans d'eau pour l'un ou l'autre engin. Alors que les taux de capture des filets à cerceaux étaient inférieurs aux taux enregistrés dans les études précédentes, cet engin était plus efficace que les filets maillants pour capturer le poisson-chat de rivière. Cependant, les comparaisons de la structure des tailles entre les engins peuvent être problématiques.

Ali, Salman Qaisar, Saad Bin Saeed, Husnain Khan, Muhammad Farhan Naeem, Muhammad Anpalagan, Alagan

La synergie des composants informatiques et physiques du réseau menant à l'Internet des objets, des données et des services a été rendue possible par l'utilisation de systèmes cyber-physiques (CPS). L'ingénierie CPS promet d'avoir un impact sur la surveillance de l'état du système pour un large éventail de domaines allant des soins de santé, de la fabrication et du transport à l'aérospatiale et à la guerre. CPS pour les applications de surveillance de l'environnement transforme complètement les interactions d'homme à homme, d'homme à machine et de machine à machine grâce à l'utilisation d'Internet Cloud. Une tendance récente consiste à tirer parti des fusions entre la mise en réseau virtuelle et l'actionnement physique pour effectuer de manière fiable toutes les tâches de détection et de communication conventionnelles et complexes. La surveillance des oléoducs et des gazoducs fournit un nouvel exemple des avantages du CPS, fournissant une plate-forme de surveillance à distance fiable pour tirer parti des avantages environnementaux, stratégiques et économiques. Dans cet article, nous évaluons les applications et les exigences techniques pour une intégration transparente du CPS avec le plan du réseau de capteurs du point de vue de la fiabilité et examinons les stratégies de communication d'informations entre les sites de surveillance à distance et les nœuds de capteurs largement déployés. Les défis et problèmes liés à la conception de l'architecture de réseau et aux protocoles pertinents sont également fournis avec une classification. Ceci est étayé par une étude de cas sur la mise en œuvre d'une surveillance fiable des installations d'oléoducs et de gazoducs. Les paramètres de réseau tels que la découverte de nœuds, la mobilité des nœuds, la sécurité des données, la connectivité des liaisons, l'agrégation de données, la découverte de la connaissance de l'information et la fourniture de la qualité de service ont été examinés.

Ali, Salman Qaisar, Saad Bin Saeed, Husnain Farhan Khan, Muhammad Naeem, Muhammad Anpalagan, Alagan

La synergie des composants de réseau informatique et physique menant à l'Internet des objets, des données et des services a été rendue possible par l'utilisation de systèmes cyber-physiques (CPS). L'ingénierie CPS promet d'avoir un impact sur la surveillance de l'état du système pour un large éventail de domaines allant des soins de santé, de la fabrication et du transport à l'aérospatiale et la guerre. CPS pour les applications de surveillance de l'environnement transforme complètement les interactions d'homme à homme, d'homme à machine et de machine à machine grâce à l'utilisation d'Internet Cloud. Une tendance récente consiste à tirer parti des fusions entre la mise en réseau virtuelle et l'actionnement physique pour effectuer de manière fiable toutes les tâches de détection et de communication conventionnelles et complexes. La surveillance des oléoducs et des gazoducs fournit un nouvel exemple des avantages du CPS, fournissant une plate-forme de surveillance à distance fiable pour tirer parti des avantages environnementaux, stratégiques et économiques. Dans cet article, nous évaluons les applications et les exigences techniques pour une intégration transparente du CPS avec le plan du réseau de capteurs du point de vue de la fiabilité et examinons les stratégies de communication d'informations entre les sites de surveillance à distance et les nœuds de capteurs largement déployés.Les défis et problèmes liés à la conception de l'architecture de réseau et aux protocoles pertinents sont également fournis avec une classification. Ceci est étayé par une étude de cas sur la mise en œuvre d'une surveillance fiable des installations d'oléoducs et de gazoducs. Les paramètres de réseau tels que la découverte de nœuds, la mobilité des nœuds, la sécurité des données, la connectivité des liaisons, l'agrégation de données, la découverte de la connaissance de l'information et la fourniture de la qualité de service ont été examinés. PMID : 25815444

Wu, Zhenyu Xu, Yuan Yang, Yunong Zhang, Chunhong Zhu, Xinning Ji, Yang

Le Web des objets (WoT) facilite la découverte et l'interopérabilité des appareils de l'Internet des objets (IoT) dans un système cyber-physique (CPS). De plus, une représentation uniforme des connaissances des ressources physiques est tout à fait nécessaire pour la poursuite du processus de composition, de collaboration et de prise de décision dans le CPS. Bien que plusieurs efforts aient intégré la sémantique avec WoT, telles que les méthodes d'ingénierie des connaissances basées sur les réseaux de capteurs sémantiques (SSN), cela ne pouvait toujours pas représenter les relations complexes entre les appareils lorsque la composition dynamique et la collaboration se produisent, et cela dépend totalement de la construction manuelle d'une connaissance. base à faible évolutivité. Dans cet article, pour remédier à ces limitations, nous proposons le framework Web of Things (SWoT) sémantique pour CPS (SWoT4CPS). SWoT4CPS fournit une solution hybride avec à la fois des méthodes d'ingénierie ontologique en étendant le SSN et des méthodes d'apprentissage automatique basées sur un modèle de liaison d'entités (EL). Pour témoigner de la faisabilité et des performances, nous démontrons le cadre en mettant en œuvre un diagnostic d'anomalie de température et un cas d'utilisation de contrôle automatique dans un système d'automatisation du bâtiment. Les résultats de l'évaluation de la méthode EL montrent que la liaison des connaissances du domaine à DBpedia a une précision relativement élevée et que la complexité temporelle est à un niveau tolérant. Les avantages et les inconvénients de SWoT4CPS avec les travaux futurs sont également discutés.

Wu, Zhenyu Xu, Yuan Yang, Yunong Zhang, Chunhong Zhu, Xinning Ji, Yang

Le Web des objets (WoT) facilite la découverte et l'interopérabilité des appareils de l'Internet des objets (IoT) dans un système cyber-physique (CPS). De plus, une représentation uniforme des connaissances des ressources physiques est tout à fait nécessaire pour la poursuite du processus de composition, de collaboration et de prise de décision dans le CPS. Bien que plusieurs efforts aient intégré la sémantique avec WoT, telles que les méthodes d'ingénierie des connaissances basées sur les réseaux de capteurs sémantiques (SSN), cela ne pouvait toujours pas représenter les relations complexes entre les appareils lorsque la composition dynamique et la collaboration se produisent, et cela dépend totalement de la construction manuelle d'une connaissance. base à faible évolutivité. Dans cet article, pour remédier à ces limitations, nous proposons le framework Web of Things (SWoT) sémantique pour CPS (SWoT4CPS). SWoT4CPS fournit une solution hybride avec à la fois des méthodes d'ingénierie ontologique en étendant le SSN et des méthodes d'apprentissage automatique basées sur un modèle de liaison d'entités (EL). Pour témoigner de la faisabilité et des performances, nous démontrons le cadre en mettant en œuvre un diagnostic d'anomalie de température et un cas d'utilisation de contrôle automatique dans un système d'automatisation du bâtiment. Les résultats de l'évaluation de la méthode EL montrent que la liaison des connaissances du domaine à DBpedia a une précision relativement élevée et que la complexité temporelle est à un niveau tolérant. Les avantages et les inconvénients de SWoT4CPS avec les travaux futurs sont également discutés. PMID : 28230725

mouvement pour se concentrer sur la cybersécurité dans le secteur privé. L'entreprise a partagé des renseignements et des ressources sur les cybermenaces, allant même jusqu'à. le personnel et le personnel du renseignement 1NX ainsi que les officiers du renseignement 14N et les officiers des cyberopérations 17D/S qui dirigent et gèrent la Force aérienne. la menace de cyberincidents, le coût croissant des affaires en raison des infiltrations de cybersécurité, et les dirigeants d'entreprise/cadres supérieurs

trafic si vital pour l'économie mondiale. Les vulnérabilités associées à la dépendance aux systèmes numériques dans l'environnement maritime doivent être continues. Résumé (MAXIMUM 200 MOTS) Les systèmes maritimes modernes sont des systèmes numériques très complexes pour assurer la sécurité et le fonctionnement efficace de la navigation. l'intégrité des entrées de nos " ports numériques" et travailler pour développer des solutions pratiques de cybersécurité pour protéger les eaux maritimes du pays.

Gensch, S. Wächter, J. Schnor, B.

Les systèmes d'alerte précoce (SAP) sont des infrastructures informatiques critiques pour la sécurité qui ont pour objectif de potentiellement sauver des vies ou des biens en observant des phénomènes réels et en émettant des produits d'alerte en temps opportun aux autorités et aux communautés. Un SAP se compose de capteurs, de réseaux de communication, de centres de données, de plates-formes de simulation et de canaux de diffusion. Les composants de ce système cyber-physique peuvent tous être affectés à la fois par des risques naturels et par des dysfonctionnements des composants. Jusqu'à présent, l'ingénierie de la résilience a principalement été appliquée aux systèmes et processus critiques pour la sécurité dans les transports (aviation, automobile), la construction et la médecine. Les systèmes d'alerte précoce ont besoin de techniques équivalentes pour compenser les défaillances et, en outre, de moyens pour s'adapter aux menaces changeantes, aux technologies émergentes et aux résultats de la recherche. Nous présentons les menaces et les pièges de nos expériences avec le système d'alerte précoce aux tsunamis allemand et indonésien, ainsi que les concepts architecturaux, technologiques et organisationnels utilisés qui peuvent améliorer la résilience d'un SAP. L'EWS actuel est composé d'une partie amont de données de capteurs multi-types, de différents moteurs de traitement et d'analyse, d'un système d'aide à la décision, et de divers canaux de diffusion des alertes. Chaque sous-système nécessite un ensemble d'approches pour assurer une fonctionnalité stable à travers les limites de la couche système, y compris également les frontières institutionnelles. Non seulement les services doivent être disponibles, mais aussi produire des résultats corrects. La plupart des capteurs sont des composants distribués avec des ressources, des canaux de communication et une alimentation restreints. Un exemple d'ingénierie de résilience réussie est la gestion fonctionnelle basée sur la capacité électrique pour les stations de bouées et de marégraphes. Nous discutons de divers modèles de pannes tels que les modèles de cause à effet sur les voies linéaires, l'interaction de plusieurs événements, l'interaction complexe et non linéaire de sous-systèmes supposés fiables et les moyens de tolérance aux pannes mis en œuvre pour lutter contre ces menaces.

L'objectif de ce projet était de développer des outils d'audit de cybersécurité et de détection d'attaques pour les systèmes de contrôle industriel (ICS). Digital Bond a développé et publié un outil nommé Bandolier qui audite les composants ICS couramment utilisés dans le secteur de l'énergie par rapport à une configuration de sécurité optimale. Le projet Portaledge a développé une capacité pour PI Historian, l'historien le plus utilisé dans le secteur de l'énergie, pour agréger les événements de sécurité et détecter les cyberattaques.

Egri-Nagy, Attila Nehaniv, Chrystopher L

Les réseaux de régulation biochimiques et génétiques sont souvent modélisés par des réseaux de Petri. Nous étudions la structure algébrique des calculs effectués par les réseaux de Petri du point de vue de la théorie des automates algébriques. Les réseaux de Petri comprennent un langage de modélisation graphique formalisé, souvent utilisé pour décrire les calculs se produisant dans les réseaux de régulation biochimiques et génétiques, mais la sémantique peut être interprétée de différentes manières dans le domaine des automates. Par conséquent, il existe plusieurs façons de transformer un réseau de Petri en un automate à transition d'état. Ici, nous étudions systématiquement différentes méthodes de conversion et décrivons les cas où elles peuvent produire des structures algébriques radicalement différentes. Nous nous concentrons sur l'existence de composants de groupe des semi-groupes de transformation correspondants, car ceux-ci reflètent les symétries du calcul se produisant dans le système biologique à l'étude. Les résultats sont illustrés par des applications à la modélisation en réseau de Petri du métabolisme intermédiaire. Les réseaux de Petri avec inhibition se sont révélés riches en calculs, quelle que soit la méthode d'interprétation particulière. Le long de ces lignes, nous fournissons un argument mathématique suggérant une raison pour l'omniprésence apparente des connexions inhibitrices dans les systèmes vivants.

Gross, Kenneth C. Laug, Matthew T. Lambert, John D. B. Herzog, James P.

L'invention concerne un procédé et un système permettant de fournir un identifiant de gaz marqueur à une barre de combustible nucléaire et d'analyser le gaz marqueur échappé afin d'identifier une barre de combustible nucléaire défaillante particulière. Le procédé et le système consistent à disposer une composition de gaz marqueur unique dans un plénum d'un crayon de combustible nucléaire, à surveiller l'activité des rayons gamma, à analyser des signaux de rayons gamma pour évaluer si un crayon de combustible nucléaire est défectueux et émet du gaz à marquer, à activer un échantillon de gaz à marquer et à système d'analyse lors de la détection de l'émission de gaz marqueur d'un crayon nucléaire défaillant et de l'évaluation du gaz marqueur échappé pour identifier le crayon combustible nucléaire défaillant particulier.

Gross, K.C. Laug, M.T. Lambert, J.B. Herzog, J.P.

L'invention concerne un procédé et un système permettant de fournir un identificateur de gaz marqueur à une barre de combustible nucléaire et d'analyser le gaz de marque échappé afin d'identifier une barre de combustible nucléaire défaillante particulière. Le procédé et le système consistent à disposer une composition de gaz marqueur unique dans un plénum d'un crayon de combustible nucléaire, à surveiller l'activité des rayons gamma, à analyser des signaux de rayons gamma pour évaluer si un crayon de combustible nucléaire est défectueux et émet du gaz à marquer, à activer un échantillon de gaz à marquer et à système d'analyse lors de la détection de l'émission de gaz marqueur d'un crayon nucléaire défaillant et de l'évaluation du gaz marqueur échappé pour identifier le crayon combustible nucléaire défaillant particulier. 12 figues.

Xia, Feng Li, Jie Hao, Ruonan Kong, Xiangjie Gao, Ruixia

Les systèmes cyber-physiques (CPS) qui collectent, échangent, gèrent les informations et coordonnent les actions font partie intégrante du Smart Grid. De plus, le provisionnement de la Qualité de Service (QoS) dans CPS, en particulier dans les réseaux de capteurs/actionneurs sans fil, joue un rôle essentiel dans les applications Smart Grid. IEEE 802.15.4, qui est l'un des protocoles de communication les plus utilisés dans ce domaine, doit encore être amélioré pour répondre aux multiples exigences de QoS. En effet, IEEE 802.15.4 à fentes Carrier Sense Multiple Access/Collision Avoidance (CSMA/CA) utilise une configuration de paramètre statique sans prendre en charge les services différenciés et l'auto-adaptation du réseau. Pour résoudre ce problème, cet article propose un algorithme CSMA/CA différencié et adaptatif de service basé sur la priorité (SDA-CSMA/CA) pour fournir une QoS différenciée pour diverses applications Smart Grid ainsi que pour initialiser dynamiquement l'exposant de backoff en fonction des conditions de trafic. Les résultats de la simulation démontrent que le schéma SDA-CSMA/CA proposé surpasse considérablement le CSMA/CA à fentes IEEE 802.15.4 en termes de débit de données effectif, de taux de perte de paquets et de délai moyen.

Les systèmes cyber-physiques (CPS) qui collectent, échangent, gèrent les informations et coordonnent les actions font partie intégrante du Smart Grid. De plus, le provisionnement de la Qualité de Service (QoS) dans CPS, en particulier dans les réseaux de capteurs/actionneurs sans fil, joue un rôle essentiel dans les applications Smart Grid. IEEE 802.15.4, qui est l'un des protocoles de communication les plus utilisés dans ce domaine, doit encore être amélioré pour répondre aux multiples exigences de QoS. En effet, IEEE 802.15.4 à fentes Carrier Sense Multiple Access/Collision Avoidance (CSMA/CA) utilise une configuration de paramètre statique sans prendre en charge les services différenciés et l'auto-adaptation du réseau. Pour résoudre ce problème, cet article propose un algorithme CSMA/CA différencié et adaptatif de service basé sur la priorité (SDA-CSMA/CA) pour fournir une QoS différenciée pour diverses applications Smart Grid ainsi que pour initialiser dynamiquement l'exposant de backoff en fonction des conditions de trafic. Les résultats de la simulation démontrent que le schéma SDA-CSMA/CA proposé surpasse de manière significative le CSMA/CA à fentes IEEE 802.15.4 en termes de débit de données effectif, de taux de perte de paquets et de délai moyen. PMID : 24260021

Petrosyan, G. Ter-Vardanyan, L. Gaboutchian, A.

Les systèmes d'identification biométrique utilisent des paramètres et une fonction donnés sur la base des réseaux de Petri colorés en tant que langage de modélisation développé pour les systèmes dans lesquels la communication, la synchronisation et les ressources distribuées jouent un rôle important. Les réseaux de Petri colorés combinent les forces des réseaux de Petri classiques avec la puissance d'un langage de programmation de haut niveau. Les réseaux de Petri colorés ont à la fois des présentations formelles intuitives et graphiques. Le modèle graphique CPN se compose d'un ensemble de modules interactifs qui incluent un réseau de lieux, de transitions et d'arcs. La représentation mathématique a une syntaxe et une sémantique bien définies, ainsi que des propriétés comportementales du système. L'une des caractéristiques les plus connues utilisées en biométrie est le motif d'empreintes digitales humaines. Au cours de la dernière décennie, d'autres caractéristiques humaines sont devenues intéressantes, telles que l'iris ou la reconnaissance faciale. L'objectif de cet article est d'introduire les concepts fondamentaux des réseaux de Petri en relation avec l'analyse de la forme des dents. Le fonctionnement des systèmes d'identification biométrique comporte deux phases : la phase d'enrôlement des données et la phase d'identification. Pendant la phase d'enregistrement des données, les images des dents sont ajoutées à la base de données. Cet enregistrement contient les données d'enrôlement sous la forme d'une version bruitée des données biométriques correspondant à l'individu. Pendant la phase d'identification, un individu inconnu est à nouveau observé et comparé aux données d'inscription dans la base de données, puis le système estime l'individu. Le but de la modélisation du système d'identification biométrique au moyen des réseaux de Petri est de révéler les aspects suivants du modèle de fonctionnement : l'efficacité du modèle, le comportement du modèle, les erreurs et accidents dans le modèle, la faisabilité du modèle, la simplification ou la substitution de ses composants séparés pour des composants plus efficaces sans interférer avec le fonctionnement du système. Les résultats de la modélisation et de l'évaluation du système d'identification biométrique sont présentés et discutés.

Les réseaux de Petri contrôlés non ordinaires (NCPN) présentent l'avantage de modéliser des systèmes d'assemblage flexibles dans lesquels plusieurs ressources identiques peuvent être nécessaires pour effectuer une opération. Cependant, les études existantes sur les NCPN sont encore limitées. Par exemple, les propriétés de robustesse des NCPN n'ont pas été étudiées. Cela nous motive à développer une méthode d'analyse pour les NCPN. L'analyse de robustesse concerne la capacité d'un système à maintenir son fonctionnement en présence d'incertitudes. Il fournit une autre façon d'analyser un système perturbé sans réanalyse. Dans nos recherches précédentes, nous avons analysé les propriétés de robustesse de plusieurs sous-classes de réseaux de Petri contrôlés ordinaires. Pour étudier les propriétés de robustesse des NCPN, nous augmentons les NCPN avec un modèle d'incertitude, qui spécifie une limite supérieure sur les incertitudes pour chaque marquage atteignable. Les modèles PN résultants sont appelés réseaux de Petri contrôlés non ordinaires avec incertitudes (NCPNU). Sur la base du NCPNU, le problème est de caractériser les incertitudes maximales tolérables pour chaque marquage atteignable. Les complexités de calcul pour caractériser les incertitudes maximales tolérables pour chaque marquage accessible augmentent de façon exponentielle avec la taille des filets. Au lieu de considérer le NCPNU général, nous limitons notre champ d'application à une sous-classe de modèles PN appelés réseau de Petri d'assemblage flexible contrôlé non ordinaire avec incertitudes (NCFAPNU) pour les systèmes d'assemblage et étudions sa robustesse. Nous étendrons l'analyse de robustesse au NCFAPNU. Nous identifions deux types d'incertitudes sous lesquelles la vivacité du NCFAPNU peut être maintenue.

Trois systèmes de filets japonais légers et à faible couvert ont été développés et testés dans des habitats de broussailles tropicales sèches, de mangroves et de forêts. Un système en plastique (polychlorure de vinyle) et deux systèmes de poteaux en aluminium (avec et sans poulies) ont été utilisés pour soutenir les filets japonais jusqu'à des hauteurs de 7,3 m. Bien que le système de poteaux télescopiques en aluminium (sans poulies) ait été coûteux au départ (79-141/unité (États-Unis)), son utilisation a réduit la capture d'espèces non ciblées et peut avoir augmenté la capture d'espèces cibles par rapport aux filets au niveau du sol. En un an, son utilisation a également réduit les coûts de main-d'œuvre de 756, ce qui a complètement compensé le coût plus élevé du système de poteaux télescopiques en aluminium par rapport au système de poteaux en plastique (19/unité). Contrairement au système de poteaux en plastique, le système de poteaux télescopiques en aluminium était réglable à n'importe quelle hauteur dans sa plage de 1,8 à 7,3 m, était de 1,5 m plus haut, était plus efficace pour fonctionner sur le terrain et était facilement déplacé vers de nouveaux emplacements. Pour capturer les psittacidés, les poulies du système de perches télescopiques en aluminium n'étaient pas nécessaires, mais leur utilisation peut aider à récupérer efficacement un grand nombre d'oiseaux des filets . Le système de perches télescopiques en aluminium s'est avéré efficace pour capturer des psittacidés, des colombides, des passereaux et peut-être des chiroptères dans des habitats dont la canopée mesure jusqu'à 10 m ou dans la sous-canopée de la forêt.

Gendron, Gerald Roberts, David Poole, Donold Aquino, Anna

Ce document propose une feuille de route pour la modélisation et la simulation de la cybersécurité afin d'améliorer la gouvernance de l'assurance de mission et d'établir des processus de réduction des risques dans le cadre de budgets limités. Le terme assurance de mission découle des travaux de gestion des risques menés par le Software Engineering Institute de Carnegie Mellon à la fin des années 19905. En 2010, la Defense Information Systems Agency a révisé sa cyberstratégie et a créé le programme Executive Officer-Mission Assurance. Cela met en évidence le passage de la simple protection des données à l'équilibrage des risques et entame un dialogue nécessaire pour établir une feuille de route en matière de cybersécurité. La Military Operations Research Society a recommandé une cybercommunauté de pratique, reconnaissant qu'il y a trop peu de professionnels ayant à la fois une expérience en cyber et en analyse. Les auteurs caractérisent le corpus limité de connaissances dans cette relation symbiotique. Ce document identifie les exigences opérationnelles et de recherche pour l'assurance de mission M&S soutenant la défense et la sécurité intérieure. Les techniques de M&S sont nécessaires pour la surveillance par l'entreprise des cyber-investissements, des tests et de l'évaluation, des politiques, de la formation et de l'analyse.

Une installation de démonstration d'un système de télétexte interactif à canal complet (FCT) pour les réseaux de télévision par câble avec des possibilités de communication de données bidirectionnelles a été conçue et réalisée. Dans FCT, toutes les lignes d'image sont utilisées pour les lignes de données de télétexte. Le décodeur FCT a été placé dans la mini-étoile, et l'encodeur FCT qui fournit le signal FCT a été placé dans le centre local. A partir du signal FCT, un certain nombre de lignes de données sont sélectionnées à l'aide d'un décodeur FCT supplémentaire. Ils sont placés sur les lignes d'images réservées au télétexte afin qu'un récepteur TV normal équipé d'un décodeur télétexte, puisse traiter les lignes de données sélectionnées. Pour les textes non disponibles dans le signal FCT, une commande peut être envoyée au centre local via le chemin de communication de données. Un système simple et bon marché est proposé dans lequel le nombre de pages ou de livres commandés est en principe illimité, tandis que le temps d'attente utilisé et la capacité des canaux sont limités.

Cho, Jae-Wan Lee, Yong-Bum Lee, parc Nam-Ho, Soon-Yong Lee, Jongmin Choi, Gapchu Baek, parc Sunghyun, Dong-Sun

Dans cet article, nous décrivons un système de suivi d'effecteur robotique utilisant des informations sensorielles provenant de diodes laser à motif structuré récemment annoncées, qui peuvent générer des images avec plusieurs types différents de motif structuré. L'approche du réseau de neurones est utilisée pour reconnaître l'effecteur du robot couvrant la situation de trois types de mouvement : translation, mise à l'échelle et rotation. Les caractéristiques permettant au réseau neuronal de détecter la position de l'effecteur sont extraites des images prétraitées. Les réseaux de neurones artificiels sont utilisés pour stocker des modèles et pour faire correspondre des caractéristiques d'entrée inconnues reconnaissant la position de l'effecteur du robot.Étant donné qu'un nombre minimal d'échantillons est utilisé pour différentes directions de l'effecteur du robot dans le système, un réseau de neurones artificiels avec la capacité de généralisation peut être utilisé pour des caractéristiques d'entrée inconnues. Un réseau neuronal d'anticipation avec la capacité de généralisation peut être utilisé pour des caractéristiques d'entrée inconnues. Un réseau de neurones feedforward entraîné avec l'apprentissage par propagation arrière est utilisé pour détecter la position de l'effecteur du robot. Un autre module de réseau neuronal d'anticipation est utilisé pour estimer le mouvement à partir d'une séquence d'images et pour contrôler les mouvements de l'effecteur du robot. En combinant les deux réseaux de neurones pour reconnaître l'effecteur du robot et estimer le mouvement avec l'étape de prétraitement, l'ensemble du système suit efficacement l'effecteur du robot.

Akino, Yuichi Sumida, Iori Shiomi, Hiroya Higashinaka, Naokazu Murashima, Yoshiichi Hayashida, Miori Mabuchi, Nobuhisa Ogawa, Kazuhiko

Le système de suivi respiratoire Synchrony ™ du système de radiochirurgie robotique Cyber ​​Knife ® (Accuray, Inc., Sunnyvale CA) permet le suivi en temps réel de cibles mobiles telles que les tumeurs pulmonaires et hépatiques pendant la radiothérapie. Bien que les mesures de film aient été utilisées pour l'assurance qualité du système de suivi, elles ne peuvent pas évaluer la précision du suivi temporel. Nous avons développé un système de vérification utilisant un scintillateur en plastique qui peut évaluer la précision temporelle du Cyber ​​Knife Synchrony. Un fantôme constitué d'un cadre en plastique en forme de U avec trois marqueurs de repère a été utilisé. Le fantôme a été déplacé sur une plaque de scintillateur en plastique. Pour identifier la position fantôme sur la vidéo d'enregistrement dans l'obscurité, quatre morceaux de ruban fluorescent représentant les coins d'un carré de 10 cm × 10 cm autour d'une fenêtre de 8 cm × 8 cm ont été attachés au fantôme. Pour un modèle de respiration stable, le fantôme a été déplacé avec la quatrième puissance d'une onde sinusoïdale avec des cycles de respiration de 4, 3 et 2 s et une amplitude de 1 cm. Pour simuler une respiration irrégulière, le cycle respiratoire a été varié avec des nombres aléatoires gaussiens. Une cible virtuelle a été générée au centre des marqueurs fluorescents à l'aide du système de planification de traitement MultiPlan™. Des faisceaux de photons ont été irradiés à l'aide d'une technique de suivi de référence. Dans une pièce sombre, la lumière fluorescente des marqueurs et la lumière de scintillation de la position du faisceau ont été enregistrées à l'aide d'une caméra. Pour chaque image vidéo, une matrice d'homographie a été calculée à partir des quatre positions de marqueur fluorescent, et la position du faisceau dérivée de la lumière de scintillation a été corrigée. Pour corriger le déplacement de la position du faisceau dû aux angles d'irradiation obliques et à d'autres erreurs de mesure systématiques, les valeurs de décalage ont été dérivées de mesures avec le fantôme maintenu stationnaire. Les SD moyens de position du faisceau mesurés sans mouvement fantôme étaient de 0,16 mm et 0,20 mm pour les directions latérale et longitudinale, respectivement. Pour le modèle de respiration stable, le


Voir la vidéo: CAP Coiffure brushing lisse avec pointes à lintérieur - Avenir Coiffure