La visualisation analytique défriche vos masses de données

0 vue
Accéder directement au premier message non lu

Christophe Tricot

non lue,
19 août 2008, 08:59:2519/08/2008
à Groupe Carto Infos
http://www.atelier.fr/recherche/10/11082008/visualisation-analytique-masses-de-donnees-36994-.html
Le Georgia Institute of Technology développe un système analytique de traitement des informations en grande quantité. L'objectif est d'offrir aux utilisateurs une extraction des données pertinentes via une interface interactive.
Publié le 11 Aout 2008
Visualisation analytique

Des quantités de données numériques de plus en plus considérables sont générées par les secteurs de la santé, de l'informatique, ou encore de la sécurité intérieure. Les catégoriser puis les analyser est une procédure d'autant plus complexe qu'elles sont rarement structurées. Le Georgia Institute of Technology a pour ce faire opté pour les techniques de visualisation analytique. Il s'agit d'un domaine de recherche qui permettrait de passer au crible des quantités importantes d'informations, afin d'en ressortir les plus intéressantes et de les regrouper afin de faciliter la consultation pour l'utilisateur. L'objectif est de développer à terme une interface interactive, basée sur une visualisation raisonnée : le système étant capable de déterminer l'importance des données. "Réduire le temps de calcul et de traitement de quelques heures à quelques secondes fait toute la différence, étant donné que l'analyse de données est un procédé itératif et interactif", commente Alexander Gray à l'initiative du projet.

Réduction et visualisation

Le fonctionnement est le suivant : l'équipe développe des algorithmes à partir de calculs d'algèbre linéaire qui permettent de réduire significativement la dimension et le nombre de points de données dans un ensemble d'informations. C'est cette réduction de la taille qui est essentielle dans le système : elle permet en effet de traiter plus de contenu en un temps réduit et de les classifier de façon plus pertinente. "L'objectif est de transformer de grandes et complexes masses de données en modèles informatiques réduits, qui retiennent le contenu et facilitent l'extraction d'information pour les utilisateurs", indique Alexander Gray. Notons que parmi ces données peuvent aussi figurer des images haute définition.

Défricher pour déchiffrer

Une fois que les masses de données sont collectées puis traitées, les informations pertinentes seront ressorties automatiquement de la masse et visualisables via une interface interactive. Ce dispositif sera fondé sur différents éléments : machine learning, statistiques mathématiques, visualisation de l'information et surtout développement d'algorithmes plus performants. "Développer ces nouvelles méthodes permettra aux développeurs, aux analystes, aux professionnels médicaux ou encore aux biologistes de détecter les informations importantes récoltées par leurs systèmes au sein d'une montagne de données pas toujours très claires à déchiffrer", explique Haesun Park, autre membre du projet.

A lire aussi sur le site de L'Atelier :
A consulter également dans notre espace "Chroniques" :

Marion Roucheux
L'Atelier BNP Paribas


arnaud velten

non lue,
19 août 2008, 09:01:2719/08/2008
à carto...@googlegroups.com
J'aimes bien l'article sur l'humain bionique :)

2008/8/19 Christophe Tricot <tricot.c...@gmail.com>



--
FAX : +33 (0)957237327

http://business-commando.com/ Strategy, Innovation, Communication
http://artistik-intelligence-agency.com/ Competitive intelligence for artist
http://www.as-map.com/ Complexity Cartographer
http://flickr.com/photos/ethocom/sets/ My Stream
Répondre à tous
Répondre à l'auteur
Transférer
0 nouveau message