L’expression « Big Data » fait référence à l’explosion du volume de données déversé sur internet. Si l’expression est apparue en 2008, le phénomène quant à lui est de plus en plus médiatisé. A l’époque, les internautes auraient déversé 480 milliards de Gigabytes sur la toile. 800 milliards deux ans plus tard.
Face à ce déluge, naviguer dans ce nouveau web demande une nouvelle science. Car en effet, non seulement le phénomène nécessite une redéfinition des ordres de grandeur (capture, stockage, recherche, partage, analyse), mais également l’appropriation de masses de données qui ne ressemblent en rien à ce qu’elles étaient. Désormais non structurées, les informations sont produites en temps réel de façon méta taguée (localisation, jour, heure), arrivant en flots continus et provenant de sources très disparates (téléphone mobile, capteurs, téléviseurs connectés, tablettes, PC fixes, PC portables, objets, machines).
Pas étonnant que le phénomène soit considéré comme l’un des grands défis informatiques de la prochaine décennie. Donner sens à ce déluge est encore une science à ses débuts. Les perspectives donnent le vertige, notamment en terme d’analyse d’opinions, de tendances industrielles, d’épidémiologie ou encore de la lutte contre la criminalité.
Face à cet eldorado numérique, les plus grands fournisseurs de solutions tels que Oracle, IBM ou plus récemment Microsoft, travaillent au développement d’offres permettant de traiter un volume très important de données répondant à ces nouvelles caractéristiques.
Et attendant que ces solutions soient à la portée de tous, pourquoi ne pas essayer Infomous, un outil simple qui permet de générer des cartographies sémantiques.
Pour celles et ceux que le sujet intéresse, ne ratez pas la première édition du Congrès BIG DATA 2012 qui se tiendra les 20 et 21 mars prochain à Paris, à la Cité Universitaire Internationale.
Source : Blog d’Henri Verdier