À l’occasion du Congrès Big Data Paris se tenant les 6 et 7 mars au Palais des Congrès, Anne-Sophie Taillandier, directrice de TeraLab, fait le point sur ce concept du numérique qui joue un rôle prépondérant dans la recherche et l’industrie.
Porteur d’une révolution industrielle et concept inhérent à la recherche du 21e siècle. Le big data est un élément clé de l’histoire du stockage de l’information. Apparu pour la première fois en 1997, ce terme caractérisait dans un premier temps un problème lié à un nombre trop important de données pour qu’elles ne puissent être traitées par les systèmes informatiques. Ces derniers ont bien évolué depuis transformant ce problème en opportunité. Nous avons échangé sur ce que représente le big data aujourd’hui avec Anne-Sophie Taillandier, directrice de la plateforme big data TeraLab.
Quelle définition au big data ?
Anne-Sophie Taillandier : Le big data … grande question. Notre société, les entreprises, les institutions ont produit énormément de données ces dernières années. En effet, il y a eu une multiplication des sources (capteurs, web, service après-vente…) qui a favorisé cet accroissement. Par ailleurs, les capacités des ordinateurs se sont décuplées. On est désormais capable de traiter ces gros volumes de données.
Ces données sont très variées, elles peuvent être du texte, des mesures, des images, des vidéos, du son. Elles sont multimodales, c’est-à-dire qu’elles peuvent être combinées sous plusieurs formes. Elles contiennent donc une information riche et méritent d’être exploitées pour optimiser des produits/services déjà existants ou inventer de nouvelles approches. Toutefois ce n’est pas la quantité de données qui est important. Parfois même les plus petits jeux de données peuvent contenir une information très intéressante. Par contre, le big data permet de croiser ces informations avec des données ouvertes et peut ainsi apporter un éclairage pertinent. Finalement, je préfère parler d’innovation de la donnée plutôt que de big data, c’est plus pertinent.
Qui sont les principaux acteurs et bénéficiaires du big data ?
AST : Tout le monde est acteur et peut être bénéficiaire du big data. Tous les secteurs de l’industrie (la mobilité, le transport, l’énergie, les données géo-spatiales, les assurances…) mais aussi le secteur de la santé. Les citoyens sont particulièrement concernés par ce-dernier. La recherche est par ailleurs un acteur clé dans le big data et un partenaire essentiel pour l’industrie. Les capacités des machines permettent maintenant l’établissement de nouveaux algorithmes pour de traiter ces grandes quantités de données. Ces algorithmes évoluent vite et les limites sont sans cesse repoussées.
Les aspects sécurité et gouvernance des données sont aussi très importants. Les objets connectés, par exemple, accumulent des données sur les utilisateurs. Se pose alors la question de sécurisation de ces informations. Où vont les données ? Mais aussi qu’est-ce que j’ai le droit de faire avec ? Selon les cas d’usage, une anonymisation peut-être de mise par exemple. Les acteurs du big data sont confrontés à ce genre de questions.
A quoi sert le big data pour la société et les entreprises ?
AST : L’innovation autour de la donnée sert à développer de nouveaux services et produits, et à optimiser ceux qui existent déjà. Par exemple, prenons le cas de l’automobile. Les véhicules génèrent de données qui vont permettre notamment d’optimiser sa maintenance. Les données accumulées à partir de plusieurs véhicules peuvent également servir à la fabrication du prochain, donc c’est une aide à la conception. Ces mêmes données peuvent permettre aussi de proposer de nouveaux services aux passagers, aux professionnels, aux fournisseurs… Un autre domaine prégnant est celui de la santé. La e-santé favorise un meilleur suivi des soins et peut également faire évoluer les pratiques pour mieux s’adapter au patient.
Quelles technologies permettent de traiter le big data ?
AST : Les technologies qui permettent de traiter les données sont très variées. Il y a la partie algorithmique comme le machine learning et le deep learning. On parle aussi d’intelligence artificielle. Puis, il y a aussi toutes les architectures, les frameworks de logiciels open source ou encore les solutions payantes. Le paysage est très large. Avec le big data, les entreprises ont notamment la possibilité d’ouvrir leurs données sous forme agrégées pour développer de nouveaux services. Finalement, les technologies se développent très rapidement et influencent les choix stratégiques des entreprises en permanence.
Retrouvez l’ensemble de l’actualité de l’IMT et de ses écoles sur le big data, le machine learning, l’intelligence artificielle et toutes ses autres applications ici.
12 comments
Pingback: One Wave, farmerlabs, Predictice et MOBiDYS reçoivent un prêt d’honneur
Pingback: EUROP : tester un réseau opérateur dans une seule pièce
Pingback: Données environnementales : challenge relevé par la data science
Pingback: Terra Data : l’exposition grand public qui décode les données
Pingback: 25 termes pour comprendre l'intelligence artificielle
Pingback: I’MTech:Entrons-nous dans une nouvelle ère de la Cyber Sécurité ?-et varia – sourceserlande
Pingback: eOdyn : une nouvelle technologique d’observation des courants marins
Pingback: eOdyn : une avancée technologique dans l’observation des courants marins de surface – LABNAUT
Pingback: Quèsaco l'intelligence artificielle ?
Pingback: Le contrôle non-destructif multitechnique : la médecine des matériaux
Pingback: Anne-Sophie Taillandier - I'MTech
Pingback: EUROP : tester un réseau opérateur dans une seule pièce - Carnot Télécom & Société Numérique