Fujitsu, vers une exploitation efficace de vos données

L’Intelligence Artificielle étant un sujet important dans tous les comités de direction, se pose la question de l’exploitation efficace de la donnée au sein de l’entreprise. Les marchés évoluent rapidement, les départements métiers et informatiques sont sous pression, mais l’adaptation des outils et l’adoption des nouveaux usages prend du temps, surtout si la gestion de la donnée a été laissée de côté au profit d’autres investissements. Décryptage avec Yannick Bruck, Head of AI, Analytics & IoT chez Fujitsu Luxembourg.

  

Vous nous aviez rencontrés précédemment pour nous parler de l’Intelligence Artificielle en entreprise. Pourquoi aborder le sujet de la donnée maintenant?

Nous avons pu constater auprès de nos clients que discuter de la valeur ajoutée de solutions d’Intelligence Artificielle a éveillé les consciences sur l’intérêt stratégique et la valeur de la donnée.

Les clients, les employés, et en somme tous les utilisateurs finaux ont compris que l’on pouvait maintenant obtenir, et même exiger, des services personnalisés, des prix et des offres adaptés, des contrats non pas régis par des dates arbitraires mais par des événements, etc. Tout ce qui nous paraît relever du sens commun est maintenant objectivement quantifiable et calculable.

Les entreprises sont donc confrontées à un challenge: la donnée est passée d’un statut de commodité (utilisée par des applications), à un statut stratégique et une valorisation opérationnelle élevée. La difficulté réside alors dans le niveau de gestion initial, ainsi que dans la capacité à s’adapter et évoluer. Un chiffre est éloquent: selon une étude MIT-Sloan, 81% des entreprises ne comprennent pas quelles données seront nécessaires pour leurs applications en Intelligence Artificielle et assimilées.

Pouvez-vous expliciter ce que vous entendez par «gestion de la donnée»?

La donnée peut être structurée et explicite, telle une base de données applicative, ou moins structurée et diffuse, au sein d’emails ou de documents échangés. L’élément fondamental est de découvrir la donnée où elle se trouve, et de pouvoir la capturer. Que cela soit par des connecteurs, des web services, des outils issus de l’IA pour extraire des informations de documents, ou même de l’IoT pour récupérer des données environnementales ou de localisation, de nombreuses solutions existent et sont à sélectionner au cas par cas.

Le deuxième élément consiste à la cataloguer et identifier son intérêt d’un point de vue fonctionnel. Transformer cette valeur brute en une information compréhensible pour les utilisateurs et savoir où la trouver. Cette étape est fondamentale afin de disposer d’un inventaire des données disponibles et de savoir quelles analyses sont possibles. Il est aussi important d’expliciter la signification métier de la donnée: la température est-elle exprimée en degrés Celsius ou Fahrenheit? La valeur est-elle dans la norme? Doit-on la corriger avant utilisation? Cela reste fondamental pour prendre des décisions pertinentes.

Un troisième élément consiste à définir comment stocker la donnée. Doit-on la copier dans un datawarehouse ou peut-on y accéder directement? Doit-elle être modifiée et transformée? Sans oublier de valider la qualité de la donnée, c’est-à-dire un ensemble d’éléments fondamentaux (format, encodage, réalité: code postal réel, orthographe des villes,..) et business (une valeur non cohérente ne peut être exploitée en l’état).

La donnée est alors techniquement disponible et prête à être utilisée pour générer des rapports ou effectuer des analyses. Encore faut-il s’assurer qu’elle soit sécurisée et que les utilisateurs souhaitant y accéder en aient bien les droits.

Nous pouvons alors aborder le dernier élément, à savoir l’exploitation de la donnée en tant que telle. Rapports, analyses statistiques ou modèles de Machine Learning, les besoins autour de la donnée sont similaires, mais ces moyens d’exploitation doivent également faire l’objet d’une gouvernance et d’une gestion du cycle de vie afin d’en assurer la pertinence et la pérennité.

Le sujet combine des aspects technologiques mais également méthodologiques. Comment l’abordez-vous avec vos clients?

Nous privilégions la co-création. Nous travaillons avec nos clients en apportant les bonnes pratiques, notre savoir-faire et notre expérience, tandis qu’ils apportent leurs besoins, leurs contraintes et évidemment leurs données.

Nous utilisons une approche agile afin d’obtenir rapidement des résultats visibles, exploitables et un premier retour sur investissement sous quelques semaines. Il est fondamental d’aborder les données sous une approche moderne, plus agile et flexible, sans négliger les bonnes pratiques de gouvernance. Une approche traditionnelle (datawarehouse ou data lake) n’est pas à exclure, et peut même s’avérer complémentaire, mais doit s’effectuer en tâche de fond sur des données critiques, tandis que nous visons ici un ordre de grandeur en semaine. Ceci est rendu possible par une couche de virtualisation et fédération de données.

A vous entendre, cela apparaît comme idéal, mais il s’agit d’un résultat difficile à obtenir. Comment procédez-vous?

Nous avons identifié en amont les besoins propres à cette approche, que l’on retrouve sous le terme DataOps, et avons sélectionné des outils capables de la soutenir, en prenant en compte les spécificités du marché local (régulation, taille des entreprises,…).

Nous disposons d’une proposition crédible et intéressante pour tous types d’acteurs, afin de rapidement obtenir un niveau de maturité et d’équipement suffisant pour tirer parti des innovations technologiques telles que l’Intelligence Artificielle et leur intégration au sein de processus métier, pour permettre à nos clients locaux de rester compétitifs ou de prendre un avantage concurrentiel. Nous souhaitons démocratiser l’exploitation de la donnée dans le contexte de la transformation digitale actuelle.

Lire sur le même sujet: