Aller au contenu principal

Pour dépasser le stade du fantasme et pouvoir concrétiser les promesses liées à l'intelligence artificielle, il est tout d'abord essentiel de comprendre quels sont les leviers d'intégration des nouvelles techniques de traitement des données au sein des entreprises.

 

L'animation de nouvelles communautés, réunissant des talents d'horizons différents, est la pierre angulaire du développement de plateformes numériques vivantes et dynamiques. Elles permettent le partage de données, d'algorithmes, de visualisations, dans le but d'exposer des services (web services) dont la valeur ajoutée s'accroît au rythme des déploiements industrialisés et quotidiens.

 

Ces initiatives réunissent les responsables métiers, le système d'information et les architectes de données (data-analyst et -scientist) autour d'un objectif commun : partager un catalogue de données, construire des modules algorithmiques intelligents, et enfin permettre une mise en production rapide de nouveaux produits ou services.

Établir un catalogue pour faciliter l'utilisation et le partage des données

L'établissement d'une cartographie des données permet de rassembler les différents acteurs autour d'une base commune et de faciliter l'accès à une information qualifiée, traitée et fiable. Un deuxième avantage significatif de cette approche est qu'elle permet de réduire la duplication et la répétition des tâches effectuées lors de la validation de la qualité de ces données. Les data scientists ont un rôle important à jouer dans cette phase amont, souvent perçue comme ingrate et à faible valeur ajoutée.

 

Si les experts soulignent le travail généralement chronophage de nettoyage, de prétraitement, de changement de format et de qualification, il s'agit néanmoins d'une étape clé pour disposer d'une base de données stable et solide pour un travail de qualité.

 

Enfin, le partage des données brutes, mais aussi des données traitées et qualifiées et des algorithmes de traitement, facilite la création d'un environnement de partage bienveillant et solidaire, véritable catalyseur de la création d'une communauté proactive et impliquée.

Co-construire des bots fonctionnels avec toutes les parties prenantes : business, IT et Data scientist.

Une manière robuste et efficace de construire le cœur algorithmique d'un produit est de procéder de manière progressive et itérative en intégrant les éléments fonctionnels module par module. Dans nos environnements agiles, il est essentiel d'intégrer une séparation fonctionnelle en amont : acquisition, pré-traitement, cœur de machine/apprentissage profond, module de restitution, etc. Cette segmentation facilite également la gestion des versions des codes produits (back et front).

 

Les ateliers de conception doivent se concentrer sur un livrable commun et un même langage : Les points de terminaison de l'API. L'utilisation de connecteurs sur ces services web, quelle que soit la technologie choisie, permet d'établir un point de passage unique de l'information, notion essentielle pour garantir la sécurité et la traçabilité.

 

Cette construction incrémentale de prototypes réalisée entre acteurs métiers, responsables informatiques et Data scientists permet d'engager la communauté mais surtout de fournir des produits viables, fonctionnels et adaptés à de multiples besoins et contraintes.

Responsabiliser les scientifiques des données par le biais de l'activité opérationnelle

Le déploiement de ces expériences de Machine et Deep-Learning en production reste une opération complexe avec de nombreux obstacles. Par crainte d'effets secondaires incontrôlés, les activités opérationnelles restent aujourd'hui réfractaires à l'utilisation opérationnelle de ces boîtes noires algorithmiques : que ce soit pour la surveillance d'un réseau électrique, la gestion de la fraude bancaire, ou la maintenance prédictive d'équipements industriels.

 

Pourtant, ces nouveaux modèles peuvent coexister avec l'ancien monde pour gagner en robustesse et en qualité. La plateforme numérique s'avère être un outil essentiel pour agréger mais aussi pour suivre et pondérer dynamiquement les méthodes traditionnelles d'une part, et les techniques de Machine Learning d'autre part.

 

Le maintien du Data scientist au plus près des opérations et du terrain permet d'envisager une sécurisation de la mise en production associée à une amélioration continue de l'approche quantitative.

 

La mise en place de plateformes numériques reste l'occasion idéale de rassembler les communautés de la donnée, en mettant en avant les bénéfices d'un meilleur partage des jeux de données, d'une facilitation lors de la phase de création, et surtout d'une production éclairée !

Partager

Nos publications

Customer churn with IA and Heka

Prédire le churn client avec l’IA

Grâce à l’exploitation des données et d’outils de Machine Learning, les entreprises peuvent améliorer de façon significative leurs activités. Le Machine Learning est un champ d'étude de l'intelligence artificielle qui permet de donner à une IA la capacité d’« apprendre » à partir de données.

2025

Lire
Clustering data for client from Heka

Visualisation et clustering des données de…

L'analyse des données de parcours clients, en particulier celles de parcours d'achat, est une étape essentielle en data marketing afin de mieux comprendre comment les clients perçoivent et interagissent avec différents produits et services d'une marque.

2025

Lire
Open data and prediction by Heka

L’open data pour la prédiction à maille fine

Alors que les IAs continuent de battre des nouveaux records, une révolution plus silencieuse prend forme dans la sphère Big Data. Il s’agit de celle de l’open data.

2025

Lire