Article

L’impact de l’IA sur l’architecture data analytics

Par:
Xavier Billerot
L’impact de l’IA sur l’architecture data analytics

Derrière chaque nouvel exploit de l’IA se cache un actif sans lequel rien ne serait possible : la data. Les assistants virtuels dopés à l’IA générative doivent être alimentés initialement avec de la donnée pertinente et de qualité. L’analyse de données est également impactée par l’IA générative qui offre désormais la possibilité d’interroger les bases de données en langage naturel. Dès lors, les entreprises doivent choisir entre ajouter de nouvelles couches logicielles dans leur paysage applicatif, ou refondre partiellement leur système d’information. Dans tous les cas, il est nécessaire de mettre en place un cadre de gouvernance de la donnée et de l’analytics.

Gartner rappelle à ce propos les trois principes clés pour une gouvernance data et analytique efficace1 :

  1. Adopter la gouvernance des données et de l’analytique (D&A) comme une discipline globale, en s’appuyant sur un cadre adaptatif permettant d’appliquer différents styles de gouvernance en fonction du contexte et des scénarios métiers.
  2. Concevoir et développer des Proof of Concept tirant parti des capacités technologiques critiques requises. Il convient d’identifier en premier lieu la pertinence de ces technologies et leur lien avec les résultats métiers, puis d’évaluer leur aptitude à répondre à des cas d’usage spécifiques tels que la gestion des risques et la conformité.
  3. Réduire le nombre d’outils et de solutions déployés en analysant l’approche stratégique de la gouvernance des données et de l’analytique, et en exploitant les capacités technologiques disponibles sur le marché dans des scénarios de bout en bout.

Si la mise en pratique du premier principe reste propre à chaque organisation, plusieurs stratégies sont possibles pour répondre aux deux autres principes.

Une première initiative est la constitution d’un datalake d’entreprise qui va centraliser les données prioritaires à exploiter. Sur cette base, il sera possible de connecter un ou plusieurs outils d’analyse de données ou assistants virtuels.

Une seconde possibilité est de déployer un outil data analytics du marché permettant de couvrir toute la chaîne d’analyse de données, de la collecte jusqu’au reporting et à l’analyse prédictive, en passant par leur traitement. Il est toutefois nécessaire de paramétrer et développer les analyses pour le métier dans ce type d’outil.

Enfin, une troisième possibilité est d’assembler une solution logicielle autour des besoins métiers. Nous parlons ici de développer des fonctionnalités à partir d’un socle technologique open source qui laisse toute latitude à incorporer ou interfacer les composants logiciels nécessaires. La collecte de données s’appuie sur des développements d’interface, notamment via des API, tandis que les analyses sont traitées via des librairies de programme open source variées et une base de données. Le caractère open source de la solution permet par exemple de bénéficier des dernières avancées technologiques en matière d’IA.

Cette alternative a de nombreux avantages. Premièrement, elle améliore l’expérience utilisateur via une interface centrale épurée, sans boutons ou menus superflus et via un parcours optimisé. Deuxièmement, le budget est optimisé car la solution est limitée aux besoins réellement nécessaires et les frais de licence sont réduits (recours aux technologies open source). Enfin, la solution apporte une évolutivité sans limite car totalement personnalisée. L’entreprise reste alors maître de la roadmap. Elle peut envisager une architecture modulaire de type microservices sur le long terme pour déployer le data analytics sous forme d’applications métiers. 

 

1. Key Trends in Data and Analytics (D&A) – D&A Governance Trends
https://www.gartner.com/en/data-analytics/topics/data-trends