article banner
Article

IA, robotique et audit interne : voyage en terres inconnues ?

Des avancées technologiques au cœur du changement

L’Intelligence artificielle (IA) va engendrer des disruptions bien plus significatives que toutes les autres avancées technologiques que nous avons pu connaitre jusqu’à maintenant. Le volume exponentiel des datas disponibles permet de manière toujours plus fine de simuler l’intelligence, de faire en sorte que cette dernière ait la capacité de prendre des décisions en fonction de sa compréhension d’une situation donnée. Selon l’enquête « Prédiction IA 2020 » de février 2020, 42% du panel des entreprises s’est renseigné sur l’IA, 18% l’ont déjà mis en œuvre et 23% ont des projets dans ce domaine.

Voici quelques exemples des principaux usages qui se développent :

  • La vision, afin de reconnaitre un objet, une personne, un paysage,
  • Le langage, écrit ou parlé permettant de réaliser des traductions automatiques, analyser de sentiments, reproduire des voix,
  • L’analyse automatique, en « comprenant » une requête et lui associant des résultats pertinents,
  • Le discernement et la décision pour conduire, soigner, etc.

Forbes prévoit que les revenus mondiaux provenant d’applications utilisant l’IA passeront de 358 millions de dollars en 2016 à 31,2 milliards de dollars à l’horizon 2025.

Bien que l’IA offre un large éventail d’opportunités aux entreprises, il existe aussi de nombreux défis à surmonter lors de son implémentation. Il est important de préciser le cadre général dans lequel s’inscrit son utilisation et notamment le fait qu’elle vient en soutien de la stratégie et des objectifs d’une part, et qu’elle s’inscrit dans un cadre éthique d’autre part. L’audit interne doit pouvoir s’assurer que l’entreprise a les compétences requises et le bon cadre de gouvernance en place afin de garantir l’implémentation efficace et la surveillance de l’IA.

2021 and beyond : le rôle central de l’audit interne

L’avènement de l’IA induit de grands changements pour les auditeurs, qui voient leur fonction et rôles évoluer dans un contexte où la diversité des risques liés est encore largement inconnue.

Ainsi, l’audit interne voit son champ d’actions évoluer et de nouveaux sujets s’imposer à elle.

Elle se doit d’endosser un rôle de « vigie » et d’alerte, pour être en mesure de fournir une assurance à la fois sur l’ensemble des risques opérationnels liés aux projets de déploiement de l’IA dans l’entreprise et sur les risques associés à son utilisation, dont notamment le détournement de sa finalité initiale. Cela devra inclure la conception, la performance, la surveillance, la gouvernance et l’éthique des processus basés sur l’IA.

Sur ce dernier point, le sujet est particulièrement sensible et complexe car l’éthique ne procède pas de la Loi, puisqu’intimement liée à la culture, à l’histoire, aux religions, rendant le concept variable en fonction des individus et des régions du monde dans lesquelles un Groupe est présent. Une question de taille puisqu’un Groupe ne devrait avoir qu’une position unique, documentée et mondiale sur ce sujet.

L’audit interne doit aussi anticiper. Il lui est essentiel de se préparer dès maintenant pour garantir le suivi du rythme des développements et faire appel au soutien d’experts le cas échéant, lui permettant ainsi de fournir, sans discontinuité et en temps voulu, l’assurance aux entreprises de la maîtrise de tous les risques et ce dans leurs différentes facettes. Dans ce domaine, les risques sont nombreux avec de possibles impacts simultanés sur des domaines variés tels que la production, le marketing, l’image et la réputation.

En outre, inclure l’audit interne dès la genèse d’un projet IA pour accompagner activement l’entreprise dans son déploiement, sans attendre qu’elle en ait commencé le processus d’implémentation pour intervenir, devra devenir la norme. Les projets d’IA et leurs cycles de vie seront ainsi passés en revue et intégrés aux programmes d’audit au plus tôt, pour anticiper et traiter les nombreux risques et arbitrer sereinement les enjeux qui sont soulevés par ces innovations.

L’objectif est ici d’éviter à l’entreprise des investissements humains et financiers inutiles et des engagements auprès d’investisseurs ou de clients impossibles à tenir par méconnaissance des écueils inhérents au projets d’IA ; autant d’embûches qui nuiraient à sa réputation mais qui sont évitables.

Dans ce cadre, l’audit interne doit être en mesure de couvrir des thématiques aussi diverses et variées que la conformité éthique du ou des programmes d’IA mis en place (au regard des valeurs de l’entreprise ou, sans entrer tout de suite dans le code, de la gouvernance du projet et l’adéquation entre l’expression de besoin originelle et la solution livrée, et surtout l’adéquation entre la raison d’être du programme et son utilisation réelle dans les faits).

Le sujet de l’éthique et de la responsabilité algorithmique sont des enjeux de société cruciaux, qui s’imposent à l’entreprise quand il s’agit d’IA. En effet, comprendre le fonctionnement de tous les algorithmes, notamment ceux utilisant l’Intelligence Artificielle, est complexe et une IA « capable » de prise de décision n’est que le reflet de l’Humain, de ses jugements, de ses biais cognitifs et de la société imparfaite qui l’a créée.

L’IA est un donc le sujet idéal pour mettre en œuvre le concept de « risk management by design » afin d’intervenir le plus en amont possible dans la maîtrise des risques.

Associé
Nicolas Gasnier Duparc Rencontrez Nicolas