Face à la démocratisation de l’IA, L’Oréal, Malakoff Humanis, BCG Gamma et Orange ont ressenti la nécessité de créer un espace d’échanges dédié à l’éthique et la responsabilité à travers l’initiative "Positive AI". Pour l’association et sa présidente, Laëtitia Orsini Sharps, le sujet est essentiel pour les entreprises et leurs parties prenantes.

Décideurs. De quel constat est née la coalition Positive IA ?

Laetitia Orsini Sharps. Les entreprises représentent le premier espace de création et de déploiement de l'intelligence artificielle. Elles jouent ainsi un rôle clé dans le développement d’une IA responsable. Pour autant, force est de constater qu’elles éprouvent des difficultés de mise en œuvre. Une étude menée par le cabinet Boston Consulting Group a révélé que 84% des entreprises pensent que l’IA responsable devrait être une priorité mais seulement 20% d’entre elles pensent avoir développé un programme adéquat. Au sein d’Orange, de L’Oréal, de Malakoff Humanis et de BCG Gamma, nous avons ressenti le besoin d’échanger entre pairs autour des bonnes pratiques. Fin 2022, nous nous sommes alliés au sein d’une association afin de fédérer les organisations engagées face aux répercussions sociétales de l’IA.

Quels sont les critères essentiels à la conception d’une IA responsable selon vous ?

Être clair sur l’ambition en veillant à ce que les objectifs et les résultats des systèmes d'IA soient justes, impartiaux et explicables, est indispensable. Plutôt que de remplacer les capacités humaines, l’IA doit rester au service et sous le contrôle de l’humain. Il s’agit également de mettre en place une gouvernance dédiée en définissant les bonnes pratiques et les processus qui permettent de garantir cette mise en œuvre.

"84% des entreprises pensent que l’IA responsable devrait être une priorité mais seulement 20% d’entre elles pensent avoir développé un programme adéquat"

Enfin, l’IA responsable n’est pas qu’un sujet d’experts. Les dirigeants doivent, eux aussi, se sentir responsabilisés à cet égard. D’où l’intérêt de formations adaptées à tous les membres de l’entreprise y compris les dirigeants. Par ailleurs, si nous voulons que notre démarche soit efficace, il faut également embarquer l'ensemble de l'écosystème, comme les fournisseurs. L’un de nos derniers ateliers juridiques consistait ainsi à rédiger une clause contractuelle afin qu’un fournisseur s’engage sur l’IA responsable. Face à tous ces défis, le plus dur est de se mettre en mouvement, et ce, avant la mise en place de la réglementation.

Quelles sont les clés pour élaborer des IA éthiques et responsables ?

Positive AI s’appuie sur les sept principes clés de l’IA responsable définis par la Commission européenne. Nous les avons rassemblés en trois axes prioritaires : justice et équité, transparence et explicabilité et gouvernance humaine. Pour chacun de ces axes, nous avons développé un référentiel de plus de 140 questions que les différents acteurs doivent se poser sur les systèmes déployés au sein de leurs organisations. Le référentiel propose également un guide des outils à disposition pour assurer une démarche d’IA responsable. Il offre ainsi des librairies en open source pour tester la transparence ou l’explicabilité de leur développement en cours. Sur la base de ce référentiel, un label peut être obtenu à la suite d’un audit conçu par des data scientists et mis en place par un tiers indépendant, à la manière des nutri-score sur les produits alimentaires.

Qu’apporte la communauté Positive AI à ses membres ?

Positive AI est une plateforme communautaire et collaborative qui permet d'échanger sur les méthodes vertueuses en matière d’IA. Cet espace contribue à partager nos expériences, notre compréhension de l’IA, de ses usages, de sa réglementation et de coconstruire des outils et guidelines y afférant. Concrètement, il s’agit d’aider les organisations dans l’application de cette IA responsable et de contribuer au débat public sur la régulation. En une phrase, passer de la théorie à la pratique.

"Si nous voulons que notre démarche soit efficace, il faut également embarquer l'ensemble de l'écosystème, comme les fournisseurs"

Nous multiplions ainsi des webinaires mensuels ouverts au plus grand nombre et des ateliers plus confidentiels pour éclairer nos membres qui, à l’heure actuelle, sont principalement de grands groupes. À l’avenir, l’objectif est d’accueillir de plus petites structures, qui représentent aussi une voix à prendre en compte. Notre partenariat avec l’institut DataScientest nous a permis de coconstruire des sessions de formation diverses qui abordent, par exemple, le cadre réglementaire ou les risques financiers de l’IA. Parmi les dernières formations en date, un contenu de deux heures consacré à la sensibilisation du Top management à l’éthique ou des formats plus longs, sur trois jours destinés à former des responsables codeurs.

Positive AI est principalement présent sur le territoire français. Des structures équivalentes existent, telles que le VDE en Allemagne, Allai aux Pays-Bas ou les IEEE au niveau international. Comparer nos référentiels permet notamment leur optimisation.

Depuis la création de Positive AI, constatez-vous certains changements ?

Il y a un an, certaines entreprises restaient dubitatives quant à l’IA. Aujourd’hui, nous ressentons tout leur intérêt. La frénésie qui touchait les grands groupes a désormais atteint les petites entreprises ainsi que les collectivités locales et autres entités publiques. En parallèle de l’AI Act, les sociétés se mettent en action. De notre côté, nous les accompagnons dans ce travail de montée en compétences avant qu’elles ne se retrouvent au pied du mur de la réglementation.

Propos recueillis par Léa Pierre-Joseph