News Actu links

Des sociétés françaises lancent un label d’IA responsable

intelligence artificielle

Bruxelles a développé un cadre précis, qui devrait prochainement entrer en vigueur, concernant l’intelligence artificielle. Afin de l’anticiper, quatre sociétés célèbres dans leurs secteurs respectifs ont lancé le 17 novembre 2022 une initiative. Elles veulent qu’à terme, cette dernière devienne incontournable partout en Europe dans la production d’une intelligence artificielle responsable.

L’Union européenne envisage de réglementer la création d’IA (intelligence artificielle) d’ici 2025. Pour se préparer à cet encadrement, Orange France, Malakoff Humanis, L’Oréal et BCG GAMMA ont déployé Positive AI. Un label destiné à améliorer l’accessibilité à l’éthique dans l’intelligence artificielle et à le rendre plus concret, pour chaque entreprise.

La mise en place de ce projet devrait profiter aux travailleurs indépendants dans l’IA. Des professionnels pouvant devenir consultants portés en signant une convention de portage avec un établissement proposant ce dispositif. Ce contrat désigne le document qui détermine les obligations réciproques des deux parties. Il contient des données capitales, notamment sur les avantages promis à l’employé.

Positive IA suit les conseils de Bruxelles

Positive AI représente concrètement une association de loi 1901. Avant elle, d’autres initiatives du même type ont déjà été lancées. Labelia Labs a par exemple inventé un label IA de confiance et responsable baptisé Labelia. Avec leur projet, les quatre sociétés françaises précédemment citées ambitionnent :

  • D’offrir une plateforme d’échanges et un référentiel aux scientifiques des données et des dirigeants ;
  • De fournir ensuite un label dédié à l’IA responsable.

La directrice des opérations grand public chez Orange et présidente du label, Laëtitia Orsini Sharps, explique que celui-ci :

A pour ambition d’évaluer le niveau de maturité des entreprises de toute taille et de tout secteur en matière d’IA responsable, de mettre à disposition un outil permettant d’identifier des leviers pour ensuite progresser, et enfin de leur permettre d’obtenir un label après un audit indépendant.

Le système de référence est déjà disponible. Il est basé sur les principes fondamentaux de l’intelligence artificielle responsable énoncés par l’Union européenne. Avant de déployer Positive AI, certains de ses instigateurs ont inscrit les suggestions de Bruxelles annoncées en 2019 dans un guide. Intitulé « Ethics Guidelines for Trustworthy Artificial Intelligence », ce dernier a été rédigé par le groupe d’experts AI HLEG.

Des axes d’orientation ont été définis

Ce référentiel tourne autour de trois secteurs prioritaires. À commencer par l’équité et la justice, pour éviter que des biais d’inégalité de traitement ou de discrimination apparaissent :

  • Dans les algorithmes ;
  • Dans les données.

Le dispositif mise aussi sur l’explicabilité et la transparence pour que ces derniers soient reproductibles et interprétables au moins. Au mieux, l’objectif est d’assurer leur compréhensibilité et accessibilité, entre autres.

Enfin, le troisième domaine porte sur la conservation de l’intervention de l’humain. L’idée est de garantir l’aptitude des organisations à surveiller et rectifier les décisions automatisées. Ceci afin que les solutions d’IA soient fabriquées pour une coopération personne-machine profitant à l’humain. À partir de l’année prochaine, la délivrance de la certification Positive AI reposera sur ce système de référence.

Un rapport de BCG GAMMA révèle que l’intelligence artificielle responsable devrait représenter l’une des thématiques clés pour les cadres dirigeants. Mais en réalité, seulement 16 % des organisations pensent disposer d’un plan mature en lien avec ce concept. Avec Malakoff Humanis, Orange France, et L’Oréal, l’entreprise souligne qu’un rôle important s’impose aux sociétés afin que l’IA mélange :

  • Conformité aux droits humains ;
  • Potentiel innovatif.

Ces initiateurs du label ont constaté que celles-ci peinent à opérationnaliser les préconisations sur l’IA responsable. D’où leur décision de construire un référentiel comportant les principes majeurs de ce dernier cités par l’Union européenne.