Suggested:

De la mission VILLANI à l'AI ACT : émergence d'une régulation européenne de l'IA

De la mission VILLANI à l'AI ACT : émergence d'une régulation européenne de l'IA

La régulation de l’intelligence artificielle a considérablement avancé ces derniers mois avec la finalisation du projet de règlement européen sur l’intelligence artificielle. Il serait naturellement inexact de considérer que la France serait seule à l’origine d’un texte aux inspirations multiples. Pour autant, le double processus engagé dans le cadre de la mission VILLANI et la révision de la loi de bioéthique ont amené à générer des réflexions et propositions qui ont, par la suite, trouvé écho aux plans européen et international. La reconnaissance du principe de Garantie Humaine de l’IA en est une illustration.

La mission VILLANI pour donner un sens à l'intelligence artificielle

Alors que « la montée en puissance de l’État régulateur » intervient depuis le début du XXème siècle, la construction d’un cadre juridique et normatif pour l’intelligence artificielle s’est progressivement imposée. Depuis 1940, l’IA se développe et fait son entrée dans le sillage de la cybernétique. Cette immersion bouleverse profondément nos usages, notre rapport au travail (et à l’autre) et nécessite qu’on la structure et qu’on redonne sa place aux politiques publiques dont le rôle décisif et central permettra de donner du sens à l’IA.
Avant que le Gouvernement français ne s’empare de ce sujet, l’encadrement législatif a essentiellement porté sur la prise en compte des effets numériques et d’un droit à la déconnexion, puis quelques mois plus tard, à une réflexion pour une République numérique dans un objectif de libération de l’innovation et de création d’un cadre de confiance. Ces premières constructions ont favorisé la mise en place de groupes de travail sur l’intelligence artificielle en 2017, amorçant ainsi une véritable stratégie nationale jusqu’en 2025. Cet objectif est éminemment social puisqu’il est le garant d’une humanité conservée et d’un frein à un changement de nature anthropologique. C’est dans cet esprit que la mission confiée à Cédric Villani sur l’intelligence artificielle a pris naissance.

Des tentatives de réglementation foisonnantes jusqu'à l'aboutissement de l'IA ACT

Dès 2017, des recommandations préconisent la création d’une personnalité juridique spécifique aux robots autonomes les plus sophistiqués, qui pourraient être considérés comme des personnes électroniques responsables, tenues de réparer tout dommage causé à un tiers. Prémices d’une réglementation sur le sujet, un Livre Blanc sur l’intelligence artificielle en 2020 a proposé des mesures concrètes pour accompagner la transition vers une société de l’IA en France. Ce n’est toutefois qu’en 2022 que la Commission européenne a proposé une directive présentant des règles harmonisées en matière d’IA et montrant la volonté de tendre vers un cadre commun. Souhaitant établir une hiérarchie des risques entre les systèmes dotés d’intelligence artificielle, la volonté d’une création d’un cadre juridique européen s’est imposée comme une nécessité afin notamment de limiter les risques tels que « la potentielle transformation profonde du lien entre le patient et son médecin ». Adopté par le Parlement européen le 15 juin 2023, l’IA Act s’est inscrit comme un socle réglementaire consacré pour le développement de l’IA et une volonté d’harmoniser son encadrement en garantissant aux États membres de l’UE, « l’utilisation de systèmes transparents, fiables, non discriminatoires et respectueux de l’environnement ».

La reconnaissance du principe de garantie humaine de l'IA : illustration de ce continuum entre la mission VILLANI, la loi de bioéthique et l'AI ACT

Proposée mi-2017 par Ethik-IA, le principe de Garantie Humaine de l’IA comme méthode de régulation positive de l’intelligence artificielle en santé et au-delà avait été reconnu, pour la première fois, dans le cadre des conclusions de la mission VILLANI. La Garantie Humaine renvoie à la nécessité de ne pas abandonner toute autonomie d’action ou de décision humaine dans le contexte de diffusion grandissante de l’IA en santé. Ce principe a, par la suite, été endossé par le Comité consultatif national d’éthique (CCNE) dans son avis 129 puis repris, en droit, dans la loi de bioéthique française et le projet d’AI Act européen. Dans la nouvelle loi de bioéthique1, les dispositions concernées figurent à l’article 17. Les mots « Garantie Humaine » ne figurent pas dans le texte lui-même mais sont, en revanche, très directement repris dans l’exposé des motifs du projet de loi2 et dans son étude d’impact3. S’agissant des dispositions législatives elles-mêmes, nous retrouvons la double dimension de la « garantie humaine » recommandée par l’avis 129 du CCNE : un nouveau devoir d’information sur le recours à l’IA dans la prise en charge est reconnu aux fins de permettre, dans toute la mesure du possible, un consentement libre et éclairé au protocole de soins incorporant un traitement algorithmique, et une supervision humaine dans la conception algorithmique et dans l’application en vie réelle. Néanmoins, si le principe général n’est pas formulé en tant que tel, l’article 17 impose une série d’obligations nouvelles traduisant effectivement la mise en œuvre d’éléments de supervision humaine. Dans le projet d’AI Act européen, le principe de Garantie Humaine est repris aux article 14 et 29. Le paragraphe 1 de l’article 14 énonce ainsi que les solutions d’intelligence artificielle doivent être conçues et développées de façon à pouvoir être supervisées par des humains. Cette garantie humaine doit pouvoir faire l’objet d’un suivi en vie réelle de l’intelligence artificielle. L’article 29 du projet de règlement, qui fait partie du chapitre 3 « Obligations incombant aux fournisseurs et utilisateurs de systèmes d’IA à haut risque et à d’autres parties », concerne quant à lui les obligations des utilisateurs de systèmes d’IA. Ces dispositions sont sanctionnables, en cas de respect, de sanctions équivalentes à celles du RGPD. Cette course à la régulation est ainsi un investissement contre une immersion de nouveaux modèles de risque, dont il appartient aux pouvoirs publics de se saisir régulièrement dans les années à venir.

[pdf-embedder url="https://www.sih-solutions.fr/wp-content/uploads/2023/11/014SIHMAG_v02_p08-09.pdf" title="Magazine SIH solutions"]