La loi européenne sur l’IA : la tentative historique de l’Europe de réglementer l’IA pourrait-elle échouer au dernier obstacle ?
Les négociateurs doivent finaliser le premier ensemble de règles au monde régissant l’intelligence artificielle (IA), mais un vacillement cette semaine pourrait faire reculer les négociations de plusieurs années.
Salué comme une première mondiale, le projet de l’Union européenne intelligence artificielle (IA) les règles sont confrontées à un moment décisif alors que les négociateurs tentent de régler les derniers détails cette semaine – des discussions compliquées par la montée soudaine de l’IA générative qui produit un travail de type humain.
Suggéré pour la première fois en 2019, la loi européenne sur l’IA devait être la première réglementation globale sur l’IA au monde, renforçant ainsi la position du bloc de 27 pays en tant que pionnier mondial en matière de maîtrise de l’industrie technologique.
Mais le processus a été entravé par une bataille de dernière minute sur la manière de gouverner les systèmes qui sous-tendent les services d’IA à usage général comme ChatGPT d’OpenAI et le chatbot Bard de Google.
Les grandes entreprises technologiques font pression contre ce qu’elles considèrent comme une réglementation excessive qui étouffe l’innovation, tandis que les législateurs européens souhaitent des garanties supplémentaires pour les systèmes d’IA de pointe que ces entreprises développent.
Pendant ce temps, les États-Unis, le Royaume-Uni, la Chine et des coalitions mondiales comme le Groupe des 7 grandes démocraties se sont joints à la course pour élaborer des garde-fous pour cette technologie en développement rapide, soulignés par les avertissements des chercheurs et des groupes de défense des droits sur les dangers existentiels que l’IA générative représente pour l’avenir. l’humanité ainsi que les risques qui pèsent sur la vie quotidienne.
Craintes autour de l’IA générative
« Plutôt que la loi sur l’IA ne devienne la référence mondiale en matière de réglementation de l’IA, il y a une petite chance, mais une chance croissante, qu’elle ne soit pas adoptée avant les élections du Parlement européen » l’année prochaine, a déclaré Nick Reiners, analyste des politiques technologiques chez Eurasia Group. une société de conseil en risques politiques.
Il a déclaré qu’« il y avait tout simplement tellement de choses à régler » lors de ce que les responsables espèrent être un dernier cycle de négociations mercredi. Même s’ils travaillent tard dans la nuit comme prévu, ils devront peut-être se démener pour terminer au cours de la nouvelle année, a déclaré Reiners.
Lorsque la Commission européenne, l’organe exécutif de l’UE, a dévoilé le projet en 2021, elle a à peine mentionné systèmes d’IA à usage général comme les chatbots. La proposition de classer les systèmes d’IA selon quatre niveaux de risque – de minime à inacceptable – était essentiellement conçue comme une législation sur la sécurité des produits.
Bruxelles souhaitait tester et certifier les informations utilisées par les algorithmes qui alimentent l’IA, un peu comme les contrôles de sécurité des consommateurs sur les cosmétiques, les voitures et les jouets.
Cela a changé avec l’essor de l’IA générative, qui a suscité l’émerveillement en composant de la musique, en créant des images et en écrivant des essais ressemblant au travail humain.
Cela a également alimenté les craintes que cette technologie puisse être utilisée pour lancer des cyberattaques massives ou créer de nouvelles armes biologiques.
Ces risques ont conduit les législateurs européens à renforcer la loi sur l’IA en l’étendant aux modèles de fondation. Également connus sous le nom de grands modèles de langage (LLM), ces systèmes sont formés sur de vastes quantités d’œuvres écrites et d’images récupérées sur Internet.
Les modèles de base donnent aux systèmes d’IA générative tels que ChatGPT la capacité de créer quelque chose de nouveau, contrairement à l’IA traditionnelle, qui traite les données et accomplit les tâches en utilisant des règles prédéterminées.
Le chaos du mois dernier chez OpenAI, soutenu par Microsoft, qui a construit l’un des modèles de base les plus célèbres, GPT-4, a renforcé pour certains dirigeants européens les dangers de permettre à quelques sociétés dominantes d’IA de se contrôler elles-mêmes.
Alors que Le PDG Sam Altman a été licencié et rapidement réembauchécertains membres du conseil d’administration, profondément réservés quant aux risques pour la sécurité posés par l’IA, ont quitté le secteur, signalant que la gouvernance d’entreprise de l’IA pourrait devenir la proie de la dynamique des conseils d’administration.
La résistance de la France, de l’Italie et de l’Allemagne
« Au moins, les choses sont désormais claires » : des entreprises comme OpenAI défendent leurs entreprises et non l’intérêt public, a déclaré le commissaire européen Thierry Breton lors d’une conférence sur l’IA en France quelques jours après le tumulte.
La résistance aux règles gouvernementales concernant ces systèmes d’IA est venue d’un endroit improbable : France, Allemagne et Italie. Les trois plus grandes économies de l’UE ont réagi avec un document de position plaidant en faveur de l’autorégulation.
Ce changement d’avis a été considéré comme une mesure visant à aider les acteurs locaux de l’IA générative tels que la startup française Mistral AI et l’allemand Aleph Alpha.
Derrière cela « se cache une détermination à ne pas laisser les entreprises américaines dominer l’écosystème de l’IA comme elles l’ont fait dans les vagues précédentes de technologies telles que le cloud (informatique), le commerce électronique et les médias sociaux », a déclaré Reiners.
Un groupe d’informaticiens influents a publié une lettre ouverte avertissant qu’un tel affaiblissement de la loi sur l’IA serait « un échec historique ».
Pendant ce temps, les dirigeants de Mistral se sont disputés en ligne avec un chercheur d’une organisation à but non lucratif soutenue par Elon Musk qui vise à prévenir le « risque existentiel » lié à l’IA.
L’IA est « trop importante pour ne pas être réglementée, et trop importante pour ne pas être bien réglementée », a déclaré Kent Walker, directeur juridique de Google, dans un discours prononcé à Bruxelles la semaine dernière. « La course devrait porter sur les meilleures réglementations en matière d’IA, et non sur les premières réglementations en matière d’IA. »
Les modèles de fondation, utilisés pour un large éventail de tâches, s’avèrent la question la plus épineuse pour les négociateurs de l’UE, car leur réglementation « va à l’encontre de la logique de l’ensemble de la loi », qui repose sur les risques posés par des utilisations spécifiques, a déclaré Iverna McGowan, directrice du Bureau européen du Centre pour la démocratie et la technologie, une organisation à but non lucratif de droits numériques.
La nature des systèmes d’IA à usage général signifie que « vous ne savez pas comment ils sont appliqués », a-t-elle déclaré.
Dans le même temps, des réglementations sont nécessaires « parce que sinon, tout au long de la chaîne alimentaire, il n’y a aucune responsabilité » lorsque d’autres entreprises construisent des services avec elles, a déclaré McGowan.
Altman a proposé une agence américaine ou mondiale cela permettrait d’obtenir une licence pour les systèmes d’IA les plus puissants. Il a suggéré cette année qu’OpenAI pourrait quitter l’Europe s’il ne pouvait pas se conformer aux règles de l’UE, mais il est rapidement revenu sur ces commentaires.
Dernière chance de parvenir à un consensus sur l’IA
Aleph Alpha a déclaré qu’une « approche équilibrée est nécessaire » et a soutenu l’approche européenne basée sur les risques. Mais cela n’est « pas applicable » aux modèles de fondation, qui nécessitent des réglementations « plus flexibles et plus dynamiques », a déclaré la société allemande d’IA.
Les négociateurs de l’UE doivent encore résoudre quelques autres points controversés, notamment une proposition visant à interdire complètement la reconnaissance faciale publique en temps réel.
Les pays souhaitent une exemption afin que les forces de l’ordre puissent l’utiliser pour retrouver des enfants disparus ou des terroristes, mais les groupes de défense des droits craignent que cela ne crée effectivement une base juridique pour la surveillance.
Les trois branches du gouvernement de l’UE sont confrontées mercredi à l’une de leurs dernières chances de parvenir à un accord.
Même s’ils le font, les 705 législateurs du bloc doivent encore approuver la version finale. Ce vote doit avoir lieu d’ici avril, avant de commencer la campagne pour les élections européennes de juin.
La loi n’entrerait pas en vigueur avant une période de transition, généralement de deux ans.
S’ils ne peuvent pas arriver à temps, la législation sera suspendue jusqu’à la fin de l’année prochaine – après l’entrée en fonction de nouveaux dirigeants européens, qui pourraient avoir des points de vue différents sur l’IA.
« Il y a de fortes chances que ce soit effectivement le dernier, mais il y a également des chances que nous ayons encore besoin de plus de temps pour négocier », a déclaré Dragos Tudorache, un législateur roumain co-dirigeant les négociations sur la loi sur l’IA au Parlement européen, lors d’un panel. discussion la semaine dernière.
Son bureau a indiqué qu’il n’était pas disponible pour un entretien.
« C’est encore une conversation très fluide », a-t-il déclaré lors de l’événement à Bruxelles. « Nous allons vous laisser deviner jusqu’au tout dernier moment ».