Intelligence artificielle : le Parlement européen veut renforcer les règles dans l’UE

Avec leur vote du mercredi 14 juin, les parlementaires européens défendent une interdiction de la reconnaissance biométrique à distance et plus de transparence pour les intelligences artificielles génératives, telles que ChatGPT. Les négociations avec les Etats membres doivent commencer rapidement.

Les députés européens ont approuvé des "limites claires et précises" pour l'intelligence artificielle, selon les mots de la présidente de l'institution Roberta Metsola
Les eurodéputés ont approuvé des “limites claires et précises” pour l’intelligence artificielle, selon les mots de la présidente du Parlement européen Roberta Metsola – Crédits : Mathieu Cugnot / Parlement européen

Dernière ligne droite pour une nouvelle régulation du numérique dans l’Union européenne. A une écrasante majorité, les eurodéputés ont adopté mercredi 14 juin leur position sur une législation visant l’intelligence artificielle (499 voix pour, 28 contre et 93 abstentions).

Proposé par la  en avril 2021, le texte ambitionne à la fois de développer l’intelligence artificielle face aux concurrences américaine ou chinoise et d’encadrer les risques qu’elle fait peser sur les droits fondamentaux des êtres humains. Certaines pratiques seraient bannies de l’UE, à l’image de la notation sociale pour évaluer les citoyens selon leur comportement.

Les eurodéputés ont approuvé une version renforcée du règlement, incluant une interdiction de la reconnaissance biométrique à distance. A l’issue du vote, la présidente du Parlement européen Roberta Metsola a salué “l’approche équilibrée et centrée sur l’humain” du texte. “Il n’y aura pas de compromis possible : dès que la technologie avance, il faut que cela aille de pair avec le respect des droits fondamentaux et des valeurs démocratiques”, a-t-elle ajouté, citant par exemple la protection de la vie privée.

Le règlement doit encore faire l’objet d’un accord entre eurodéputés et Etats membres. L’Union européenne entend ainsi être la première au monde à se doter d’un cadre juridique exhaustif pour encourager l’innovation, tout en limitant les dérives de l’IA. L’enjeu est de taille, les technologies concernées par le texte allant des filtres anti-spams des boîtes mails, a priori inoffensifs, jusqu’aux outils plus controversés d’identification des individus dans l’espace public.

Interdiction de la reconnaissance biométrique à distance

L’un des sujets les plus sensibles de ce texte était justement la reconnaissance biométrique à distance en direct, cette technique qui permet par exemple à une caméra d’identifier une personne dans une foule. Les conservateurs du Parti populaire européen (PPE) voulaient introduire des exceptions pour que les forces de police puissent utiliser ces outils sous certaines conditions.

C’est finalement une interdiction totale de la reconnaissance en temps réel qui a été approuvée par les parlementaires à Strasbourg. “Nous devons avoir le courage d’interdire les usages qui sont inacceptables”, a défendu le  italien Brando Benifei (S&D).

Les Etats membres ne sont pas de cet avis. Leur position votée en décembre dernier prévoit que la police puisse utiliser la reconnaissance fondée sur des données biométriques en cas d’attaque terroriste ou pour rechercher un enfant disparu. Ces opérations seraient réalisées sous la houlette d’une autorité indépendante, judiciaire ou administrative. La version proposée par la Commission européenne en 2021 ouvrait déjà la voie à la reconnaissance biométrique à distance et en direct pour les mêmes raisons.

Parmi les interdictions réclamées par le Parlement européen, figure également les systèmes de reconnaissance des émotions utilisés par les forces de l’ordre, pour la gestion des frontières, au travail et à l’école. Une nouveauté par rapport à la position du Conseil, qui a seulement introduit une obligation d’informer les utilisateurs s’ils sont soumis à une IA pouvant reconnaître leur enthousiasme ou leur colère. Les émotions ne peuvent pas être numérisées. La volonté, le jugement, la conscience nous appartiennent”, a insisté la présidente du Parlement européen Roberta Metsola.

La police prédictive fondée sur les données personnelles ou la création de bases de données de reconnaissance faciale via la vidéosurveillance ont également été ajoutées à la liste des interdictions par les députés européens.

ChatGPT dans le viseur

La règlementation doit aussi concerner les IA génératives, telles que ChatGPT ou MidJourney. Ces systèmes sont capables de générer des textes, des sons ou des images en réutilisant des contenus déjà existants.

Les députés européens ont introduit une plus grande protection du droit d’auteur. L’utilisation de données couvertes par la propriété intellectuelle pour l’entraînement des outils d’intelligence artificielle devra être rendue publique.

Les systèmes d’IA générative devront aussi respecter d’autres exigences de transparence, en mentionnant par exemple aux utilisateurs que le contenu a été généré par de l’intelligence artificielle. Les concepteurs auront par ailleurs l’obligation d’offrir des garanties contre la génération de contenus illicites.

Les rapporteurs du Parlement européen défendent un texte “équilibré” qui ne bride pas l’innovation en matière d’IA en Europe. Les eurodéputés ont ainsi prévu des exceptions pour les activités de recherche et les composants d’intelligence artificielle sous licence libre.

Et ensuite ?

Le Parlement européen est désormais prêt à négocier avec les Etats membres et la Commission européenne en . Reste que le règlement ne devrait pas entrer en application avant 2026, dans le meilleur des cas, les délais d’application étant souvent de deux ans. La présidente Roberta Metsola a toutefois admis des “inquiétudes” face aux risques de manipulation à l’approche des élections européennes de juin 2024. De là à accélérer l’entrée en vigueur du règlement si un accord intervenait rapidement entre les institutions ? “Il est possible que les entreprises s’alignent sur ces règles en amont de l’application de la législation”, a avancé le député Brando Benifei.

Signe que les législateurs de l’UE tiennent à ce texte, ces discussions doivent débuter dès mercredi soir. Parmi d’autres, le sujet de l’identification biométrique à distance fera sans doute l’objet de longues heures de négociations entre eurodéputés et Etats membres. Le corapporteur roumain Dragoş Tudorache (Renew) l’a admis mercredi : “Nous avons du pain sur la planche avec le Conseil”.

https://www.touteleurope.eu/economie-et-social/intelligence-artificielle-le-parlement-europeen-veut-renforcer-les-regles-dans-l-ue/

  • Le recours à l’intelligence artificielle (IA) est interdit pour la surveillance biométrique, la reconnaissance des émotions et la police prédictive
  • Les systèmes d’IA générative comme ChatGPT doivent mentionner que le contenu a été généré par une IA
  • Les systèmes d’IA utilisés pour influencer les électeurs lors des élections sont considérés comme présentant un risque élevé
Les nouvelles règles interdisent les systèmes d'IA pour la notation sociale ou la catégorisation biométrique. @AdobeStock_Goodpics   
Les nouvelles règles interdisent les systèmes d’IA pour la notation sociale ou la catégorisation biométrique. @AdobeStock_Goodpics

Les règles viseront à promouvoir l’adoption d’une l’IA axée sur le facteur humain, et à protéger la santé, la sécurité, les droits fondamentaux et la démocratie de ses effets néfastes.

Mercredi, le Parlement a adopté sa position de négociation concernant la législation sur l’intelligence artificielle par 499 voix pour, 28 contre et 93 abstentions, avant les discussions avec les États membres sur la forme finale de la législation. Les règles garantiraient que l’IA qui est développée et utilisée en Europe soit pleinement conforme aux droits et valeurs de l’UE, notamment sur la surveillance humaine, la sécurité, la protection de la vie privée, la transparence, la non-discrimination et le bien-être social et environnemental.

Pratiques interdites en matière d’IA


Les règles suivent une approche fondée sur les risques et établissent des obligations pour les fournisseurs et ceux qui déploient des systèmes d’iIA en fonction du niveau de risque que l’IA peut générer. Les systèmes d’IA présentant un niveau de risque inacceptable pour la sécurité des personnes seront donc interdits, comme ceux qui sont utilisés pour la notation sociale (classifiant les personnes en fonction de leur comportement social ou de leurs caractéristiques personnelles) . Les députés ont élargi la liste pour inclure des interdictions des utilisations intrusives et discriminatoires de l’IA, telles que:

– les systèmes d’identification biométriques à distance en « temps réel » dans les espaces accessibles au public;
– les systèmes d’identification biométrique à distance « a posteriori », à la seule exception des forces de l’ordre pour la poursuite de crimes graves, et seulement après autorisation judiciaire;
– les systèmes d’identification biométrique utilisant des caractéristiques sensibles (par exemple, le genre, la race, l’origine ethnique, le statut de citoyen, la religion, l’orientation politique);
– les systèmes de police prédictive (fondés sur le profilage, la localisation ou le comportement criminel passé);
– les systèmes de reconnaissance des émotions utilisés dans les services répressifs, la gestion des frontières, le lieu de travail et les établissements d’enseignement;
– la saisie non ciblée d’images faciales provenant d’internet ou de séquences de vidéosurveillance en vue de créer des bases de données de reconnaissance faciale (ce qui constitue une violation des droits humains et du droit au respect de la vie privée).

Systèmes d’IA à haut risque


Les députés ont veillé à ce que la classification des applications à haut risque inclue désormais les systèmes d’IA qui portent gravement atteinte à la santé, à la sécurité et aux droits fondamentaux des personnes ou à l’environnement. Les systèmes d’IA utilisés pour influencer les électeurs et le résultat des élections, ainsi que les systèmes d’IA utilisés dans les systèmes de recommandation exploités par les plateformes de médias sociaux (ayant plus de 45 millions d’utilisateurs) ont été ajoutés à la liste des systèmes à haut risque.

Obligations pour les systèmes d’IA à usage général


Les systèmes d’IA à usage général constituent un développement nouveau dans le domaine de l’IA, qui évolue rapidement. Les fournisseurs de tels systèmes devront évaluer et atténuer les risques potentiels (dans les domaines de la santé,de la sécurité, des droits fondamentaux, de l’envirennement, la démocratie et l’état de droit). Ils devront aussi enregistrer leurs modèles dans la base de données de l’UE avant leur mise en circulation sur le marché européen. Les systèmes d’IA générative basés sur de tels modèles, comme ChatGPT, devront respecter les exigences en matière de transparence (mentionner que le contenu est généré par l’IA, aider également à distinguer les fausses images des vraies) et offrir des garanties contre la génération de contenus illicites. Des résumés détaillés des données protégées par le droit d’auteur utilisées pour la formation des IA devront également être rendus publics.

Soutenir l’innovation et protéger les droits des citoyens


Pour encourager l’innovation en matière d’IA et soutenir les PME, les députés ont ajouté des exceptions pour les activités de recherche et les composants d’IA fournis dans le cadre de licences libres. La nouvelle législation encourage ce que l’on appelle les « bacs à sable réglementaires pour l’IA », ou les environnements de mise en situation, mis en place par les autorités publiques pour tester l’IA avant son déploiement.

Enfin, les députés veulent renforcer le droit des citoyens à porter plainte contre les systèmes d’IA, et à recevoir des explications sur les décisions fondées sur des systèmes d’IA à haut risque qui ont une incidence significative sur leurs droits fondamentaux. Les députés ont aussi révisé le rôle du Bureau européen de l’IA, qui serait chargé de surveiller la manière dont le règlement relatif à l’IA est mis en œuvre.

Citations


Le rapporteur Brando Benifei (S&D, Italie) a déclaré à la suite du vote: “Aujourd’hui, tous les regards sont tournés vers nous. Alors que les grandes entreprises technologiques tirent la sonnette d’alarme au sujet de leurs propres créations, l’Europe est allée de l’avant et a proposé une réponse concrète aux risques que l’IA commence à poser. Nous voulons exploiter le potentiel positif de l’IA en termes de créativité et de productivité, mais nous nous battrons aussi pour protéger notre position et contrer les dangers qui pèsent sur nos démocraties et nos libertés lors des négociations avec le Conseil”.

Le corapporteur Dragoş Tudorache (Renew, Roumanie) a ajouté: “La loi sur l’IA donnera le ton au niveau mondial en matière de développement et de gouvernance de l’intelligence artificielle, en veillant à ce que cette technologie, appelée à transformer radicalement nos sociétés grâce aux avantages considérables qu’elle peut offrir, évolue et soit utilisée dans le respect des valeurs européennes que sont la démocratie, les droits fondamentaux et l’État de droit ».

Prochaines étapes


Les négociations avec le Conseil sur la forme finale de la législation commenceront dès aujourd’hui.

Conférence de presse


Les corapporteurs Brando Banifei (S&D, Italie) et Dragoş Tudorache (Renew, Roumanie) organiseront une conférence de presse avec la Présidente du Parlement, Roberta Metsola, aujourd’hui, le 14 juin, à 13h30 pour expliquer les résultats du vote de ce jour et les prochaines étapes.

Avec cette législation, les députés répondent aux propositions des citoyens de la Conférence sur l’avenir de l’Europe sur la garantie d’un contrôle humain de tous les processus liés à l’IA (proposition 35(3)), sur la pleine utilisation du potentiel de l’IA digne de confiance (35(8)) et sur l’utilisation de l’IA et des technologies de traduction pour surmonter les barrières linguistiques (37(3)).

LOI EUROPÉENNE SUR L’INTELLIGENCE ARTIFICIELLE :  PREMIÈRE MONDIALE – février 2024

C’est une avancée sans précédent. Vendredi 2 février, les États membres de l’Union européenne ont donné leur aval à une législation historique pour réguler l’intelligence artificielle (IA) après des négociations intenses sur la balance entre innovation et sécurité.

Alors que la Chine dispose déjà de règles concernant l’IA, le cadre juridique européen se distingue par son envergure.

Thierry Breton, le commissaire européen en charge du dossier, a salué cette réglementation comme étant « historique, une première mondiale. La législation sur l’IA a suscité beaucoup d’émotions, à juste titre ! Aujourd’hui, les États ont approuvé l’accord politique de décembre, reconnaissant l’équilibre parfait trouvé par les négociateurs entre innovation et sécurité« .

Marianne Tordeux Bitker, France Digitale, souligne que la législation « impose des obligations significatives, bien qu’elle comporte quelques ajustements pour les start-ups et les PME ». Elle craint néanmoins l’apparition de « barrières réglementaires supplémentaires qui pourraient avantager la concurrence américaine et chinoise« . Aux réticences des professionnels s’ajoutent celles des États, en effet, après plus de sept mois de discussions et d’incertitudes, la France a finalement décidé, le vendredi 2 février, de ratifier l’AI Act. Pour le gouvernement français et le président Emmanuel Macron, le compromis obtenu est un pas en arrière, mais Paris estime avoir remporté la bataille à long terme. Jusqu’au dernier jour, la France a tenté en vain d’obtenir des concessions supplémentaires au nom de la protection de ses start-up d’IA, notamment en ce qui concerne la régulation des « modèles de fondation », des logiciels de grande envergure capables de générer du texte ou des images, fabriqués par certaines entreprises françaises ainsi que par des géants tels que Google ou OpenAI, le créateur du robot conversationnel ChatGPT. Toutefois, cette préoccupation n’est pas uniquement française. Berlin a également exprimé des craintes similaires quant au développement des start-ups européennes en matière d’IA.

En termes concret, les contraintes seront renforcées uniquement pour les systèmes les plus puissants, considérés à « haut risque », tels que ceux utilisés dans les infrastructures critiques, l’éducation, les ressources humaines ou le maintien de l’ordre, seront soumis à diverses obligations, telles que la nécessité d’un contrôle humain sur les machines, la fourniture d’une documentation technique et la mise en place d’un système de gestion des risques. Les interdictions seront rares et se concentreront principalement sur les applications contraires aux valeurs européennes, comme les systèmes de notation citoyenne ou de surveillance de masse mis en place en Chine, ainsi que sur l’identification biométrique à distance des personnes dans les lieux publics. Cependant, les exemptions seront accordées pour certaines missions des forces de l’ordre, notamment dans la lutte contre le terrorisme. Le Parlement européen devra encore approuver définitivement le compromis final au printemps, qui ne pourra plus être modifié. Certaines règles entreront en vigueur six mois après l’adoption, tandis que d’autres dispositions prendront effet deux ans plus tard.

Les députés sont prêts à négocier les règles pour une IA sûre et transparente | Actualité | Parlement européen (europa.eu)