Bruxelles envisage d’interdire provisoirement la reconnaissance faciale – EURACTIV.fr

[ad_1]

La Commission européenne pourrait décréter l’interdiction temporaire des technologies de reconnaissance faciale utilisées à la foi dans les secteurs public et privé, selon un « livre blanc » sur l’intelligence artificielle.

Si les plans de la Commission se réalisent, plusieurs projets lancés par des pays membres devront s’interrompre, comme celui que prépare l’Allemagne pour instaurer la reconnaissance faciale automatique dans 134 gares et 14 aéroports. La France a également l’intention d’établir un cadre légal permettant de rendre les systèmes de vidéo surveillance capables d’effectuer de la reconnaissance faciale.

Le document de la Commission, qui donne un aperçu des propositions destinées à élaborer une approche européenne de l’intelligence artificielle (IA), stipule qu’un futur cadre réglementaire pourrait « inclure une interdiction provisoire de l’utilisation des techniques de reconnaissance faciale dans les espaces publics ».

Le texte ajoute que « l’utilisation des techniques de reconnaissance faciale par des acteurs publics ou privés dans des espaces publics serait interdite pour période définie (3 à 5 ans par exemple), durant lesquels une méthodologie rigoureuse destinée à évaluer l’impact de cette technologie et d’éventuelles mesures de gestion des risques pourraient être identifiées et développées ».

Cinq options de réglementation 

Au-delà de la question de la reconnaissance faciale, le premier jet du livre blanc, dont la version définitive devrait être publiée en février par la Commission, présente cinq options de régulation de l’intelligence artificielle à l’échelle européenne.

Les différents secteurs de réglementation examinés le document sont : la labellisation volontaire ; les normes sectorielles concernant l’administration publique et la reconnaissance faciale ; les normes obligatoires axées sur le risque pour les applications à risque élevé ; la sécurité et la responsabilité ; la gouvernance.

Un dispositif de labellisation volontaire pourrait prendre la forme d’un instrument juridique permettant aux développeurs de « choisir de se conformer, sur une base volontaire, aux normes d’une intelligence artificielle éthique et fiable ». Si le respect des normes était garanti dans ce domaine, un « label » d’intelligence artificielle éthique ou digne de confiance serait accordé, assorti de conditions contraignantes.

La deuxième option porte sur une question d’intérêt général : l’utilisation de l’intelligence artificielle par les pouvoirs publics, ainsi que sur l’emploi des technologies de reconnaissance faciale en général. Dans le premier domaine, le document indique que l’UE pourrait adopter une approche semblable à celle adoptée par le Canada dans sa Directive sur la prise de décision automatisée. Celle-ci établit des normes minimales pour les ministères qui souhaitent utiliser un système de décision automatisé.

Quant à la reconnaissance faciale, le document de la Commission met en évidence les dispositions du règlement général sur la protection des données de l’UE, qui donnent aux citoyens « le droit de ne pas faire l’objet d’une décision fondée uniquement sur un traitement automatisé, y compris le profilage ».

Dans le troisième secteur que la Commission s’apprête à réglementer, les instruments juridiquement contraignants ne concerneraient que les « applications à haut risque de l’intelligence artificielle ». Le document indique que « cette approche fondée sur le risque serait axée sur les situations où la population est en danger ou lorsqu’un intérêt juridique important est en jeu ».

Les soins de santé, les transports, la police et le système judiciaire sont autant de secteurs potentiellement à haut risque, selon le document. La Commission ajoute que pour qu’une demande soit considérée comme « à haut risque », elle devra remplir l’un des deux critères suivants : relever d’un secteur à haut risque ou présenter des ramifications juridiques potentielles et exposer à « un risque de blessure, de décès ou de dommages matériels importants pour l’individu ».

La quatrième option couvre les questions de sécurité et de responsabilité qui pourraient émerger dans le cadre du développement futur de l’intelligence artificielle. Elle suggère que des « modifications ciblées » pourraient être apportées à la législation de l’UE en matière de sécurité et de responsabilité, notamment à la directive sur la sécurité générale des produits, à celle sur les machines, sur les équipements radio et à la loi sur la responsabilité du fait des produits.

L’I.A. chinoise bluffe-t-elle pour se développer en Europe ?

L’UE a établi de nouvelles normes en matière de protection des données et de la vie privée en s’opposant à la domination de la Silicon Valley. Mais avec l’arrivée des applications basées sur l’intelligence artificielle, les entreprises chinoises s’efforcent à leur tour d’avoir une part du gâteau. Un article de EDJnet et VoxEurope. 

Selon le document, les risques qui ne sont pas couverts par la législation existante comprennent « les cybermenaces, les risques pour la sécurité personnelle, la vie privée et la protection des données personnelles ». Ils pourraient faire l’objet de futurs amendements.

Concernant la responsabilité, « des ajustements pourraient être nécessaires pour clarifier les responsabilités des développeurs en intelligence artificielle et pour les distinguer de celles des producteurs des produits ». Le champ d’application de la législation pourrait également être modifié pour déterminer si les systèmes d’intelligence artificielle doivent être considérés comme des « produits ».

A propos de la cinquième option, qui porte sur la gouvernance, la Commission souligne qu’un dispositif de mise en œuvre efficace s’avère essentiel. Cela implique de pouvoir recourir à un solide système de supervision de la sphère publique avec la participation des autorités nationales. Il serait en outre nécessaire de promouvoir la coopération entre ces autorités nationales, indique le document.

Il précise que les approches les plus susceptibles d’être adoptées formellement sont une combinaison des options 3, 4 et 5.

« La Commission pourrait envisager d’associer un instrument horizontal définissant des exigences de transparence et de responsabilité et couvrant également la gouvernance, avec des modifications ciblées de la législation communautaire existante en matière de sécurité et de responsabilité », précise le document.

Contexte

La divulgation du brouillon du livre blanc de la Commission fait suite à une période de débat public sur la façon de relever les défis futurs de l’intelligence artificielle.

Un rapport publié en juin par le groupe d’experts de haut niveau sur l’IA suggère que l’UE envisage la nécessité d’une nouvelle réglementation pour « assurer une protection adéquate contre les incidences néfastes ». Celle-ci pourrait répondre aux questions que soulèvent la reconnaissance biométrique, l’utilisation de systèmes d’armes létales autonome (SALA), les systèmes d’IA basés sur des profils d’enfants et l’impact que l’IA peut avoir sur les droits fondamentaux.

L’application de la reconnaissance faciale a suscité bien des craintes en Europe l’an dernier, après que l’autorité suédoise de protection des données a infligé une amende de 20 000 euros à une municipalité pour avoir utilisé cette technologie dans le cadre de la surveillance de la fréquentation scolaire. De son côté, l’autorité française de régulation des données, la CNIL, a déclaré que la reconnaissance faciale enfreignait les règles de consentement du règlement général sur la protection des données.

[ad_2]

https://www.euractiv.fr/section/politique/news/leak-commission-considers-facial-recognition-ban-in-ai-white-paper/