La Commission met en garde contre les dérives de l’intelligence artificielle – EURACTIV.fr

[ad_1]

Le groupe de haut niveau sur l’intelligence artificielle de la Commission européenne a publié son rapport sur l’éthique et l’IA. Il attire l’attention sur les questions liées à l’identification, la notation des citoyens et les robots tueurs.

Le projet de rapport publié le 18 décembre par le groupe de haut niveau sur l’intelligence artificielle propose un cadre pour qu’utilisateurs et développeurs puissent s’assurer que l’intelligence artificielle (IA) respecte les droits fondamentaux, la législation en vigueur et l’éthique.

Le groupe rassemble 52 spécialistes issus du milieu académique, des affaires et de la société civile, qui ont souligné une série d’« inquiétudes graves » pour l’avenir de l’IA. Jusqu’au 18 janvier, les Européens peuvent soumettre leurs commentaires sur ce rapport. La version finale du rapport sera publiée en mars 2019.

Notation des citoyens

Le rapport se penche notamment sur la « notation normative des citoyens », que ses auteurs définissent comme une évaluation générale de la « personnalité morale » ou de l’« intégrité éthique » des personnes par des tierces parties.

Les experts européens estiment que les systèmes de notation des citoyens constituent un danger pour la liberté et l’autonomie des citoyens quand ils sont mis en place « à grande échelle par les autorités publiques ».

Le rapport n’appelle toutefois pas à l’interdiction de ces systèmes, mais souligne des exemples où « la notation des citoyens s’applique à un domaine social limité », qui devraient être soumis à de meilleurs niveaux de transparence.

Le seul pays où une notation des citoyens est en place de manière massive et contrôlée par l’État est la Chine, qui procède à des essais pour un système de crédit social. Le gouvernement espère déployer ce système à toute la population d’ici à 2020, afin de systématiser l’évaluation du crédit économique et social des citoyens, sur la base de critères définis par les autorités.

Robots secrets

Le rapport note aussi que les développeurs de l’IA devraient « s’assurer que les humains sont informés du fait qu’ils interagissent avec une identité d’IA [et non un humain], ou qu’ils puissent demander et valider cette information ».

Les robots deviennent de plus en plus similaires aux humains, et l’UE tente donc de s’assurer qu’ils ne puissent jamais être confondus avec de vraies personnes, garantissant ainsi une division morale et éthique claire entre les principes, comportements et valeurs de ces deux catégories.

L’inclusion d’androïdes « hyper réels » dans la société « pourrait changer notre perception des humains et de l’humanité », font remarquer les auteurs du rapport. « Il faudrait garder à l’esprit que la confusion entre humains et machines peut avoir des conséquences multiples, comme l’attachement, l’influence ou la réduction des valeurs humaines. Le développement de robots androïdes et humanoïdes devra donc faire l’objet d’une soigneuse évaluation éthique. »

Technologies d’identification

Autre domaine qui inquiète les membres du groupe de haut niveau : l’utilisation de l’IA dans les technologies d’identification, comme les logiciels de reconnaissance faciale.

Ces technologies sont actuellement à l’essai au Royaume-Uni. La police britannique espère en effet qu’elles lui permettront de reconnaitre les criminels recherchés dans la masse des acheteurs qui font leurs courses de Noël. Pour les auteurs du rapport, l’absence de consentement constitue ici un problème éthique particulier.

Robots tueurs

Le rapport aborde aussi évidemment le sujet des systèmes d’armes létales autonome (SALA), aussi appelés « robots tueurs ». Ces systèmes sont en mesure de fonctionner sans véritable contrôle humain. C’est par exemple le cas des équipements de poursuite des missiles autonomes.

En septembre, le Parlement européen a adopté une résolution appelant à une interdiction internationale de ces « robots tueurs », « qui vont de missiles capables de sélectionner leurs cibles à des machines d’apprentissage dotées de compétences cognitives permettant de décider qui attaquer, quand et à quel endroit ». Or, « les machines ne peuvent pas prendre des décisions comme les hommes », insistaient les eurodéputés, qui jugent que les décisions en situation de guerre doivent rester l’apanage des cerveaux humains.

La résolution a été adoptée suite à des débats infructueux pour interdire des systèmes d’armes létales autonomes à l’ONU. Un groupe d’États réunis autour des États-Unis et de la Russie et comprenant notamment la Corée du Sud et Israël se sont en effet farouchement opposés à l’interdiction.

Le point de vue du groupe de haut niveau correspond aux positions exprimées par le Parlement européen dans sa résolution. Il s’agit de trouver des réponses aux implications éthiques et légales liées à la responsabilité, au contrôle humain et aux droits de l’Homme dans le développement des SALA.

Plus généralement, les conclusions des orientations éthiques de la Commission défendent une approche centrée sur l’humain pour le développement de l’IA, conforme aux droits fondamentaux et aux valeurs sociétales. À long terme, l’objectif est de favoriser une IA fiable.

« L’IA peut fournir des avantages majeurs à nos sociétés, de la détection et guérison du cancer à la réduction de la consommation d’énergie », estimait Andrus Ansip, vice-président de la Commission responsable du marché unique numérique, lors de la présentation du rapport. « Mais pour que les gens acceptent et utilisent des systèmes fondés sur l’IA, il faut qu’ils puissent leur faire confiance, savoir que leur vie privée est respectée et que les décisions sont impartiales. »

[ad_2]

https://www.euractiv.fr/section/economie/news/ai-ethics-critical-concerns-highlighted-in-commission-report/