#RGPD, réponse partielle au Machine Learning


Un article de mes étudiants @ESSEC pour le cours de Droit européen : BARRY Théo,BERTAL Sarah Eva, EDIMO Hugo, EDMOND Rémi, HINZ Corentin, NEKOUROUH MOTLAGH Nicolas, SEVOV Benedict

VDB – Alors que des recours pour non respect du #RGPD se multiplient: 3 organismes ont saisi la #CNIL de plaintes collectives: la Quadrature du Net (plaintes contre Google, Amazon, Facebook, LinkedIn et Apple, pour 45 000 personnes concernées), l’association NOYB (Google) et l’ONG anglaise Privacy International (plaintes concernant 7 entreprises procédant à de la collecte à grande échelle de données en ligne). Les autorités de protection européennes traitent actuellement en coopération 345 plaintes transfrontalières. La CNIL est concernée par 187 cas et autorité chef de file pour 15 cas. Ces plaintes soulèvent notamment des questions sur le consentement.


S’ils ont grandement participé à l’essor d’internet, à l’amélioration de l’expérience des usagers et des performances des entreprises du net, le machine learning et le profilage créent un risque pour le droit des personnes, notamment en terme de discrimination, non-respect de la vie privée et de prise de décision algorithmique. C’est à ces questions que le #RGPD tente d’apporter des réponses.

Afin de ne pas freiner le développement des acteurs de l’économie du net, le règlement distingue le profilage à de simples fins de prospection, du profilage donnant lieu à une décision produisant des effets juridiques.

Dans le premier cas, le RGPD pose le principe du consentement commun à tous les types de traitements de données : l’utilisateur fera l’objet d’une collecte de données pourvu qu’il ait donné son accord exprès pour ce faire. Dans le second cas en revanche, l’entité de traitement se verra contrainte de founir à l’utilisateur une information renforcée sur le traitement effectué.

Qu’on en ait conscience ou pas, des ordinateurs ne cessent de scruter notre activité en ligne pour aider les organisations à traiter l’information des individus présents dans leurs bases de données. Ce traitement relève souvent de l’apprentissage automatique (ou machine learning), le champ d’étude de l’IA (intelligence artificielle) qui vise à permettre aux ordinateurs d’améliorer eux-mêmes leur performance de traitement de données par un « apprentissage » statistique. Par exemple, une machine va pouvoir grâce à des algorithmes dynamiques complexes reconnaître un chat, le visage d’un individu sur une image, ou encore identifier parmi les usagers d’un réseau social ceux qui s’intéressent au cinéma.

En quoi machine learning et profilage rentrent-ils dans le cadre du #RGPD ?

Les enjeux du nouveau dispositif sont importants tant pour les organismes étatiques qu’économiques. La collecte données à grande échelle et leur traitement aux fins de profilage sont aux fondements du modèle économique des géants du numérique et ont permis des gains de temps et de performance très significatifs dans les secteurs privés et publics. 

Cette efficacité accrue est rendu possible grâce à la technique du profilage qui vise, par l’exploitation des données des utilisateurs, à établir un profil ou prédire le comportement d’un groupe d’individus dans le but de leur proposer un contenu personnalisé. Il peut-être considéré comme une sous-catégorie de l’apprentissage automatique s’il est réalisé par ordinateur et de façon entièrement automatisé. C’est notamment grâce à cet outil que les marques adaptent automatiquement les publicités qui apparaissent sur les écrans de leurs clients. #Facebook, pour ne citer que lui, segmente ses usagers avec des filtres très précis allant de nombreux critères socio-démographiques aux pages “likées” sur la plateforme. Les banques, quoique moins connues pour ces pratiques, ne sont pas en reste et attribuent automatiquement une note de sensibilité (ou scoring) à la dépense de ses clients pour adapter les taux d’emprunt proposés.

Machine learning et profilage peuvent certes être utilisés à des fins positives pour l’utilisateur. Ces technologies participent à l’essor des transactions en ligne, des réseaux sociaux, et plus généralement de la place grandissante d’internet dans notre vie. Elles posent néanmoins deux problématiques majeures.

Tout d’abord, les entreprises du net, au premier rang desquelles les GAFA, ont accès avec un haut degré de précision à des données personnelles de nature socio-démographiques, comportementales ou de géolocalisation. Celles-ci voient dans l’exploitation des données par le machine learning une source d’innovation cruciale au maintien de leur avantage compétitif. Or, la libre commercialisation des données, leur partage, voire leur vol ont ces dernières années mis à mal la notion de respect de la vie privée et pouvent servir à surveiller de façon abusive les individus ou à les discriminer.

D’autre part, l’utilisation d’algorithmes dans le but de prendre des décisions à l’égard des personnes se diffuse largement. Se pose alors la question de la prise de décision algorithmique sans intervention humaine et de la possibilité pour la personne qui en est l’objet de la contester efficacement. A la suite d’un profilage, des algorithmes interviennent dans la sélection des propositions de biens, de services, ou de contenus à destination des individus (sur un moteur de recherche, dans leur fil d’actualité de réseau social, etc.). Ils peuvent justifier une offre ou un refus de contrat (d’assurance ou de crédit), orienter un diagnostic médical ou encore une décision administrative.

Si le profilage permet d’améliorer notre expérience utilisateur, il doit cependant faire l’objet d’un encadrement suffisant pour préserver les droits de la personne et lui permettre de contester les décisions prises la concernant. A cet égard, le #RGPD n’offre qu’une réponse partiellement satisfaisante.

La réponse du #RGPD, partielle.

A l’instar de tous les types de traitements de données, le profilage n’est possible qu’autant que l’utilisateur a fourni son consentement exprès après avoir été informé de la finalité du traitement. Au-delà du consentement, le #RGPD ne prévoit pas de droit général à l’explication qui obligerait le responsable de traitement à exposer de manière claire et adaptée aux utilisateurs la façon dont sont extraites l’ensemble de leurs données. Ce faisant, le règlement ménage les acteurs du numérique lesquels seraient bien embarrassés d’en expliquer le fonctionnement à leurs clients eu égard à la complexité des algorithmes utilisés et, parfois même, leur incapacité à en saisir eux-même le fonctionnement.

Il n’en reste pas moins qu’un encadrement par le seul biais du consentement de l’utilisateur ne semblait pas à la hauteur des risques créés par le profilage pour les individus. Le #RGPD s’est donc penché sur la question en instaurant une « obligation d’information renforcée »[1]. Cependant, seulement certains types de profilage sont concernés par cette obligation d’information – et c’est là que le bas blesse.

Dans quels cas de profilage l’information renforcée est requise. Le droit à l’information renforcée ne sera appliqué qu’aux profilages qui :

  • donnent lieu à une « prise de décision automatisée » [2] et…
  • seulement si cette décision produit des « effets juridiques » ou des « effets similaires » qui affectent la personne « de manière significative »[3].

Le RGPD tente de une distinction entre un profilage à de simples fins publicitaires ou de gestion de bases de données, et un profilage décisionaire ayant un impact direct et potentiellement grave sur la vie de l’utilisateur. C’est donc la finalité du profilage qui détermine si l’entreprise ou l’administration devra fournir une information renforcée ou non à ses clients ou usagers. Ce critère permet, en théorie, de trouver un compromis entre l’exploitation des bienfaits du machine learning par les acteurs privés et publics tout en redonnant du pouvoir aux utilisateurs concernés.

On peut néanmoins regretter l’imprécision du texte (que signifie « effets similaires » ?) qui ne permet pas aux entreprises, en attendant une jurisprudence interprétative, de circonscrire précisément les catégories d’utilisateurs à informer. Cette zone grise incite à la prudence de la part des acteurs du numérique.

On note également que certains parmi les traitements automatisés les plus répandus ne feront sans doute pas l’objet d’une information accrue au bénéfice de l’utilisateur. Prenons deux exemples. Un assureur qui utilise un algorithme de scoring n’aura aucune obligation d’information car son profilage n’entraine aucune « décision automatisée » dès lors qu’une intervention humaine est prévue pour la conclusion du contrat d’assurance. Le ciblage publicitaire de #Facebook, qui est fondé sur un profilage sans contrôle humain, ne donne pas plus lieu à information car il sera considéré comme n’ayant ni effets juridiques, ni effets similaires significatifs sur ses utilisateurs.

Quel est le contenu de l’information à fournir? Lorsque l’entreprise à l’origine du profilage est y est tenue, celle-ci doit délivrer à ses clients toutes « informations utiles concernant la logique sous-jacente, ainsi que l’importance et les conséquences prévues du traitement ». Cela peut s’avérer simple lorsque l’algorithme qui prend la décision est élémentaire et facilement explicable, mais particulièrement compliqué dans les cas d’algorithmes de type  deep learning. Est-ce qu’il est possible d’accomplir une telle vulgarisation ? Est-il tout simplement possible d’ouvrir la black box d’une intelligence artificielle pour expliquer ses décisions ? Plusieurs solutions sont avancées :

  • Partager le code source de l’intelligence artificielle pour réellement comprendre son raisonnement. Cette solution n’en est en réalité pas une dans la mesure où il existe un « knowledge gap », la grande majorité des utilisateurs ne possédant pas les compétences nécessaires pour comprendre le code source. Sa simple publication ne pourrait donc satisfaire à l’exigence de clarté avancée par le G29. Deuxièmement, les algorithmes sous-tendent l’avantage compétitif des géants du secteur numérique et, à ce titre, font l’objet d’une double protection par le droit de la propriété intellectuelle et par le secret des affaires, lequels feraient obstacle à leur publication.
  • Dans ce contexte, le #RGPD privilégie le recours à une explication vulgarisée : informer la personne concernée sur les données personnelles qui sont utilisées par l’algorithme, les enjeux de la décision prise par l’algorithme, et les critères que l’algorithme utilise pour arriver à sa décision.

Les suites du RGPD : comment redonner confiance dans l’IA?

Les populations sont généralement méfiantes vis à vis de l’intelligence artificielle. Cependant, il ne faut pas occulter les côtés positifs de l’IA : le consommateur qui pourra se voir proposer des offres et informations plus adaptées, mais aussi les entreprises qui pourront cibler plus aisément leur consommateur avec ainsi des retours positifs pour l’économie.

Il est légitime de s’inquiéter sur le traitement abusif des données mais il faut garder à l’esprit qu’une décision prise par une IA ne dépend pas seulement d’un algorithme mais aussi de la qualité des données qui lui sont fournies. De plus, il est nécessaire de souligner que les prises de positions médiatiques avertissant des dangers de l’intelligence artificielle émanent souvent de personnalités dont ce n’est pas la spécialité comme Elon Musk ou Stephen Hawking. Rétablir la confiance des consommateurs étant un enjeu économique majeur, il serait peut être adéquat pour les gouvernements européens de procéder à une sensibilisation du grand public sur la réalité des dangers et avantages amenés par l’IA.

Pour ce qui concerne la technologie : les pays membres de l’Union Européenne sont en retard en terme d’investissement pour l’IA par rapport aux Etats Unis et à la Chine. Le RGPD pourrait élargir ce gap, à cause des risques encourus par les entreprises européennes en cas de non respect des lois. En effet, enfreindre le #RGPD est un risque important: l’infraction peut entrainer une amende d’un montant allant jusqu’à 20 millions d’euros ou 4% du chiffre d’affaire. Il faut toutefois nuancer car le risque est partagé par les entreprises mondiales qui traitent des données de membres de l’#UE,  du fait de l’extraterritorialité du #RGPD.

En effet, si l’utilisation d’une application commerciale de l’IA dans un contexte commerciale est trop risquée, notamment à cause d’algorithmes peu transparents, les entreprises et organisations pourraient faire le choix de renoncer tout simplement à leur utilisation, certaines pourraient renoncer à développer des technologies dépendant trop de données personnelles. Par exemple, la technologie des voitures autonomes dépend des données de géolocalisation. Selon un rapport du think tank Brookings : “Si elles sont interprétées de manière stricte, ces règles (du RGPD) empêcheront les concepteurs de logiciels européens (et les concepteurs américains travaillant avec leurs homologues européens) d’intégrer l’intelligence artificielle et la cartographie haute définition dans des véhicules autonomes. Le point central de la navigation (autonome) est le suivi de l’emplacement et des mouvements. En l’absence de cartes haute définition contenant des données géocodées et de deep learning utilisant ces informations, la conduite entièrement autonome stagnera en Europe.” Grâce au RGPD et à d’autres actions de protection des données, l’Union européenne désavantage considérablement ses fabricants et les concepteurs de logiciels par rapport au reste du monde. Enfin, un autre exemple qui concerne une organisation étatique : le secrétaire d’Etat français pour le numérique Mounir Majhoubi s’est déjà exprimé dans ce sens “si un algorithme ne peut pas être expliqué, il ne peut pas être utilisé dans le service public”

En définitive

Les questions liées à l’intelligence artificielle vont devenir de plus en plus pressantes et importantes au fur et à mesure des évolutions techniques. Si le RGPD est un premier pas pour encadrer juridiquement les prises de décisions associées à des intelligences non-humaines, il n’est pas à lui tout seul la solution. L’exigence de transparence sur les algorithmes s’oppose d’un côté à des réalités de concurrences pour les entreprises qui ne peuvent pas dévoiler leur avantage technologique. Dans l’état actuel, les entreprises européennes pourraient se retrouver fortement désavantagées sur ce secteur économique face à la concurrence sino-américaine. D’un autre côté la transparence se heurte aussi à la nature par essence complexe de ces algorithmes, ce à quoi il faut ajouter la méfiance des populations à l’égard de l’intelligence artificielle.


[1] Articles 13.2.f et 14.2.g

[2] Article 22

[3] par renvoi de l’article 22 aux articles 13.2.f et 14.2.g

S’ils ont grandement participé à l’essor d’internet, à l’amélioration de l’expérience des usagers et des performances des entreprises du net, le machine learning et le profilage créent un risque pour le droit des personnes, notamment en terme de discrimination, non-respect de la vie privée et de prise de décision algorithmique. C’est à ces questions que le RGPD tente d’apporter des réponses. Afin de ne pas freiner le développement des acteurs de l’économie du net, le règlement distingue le profilage à de simples fins de prospection, du profilage donnant lieu à une décision produisant des effets juridiques. Dans le premier cas, le RGPD pose le principe du consentement commun à tous les types de traitements de données : l’utilisateur fera l’objet d’une collecte de données pourvu qu’il ait donné son accord exprès pour ce faire. Dans le second cas en revanche, l’entité de traitement se verra contrainte de founir à l’utilisateur une information renforcée sur le traitement effectué.

Qu’on en ait conscience ou pas, des ordinateurs ne cessent de scruter notre activité en ligne pour aider les organisations à traiter l’information des individus présents dans leurs bases de données. Ce traitement relève souvent de l’apprentissage automatique (ou machine learning), le champ d’étude de l’intelligence artificielle qui vise à permettre aux ordinateurs d’améliorer eux-mêmes leur performance de traitement de données par un « apprentissage » statistique. Par exemple, une machine va pouvoir grâce à des algorithmes dynamiques complexes reconnaître un chat, le visage d’un individu sur une image, ou encore identifier parmi les usagers d’un réseau social ceux qui s’intéressent au cinéma.

En quoi machine learning et profilage rentrent-ils dans le cadre du RGPD ?

Les enjeux du nouveau dispositif sont importants tant pour les organismes étatiques qu’économiques. La collecte données à grande échelle et leur traitement aux fins de profilage sont aux fondements du modèle économique des géants du numérique et ont permis des gains de temps et de performance très significatifs dans les secteurs privés et publics. 

Cette efficacité accrue est rendu possible grâce à la technique du profilage qui vise, par l’exploitation des données des utilisateurs, à établir un profil ou prédire le comportement d’un groupe d’individus dans le but de leur proposer un contenu personnalisé. Il peut-être considéré comme une sous-catégorie de l’apprentissage automatique s’il est réalisé par ordinateur et de façon entièrement automatisé. C’est notamment grâce à cet outil que les marques adaptent automatiquement les publicités qui apparaissent sur les écrans de leurs clients. Facebook, pour ne citer que lui, segmente ses usagers avec des filtres très précis allant de nombreux critères socio-démographiques aux pages “likées” sur la plateforme. Les banques, quoique moins connues pour ces pratiques, ne sont pas en reste et attribuent automatiquement une note de sensibilité (ou scoring) à la dépense de ses clients pour adapter les taux d’emprunt proposés.

Machine learning et profilage peuvent certes être utilisés à des fins positives pour l’utilisateur. Ces technologies participent à l’essor des transactions en ligne, des réseaux sociaux, et plus généralement de la place grandissante d’internet dans notre vie. Elles posent néanmoins deux problématiques majeures.

Tout d’abord, les entreprises du net, au premier rang desquelles les GAFA, ont accès avec un haut degré de précision à des données personnelles de nature socio-démographiques, comportementales ou de géolocalisation. Celles-ci voient dans l’exploitation des données par le machine learning une source d’innovation cruciale au maintien de leur avantage compétitif. Or, la libre commercialisation des données, leur partage, voire leur vol ont ces dernières années mis à mal la notion de respect de la vie privée et pouvent servir à surveiller de façon abusive les individus ou à les discriminer.

D’autre part, l’utilisation d’algorithmes dans le but de prendre des décisions à l’égard des personnes se diffuse largement. Se pose alors la question de la prise de décision algorithmique sans intervention humaine et de la possibilité pour la personne qui en est l’objet de la contester efficacement. A la suite d’un profilage, des algorithmes interviennent dans la sélection des propositions de biens, de services, ou de contenus à destination des individus (sur un moteur de recherche, dans leur fil d’actualité de réseau social, etc.). Ils peuvent justifier une offre ou un refus de contrat (d’assurance ou de crédit), orienter un diagnostic médical ou encore une décision administrative.

Si le profilage permet d’améliorer notre expérience utilisateur, il doit cependant faire l’objet d’un encadrement suffisant pour préserver les droits de la personne et lui permettre de contester les décisions prises la concernant. A cet égard, le RGPD n’offre qu’une réponse partiellement satisfaisante.

La réponse du RGPD, partielle.

A l’instar de tous les types de traitements de données, le profilage n’est possible qu’autant que l’utilisateur a fourni son consentement exprès après avoir été informé de la finalité du traitement. Au-delà du consentement, le RGPD ne prévoit pas de droit général à l’explication qui obligerait le responsable de traitement à exposer de manière claire et adaptée aux utilisateurs la façon dont sont extraites l’ensemble de leurs données. Ce faisant, le règlement ménage les acteurs du numérique lesquels seraient bien embarrassés d’en expliquer le fonctionnement à leurs clients eu égard à la complexité des algorithmes utilisés et, parfois même, leur incapacité à en saisir eux-même le fonctionnement.

Il n’en reste pas moins qu’un encadrement par le seul biais du consentement de l’utilisateur ne semblait pas à la hauteur des risques créés par le profilage pour les individus. Le RGPD s’est donc penché sur la question en instaurant une « obligation d’information renforcée »[1]. Cependant, seulement certains types de profilage sont concernés par cette obligation d’information – et c’est là que le bas blesse.

Commençons par comprendre dans quels cas de profilage l’information renforcée est requise. Le droit à l’information renforcée ne sera appliqué qu’aux profilages qui :

  • donnent lieu à une « prise de décision automatisée » [2]
  • et seulement si cette décision produit des « effets juridiques » ou des « effets similaires » qui affectent la personne « de manière significative »[3].

Le RGPD tente de faire la distinction entre un profilage à de simples fins publicitaires ou de gestion de bases de données, et un profilage décisionaire ayant un impact direct et potentiellement grave sur la vie de l’utilisateur. C’est donc la finalité du profilage qui détermine si l’entreprise ou l’administration devra fournir une information renforcée ou non à ses clients ou usagers. Ce critère permet, en théorie, de trouver un compromis entre l’exploitation des bienfaits du machine learning par les acteurs privés et publics tout en redonnant du pouvoir aux utilisateurs concernés.

On peut néanmoins regretter l’imprécision du texte (que signifie « effets similaires » ?) qui ne permet pas aux entreprises, en attendant une jurisprudence interprétative, de circonscrire précisément les catégories d’utilisateurs à informer. Cette zone grise incite à la prudence de la part des acteurs du numérique.

On note également que certains parmi les traitements automatisés les plus répandus ne feront sans doute pas l’objet d’une information accrue au bénéfice de l’utilisateur. Prenons deux exemples. Un assureur qui utilise un algorithme de scoring n’aura aucune obligation d’information car son profilage n’entraine aucune « décision automatisée » dès lors qu’une intervention humaine est prévue pour la conclusion du contrat d’assurance. Le ciblage publicitaire de Facebook, qui est fondé sur un profilage sans contrôle humain, ne donne pas plus lieu à information car il sera considéré comme n’ayant ni effets juridiques, ni effets similaires significatifs sur ses utilisateurs.

Quel est le contenu de l’information à fournir? Lorsque l’entreprise à l’origine du profilage est y est tenue, celle-ci doit délivrer à ses clients toutes « informations utiles concernant la logique sous-jacente, ainsi que l’importance et les conséquences prévues du traitement ». Cela peut s’avérer simple lorsque l’algorithme qui prend la décision est élémentaire et facilement explicable, mais particulièrement compliqué dans les cas d’algorithmes de type  deep learning. Est-ce qu’il est possible d’accomplir une telle vulgarisation ? Est-il tout simplement possible d’ouvrir la black box d’une intelligence artificielle pour expliquer ses décisions ? Plusieurs solutions sont avancées :

  • Partager le code source de l’intelligence artificielle pour réellement comprendre son raisonnement. Cette solution n’en est en réalité pas une dans la mesure où il existe un « knowledge gap », la grande majorité des utilisateurs ne possédant pas les compétences nécessaires pour comprendre le code source. Sa simple publication ne pourrait donc satisfaire à l’exigence de clarté avancée par le G29. Deuxièmement, les algorithmes sous-tendent l’avantage compétitif des géants du secteur numérique et, à ce titre, font l’objet d’une double protection par le droit de la propriété intellectuelle et par le secret des affaires, lequels feraient obstacle à leur publication.
  • Dans ce contexte, le RGPD privilégie le recours à une explication vulgarisée : informer la personne concernée sur les données personnelles qui sont utilisées par l’algorithme, les enjeux de la décision prise par l’algorithme, et les critères que l’algorithme utilise pour arriver à sa décision.

Les suites du RGPD : comment redonner confiance dans l’IA?

Les populations sont généralement méfiantes vis à vis de l’intelligence artificielle. Cependant, il ne faut pas occulter les côtés positifs de l’IA : le consommateur qui pourra se voir proposer des offres et informations plus adaptées, mais aussi les entreprises qui pourront cibler plus aisément leur consommateur avec ainsi des retours positifs pour l’économie.

Il est légitime de s’inquiéter sur le traitement abusif des données mais il faut garder à l’esprit qu’une décision prise par une IA ne dépend pas seulement d’un algorithme mais aussi de la qualité des données qui lui sont fournies. De plus, il est nécessaire de souligner que les prises de positions médiatiques avertissant des dangers de l’intelligence artificielle émanent souvent de personnalités dont ce n’est pas la spécialité comme Elon Musk ou Stephen Hawking. Rétablir la confiance des consommateurs étant un enjeu économique majeur, il serait peut être adéquat pour les gouvernements européens de procéder à une sensibilisation du grand public sur la réalité des dangers et avantages amenés par l’IA.

Pour ce qui concerne la technologie : les pays membres de l’Union Européenne sont sensiblement en retard en terme d’investissement pour l’IA par rapport aux Etats Unis et à la Chine. Le RGPD pourrait élargir ce gap, à cause des risques encourus par les entreprises européennes en cas de non respect des lois. En effet, enfreindre le RGPD est un risque important car l’infraction peut résulter en une amende d’un montant allant jusqu’à 20 millions d’euros ou 4% du chiffre d’affaire. Il faut toutefois nuancer : ce risque est partagé par beaucoup d’entreprises mondiales, qui traitent des données de membres de l’UE,  du fait de l’extraterritorialité du RGPD. En plus de limiter les entreprises européennes, les grands géants mondiaux comme les GAFA seraient aussi impactés dans leur activité dans l’UE.

En effet, si l’utilisation d’une application commerciale de l’IA dans un contexte commerciale est trop risquée, notamment à cause d’algorithmes peu transparents, les entreprises et organisations pourraient faire le choix de renoncer tout simplement à leur utilisation, certaines pourraient renoncer à développer des technologies dépendant trop de données personnelles. Par exemple, la technologie des voitures autonomes dépend des données de géolocalisation. Selon un rapport du think tank Brookings : “Si elles sont interprétées de manière stricte, ces règles (du RGPD) empêcheront les concepteurs de logiciels européens (et les concepteurs américains travaillant avec leurs homologues européens) d’intégrer l’intelligence artificielle et la cartographie haute définition dans des véhicules autonomes. Le point central de la navigation (autonome) est le suivi de l’emplacement et des mouvements. En l’absence de cartes haute définition contenant des données géocodées et de deep learning utilisant ces informations, la conduite entièrement autonome stagnera en Europe.” Grâce au RGPD et à d’autres actions de protection des données, l’Union européenne désavantage considérablement ses fabricants et les concepteurs de logiciels par rapport au reste du monde. Enfin, un autre exemple qui concerne une organisation étatique : le secrétaire d’Etat français pour le numérique Mounir Majhoubi s’est déjà exprimé dans ce sens “si un algorithme ne peut pas être expliqué, il ne peut pas être utilisé dans le service public”

En définitive

Les questions liées à l’intelligence artificielle vont devenir de plus en plus pressantes et importantes au fur et à mesure des évolutions techniques. Si le RGPD est un premier pas pour encadrer juridiquement les prises de décisions associées à des intelligences non-humaines, il n’est pas à lui tout seul la solution. L’exigence de transparence sur les algorithmes s’oppose d’un côté à des réalités de concurrences pour les entreprises qui ne peuvent pas dévoiler leur avantage technologique. Dans l’état actuel, les entreprises européennes pourraient se retrouver fortement désavantagées sur ce secteur économique face à la concurrence sino-américaine. D’un autre côté la transparence se heurte aussi à la nature par essence complexe de ces algorithmes, ce à quoi il faut ajouter la méfiance des populations à l’égard de l’intelligence artificielle.



[1]Articles 13.2.f et 14.2.g [

[2] Article 22

[3] par renvoi de l’article 22 aux articles 13.2.f et 14.2.g