Empêcher les algorithmes d’être la main invisible de nos destinées

En janvier 2017, la CNIL lançait un vaste débat public sur les enjeux éthiques des algorithmes à l’heure de l’intelligence artificielle. Le rapport de synthèse de cette remarquable initiative a été publié le 15 décembre, sous un titre qui en dit long sur les inquiétudes existentielles qui traversent la société française : « comment permettre à l’homme de garder la main ? »…


Les Français entre méconnaissance et inquiétude

Point de départ symbolique de la démarche, un sondage réalisé fin 2016 par l’Ifop révélait que moins d’un Français sur trois (31 %) serait en mesure de dire précisément ce qu’est un algorithme… Cette méconnaissance avouée n’empêchait pas deux tiers de nos compatriotes de penser que les algorithmes « représentent plutôt une menace en raison d’une accumulation de données personnelles sur les choix, les goûts et les comportements de chacun ».

Les craintes quant à la protection de la vie privée sont certes un aspect essentiel de la question, mais c’est loin d’être le seul si l’on considère le nombre croissant de processus de décision – institutionnels notamment – régis pas des algorithmes sans que l’on sache si des humains ont ou non leur mot à dire. Si les moins de 35 ans estiment majoritairement que les algorithmes sont plutôt fiables, le sentiment général tous âges confondus est qu’ils sont plutôt source d’erreurs (53 %).

Les Français & les algorithmes_Ifop-Cnil-2017.jpg


Prise de conscience de la non-neutralité des algorithmes

Il est salutaire que la neutralité et l’infaillibilité supposées des algorithmes soit questionnées publiquement et surtout remises en cause. Les techno-prophètes ont tellement prétendu le contraire qu’il était temps que des voix audibles du grand public s’élèvent pour contrebalancer leurs affirmations. Tout le monde n’a probablement pas lu / entendu les propos alarmants de la mathématicienne américaine Cathy O’Neil sur les biais des algorithmes utilisés à des fins de prise de décision dans des domaines cruciaux pour la démocratie tels que la justice et l’éducation. Elle dénonce notamment leur utilisation à des fins de contrôle social, du fait même de leur opacité pour les populations concernées et de l’absence d’évaluation objective de l’efficacité de ces outils.

En revanche, tout le monde a au moins entendu parler de l’opacité des algorithmes de Facebook, Twitter et autres réseaux sociaux, accusés d’enfermer les citoyens dans une « bulle de filtrage » en ne proposant à chacun que des contenus allant dans le sens de ses propres opinons et invisibilisant de ce fait les opinions divergentes. Lors de la dernière élection présidentielle étatsunienne, ces bulles de filtrage auraient, entre autres, rendu les journalistes aveugles au poids réel et croissant des partisans de Donald Trump. La chose a-t-elle été prouvée ? Pas vraiment, et c’est bien le problème : il faudrait pour cela démonter la mécanique desdits algorithmes – autant dire toucher au cœur de la machine à cash des GAFA et de leurs satellites…


Un problème aggravé par la généralisation du machine learning

Difficulté supplémentaire, les algorithmes dont il est question aujourd’hui sont « auto-apprenants » grâce au machine learning. Andrew Ng – qui enseigne à l’Université Stanford tout en étant le directeur scientifique de Baidu (l’équivalent chinois de Google) – définit le machine learning comme « la science permettant de faire agir les ordinateurs sans qu’ils aient à être explicitement programmés ». Cela signifie que les algorithmes reposant sur cette technique peuvent, au fil de leur apprentissage, s’éloigner considérablement des intentions initiales de ceux qui les ont conçus. En d’autres termes, leur comportement évolue dans le temps, en fonction des données qui leur sont fournies.

Dans les exemples ci-dessous (extraits du rapport de la Cnil), on voit en creux les problèmes éthiques que peuvent poser les algorithmes à base de machine learning. Si l’objectif de l’algorithme est de vous recommander la prochaine série qui a toutes les chances de vous plaire sur Netflix, ce n’est pas bien grave – encore qu’il ne faille pas sous-estimer le « soft power » des séries… S’il s’agit de prévenir les crimes et délits, c’est évidemment beaucoup plus problématique parce que personne n’est en mesure de vérifier comment et à partir de quelles données a réellement été prise la décision de cibler tel ou tel citoyen et pas tel autre.

extrait rapport de la Cnil 2017.jpg

On se rassure en se disant que la machine ne fait pour l’instant que « suggérer » et que l’humain reste maître de la décision. La question est jusqu’à quand ? Non que les machines algorithmiques soient absolument vouées à s’autonomiser, mais l’habitude aidant, les utilisateurs pourraient tout simplement cesser d’être critiques vis-à-vis des suggestions et les appliquer au pied de la lettre. En effet, comme le souligne à juste titre le rapport de la CNIL :

« le développement des systèmes algorithmiques va de pair avec une érosion des vigilances individuelles ».


Alors, faut-il réguler les algorithmes ?

Si de nombreux acteurs expriment aujourd’hui l’idée qu’il ne faudrait pas réguler les algorithmes et l’intelligence artificielle, le débat public initié par la CNIL met au contraire en évidence une attente de règles et de limites dans ce domaine. En fait, les algorithmes sont d’ores et déjà régulés depuis une quarantaine d’années par la loi Informatique et Libertés de 1978. Les principes en sont clairs et toujours valides : « l’informatique doit être au service de chaque citoyen. Son développement doit s’opérer dans le cadre de la coopération internationale. Elle ne doit porter atteinte ni à l’identité humaine, ni aux droits de l’homme, ni à la vie privée, ni aux libertés individuelles ou publiques. » (article 1)

L’article 10 de cette même loi, reprise dans l’article 22 du RGDP, interdit qu’une machine puisse prendre seule – sans intervention humaine – des décisions emportant des conséquences cruciales pour les personnes (décision judiciaire, décision d’octroi de crédit…). Enfin, les lois en vigueur (ou en passe de l’être) prévoient le droit pour les personnes d’obtenir, auprès de celui qui en responsable, des informations sur la logique de fonctionnement de l’algorithme (article 39 de la loi de 1978 et article 15.1 du RGDP).

Face à l’opacité des systèmes algorithmiques et en réponse aux attentes des citoyens, la CNIL émet les six recommandations suivantes :

  • Former à l’éthique tous les maillons de la « chaîne algorithmique » : concepteurs, professionnels, citoyens.
  • Rendre les systèmes algorithmiques compréhensibles en renforçant les droits existants et en organisant la médiation avec les utilisateurs.
  • Travailler le design des systèmes algorithmiques au service de la liberté humaine
  • Constituer une plateforme nationale d’audit des algorithmes.
  • Encourager la recherche de solutions techniques pour faire de la France le leader de l’IA éthique.
  • Renforcer la fonction éthique au sein des entreprises.

Toute la question est de savoir si ces recommandations seront suivies d’effets et surtout si elles seront recevables et suivies par des acteurs non nationaux, opérant à très grande échelle et faisant, quoi qu’on en dise, la pluie et le beau temps dans le monde en pleine ébullition et plein de potentiel des algorithmes et de l’intelligence artificielle...

Poster le commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *