Image Facebook.
Notes

Le danger de l’intelligence artificielle

Publié le

À gauche, Elon « notre civilisation n’a jamais dû affronter un risque aussi grand que celui posé par l’intelligence artificielle » Musk. À droite, Mark « améliorer l’intelligence artificielle […], c’est améliorer le monde » Zuckerberg. Entre les deux, la raison et le bon sens. Cette querelle de milliardaires pour savoir qui a la plus grosse… équipe de chercheurs cache les vrais problèmes de l’intelligence artificielle, comme l’arbre cache la forêt.

Prenez les trois champs cités par Zuckerberg. « Diagnostiquer des maladies pour préserver notre santé » : très bien, mais il faudrait peut-être commencer par standardiser et sécuriser les données médicales1. « Améliorer la conduite autonome pour préserver notre sécurité » : très bien, mais il faudrait peut-être commencer par dépasser le dilemme du tramway. « Présenter des résultats de recherche plus pertinents » : très bien, mais il faudrait peut-être commencer par demander à un complotiste halluciné ce qu’il pense de la « pertinence ».

Ce ne sont pas des risques qui pourraient avoir un effet dans un futur indescriptible, mais des réalités qui pourrissent assurément notre présent dystopique. D’autant que mes confrères, fidèles à leur réputation exécrable, sont incapables de comprendre les tenants et les aboutissants de travaux aussi simples que ceux sur les chatbots2. Qu’en sera-t-il demain, lorsqu’il faudra commenter les premiers accidents entre voitures autonomes, ou comprendre les critères d’attribution du vaccin devant contrôler la prochaine pandémie ?

Sans attendre que des robots armés parcourent nos villes connectées, il faut ouvrir ces boîtes noires qui prétendent dicter décisions financières, comportements d’achat, et opinions des « bulles de l’internet ». Commençons par des exemples relativement simples et très immédiats, avant de tirer des plans sur la comète avec des scénarios de science-fiction. Alarmons-nous des effets potentiellement pervers de systèmes censés être bienveillants, avant de s’inquiéter de la destruction de l’humanité par un système ouvertement maléfique.

Les enseignants et les journalistes doivent faire passer des expressions comme « apprentissage profond » ou « réseau de neurones artificiels », comme « réseau bayésien » ou « modèle de Markov caché », ou encore comme « fouille de données » ou « vision par ordinateur », dans le vocabulaire courant. Les citoyens doivent réaliser que l’intelligence artificielle est un champ vaste et divers, faire la distinction entre systèmes spécialisés et systèmes généralistes, comprendre que l’indépendance n’est pas l’autonomie, se rendre compte que les systèmes forts ne sont pas nécessairement plus dangereux que les systèmes faibles.

Ils doivent s’emparer de ces questions qui les concernent déjà, pour ne pas en être dépossédés demain. Parce qu’Elon Musk qui s’agite devant un parterre de gouverneurs américains, c’est un libertarien aux accents populistes qui avance ses pions. Le danger immédiat de l’intelligence artificielle, c’est la confiscation par des intérêts privés d’un débat qui devrait être public.

Compter les points dans le match qui oppose Musk à Zuckerberg, se laisser happer par ce débat d’une vacuité inouïe, c’est être spectateur quand il faudrait être acteur. Pendant ce temps, les ingénieurs de Tesla et de Facebook travaillent, et prennent des décisions à notre place. Des décisions qui pourraient revenir nous hanter quand les intelligences artificielles seront plus que des singes savants.


  1. Le NHS ayant égaré des centaines de milliers de dossiers médicaux et éventé les données de dizaines de millions de patients étant le même NHS qui a travaillé avec Google au développement des capacités médicales de l’« intelligence artificielle » DeepMind↩︎

  2. Au point de prétendre qu’une « intelligence artificielle » développée par Facebook vient de nous donner « un aperçu terrifiant de notre potentiel futur » (un blog de Forbes), dans une magnifique contradiction, en inventant « spontanément sa propre langue » (Interesting Engineering). Ce n’est pourtant pas tout à fait ce qu’explique le billet de blog de l’équipe FAIR, qui travaillait à l’apprentissage d’un chatbot à l’« art de la négociation » (désolé). « La même collection d’objets (disons deux livres, un chapeau, et trois ballons) est montrée à deux agents, qui ont comme instruction de les départager en négociant », explique l’équipe FAIR. Pendant la phase de renforcement de l’apprentissage de la machine, « entraînée à imiter les humains » par l’ingestion d’un corpus de 5 808 négociations entre deux personnes, un agent A artificiel était confronté un agent B humain ou artificiel. L’agent A utilisait un modèle d’apprentissage supervisé fixe, car les chercheurs se sont rendu compte « qu’une révision continue des paramètres des deux agents menait à une divergence du langage humain ». Ni le billet de blog ni l’article scientifique ne portent de jugement sur cette divergence, qui pourrait simplement relever du babil incohérent. Quitte à retenir quelque chose de cette expérience, il faudrait plutôt s’intéresser à la manière dont le chatbot a « appris » à feindre l’intérêt pour un objet sans valeur afin de la concéder plus tard, un « comportement » qui n’avait pas été explicitement programmé. Ce genre de « déviance » est typique des systèmes à récompense : l’intelligence artificielle n’a comme autre but que de parvenir à ses fins pour obtenir son bon point, et peut trouver des solutions originales pour le faire, ce qui pose de passionnantes questions théoriques↩︎