Due to concerns about large language models being used to generate deceptive, biased, or abusive language at scale, we are only releasing a much smaller version of GPT-2 along with sampling code. We are not releasing the dataset, training code, or GPT-2 model weights.
« Cette intelligence artificielle est trop puissante pour être publiée » (PC Magazine), « OpenAI a créé un générateur de texte tellement intelligent qu’il en devient dangereux » (Numerama), « Open AI (sic) a développé un générateur de textes trop intelligent et dangereux pour être rendu public » (Fredzone). Toute la presse spécialisée a été occupée par un catastrophisme bien malvenu ces derniers jours. Toute ? Non ! Quelques titres sont peuplés d’irréductibles faisant encore leur métier de journaliste, comme ZDNet, qui a correctement titré « pas de panique : l’IA d’OpenAI n’écrit pas aussi bien qu’un humain ».
De fait, les exemples donnés peinent à convaincre. La dissertation sur la Guerre de Sécession ne tromperait même pas le moins attentif des enseignants, le reportage sur la découverte de licornes dans les Andes et la fan fiction autour du Seigneur des Anneaux manquent de cohérence, la plupart des extraits sont plein de répétitions et de ruptures syntaxiques. Des défauts qui, c’est vrai, importent peu dans le cas des fake news. Mais encore faut-il donner à la machine l’idée (délicieuse) que Miley Cyrus pourrait dévaliser un magasin Abercrombie & Fitch.
Les « fermes » à fausses nouvelles, qui m’évoquent parfois l’image de « rédactions de Babel », peuvent déjà être qualifiées d’intelligences artificielles, selon la définition actuelle qui confond les « turcs mécaniques » et autres « travailleurs du clic » avec les dispositifs automatisés. « These findings », expliquent les chercheurs d’OpenAI, « imply that technologies are reducing the cost of generating fake content and waging disinformation campaigns. » Les intelligences véritablement artificielles en décupleront la capacité de nuisance, mais ne changeront pas fondamentalement leur nature.
Voilà peut-être pourquoi OpenAI a publié son modèle GPT-21, contrairement à ce que vous pourriez croire en lisant les gros titres de la presse dite spécialisée. À trop se concentrer sur les conséquences, on oublie les causes : OpenAI a été co-fondée par Elon Musk qui, rappelons-le, appartient à ce groupe de néo-millénaristes paniqué par les effets supposément catastrophiques des intelligences artificielles, mais pas suffisamment pour s’empêcher d’en tirer quelques bénéfices en attendant la fin du monde.
L’organisation ne fait qu’appliquer son mandat : OpenAI publiera de moins en moins de code, et de plus en plus de recherches sur la sécurité et la gouvernance des intelligences artificielles. Fidèle à sa mission, elle réitère son appel en faveur d’une législation adaptée, notamment sur le plan éducatif. « The public at large will need to become more skeptical of text they find online », mais aussi des sons (on peut désormais inventer et imiter des voix), des images (comme le prouve la recherche sur la génération de visages), et même des vidéos (avec l’essor des deepfakes).
Nous sommes entrés de plain-pied dans une ère « post-vérité », nous devons maintenant partir du principe que toute information est fausse jusqu’à preuve du contraire. Les journalistes n’ont jamais été aussi nécessaires — il est d’autant plus important qu’ils maitrisent parfaitement les tenants et les aboutissants de l’intelligence artificielle, et fassent l’effort de lire les billets de blog2 des équipes de recherche jusqu’au bout. Ce n’est rien de moins que l’intelligence du discours humain qui est en jeu.