Les machines arrivent, et elles écrivent de la très mauvaise poésie

Si et quand les machines prennent le pouvoir, ce ne sera pas comme nous l’avons rêvé. Ce ne sera pas un haut-parleur intelligent froid et meurtrier, ni un androïde albinos, ni un tissu vivant sur un endosquelette métallique, en forme de bodybuilder autrichien. On aurait pu deviner qu’ils finiraient par nous battre à des trucs comme les échecs. Et au Go. Et les jeux vidéo de compétition. Mais ce sont des tâches froides et calculatrices, adaptées aux machines. Nous nous sommes dit qu’ils ne seraient jamais que des ordinateurs : rigides, rationnels, insensibles. Les caractéristiques vraiment humaines seraient toujours les nôtres. Le coeur chaud et gluant, qu’aucun algorithme ne pourra jamais copier.

Mais en réalité, les robots seront beaucoup plus réalistes – et de ce fait, encore plus troublants. Ils n’auront pas l’air d’être des robots, parce qu’ils auront la même voix que nous. Ils pourraient aussi nous ressembler. Ils pourraient avoir des psychoses, des rêves surréalistes et bizarres. Et un jour prochain, ils pourraient même écrire des vers décents.

emily dickinson

C’est une tentative générée par une IA d’écrire dans le style d’Emily Dickinson. Elle est produite par un programme de langage d’intelligence artificielle appelé GPT-2, un projet de la société de recherche OpenAI basée à San Francisco. Les parties en gras représentent l’invite donnée au programme, tandis que le reste est propre au programme ; vous pouvez l’essayer par vous-même, à ce lien. OpenAI n’a que récemment publié le code complet de GPT-2, après avoir craint au départ qu’il ne contribue à amplifier les spams et les fake news ; si sa fausse poésie est une indication, le débat sur la puissance des modèles de langage de l’IA pourrait ne faire que commencer.

Utilisant GPT-2, un groupe de travailleurs de la Silicon Valley a, pour notre et leur propre amusement, compilé une collection de tentatives de l’IA pour compléter des œuvres de poésie célèbres. Le recueil qui en résulte, Transformer Poetry, publié par Paper Gains Publishing en décembre, est une collection ironique de vers générés par ordinateur, étonnamment bons et comiquement absurdes. Pour l’instant, personne ne le confondra avec de la poésie humaine – du moins, on peut l’espérer. Mais à d’autres égards, c’est aussi étonnamment réaliste : un regard troublant sur la façon dont les auteurs inorganiques pourraient devenir bons, et les conséquences qui pourraient en découler.

Les programmes informatiques nous ressemblent beaucoup plus ces derniers temps, en grande partie parce qu’ils sont de plus en plus modelés sur nos propres esprits. Le domaine en plein essor de l’apprentissage automatique – dont les produits sont familiers à quiconque a utilisé l’assistant vocal ou la reconnaissance d’images de son smartphone – a été stimulé par le concept de réseau neuronal, dans lequel les nœuds individuels, semblables aux neurones, « apprennent » à construire un réseau complexe d’associations par essais et erreurs. Alors que les programmes traditionnels reçoivent des règles qui déterminent leurs résultats, les réseaux neuronaux reçoivent plutôt les résultats souhaités, à partir desquels ils apprennent, par des millions et des milliards d’essais répétés, leurs propres moyens de les atteindre.

Pour sa formation, GPT-2 a reçu un corpus de 8 millions de pages web, choisies avec une méthode de sélection naturelle typiquement Internet : « Afin de préserver la qualité des documents, nous n’avons utilisé que des pages qui ont été sélectionnées/filtrées par des humains – plus précisément, nous avons utilisé des liens sortants de Reddit qui ont reçu au moins 3 karma ». Par essais et erreurs, GPT-2 a appris à prédire le reste d’un texte à partir des premiers mots ou des premières phrases. A son tour, cela lui a donné une méthode générale pour compléter d’autres textes, indépendamment du contenu ou du genre.

sonnet 18

A première vue, la capacité d’imitation de GPT-2 est impressionnante : la diction, la grammaire et la syntaxe sont toutes des bonds au-delà de ce que la plupart d’entre nous attendraient d’un ordinateur. Mais si vous louchez davantage, les failles apparaissent immédiatement. Son interprétation du plus célèbre des sonnets de Shakespeare jette immédiatement la rime et le mètre par la fenêtre – mais bon, la plupart d’entre nous se souviennent à peine de ces règles. La métaphore entre la bien-aimée du narrateur et un jour d’été est également perdue, car la machine opte pour une litanie d’images ayant trait au temps chaud, suivie d’un pivot soudain vers un ciel nuageux. Et au lieu de l’immortalisation finale de la beauté par Shakespeare, nous obtenons une inversion si parfaite qu’elle en est perverse : Dis-moi que tu es belle, et fais-le vite !

the road not taken

D’autres tentatives ont du sens, à proprement parler, mais dévient vers des résultats inattendus. Prenez « The Road Not Taken », par exemple. Alors que l’original de Frost traite vraiment de l’illusion que son choix « a fait toute la différence », et que la plupart des gens s’en souviennent comme d’un hymne à l’iconoclasme robuste et à la prise de la route « moins fréquentée » – ce qui lui vaut le statut de « poème le plus mal lu en Amérique » – GPT-2 trouve en quelque sorte une troisième voie, créant un narrateur qui est tellement torturé par le désespoir d’avoir pris le mauvais chemin qu’il revient désespérément sur ses pas, pour découvrir que la route est fermée.

still i rise

GPT-2 a tendance à prendre un morceau de syntaxe et à courir avec, comme il le fait ici, en filant le mode « I will » du dernier verset qui lui a été donné du poème d’Angelou et en le mutant ad nauseum. Cela ressemble presque à de l’improvisation amateur, l’IA se bloquant alors qu’elle essaie de trouver quoi faire d’autre. « La répétition est une chose facile à modéliser », explique David Luan, vice-président de l’ingénierie chez OpenAI. « L’écriture humaine a tendance à en avoir juste assez pour que le modèle apprenne que la répétition des choses augmente la probabilité de succès. »

Luan dit aussi que c’est le résultat d’une méthode statistique appelée top-k sampling, dans laquelle une certaine fraction du pool de mots suivants possibles est éliminée, afin d’empêcher le texte de dévier du sujet. Mais ces méthodes visant à éviter les erreurs flagrantes ont aussi, semble-t-il, pour effet d’amplifier certaines tendances jusqu’à un extrême absurde.

edge

Malgré cela, l’esprit poétique de GPT-2 diverge parfois de manière beaucoup plus inexplicable, créant un narrateur à la première personne qui n’existe pas dans l’original, et générant des pensées qui n’ont que peu de rapport avec leur source mais qui sont néanmoins étrangement profondes : « Les derniers mots d’une civilisation faite par l’homme / Sont les mots : ‘Nous sommes libres’. » Et au cas où vous seriez curieux, aucune de ces phrases n’apparaît dans les recherches en ligne ; quelle que soit la sensibilité poétique du programme, elles ne sont pas totalement dénuées d’originalité.

Il y a un fil conducteur ici. L’écriture de GPT-2 est grammaticalement correcte. Tout semble plus ou moins fidèle à sa source, si on n’entend que le ton. Mais ce que ces séquences signifient, c’est là que le bât blesse. La poésie de TPG-2 privilégie le style à la substance. Ce qui est compréhensible, car il ne sait pas ce qu’est la substance.

Etant un pur modèle de langage, GPT-2 n’a aucune connaissance de ce que les mots désignent réellement, seulement la probabilité qu’un mot apparaisse à côté d’autres. Pour lui, un mot comme « chaise » n’est qu’une chaîne de caractères, pas un groupe d’images ou d’objets, et encore moins un groupe conceptuel plus nébuleux de choses sur lesquelles les humains s’assoient. Selon ses créateurs, les défaillances les plus courantes de GPT-2 proviennent de cette ignorance de base : « Nous avons observé divers modes d’échec, tels que des textes répétitifs, des échecs de modélisation du monde (par exemple, le modèle écrit parfois que des incendies se produisent sous l’eau), et des changements de sujet non naturels. » En l’absence de toute connaissance des référents, le processus de GPT-2 fonctionne plutôt comme une sémiotique sans signification – un jeu de signifiants seulement, sans que rien ne soit signifié.

D’une certaine manière, cela ressemble à la façon dont les humains développent et utilisent le langage. Les enfants copient fréquemment des mots et les utilisent dans des séquences grammaticales avant de savoir ce qu’ils disent. L’esprit d’un écrivain, lui aussi, fonctionne de manière désordonnée et associative, absorbant et régurgitant des idiomes et des syntaxes, des morceaux de chaînes esthétiquement agréables. Mais entre les mains d’un utilisateur humain et mature, tous ces modèles sont en fin de compte ancrés dans le sens – l’objectif étant de transmettre un sentiment ou une pensée, et non pas simplement de donner l’impression que vous le faites. Une jolie tournure de phrase ne signifie rien, à moins qu’elle ne signifie exactement quelque chose.

C’est le véritable chaînon manquant entre les machines et la littérature : une connaissance de la réalité, la chose pour laquelle l’homme a créé le langage pour la décrire. Certains soutiennent même qu’un être physique est nécessaire pour produire une véritable intelligence – qu’aucune expérience désincarnée du monde ne rendra jamais une machine aussi sensible que nous. Il est clair que l’ère de l’IA pourrait s’accompagner de risques importants – mais il est bon de savoir que pour l’instant, au moins, notre âme poétique est sauve.