Maskinerne kommer, og de skriver virkelig dårlig poesi

Hvis og når maskinerne overtager magten, bliver det ikke, som vi har drømt om det. Det vil ikke være en kold, morderisk smart højttaler, eller en albino-androide, eller levende væv over et metalendoskelet, formet som en østrigsk bodybuilder. Vi kunne have gættet, at de til sidst ville slå os i ting som skak. Og Go. Og konkurrerende videospil. Men det er kolde og beregnende opgaver, som egner sig til maskiner. Vi fortalte os selv, at de kun ville være, ja, computere: stive, rationelle, følelsesløse. De virkelig menneskelige træk ville altid være vores. Det varme, smørhede hjerte, som ingen algoritme nogensinde kan kopiere.

Men i virkeligheden vil robotterne være langt mere naturtro – og derfor endnu mere foruroligende. De vil ikke lyde som robotter, for de vil lyde ligesom os. De vil måske også se ud som os. De vil måske have psykoser og trippede, surrealistiske drømme. Og en dag snart vil de måske endda skrive nogle ordentlige vers.

emily dickinson

Dette er et AI-genereret forsøg på at skrive i stil med Emily Dickinson. Det er produceret af et sprogprogram med kunstig intelligens kaldet GPT-2, der er et projekt af det San Francisco-baserede forskningsfirma OpenAI. De fede dele repræsenterer den prompt, som programmet har fået, mens resten er programmets eget; du kan selv prøve det på dette link. OpenAI har først for nylig frigivet den fulde kode til GPT-2, efter i første omgang at have frygtet, at det ville bidrage til at forstærke spam og falske nyheder; hvis dens falske poesi er nogen indikation, er debatten om AI-sprogmodellers magt måske kun lige begyndt.

Med GPT-2 har en gruppe medarbejdere fra Silicon Valley til vores og deres egen morskab samlet en samling af AI’ens forsøg på at fuldføre berømte digte. Den resulterende chapbook, Transformer Poetry, der blev udgivet af Paper Gains Publishing i december, er en ironisk samling af overraskende gode og komisk nonsensagtige computergenererede vers. Ingen vil forveksle den med menneskelig poesi endnu – eller det håber man i hvert fald ikke. Men på andre måder er den også påfaldende livagtig: et uhyggeligt blik på, hvor gode uorganiske forfattere kan blive, og hvilke konsekvenser det kan få.

Computerprogrammer er blevet meget mere lig os på det seneste, i høj grad fordi de i stigende grad er modelleret efter vores egen hjerne. Det blomstrende felt for maskinindlæring – hvis produkter er velkendte for alle, der har brugt deres smartphones stemmeassistent eller billedgenkendelse – har været drevet af begrebet neuralt netværk, hvor individuelle knuder, der ligner neuroner, “lærer” at opbygge et komplekst net af associationer gennem forsøg og fejl. Hvor traditionelle programmer får regler, der bestemmer deres output, får neurale net i stedet de ønskede resultater, hvorfra de gennem millioner og milliarder af gentagne forsøg lærer deres egne måder at opnå dem på.

Til sin træning fik GPT-2 et korpus på 8 millioner websider, der blev udvalgt ved hjælp af en helt igennem internet-agtig metode med naturlig udvælgelse: “For at bevare dokumentkvaliteten”, står der i OpenAI’s indlæg, “brugte vi kun sider, der er blevet kurateret/filtreret af mennesker – specifikt brugte vi udgående links fra Reddit, som har fået mindst 3 karma.” Gennem forsøg og fejl lærte GPT-2 at forudsige resten af et stykke tekst på baggrund af kun de første par ord eller sætninger. Dette gav den til gengæld en generel metode til at udfylde andre tekster, uanset indhold eller genre.”

sonnet 18

Op det første øjekast er GPT-2’s evne til at efterligne imponerende: ordsprog, grammatik og syntaks er alle sammen spring over, hvad de fleste af os ville forvente af en computer. Men hvis man kniber øjnene mere sammen, viser der sig straks sprækker. Dens gengivelse af den mest berømte af Shakespeares sonetter kaster straks rim og metermål ud af vinduet – men de fleste af os kan jo heller ikke huske disse regler. Også metaforen mellem fortællerens elskede og en sommerdag går tabt, da maskinen i stedet vælger en litani af billeder, der har noget med varmt vejr at gøre, efterfulgt af en pludselig drejning til en skyet himmel. Og i stedet for Shakespeares afsluttende udødeliggørelse af skønheden får vi en omvending, der er så perfekt, at den er pervers: Sig mig, at du er smuk, og gør det hurtigt!

the road not taken

Andre forsøg giver strengt taget mening, men fører til uventede resultater. Tag for eksempel “The Road Not Taken”. Mens Frosts original egentlig handler om selvbedrag om, at ens valg “har gjort hele forskellen”, og de fleste mennesker husker det som en hyldest til robust ikonoklasme og til at tage den “mindre befærdede vej” – hvilket passer til dets status som “det mest misforståede digt i Amerika” – finder GPT-2 på en eller anden måde en tredje vej og skaber en fortæller, der er så fortvivlet over at have taget den forkerte vej, at han desperat sporer sine skridt tilbage, blot for at finde ud af, at den anden vej er lukket.

still i rise

GPT-2 har en tendens til at tage et stykke syntaks og løbe med det, som den gør her, idet den spinder “I will”-måden af fra det sidste vers, den fik i Angelous digt, og muterer den ad nauseum. Det føles næsten som amatørimprovisation, hvor AI’en går i stå, mens den forsøger at finde ud af, hvad den ellers skal gøre. “Gentagelse er en nem ting at modellere”, siger David Luan, VP of Engineering hos OpenAI. “Menneskelige tekster har tendens til at indeholde lige nok af det til, at modellen lærer, at gentagelse af ting øger sandsynligheden for succes.”

Luan siger også, at dette er resultatet af en statistisk metode kaldet top-k sampling, hvor en vis brøkdel af puljen af mulige næste ord elimineres for at forhindre, at teksten kommer ud af emnet. Men disse metoder til at undgå uhyrlige fejl har tilsyneladende også den virkning, at de forstærker visse tendenser til en absurd yderlighed.

edge

På trods af dette afviger GPT-2’s poetiske sind nogle gange på langt mere uforklarlig vis, idet det skaber en jeg-fortæller, der ikke eksisterer i originalen, og genererer tanker, der har ringe relation til deres kilde, men som ikke desto mindre er mærkeligt dybsindige: “De sidste ord fra en menneskeskabt civilisation / Er ordene: ‘Vi er frie’.” Og hvis du er nysgerrig, så dukker ingen af disse sætninger op i nogen online-søgninger; uanset programmets poetiske følsomhed er de ikke helt uoriginale.

Der er en rød tråd her. GPT-2’s skrift er grammatisk korrekt. Det hele lyder mere eller mindre tro mod sin kilde, hvis man kun hørte tonen. Men hvad disse sekvenser betyder, det er der, der er problemet. GPT-2’s poesi prioriterer stil frem for substans. Hvilket er forståeligt, for den ved ikke, hvad substans er.

Som en ren sprogmodel har GPT-2 ingen viden om, hvad ord faktisk henviser til, kun om sandsynligheden for, at et ord optræder ved siden af andre. For den er et ord som “stol” blot en streng af tegn, ikke en klynge af billeder eller objekter, og slet ikke en mere uklar begrebsmæssig gruppering af ting, som mennesker sidder på. Ifølge dets udviklere stammer GPT-2’s mest almindelige fejl fra denne grundlæggende uvidenhed: “Vi har observeret forskellige fejl, f.eks. gentagende tekst, fejl i verdensmodelleringen (f.eks. skriver modellen nogle gange om brande, der sker under vand) og unaturlige emneskift.” Da GPT-2’s proces mangler viden om referenter, fungerer den i stedet som en semiotik uden betydning – et spil med kun signifiers, uden at noget bliver significeret.

På nogle måder føles det som om det ligner den måde, hvorpå mennesker udvikler og bruger sprog. Børn kopierer ofte ord og bruger dem i grammatiske sekvenser, før de ved, hvad de siger. En forfatters hjerne arbejder også på en tilfældig og associativ måde, idet den absorberer og regurgiterer idiomer og syntakser, bidder af æstetisk tiltalende strenge. Men i hænderne på en moden, menneskelig bruger er alle disse mønstre i sidste ende forankret i en mening – målet er at formidle en følelse eller tanke og ikke blot at lyde som om man er det. En smuk vending betyder intet, medmindre den betyder præcis noget.

Det er det virkelige manglende led mellem maskiner og litteratur: en viden om virkeligheden, det, som mennesket har skabt sproget til at beskrive. Nogle hævder endda, at et fysisk væsen er nødvendigt for at frembringe sand intelligens – at ingen kropsløs oplevelse af verden nogensinde vil kunne gøre en maskine lige så følende som os selv. Det er klart, at AI’s tidsalder kan være forbundet med betydelige risici – men det er rart at vide, at vores poetiske sjæl i det mindste for øjeblikket er i sikkerhed.