Maskinerna kommer, och de skriver riktigt dålig poesi
Om och när maskinerna tar över kommer det inte att bli som vi drömt om. Det kommer inte att vara en kall, mordisk smart högtalare, eller en albino android, eller levande vävnad över ett endoskelett av metall, formad som en österrikisk kroppsbyggare. Vi kunde ha gissat att de så småningom skulle slå oss i saker som schack. Och Go. Och konkurrenskraftiga videospel. Men det är kalla och beräknande uppgifter som passar för maskiner. Vi intalade oss själva att de bara skulle vara, ja, datorer: stela, rationella, okänsliga. De verkligt mänskliga egenskaperna skulle alltid vara våra. Det varma, smaskiga hjärtat, som ingen algoritm någonsin skulle kunna kopiera.
Men i verkligheten kommer robotarna att vara mycket mer verklighetstrogna – och på grund av det ännu mer oroväckande. De kommer inte att låta robotar, för de kommer att låta precis som vi. De kanske ser ut precis som vi också. De kanske har psykoser och trippiga, surrealistiska drömmar. Och en dag snart kanske de till och med skriver några anständiga verser.
Detta är ett AI-genererat försök att skriva i stil med Emily Dickinson. Det produceras av ett språkprogram för artificiell intelligens vid namn GPT-2, ett projekt av det San Francisco-baserade forskningsföretaget OpenAI. De fetstilade delarna representerar den uppmaning som ges till programmet, medan resten är programmets eget; du kan prova det själv, på den här länken. OpenAI släppte först nyligen den fullständiga koden för GPT-2, efter att till en början ha befarat att det skulle bidra till att förstärka skräppost och falska nyheter; om dess falska poesi är någon indikation kan debatten om kraften hos AI-språkmodeller kanske bara ha börjat.
Med hjälp av GPT-2 har en grupp Silicon Valley-anställda för vår och sin egen underhållning sammanställt en samling av AI:ns försök att fullborda berömda diktsamlingar. Den resulterande chapbooken, Transformer Poetry, som publicerades av Paper Gains Publishing i december, är en tongivande samling överraskande bra och komiskt nonsensartade datorgenererade verser. Ingen kommer att förväxla den med mänsklig poesi ännu – eller åtminstone hoppas man det. Men på andra sätt är den också slående verklighetstrogen: en kuslig titt på hur bra oorganiska författare kan bli, och vilka konsekvenser det kan få.
Datorprogram har blivit mycket mer lika oss på senare tid, till stor del på grund av att de i allt högre grad är modellerade efter våra egna sinnen. Det blomstrande området för maskininlärning – vars produkter är bekanta för alla som har använt sin smartphones röstassistent eller bildigenkänning – har drivits på av begreppet neuralt nätverk, där enskilda noder, som liknar neuroner, ”lär” sig att bygga upp ett komplext nät av associationer genom försök och misstag. Medan traditionella program får regler som bestämmer resultatet, får neurala nät i stället de önskade resultaten, från vilka de genom miljontals och återkommande försök lär sig sina egna sätt att uppnå dem.
För sin träning fick GPT-2 en korpus med 8 miljoner webbsidor, som valdes ut med hjälp av en typisk Internet-aktig metod för naturligt urval: ”För att bevara dokumentkvaliteten”, står det i OpenAI:s inlägg, ”använde vi endast sidor som har kurerats/filtrerats av människor – närmare bestämt använde vi utgående länkar från Reddit som fått minst 3 karma”. Genom försök och misstag lärde sig GPT-2 att förutsäga resten av en text, med tanke på endast de första orden eller meningarna. Detta gav den i sin tur en allmän metod för att komplettera andra texter, oavsett innehåll eller genre.
Om man ser det vid första anblicken är GPT-2:s förmåga att imitera imponerande: diktion, grammatik och syntax är alla språng över vad de flesta av oss skulle förvänta oss av en dator. Men om man kisar hårdare visar sig genast sprickorna. Dess tolkning av Shakespeares mest berömda sonett kastar genast rim och mättal ur fönstret – men de flesta av oss kommer knappt ihåg dessa regler heller. Förlorad är också metaforen mellan berättarens älskade och en sommardag, eftersom maskinen i stället väljer en litania av bilder som har med varmt väder att göra, följt av en plötslig sväng till molnig himmel. Och i stället för Shakespeares avslutande odödliggörande av skönhet får vi en inversion som är så perfekt att den är pervers:
Andra försök är vettiga, strikt sett, men leder till oväntade resultat. Ta till exempel ”The Road Not Taken”. Frosts original handlar egentligen om självbedrägeriet att ens val ”har gjort hela skillnaden”, och de flesta minns den som en hyllning till robust ikonoklasm och till att ta den ”mindre trafikerade vägen” – vilket är rättvist för dess status som ”den mest misslästa dikten i Amerika” – men GPT-2 hittar på något sätt en tredje väg och skapar en berättare som är så förtvivlad över att ha tagit fel väg att han eller hon desperat återvänder till sina steg, bara för att upptäcka att den andra vägen är stängd.
GPT-2 har en tendens att ta ett stycke syntax och köra med det, vilket den gör här, genom att snurra av ”I will”-läget från den sista versen som den fick i Angelous dikt och mutera det ad nauseum. Det känns nästan som amatörmässig improvisation, AI:n stannar upp när den försöker komma på vad den ska göra. ”Upprepning är en enkel sak att modellera”, säger David Luan, vice ordförande för teknik på OpenAI. ”Människors skrivande tenderar att innehålla tillräckligt mycket av det för att modellen ska lära sig att upprepning ökar sannolikheten för framgång.”
Luan säger också att detta är resultatet av en statistisk metod som kallas top-k sampling, där en viss andel av de möjliga nästa orden elimineras för att förhindra att texten avviker från ämnet. Men dessa metoder för att undvika flagranta fel verkar också ha den effekten att de förstärker vissa tendenser till en absurd ytterlighet.
Trots detta avviker GPT-2:s poetiska sinne ibland på ett mycket mer oförklarligt sätt, genom att skapa en jag-berättare som inte existerar i originalet och genom att generera tankar som inte har något som helst samband med sin källa, men som trots det är märkligt djupa: ”De sista orden från en mänskligt skapad civilisation / är orden: ’Vi är fria’.” Och om du är nyfiken så dyker ingen av dessa fraser upp i någon sökning på nätet; oavsett programmets poetiska känslighet är de inte helt ooriginala.
Det finns en gemensam nämnare här. GPT-2:s texter är grammatiskt korrekta. Det hela låter mer eller mindre troget mot sin källa, om man bara hörde tonen. Men vad dessa sekvenser betyder, det är det som är problemet. GPT-2:s poesi värderar stilen högre än substansen. Vilket är förståeligt, eftersom den inte vet vad substans är.
Som en renodlad språkmodell har GPT-2 ingen kunskap om vad ord faktiskt hänvisar till, bara sannolikheten för att ett ord förekommer bredvid andra. För den är ett ord som ”stol” bara en teckensträng, inte ett kluster av bilder eller objekt, än mindre en mer nebulös konceptuell gruppering av saker som människor sitter på. Enligt dess skapare beror GPT-2:s vanligaste misstag på denna grundläggande okunskap: ”Vi har observerat olika typer av fel, t.ex. repetitiv text, fel i modelleringen av världen (t.ex. skriver modellen ibland om bränder under vatten) och onaturliga ämnesbyten. Eftersom GPT-2 saknar kunskap om referenter fungerar GPT-2:s process i stället ungefär som en semiotik utan mening – ett spel med endast signifiers, utan att något är signifierat.
På sätt och vis känns detta likt hur människor utvecklar och använder språk. Barn kopierar ofta ord och använder dem i grammatiska sekvenser innan de vet vad de säger. Även en författares sinne arbetar på ett slumpmässigt och associativt sätt, absorberar och regurgiterar idiom och syntaxer, bitar av estetiskt tilltalande strängar. Men i händerna på en mogen, mänsklig användare är alla dessa mönster i slutändan förankrade i en mening – målet är att förmedla en känsla eller tanke, inte bara att låta som du gör. En vacker vändning betyder ingenting om den inte betyder exakt något.
Detta är den verkliga felande länken mellan maskiner och litteratur: en kunskap om verkligheten, det som människan skapade språket för att beskriva. Vissa hävdar till och med att en fysisk varelse är nödvändig för att frambringa sann intelligens – att ingen obestämd erfarenhet av världen någonsin kommer att göra en maskin lika kännande som vi är. Det är uppenbart att AI:s tidsålder kan komma att medföra betydande risker – men det är skönt att veta att vår poetiska själ åtminstone för tillfället är säker.