Vin mașinile și scriu poezii foarte proaste

Dacă și când mașinile vor prelua controlul, nu va fi așa cum am visat. Nu va fi un difuzor inteligent, rece și ucigaș, sau un android albinos, sau țesut viu peste un endoschelet metalic, în forma unui culturist austriac. Am fi putut ghici că ne vor bate în cele din urmă la lucruri precum șahul. Și la Go. Și la jocuri video competitive. Dar acestea sunt sarcini reci și calculatoare, potrivite pentru mașini. Ne-am spus că vor fi doar, ei bine, computere: rigide, raționale, lipsite de sentimente. Caracteristicile cu adevărat umane vor fi întotdeauna ale noastre. Inima caldă și lipicioasă, pe care niciun algoritm nu ar putea să o copieze vreodată.

Dar, în realitate, roboții vor fi mult mai realiști – și din această cauză, chiar mai tulburători. Ei nu vor suna robotic, pentru că vor suna exact ca noi. S-ar putea să arate și ei exact ca noi. S-ar putea să aibă psihoze și vise ciudate, suprarealiste. Și într-o zi, în curând, ar putea chiar să scrie niște versuri decente.

emily dickinson

Aceasta este o încercare generată de AI de a scrie în stilul lui Emily Dickinson. Este produsă de un program de limbaj de inteligență artificială numit GPT-2, un proiect al firmei de cercetare OpenAI din San Francisco. Porțiunile boldate reprezintă îndemnul dat programului, în timp ce restul este al programului însuși; îl puteți încerca singur, la acest link. OpenAI a publicat abia recent codul complet pentru GPT-2, după ce inițial s-a temut că va contribui la amplificarea spam-ului și a știrilor false; dacă poezia sa falsă este un indiciu, dezbaterea privind puterea modelelor lingvistice ale IA ar putea fi abia la început.

Utilizând GPT-2, un grup de lucrători din Silicon Valley au compilat, pentru amuzamentul nostru și al lor, o colecție de încercări ale IA de a completa opere celebre de poezie. Cartea de capitole rezultată, Transformer Poetry, publicată de Paper Gains Publishing în decembrie, este o colecție ironică de versuri surprinzător de bune și comic de absurde generate de calculator. Nimeni nu o va confunda deocamdată cu poezia umană – sau, cel puțin, ai spera că nu. Dar, în alte privințe, este, de asemenea, izbitor de realistă: o privire stranie la cât de buni ar putea deveni autorii anorganici și la consecințele care ar putea veni odată cu aceasta.

Programele de calculator au devenit mult mai asemănătoare cu noi în ultima vreme, în mare parte pentru că sunt din ce în ce mai mult modelate după propriile noastre minți. Domeniul în plină expansiune al învățării automate – ale cărui produse sunt familiare oricui a folosit asistentul vocal al smartphone-ului sau recunoașterea imaginilor – a fost impulsionat de conceptul de rețea neuronală, în care nodurile individuale, asemănătoare neuronilor, „învață” să construiască o rețea complexă de asociații prin încercări și erori. În timp ce programele tradiționale primesc reguli care îi determină rezultatele, rețelele neuronale primesc, în schimb, rezultatele dorite, din care învață, prin milioane și miliarde de încercări repetate, propriile modalități de a le obține.

Pentru antrenamentul său, GPT-2 a primit un corpus de 8 milioane de pagini web, alese printr-o metodă de selecție naturală, specifică internetului: „Pentru a păstra calitatea documentelor”, se arată în postarea OpenAI, „am folosit doar pagini care au fost curatoriate/filtrate de oameni – în mod specific, am folosit link-uri de ieșire din Reddit care au primit cel puțin 3 karma”. Prin încercări și erori, GPT-2 a învățat cum să prezică restul unui text, având în vedere doar primele câteva cuvinte sau propoziții. La rândul său, acest lucru i-a oferit o metodă generală de completare a altor texte, indiferent de conținut sau gen.

sonet 18

La prima vedere, capacitatea de imitație a lui GPT-2 este impresionantă: dicția, gramatica și sintaxa sunt toate cu mult peste ceea ce majoritatea dintre noi s-ar aștepta de la un computer. Dar dacă strângi mai tare ochii, fisurile apar imediat. Redarea sa a celui mai faimos dintre sonetele lui Shakespeare aruncă imediat rima și metrica pe fereastră – dar, hei, majoritatea dintre noi abia dacă ne amintim aceste reguli. Se pierde, de asemenea, metafora dintre iubita naratorului și o zi de vară, deoarece mașina optează în schimb pentru o litanie de imagini care au legătură cu vremea caldă, urmată de un pivot brusc spre cerul înnorat. Iar în locul imortalizării finale a frumuseții lui Shakespeare, avem parte de o inversiune atât de perfectă încât este perversă: Spune-mi că ești frumoasă, și fă-o repede!

the road not taken

Alte încercări au sens, strict vorbind, dar virează spre rezultate neașteptate. Să luăm, de exemplu, „The Road Not Taken”. În timp ce originalul lui Frost este, de fapt, despre autoamăgirea că alegerea cuiva „a făcut toată diferența”, iar cei mai mulți oameni și-l amintesc ca pe un imn al iconoclasmului aspru și al alegerii drumului „mai puțin străbătut” – ceea ce îi conferă statutul de „cel mai prost citit poem din America” – GPT-2 găsește cumva o a treia cale, creând un narator care este atât de răvășit de disperare pentru că a luat-o pe drumul greșit, încât își reface cu disperare pașii, doar pentru a descoperi că celălalt drum este închis.

still i rise

GPT-2 are tendința de a lua o bucată de sintaxă și de a alerga cu ea, așa cum face aici, învârtind modul „voi” din ultimul vers care i-a fost dat din poemul lui Angelou și mutându-l ad nauseum. Se simte aproape ca o improvizație de amator, inteligența artificială care trage de timp în timp ce încearcă să-și dea seama ce să mai facă. „Repetiția este un lucru ușor de modelat”, spune David Luan, vicepreședinte de inginerie la OpenAI. „Scrisul uman tinde să aibă suficient de multe astfel încât modelul învață că repetarea lucrurilor crește probabilitatea de reușită.”

Luan spune, de asemenea, că acesta este rezultatul unei metode statistice numite eșantionare top-k, în care o anumită fracțiune din fondul de posibile cuvinte următoare este eliminată, pentru a preveni ca textul să devieze de la subiect. Dar aceste metode de evitare a erorilor flagrante au și ele, se pare, efectul de a amplifica anumite tendințe până la o extremă absurdă.

edge

În ciuda acestui fapt, mintea poetică a lui GPT-2 deviază uneori mult mai inexplicabil, creând un narator la persoana întâi care nu există în original și generând gânduri care au puțină legătură cu sursa lor, dar care sunt, totuși, ciudat de profunde: „Ultimele cuvinte ale unei civilizații create de om / Sunt cuvintele: „Suntem liberi”.” Și, în cazul în care sunteți curioși, niciuna dintre aceste fraze nu apare în vreo căutare online; indiferent de sensibilitatea poetică a programului, ele nu sunt complet lipsite de originalitate.

Există un fir comun aici. Scrisul lui GPT-2 este corect din punct de vedere gramatical. Totul sună mai mult sau mai puțin fidel sursei sale, dacă tot ce ai auzit a fost tonul. Dar ce înseamnă acele secvențe, aici este problema. Poezia lui GPT-2 prețuiește stilul în detrimentul substanței. Ceea ce este de înțeles, pentru că nu știe ce este substanța.

Fiind un model lingvistic pur, GPT-2 nu știe la ce se referă de fapt cuvintele, ci doar probabilitatea ca un cuvânt să apară alături de altele. Pentru el, un cuvânt precum „scaun” este doar un șir de caractere, nu un grup de imagini sau obiecte, cu atât mai puțin o grupare conceptuală mai nebuloasă de lucruri pe care stau oamenii. Potrivit creatorilor săi, cele mai frecvente greșeli ale lui GPT-2 provin din această ignoranță de bază: „am observat diverse moduri de eșec, cum ar fi textul repetitiv, eșecuri de modelare a lumii (de exemplu, modelul scrie uneori despre incendii care au loc sub apă) și schimbarea nefirească a subiectului.” Lipsit de orice cunoaștere a referenților, procesul GPT-2 funcționează în schimb ceva de genul unei semiotici fără sens – un joc doar de semnificanți, fără ca nimic să fie semnificat.

În unele privințe, acest lucru pare similar cu modul în care oamenii dezvoltă și folosesc limbajul. Copiii copiază frecvent cuvinte și le folosesc în secvențe gramaticale înainte de a ști ce spun. Mintea unui scriitor, de asemenea, funcționează într-un mod întâmplător și asociativ, absorbind și regurgitând expresii și sintaxe, bucăți de șiruri plăcute din punct de vedere estetic. Dar, în mâinile unui utilizator matur și uman, toate aceste tipare sunt în cele din urmă ancorate în semnificație – scopul de a transmite un sentiment sau un gând, nu doar de a suna ca și cum ai fi. O întorsătură drăguță de frază nu înseamnă nimic, dacă nu înseamnă exact ceva.

Aceasta este adevărata verigă lipsă dintre mașini și literatură: o cunoaștere a realității, lucrul pentru care omul a creat limbajul pentru a-l descrie. Unii susțin chiar că o ființă fizică este necesară pentru a produce o inteligență adevărată – că nicio experiență neînsuflețită a lumii nu va face vreodată o mașină la fel de sensibilă ca noi. În mod clar, era inteligenței artificiale ar putea veni cu riscuri semnificative – dar este plăcut să știm că, cel puțin pentru moment, sufletul nostru poetic este în siguranță.