The Machines Are Coming, and They Write Really Bad Poetry
Se e quando le macchine prenderanno il sopravvento, non sarà come lo abbiamo sognato. Non sarà un freddo e omicida altoparlante intelligente, o un androide albino, o un tessuto vivente sopra un endoscheletro di metallo, a forma di bodybuilder austriaco. Potevamo immaginare che alla fine ci avrebbero battuto a cose come gli scacchi. E a Go. E ai videogiochi competitivi. Ma questi sono compiti freddi e calcolatori, adatti alle macchine. Ci siamo detti che sarebbero stati solo, beh, computer: rigidi, razionali, insensibili. Le caratteristiche veramente umane sarebbero sempre state nostre. Il cuore caldo e appiccicoso, che nessun algoritmo potrebbe mai copiare.
Ma in realtà, i robot saranno molto più realistici e, per questo, ancora più inquietanti. Non sembreranno robotici, perché suoneranno proprio come noi. Potrebbero anche assomigliare a noi. Potrebbero avere psicosi, e sogni tripposi e surrealisti. E un giorno, presto, potrebbero anche scrivere qualche verso decente.
Questo è un tentativo generato dall’IA di scrivere nello stile di Emily Dickinson. È prodotto da un programma di intelligenza artificiale chiamato GPT-2, un progetto della società di ricerca OpenAI di San Francisco. Le porzioni in grassetto rappresentano il prompt dato al programma, mentre il resto è il programma stesso; potete provarlo voi stessi, a questo link. OpenAI ha rilasciato solo di recente il codice completo di GPT-2, dopo aver inizialmente temuto che avrebbe aiutato ad amplificare lo spam e le fake news; se la sua falsa poesia è un’indicazione, il dibattito sul potere dei modelli di linguaggio AI potrebbe essere appena iniziato.
Utilizzando GPT-2, un gruppo di lavoratori della Silicon Valley ha, per il nostro e il loro divertimento, compilato una raccolta di tentativi da parte dell’AI di completare famose opere di poesia. Il chapbook risultante, Transformer Poetry, pubblicato da Paper Gains Publishing in dicembre, è una collezione ironica di versi sorprendentemente buoni e comicamente senza senso generati dal computer. Nessuno la confonderà ancora con la poesia umana – o almeno, si spera di no. Ma in altri modi, è anche sorprendentemente realistico: uno sguardo inquietante su quanto possano diventare bravi gli autori inorganici, e le conseguenze che ne potrebbero derivare.
I programmi informatici sono diventati molto più simili a noi di recente, in gran parte perché sono sempre più modellati sulla nostra mente. Il campo in espansione del machine learning – i cui prodotti sono familiari a chiunque abbia usato l’assistente vocale del proprio smartphone o il riconoscimento delle immagini – è stato guidato dal concetto di rete neurale, in cui i singoli nodi, simili ai neuroni, “imparano” a costruire una complessa rete di associazioni attraverso prove ed errori. Mentre ai programmi tradizionali vengono date delle regole che determinano i suoi risultati, alle reti neurali vengono invece dati i risultati desiderati, dai quali imparano, attraverso milioni e miliardi di prove ripetute, i loro modi per raggiungerli.
Per il suo addestramento, GPT-2 ha ricevuto un corpus di 8 milioni di pagine web, scelte con un metodo di selezione naturale tipicamente Internet: “Al fine di preservare la qualità dei documenti”, afferma il post di OpenAI, “abbiamo usato solo pagine che sono state curate/filtrate da esseri umani – in particolare, abbiamo usato link in uscita da Reddit che hanno ricevuto almeno 3 karma”. Attraverso prove ed errori, GPT-2 ha imparato a prevedere il resto di un pezzo di testo, date solo le prime parole o frasi. A sua volta, questo gli ha dato un metodo generale per completare altri testi, indipendentemente dal contenuto o dal genere.
A prima vista, la capacità di imitazione di GPT-2 è impressionante: la dizione, la grammatica e la sintassi sono tutti salti oltre quello che la maggior parte di noi si aspetta da un computer. Ma se si strizza di più l’occhio, le crepe si mostrano immediatamente. La sua interpretazione del più famoso dei sonetti di Shakespeare getta immediatamente rima e metro fuori dalla finestra – ma ehi, la maggior parte di noi ricorda a malapena quelle regole. Si perde anche la metafora tra l’amata del narratore e un giorno d’estate, dato che la macchina opta invece per una litania di immagini che hanno a che fare con il caldo, seguite da un’improvvisa virata verso cieli nuvolosi. E al posto dell’immortalazione conclusiva della bellezza di Shakespeare, abbiamo un’inversione così perfetta da essere perversa: Dimmi che sei bella, e fallo in fretta!
Altri tentativi hanno senso, in senso stretto, ma virano verso risultati inaspettati. Prendiamo “The Road Not Taken”, per esempio. Mentre l’originale di Frost parla in realtà dell’auto-illusione che la propria scelta “ha fatto tutta la differenza”, e la maggior parte delle persone lo ricorda come un inno all’iconoclastia robusta e al prendere la strada “meno battuta” – che si addice al suo status di “poesia più fraintesa d’America” – GPT-2 in qualche modo trova una terza via, creando un narratore che è così tormentato dalla disperazione per aver preso la strada sbagliata che torna disperatamente sui suoi passi, solo per scoprire che l’altra strada è chiusa.
GPT-2 ha la tendenza a prendere un pezzo di sintassi e a correre con esso, come fa qui, filando il modo “I will” dall’ultimo verso della poesia di Angelou e mutandolo ad nauseum. Sembra quasi un’improvvisazione amatoriale, l’IA si blocca mentre cerca di capire cos’altro fare. “La ripetizione è una cosa facile da modellare”, dice David Luan, VP di ingegneria di OpenAI. “La scrittura umana tende ad averne abbastanza che il modello impara che ripetere le cose aumenta la probabilità di successo”.
Luan dice anche che questo è il risultato di un metodo statistico chiamato campionamento top-k, in cui una certa frazione del pool di possibili parole successive viene eliminata, per evitare che il testo vada fuori tema. Ma questi metodi per evitare errori madornali hanno anche l’effetto, a quanto pare, di amplificare certe tendenze fino all’assurdo.
Nonostante ciò, la mente poetica di GPT-2 a volte diverge in modo molto più inspiegabile, creando un narratore in prima persona che non esiste nell’originale, e generando pensieri che hanno poca relazione con la loro fonte ma sono, tuttavia, stranamente profondi: “Le ultime parole di una civiltà fatta dall’uomo / sono le parole: ‘Siamo liberi'”. E nel caso siate curiosi, nessuna di queste frasi compare nelle ricerche online; qualunque sia la sensibilità poetica del programma, non sono del tutto prive di originalità.
C’è un filo comune qui. La scrittura di GPT-2 è grammaticalmente corretta. Tutto suona più o meno fedele alla sua fonte, se si sente solo il tono. Ma cosa significhino quelle sequenze, qui sta il problema. La poesia di GPT-2 privilegia lo stile alla sostanza. Il che è comprensibile, perché non sa cosa sia la sostanza.
Essendo un puro modello di linguaggio, GPT-2 non ha alcuna conoscenza di ciò a cui le parole si riferiscono effettivamente, solo la probabilità che una parola appaia accanto ad altre. Per lui, una parola come “sedia” è solo una stringa di caratteri, non un gruppo di immagini o oggetti, per non parlare di un più nebuloso raggruppamento concettuale di cose su cui gli esseri umani si siedono. Secondo i suoi creatori, i difetti più comuni di GPT-2 derivano da questa ignoranza di base: “Abbiamo osservato varie modalità di fallimento, come testo ripetitivo, fallimenti nella modellazione del mondo (ad esempio, il modello a volte scrive di incendi che avvengono sotto l’acqua), e innaturale cambio di argomento”. Mancando qualsiasi conoscenza dei referenti, il processo di GPT-2 funziona invece come una semiotica senza significato – un gioco di soli significanti, senza che nulla sia significato.
In qualche modo, questo sembra simile a come gli umani sviluppano e usano il linguaggio. I bambini copiano spesso le parole e le usano in sequenze grammaticali prima di sapere cosa stanno dicendo. Anche la mente di uno scrittore lavora in modo casuale e associativo, assorbendo e rigurgitando idiomi e sintassi, pezzi di stringhe esteticamente piacevoli. Ma nelle mani di un utente maturo e umano, tutti questi schemi sono alla fine ancorati al significato – l’obiettivo di trasmettere un sentimento o un pensiero, non semplicemente suonare come se lo si fosse. Un bel giro di parole non significa nulla, a meno che non significhi esattamente qualcosa.
Questo è il vero anello mancante tra le macchine e la letteratura: una conoscenza della realtà, la cosa per cui l’uomo ha creato il linguaggio per descrivere. Alcuni sostengono addirittura che un essere fisico sia necessario per produrre una vera intelligenza – che nessuna esperienza disincarnata del mondo potrà mai rendere una macchina senziente come noi. Chiaramente, l’era dell’IA potrebbe venire con rischi significativi, ma è bello sapere che per il momento, almeno, la nostra anima poetica è al sicuro.