The Machines Are Coming, and They Write Really Bad Poetry

If and when the machines take over, it won’t be as we dreamt it. Não será um falante inteligente frio e homicida, ou um andróide albino, ou tecido vivo sobre um endosqueleto metálico, com a forma de um fisiculturista austríaco. Podíamos ter adivinhado que eles acabariam por nos vencer em coisas como xadrez. E vai. E jogos de vídeo competitivos. Mas isso são tarefas frias e calculistas, próprias para máquinas. Dissemos a nós mesmos que eles só seriam, bem, computadores: rígidos, racionais, insensíveis. As características verdadeiramente humanas seriam sempre as nossas. O coração quente e viscoso, que nenhum algoritmo jamais poderia copiar.

Mas na realidade, os robôs serão muito mais realistas – e por causa disso, ainda mais inquietantes. Eles não soarão robóticos, porque soarão exatamente como nós. Podem parecer-se connosco, também. Eles podem ter psicoses, e sonhos surrealistas e tripartidos. E algum dia em breve, eles podem até escrever algum verso decente.

emily dickinson

Esta é uma tentativa gerada pela IA de escrever ao estilo de Emily Dickinson. É produzido por um programa de linguagem de inteligência artificial chamado GPT-2, um projeto da empresa de pesquisa OpenAI, com sede em São Francisco. As porções ousadas representam o prompt dado ao programa, enquanto o resto é do próprio programa; você pode experimentá-lo por si mesmo, neste link. O OpenAI só recentemente lançou o código completo para o GPT-2, depois de inicialmente temer que ele ajudaria a amplificar spam e notícias falsas; se sua poesia falsa é alguma indicação, o debate sobre o poder dos modelos da linguagem AI pode estar apenas começando.

Usando o GPT-2, um grupo de trabalhadores do Vale do Silício compilou, para nossa e sua própria diversão, uma coleção de tentativas da IA para completar obras famosas de poesia. O livro de capítulos resultante, Transformer Poetry, publicado pela Paper Gains Publishing em dezembro, é uma coleção de versos surpreendentemente bons e cômicos, gerados por computador. Ninguém o confundirá com a poesia humana ainda – ou pelo menos, espera-se que não. Mas de outras formas, é também surpreendentemente realista: um olhar estranho sobre o quão bons autores inorgânicos podem se tornar, e as consequências que podem vir com isso.

Programas de computador se tornaram muito mais parecidos conosco nos últimos tempos, em grande parte porque eles são cada vez mais modelados de acordo com nossas próprias mentes. O campo em expansão da aprendizagem de máquinas – cujos produtos são familiares a qualquer pessoa que tenha usado o assistente de voz ou reconhecimento de imagem do seu smartphone – tem sido impulsionado pelo conceito de rede neural, na qual nós individuais, semelhantes aos neurônios, “aprendem” a construir uma complexa teia de associações através de tentativa e erro. Onde os programas tradicionais recebem regras que determinam seus resultados, as redes neurais recebem os resultados desejados, dos quais aprendem, através de milhões e bilhões de tentativas repetidas, suas próprias formas de alcançá-los.

Para seu treinamento, o GPT-2 recebeu um corpus de 8 milhões de páginas da web, escolhidas com um método quintessencialmente de seleção natural pela internet: “A fim de preservar a qualidade do documento”, o post do OpenAI diz, “usamos apenas páginas que foram curadas/filtradas por humanos especificamente, usamos links de saída da Reddit que receberam pelo menos 3 carma”. Através de tentativa e erro, GPT-2 aprendeu como prever o resto de um texto, dadas apenas as primeiras palavras ou sentenças. Por sua vez, isto deu-lhe um método geral para completar outros textos, independentemente do conteúdo ou género.

sonnet 18

À primeira vista, a capacidade de imitação do GPT-2 é impressionante: a dicção, a gramática e a sintaxe são todos saltos para além do que a maioria de nós esperaria de um computador. Mas, se você se esguichar mais, as rachaduras aparecem imediatamente. Sua interpretação do mais famoso dos sonetos de Shakespeare imediatamente joga rimas e medidores pela janela – mas ei, a maioria de nós mal se lembra dessas regras, também. Perdida também é a metáfora entre a amada do narrador e um dia de verão, já que a máquina opta por uma ladainha de imagens que tem a ver com o tempo quente, seguida por um repentino pivô em céus nublados. E em vez da imortalização final da beleza de Shakespeare, obtemos uma inversão tão perfeita que é perversa: Diz-me que és linda, e que sejas rápida!

a estrada não tomada

Outras tentativas fazem sentido, estritamente falando, mas veem em resultados inesperados. Veja “A Estrada Não Tomada”, por exemplo. Enquanto o original de Frost é realmente sobre a auto-ilusão de que a escolha de alguém “fez toda a diferença”, e a maioria das pessoas se lembra dele como um hino ao iconoclasmo acidentado e tomando a estrada “menos percorrida” – condizendo com seu status de “o poema mais mal lido da América” – GPT-2 de alguma forma encontra um terceiro caminho, criando um narrador tão desesperado por ter tomado o caminho errado que eles desesperadamente refazem seus passos, apenas para descobrir que a outra estrada está fechada.

>still i rise

GPT-2 tem a tendência de pegar um pedaço de sintaxe e correr com ele, como faz aqui, girando no modo “Eu vou” do último verso que foi dado do poema de Angelou e mutando-o ad nauseum. Parece quase uma improvisação amadora, a IA empata enquanto tenta descobrir o que mais fazer. “A repetição é uma coisa fácil de modelar”, diz David Luan, vice-presidente de engenharia do OpenAI. “A escrita humana tende a ter apenas o suficiente para que o modelo aprenda que repetir coisas aumenta a probabilidade de sucesso”

Luan também diz que este é o resultado de um método estatístico chamado top-k sampling, no qual alguma fração do pool de possíveis próximas palavras é eliminada, a fim de evitar que o texto se desvie do tópico. Mas estes métodos de evitar erros graves também têm o efeito de amplificar certas tendências a um extremo absurdo.

edge

Despesar disso, a mente poética do GPT-2 por vezes diverge muito mais inexplicavelmente, criando um narrador em primeira pessoa que não existe no original, e gerando pensamentos que têm pouca relação com a sua fonte mas são, no entanto, estranhamente profundos: “As últimas palavras de uma civilização feita pelo homem / São as palavras: “Nós somos livres.” E caso você esteja curioso, nenhuma dessas frases aparece em qualquer pesquisa online; quaisquer que sejam as sensibilidades poéticas do programa, elas não são totalmente unoriginais.

Existe aqui um fio condutor comum. A escrita do GPT-2 é gramaticalmente correta. Tudo soa mais ou menos fiel à sua fonte, se tudo o que você ouviu foi o tom. Mas o que essas sequências significam, aí é que está o busílis. O estilo dos prémios de poesia do GPT-2 sobre a substância. O que é compreensível, porque não sabe o que é substância.

Sendo um modelo de linguagem pura, o GPT-2 não tem conhecimento do que as palavras realmente se referem, apenas a probabilidade de uma palavra aparecer ao lado de outras. Para ele, uma palavra como “cadeira” é apenas uma seqüência de caracteres, não um conjunto de imagens ou objetos, muito menos um agrupamento conceitual mais nebuloso de coisas em que os humanos se sentam. Segundo os seus criadores, os lapsos mais comuns do GPT-2 derivam desta ignorância básica: “e têm observado vários modos de falha, tais como texto repetitivo, falhas na modelagem do mundo (por exemplo, o modelo às vezes escreve sobre incêndios que acontecem debaixo d’água), e mudança de tópico não natural.” Sem qualquer conhecimento de referências, o processo do GPT-2 funciona algo como uma semiótica sem significado – um jogo de apenas significantes, sem que nada seja significificado.

Em alguns aspectos, isto é semelhante a como os humanos se desenvolvem e usam a linguagem. As crianças copiam frequentemente palavras e usam-nas em sequências gramaticais antes de saberem o que estão a dizer. A mente de um escritor também funciona de uma forma aleatória e associativa, absorvendo e regurgitando expressões idiomáticas e sintaxes, pedaços de cordas esteticamente agradáveis. Mas nas mãos de um usuário maduro e humano, todos esses padrões estão, em última análise, ancorados no significado – o objetivo de transmitir um sentimento ou pensamento, e não apenas soar como você é. Uma frase bonita não significa nada, a menos que signifique exatamente algo.

Este é o verdadeiro elo perdido entre máquinas e literatura: um conhecimento da realidade, a coisa para a qual o homem fez linguagem para descrever. Alguns até argumentam que um ser físico é necessário para produzir verdadeira inteligência – que nenhuma experiência desencarnada do mundo alguma vez fará uma máquina tão senciente como nós somos. Claramente, a era da IA pode vir com riscos significativos – mas é bom saber que por enquanto, pelo menos, nossa alma poética está segura.