The Machines Are Coming, and They Write Really Bad Poetry

Si las máquinas toman el control, no será como lo soñamos. No será un altavoz inteligente frío y homicida, ni un androide albino, ni un tejido vivo sobre un endoesqueleto de metal, con forma de culturista austriaco. Podríamos haber adivinado que al final nos ganarían en cosas como el ajedrez. Y en el Go. Y en videojuegos competitivos. Pero esas son tareas frías y calculadoras, aptas para máquinas. Nos dijimos que sólo serían, bueno, ordenadores: rígidos, racionales, sin sentimientos. Los rasgos verdaderamente humanos serían siempre los nuestros. El corazón cálido y pegajoso, que ningún algoritmo podría copiar jamás.

Pero en realidad, los robots serán mucho más parecidos a la vida y, por ello, aún más inquietantes. No sonarán como robots, porque sonarán como nosotros. También podrían parecerse a nosotros. Podrían tener psicosis y sueños triposos y surrealistas. Y algún día, incluso podrían escribir algún verso decente.

emily dickinson

Este es un intento generado por la IA de escribir en el estilo de Emily Dickinson. Está producido por un programa de lenguaje de inteligencia artificial llamado GPT-2, un proyecto de la empresa de investigación OpenAI, con sede en San Francisco. Las partes en negrita representan la indicación dada al programa, mientras que el resto es del propio programa; puedes probarlo por ti mismo, en este enlace. OpenAI acaba de publicar el código completo de GPT-2, después de temer inicialmente que ayudara a amplificar el spam y las noticias falsas; si su poesía falsa es un indicio, el debate sobre el poder de los modelos lingüísticos de la IA podría estar empezando.

Usando GPT-2, un grupo de trabajadores de Silicon Valley ha recopilado, para nuestra diversión y la suya propia, una colección de intentos de la IA de completar obras poéticas famosas. El libro resultante, Transformer Poetry, publicado por Paper Gains Publishing en diciembre, es una colección irónica de versos generados por ordenador sorprendentemente buenos y cómicos. Nadie lo confundirá todavía con la poesía humana, o al menos eso se espera. Pero en otros aspectos, también es sorprendentemente realista: una mirada extraña a lo buenos que pueden llegar a ser los autores inorgánicos, y a las consecuencias que pueden derivarse de ello.

Los programas informáticos se han vuelto mucho más parecidos a nosotros en los últimos tiempos, en gran parte porque se modelan cada vez más a partir de nuestras propias mentes. El floreciente campo del aprendizaje automático -cuyos productos son familiares para cualquiera que haya utilizado el asistente de voz de su smartphone o el reconocimiento de imágenes- ha sido impulsado por el concepto de red neuronal, en la que los nodos individuales, similares a las neuronas, «aprenden» a construir una compleja red de asociaciones a través del ensayo y error. Mientras que los programas tradicionales reciben reglas que determinan sus resultados, las redes neuronales reciben los resultados deseados, a partir de los cuales aprenden, a través de millones y miles de millones de ensayos repetidos, sus propias formas de conseguirlos.

Para su entrenamiento, GPT-2 recibió un corpus de 8 millones de páginas web, elegidas con un método de selección natural propio de Internet: «Para preservar la calidad de los documentos», afirma OpenAI, «sólo utilizamos páginas que han sido curadas/filtradas por humanos; concretamente, utilizamos enlaces salientes de Reddit que recibieron al menos 3 karma». A través de la prueba y el error, GPT-2 aprendió a predecir el resto de un texto, teniendo en cuenta sólo las primeras palabras o frases. A su vez, esto le proporcionó un método general para completar otros textos, independientemente del contenido o el género.

sonnet 18

A primera vista, la capacidad de imitación de GPT-2 es impresionante: la dicción, la gramática y la sintaxis están más allá de lo que la mayoría de nosotros esperaría de un ordenador. Pero si uno entorna más los ojos, enseguida aparecen las grietas. Su interpretación de los sonetos más famosos de Shakespeare tira inmediatamente la rima y la métrica por la ventana, pero oye, la mayoría de nosotros apenas recordamos esas reglas. También se pierde la metáfora entre la amada del narrador y un día de verano, ya que la máquina opta por una letanía de imágenes relacionadas con el calor, seguidas de un repentino giro hacia los cielos nublados. Y en lugar de la inmortalización final de la belleza de Shakespeare, obtenemos una inversión tan perfecta que resulta perversa:

el camino no tomado

Otros intentos tienen sentido, estrictamente hablando, pero se desvían hacia resultados inesperados. Por ejemplo, «The Road Not Taken». Mientras que el original de Frost trata realmente del autoengaño de que la elección de uno «ha marcado la diferencia», y la mayoría de la gente lo recuerda como un canto a la iconoclasia ruda y a tomar el camino «menos transitado» -haciendo honor a su estatus de «el poema más malinterpretado de Estados Unidos»-, la GPT-2 encuentra de alguna manera un tercer camino, creando un narrador que está tan atormentado por la desesperación de haber tomado el camino equivocado que vuelve desesperadamente sobre sus pasos, sólo para descubrir que el otro camino está cerrado.

Todavía me levanto

GPT-2 tiene la tendencia de tomar un trozo de sintaxis y correr con él, como hace aquí, haciendo girar el modo «I will» del último verso que se le dio del poema de Angelou y mutándolo ad nauseum. Parece casi una improvisación de aficionado, la IA se entretiene mientras intenta averiguar qué más hacer. «La repetición es algo fácil de modelar», dice David Luan, vicepresidente de ingeniería de OpenAI. «La escritura humana tiende a tener lo suficiente como para que el modelo aprenda que repetir las cosas aumenta la probabilidad de éxito»

Luan también dice que esto es el resultado de un método estadístico llamado muestreo top-k, en el que se elimina una fracción del conjunto de posibles palabras siguientes, con el fin de evitar que el texto se desvíe del tema. Pero estos métodos para evitar errores atroces también tienen, al parecer, el efecto de amplificar ciertas tendencias hasta un extremo absurdo.

edge

A pesar de ello, la mente poética de GPT-2 se desvía a veces de forma mucho más inexplicable, creando un narrador en primera persona que no existe en el original, y generando pensamientos que guardan poca relación con su fuente pero que son, sin embargo, extrañamente profundos: «Las últimas palabras de una civilización hecha por el hombre / son las palabras: ‘Somos libres'». Y en caso de que tengas curiosidad, ninguna de esas frases aparece en ninguna búsqueda online; sea cual sea la sensibilidad poética del programa, no son del todo poco originales.

Hay un hilo conductor aquí. La escritura de GPT-2 es gramaticalmente correcta. Todo suena más o menos fiel a su fuente, si lo único que se escucha es el tono. Pero lo que significan esas secuencias, ahí está el problema. La poesía de GPT-2 prima el estilo sobre la sustancia. Lo cual es comprensible, porque no sabe lo que es la sustancia.

Al ser un modelo de lenguaje puro, GPT-2 no tiene conocimiento de lo que las palabras realmente se refieren, sólo la probabilidad de que una palabra aparezca junto a otras. Para él, una palabra como «silla» es sólo una cadena de caracteres, no un conjunto de imágenes u objetos, y mucho menos una agrupación conceptual más nebulosa de cosas sobre las que se sientan los humanos. Según sus creadores, los fallos más comunes de GPT-2 se derivan de esta ignorancia básica: «Hemos observado varios modos de fallo, como textos repetitivos, fallos en el modelado del mundo (por ejemplo, el modelo a veces escribe sobre incendios que ocurren bajo el agua) y cambios de tema poco naturales». Al carecer de cualquier conocimiento de los referentes, el proceso de GPT-2 funciona algo así como una semiótica sin significado: un juego de sólo significantes, sin que nada sea significado.

En cierto modo, esto se parece a cómo los humanos desarrollan y utilizan el lenguaje. Los niños suelen copiar palabras y utilizarlas en secuencias gramaticales antes de saber lo que dicen. La mente de un escritor también funciona de forma aleatoria y asociativa, absorbiendo y regurgitando modismos y sintaxis, trozos de cadenas estéticamente agradables. Pero en manos de un usuario maduro y humano, todos estos patrones están anclados en última instancia al significado: el objetivo de transmitir un sentimiento o un pensamiento, no simplemente de sonar como lo haces. Un bonito giro de frase no significa nada, a menos que signifique exactamente algo.

Este es el verdadero eslabón perdido entre las máquinas y la literatura: un conocimiento de la realidad, aquello para lo que el hombre hizo el lenguaje para describir. Algunos incluso sostienen que es necesario un ser físico para producir una verdadera inteligencia, que ninguna experiencia incorpórea del mundo hará que una máquina sea tan sensible como nosotros. Está claro que la era de la inteligencia artificial puede conllevar importantes riesgos, pero es bueno saber que, al menos por el momento, nuestra alma poética está a salvo.