Die Maschinen kommen, und sie schreiben wirklich schlechte Gedichte

Wenn die Maschinen die Macht übernehmen, wird es nicht so sein, wie wir es uns erträumt haben. Es wird kein kalter, gemeingefährlicher intelligenter Lautsprecher sein, kein Albino-Androide, kein lebendes Gewebe über einem metallenen Endoskelett, geformt wie ein österreichischer Bodybuilder. Wir hätten ahnen können, dass sie uns irgendwann in Dingen wie Schach schlagen würden. Und Go. Und in wettbewerbsfähigen Videospielen. Aber das sind kalte und berechnende Aufgaben, die sich für Maschinen eignen. Wir redeten uns ein, dass sie immer nur, nun ja, Computer sein würden: starr, rational, gefühllos. Die wirklich menschlichen Züge würden immer unsere sein. Das warme, schnulzige Herz, das kein Algorithmus jemals kopieren könnte.

Aber in Wirklichkeit werden die Roboter viel lebensechter sein – und deshalb auch noch beunruhigender. Sie werden nicht roboterhaft klingen, denn sie werden genau wie wir klingen. Vielleicht sehen sie auch so aus wie wir. Vielleicht haben sie Psychosen und verrückte, surrealistische Träume. Und eines Tages werden sie vielleicht sogar anständige Verse schreiben.

Emily Dickinson

Dies ist ein KI-generierter Versuch, im Stil von Emily Dickinson zu schreiben. Er wurde von einem Sprachprogramm für künstliche Intelligenz namens GPT-2 erstellt, einem Projekt des in San Francisco ansässigen Forschungsunternehmens OpenAI. Die fettgedruckten Abschnitte geben die Aufforderung des Programms wieder, während der Rest vom Programm selbst stammt; Sie können es unter diesem Link selbst ausprobieren. OpenAI hat erst vor kurzem den vollständigen Code für GPT-2 veröffentlicht, nachdem es zunächst befürchtet hatte, dass es dazu beitragen würde, Spam und gefälschte Nachrichten zu verstärken. Wenn die gefälschten Gedichte ein Hinweis darauf sind, könnte die Debatte über die Macht von KI-Sprachmodellen gerade erst beginnen.

Mit Hilfe von GPT-2 hat eine Gruppe von Mitarbeitern aus dem Silicon Valley zu unserem und ihrem eigenen Vergnügen eine Sammlung von Versuchen der KI zusammengestellt, berühmte Gedichte zu vervollständigen. Das Ergebnis, Transformer Poetry, das im Dezember von Paper Gains Publishing veröffentlicht wurde, ist eine augenzwinkernde Sammlung von überraschend guten und komisch unsinnigen computergenerierten Versen. Noch wird sie niemand mit menschlicher Poesie verwechseln – zumindest hofft man das nicht. Aber auch in anderer Hinsicht ist sie verblüffend lebensecht: ein unheimlicher Blick darauf, wie gut anorganische Autoren werden könnten und welche Folgen das haben könnte.

Computerprogramme sind uns in letzter Zeit sehr viel ähnlicher geworden, was zum großen Teil daran liegt, dass sie zunehmend unserem eigenen Verstand nachempfunden sind. Der boomende Bereich des maschinellen Lernens – dessen Produkte jeder kennt, der den Sprachassistenten oder die Bilderkennung seines Smartphones benutzt hat – wurde durch das Konzept des neuronalen Netzes vorangetrieben, in dem einzelne Knoten, ähnlich wie Neuronen, „lernen“, durch Versuch und Irrtum ein komplexes Netz von Assoziationen aufzubauen. Während traditionellen Programmen Regeln vorgegeben werden, die ihre Ergebnisse bestimmen, erhalten neuronale Netze stattdessen die gewünschten Ergebnisse, aus denen sie durch Millionen und Milliarden von wiederholten Versuchen lernen, ihre eigenen Wege zu finden, um sie zu erreichen.

Für sein Training erhielt GPT-2 einen Korpus von 8 Millionen Webseiten, die mit einer für das Internet typischen Methode der natürlichen Auswahl ausgewählt wurden: „Um die Qualität der Dokumente zu erhalten“, heißt es in dem Beitrag von OpenAI, „haben wir nur Seiten verwendet, die von Menschen kuratiert/gefiltert wurden – insbesondere haben wir ausgehende Links von Reddit verwendet, die mindestens 3 Karma erhalten haben.“ Durch Versuch und Irrtum lernte GPT-2, den Rest eines Textes vorherzusagen, wenn man nur die ersten paar Wörter oder Sätze kennt. Dies wiederum gab ihm eine allgemeine Methode zur Vervollständigung anderer Texte, unabhängig von Inhalt oder Genre.

Sonnet 18

Auf den ersten Blick ist die Fähigkeit von GPT-2 zur Nachahmung beeindruckend: Diktion, Grammatik und Syntax liegen weit über dem, was die meisten von uns von einem Computer erwarten würden. Aber wenn man genauer hinschaut, werden die Risse sofort sichtbar. Die Wiedergabe des berühmtesten Sonetts von Shakespeare wirft Reim und Metrum sofort über den Haufen – aber hey, die meisten von uns erinnern sich auch kaum an diese Regeln. Auch die Metapher zwischen der Geliebten des Erzählers und einem Sommertag geht verloren, da sich die Maschine stattdessen für eine Litanei von Bildern entscheidet, die mit heißem Wetter zu tun haben, gefolgt von einem plötzlichen Schwenk zum bewölkten Himmel. Und anstelle von Shakespeares abschließender Verewigung der Schönheit erhalten wir eine Umkehrung, die so perfekt ist, dass sie pervers wirkt: Sag mir, dass du schön bist, und mach es schnell!

The Road Not Taken

Andere Versuche machen streng genommen Sinn, führen aber zu unerwarteten Ergebnissen. Nehmen wir zum Beispiel „The Road Not Taken“. Während es in Frosts Original wirklich um die Selbsttäuschung geht, dass die eigene Wahl „den ganzen Unterschied ausgemacht hat“, und die meisten Menschen es als einen Lobgesang auf den rauen Bildersturm und die Einnahme des „weniger befahrenen Weges“ in Erinnerung haben – was seinem Status als „das meistgelesene Gedicht Amerikas“ gerecht wird -, findet GPT-2 irgendwie einen dritten Weg, indem es einen Erzähler erschafft, der so verzweifelt darüber ist, den falschen Weg eingeschlagen zu haben, dass er verzweifelt seine Schritte zurückverfolgt, nur um festzustellen, dass die andere Straße gesperrt ist.

still i rise

GPT-2 neigt dazu, ein Stück Syntax zu nehmen und damit herumzurennen, wie es hier geschieht, indem es den „I will“-Modus aus der letzten Strophe von Angelous Gedicht abspinnt und ihn bis zum Überdruss abwandelt. Es fühlt sich fast wie Amateur-Improvisation an, die KI hält sich zurück, während sie versucht, herauszufinden, was sie sonst noch tun soll. „Wiederholungen sind leicht zu modellieren“, sagt David Luan, VP of Engineering bei OpenAI. „

Luan sagt auch, dass dies das Ergebnis einer statistischen Methode namens Top-k-Sampling ist, bei der ein Teil des Pools möglicher nächster Wörter eliminiert wird, um zu verhindern, dass der Text vom Thema abweicht. Aber diese Methoden zur Vermeidung ungeheuerlicher Fehler haben anscheinend auch den Effekt, bestimmte Tendenzen bis zu einem absurden Extrem zu verstärken.

edge

Trotz dessen weicht der poetische Geist von GPT-2 manchmal auf viel unerklärlichere Weise ab, indem er einen Ich-Erzähler erschafft, den es im Original nicht gibt, und Gedanken erzeugt, die wenig Bezug zu ihrer Quelle haben, aber dennoch seltsam tiefgründig sind: „Die letzten Worte einer menschengemachten Zivilisation / Sind die Worte: ‚Wir sind frei.'“ Und falls Sie neugierig sind, keine dieser Phrasen taucht in einer Online-Suche auf; was auch immer die poetische Sensibilität des Programms sein mag, sie sind nicht völlig unoriginell.

Es gibt hier einen roten Faden. Der Text von GPT-2 ist grammatikalisch korrekt. Es klingt alles mehr oder weniger originalgetreu, wenn man nur den Tonfall hört. Aber was diese Sequenzen bedeuten, darin liegt der Knackpunkt. Die Poesie von GPT-2 stellt den Stil über den Inhalt. Das ist verständlich, denn es weiß nicht, was Substanz ist.

Als reines Sprachmodell weiß GPT-2 nicht, worauf sich die Wörter tatsächlich beziehen, sondern nur, wie wahrscheinlich es ist, dass ein Wort neben anderen auftaucht. Für GPT-2 ist ein Wort wie „Stuhl“ nur eine Zeichenkette und keine Ansammlung von Bildern oder Objekten, geschweige denn eine nebulöse begriffliche Gruppierung von Dingen, auf denen Menschen sitzen. Die häufigsten Fehler des GPT-2 sind nach Angaben seiner Entwickler auf diese grundlegende Unkenntnis zurückzuführen: „Wir haben verschiedene Fehlermodi beobachtet, wie z. B. sich wiederholende Texte, Fehler bei der Weltmodellierung (z. B. schreibt das Modell manchmal über Brände, die unter Wasser stattfinden) und unnatürliche Themenwechsel. In Ermangelung jeglichen Wissens über Referenten funktioniert der Prozess von GPT-2 stattdessen wie eine Semiotik ohne Bedeutung – ein Spiel, das nur aus Signifikanten besteht, ohne dass irgendetwas bezeichnet wird.

In gewisser Weise ähnelt dies der Art und Weise, wie Menschen Sprache entwickeln und verwenden. Kinder kopieren häufig Wörter und verwenden sie in grammatikalischen Abfolgen, bevor sie wissen, was sie sagen. Auch der Verstand eines Schriftstellers arbeitet willkürlich und assoziativ, nimmt Redewendungen und Syntax auf und kotzt sie wieder aus, Teile ästhetisch ansprechender Stränge. Aber in den Händen eines reifen, menschlichen Benutzers sind all diese Muster letztlich in der Bedeutung verankert – dem Ziel, ein Gefühl oder einen Gedanken zu vermitteln, und nicht nur so zu klingen, als ob man es wäre. Eine hübsche Formulierung bedeutet nichts, wenn sie nicht genau etwas bedeutet.

Das ist das eigentliche fehlende Bindeglied zwischen Maschinen und Literatur: ein Wissen über die Realität, das, wofür der Mensch die Sprache geschaffen hat, um sie zu beschreiben. Einige argumentieren sogar, dass ein physisches Wesen notwendig ist, um wahre Intelligenz zu erzeugen – dass keine körperlose Erfahrung der Welt eine Maschine jemals so empfindungsfähig machen wird wie wir es sind. Es ist klar, dass das Zeitalter der KI mit erheblichen Risiken verbunden sein könnte – aber es ist schön zu wissen, dass unsere poetische Seele zumindest vorerst sicher ist.