Stroje přicházejí a píší opravdu špatnou poezii

Jestliže a až stroje převezmou vládu, nebude to tak, jak jsme si vysnili. Nebude to chladný, vražedný inteligentní reproduktor, ani albínský android, ani živá tkáň nad kovovým endoskeletem, tvarovaná jako rakouský kulturista. Mohli jsme tušit, že nás nakonec porazí v takových věcech, jako jsou šachy. A Go. A soutěžních videohrách. Ale to jsou chladné a vypočítavé úkoly, vhodné pro stroje. Říkali jsme si, že to budou vždycky jenom počítače: rigidní, racionální, necitlivé. Skutečně lidské vlastnosti budou vždycky naše. Hřejivé lepkavé srdce, které žádný algoritmus nikdy nedokáže okopírovat.

Ve skutečnosti však budou roboti mnohem živější – a díky tomu ještě znepokojivější. Nebudou znít roboticky, protože budou znít stejně jako my. Možná budou také vypadat stejně jako my. Mohou mít psychózy a surrealistické sny. A jednou brzy možná napíšou i nějaké slušné verše.

emily dickinsonová

Toto je pokus umělé inteligence psát ve stylu Emily Dickinsonové. Vytvořil ho program jazyka umělé inteligence s názvem GPT-2, projekt výzkumné firmy OpenAI se sídlem v San Francisku. Tučně zvýrazněné části představují výzvu zadanou programu, zatímco zbytek je vlastní; můžete si to vyzkoušet sami, na tomto odkazu. Společnost OpenAI teprve nedávno zveřejnila úplný kód programu GPT-2 poté, co se původně obávala, že pomůže rozšířit spam a falešné zprávy; pokud jeho falešná poezie něco naznačuje, debata o síle jazykových modelů umělé inteligence možná právě začíná.

S využitím programu GPT-2 sestavila skupina pracovníků ze Silicon Valley pro naše i vlastní pobavení sbírku pokusů umělé inteligence o dokončení slavných básnických děl. Výsledná sbírka Transformer Poetry, kterou v prosinci vydalo nakladatelství Paper Gains Publishing, je jazykově vybroušenou sbírkou překvapivě dobrých a komicky nesmyslných počítačem generovaných veršů. S lidskou poezií si ji zatím nikdo nesplete – nebo v to alespoň doufejte. Ale i v jiných ohledech je nápadně realistická: je to zvláštní pohled na to, jak dobrými anorganickými autory se mohou stát a jaké důsledky to může mít.

Počítačové programy se nám v poslední době mnohem více podobají, z velké části proto, že jsou stále více modelovány podle naší vlastní mysli. Rozkvět oboru strojového učení – jehož produkty zná každý, kdo někdy použil hlasového asistenta svého chytrého telefonu nebo rozpoznávání obrazu – byl poháněn konceptem neuronové sítě, v níž se jednotlivé uzly, podobně jako neurony, „učí“ vytvářet složitou síť asociací pomocí pokusů a omylů. Zatímco tradičním programům jsou dána pravidla, která určují jejich výstupy, neuronovým sítím jsou místo toho dány požadované výsledky, z nichž se prostřednictvím milionů a miliard opakovaných pokusů naučí vlastní způsoby, jak jich dosáhnout.

Pro své trénování dostala síť GPT-2 korpus 8 milionů webových stránek, vybraných typicky internetovou metodou přirozeného výběru: „Abychom zachovali kvalitu dokumentů,“ uvádí se v příspěvku společnosti OpenAI, „použili jsme pouze stránky, které byly kurátorovány/filtrovány lidmi – konkrétně jsme použili odchozí odkazy z Redditu, které získaly alespoň 3 karmy.“ Metodou pokusů a omylů se GPT-2 naučil předpovídat zbytek textu, když měl k dispozici pouze několik prvních slov nebo vět. To mu následně poskytlo obecnou metodu pro doplňování dalších textů bez ohledu na jejich obsah nebo žánr.

sonnet 18

Na první pohled je schopnost GPT-2 napodobovat impozantní: dikce, gramatika a syntax jsou skokem nad rámec toho, co by většina z nás od počítače očekávala. Když však přimhouříte oči, okamžitě se objeví trhliny. Jeho interpretace nejslavnějších Shakespearových sonetů okamžitě vyhodí rým a metrum z okna – ale hej, většina z nás si tato pravidla také sotva pamatuje. Ztrácí se i metafora mezi vypravěčovou milou a letním dnem, protože stroj místo toho volí litanii obrazů, které mají co do činění s horkým počasím, po níž následuje náhlý obrat k zamračené obloze. A místo závěrečného Shakespearova zvěčnění krásy se nám dostává inverze tak dokonalé, až je perverzní:

cesta, po které se nechodí

Další pokusy mají smysl, přísně vzato, ale odbočují do nečekaných důsledků. Vezměme si například „The Road Not Taken“. Zatímco Frostův originál je ve skutečnosti o sebeklamu, že něčí volba „udělala všechno“, a většina lidí si ho pamatuje jako chvalozpěv na drsné obrazoborectví a volbu „méně prošlapané cesty“ – což odpovídá jeho statusu „nejhůře čitelné básně v Americe“ -, GPT-2 nějak nachází třetí cestu a vytváří vypravěče, který je tak rozervaný zoufalstvím z toho, že se vydal špatnou cestou, že se zoufale vrací po svých stopách, aby zjistil, že druhá cesta je zavřená.

still i rise

GPT-2 má tendenci vzít kus syntaxe a utíkat s ní, jako to dělá zde, když z posledního verše Angelouovy básně, který mu byl dán k dispozici, odvíjí modus „I will“ a mutuje ho ad nauseum. Působí to téměř jako amatérská improvizace, kdy se umělá inteligence zasekává a snaží se vymyslet, co dál. „Opakování je snadné modelovat,“ říká David Luan, viceprezident inženýrství ve společnosti OpenAI. „Lidské psaní jich má tendenci obsahovat právě tolik, aby se model naučil, že opakování zvyšuje pravděpodobnost úspěchu.“

Luan také říká, že je to výsledek statistické metody zvané top-k sampling, při které se vyřadí určitá část z množiny možných dalších slov, aby se zabránilo odklonu textu od tématu. Zdá se však, že tyto metody, jak se vyhnout hrubým chybám, mají také za následek zesílení určitých tendencí až do absurdního extrému.

edge

Přesto se básnická mysl GPT-2 někdy odchyluje mnohem nevysvětlitelněji, vytváří vypravěče v první osobě, který v originále neexistuje, a generuje myšlenky, které mají jen malý vztah ke svému zdroji, ale přesto jsou podivně hluboké: „Poslední slova civilizace vytvořené člověkem / jsou slova: „Jsme svobodní.“ A kdyby vás to zajímalo, žádná z těchto vět se neobjeví v žádném internetovém vyhledávači; ať už je poetické cítění programu jakékoliv, není zcela neoriginální.

Je tu jedna společná nit. GPT-2 píše gramaticky správně. Vše zní víceméně věrně svému zdroji, pokud jste slyšeli jen tón. Ale co ty sekvence znamenají, v tom je právě ten háček. Poezie GPT-2 upřednostňuje styl před obsahem. Což je pochopitelné, protože neví, co je to podstata.

Jako čistě jazykový model nemá GPT-2 žádné znalosti o tom, co slova vlastně označují, pouze pravděpodobnost výskytu slova vedle jiných. Slovo jako „židle“ je pro něj jen řetězec znaků, nikoli shluk obrazů nebo objektů, natož nějaké mlhavější pojmové seskupení věcí, na kterých lidé sedí. Podle jeho tvůrců pramení nejčastější chyby GPT-2 z této základní neznalosti: „e pozorovali různé způsoby selhání, jako je opakující se text, selhání modelování světa (např. model někdy píše o požárech, které se dějí pod vodou) a nepřirozené přepínání témat.“ Vzhledem k tomu, že postrádá jakoukoli znalost referentů, funguje proces GPT-2 místo toho něco jako sémiotika bez významu – hra pouze na označující, aniž by bylo cokoli označováno.

V některých ohledech se to zdá být podobné tomu, jak lidé vyvíjejí a používají jazyk. Děti často kopírují slova a používají je v gramatických sekvencích dříve, než vědí, co říkají. Také mysl spisovatele pracuje nahodile a asociativně, vstřebává a přebírá idiomy a syntaxe, kousky esteticky příjemných řetězců. Ale v rukou vyspělého, lidského uživatele jsou všechny tyto vzorce nakonec ukotveny k významu – k cíli sdělit pocit nebo myšlenku, ne pouze znít, jako byste byli. Hezký slovní obrat nic neznamená, pokud neznamená přesně něco.

To je skutečný chybějící článek mezi stroji a literaturou: znalost skutečnosti, tedy toho, kvůli čemu člověk vytvořil jazyk, aby ji popisoval. Někteří dokonce tvrdí, že k vytvoření skutečné inteligence je nutná fyzická bytost – že žádná beztělesná zkušenost se světem nikdy neudělá stroj stejně vnímavým, jako jsme my. Je jasné, že věk umělé inteligence může přinést značná rizika – ale je příjemné vědět, že alespoň prozatím je naše poetická duše v bezpečí.

.