Maszyny nadchodzą i piszą naprawdę złą poezję

Jeśli i kiedy maszyny przejmą władzę, nie będzie tak, jak sobie wymarzyliśmy. Nie będzie to zimny, zabójczy inteligentny głośnik, ani android albinos, ani żywa tkanka na metalowym endoszkielecie, w kształcie austriackiego kulturysty. Mogliśmy przypuszczać, że w końcu pokonają nas w takich rzeczach jak szachy. I Go. I w konkurencyjnych grach wideo. Ale to są zimne i wyrachowane zadania, odpowiednie dla maszyn. Wmawialiśmy sobie, że zawsze będą tylko, no cóż, komputerami: sztywnymi, racjonalnymi, nieczułymi. Prawdziwie ludzkie cechy zawsze będą nasze. Ciepłe, miękkie serce, którego żaden algorytm nigdy nie skopiuje.

Ale w rzeczywistości roboty będą o wiele bardziej realistyczne – i z tego powodu jeszcze bardziej niepokojące. Nie będą brzmiały jak roboty, ponieważ będą brzmiały tak samo jak my. Mogą też wyglądać tak jak my. Mogą mieć psychozy, i trippy, surrealistyczne sny. I pewnego dnia wkrótce, mogą nawet napisać jakiś przyzwoity wiersz.

emily dickinson

To jest wygenerowana przez SI próba pisania w stylu Emily Dickinson. Została ona stworzona przez program językowy sztucznej inteligencji o nazwie GPT-2, projekt firmy badawczej OpenAI z San Francisco. Pogrubione fragmenty reprezentują podpowiedź podaną programowi, podczas gdy reszta jest jego własna; można ją wypróbować samemu, pod tym linkiem. OpenAI dopiero niedawno udostępniło pełny kod GPT-2, po tym jak początkowo obawiano się, że pomoże on we wzmacnianiu spamu i fałszywych wiadomości; jeśli jego fałszywa poezja jest jakąkolwiek wskazówką, debata na temat mocy modeli językowych SI może dopiero się rozpocząć.

Używając GPT-2, grupa pracowników Doliny Krzemowej, dla naszej i swojej własnej rozrywki, skompilowała kolekcję prób dokończenia przez SI słynnych dzieł poetyckich. Powstała w ten sposób książka „Transformer Poetry”, opublikowana w grudniu przez Paper Gains Publishing, to zbiór zaskakująco dobrych i komicznie nonsensownych wierszy wygenerowanych przez komputer. Nikt nie pomyli go jeszcze z ludzką poezją – a przynajmniej można mieć taką nadzieję. Ale pod innymi względami, jest to również uderzająco realistyczne: niesamowite spojrzenie na to, jak dobrzy mogą stać się nieorganiczni autorzy i jakie mogą być tego konsekwencje.

Programy komputerowe stały się o wiele bardziej podobne do nas, w dużej mierze dlatego, że są coraz bardziej wzorowane na naszych własnych umysłach. Rozwijająca się dziedzina uczenia maszynowego – której produkty są znane każdemu, kto korzystał z asystenta głosowego w swoim smartfonie lub z funkcji rozpoznawania obrazu – została napędzana przez koncepcję sieci neuronowej, w której poszczególne węzły, podobne do neuronów, „uczą się” budować złożoną sieć skojarzeń metodą prób i błędów. Podczas gdy tradycyjne programy otrzymują reguły, które określają ich wyniki, sieci neuronowe zamiast tego otrzymują pożądane rezultaty, na podstawie których uczą się, poprzez miliony miliardów powtarzanych prób, własnych sposobów ich osiągania.

Do swojego treningu GPT-2 otrzymało korpus 8 milionów stron internetowych, wybranych za pomocą kwintesencji internetowej metody selekcji naturalnej: „W celu zachowania jakości dokumentów” – czytamy w poście OpenAI – „użyliśmy tylko stron, które zostały poddane kurateli/filtracji przez ludzi – konkretnie, użyliśmy linków wychodzących z Reddita, które otrzymały co najmniej 3 karmy”. Metodą prób i błędów, GPT-2 nauczył się przewidywać resztę tekstu, biorąc pod uwagę tylko kilka pierwszych słów lub zdań. To z kolei dało mu ogólną metodę uzupełniania innych tekstów, niezależnie od ich treści czy gatunku.

sonnet 18

Na pierwszy rzut oka zdolność GPT-2 do imitacji jest imponująca: dykcja, gramatyka i składnia wykraczają poza to, czego większość z nas oczekiwałaby od komputera. Jeśli jednak mocniej zmrużysz oczy, od razu widać pęknięcia. Jego interpretacja najsłynniejszego z sonetów Szekspira natychmiast wyrzuca rym i metrum przez okno – ale hej, większość z nas ledwo pamięta te zasady. Gubi się także metafora między ukochaną narratora a letnim dniem, ponieważ maszyna wybiera litanię obrazów związanych z gorącą pogodą, po której następuje nagły zwrot ku zachmurzonemu niebu. A w miejsce Szekspirowskiego uwiecznienia piękna, dostajemy inwersję tak doskonałą, że aż perwersyjną: Powiedz mi, że jesteś piękna, i zrób to szybko!

the road not taken

Inne próby mają sens, ściśle rzecz biorąc, ale skręcają w nieoczekiwane rezultaty. Weźmy na przykład „The Road Not Taken”. Podczas gdy oryginał Frosta jest tak naprawdę o samooszukiwaniu się, że czyjś wybór „zrobił całą różnicę”, a większość ludzi pamięta go jako pean na cześć surowego obrazoburstwa i obrania drogi „mniej uczęszczanej” – co zasługuje na status „najbardziej błędnie czytanego wiersza w Ameryce” – GPT-2 w jakiś sposób znajduje trzecią ścieżkę, tworząc narratora, który jest tak zrozpaczony z powodu obrania złej drogi, że desperacko cofa swoje kroki, tylko po to, by odkryć, że druga droga jest zamknięta.

still i rise

GPT-2 ma tendencję do brania jakiegoś fragmentu składni i biegania z nim, jak to robi tutaj, przerzucając się trybem „I will” z ostatniego wersu wiersza Angelou i mutując go ad nauseum. Czuje się to niemal jak amatorska improwizacja, SI gra na zwłokę, próbując wymyślić, co jeszcze może zrobić. „Powtarzanie jest łatwe do modelowania” – mówi David Luan, wiceprezes ds. inżynierii w OpenAI. „Ludzkie pismo ma tendencję do posiadania jej na tyle dużo, że model uczy się, że powtarzanie rzeczy zwiększa prawdopodobieństwo sukcesu.”

Luan mówi również, że jest to wynik metody statystycznej zwanej próbkowaniem top-k, w której pewien ułamek puli możliwych następnych słów jest eliminowany, aby zapobiec zbaczaniu tekstu z tematu. Ale te metody unikania rażących błędów, jak się wydaje, mają również wpływ na wzmocnienie pewnych tendencji do absurdalnej skrajności.

edge

Mimo to, poetycki umysł GPT-2 czasami odbiega od tematu w sposób o wiele bardziej niewytłumaczalny, tworząc pierwszoosobowego narratora, który nie istnieje w oryginale, i generując myśli, które nie mają wiele wspólnego z ich źródłem, ale mimo to są dziwnie głębokie: „Ostatnie słowa cywilizacji stworzonej przez człowieka / To słowa: 'Jesteśmy wolni'”. I na wypadek gdybyś był ciekawy, żadna z tych fraz nie pojawia się w żadnych wyszukiwaniach internetowych; niezależnie od poetyckiej wrażliwości programu, nie są one całkowicie nieoryginalne.

Jest tu pewien wspólny wątek. Pismo GPT-2 jest poprawne gramatycznie. Wszystko brzmi mniej więcej tak, jak w źródle, jeśli słyszy się tylko ton. Ale co te sekwencje znaczą, w tym tkwi szkopuł. Poezja GPT-2 przedkłada styl nad treść. Co jest zrozumiałe, ponieważ nie wie, czym jest treść.

Będąc czystym modelem języka, GPT-2 nie ma wiedzy o tym, do czego tak naprawdę odnoszą się słowa, a jedynie o prawdopodobieństwie pojawienia się danego słowa obok innych. Dla niego słowo takie jak „krzesło” jest tylko ciągiem znaków, a nie zbiorem obrazów lub obiektów, nie mówiąc już o jakiejś bardziej mglistej, konceptualnej grupie rzeczy, na których siedzą ludzie. Według jego twórców, najczęstsze błędy GPT-2 wynikają z tej podstawowej niewiedzy: „zaobserwowaliśmy różne tryby błędów, takie jak powtarzający się tekst, błędy w modelowaniu świata (np. model czasami pisze o pożarach dziejących się pod wodą) i nienaturalne przełączanie tematów”. Nie posiadając żadnej wiedzy o referentach, proces GPT-2 zamiast tego działa jak semiotyka bez znaczenia – gra tylko znaczących, bez niczego, co jest oznaczane.

Pod pewnymi względami jest to podobne do tego, jak ludzie rozwijają i używają języka. Dzieci często kopiują słowa i używają ich w gramatycznych sekwencjach, zanim jeszcze wiedzą, co mówią. Umysł pisarza również działa w sposób chaotyczny i asocjacyjny, wchłaniając i przyswajając idiomy i składnie, kawałki estetycznie przyjemnych ciągów. Ale w rękach dojrzałego, ludzkiego użytkownika wszystkie te wzorce są ostatecznie zakotwiczone w znaczeniu – celu przekazania uczucia lub myśli, a nie tylko brzmienia. Ładna fraza nic nie znaczy, jeśli nie znaczy dokładnie czegoś.

To jest prawdziwe brakujące ogniwo między maszynami a literaturą: wiedza o rzeczywistości, rzecz, dla której człowiek stworzył język, aby ją opisać. Niektórzy twierdzą nawet, że fizyczna istota jest niezbędna do wytworzenia prawdziwej inteligencji – że żadne bezcielesne doświadczenie świata nigdy nie uczyni maszyny tak czującą jak my. Oczywiste jest, że era AI może wiązać się z poważnym ryzykiem – ale miło wiedzieć, że przynajmniej na razie nasza poetycka dusza jest bezpieczna.