Nawet gdybyśmy chcieli, nie jesteśmy w stanie przeczytać wszystkich nowych artykułów na jednym choćby by portalu. Ilość informacji rośnie lawinowo i będzie rosła jeszcze szybciej, bo już dziś za jej opracowywanie biorą się wyspecjalizowane programy komputerowe. Niezależnie od tego, czy mają sporządzić podsumowanie spotkania sportowego, czy dokonać analizy zamknięcia rynków finansowych, mają wszystko, czego może brakować ich ludzkim odpowiednikom – dziennikarzom: nieograniczoną pamięć do statystyk i danych o trendach, szybkość działania ograniczaną wyłącznie prawami fizyki, a ponadto – nie potrzebują kawy, urlopów, zwolnień lekarskich i przerw na lunch.

 

Szybko i sztampowo

Wszystko to powoduje, że coraz częściej będziemy mieć do czynienia z tekstami, które nie zostały stworzone przez żywych autorów, tylko przez zmyślne algorytmy. Takich jak te opracowane przez amerykańską spółkę Narrative Science. Jej trzydziestu pracowników nadzoruje pracę elektronicznych generatorów tekstów, które pracują na etatach – ale bez prawa do urlopów – w agencjach prasowych i giełdowych. Programy zajmują się głównie analizami. Przykłady przytaczane przez amerykański miesięcznik „Wired” dotyczą tekstów o lokalnych ligach bejsbolowych, ale robotopisarze zajmują się także nieruchomościami i finansami, pisząc np. dla renomowanego magazynu „Forbes”.

Szkolenie algorytmu w trudnej sztuce pisania ma kilka etapów. Po pierwsze trzeba zgromadzić dużą ilość pewnych, precyzyjnych danych. Na ich podstawie informatycy uczą program wyciągania wniosków: jeśli drużyna A zdobyła więcej punktów niż drużyna B, to znaczy, że jest zwycięzcą meczu. Jeśli w marcu bieżącego roku sprzedano więcej samochodów niż w marcu roku ubiegłego – rynek się powiększa. Następnie wprowadza się dodatkowe elementy: jeśli podczas meczu stosunek punktów zmienił się na korzyść drugiej drużyny, jest to fakt podkreślający wolę walki początkowo gorzej grającego zespołu. W ten sposób powstaje grupa zasad, na których podstawie algorytm dobiera zdania z wcześniej przygotowanych zbiorów. Przykładowo, program wie, że faworyt – czyli ta drużyna, która od początku sezonu wygrywała więcej spotkań niż jej przeciwnik – został pokonany przez zawodników statystycznie gorszych. Takie informacje można rozszerzyć jeszcze o wnioski wynikające z tego, na czyim terenie odbyła się gra. Dzięki temu może stwierdzić, że gospodarze ulegli gościom.

Dysponując takimi skrawkami gotowego tekstu, program układa je w całość – trzymając się zasad od zawsze obecnych w sportowych relacjach i korzystając ze wzorów tekstów, przygotowanych wcześniej przez żywych dziennikarzy. Szablony występują w wielu wersjach, zakładają podanie odbiegających od normy statystyk, przedstawienie najbardziej znaczących zawodników drużyn – czyli tych, których wyniki przekraczają wcześniej ustalone przeciętne poziomy. W ten sposób tekst informuje czytelnika o najskuteczniejszym rozgrywającym czy bramkarzu.

Czasem teksty mogą zawierać błędy, i choć nie dzieje się to często, algorytmy potrafią je także wyłapać, kierując materiał do przeczytania przez dyżurnego redaktora. Syntetyczni pisarze nie wypadają natomiast dobrze na polu kreatywności. Analitycznym tekstom (patrz: ramka) brakuje pogłębionej analizy, humoru, ironii.

Opracowany przez Narrative Science algorytm piszący teksty do gazet nie jest wcale tanim autorem – za każdy tekst firma pobiera wierszówkę, czyli dziennikarskie wynagrodzenie. Trzydziestu klientów firmy płaci za krótką notatkę około 10 dolarów. Klient ma za to pewność, że wszystkie wyliczenia i dane będą się zgadzać. Ma też gwarancję wykonania pracy na czas: komputer w firmie Narrative Science wypluwa z siebie jeden tekst co pół minuty przez 24 godziny na dobę. Zważywszy że firma zatrudnia trzydzieści osób, jest to tempo pracy nieosiągalne dla dziennikarzy ludzi. Dlatego ten sposób tworzenia tekstów ma wielką szansę się rozpowszechnić.

 

Bo giełda była za słona

Algorytmy zastępują ludzi nie tylko przy pisaniu tekstów z rozgrywek ligowych czy analizujących rynkowe trendy. Miliony zarabiają – i tracą – duże firmy maklerskie, dla których specjalnie przygotowane programy obracają papierami wartościowymi. Jest to szczególnie popularne w połączeniu z High Frequency Trading (HFT), czyli wieloma transakcjami kupna i sprzedaży w bardzo krótkim czasie. Całkiem niedawno kilka takich algorytmów, pracujących dla różnych zleceniodawców, tak się nakręciło, że w ciągu kilku godzin z parkietu amerykańskiej giełdy na chwilę wyparowało ponad 860 miliardów dolarów – wszystko za sprawą transakcji sprzedaży, która wywołała efekt kuli śnieżnej. Stało się to w 2010 roku, a wydarzenie nazwane „flash crash” miało być przestrogą dla korzystających z algorytmów inwestorów. Sprawę udało się na szczęście jakoś odwrócić.

W sierpniu bieżącego roku wystąpił poważniejszy incydent. Program pracujący dla firmy Knight Capital Group z sobie tylko znanych przyczyn zaczął zalewać rynek błędnymi zleceniami. Jego decyzje spowodowały ogromne straty i spadek ceny akcji spółki o ponad 70 proc. Tym razem giełda była nieugięta: nie zezwoliła na cofnięcie transakcji, argumentując, że każdy, kto wykorzystuje algorytmy do bogacenia się, musi też ponosić konsekwencje ich działań negatywnych. Knight Capital Group straciła 440 milionów dolarów.

Być może podobne wydarzenia będziemy mogli obserwować także nad Wisłą, bo właśnie na warszawskim parkiecie kończy się wdrażanie tego samego systemu informatycznego, który pracuje dla New York Stock Exchange. Nowe rozwiązanie – system UTP – ma zastąpić działający dotychczas Warset i umożliwiać – między innymi – automatyczny handel papierami wartościowymi, w tym także wspomniany High Frequency Trading.