Redaktor, makler, algorytm

Programy komputerowe robią dziś to, co jeszcze niedawno potrafił tylko człowiek – piszą teksty do prasy, grają na giełdzie. Robią to bardzo szybko – choć nie zawsze bardzo dobrze

Nawet gdybyśmy chcieli, nie jesteśmy w stanie przeczytać wszystkich nowych artykułów na jednym choćby by portalu. Ilość informacji rośnie lawinowo i będzie rosła jeszcze szybciej, bo już dziś za jej opracowywanie biorą się wyspecjalizowane programy komputerowe. Niezależnie od tego, czy mają sporządzić podsumowanie spotkania sportowego, czy dokonać analizy zamknięcia rynków finansowych, mają wszystko, czego może brakować ich ludzkim odpowiednikom – dziennikarzom: nieograniczoną pamięć do statystyk i danych o trendach, szybkość działania ograniczaną wyłącznie prawami fizyki, a ponadto – nie potrzebują kawy, urlopów, zwolnień lekarskich i przerw na lunch.

 

Szybko i sztampowo

Wszystko to powoduje, że coraz częściej będziemy mieć do czynienia z tekstami, które nie zostały stworzone przez żywych autorów, tylko przez zmyślne algorytmy. Takich jak te opracowane przez amerykańską spółkę Narrative Science. Jej trzydziestu pracowników nadzoruje pracę elektronicznych generatorów tekstów, które pracują na etatach – ale bez prawa do urlopów – w agencjach prasowych i giełdowych. Programy zajmują się głównie analizami. Przykłady przytaczane przez amerykański miesięcznik „Wired” dotyczą tekstów o lokalnych ligach bejsbolowych, ale robotopisarze zajmują się także nieruchomościami i finansami, pisząc np. dla renomowanego magazynu „Forbes”.

Szkolenie algorytmu w trudnej sztuce pisania ma kilka etapów. Po pierwsze trzeba zgromadzić dużą ilość pewnych, precyzyjnych danych. Na ich podstawie informatycy uczą program wyciągania wniosków: jeśli drużyna A zdobyła więcej punktów niż drużyna B, to znaczy, że jest zwycięzcą meczu. Jeśli w marcu bieżącego roku sprzedano więcej samochodów niż w marcu roku ubiegłego – rynek się powiększa. Następnie wprowadza się dodatkowe elementy: jeśli podczas meczu stosunek punktów zmienił się na korzyść drugiej drużyny, jest to fakt podkreślający wolę walki początkowo gorzej grającego zespołu. W ten sposób powstaje grupa zasad, na których podstawie algorytm dobiera zdania z wcześniej przygotowanych zbiorów. Przykładowo, program wie, że faworyt – czyli ta drużyna, która od początku sezonu wygrywała więcej spotkań niż jej przeciwnik – został pokonany przez zawodników statystycznie gorszych. Takie informacje można rozszerzyć jeszcze o wnioski wynikające z tego, na czyim terenie odbyła się gra. Dzięki temu może stwierdzić, że gospodarze ulegli gościom.

Dysponując takimi skrawkami gotowego tekstu, program układa je w całość – trzymając się zasad od zawsze obecnych w sportowych relacjach i korzystając ze wzorów tekstów, przygotowanych wcześniej przez żywych dziennikarzy. Szablony występują w wielu wersjach, zakładają podanie odbiegających od normy statystyk, przedstawienie najbardziej znaczących zawodników drużyn – czyli tych, których wyniki przekraczają wcześniej ustalone przeciętne poziomy. W ten sposób tekst informuje czytelnika o najskuteczniejszym rozgrywającym czy bramkarzu.

Czasem teksty mogą zawierać błędy, i choć nie dzieje się to często, algorytmy potrafią je także wyłapać, kierując materiał do przeczytania przez dyżurnego redaktora. Syntetyczni pisarze nie wypadają natomiast dobrze na polu kreatywności. Analitycznym tekstom (patrz: ramka) brakuje pogłębionej analizy, humoru, ironii.

Opracowany przez Narrative Science algorytm piszący teksty do gazet nie jest wcale tanim autorem – za każdy tekst firma pobiera wierszówkę, czyli dziennikarskie wynagrodzenie. Trzydziestu klientów firmy płaci za krótką notatkę około 10 dolarów. Klient ma za to pewność, że wszystkie wyliczenia i dane będą się zgadzać. Ma też gwarancję wykonania pracy na czas: komputer w firmie Narrative Science wypluwa z siebie jeden tekst co pół minuty przez 24 godziny na dobę. Zważywszy że firma zatrudnia trzydzieści osób, jest to tempo pracy nieosiągalne dla dziennikarzy ludzi. Dlatego ten sposób tworzenia tekstów ma wielką szansę się rozpowszechnić.

 

Bo giełda była za słona

Algorytmy zastępują ludzi nie tylko przy pisaniu tekstów z rozgrywek ligowych czy analizujących rynkowe trendy. Miliony zarabiają – i tracą – duże firmy maklerskie, dla których specjalnie przygotowane programy obracają papierami wartościowymi. Jest to szczególnie popularne w połączeniu z High Frequency Trading (HFT), czyli wieloma transakcjami kupna i sprzedaży w bardzo krótkim czasie. Całkiem niedawno kilka takich algorytmów, pracujących dla różnych zleceniodawców, tak się nakręciło, że w ciągu kilku godzin z parkietu amerykańskiej giełdy na chwilę wyparowało ponad 860 miliardów dolarów – wszystko za sprawą transakcji sprzedaży, która wywołała efekt kuli śnieżnej. Stało się to w 2010 roku, a wydarzenie nazwane „flash crash” miało być przestrogą dla korzystających z algorytmów inwestorów. Sprawę udało się na szczęście jakoś odwrócić.

W sierpniu bieżącego roku wystąpił poważniejszy incydent. Program pracujący dla firmy Knight Capital Group z sobie tylko znanych przyczyn zaczął zalewać rynek błędnymi zleceniami. Jego decyzje spowodowały ogromne straty i spadek ceny akcji spółki o ponad 70 proc. Tym razem giełda była nieugięta: nie zezwoliła na cofnięcie transakcji, argumentując, że każdy, kto wykorzystuje algorytmy do bogacenia się, musi też ponosić konsekwencje ich działań negatywnych. Knight Capital Group straciła 440 milionów dolarów.

Być może podobne wydarzenia będziemy mogli obserwować także nad Wisłą, bo właśnie na warszawskim parkiecie kończy się wdrażanie tego samego systemu informatycznego, który pracuje dla New York Stock Exchange. Nowe rozwiązanie – system UTP – ma zastąpić działający dotychczas Warset i umożliwiać – między innymi – automatyczny handel papierami wartościowymi, w tym także wspomniany High Frequency Trading.

 

– Dziś (…) cały obrót jest w wysokim stopniu zautomatyzowany. Ten, który opiera się na eliminacji ludzkiej interwencji, będziemy dopuszczać stopniowo, chcemy w tym obszarze kreować zmianę w sposób ewolucyjny – zapowiada prezes warszawskiej giełdy Ludwik Sobolewski i dodaje, że sam jest przeciwny transakcjom o wysokiej częstotliwości. – Uważam (…) że ta praktyka prowadzi do destrukcji zaufania inwestorów i emitentów do rynku kapitałowego i byłbym szczęśliwy, gdyby została zakazana. Prezes giełdy wyjaśnia, że w niewielkiej ilości mogą to być działania korzystne dla rynku. – HFT w rozsądnych ilościach poprawia płynność rynku i jest dobre, tak jak sól poprawia smak potrawy. Niestety HFT na wielu rynkach używane jest bez jakiegokolwiek umiaru – podsumowuje Sobolewski.

Inną możliwą dla algorytmów a niewykonalną dla ludzi rzeczą jest flash trading, czyli wykorzystujące potężną moc obliczeniową superkomputerów, błyskawiczne reagowanie na pojawiające się na rynku zlecenia. Jednym z pionierów tej techniki jest bank inwestycyjny Goldman Sachs, który – według danych agencji Bloomberg – dzięki elektronice potrafił zarobić po sto milionów dolarów dziennie. Algorytm zawsze bowiem działa szybciej niż człowiek, a taki, który podłączony jest bezpośrednio do giełdowego systemu, może wydawać dyspozycje nawet kilkadziesiąt razy na sekundę.

– Takie algorytmy działają z prędkością błyskawicy, ubiegając każdego człowieka. Są zawsze pierwsze. A im szybsze mają połączenia, tym mniejsze szanse ma w starciu z nimi człowiek – ostrzega Sal Arnuk, założyciel firmy Themis Trading, ekspert od automatycznych systemów maklerskich. W dodatku bogatsze firmy mogą inwestować w potężniejsze serwery, a umieszczając je – po zapłaceniu znacznie wyższych stawek – w siedzibie giełdy, redukują liczone w dziesiątkach milisekund opóźnienia w przesyle danych do kilku milisekund. To przekłada się na znacznie większe zyski.

Takie zyski otworzą się przed polskimi inwestorami, którzy będą mogli instalować serwery blisko serca Warszawskiej Giełdy Papierów Wartościowych. – Tak, jesteśmy gotowi to oferować, i będziemy – zapowiada prezes GPW.

 

Ekspedienci i łowcy głów

Algorytmy świetnie radzą sobie też w roli doradców ekspertów. Po analizie twojej kolekcji muzycznej algorytm Geniusz ukryty w programie iTunes sugeruje ci nieznanych wykonawców, którzy mogą przypaść ci do gustu. Wykorzystuje przy tym ogromną bazę utworów przeanalizowanych pod kątem barwy wokalu, tempa, instrumentarium – oraz preferencji innych użytkowników o zbliżonym guście. Jeśli ktoś polubił zespół Kasabian, a oboje słuchacie Foster the People, program zasugeruje ci zapoznanie się z grupą, której jeszcze nie znasz. Takie same algorytmy zwiększają sprzedaż internetowych księgarni, a pionierem w ich stosowaniu jest sieciowy gigant, amerykański Amazon.

Zresztą z algorytmami mamy do czynienia na co dzień, nawet nie zdając sobie z tego sprawy. Instalowane w samochodach systemy ABS i ESP myślą za człowieka, podejmując dużo szybsze i trafniejsze decyzje. Potrafią skrócić drogę hamowania w trudnych warunkach, bo nie mają ludzkich odruchów – takich jak wciskanie do końca hamulca w chwili, gdy wpadamy w poślizg i przestaje to być skuteczne. Latamy też samolotami, które w dużej mierze sterowane są już dziś automatycznie: lądowanie za pomocą systemu ILS (Instrumental Landing System) to nic innego jak powierzanie swojego życia automatom, które potrafią nie tylko wykonać perfekcyjne przyziemienie w idealnych warunkach, ale także sprowadzić bezpiecznie samolot na ziemię z uszkodzonym silnikiem czy walcząc z silnym bocznym wiatrem. To wszystko przy prędkości bliskiej 300 kilometrów na godzinę. Gdy więc po lądowaniu bijemy brawo, dziękujemy de facto elektronice, bo całkiem prawdopodobne, że piloci w tym czasie piją kawę albo wpatrzeni są w swoje iPady, odbierają e-maile z ofertami pracy od algorytmów rekrutujących, które właśnie zaczęły działać w sieciach społecznościowych Facebook i LinkedIn.