Dziwny termin zaczął pojawiać się w sieci. Cyfrowe skamieniałości mogą nam narobić masę problemów

To, czym mogliby się zainteresować archeolodzy bądź paleontolodzy, w rzeczywistości znalazło się w centrum zainteresowania naukowców badających wpływ sztucznej inteligencji na nasze codzienne życie. To właśnie ona stworzyła niedawno cyfrową skamieniałość, która nieźle namieszała w świecie publikacji badawczych.
Dziwny termin zaczął pojawiać się w sieci. Cyfrowe skamieniałości mogą nam narobić masę problemów

Termin, który wzbudził tyle emocji, to mikroskopia elektronowa roślin. Brzmi dość niedorzecznie, ale może po prostu to jakieś nowe zjawisko lub technologia, która pojawiła się niedawno w obiegu? Nic bardziej mylnego. Jak wyjaśniają eksperci, takie pojęcie powstało przez przypadek, a następnie zostało utrwalone przez narzędzia oparte na sztucznej inteligencji.

Czytaj też: Komputery kwantowe – przyszłość powoli staje się rzeczywistością

A jeśli wierzyć, że kłamstwo powtórzone tysiąc razy stanie się prawdą, to tutaj mamy najlepsze tego potwierdzenie. Co gorsza, wydaje się mało prawdopodobne, by ludzkość była w stanie wymazać mikroskopię elektronową roślin z cyfrowych rejestrów. W konsekwencji będziemy musieli się zmagać z tym krążącym, fałszywym pojęciem przez kolejne lata. A przecież takich cyfrowych skamieniałości będzie zapewne przybywać.

Pojawia się pytanie: co było źródłem wspomnianej pomyłki? Szukając go, autorzy nowych badań w tej sprawie doszli do wniosku, iż najpierw ktoś zeskanował dwa artykuły z lat 50. ubiegłego wieku, które zamieszczono wtedy na łamach Bacteriological Reviews. W toku procesu digitalizacji słowo vegetative (roślinny) zostało przypadkowo połączone z innym, electron (elektronowy). 

Cyfrowe skamieniałości, takie jak mikroskopia elektronowa roślin, to problem, który pojawił się na skutek rozwoju narzędzi opartych na sztucznej inteligencji

Takie zestawione ze sobą pojęcia po dekadach utworzyły więc mikroskopię elektronową roślin. Najpierw użyto go w irańskich artykułach naukowych, a w 2017 i 2019 roku odnotowano pierwsze wzmianki w anglojęzycznych publikacjach. Na obecną chwilę wiadomo o co najmniej 22 artykułach, w których możemy znaleźć ten pozbawiony sensu termin. Mamy tu do czynienia z efektem kuli śnieżnej.

Sprawcami całego zamieszania są modele językowe pokroju ChatGPT, które są szkolone z wykorzystaniem ogromnych ilości danych. Te nie zawsze zostaną zweryfikowane (a w zasadzie rzadko kiedy faktycznie są dogłębnie sprawdzane), co ułatwia sianie dezinformacji czy wręcz – nie bójmy się użyć tego słowa – głupoty. Co gorsza, trudno będzie walczyć z tym zjawiskiem, ponieważ bazy treningowe są gigantyczne, a twórcy modeli językowych nie chcą dzielić się sposobami, na jakie są one szkolone. 

Czytaj też: Meta wypuszcza Edits, aplikację dla twórców działających nie tylko na Instagramie czy Facebooku

Kiedy już jakieś pojęcie zostanie “pochłonięte” to trudno uratować sytuację. Kwestią czasu będzie identyfikacja kolejnych tego typu zawirowań, podczas gdy ekspertom pozostaje głowienie się nad narzędziami, które mogłyby zwalczać tę nieco przypadkową dezinformację. Kto by się spodziewał, że w 2025 roku będziemy mieli problem z cyfrowymi skamieniałościami?