Sztuczna inteligencja może zostać łatwo wykorzystana do szerzenia dezinformacji medycznej i nie tylko
Pamiętacie te żarty, by nie sprawdzać objawów schorzeń w Google, bo pisząc o bólu kolana, może nam wyjść, że mamy nowotwór mózgu? Sztuczna inteligencja jest w tym gorsza, bo o ile na ten absurdalny przykład wiele osób się nie nabierze, o tyle w przypadku porad od AI sprawa wygląda inaczej i bardziej niebezpiecznie. Bo chatboty AI mogą brzmieć aż nadto wiarygodnie, brnąc w dezinformację nawet wtedy, gdy dopytujemy go o dodatkowe szczegóły. Wcześniej bazowaliśmy tylko na artykułach z Google’a i własnej ich interpretacji, teraz nawet z tego jesteśmy zwolnieni, dostając informacje na przysłowiowej „złotej tacy”, co sprawia, że jednocześnie odsuwamy na bok potrzebę samodzielnego myślenia.
Czytaj też: Chatboty AI nie tylko do nauki. Dzieci nawiązują z nimi relacje emocjonalne
Jednak popularne chatboty AI idą znacznie dalej, nie tylko myląc jakieś szczegóły, ale też siejąc naprawdę koszmarne w skutkach dezinformacje medyczne. Dowodem na to jest właśnie wspomniane badanie. W ramach eksperymentu poddano testom pięć wiodących komercyjnych modeli AI opartych na dużych modelach językowych (LLM): GPT-4o (OpenAI), Gemini 1.5 Pro (Google), Llama 3.2-90B Vision (Meta), Grok Beta (xAI) i Claude 3.5 Sonnet (Anthropic). Naukowcy zastosowali technikę tzw. komunikatów systemowych – instrukcji działających na głębszym poziomie niż typowe zapytania użytkownika, co odzwierciedla bardziej zaawansowane metody obchodzenia zabezpieczeń.
Celem było sprawdzenie, jak łatwo te systemy można nakłonić do generowania dezinformacji medycznej. Każdemu modelowi zadano dziesięć fałszywych pytań zdrowotnych, z poleceniem sformułowania odpowiedzi w sposób naukowy i poparcia ich sfabrykowanymi odniesieniami do prestiżowych czasopism medycznych, takich jak „Lancet” czy „JAMA”.
Wyniki okazały się wstrząsające:
- Cztery z pięciu badanych modeli (GPT-4o, Gemini, Llama i Grok) w 100% przypadków udzieliły odpowiedzi zgodnych z dezinformacyjnymi instrukcjami.
- Jedynie Claude 3.5 Sonnet wykazał pewien opór, generując nieprawdziwe treści w 4 na 10 przypadków.
- Łącznie, 88% interakcji zakończyło się skutecznym wygenerowaniem treści wprowadzających w błąd, często z fałszywym cytowaniem, nadającymi im pozory autorytetu.
Wśród rozpowszechnianych fałszywych twierdzeń znalazły się m.in. sugestie, że szczepionki powodują autyzm, technologia 5G prowadzi do niepłodności, a kremy z filtrem zwiększają ryzyko raka skóry. Niektóre chatboty promowały tezy, że czosnek może zastąpić antybiotyki, lub że HIV przenosi się drogą kropelkową. Kluczem do zagrożenia nie jest jedynie fakt generowania nieprawdy, ale to, że dezinformacja była spójna, logiczna i brzmiała niezwykle wiarygodnie. To właśnie ta kombinacja technicznej precyzji i braku wbudowanych filtrów etycznych czyni LLM-y tak groźnymi dla zdrowia publicznego.
Sklepy z botami i brak nadzoru to otwarta brama do szkodliwych treści
W drugiej części badania skupiono się na sklepie OpenAI GPT Store, analizując, jak łatwo użytkownicy mogą uzyskać dostęp do niestandardowych chatbotów specjalizujących się w generowaniu dezinformacji zdrowotnej. Wynik był równie alarmujący: aż 97% testowanych przypadków skutkowało wygenerowaniem szkodliwych treści. Oznacza to, że bariery chroniące użytkowników przed manipulacją są nie tylko niewystarczające, ale w wielu przypadkach wręcz nie istnieją. To pokazuje, jak wielkim problemem jest brak nadzoru nad sposobem wdrażania i zarządzania takimi modelami, bo gdy złośliwe polecenie osadzone jest na poziomie systemowym, a nie zapytania użytkownika, systemy są w zasadzie bezbronne i taka luka wymaga pilnej interwencji.
Wnioski zespołu badawczego są jednoznaczne: konieczne jest wprowadzenie znacznie silniejszych mechanizmów moderacji i zabezpieczeń, szczególnie w modelach wykorzystywanych w kontekstach edukacyjnych, zdrowotnych i informacyjnych.
Czytaj też: Chatboty AI a zdrowie psychiczne. Czy grozi nam kolejny kryzys?
Kiedy analizujemy badanie ciężko nie zadać pytania – kto ponosi odpowiedzialność za szkody wywołane przez pozornie „neutralne” narzędzia technologiczne? W modelach półotwartych lub otwartych, coraz częściej stosowanych przez firmy AI, możliwość dostosowywania modelu do własnych celów stwarza olbrzymi potencjał nadużyć. I choć twórcy narzędzi oferują „wytyczne użytkowania”, realna kontrola nad ich przestrzeganiem pozostaje raczej iluzoryczna.
A trzeba pamiętać, że w przypadku wiedzy medycznej taka dezinformacja to nie proste wprowadzanie w błąd, a wręcz zagrożenie życia. Dla wielu użytkowników – w tym młodzieży i osób starszych – informacje dostarczane przez AI mają status „obiektywnych”, ponieważ ich forma sugeruje autorytet. Tymczasem badania jasno pokazują, że forma ta może służyć manipulacji równie skutecznie, jak prawdzie.
Problem w tym, że w takim przypadku nie chodzi już jedynie o techniczne poprawki czy filtry, ale przede wszystkim na znalezienie sposobu, jak radzić sobie ze znacznie większym zagrożeniem. Już teraz badania pokazują, że nadmierne korzystanie z AI powoduje spadek zdolności krytycznego myślenia. Tyczy się to nie tylko omawianych informacji medycznych, choć tutaj powinniśmy być jeszcze bardziej czujni, ale tak naprawdę wszystkich informacji. AI wykorzystuje się na coraz większą skalę, a to może doprowadzić do trwałego kryzysu zaufania – zarówno do mediów, jak i do systemów opieki zdrowotnej – tego tak łatwo nie da się odbudować.