Wikipedia pod ostrzałem własnej społeczności. Kontrowersyjna funkcja wstrzymana

Obecnie sztuczna inteligencja wciskana jest wszędzie, gdzie tylko można. Nikogo więc nie powinien fakt, że znalazło się dla niej również miejsce na Wikipedii. Jednak redaktorzy tej największej cyfrowej encyklopedii nie chcieli się na to zgodzić. Fundacja Wikimedia, napotkała zmasowany opór ze strony swojej kluczowej siły napędowej – ludzkich edytorów – w związku z planami testowania generowanych przez sztuczną inteligencję (AI) podsumowań artykułów. Projekt, który miał być wspierany przez model Aya firmy Cohere, został natychmiastowo wstrzymany po fali przytłaczająco negatywnych reakcji ze strony społeczności.
Wikipedia pod ostrzałem własnej społeczności. Kontrowersyjna funkcja wstrzymana

Wikipedia chciała podsumowań generowanych przez AI, ale społeczność powiedziała “NIE”

Jak donosi portal 404Media, fundacja planowała dwutygodniowy, opcjonalny test na mobilnej wersji Wikipedii, ale pomysł ten spotkał się jednak z natychmiastowym i zaciekłym sprzeciwem ze strony wolontariuszy, którzy od lat budują tę największą encyklopedię świata. Strona dyskusji projektu zamieniła się w prawdziwą lawinę odrzuceń, pełną komentarzy od prostego “Fuj!” po dosadne deklaracje typu “Najsilniejszy możliwy sprzeciw” czy “Absolutnie nie”. W zasadzie trudno się im dziwić, bo dobrze wiemy, że AI nie jest tak niezawodna, jak chcieliby ją widzieć giganci technologiczni.

Czytaj też: Google Home z masą nowości dla inteligentniejszego domu

Wystarczy wspomnieć o wpadkach Podsumować AI od Google’a, które, mimo dotarcia do 1,5 miliarda użytkowników miesięcznie, stały się pośmiewiskiem, sugerując na przykład dodawanie kleju do pizzy czy twierdząc, że pies grał w NBA. Z kolei AI Apple’a fałszywie generowała powiadomienie z aplikacji informacyjnych, w tym z BBC o rzekomym samobójstwie Luigiego Mangione, który w rzeczywistości żył i przebywał w areszcie. Tego typu kompromitujące błędy to koszmar dla społeczności Wikipedii, która od ponad dwóch dekad z pieczołowitością buduje swoją reputację i ma być dla nas źródłem rzetelnej wiedzy.

Czytaj też: Z wisiorka na szyję po robota — Jony Ive i OpenAI zrewolucjonizują interakcję z AI

Edytorzy jasno argumentowali, że testowanie AI w tak newralgicznym miejscu jak podsumowania artykułów może spowodować “natychmiastowe i nieodwracalne szkody dla naszych czytelników oraz dla naszej reputacji jako przyzwoitego, godnego zaufania i poważnego źródła“. Jeden z nich wyraził obawę, że wprowadzenie AI zniszczy model współpracy, na którym opiera się cała platforma. Argumentował, że podczas gdy “zbiorowa masa” ludzkich edytorów “wygładza się w piękne kompendium“, AI wprowadziłoby “jednego, pojedynczego edytora o znanych problemach z wiarygodnością i neutralnym punktem widzenia” na samym szczycie artykułu. Jak zauważył ten sam edytor:

Czuję, że Proste Podsumowania Artykułów (SAS) są sprzeczne z wieloma rzeczami, których czytelnicy oczekują od encyklopedii. Czytelnicy przychodzą na stronę, ufając, że możemy im dostarczyć wszystkie informacje, których potrzebują, jednocześnie (co kluczowe!) uzasadniając wszystko, co mówimy, źródłami i przestrzegając zasady NPOV. Bez tych dwóch rzeczy Wikipedia byłaby po prostu kolejną stroną.

Czytaj też: Gemini 2.5 Pro jeszcze mądrzejsze. Google zapowiada ulepszony model z nowymi możliwościami

Dobrze wiedzieć, że te głosy zostały wysłuchane, bo w odpowiedzi na burzę, Marshall Miller (MMiller), Senior Director w Fundacji Wikimedia, zamieścił dziś na stronie dyskusji technicznych aktualizację, w której przyznał: „Jasne jest, że mogliśmy lepiej przedstawić ten pomysł“. Potwierdził również to, co najważniejsze, czyli wstrzymanie eksperymentu. Fundacja wyjaśniała, że celem było zbadanie dostępności treści dla różnych czytelników. Choć ten konkretny test został odwołany, to Wikimedia nadal chce wykorzystywać nowoczesne technologie i pomysł podsumowań generowanych przez AI nadal jest aktualny.