Wikipedia chciała podsumowań generowanych przez AI, ale społeczność powiedziała “NIE”
Jak donosi portal 404Media, fundacja planowała dwutygodniowy, opcjonalny test na mobilnej wersji Wikipedii, ale pomysł ten spotkał się jednak z natychmiastowym i zaciekłym sprzeciwem ze strony wolontariuszy, którzy od lat budują tę największą encyklopedię świata. Strona dyskusji projektu zamieniła się w prawdziwą lawinę odrzuceń, pełną komentarzy od prostego “Fuj!” po dosadne deklaracje typu “Najsilniejszy możliwy sprzeciw” czy “Absolutnie nie”. W zasadzie trudno się im dziwić, bo dobrze wiemy, że AI nie jest tak niezawodna, jak chcieliby ją widzieć giganci technologiczni.
Czytaj też: Google Home z masą nowości dla inteligentniejszego domu
Wystarczy wspomnieć o wpadkach Podsumować AI od Google’a, które, mimo dotarcia do 1,5 miliarda użytkowników miesięcznie, stały się pośmiewiskiem, sugerując na przykład dodawanie kleju do pizzy czy twierdząc, że pies grał w NBA. Z kolei AI Apple’a fałszywie generowała powiadomienie z aplikacji informacyjnych, w tym z BBC o rzekomym samobójstwie Luigiego Mangione, który w rzeczywistości żył i przebywał w areszcie. Tego typu kompromitujące błędy to koszmar dla społeczności Wikipedii, która od ponad dwóch dekad z pieczołowitością buduje swoją reputację i ma być dla nas źródłem rzetelnej wiedzy.
Czytaj też: Z wisiorka na szyję po robota — Jony Ive i OpenAI zrewolucjonizują interakcję z AI
Edytorzy jasno argumentowali, że testowanie AI w tak newralgicznym miejscu jak podsumowania artykułów może spowodować “natychmiastowe i nieodwracalne szkody dla naszych czytelników oraz dla naszej reputacji jako przyzwoitego, godnego zaufania i poważnego źródła“. Jeden z nich wyraził obawę, że wprowadzenie AI zniszczy model współpracy, na którym opiera się cała platforma. Argumentował, że podczas gdy “zbiorowa masa” ludzkich edytorów “wygładza się w piękne kompendium“, AI wprowadziłoby “jednego, pojedynczego edytora o znanych problemach z wiarygodnością i neutralnym punktem widzenia” na samym szczycie artykułu. Jak zauważył ten sam edytor:
Czuję, że Proste Podsumowania Artykułów (SAS) są sprzeczne z wieloma rzeczami, których czytelnicy oczekują od encyklopedii. Czytelnicy przychodzą na stronę, ufając, że możemy im dostarczyć wszystkie informacje, których potrzebują, jednocześnie (co kluczowe!) uzasadniając wszystko, co mówimy, źródłami i przestrzegając zasady NPOV. Bez tych dwóch rzeczy Wikipedia byłaby po prostu kolejną stroną.
Czytaj też: Gemini 2.5 Pro jeszcze mądrzejsze. Google zapowiada ulepszony model z nowymi możliwościami
Dobrze wiedzieć, że te głosy zostały wysłuchane, bo w odpowiedzi na burzę, Marshall Miller (MMiller), Senior Director w Fundacji Wikimedia, zamieścił dziś na stronie dyskusji technicznych aktualizację, w której przyznał: „Jasne jest, że mogliśmy lepiej przedstawić ten pomysł“. Potwierdził również to, co najważniejsze, czyli wstrzymanie eksperymentu. Fundacja wyjaśniała, że celem było zbadanie dostępności treści dla różnych czytelników. Choć ten konkretny test został odwołany, to Wikimedia nadal chce wykorzystywać nowoczesne technologie i pomysł podsumowań generowanych przez AI nadal jest aktualny.