Grafika stworzona przez SI czy prawdziwa? Microsoft sprawi, że już nie będziemy musieli się nad tym zastanawiać

Wraz z rozwojem sztucznej inteligencji i opartych o nią narzędzi do generowania filmów oraz obrazów, coraz trudniej jest odróżnić te twory od rzeczywistych. To z kolei może przyczyniać się m.in. do siania dezinformacji, o czym dobitnie świadczy niedawny przypadek fake newsa o ataku na Pentagon. Microsoft chce zrobić z tym porządek. W jaki sposób?
Grafika stworzona przez SI czy prawdziwa?  Microsoft sprawi, że już nie będziemy musieli się nad tym zastanawiać

Papież w kurce Balenciagi, płonący Pentagon czy aresztowany Donald Trump – to tylko kilka głośniejszych przykładów tego, jak czasem trudno odróżnić obraz wygenerowany przez sztuczną inteligencję od tego prawdziwego. To z kolei może mieć naprawdę poważne – a nawet katastrofalne – skutki. Dlatego konieczne jest jakieś rozwiązanie tego problemu, bo inaczej dezinformacja siana w ten sposób będzie zdarzać się coraz częściej.

Giganci technologiczni szukają więc sposobu, na oznaczanie obrazów stworzonych przy użyciu ich narzędzi. Adobe już to robi, bo chociaż Adobe Firefly nadal jest w fazie testów, to utworzone w nim grafiki zawierają widoczny znak graficzny oraz podpis cyfrowy. Dzięki temu wiadomo, że jest to dzieło SI. Nie jest to jeszcze rozwiązanie idealne, bo weryfikacja możliwa jest tylko w aplikacji producenta, ale to jeszcze może się zmienić. Jest to jednak krok we właściwą stronę.

Microsoft również chce wprowadzić coś podobnego w swoim Bing Image i Designer Creator, co jest o tyle ważne, że w porównaniu do narzędzia Adobe, to od Microsoftu jest ogólnie dostępne, więc każdy może generować w nim swoje projekty, udostępniając je później w mediach społecznościowych, na stronach internetowych czy w innych miejscach. Problem w tym, że jedni oznaczą je jako dzieło SI, a inni już nie. To z kolei ogromny problem zwłaszcza w kontekście siania dezinformacji.

Gigant z Redmond chce więc oznaczać i podpisywać treści generowane przez sztuczną inteligencję metadanymi dotyczącymi pochodzenia obrazu lub wideo wykorzystując do tego celu metody kryptograficzne. Nie jest to jednak prosta sprawa, bo w celu odczytania podpisu witryny internetowe będą musiały przyjąć specyfikację Coalition for Content Provenance and Authenticity (C2PA) stworzoną przez Microsoft przy współpracy z Adobe, Arm, Intel, Microsoft i platformą mediów wizualnych Truepic. Dopiero gdy tak się stanie, strona będzie w stanie ostrzegać użytkowników, że dana treść została wygenerowana lub zmodyfikowana przy użyciu sztucznej inteligencji giganta.

Jest to więc krok w dobrą stronę, bo prawda jest taka, że jeśli nic z tym nie będziemy robić, to wkrótce takie przypadki jak ten z rzekomym atakiem na Pentagon będą pojawiać się coraz częściej. Zwłaszcza że narzędzia oparte na sztucznej inteligencji stają się z dnia na dzień jeszcze dostępniejsze.

PS – po więcej materiałów najwyższej jakości zapraszamy na Focus Technologie. Subskrybuj nasz nowy kanał na YouTubie!