ChatGPT niczym cyfrowy detektyw. Nowa funkcja budzi niepokój o prywatność

Wyścig sztucznej inteligencji, w jakim biorą udział giganci pokroju Microsoftu, Google’a czy OpenAI daje nam dostęp do ogromu świetnych funkcji, które ułatwiają codzienne życie, pracę czy rozrywkę. Jednak jak zwykle są również ciemne strony takich narzędzi, o których zdajemy się często zapominać. Przykładem tego może być jedna z najnowszych funkcjonalności ChatGPT, która w łatwy sposób może zostać wykorzystana w niecnym celu.
OpenAI wprowadził model ChatGPT 4.1

Źródło: Solen Feyissa / Unsplash

Odwrotne wyszukiwanie lokalizacji w ChatGPT — imponujące, ale niebezpieczne

AI może w jednej chwili stworzyć nam realistyczne obrazy, napisać za nas zadanie domowe, stworzyć film na podstawie tekstu czy odtworzyć czyjś głos. Możliwości są ogromne i praktycznie z tygodnia na tydzień tylko ich przybywa. Jak to zwykle bywa, zawsze znajdzie się ktoś, kto wykorzysta te narzędzia nie do rozrywki czy ułatwienia sobie pracy, a do oszustw czy innych mniej przyjemnych rzeczy. Jasne, można to powiedzieć o wielu nowinkach technologicznych, ale wiecie, o co chodzi – kiedy coś jest na wyciągnięcie ręki i nie potrzeba do tego specjalistycznych rzeczy, łatwiej o nadużycia.

Czytaj też: Google wprowadza udostępnianie ekranu i kamery w Gemini Live na Androidzie dla wszystkich

Użytkownicy odkrywają teraz, że najnowsze modele ChatGPT potrafią rozpoznawać lokalizację wykonania zdjęcia, bazując wyłącznie na analizie samej fotografii. Ta nowa zdolność ChatGPT jest zasługą modeli o3 i o4-mini od OpenAI, które zostały wyposażone w ulepszone umiejętności rozumienia obrazu. Zaawansowane algorytmy potrafią przybliżać, kadrować, obracać i szczegółowo analizować zdjęcia – nawet te rozmazane lub zniekształcone – by znaleźć i zidentyfikować charakterystyczne wizualne wskazówki, takie jak szyldy sklepów, oznaczenia ulic, menu restauracji, a nawet elementy architektury.

Czytaj też: Koniec ery Asystenta Google na Fitbitach. Nadchodzi zmiana wirtualnego asystenta

Kiedy połączymy to z możliwością wyszukiwania informacji w sieci, dostajemy zaskakująco potężne narzędzie geolokalizacyjne, którego każdy może użyć. Użytkownicy platformy X (dawniej Twitter) intensywnie testują nowe możliwości ChatGPT, wrzucając codzienne zdjęcia – ulic sąsiedztwa, menu restauracji, selfie zrobione przed barami i wiele innych. AI często podaje nie tylko poprawne miasto, ale nawet konkretne miejsca. To w zasadzie realna wersja popularnej gry GeoGuessr, a ChatGPT radzi sobie z nią niepokojąco dobrze. Jasne, nie jest bezbłędne, bo niektóre odpowiedzi są nietrafione lub ogólne.

Czytaj też: ChatGPT z funkcją serwisu społecznościowego? Potencjalna konkurencja dla X

Mimo tego łatwość, z jaką ta funkcja może zostać wykorzystana w nieodpowiedni sposób, budzi największe obawy. Bez zabezpieczeń każdy może przesłać do ChatGPT zdjęcie obcej osoby i zapytać „Gdzie to jest?”, a AI udzieli odpowiedzi. A przecież w serwisach społecznościowych i na relacjach dzielimy się wieloma zdjęciami czy filmikami. W tym przypadku fakt, że nie podamy lokalizacji, nie jest już żadną przeszkodą. Na razie funkcja lokalizowania zdjęć w ChatGPT jest wykorzystywana głównie dla zabawy, ale, jak w przypadku każdej nowej technologii, istnieje realne ryzyko, że zostanie ona wykorzystana przez osoby o złych intencjach. OpenAI ma teraz pilne zadanie, aby opracować mechanizmy obronne i wprowadzić standardy bezpieczeństwa, które ograniczą potencjalne nadużycia tej funkcji.