Swift złożyła w amerykańskim urzędzie patentowym trzy wnioski o rejestrację znaków towarowych. Dwa dotyczą konkretnych nagrań jej głosu, a trzeci charakterystycznego zdjęcia ze sceny: artystka trzyma różową gitarę, stoi w błyszczącym kostiumie i wysokich srebrnych butach. Piosenkarka nie „opatentowała własnego głosu” w całości. Próbuje objąć ochroną dwa konkretne klipy audio i jeden bardzo rozpoznawalny obraz sceniczny. Prawnicy widzą w tym jednak coś więcej niż rutynowe zabezpieczenie marki. To próba znalezienia dodatkowego narzędzia w świecie, w którym sztuczna inteligencja coraz sprawniej podrabia ludzi.
Gdy fałszywa Taylor brzmi wystarczająco prawdziwie
Jeden z wniosków dotyczy nagrania, w którym Swift mówi: „Hey, it’s Taylor Swift…”, drugi zaczyna się od „Hey, it’s Taylor…”. Oba fragmenty były elementami promocji albumu The Life of a Showgirl. Same w sobie nie wyglądają jak coś, co miałoby przejść do historii popkultury. I właśnie dlatego ten ruch jest ciekawy. Chodzi przecież nie o kultową frazę w rodzaju „Just do it”, lecz o bardzo zwykły, ludzki początek wypowiedzi, który po przepuszczeniu przez narzędzia AI może stać się materiałem wyjściowym do niezliczonych fałszywek.
Swift nie jest tu teoretyczką problemu. Jej wizerunek był już wykorzystywany w p*rnograficznych deepfake’ach, fałszywych materiałach politycznych i oszukańczych reklamach. W 2024 roku w sieci krążyły zmanipulowane treści sugerujące jej poparcie dla Donalda Trumpa, a w ostatnich miesiącach deepfake’i z udziałem celebrytów, w tym Swift, były używane także w scamowych reklamach na TikToku. Coraz częściej nie chodzi o żart dla garstki internautów, lecz o treści robione po to, by naciągnąć ludzi na kliknięcie, zakup albo oddanie danych.
Mam wrażenie, że właśnie tutaj kończy się lekko zabawna faza fascynacji generatywną AI. Klony głosu gwiazd w piosenkach mogły jeszcze wydawać się internetową ciekawostką, czymś na granicy popkulturowego eksperymentu i prawnego chaosu. Fałszywa celebrytka zachęcająca do kliknięcia w podejrzaną promocję jest już znacznie mniej zabawna. To nie jest kwestia tego, czy lubimy Taylor Swift. Problem dotyczy zaufania do tego, co widzimy i słyszymy.
Znak towarowy jako prowizoryczna tarcza
Prawnik zajmujący się znakami towarowymi Josh Gerben tłumaczył, że rejestracje tego typu mogą wypełnić lukę, z którą dotychczasowe przepisy radzą sobie słabo. Prawo autorskie chroni nagrania, utwory i konkretne wykonania, ale AI potrafi wygenerować nową wypowiedź brzmiącą jak dana osoba, nie kopiując żadnego gotowego pliku. W takim przypadku klasyczne narzędzia bywają za krótkie. Znaki towarowe mogą dać artystce dodatkową podstawę do działania, szczególnie gdy fałszywy materiał jest używany komercyjnie albo ma wprowadzać odbiorców w błąd. Jednocześnie nawet eksperci podkreślają, że to strategia dość nowa i jej skuteczność nie została jeszcze porządnie przetestowana w sądzie.
Podobną drogą poszedł wcześniej Matthew McConaughey, którego prawnicy uzyskali ochronę dla ośmiu znaków towarowych związanych z jego głosem i wizerunkiem, w tym dla słynnego „Alright, alright, alright”. Co ciekawe, aktor jednocześnie zawarł umowę z firmą ElevenLabs, która może tworzyć licencjonowaną replikę jego głosu. To dobrze pokazuje, że walka nie toczy się przeciw samej technologii. Stawką jest zgoda. Kto decyduje, kiedy cyfrowa kopia człowieka powstaje, gdzie trafia i kto na niej zarabia?
Gwiazdy są pierwsze, reszta długo nie będzie bezpieczna
Najłatwiej patrzeć na tę sprawę jak na kolejny rozdział w wielkiej maszynie prawnej Taylor Swift, która od lat wyjątkowo pilnie chroni swoją markę. Tyle że jej ruch odsłania problem znacznie szerszy niż celebrycka własność intelektualna. Amerykańscy politycy, artyści i organizacje branżowe od miesięcy próbują przepchnąć NO FAKES Act, projekt ustawy mającej dać ludziom federalne prawo do kontroli nad cyfrowymi replikami głosu i wizerunku. Zwolennicy podkreślają, że ryzyko nie dotyczy wyłącznie aktorów i piosenkarzy. Fałszywe nagranie może uderzyć w nauczyciela, szefa firmy, nastolatkę z małego miasta albo osobę wplątaną w internetową zemstę.
W oficjalnych uzasadnieniach przywoływano między innymi przypadek dyrektora sportowego z Maryland, oskarżonego o stworzenie spreparowanego nagrania głosu szkolnego przełożonego. Pojawiały się także dane dotyczące s*ksualnych deepfake’ów, które w przeważającej części uderzają w kobiety. Nagle widać, że sprawa pozornie „show-biznesowa” dotyka czegoś bardzo podstawowego: prawa do tego, aby nasze ciało, twarz i głos nie były materiałem do swobodnej obróbki przez każdego, kto ma dostęp do odpowiedniego narzędzia.
Tu mam zresztą mieszane uczucia wobec tempa, w jakim nauczyliśmy się traktować takie treści jak normalny element internetu. Jeszcze chwilę temu sklonowany głos celebryty był technologiczną nowinką, którą pokazywano znajomym. Dziś potrzebujemy ustaw, nowych strategii znaków towarowych i zespołów prawników, żeby ratować resztki pewności, że człowiek widoczny na ekranie faktycznie coś powiedział.
Taylor Swift robi to, co za moment będą próbować robić inni
Ruch Swift można odczytać jako bardzo praktyczny. Artystka ma zasoby, prawników i powody, by działać wcześniej niż większość rynku. W epoce internetu gwiazdy latami zabezpieczały domeny, slogany, nazwy tras, albumów i gadżetów. Teraz do tego zestawu dołącza własny głos i możliwie charakterystyczna poza ze sceny. Cyfrowa tożsamość stała się aktywem, które trzeba pilnować niemal tak samo uważnie jak katalogu piosenek.
Myślę, że za kilka lat podobne działania przestaną budzić zdziwienie. Aktorzy, muzycy, influencerzy i prezenterzy będą negocjować licencje na swój syntetyczny głos równie skrupulatnie jak dziś umowy reklamowe. A zwykli użytkownicy dopiero zaczną się zastanawiać, jak bronić się przed fałszywymi nagraniami, jeśli nie mają za sobą działu prawnego większego niż niejedna firma.
