W niedalekiej przeszłości na świecie zrobiło się głośno o tzw. deepfake’ach. Stały się one przyczynkiem do rozważań na temat możliwości dzisiejszej technologii i potencjalnych zagrożeń, jakie ta ze sobą niesie. Równie wstrząsające, choć wcale nie tak zaskakujące jest też jej użycie w obszarze filmów pornograficznych.
Deepfake to inaczej określenie na technikę łączenia obrazów ludzkich twarzy z wykorzystaniem sztucznej inteligencji. AI mając zestaw zdjęć twarzy i ucząc się sekwencji nanoszenia ich na siebie poprzez punktowanie charakterystycznych cech twarzy potrafi podmieniać je w taki sposób, by wyglądały zupełnie inaczej, ale wciąż naturalnie dla obserwatora.
Popularność deepfake’ów
Młodszej opinii publicznej technologia ta stała się bardziej znana w momencie możliwości zobaczenia jej osobiście. Obecnie w każdej chwili możesz wejść na serwis youtube i po wpisaniu frazy deepfake, zostaniesz odesłany do odpowiednich materiałów video.
Większość z nich ma charakter humorystyczny, ale oglądając je można odczuć lekki niepokój. Wszystko przez świadomość, że skoro z tymi twarzami można tak zrobić, to dlaczego z twoją nie miałoby być podobnie. W popkulturze tematyka ta została poruszona przez film Cam. Opowiada on o młodej dziewczynie zarabiającej poprzez pokazy na żywo z użyciem kamery video, która została wygryziona przez…samą siebie. Jest to opowieść nie tylko o samej kobiecie, a raczej o zagrożeniach sieci i niezachwianej wierze w technologię. Ciekawym spojrzeniem na tę sprawę jest również artykuł Rzeczpospolitej, w którym to wprost czytamy, że jest to nowa broń polityczna. Nie zdziwmy się, gdy na jaw zaczną wychodzić nagrania pokazujące polityków w kompromitujących sytuacjach, krzywdzących innych, czy odprawiających okultystyczne rytuały.
Strona jest wyłączona
Aktualizacja sprzed tygodnia przytoczonego poniżej artykułu wskazuje, że dzień po jego opublikowaniu strona aplikacji wywiesiła komunikat o swojej niedostępności. Redaktorzy w imieniu firmy zapewnili, że będą trzymać rękę na pulsie i nadal monitorować witrynę pod kątem kolejnych zmian. My również zdecydowaliśmy się poruszyć tę kwestię, gdyż stwarza naprawdę duże zagrożenie dla każdego potencjalnego odbiorcy tej aplikacji i jej podobnych.
Pornoapka, czyli bycie gwiazdą poprzez jedno kliknięcie
“Turn anyone into a porn star by using deepfake technology to swap the person’s face into an adult video. All it requires is the picture and the push of a button.”
Brzmi przerażająco, prawda? Jak donosi firma MIT Technology Review, tak właśnie brzmiał slogan na stronie głównej omawianej przez nią aplikacji. Redakcja postanowiła nie upubliczniać jej nazwy, by nie promować szkodliwych treści, potencjalnie stwarzając przy tym zagrożenie dla czyichś dóbr osobistych i godności imienia. Czyn to chwalebny, zważywszy na możliwości w/w aplikacji. W tekście przytoczona jest także postać Henry’ego Ajdera, który zawodowo zajmuje się deepfake’ami – ewolucją i rozwojem mediów syntetycznych. Aplikacja nazwana została bezpardonowo rażącym naruszeniem cienkiej linii etycznej, której nie przekroczyła jeszcze żadna z usług.
Deepfake czy pornfake
MIT opowiadając historię tego zjawiska, mówi, że od początku istniały one głównie do poronograficznych przeróbek obrazów kobiet. Tym, które miały okazję zobaczyć siebie w takiej wersji, obraz zapadał w pamięci jako elektryzujący i dewastujący. Technologia syntetycznych mediów została rozpropagowana przez twórcę portalu Reddit, który stworzył sekstaśmy celebrytek, tylko z użyciem ich zdjęć. Nawet współcześnie agencja badawcza Sensity AI estymuje, że nawet do 95% wszystkich deepfake’ow to pornografia bez zgody, a tylko 10% z nich może dotyczyć mężczyzn.
Niebezpieczeństwo bliżej niż myślisz
Portal wymienia też aplikacje, które służą do podmiany jednej fotografii, która umieści daną osobę w konkretnej scenografii. Popularna z tego segmentu jest ZAO, a na polskim rynku, głównie za pośrednictwem reklam na instagramie – ReFace App, która może nas zmienić w gwiazdę teledysku Rihanny czy bohaterkę tonącego Titanica. Ciekawe jest to, jak chętnie dla chwilowej rozrywki jesteśmy w stanie wysłać swoje zdjęcie takiej aplikacji. Co więcej, rodzi to pytania także o nasz cały wizerunek w sieci, którego po części wcale nie jesteśmy do końca właścicielami. Wszak nawet zdjęcia publikowane na Facebooku czy Instagramie nie są naszą własnością – intelektualną owszem – ale w praktyce należą do serwisu.
Fałszywa prywatność
Przy okazji nadużywania czyjegoś wizerunku „Wired” cytuje prawnika Bretta Wilsona. Mówi on o pojęciu fałszywej prywatności. Według prawniczego umysłu występuje ona wtedy, gdy ktoś tworzy sfałszowane treści z udziałem naszego wizerunku, a charakter tych treści narusza nasze prawo do prywatności. Jest to mimowolnie zawsze sytuacja, która będzie pozbawiać nas prawa do prywatności i dobrego imienia, w stosunku do czego mamy prawo domagać się usunięcia takich treści z dowolnego serwisu czy dysku.
Pierwsza aplikacja deepporn na rynku
Omawiana aplikacja była pierwszą na rynku służącą tylko jednemu celowi – uprzedmiotowieniu i zwulgaryzowaniu wizerunku ludzkiego. Docelowo miała odnosić się do korzystającego, ale mogła też obrabiać twarze innych ludzi, bez ich jakiejkolwiek wiedzy, a tym bardziej zgody. Duże zainteresowanie taką technologią mogłoby stworzyć niebezpieczeństwo chęci ulepszania jej.
– Za każdym razem, gdy poddasz się takiej specjalizacji, stworzy to nowy zakątek Internetu, który przyciągnie nowych użytkowników – przekonuje Adam Dodge, założyciel organizacji EndTAB, zajmującej się nadużyciami z użyciem technologii.
Obsługa aplikacji miała polegać na przesłaniu zdjęcia, czego następstwem miało być otwarcie biblioteki pełnej filmów z udziałem osoby ze zdjęcia. Zazwyczaj były to kobiece przedstawienia, choć i męskie również, głównie w stylistyce homoseksualnej. Następnie użytkownik mógł wybrać jeden film i ściągnąć go, po uiszczeniu opłaty. Chociaż filmy w wyniku takiego działania redaktorzy MIT TR oceniają jako słabej jakości i niedopracowane, to nie jest to wcale nie do “poprawienia”, gdyż mamy już przykłady, w których technologia ta staje się prawie niemożliwa do odróżnienia z rzeczywistością.
Społeczeństwo niewiele wie o deepfake’ach
Nieważne, czy te filmy są dopracowane czy też nie, to skutki dla ofiar takiej działalności są dramatyczne. Po pierwsze mogą zniszczyć komuś wizerunek. Mogą zniszczyć czyjeś zaufanie i wiarę, nie tylko w internet, ale w ludzi i bezpieczeństwo w ogóle. Wielu członków społeczeństwa nie zdaje sobie nawet sprawy z istnienia syntetycznych mediów, co osłabia ich zdolności poprawnej oceny. Oczywiście świadomość ta rośnie, ale wciąż mało się o tym mówi, a to stwarza możliwość ryzykownej oceny kogoś z góry.
Aplikacja reklamowała się jako bezpieczna i odpowiedzialna
Miała być narzędziem do odkrywania fantazji seksualnych. Słownictwo używane w obrębie aplikacji było skierowane do osoby użytkującej, ale tak naprawdę nie stawiało widocznych przeszkód w wykorzystaniu cudzych obrazów, o czym dobitnie świadczą komentarze na forach internetowych, w których użytkownicy chwalili się takimi możliwościami.
Konsekwencje dla ofiar
Konsekwencje psychologiczne mogą być podobne jak w przypadku udostępniania prawdziwych filmów porno z Twoim udziałem. Jest to kolejny rodzaj przemocy i to o podłożu seksualnym. Jest to zarówno duży szok, wstyd i strach, który może doprowadzić do depresji, zaburzeń lękowych czy prób samobójczych.
– Ten rodzaj nadużycia – w którym ludzie błędnie przedstawiają twoją tożsamość, imię i nazwisko, reputację i zmieniają je w tak obraźliwy sposób – rozbijają cię do szpiku kości – powiedziała Noelle Martin, australijska aktywistka, która stała się celem kampanii pornograficznych deepfake. – Wpływa na twoje relacje międzyludzkie; wpływa na ciebie w zdobywaniu pracy. Na każdej rozmowie o pracę, na którą się wybierasz, może zostać poruszony ten temat. Potencjalne związki romantyczne – mówi Martin.- Do dziś nigdy nie udało mi się w pełni usunąć żadnego ze zdjęć. To będzie na zawsze. Nie ważne co zrobię – żali się Noelle.
Aplikacja, która Cię zamknie albo zabije
Poruszony temat inscenizacji gejowskiego porno nie jest tutaj bez znaczenia. Dla mężczyzn to nie tylko zagrożenie dla stanu psychicznego i społecznego, ale realne zagrożenie w wielu regionach świata. W krajach, w których homoseksualizm jest penalizowany można pójść do więzienia, zostać pobitym, czy zrzuconym z dachu, jeśli trafimy na radykalnych eksternistów.
Henry Ajder, który w ciągu ostatnich kilku lat zajmował się tropieniem aplikacji typu deepfake, oznajmił, że kontaktował się z dostawcami hostingu omawianej aplikacji i nakazał im wyłączenie jej. Niestety jako specjalista w tym obszarze, twierdzi również, że nie przeszkodzi to w powstawaniu nowych aplikacji o podobnym zastosowaniu. Twierdzi wobec tego, że jedynym rozwiązaniem jest prawne zakazanie użycia takiej technologii.
Sztuczna inteligencja to tylko narzędzie, nie jest ani dobra ani zła, o czym świadczy jej pozytywne wykorzystanie, o czym pisaliśmy odnośnie technologii Microsoftu w medycynie.