Pamiętasz Powrót do Przyszłości*? Samochód, muzyka, a w centrum kultowy duet Robert Downey Jr. i Tom Holland jako doktor Brown i Marty McFly. Oczywiście nie pamiętasz tego ostatniego faktu — w rzeczywistości Toma Hollanda nie było jeszcze na tym świecie, gdy Powrót do Przyszłości wszedł na ekrany w 1985 roku.
Możesz jednak zobaczyć alternatywną obsadę aktorską w jednym z kilkuset filmów wideo deepfake, które ukazały się w ciągu kilku ubiegłych lat w Internecie. Korzystając z technologii deepfake, można przenieść aktorów do filmów, w których nigdy nie występowali, lub ukazać celebrytów w wywiadach, które nie miały miejsca, z niezwykłą wiernością. Implikacje technik deepfake wzbudzają coraz większe obawy. W jakim stopniu są one uzasadnione? Jak można rozwiązać ten problem?
Czym są techniki deepfake i czy mogą być powodem do obaw?
W obrazach deepfake stosowana jest technologia generatywnych sieci kontradyktoryjnych (GAN, Generative Adversarial Networks). Sieć kontradyktoryjna składa się z dwóch sieci neuronowych — jednej zwanej generatorem i drugiej zwanej dyskryminatorem.
Najpierw generator pobiera zdjęcie osoby i na jego podstawie generuje drugie zdjęcie, które różni się nieznacznie od zdjęcia źródłowego. To zdjęcie jest następnie przekazywane do sieci dyskryminatora, który usiłuje zrozumieć, czy dane wejściowe są autentyczne, czy sfałszowane — stąd określenie „kontradyktoryjne”, ponieważ sieci usiłują oszukać się wzajemnie.
Im dłużej te dwie sieci uczą się, tym lepiej generują fałszywe obrazy wyglądające jak autentyczne zdjęcia. Po zakończeniu tego procesu nie można odróżnić (przynajmniej w sieci dyskryminatora) sfałszowanych obrazów od autentycznych zdjęć danej osoby. Tak powstaje obraz deepfake. W taki sposób można przygotować film wideo przedstawiający Marka Zuckerberga, dyrektora naczelnego firmy Facebook, sprzedającego podrabiany sprzęt do dializ lub w komicznej formie deklarującego zamiar opanowania świata.
W opinii niektórych krytyków filmy wideo tego typu są zwiastunem problemów. Ich zdaniem możliwość tworzenia obrazów łudząco podobnych do autentycznych zdjęć może mieć poważne implikacje w wielu dziedzinach życia.
Filmy wideo deepfake mogą przypisywać karalne wypowiedzi politykom lub umożliwiać im zaprzeczanie, że takie wypowiedzi miały miejsce, przez powoływanie się na te techniki fałszowania obrazu. Tę sytuację mogą wykorzystać oszuści. Jeżeli można zwieść ludzi, wysyłając do nich sfałszowane wiadomości e-mail przypominające korespondencję z banku z prośbą o przesłanie pieniędzy, to jak bardzo przekonujące byłoby sfałszowane połączenie wideo od kolegi lub krewnego? Agencja policyjna UE Europol zaleciła organom egzekwowania prawa zainwestowanie „znacznych środków” w nowoczesne technologie ułatwiające wykrywanie obrazów deepfake używanych do celów przestępczych.
Należy również uwzględnić ryzyko związane z podziemiem przestępczym pornografii w Internecie, gdzie wizerunki celebrytów lub innych osób mogą być umieszczane cyfrowo w szkalujących materiałach bez ich zgody. W raporcie firmy DeepTrace z września 2019 stwierdzono, że prawie 96% obrazów deepfake było związanych z pornografią.
Niektórzy komentatorzy zauważają jednak, że w rzeczywistości zagrożenie może być mniejsze. Zdjęciami manipulowano od 1860 roku, a usuwanie przeciwników politycznych z oficjalnych fotografii było powszechne w Związku Radzieckim pod rządami Józefa Stalina. Jeszcze niedawno w 2004 roku sfałszowana fotografia przedstawiająca Johna Kerry ukazała się w dzienniku New York Times* podczas wyborów prezydenckich. Ponadto drukowanie fałszywych informacji było możliwe od czasu... wynalezienia druku. Można więc toczyć spory, ale mamy do czynienia z kolejną technologią, do której musimy się przyzwyczaić.
Wykrywanie fałszerstw
Pomimo zapewnień o braku powodów do niepokoju wiele osób oczywiście poczuje się bezpieczniej, jeżeli dostępna będzie niezawodna, technologiczna metoda odróżniania sfałszowanych obrazów od autentycznych zdjęć. Kontynuowane są badania naukowe związane z tym zagadnieniem. Sztuczna inteligencja może cofać skutki swoich działań.
Na przykład firma Zeff prowadząca działalność w sektorze sztucznej inteligencji usiłuje opracować systemy detekcji umożliwiające wykrywanie zagrożeń tego typu. Początkowo jedną z charakterystycznych cech obrazów deepfake były nienaturalne wzorce mrugania. Jednak po zidentyfikowaniu wzorców mrugania w narzędziach deepfake zastosowano poprawki i obecnie osoby na sfałszowanych obrazach wideo mrugają jak prawdziwi ludzie.
W odpowiedzi na te zmiany firma Zeff wykorzystała sztuczną inteligencję do analizy przepływu krwi pod skórą, którego techniki deepfake wciąż nie emulują prawidłowo. W podkaście zatytułowanym Intel a sztuczna inteligencja Ben Taylor, szef działu przetwarzania danych firmy Zeff, pragmatycznie odniósł się do skuteczności tego rozwiązania w dłuższej perspektywie czasowej i przyznał, że ta dziedzina przypomina polowanie kota na mysz. „Taka sytuacja przypomina śledzenie ruchomego celu. Każda opracowana przez nas nowa metoda detekcji może być w rzeczywistości wykorzystana przez przestępów do ulepszenia technik deepfake.”
Innym rozwiązaniem jest dodawanie do fotografii warstw cyfrowych uniemożliwiających użycie ich do generowania obrazów deepfake, a więc odbierających narzędziom deepfake dane źródłowe. Na przykład niezależni naukowcy opracowali warstwę algorytmiczną, którą można zakodować w obrazie cyfrowym. Ten kod powoduje niezauważalną deformację obrazu, jeżeli wykryje próbę użycia go przez narzędzie deepfake.
Nie ustalono jeszcze, czy ryzyko związane z technikami deepfake będzie rosnąć. Możemy przyzwyczaić się do obecności obrazów deepfake we współczesnym środowisku lub korzystać z technologii detekcji. Najbardziej bezpieczne stanowisko przyjął chyba jednak Mike Schroepfer, główny technolog firmy Facebook*, stwierdzając „Wolę przygotować się na wiele potencjalnych problemów, które nigdy nie wystąpią, niż odwrotnie”.