PRZEMILCZANA HISTORIA DZIEJÓW : NIEWOLNICTWO SŁOWIAN.
8 czerwca 2020TAJEMNICE BIBLIOTEKI ALEKSANDRYJSKIEJ : KTO POSIADA ANTYCZNĄ WIEDZĘ ?
9 czerwca 2020Dynamiczny rozwój sztucznej inteligencji sprawił, że jesteśmy w stanie wygenerować realistyczny wizerunek dowolnego człowieka. W technologii tej tkwi ogromny potencjał – pozwoli wskrzeszać zmarłych aktorów oraz tworzyć filmy z ludźmi, którzy nie istnieją.
Na początku października miałem okazję przybliżyć wam tematykę doliny niesamowitości. Opowiedziałem o tym, jak trudno stworzyć roboty idealnie imitujące człowieka. Pozwoliłem sobie popuścić nieco wodzy fantazji i zasugerowałem, że w przyszłości zmarli aktorzy mogą powrócić na ekrany za sprawą hiperrealistycznych animacji komputerowych.
Dziś wracam do tego tematu zainspirowany newsem, w którym Adam opisał wykorzystanie technologii Deep Learning do przeniesienia Harrisona Forda do filmu Han Solo: Gwiezdne wojny – historie. Na naszych oczach powoli tworzy się nowa historia kinematografii.
W świecie deepfake’ów.
Zanim przejdziemy do demolowania branży filmowej i porozmawiamy o animowanych aktorach, musimy na chwilę zanurzyć się w świecie nowych technologii.
Pod koniec minionego roku w sieci wybuchł spory skandal. Na Reddicie użytkownik o pseudonimie Deepfake zaczął upubliczniać filmy pornograficzne ze znanymi aktorami, wywołując tym samym ogólnoświatową burzę. Ta rozpętała się jednak nie z powodu samych filmów, a tego, jak powstały. Okazało się bowiem, że autor nie wykradł ich celebrytom, a wykorzystał sztuczną inteligencję do podmieniania twarzy aktorek porno na twarze m.in. Daisy Ridley, Emma Watson, Gal Gadot czy Scarlett Johansson.
Na pierwszy rzut oka nieuważny widz mógł nie zorientować się, że ma do czynienia ze zmyślnym oszustwem. Zwłaszcza że wiele materiałów publikowano w niskiej jakości, co pozwoliło zamaskować wszelkie niedoskonałości takiej przeróbki. Reddit zamknął wątek z deepfake’ami pod naciskiem krytyki płynącej z mediów oraz pokrzywdzonych aktorek, ale było już zbyt późno, aby zatrzymać tę falę. W styczniu w sieci pojawił się program FakeApp, który pozwalał każdemu podmieniać twarze osób na dowolnych filmach.
W sieci zaroiło się od portali gromadzących fakeporno i prawdopodobnie już nigdy nie uda się z nimi wygrać. Ale technologia ta ma także inną, nieco mniej mroczną stronę. Dzięki niej będziemy mogli kręcić filmy, o jakich do niedawna mogliśmy tylko pomarzyć.
Dostrajanie rzeczywistości.
Za technologią pozwalającą podmieniać twarze ludzi w filmach stoi oczywiście sztuczna inteligencja wykorzystująca metodę uczenia maszynowego. Co ciekawe, twórcy FakeApp sięgnęli po bibliotekę programistyczną TensorFlow opracowaną przez zespół Google Brain Team.
Największą zaletą FakeApp jest fakt, że do stworzenia w miarę przyzwoitego efektu potrzeba kilkuset zdjęć, co w przypadku celebrytów nie jest zbyt dużym problemem. Wystarczy wykorzystać fotografie dostępne w sieci, aby podmienić twarze aktorów w nagraniu. Harrison Ford nie był pierwszym deepfakiem ze świata filmów, jeden z najsłynniejszych materiałów prezentuje Nicolas Cage:
Technologia ta nie jest doskonała i większość filmów tworzy się metodą chałupniczą. Ale łatwo wyobrazić sobie, że w przyszłości powstaną firmy wyspecjalizowane w tworzeniu profesjonalnych deepfake’ów. Mogłyby one posłużyć np. do umieszczania w filmach zmarłych aktorów.
Dotychczas wykorzystywano w tym celu grafikę komputerową. W filmie Rogue One: A Star Wars Story mogliśmy podziwiać cyfrową wersję Petera Cushinga w roli wielkiego moffa, którego zanimowali pracownicy z Industrial Light & Magic. Ale na dłużą metę taki sposób przywracania na ekran zmarłych postaci może okazać się nieefektywny, gdyż znacznie lepsze efekty można uzyskać za pomocą deepfake’ów. Oto jak prezentuje się materiał przygotowany przez profesjonalistów:
Jeśli uważasz, że bez problemu odróżnisz fałszywe twarze od tych prawdziwych, odwiedź stronę przygotowaną przez redaktorów ABC, na której znajdziesz prosty test. Twoim zadaniem będzie wskazanie, które z filmów przedstawiają prawdziwe osoby, a które są wytworem sztucznej inteligencji. Wybór nie zawsze będzie oczywisty.
Nowa era kina.
Teraz czas zastanowić się nad tym, jak rozwój tej technologii wpłynie na branżę filmową. Za kilka lat może okazać się, że aktorzy wcale nie muszą być wszechstronni, a postaci filmowe będzie można komponować z kilku różnych osób. Reżyser zatrudni w roli „ciała” superbohatera uzdolnionego i umięśnionego kaskadera, nałoży mu twarz Robert Downey Jr. i nada mu głos Johnny Depp. A widz nawet nie zorientuje się, że doszło do jakiejś manipulacji na ekranie. W końcu materiał wygenerowany przez SI pokroju FakeApp zawsze będzie można podkręcić. Być może nigdy nie doczekamy się tak daleko idących zmian w kinematografii, ale mam wrażenie, że rozwiązania z pogranicza deepfake’ów znacząco wpłyną na sposób realizacji filmów.
Przyjrzyjmy się tej technologii od kuchni. Szacuje się, że potrzeba kilku tysięcy fotografii aktora, aby stworzyć wierne, hiperrealistyczne odwzorowanie twarzy za pośrednictwem deepfake’ów. Nic nie stoi na przeszkodzie, aby przed wejściem na plan aktorzy zostali dokładnie sfotografowani i przeniesieni do cyfrowej bazy danych sztucznej inteligencji. Dzięki temu mogliby grać twarzą w scenach z udziałem dublerów.
Scenarzyści planują nakręcić sceny seksu z Arnold Schwarzenegger, ale wiedzą, że jego ciało nie prezentuje się tak dobrze, jak przed laty? Nie ma sprawy, zatrudnijmy aktora porno i nałóżmy na niego twarz Arnolda. Aktor nie radzi sobie ze scenami walki? Niech zastąpi go zawodowy sportowiec. Filmowcy nie będą musieli maskować scen z kaskaderami, gdyż w każdym ujęciu widoczna będzie twarz aktora, niezależnie, czy zagra w niej on, czy jego dubler.
Deepfake pozwoli także dograć materiał, jeśli aktor ulegnie wypadkowi, ciężko zachoruje albo umrze przed dokończeniem zdjęć. Takie wykorzystanie jego wizerunku wymagałoby oczywiście odpowiednich zmian w umowach zawieranych z wytwórnią, ale z tym nie powinno być żadnego problemu. Branża wypracuje rozwiązania, które zadowolą obie strony.
Te zmiany dzieją się na naszych oczach. Wspomniał o tym Ben Morris w wywiadzie z Inverse. Specjalista odpowiedzialny za efekty wizualne w Star Wars: The Last Jedi przyznał, że już dziś skanuje się wizerunki najważniejszych postaci z uniwersum Gwiezdnych wojen.
Zawsze digitalizujemy wizerunki wszystkich głównych aktorów w naszych filmach. Nigdy nie wiemy, kiedy będziemy ich potrzebować.
Krok w daleką przyszłość.
A to dopiero początek zmian, jakie w najbliższych dziesięcioleciach mogą czekać branżę filmową. Kto wie, może za kilka dekad niektórzy aktorzy będą tylko i wyłącznie animować twarze, a modele i modelki sprzedawać swój wizerunek producentom filmów? Dzięki sztucznej inteligencji możliwe będzie także syntezowanie głosów znanych aktorów. Firma Lyrebird napisała oprogramowanie, któremu wystarczy krótka, minutowa próbka głosu, do stworzenia jego cyfrowego odwzorowania. Tak wyglądają efekty jej działania:
Nie mam pojęcia, jaką drogę wybierze branża filmowa, ale już dziś na rynku istnieją narzędzia, które pozwolą unieśmiertelnić zarówno wizerunek, jak i głos. Nie zdziwię się, jeśli za kilkadziesiąt lat na ekranie wciąż będziemy mogli podziwiać aktorów, których dziś podziwiamy na filmowym ekranie.
Pozostaje tylko zastanowić się nad losem przyszłego pokolenia aktorów. Czy uda im się wybić wśród deepfake’owych gwiazd z początku XXI wieku? Czy może ich rola sprowadzi się wyłącznie do nośników znanych twarzy sprzed lat?
Walka z Deepfakes.
Ponieważ zjawisko wykorzystania technologii Deepfake i jej popularność jest postrzegana jako bardzo duże zagrożenie w sieci internetowej. Niewątpliwie przyczynia się do tego popularność wspomnianych wcześniej aplikacji. Dlatego takie firmy jak Microsoft, Facebook oraz kilka uczelni powołały inicjatywę „Deepfake Detection Challenge (DFDC), która ma na celu tworzenie narzędzi ułatwiających wykrywanie treści, które wykorzystują technologię Deepfake. Dziennikarze: Również środowiska dziennikarskie będą mogły skorzystać z kursu, który przygotował Facebook wspólnie z agencją Reuters. Kurs pozwoli dziennikarzom w rozpoznaniu fałszywych treści typu Deepfakes.
Algorytmy algorytmami, ale to od nas, użytkowników internetu, portali społecznościowych będzie zależeć jak tak technologia będzie wykorzystywana.
Eksperci od wizerunku.
Niemniej dużo pracy będą mieli eksperci od wizerunku, dziennikarze i doradcy od marketingu politycznego. Pod koniec roku będziemy mieli wybory prezydenckie w USA a jak pokazała historia z wcześniejszych kampanii politycznych zarówno ta ostatnia Donalda Trump’a i jeszcze wcześniej Barack’a Obamy, że wszelkie nowinki w zakresie komunikacji w sieci a zwłaszcza w mediach społecznościowych przeważyły w dużej mierze w wygranej w wyborach.
Dwa lata temu mówiliśmy o aferze tzw. Cambridge Analytica (dla przypomnienia – chodziło m.in. o szczegółowe profilowanie odbiorców na podstawie ich zachowań w serwisach Facebook i Twitter). Zatem powstaje pytanie czy i jak bardzo zostanie wykorzystana technologia Deepfake w najbliższej kampanii wyborczej w USA. Nie spodziewam się raczej, że w najbliższych wyborach prezydencki w naszym kraju ktoś wykorzysta to narzędzie – nie ten budżet i poziom marketingu politycznego – zobaczymy!
W jaki sposób powstają filmy typu deepfake.
Do utworzenia filmu uznanego za deepfake wykorzystywany jest system o nazwie GAN (generatywna sieć współzawodnicząca). Składają się one z dwóch konkurujących ze sobą głębokich sieci neuronowych, trenowanych na prawdziwych obrazach. Następnie rozpoczyna się część współzawodniczenia, w której udział bierze jedna sieć generująca obrazy (stąd nazwa generatywna) i druga próbującą określić, czy obraz jest prawdziwy, czy fałszywy (ta druga sieć jest nazwana dyskryminująca).
Później sieć generatywna uczy się na podstawie wyniku, a dyskryminująca dowiaduje się, jak zwiększyć swoją skuteczność. Z każdym cyklem obie sieci są coraz lepsze.
Po na przykład kilku milionach cykli szkoleniowych generatywna sieć neuronowa wie, jak wygenerować fałszywy obraz, którego równie zaawansowana sieć neuronowa nie może odróżnić od prawdziwego.
Metoda ta jest aktualnie używana w wielu aplikacjach; w zależności od danych przygotowawczych sieć generatywna uczy się generować pewnego rodzaju obrazy.
Oczywiście podczas tworzenia filmów typu deepfake algorytm jest uczony na prawdziwych zdjęciach określonych osób. W efekcie sieć może generować nieskończoną liczbę przekonujących (lecz fałszywych) zdjęć osoby, które można następnie zintegrować w filmie. Podobne metody mogą generować fałszywy dźwięk, a oszuści prawdopodobnie używają już dźwięku deepfake.
Na ile przekonujące są już filmy typu deepfake.
Pierwsze filmy deepfake wyglądały zabawnie, jednak technologia ta ewoluowała na tyle, że na tę chwilę stały się one bardzo przekonujące. Jednym z najważniejszych przykładów z 2018 roku było oszustwo, w którym ktoś podszył się pod Baracka Obamę. W połowie 2019 roku pojawił się krótki film podszywający się pod Marka Zuckerberga, który zadziwiająco szczerze wypowiedział się na temat bieżącego stanu prywatności.
Aby przekonać się, jak zaawansowana stała się ta technologia, obejrzyj poniższy film. Impresjonista Jim Meskimen przygotował go we współpracy z artystą tworzącym filmy deepfake, Sham00k. Ten pierwszy był odpowiedzialny za głosy, a drugi użył twarzy 20 celebrytów w filmie, posiłkując się oprogramowaniem deepfake. Efekty są naprawdę imponujące.
Jak przyznaje Sham00k w opisie swojego filmu, „stworzenie całego filmu zajęło 250 godzin, 1200 godzin materiału, 300000 obrazów i wygenerowało blisko 1 terabajt danych”. Wynika z tego, że utworzenie takiego filmu to niemały wyczyn. Mimo to tak przekonujący element dezinformacyjny może potencjalnie wywołać masowy efekt na rynkach — albo na przykład na wyniki wyborów — co sprawia, że proces ten wydaje się przerażająco łatwy i niedrogi.
Z tego względu niemal w tym samym czasie, w którym opublikowany został wspomniany wyżej film, Kalifornia uznała, że w okresie sezonu wyborczego filmy deepfake związane z polityką są nielegalne. Jednak nie eliminuje to problemu. Ogólnie filmy deepfake są pewną formą ekspresji — jak satyra polityczna. Wprowadzony przez Kalifornię zakaz nie chroni wolności słowa.
Drugi problem jest zarówno natury technicznej, jak i praktycznej: skąd mieć pewność, że film deepfake nie jest prawdziwy?
Po czym rozpoznać filmy deepfake.
Uczenie maszynowe to ostatni krzyk mody wśród naukowców z całego świata, a problem z filmami deepfake wygląda ciekawie i stanowi kuszące wyzwanie. Z tego względu powstały nowe projekty badawcze, których zadaniem jest sprawdzenie, w jaki sposób analiza obrazu może pomóc w wykryciu filmów deepfake.
Na przykład dokument opublikowany w czerwcu 2018 roku opisuje, w jaki sposób analizować mruganie, aby wykryć film deepfake. Chodzi o to, że zazwyczaj nie mamy wystarczającej liczby zdjęć mrugania danej osoby, aby sieci neuronowe mogły zostać na nich wytrenowane. W rzeczywistości ludzie przedstawiani na filmach deepfake mrugali zbyt rzadko, a przez to można było dostrzec trudną do zidentyfikowania rozbieżność, a pomogła w tym analiza komputerowa.
Dwa dokumenty opublikowane w listopadzie 2018 roku sugerowały szukanie nietypowych na twarzy artefaktów oraz niespójnej mimiki. W innym, opublikowanym w 2019 roku, opisana została wyrafinowana technika, która analizuje mimikę twarzy i poruszania głową typową dla wzorca mówienia danej osoby.
Jednak jak wskazuje Miller, metody te raczej nie odniosą sukcesu na długą metę. W rzeczywistości badacze są źródłem opinii zwrotnej dla twórców filmów deepfake, przez co pomagają im w ulepszeniu takich dyskryminacyjnych sieci neuronowych, co z kolei prowadzi do jeszcze skuteczniejszego szkolenia sieci generatywnych i dalszych ulepszeń w filmach deepfake.
Wszystkie powyższe rozwiązania technologiczne (i zapewne tysiące innych, o których nie słyszałam) stanowią zagrożenie wyłącznie dla ludzi, którzy wybierają być tylko „w głowie”. Wybierają nie czuć, wypierają sygnały płynące z ich ciała, serca, czy intuicji.