Ukazuji, co je možné. Slovák vytváří deep fake videa a varuje před šířením lží

Simona Fendrychová Simona Fendrychová
13. 11. 2019 7:34
“Nevěřte všemu, co vidíte na internetu,” radí muž, jenž se na internetu ukrývá za přezdívkou Ctrl Shift Face. Vytváří a po síti šíří takzvaná deep fake videa. Nejnověji se podílel na upoutávce, kterou HBO láká na špionážní seriál Bez vědomí. Video zachycuje státnický projev muže připomínajícího prezidenta Miloše Zemana. Teprve ke konci se promění v herce Jana Vlasáka.

Může to vypadat neškodně. Americký komik Bill Hader ve slavné talkshow Davida Lettermana vypráví příhodu, jak na večírku potkal herce Toma Cruise. Když se dostane k tomu, co mu hollywoodská hvězda řekla, povedeně imituje její hlas.

V záznamu se ale hercova tvář mění a divák náhle získává pocit, že na Lettermanově pohovce sedí Tom Cruise. Přesně takhle vypadá deep fake.

Upravený videozáznam na svém YouTube kanálu zveřejnil uživatel Ctrl Shift Face začátkem letošního srpna a dodnes nasbíral přes sedm milionů zhlédnutí. O deep fake píší světová média, mluví se o nich v souvislosti s šířením dezinformací a varují před nimi i politici.

Podle Slováka, který vystupuje jen pod přezdívkou Ctrl Shift Face, je jedině dobře, že se taková videa šíří. "Je to užitečné zvyšování povědomí. Moje videa lidem ukázala, co to deep fake je a co tahle technologie v současnosti dokáže," vysvětluje pro deník Aktuálně.cz.

A dokáže toho hodně. Zmanipulovat lze téměř cokoliv. Už před pár lety se na internetu objevily první pokusy s tvářemi mocných politiků. Obličej Hillary Clintonové se během projevu proměnil v tvář amerického prezidenta Donalda Trumpa, jeho předchůdce Barack Obama zase pronesl projev, ke kterému ve skutečnosti nikdy nedošlo. To vše využitím reálných videozáznamů, umělé inteligence a lidské nápaditosti.

Taková videa už ale neškodně nevypadají. Není těžké představit si, jak se taková technologie využívá pro účely propagandy, varovala loni britská BBC.

Jan Vlasák při natáčení deep fake videa HBO.
Jan Vlasák při natáčení deep fake videa HBO. | Foto: Milan Bureš

Vědecký projekt i porno

Zatímco první videa vznikala jako vědecké projekty, dnes se deep fake výtvory baví lidé na internetu. Ctrl Shift Face, který o sobě prozradil jen to, že žije v Brně a pochází ze Slovenska, vytváří populární videa z oblíbených filmů, do kterých dosazuje jiné herce. Na jeho YouTube kanálu je například scéna z hororu Osvícení, kde místo Jacka Nicholsona hraje šíleného spisovatele Jacka Torranceho komik Jim Carrey. V roli Terminátora zase za původního Arnolda Schwarzeneggera dosadil Sylvestra Stalloneho, v roli taxikáře ze stejnojmenného filmu Martina Scorseseho vyměnil Roberta De Nira za Al Pacina.

Za zábavnými videi stojí poměrně nová technologie. V roce 2016 vědecký tým složený z odborníků ze Stanfordovy univerzity, Institutu Maxe Plancka a Erlangensko-norimberské univerzity v Německu vytvořil software, který jim umožnil ovládat jakoukoliv tvář na videu. Pomocí metody pokročilého rozpoznávání obličeje zanalyzují obličej ze záznamu, vytvoří jeho 3D model a ten pak mohou ovládat. Výsledek vypadá neuvěřitelně realisticky. Dá se vytvořit video, na kterém vybraná osoba může říct cokoliv.

Jan Vlasák při natáčení deep fake videa HBO.
Jan Vlasák při natáčení deep fake videa HBO. | Foto: Milan Bureš

Loni internetoví uživatelé našli nové využití. Na sociální síti Reddit se začala šířit aplikace FakeApp a návod, jak do už existujících videí přidat aktérům novou tvář. Za necelý měsíc si ji stáhlo přes 100 tisíc uživatelů, a to většinou s jediným cílem. Vytvářeli falešné porno s hollywoodskými celebritami. Stačilo si stáhnout volně dostupnou fotografii na internetu a obličej oblíbené herečky nebo herce dosadit do staženého pornografického videa.

Právě v tomto případě šlo o první skutečné zneužití technologie umožňující vytvářet deep fake. Nový trend zastihl sociální sítě nepřipravené. Videa s herečkami Scarlett Johanssonovou nebo Emmou Watsonovou se šířila rychle. Obě nejenže musely vyvracet, že by někdy nějaké porno natočily, ale také se musely vyrovnat s tím, že taková videa nehledě na to existují a jsou volně dostupná.

Jan Vlasák při natáčení deep fake videa HBO.
Jan Vlasák při natáčení deep fake videa HBO. | Foto: Milan Bureš

Lidé věří tomu, čemu věřit chtějí

"Nekvalitní deep fake zvládne vytvořit i amatér. Na kvalitní práci je třeba znát know-how a mít silný hardware, který nemá každý," komentuje dostupnost technologie Ctrl Shift Face.

V době fake news a šíření dezinformací může deep fake představovat novou hrozbu. Podle tajuplného Slováka, který deep fake videa prezentuje jako "okna do paralelního vesmíru", je to ale naopak.

"Spousta lidí s tím straší, přitom hlavní problém tu existuje dlouho a tím je Facebook, což je hlavní platforma pro šíření dezinformací. Když na oblbnutí lidí stačí jediný falešný příspěvek, jediná stránka šířící bludy, deep fake ani není potřeba. Lidé věří tomu, co se jim líbí. Tito lidé si neověřují informace. Vyvrátit deep fake je daleko jednodušší než nějaký neověřitelný vymyšlený článek," myslí si.

Faktem zůstává, že technologie, kterou si ještě před nedávnem bylo těžké jen představit, dorazila. Falešná videa vznikají a je dobré o nich vědět. "Je to stále mladá technologie a většina deep fake videí se dá rozpoznat. Bude se to ale dál vyvíjet a deep faky budou lepší a lepší. Naštěstí se spolu s nimi budou vyvíjet i způsoby na jejich detekci," uzavírá Ctrl Shift Face.

 

Právě se děje

Další zprávy