Zjistěte Kompatibilitu Znamení Zodiac
Pokusili jsme se vytvořit deepfake Marka Zuckerberga a Alexe Jonese – a neuspěli jsme. Zde je to, co se stalo.
Ověřování Faktů

Udělat to, aby to vypadalo, že někdo udělal nebo řekl něco, co se nikdy nestalo, je těžší, než to vypadá.
To je to, co se Poynter naučil za posledních několik týdnů, když se pokoušel vytvořit „deepfake“ video Alexe Jonese, hostitele Infowars a častého konspiračního teoretika, s poznámkami, které ve skutečnosti pronesl generální ředitel Facebooku Mark Zuckerberg. Deepfakes, pojmenované po uživateli Redditu kteří s touto metodou přišli, jsou v podstatě vytvořeny extrahováním velkého počtu snímků z jednoho videa a jejich překrýváním.
Cíl: Aby to vypadalo, že někdo dělá nebo říká něco, co ne. A o to se Poynter pokusil, aby zjistil, jak snadné je použití této technologie.
Použitím FakeApp , bezplatný online nástroj, který uživatelům umožňuje vytvářet jejich vlastní deepfakes, jsme se pokusili vytvořit základní video, na kterém Zuckerberg chrlí nepodložené Jonesovy konspirační teorie. Níže je video vytvořené s pomocí webového vývojáře Warrena Fridyho na částečný úvazek společnosti Poynter.
Je jasné, že to není dobrá verze něčeho takového amatérské porno , lidé na okrajových webech a dokonce i politické strany se v tom znepokojivě zdokonalily. Zatímco Zuckerbergova tvář je skutečně překryta na Jonesově, FakeApp zahrnoval celou jeho tvář, takže vypadal jako nějaký rozmazaný démon bez rozeznatelných očí. Pak je tu skutečnost, že zvuk se netransponoval.
Stručně řečeno: Měli bychom si zachovat každodenní práci.
Vtipy stranou, trvalo nám týdny, než jsme přišli s něčím, co má daleko k obstojnému deepfake videu. A to proto, že – navzdory častému mediálnímu pokrytí technologie deepfake – je to opravdu těžké vytvořit jeden.
'Deepfake vyžaduje docela ruční úsilí,' řekl Matyáš Niessner , profesor na Technické univerzitě v Mnichově, jehož lab výzkumy deepfakes, v e-mailu Poynterovi. „Svým způsobem byste to mohli vidět jako podobný Photoshopu. Je to jen trochu přehnané.“
Vzestup deepfakes – diskutovaný během panelu na dnešním summitu Global Fact-Checking Summit v Římě – se podle ní stal z děsivé internetové věci skutečnou hrozbou pro demokracii. Valící se kámen . napsal Vox že zmanipulovaná videa mohou změnit naše vzpomínky, řekl Verge vytváření deepfake porno videí bude brzy super snadné a Kabelové dokonce zakryté blockchainový startup, který se zasvětil boji proti tomuto formátu.
Ve stejnou dobu, někteří hlásili že obecné deepfakes jsou již pryč a „hluboké videoportréty“ jsou to, čeho bychom se měli všichni obávat.
Mezitím, po více než měsíci pokusů, jsme byli stěží schopni vyrobit něco, co vypadalo byť jen okrajově realistické. Jistě, to by (oprávněně) mohlo být připsáno naší vlastní neznalosti modelů strojového učení – jiný novináři měli větší úspěch – ale jde o to, že vytvořit výrazně pozměněné video ještě není tak snadné jako zveřejnění falešného zpravodajství na Facebooku (a pravděpodobně ne tak ziskové).
„Nemyslím si, že lidé bez jakýchkoli zkušeností s hlubokým učením mohou vytvořit přesvědčivé deepfake video pomocí deepfake aplikace dostupné online,“ řekl Annalisa Verdoliva , odborný asistent na Neapolské univerzitě Federico II., v e-mailu Poynterovi. 'Dokonce i pro odborníky je to dost obtížné.'
Verdoliva se pokusila vytvořit své vlastní deepfake video s výzkumným týmem a řekla, že to dopadlo špatně, protože nezískali dostatek variací v obrázcích, aby přesně trénovali model, který vytváří deepfake. To je klíčová výzva i pro potenciální podvodníky, jako je Poynter.
Zde jsou kroky, které jsme podnikli:
- Stáhli jsme si FakeApp a nainstalovali ji na vzdálenou plochu Windows (Poynter téměř výhradně používá počítače Mac, se kterými FakeApp není kompatibilní.)
- Stáhli jsme dva videoklipy — jeden ze Zuckerberga mluví o vyšetřování ruského vměšování do amerických voleb v roce 2016 a další z Jonesů mluví o „deep state“ a politickém programu prezidenta Donalda Trumpa. To dává FakeApp spoustu obrázků obličejů, ze kterých si můžete vybrat.
- Nechali jsme „umělou inteligenci“, která pohání FakeApp, aby našla a ořízla tváře v každém videu, aby vytvořila model strojového učení, který by spojil Jonese a Zuckerberga, aby to vypadalo, že první mluvil jako druhý. To trvalo celý víkend, nebo asi tři dny.
- Nakonec FakeApp vygeneroval video. Fridy řekl, že mohl model trénovat déle a s více fotografiemi Zuckerbergova obličeje, aby byl přesnější, ale to by trvalo déle.
Nyní k té zábavnější části. Zde jsou některé z problémů, na které jsme narazili při používání FakeApp:
- FakeApp nemůžete spustit na macOS společnosti Apple – pro nás to fungovalo pouze ve Windows.
- Musíte mít Grafická karta založená na NVIDIA , což je v podstatě kus hardwaru, který vám umožňuje zpracovávat všechny obrázky a morfovat je dohromady.
- V počítači musíte mít hodně paměti — asi 10 GB nebo tak nějak.
- Narazili jsme na problémy s kompatibilitou s různými verzemi TensorFlow, softwarové knihovny, která umožňuje FakeApp vytvořit svůj model strojového učení.
- Vytáhli jsme zvuk z původního videa, abychom ho zkusili začlenit do deepfake, ale FakeApp s tím nic neudělal.
'FakeApp zní dobře, ale když se posadíte a vyzkoušíte to, nefunguje to na 100 procent,' řekl Fridy. 'Není to nástroj z krabice.'
FakeApp údajně bylo staženo více než 100 000krát. Existují celé kanály 4chan a Reddit věnované vytváření deepfakes. Ale prozatím je tato technologie přinejlepším rudimentární – dokonce i pro ty, kteří vědí, jak ji správně používat.

(Snímky obrazovky z FakeApp)
Fridy řekl, že technologie jako Adobe After Effects a Australský pták , stejně jako Face2Face a Pixel2Pixel , by pravděpodobně byly lepší sázky na vytvoření deepfake videa. S.pa, belgická politická strana, která vytvořil deepfake Trumpa minulý měsíc jsem použil After Effects.
Navzdory komplikacím s nástrojem jsou hluboce falešná videa stále znepokojivá – jen ne v bezprostřední budoucnosti as několika výhradami.
'Jsme teprve na začátku této technologie a myslím, že se brzy zlepší a stane se snadno použitelnou pro každého,' řekl Verdoliva. 'V tuto chvíli je rozlišení stále příliš nízké, ale v blízké budoucnosti to bude problém, protože ve vytváření vysoce kvalitních syntetických tváří došlo k ohromujícímu pokroku.'
Zároveň by nedorozumění a přehánění dopadu a potenciálu deepfakes mohlo krátkodobě představovat větší hrozbu.
'Největším problémem je v tuto chvíli mylná představa o mnoha z těchto přístupů,' řekl Niessner. „Filmový průmysl dělá posledních 30 let docela realistické ‚falešné‘ obrázky. Ale když teď přidáme AI jako módní slovo, najednou je to problém – i když to ani tak dobře nefunguje.“
Deepfake videa budou dnes diskutována během panelu na Global Fact 5. Sledujte @factchecknet a #GlobalFactV pro živé aktualizace.