Jsou deepfakes nebezpečné, nebo jde o nevinnou zábavu?

Technologie se samozřejmě posouvají a vyvíjejí. Bohužel se to týká i nástrojů použitelných například pro tvorbu manipulativního obsahu. Proto dnes čelíme novému fenoménu, takzvaným deepfakes. To jsou nepravdivé, nejčastěji s pomocí umělé inteligence vytvořené fotky, videa nebo zvuky, které působí věrohodně a prezentují se jako opravdové. Na videu lze například konkrétního člověka nahradit někým jiným. Nejčastěji jde o výměnu tváře, rtů nebo těla.

Například falešné deepfake klipy s hercem Tomem Cruisem (@deeptomcruise na TikToku) jsou až překvapivě přesvědčivé.

Jak deep fake videa vznikají

Vytvořit deepfake video už není zas tak náročné. Na internetu existuje spousta aplikací schopných vytvořit deep fake video. Stačí mít „jen“ okolo dvoustovky videí toho, koho chcete napodobit. Tyhle deep fakes jsou jednoduché na výrobu, ale finální produkt nemusí být tak přesvědčivý. Dokonalé deepfakes vyrábí sofistikovanější software, který dokáže napodobit modely lidského chování. Počítač nashromáždí videa dané osoby a z těch pak dokáže odezírat a naučit se, jak se chová, tváří, jak vystupuje. To následně aplikuje při tvorbě deepfake videa. Proto může působit tak přesvědčivě a realisticky. Příkladem kvalitně vytvořeného deepfake videa je projev královny Alžběty II. z konce roku 2020, ve kterém se jeho tvůrci z britské soukromé televize snažili upozornit na problém, který šíření falešného obsahu představuje. Na konci videa můžete vidět, že video vzniklo za použití dvojnice v profesionálním televizním studiu před zelenou obrazovkou.

VIDEO: Deepfake Queen: 2020 Alternative Christmas Message

https://youtu.be/IvY-Abd2FfM

První deepfake videa se začala objevovat na sociální síti Reddit. Jednalo se o falešné uniklé soukromé nahrávky různých celebrit. Jako první potkala tahle nepříjemnost uměle vytvořená počítačem herečku Gal Gadot. Později se deepfakes začala objevovat i v jiných oblastech, například v politice.

Většinu deepfakes zatím většinou není těžké odhalit. Jak?

Pokud narazíte na podezřelé video, soustřeďte se na následující detaily:

  • Mrká daná osoba? Nemrkající „figuríny“ jsou nejčastějším nedostatkem deepfake videí.

  • Má osoba emoce? Videa zatím nejsou tak dokonalá, aby uměla dodat plnou dávku emocí do tváře zobrazovaného člověka. Často chybí i základní mimika ve tváři.

  • Co vousy a vlasy? Vypadají přirozeně? Hýbou se spolu s obličejem?

  • Co osvětlení? Je rovnoměrné?

  • Co prsty? Má jich osoba pět, nebo víc? Hýbou se přirozeně?

  • Co uši a chodidla? Jsou normálně veliké? Umělá inteligence může dělat chyby a použít moc velké, nebo naopak moc malé části těla.

  • Co hlas? Zní přirozeně?

Vývojáři si tyhle nedostatky samozřejmě uvědomují, dá se čekat, že deepfake videa budou časem dokonalejší a hůře rozpoznatelná.

Proč jsou deepfake videa nebezpečná?

Problém deepfake videí je v tom, že obecně máme tendenci věřit tomu, co vidíme „na vlastní oči“. Na to, že texty či obrázky lze upravit jsme si už zvykli, videím ale pořád spíš věříme. Jak si přebrat to, že někoho sice jasně na nahrávce vidíme mluvit a gestikulovat, ale ve skutečnosti nic takového neřekl?

Největší obavy vzbuzuje deepfake technologie v předvolebních obdobích. Hlavně posledních pár dní před volbami je informací spousta a času málo. Pokud by se deepfake video objevilo v tak dramatickém období, mohlo by některému z kandidátů opravdu uškodit. Chyběl by totiž dostatek času k prokázání, že je zmanipulované. Navíc, korekce falešných informací se už často nedostanou k tolika lidem, protože nejsou tak šokující a zajímavé jako původní nepravdivá informace.

Abychom deepfake videím nekřivdili, můžou být i užitečná. Při správném využití pomáhají například ve vzdělávání nebo umění.

Co s tím?

Deepfake videa můžou podobně jako dezinformace šířit strach a nenávist a v krajních případech rozdělovat společnost. Už teď technologické společnosti vyvíjí programy, které by dokázaly deepfake videa odhalit. Na jejich ověřování se hodí třeba nástroj InVID. Aplikaci pro rozpoznávání upravených videí vyvinul i Microsoft.

Falešný projev Miloše Zemana, jehož autorem je známý internetový umělec vystupující pod nickem Ctrl Shift Face.

Fotky tvořené umělou inteligencí

Snadná dostupnost umělé inteligence v posledních dnech zpřístupnila i nástroje pro tvorbu falešných fotek. Na jaře 2023 celý svět obletěla bizarní fotka papeže v obří péřové bundě, která vypadala naprosto věrohodně. Byla ale celá generovaná umělou inteligencí, konkrétně pomocí běžně dostupné aplikace Midjourny.

Ověřování podobných fotek je dost náročné, umělá inteligence ale pořád ještě dělá chyby. Na vygenerovaných obrázcích například nemusí sedět počet prstů na ruce: některé můžou přebývat nebo naopak chybět. Některé další části těla, například uši nebo chodidla můžou mít divné proporce. Je taky dobré hledat zdroj obrázku: věrohodná média často uvádějí jméno fotografa nebo adresu fotobanky, kde snímek získali.

Přes AI bohužel lze generovat i kompromitující obrázky, které se používají při šikaně. Ve španělském městě Almendralejo vytvářeli žáci místní školy přes AI nahé fotky svých spolužaček, které pak šířili na socsítích. Umělá inteligence je v tom takříkajíc nevinně – plní zadání. Viníkem jsou ti, kdo ji zneužívají.

Pozitivní deepfake

Je důležité dodat, že ne všichni tvůrci deepfake obsahu ho tvoří s nekalými úmysly. Vznikají i různé obsahy sloužící ke vzdělávání. Například trailer seriálu Bez vědomí. V budoucnosti můžou najít své uplatnění třeba ve zdravotnictví nebo v umění.

Jeden pozitivní příklad využití

V muzeu Salvadora Dalího ve městě St. Petersburg na Floridě otevřeli expozici s názvem Dalí Lives. Pomocí kombinace pokročilé umělé inteligence přivedli Dalího znova „k životu“.

Návštěvníky v muzeu přivítá zvláštní kiosek. Po stisknutí tlačítka se objeví legendární malíř Salvador Dalí v životní velikosti. To všechno desítky let po své smrti. Lidé připouštějí, že je to docela mrazivý zážitek. Všechno totiž vypadá naprosto dokonale. Jako by byl umělec zavřený za skleněnou deskou. Stačí ji odstranit a Salvador je rázem znova s námi.

A… je to Dalí, nebo ne? Samozřejmě, že není! Jde o klasický příklad deepfake, o kterých si můžete víc přečíst tady. Na obrazovce uvidíte virtuální kopii malíře. Díky strojovému učení čerpajícímu z tisíců hodin dostupných materiálů slavného umělce konverzuje s návštěvníky včetně přesné reprodukce jeho stylu mluvy a gest. Zaujmou i maličkosti, jako charakteristický pohyb jeho obočí a očí.

A to všechno jen díky umělé inteligenci a strojovému učení. Chytré algoritmy čerpaly z víc než 6 tisíc dostupných snímků a záběrů Dalího. Odborníci vybrali jeho citáty. Gesta se následně naučil živý herec, kterému technologie pomocí algoritmů “přidělila” tvář umělce.

Návštěvníky čeká i jeden hodně zvláštní zážitek, které ho posouvá do dnešní doby. Dalí se totiž lidí ptá, jestli se s ním chtějí vyfotit. Pokud řeknou, že ano, umělec vezme do ruky mobilní telefon a s návštěvníky si pořídí společnou selfie.

Deep fake má ovšem ve společnosti spíš negativní konotace. Je ale dobré vidět, že může mít i pozitivní využití. Brzo se možná dočkáme deep fake koncertů Elvise Presleyho, Curta Cobaina nebo Amy Winehouse.

 

Zdroj: E-Bezpečí

Vzdělávací podklady tématu ke stažení