Technologie umělé inteligence, která dokáže změnit realitu. Tento fenomén se už pomalu stává tématem i v české společnosti.
Ve videu se upravuje obličej, mimika i řeč aktéra tak, aby vše vypadalo realisticky. Zmiňovaná produkce nejčastěji zneužívá obraz celebrit a politiků, píše web MIT Technology Review. V poslední době byly na českém internetu k vidění videa prezidenta nebo premiéra, kterým autoři vložili do úst vymýšlené projevy. Kde ale leží hranice humoru, neslušnosti a trestného činu?
Nahé fotografie a videa jsou strašákem internetu. Nikdo netouží o zpřístupnění svých choulostivých obrázků na veřejnosti. Umělá inteligence se ale neptá a poslechne každý rozkaz autorů. Obětí vtipálků se nedávno stala i světoznámá zpěvačka Taylor Swift.
Milovaná Taylor Swift svlečená před celým světem
Taylor byla nedávno vystavena brutální deepfake porno kampani, kdy „její“ nahé fotografie běhaly po celém internetu. Objevily se původně na sociální síti X, kde se na ně mohly podívat miliony uživatelů. Jedna z nich nasbírala dokonce 47 milionů zhlédnutí. Platforma v minulosti známá jako Twitter následně zabránila jejich dalšímu šíření tím, že zablokovala všechna vyhledávání obsahující zpěvaččino jméno.
Deepfake není žádný nový fenomén, první zmínku o něm máme z roku 2017 ze sociální sítě Reddit. Díky inovacím se umělá inteligence stále zlepšuje a falešné pornografické fotografie a videa tak vytváří častěji, než bychom chtěli. Obětmi jsou přitom zpravidla ženy. Ani muži ale nejsou úplně z obliga.
Společnost Deeptrace zveřejnila v roce 2019 studii, která se zabývala kybernetickou bezpečností. Ukázalo se, že 96 % deepfake obsahu tvořila nekonsensuální pornografie. Stránky a weby zveřejňující tato videa vydělají především na reklamě.
Jak poznat deepfake video?
Na první pohled je podle webu PilsFree úprava původního materiálu zřetelná.
- Často je možné rozpoznat nereálnou deformaci hlavy a očí.
- Kvalita bývá nízká a situace na videu nepravděpodobné.
- Někdy ve videu vystupují i už mrtvé osoby.
- Deepfake mohou prozradit také nepřirozené pohyby těla a nereálná mluva.
Jak se bránit deepfake obsahu?
Jedním z mnoha technických řešení by mohly být vodoznaky. Ty skrývají ve fotografiích a obrázcích neviditelné signály, díky kterým ostatní počítače dokážou identifikovat, zda je dílo generováno AI, či nikoli. Systém SynthID, vyvinutý společností Google, využívá neuronovou sít‘ k úpravě pixelů v obrázcích. Následně přidá vodoznak, který lidské oko nevidí.
Ochranné štíty cestou k úspěchu
Aplikace PhotoGuard funguje jako ochranný mechanismus. Upravuje pixely na obrázcích způsoby, které jsou pro lidské oko nezaznamenatelné. Pokud někdo využije aplikaci umělé inteligence – např. generátor obrázků Stable Diffusion – k úpravě obrázků chráněných PhotoGuardem, výsledek bude působit nerealisticky.
Pomůže nařízení vlády?
USA
Případ deepfake zneužití miláčka americké popové scény Taylor Swift vyvolal otázky i u politiků. Bílý dům uvedl, že incident byl „alarmující“, a vyzval Kongres, aby přijal legislativní opatření. Například Kalifornie zakázala vytváření pornografických deepfake obrázků vyrobených bez souhlasu. K ní se připojily New York a Virginie.
Anglie
Podle nového britského zákona o online bezpečnosti je sdílení nekonsensuálního deepfake pornografického materiálu nezákonné, nikoli však jeho tvorba. Pachatelům hrozí za šíření až šest měsíců vězení.
Čína
V roce 2023 vstoupil v Číně v platnost deepfake zákon. Tvůrci deepfake aplikací se zde musí snažit, aby zabránili používání svých služeb pro nezákonné nebo škodlivé účely. Musí také požádat uživatele o souhlas, než jejich obrázky převedou na deepfake. Nezbytné je ověřit totožnost lidí a označit obsah vytvořený umělou inteligencí. Ze všech států tedy Čína zatím legislativně zašla nejdál. Nejčastějším terčem se zde stávají celebrity, ženy a zpěváci.
Může nás tedy deepfake ohrozit? Velmi často se stává, že zveřejněné příspěvky se jen velmi těžko z internetu odstraňují. Proto je nutné zůstávat obezřetný a zbytečně nezveřejňovat své fotografie na sociálních sítích. V dnešní digitální době je ale velmi těžké deepfake tvorbě zabránit.
Autor: Eva Kaisrová