Deepfakes: jak se bránit digitálním podvodům
Technologie se posouvají neustále kupředu. Bohužel se to týká i nástrojů pro tvorbu manipulativního obsahu. Deepfakes označují manipulované fotografie, videa a zvuky, které se tváří jako opravdové. Nejčastěji jde o výměnu tváře, rtů nebo těla. Jak technologie deepfake funguje a jak ji rozpoznat?
Jak deepfakes fungují?
Technologie deepfake je moderní a pokročilá metoda, která slouží k vytváření realistických digitálních falzifikátů – konkrétně obrázků a videí – za pomoci umělé inteligence, jako je hluboké a strojové učení.
Deepfake je kombinací slov „deep learning“ (hluboké učení) a „fake“ (falešný). Hluboké učení je technika v oblasti umělé inteligence, která využívá neuronové sítě k analýze a generování dat. Pomocí této technologie je možné vytvořit videa a obrázky, které na první pohled vypadají autenticky, ale ve skutečnosti jsou zcela falešné.
Deepfake videa jsou často vytvořena s cílem manipulovat veřejným míněním, šířit dezinformace nebo poškodit pověst jednotlivců, začínající se i objevat případy šikany, které jsou z řad školáků, kteří používají deepfake obrázky svých spolužáků.
Tato technologie se rychle vyvíjí a stává se stále dostupnější, což znamená, že je stále obtížnější rozpoznat, co je pravda a co je falešné.
Čím to začíná?
Proces tvorby deepfake začíná sběrem velkého množství dat, obvykle obrázků a videí cílové osoby. Tyto data jsou poté použity k trénování neuronové sítě, která se učí rozpoznávat a replikovat specifické rysy a pohyby dané osoby. Po dostatečném tréninku je neuronová síť schopna generovat nové obrázky nebo videa, kde cílová osoba vykonává činnosti, které ve skutečnosti nikdy neprovedla.
Jedním z nejčastěji používaných nástrojů pro tvorbu deepfake videí jsou Generative Adversarial Networks (GANs), které jsou tvořeny ze dvou neuronových sítí:
generátoru – vytváří falešné obrázky a videa,
diskriminátoru – rozpoznává, které z nich jsou falešné.
Tento proces pokračuje, dokud generátor neprodukuje natolik realistické výsledky, že diskriminátor nedokáže rozlišit skutečná data od falešných.
Existují ovšem i programy volně dostupné ke stažení, které využívají třeba již zmiňovaní školáci. Stačí, aby nahráli fotku a upřesnili, co se s ní má stát.
Způsoby pro odhalení falešných videí a obrázků
Ačkoli technologie deepfake je vysoce pokročilá, existuje několik možností a nástrojů, jak odhalit falešné videa a obrázky:
Analýza detailů obrazu: Deepfake videa často obsahují drobné nesrovnalosti, které lze odhalit pečlivým zkoumáním.
„To může zahrnovat neobvyklé blikání očí, nepřirozeně dlouhé intervaly mezi mrkáním, nesprávně vykreslené stíny nebo nesprávné pohyby rtů synchronizované s mluveným slovem. Často chybí i mimika ve tváři. Největší výzvou jsou pro AI prsty na rukou – často je generuje pokřivené nebo ve špatném počtu,“ uvádí Štefan Tusjak, lektor Python Akademie v ENGETO.
Kontrola zdrojů: Když narazíte na podezřelé video nebo obrázek, zkontrolujte, jestli pochází z důvěryhodného zdroje. Mnohé falešné materiály pocházejí z neznámých nebo pochybných zdrojů.
Použití forenzních nástrojů: Existují speciální softwarové nástroje, které mohou analyzovat digitální média a identifikovat známky manipulace. Tyto nástroje zkoumají metadata souborů, kompresní artefakty a další technické detaily.
Využití umělé inteligence: Ironicky, AI může být použita k boji proti deepfake. Některé pokročilé algoritmy umělé inteligence umí detekovat deepfake média s vysokou přesností tím, že analyzují jemné nesrovnalosti, které lidské oko nemusí zachytit.
Vzdělávání a povědomí: Jednou z nejdůležitějších strategií je vzdělávání veřejnosti o existenci a rizicích deepfake technologií. Čím více budou lidé informováni, tím lépe budou schopni digitální podvody rozpoznat a ubránit se jim.