1. Domů
  2. Články
  3. Deepfakes: jak se bránit digitálním podvodům

Deepfakes: jak se bránit digitálním podvodům

Štefan Tusjak
Deepfakes: jak se bránit digitálním podvodům

Technologie se posouvají neustále kupředu. Bohužel se to týká i nástrojů pro tvorbu manipulativního obsahu. Deepfakes označují manipulované fotografie, videa a zvuky, které se tváří jako opravdové. Nejčastěji jde o výměnu tváře, rtů nebo těla. Jak technologie deepfake funguje a jak ji rozpoznat?

Jak deepfakes fungují?

Technologie deepfake je moderní a pokročilá metoda, která slouží k vytváření realistických digitálních falzifikátů – konkrétně obrázků a videí – za pomoci umělé inteligence, jako je hluboké a strojové učení.  

Deepfake je kombinací slov deep learning“ (hluboké učení) a fake“ (falešný). Hluboké učení je technika v oblasti umělé inteligence, která využívá neuronové sítě k analýze a generování dat. Pomocí této technologie je možné vytvořit videa a obrázky, které na první pohled vypadají autenticky, ale ve skutečnosti jsou zcela falešné. 

Deepfake videa jsou často vytvořena s cílem manipulovat veřejným míněním, šířit dezinformace nebo poškodit pověst jednotlivců, začínající se i objevat případy šikany, které jsou z řad školáků, kteří používají deepfake obrázky svých spolužáků. 

Tato technologie se rychle vyvíjí a stává se stále dostupnější, což znamená, že je stále obtížnější rozpoznat, co je pravda a co je falešné. 

Čím to začíná?

Proces tvorby deepfake začíná sběrem velkého množství dat, obvykle obrázků a videí cílové osoby. Tyto data jsou poté použity k trénování neuronové sítě, která se učí rozpoznávat a replikovat specifické rysy a pohyby dané osoby. Po dostatečném tréninku je neuronová síť schopna generovat nové obrázky nebo videa, kde cílová osoba vykonává činnosti, které ve skutečnosti nikdy neprovedla. 

Jedním z nejčastěji používaných nástrojů pro tvorbu deepfake videí jsou Generative Adversarial Networks (GANs), které jsou tvořeny ze dvou neuronových sítí: 

  • generátoru – vytváří falešné obrázky a videa, 

  • diskriminátoru – rozpoznává, které z nich jsou falešné.  
    Tento proces pokračuje, dokud generátor neprodukuje natolik realistické výsledky, že diskriminátor nedokáže rozlišit skutečná data od falešných.   
    Existují ovšem i programy volně dostupné ke stažení, které využívají třeba již zmiňovaní školáci. Stačí, aby nahráli fotku a upřesnili, co se s ní má stát. 

Způsoby pro odhalení falešných videí a obrázků

Ačkoli technologie deepfake je vysoce pokročilá, existuje několik možností a nástrojů, jak odhalit falešné videa a obrázky: 

  • Analýza detailů obrazu: Deepfake videa často obsahují drobné nesrovnalosti, které lze odhalit pečlivým zkoumáním. 

    To může zahrnovat neobvyklé blikání očí, nepřirozeně dlouhé intervaly mezi mrkáním, nesprávně vykreslené stíny nebo nesprávné pohyby rtů synchronizované s mluveným slovem. Často chybí i mimika ve tváři. Největší výzvou jsou pro AI prsty na rukou – často je generuje pokřivené nebo ve špatném počtu,“ uvádí Štefan Tusjak, lektor Python Akademie v ENGETO.  

  • Kontrola zdrojů: Když narazíte na podezřelé video nebo obrázek, zkontrolujte, jestli pochází z důvěryhodného zdroje. Mnohé falešné materiály pocházejí z neznámých nebo pochybných zdrojů. 

  • Použití forenzních nástrojů: Existují speciální softwarové nástroje, které mohou analyzovat digitální média a identifikovat známky manipulace. Tyto nástroje zkoumají metadata souborů, kompresní artefakty a další technické detaily. 

  • Využití umělé inteligence: Ironicky, AI může být použita k boji proti deepfake. Některé pokročilé algoritmy umělé inteligence umí detekovat deepfake média s vysokou přesností tím, že analyzují jemné nesrovnalosti, které lidské oko nemusí zachytit. 

  • Vzdělávání a povědomí: Jednou z nejdůležitějších strategií je vzdělávání veřejnosti o existenci a rizicích deepfake technologií. Čím více budou lidé informováni, tím lépe budou schopni digitální podvody rozpoznat a ubránit se jim. 

Mohlo by vás také zajímat

Deepfakes: jak se bránit digitálním podvodům