Budoucnost nebude jednoduchá. Ačkoli např. Adobe nedávno vytáhl do boje proti deepfakes, byly to často jeho nástroje, které byly používány k vytváření falešných snímků. Dnes už ale tuto úlohu přebírá umělá inteligence. Ta může být zneužita např. k tvorbě snímků nebo videí politiků, která ukazují situace, které se nestaly, a kdy říkají, co nikdy neřekli. Toto je obrovským nebezpečím pro manipulaci veřejného mínění a vytváření falešných skandálů. Některé ze systémů už fungují opravdu výborně. Nezřídka se ale téhož používá v pornoprůmyslu, kdy se na tělo pornoherečky aplikuje obličej jiné slavné herečky. A právě s tímto souvisí i poslední problém, který se však týká běžných žen, ne vždy nutně těch slavných.
Na sociální síti Telegram totiž sídlí bot, kterému je možné zaslat snímek ženy či dívky, a on odpoví "svlečenou" verzí téhož snímku vytvořenou pomocí systému umělé inteligence. Toho mohou lidé zneužívat k nejrůznějším účelům, např. i k tzv. revenge porn (pomsta zveřejněním nahých snímků bývalého partnera či partnerky), kdy nemají k dispozici snímky, kterým by svou pomstu realizovali. Od června 2019 bylo tímto botem podle prvních informací vytvořeno okolo 105 tisíc snímků (zhruba 70 % z nich ze zemí bývalého Sovětského svazu), ale později se ukázalo, že by jich mohlo být až okolo 680 tisíc. Nešlo vždy jen o ženy, ale i o náctileté dívky.
Jako zdrojový snímek může posloužit v podstatě většina fotografiích zveřejněných samotnými obětmi na sociálních sítích. Prozatím mají štěstí v tom, že tato AI není až tak moc dobrá a výsledky nejsou natolik realistické, aby se jim dalo vždy uvěřit. Když to zkoušela BBC s dobrovolnicemi, dosáhly třeba toho, že AI umístila pupík až u bránice. I to však ukazuje, že zde existuje riziko zneužití AI k těmto účelům. Vývoj je rychlý a už velmi brzy mohou existovat a zneužívat se kvalitnější varianty.
Zdroj: techspot.com, bbc.com