Stačí jedna fotka ze Stories. Jak AI porno mění sex, souhlas a pocit bezpečí v online světě
Ještě před pár lety patřilo „porno s vaší tváří“ do stejné škatulky jako dystopie ze seriálu Black Mirror. Něco, co má vyděsit, ale zůstává to bezpečně na obrazovce. Dnes je to realita. Generativní umělá inteligence dokáže vyrobit explicitní snímky a videa prakticky z čehokoli – z fotky na Instagramu, z profilovky na LinkedInu, z momentky, kterou vám kamarád poslal do skupinového chatu.
A s tím se začíná drolit něco zásadního. Hranice mezi fantazií a zneužitím. Mezi erotikou a digitálním násilím. Mezi tím, co „je jen na internetu“, a tím, co má velmi reálné následky.
AI porno není jen další obsahová kategorie, ale technologický posun, který se dotýká vztahů, randění, práce i veřejného prostoru.
Co všechno dnes spadá pod „AI porno“
Pod jedním deštníkem se potkávají tři různé světy. Je dobré je rozlišovat, protože každý z nich přináší jiné problémy – a jiné oběti.
První rovinu tvoří syntetická erotika bez reálných lidí. Obrázky, videa nebo „AI modelky“ vytvořené kompletně od nuly. Debata se tu točí hlavně kolem stereotypů, návykového chování a toho, jak personalizovaná erotika mění očekávání od sexu a intimity. Právě tady se často objevuje argument o „neškodnosti“ – nejde přece o konkrétního člověka.
Druhá rovina je mnohem temnější. Deepfake porno, tedy falešné porno vytvořené pomocí umělé inteligence, které pracuje s tváří a často i hlasem reálného člověka. Výsledek je zasazený do explicitního obsahu tak, aby působil uvěřitelně. Motivace se liší – od ponížení a šikany přes vydírání až po „běžnou“ pornografickou spotřebu bez souhlasu. Dopad na oběť je ale podobný: ztráta kontroly nad vlastní identitou.
Třetí kategorií jsou takzvané „nudify“ nebo „undressing“ aplikace, tedy nástroje, které z obyčejné fotky vytvoří falešnou nahotu. Důležité je, že nejde o okrajové nástroje z temných koutů internetu. Investigativní texty dlouhodobě ukazují, že se tyto služby šíří přes reklamy, provizní systémy a někdy i skrze pohodlné přihlášení pomocí účtů velkých platforem. Právě to jim dává nebezpečně známý, skoro legitimní kabát – jako by šlo o běžnou aplikaci, ne o nástroj ke zneužití.
Ve všech třech případech se ale opakuje totéž. Čím dostupnější jsou nástroje, tím méně „specializovaného“ zla je potřeba. Už to není doména hackerů a technických outsiderů. Někdy stačí kdokoli s časem, frustrací a základní digitální gramotností.
Proč se to rozjelo právě teď
Deepfaky nejsou novinka. Generativní umělá inteligence ale udělala dvě klíčové věci zároveň: výrobu dramaticky zlevnila – časově i finančně – a distribuci zjednodušila. Sociální sítě, specializované weby, uzavřené online skupiny nebo šifrované chaty. Obsah se šíří rychleji než dřív a mizí pomaleji.
Už starší analýzy upozorňovaly, že většina deepfake videí online je pornografická a že drtivá většina z nich vzniká bez souhlasu, primárně na úkor žen. V posledních letech se k tomu přidala další vrstva. „Nudify“ služby přestaly být experimentem a začaly fungovat jako plnohodnotný produkt. A produkt se, jak ví každý, kdo někdy řešil marketing, snaží dostat k co nejširšímu publiku. I za cenu obcházení pravidel reklamních systémů.
Je tu ještě jeden detail, který zní banálně, ale v praxi je zásadní. AI porno je extrémně snadné kopírovat. Smazání jednoho odkazu často neznamená konec, ale začátek nekonečné hry na kočku a myš.
Souhlas 2.0: když už nejde jen o to, co se stalo
Klasické revenge porno, tedy zveřejnění skutečných intimních materiálů bez souhlasu, mělo svou děsivou logiku. U deepfake porna se tahle logika obrací. Intimní materiál neexistuje, ale vypadá, že existuje. „Důkaz“ se dá vyrobit dodatečně. Oběť se tak ocitá v absurdní pozici. S tím přichází nová forma zranitelnosti. Nejde jen o pověst, ale o pocit bezpečí ve vlastním těle. O vědomí, že vám někdo může ukrást identitu a vložit ji do situací, které jste si nevybrali.
Když AI porno narazí na práci, rodinu a randění
Z hlediska soukromí je nejděsivější to, jak snadno může AI porno prorůst do běžného života. A jak rychle se ze „soukromé věci“ stává společenská zbraň.
V éře seznamovacích aplikací je fotka základní měna. Zároveň je to ale i surovina. Čím víc člověk sdílí – selfies, příběhy, krátká videa – tím víc materiálu někdo jiný získává pro vytvoření digitálního dvojníka. A když se deepfake objeví, do vztahu vstupuje třetí hráč. Algoritmus. S ním i pochybnost, jestli se dá věřit tomu, co vidíte, a někdy i tomu, co vám tvrdí partner.
Pro některé profese může jediný deepfake znamenat roky vysvětlování. Učitelé, zdravotníci, lidé v médiích, veřejné tváře, ale i kdokoli v prostředí, kde funguje drbárna. Paradoxně platí, že čím „serióznější“ image máte, tím účinnější deepfake je. Právě proto, že šokuje a rozbíjí očekávání.
Tam, kde se sexualita pořád trestá studem, je deepfake porno ideální nástroj. Ne proto, že by něco dokazoval, ale protože spouští emoční lavinu. Pohledy, řeči, odstřižení. A oběť se často stává problémem místo toho, aby problémem byl útočník.
Vydírání a šikana
Falešná intimita je ideálním palivem pro vydírání. „Zaplať, nebo to pošlu rodině. Do práce. Do školy.“ V téhle hře není klíčové, jestli je materiál pravý. Klíčové je, že je uvěřitelný a že oběť se bojí sociálních následků.
Zvlášť bolestné je to ve školním prostředí, kde je tlak brutální a rychlost šíření nemilosrdná. Analýzy ze Stanfordu popisují konkrétní případy zneužití „nudify“ aplikací studenty a zároveň ukazují, jak nepřipravené na to školy i instituce často jsou.
U ochrany dětí je potřeba říct věc naplno. Nejde o okrajový problém. Internet Watch Foundation dlouhodobě upozorňuje na rychlý nárůst AI-generovaného materiálu se sexuálním zneužíváním dětí a na to, že tyto výstupy jsou čím dál realističtější. Například Spojené království na to reagovalo zpřísněním legislativy, která má postihovat nejen šíření, ale i samotné používání AI nástrojů k tvorbě takového obsahu.
Platformy, které „jen zprostředkovávají“
Jedna z nejnepříjemnějších pravd je, že AI porno často funguje na infrastruktuře, kterou bereme jako neutrální. Přihlašování přes Google nebo Apple. Reklamní systémy sociálních sítí. Hosting, platební brány, provizní sítě.
Investigativní novináři ukazují, že některé škodlivé „nudify“ weby využívaly běžné přihlášení přes velké platformy a že reakce firem přicházely až ve chvíli, kdy se věc dostala do médií.
Sama Meta opakovaně přiznala, že reklamy na nudify aplikace se po mazání vracejí. Zadavatelé jsou v obcházení pravidel rychlí a vynalézaví.
Pokud je AI porno byznys, pak jeho dodavatelský řetězec netvoří jen pornografický web. Je to celý ekosystém.
Když AI začne krást i z erotiky samotné
Možná největší ironie celé situace. Technologie, která se prodává jako „nová erotická kreativita“, často stojí na starém vykořisťování. Jen v modernější podobě.
Performeři a tvůrci z pornoprůmyslu upozorňují, že AI se používá k vytváření scén a hlasů bez jejich souhlasu. Souhlas přitom v pornu není morální bonus, ale základní pracovní podmínka. A AI ho dokáže obejít.
Vedle toho vzniká šedá zóna digitálních „dvojníků“. AI influencerky a modelky postavené na ukradených fotkách reálných lidí nebo na jejich vizuálním stylu. Bez svolení, bez podílu na zisku, bez možnosti obrany.
Téma digitálních kopií lidí se řeší i mimo porno – u herců, hlasů, kulturní produkce. V erotice je ale problém ostřejší, protože se dotýká intimity a společenského studu.
Zákony přitvrzují, technologie utíká
Ve Spojených státech byl v roce 2025 přijat zákon TAKE IT DOWN Act, který míří na nelegální šíření intimních materiálů bez souhlasu, včetně těch vytvořených pomocí umělé inteligence. Zákon ukládá platformám povinnost reagovat na nahlášení a obsah rychle odstraňovat.
Británie mezitím oznámila, že tvorba sexuálně explicitních deepfakeů má být samostatným trestným činem, a zároveň zpřísňuje ochranu dětí i dohled nad pornografickými weby.
Evropská unie jde jinou cestou. V rámci AI Actu zavádí povinnost označovat syntetický obsah jako uměle vytvořený. V současné době se řeší, jak budou tato pravidla fungovat v praxi a jak je dokážou prosazovat samotné platformy.
Zákony zatím nejlépe zvládají řešit šíření a mazání obsahu. Mnohem hůř se chytá samotná výroba a opakované nahrávání. A zároveň hrozí, že tlak na rychlé mazání povede k přehnanému blokování legitimního obsahu.
Český kontext: nejsme mimo mapu
Česko není izolovaný ostrov. Nástroje i platformy jsou globální a „český problém“ je často jen místní dopad globálního systému. Syntetická intimní zobrazení zapadají do širšího rámce zneužívání obrazového materiálu a kyberšikany, které státy řeší různými způsoby.
Česky řečeno: když se deepfake porno vyrábí přes web v angličtině, čeština oběť neochrání. Ochrání ji jen rychlá reakce platforem, jasné právní cesty a kultura, která přestane oběti trestat studem.
Co nás čeká dál
Jednou z cest je tichá normalizace. Vtipy, memy, ironické poznámky, mávnutí rukou. Pro okolí možná úleva, pro oběti druhý zásah – tentokrát společenský. Když se z násilí stane legrace, mizí empatie.
Dalším scénářem je proměna „důkazu“ ve zbraň. Deepfake porno se hodí všude tam, kde stačí zasít pochybnost. V rozchodech, na pracovišti, při stalkingu, v drobných i velkých pomstách. Ne proto, že by něco dokazovalo, ale protože vyvolává stud a chaos.
Třetí směr vede k technickým pojistkám. Tlak na ověřování pravosti poroste: označování syntetického obsahu, digitální podpisy, nástroje na rozpoznávání falešných videí. Směr je zřejmý, praxe bude ale bolestivá, pomalá a plná slepých míst.
A pak je tu realita, kterou známe z dějin technologií. Erotika jako akcelerátor. Od videa přes internet až po online platby. I dnes platí, že právě erotické produkty často ukazují, jak se nové technologie skutečně používají – rychleji a bez iluzí.
Jestli to všechno povede k další erozi souhlasu a pocitu bezpečí, už není otázka technologií. Je to rozhodnutí společnosti, která si musí ujasnit, kde končí zábava a začíná zneužití.