Umělá inteligence lidi nesvléká, vyvrací mýty Maněna s Matějíčkem

Listopad 27, 2023

Umělá inteligence (AI) a podvržený materiál jsou v prostoru sociálních sítí delší dobu, se zdokonalením nástrojů AI ale přichází nové nástroje a starosti. Jedním z negativních trendů je i aplikace, která má lidi svlékat do spodního prádla či úplně. Experti z IT oblasti, Václav Maněna s Pavlem Matějíčkem, ve svém podcastu KYBcast rodiče i učitele uklidňují o opaku. Míní, že jde o podvrh na základě porna.

Zimní období, kdy lidé tráví více času doma, je jako dělané pro všelijaké podvodníky. Jenže od dob, kdy prodávali předražené nekvalitní věci u domovních dveří či přes telefon, urazili kus cesty a oklamávají své oběti jinak. Digitálně, a aniž by o tom věděly. A tak zatímco konzumenti obsahu na sociálních sítí přijímají nové podněty, může mezi nimi být i video někoho slavného, jak vás láká na výhodné investice.

Své o tom ví i oba odborníci, kteří třeba zaznamenali reklamy a videa prezidenta Petra Pavla, který láká lidi do investování. „Teď mi Petr Pavel nabízel investice asi za 7600 korun měsíčně s několikaprocentním zhodnocením.Jasně, nebylo to přímo asi video, ale většinou to jsou falešné reklamy a pohybujeme se na hranici hoaxu,“ usmívá se Pavel Matějíček a vzpomíná na případ mladého youtubera, který o umělé inteligenci nic nevěděl a přes víkend se od ní naučil tolik, že také dokázal podobným způsobem prezidenta napodobit.

Matějíčkova kolegu Václava Maněnu trápí, že je velmi jednoduché deepfake – neboli falešné podobizny konkrétních lidí – vytvořit, rozpoznat tyto metody je ale mnohdy problém. „Pokud zapojíme umělou inteligenci, je detekce v mnoha případech nereálná a prakticky nemožná. Vznikají na to programy, ale ani těm se nedaří vždy rozeznat pravdu od lži,“ přiznává.

Lidé by se proto měli připravit na nadcházející období, kdy se může vyrojit celá řada těchto podvodů. Případně mohou na internetu najít své známé na fotkách a videích v nelichotivých situacích. Anebo můžete spatřit nahou fotku nebo video svého dítěte či někoho, koho dobře znáte. Jenže místo pohoršení byste měli zbystřit, dotyčný se totiž dost pravděpodobně stal obětí umělé inteligence. „Učitelé se nás na tyto aplikace nyní hodně ptají. Musím říct, že je to dost způsobeno i články v médiích, které se tomu věnují,“ netají učitel a IT expert Maněna.

A Matějíček vysvětluje: „Ta aplikace tě přímo nesvlékne. Podívá se na kontury tvého těla a na základě typu kůže, barvy očí a podobně dopočítá, jak by takový člověk vypadal nahý,“ popisuje, na jakém základě tyto programy fungují. „Neznamená to, že to musí sedět. Ale musím říct, že výsledky jsou často dost přesné a může být problém rozlišit, jestli je to fake, nebo pravá fotka.“ Podle Matějíčka se umělá inteligence učila z různých odhalených fotek modelů či z porna. Právě díky tomu má rozšířenou databázi lidského těla.

Podle Maněny za těmito návrhy přes aplikace stojí často spolužáci, kteří to berou jako druh zábavy či žert. „Nedochází jim, jak moc můžou někomu ublížit nebo jaké to může mít dopady.“

Kde ověřit, jestli jde o deepfakes či jaké další zkušenosti s ním oba autoři mají, zjistíte na YouTube Národního pedagogického institutu či ve všech podcastových aplikacích ve 23. díle s názvem Nenaleťte na deepfakes a dezinformace vytvořené pomocí AI..

Připravil: Tomáš Matoušek

Přehrajte si celý 23. díl KYBcastu