Nenaleťte na deepfakes a dezinformace vytvořené pomocí AI | S2:E23


Episode Artwork
1.0x
0% played 00:00 00:00
Nov 19 2023 26 mins   10

Vítejte u 23. dílu KYBcastu, který je určený nejenom učitelům a dalším pracovníkům ve vzdělávání, ale i rodičům. Podvodná videa, fotografie a zvukové nahrávky jsou s námi už dlouho. S umělou inteligencí (AI) přichází nová éra realisticky upravených fotografií, videí a dalších materiálů, u kterých je prakticky nemožné na první pohled zjistit, že se jedná o podvod. Často nám s tím nepomohou ani specializované nástroje. Těmto materiálům se říká deepfakes a do budoucna se s nimi nejspíš budeme setkávat čím dál víc. Dnes se zaměříme na to, co s tím můžeme dělat.


Naše podcasty najdete také na YouTube: Podcasty NPI ČR

---


Co jsou deepfakes
Obecně můžeme za deepfakes označit realisticky upravené fotografie, videa nebo zvukové záznamy, které se tváří jako skutečné, že je téměř nemožné to poznat. Více informací a praktické ukázky najdete v článku Jsou deepfakes nebezpečím nebo nevinnou zábavou?


Příklady deepfakes

Nahé fotky generované AI: ‚Na té fotce mi je 14.‘ Mladé ženy čelí falešným nahým fotografiím, české zákony ale ‚deepfakes‘ neřeší

Deepfakes se nejspíše budou více objevovat i v podvodných reklamách. To je velice nebezpečné, protože lidé často naletí i na daleko jednodušší podvodné reklamy, které mnohdy pouze zneužívají fotografii známé osobnosti. Příklad takového podvodu si můžete přečíst v článku Chtěl vydělat rychle peníze. Zaručil se za to Leoš Mareš. Bohužel to byl podvod.

Deepfake video od Martina Spana.

Zejména rodičům je určené video Zpráva od Elly, které ukazuje ohromné možnosti umělé inteligence.

Další příklady najdete na stránce Fake news v době AI od Jindřicha Zdráhala.

Deepfake od YouTubera: (27) JAK POZNAT DEEPFAKE?! - YouTube


Rozpoznávání deepfakes
Poznat deepfakes je často velice složité nebo nemožné. Na fotografiích lidí se můžete zaměřit na detaily, o kterých mluvíme v podcastu. Zkuste si třeba vygenerovat obličej na thispersondoesnotexist.com, zaměřte se na detaily a sami si ověřte, jestli byste dokázali poznat, že jde o výtvor umělé inteligence. Můžete si také vyzkoušet kvízy na nástěnce Bezpečnost dětí na netu, kde najdete i spoustu dalších užitečných materiálů.

Weby, které mohou pomoci při ověřování informací a odhalování deepfakes
Centrum proti hybridním hrozbám
Manipulátoři.cz
Ověřovna!

Budoucnost a závěr
Bohužel to nyní vypadá, že se při ověřování videí, fotografií nebo třeba zvukových nahrávek nemůžeme příliš spoléhat na nástroje k automatizované detekci podvodných a upravených materiálů. Nástroje umělé inteligence se velice rychle zdokonalují a detekční mechanismy k odhalení materiálů vytvořených nebo upravených pomocí AI jsou spíše pozadu a často označují za podvod i originální a neupravený obsah. S masovým rozšiřováním umělé inteligence tak bohužel ještě roste význam "tradičních" metod ověřování informací, při kterých si můžeme pouze vypomoci různými nástroji typu deepware.ai. Hlavní práce ale zůstává na nás.

Jedno je jisté: při ověřování bychom se měli zdržet rychlých soudů a zbrklého přejímání informací, jak nám ukazuje příklad "zfalšované" složenky, o kterém píše D. Dočekal.


---

Použitá hudba
Skladba Puppy Love (Sting) interpreta Twin Musicom podléhá licenci Creative Commons 4.0 BY (uveďte zdroj).
School Yard interpreta Crowander podléhá licenci Creative Commons BY-NC 4.0 (uveďte zdroj, neužívejte komerčně).