Fotó: nyílt forrásból
A felhasználók már megtanulták, hogyan lehet eltávolítani a Sora vízjelet, így a mesterséges intelligencia egyre nehezebben ismeri fel azt
Forrás:
Az OpenAI új Sora videógenerátorának elindításával drámaian megnőtt az interneten a hamis videók száma, amelyeket nehéz megkülönböztetni a valódiaktól. A TikTok és a YouTube felhasználói azzal viccelődnek, hogy ma már szinte lehetetlen elhinni az interneten található videókat.
Jeremy Carasco, a Showtools.ai YouTube-csatorna szerzője elmagyarázta, mire kell figyelni a mesterséges intelligencia felismeréséhez. Szerinte a következetlenségekre kell figyelni, például a beszéddel nem egyező ajkakra, eltűnő tárgyakra és állítólagos megfigyelő kamerák felvételeire, amelyeket az AI különösen jól generál.
Az OpenAI Sora vízjeleket és rejtett metaadatokat adott hozzá, hogy a klipeket mesterséges intelligencia által generáltnak jelölje, de egy héten belül útmutatók jelentek meg az interneten ezek eltávolításához. Carasco azt tanácsolja, hogy keressünk elmosódott foltokat a videón, ahol a vízjel lehet.
Példaként Carasco egy olyan videót idézett, amelyen egy medve ugrál egy trambulinon egy ház udvarán. A modern mesterséges intelligencia-videók összes sablonja nyilvánvaló itt: éjszakai CCTV-felvétel, furcsa fizika, és egy medve, amely a képkockából a semmibe sétál. Ez a videó azonban csak a YouTube-on több mint 13 millió megtekintést szerzett.
Fontos megjegyezni, hogy a legtöbb AI-modell rövid, legfeljebb 10 másodperces klipeket készít. Karasko azonban hangsúlyozza, hogy az AI-videók minőségének növekedésével a felismerési módszerek egyre összetettebbé válnak, és már nem lehet majd kizárólag a szemünkre hagyatkozni.
Az oldal nem biztonságos! Minden adatod veszélyben van: jelszavakat, böngészési előzményeket, személyes fotókat, bankkártyákat és más személyes adatokat használnak fel a támadók.