Ahogy az utóbbi időben egyre jobb minőségű, valósághűbb képeket lett lehetséges létrehozni az AI segítségével, sajnos várható fordulatként következett be, hogy a közösségi oldalakon egyes felhasználók rossz célokra fordítják őket. A hatásvadász tartalmakkal szerzett nézettségnöveléstől kezdve a súlyos anyagi kárt okozó átverésekig szinte bármi lehetséges lett a generált képek által. A helyzet komolyságát már egy friss kutatás is alátámasztja, illetve több cég is felismerte problémát. A Meta bejelentése alapján közösségi oldalaikon hamarosan címkézésre kerülnek az AI képek, de mi magunk is leleplezhetjük a megtévesztő tartalmakat.
Véget nem érő spamhullám a Facebookon
Különösen gyakoriak a vallásos motívumok is. A közelmúltban szép „karriert" futott be Jézus, ahogy vagy rákokkal pózol, vagy ő maga is rák, de sokszor látható katonák között vagy repülőgépeken és luxusyachtokon ülve is, ahol az utazóközönséggel együtt imádkozik. Az ezen posztokra érkező reakciók és a hozzászólások tanúsítják, hogy a felhasználók többnyire nincsenek tisztában azzal, hogy nem valódi fotót vagy művészeti alkotást látnak. A kiszolgáltatott emberek rengeteg sajnálkozó és együttérző kommentet, a művészek rengeteg gratulációt, a furcsa Jézusok pedig pedig rengeteg áment kapnak.
A probléma összefüggésben áll a Facebook oldalakat érő hackertámadásokkal is. Sok esetben fordul elő, hogy a spameket közreadó csalók nagy követőszámmal rendelkező oldalakat törnek fel, hogy azokon keresztül osszák meg tartalmaikat, melyekre így több reakció érkezik és a megosztások száma is nagyobb lesz. Például a „Thank Jesus For Everything" nevű spam-oldal eredetileg egy appalachiai zenészeket promotáló oldalként működött, melyet 2023 januárjában törtek fel.
A kutatók ugyanakkor azt is megfigyelték, hogy egyre több felhasználóban tudatosul, hogy generált tartalmat látnak és erről figyelmeztetik a többieket is.
A kutatók ugyanakkor azt is megfigyelték, hogy egyre több felhasználóban tudatosul, hogy generált tartalmat látnak és erről figyelmeztetik a többieket is.
Akik szíveket és pénzt is rabolnak
Claudia |
Az anyagi károkon felül komoly érzelmi megrázkódtatást is okozhatnak az AI modellekkel létrehozott emberek, hiszen az áldozatoknak azzal is számolniuk kell, hogy vonzalmuk tárgya nem létezik.
Túl szép ahhoz, hogy igaz legyen
macskavirág |
Az idei év egy másik nagy AI képes csalása volt a macskafej-virágok esete. A képek több közösségi felületen is megjelentek, hamarosan pedig több online piactéren is árulták a „különleges növény" vetőmagjait. Arról még nincsenek információk, hogy pontosan mit kaptak azok becsapott internetezők, akik rendeltek belőle.
Mit tesznek a cégek az átverések elkerülése érdekében?
A nagy cégek többynire már tisztában vannak az AI szoftverekkel létrehozott tartalmak veszélyeivel, például a Meta is, ahol idén év elején jelentették be, hogy felcímkézésre kerülnek a generált képek. A Meta AI segítségével létrehozott képek szűrésére már korábban is volt lehetőség, a most készülő technológia azonban már az Adobe, a Google, a Microsoft, a Midjourney, az OpenAI és a Shutterstock modelljeivel generált képeket is felismeri majd a metaadataik alapján. A fejlesztés várhatóan hamarosan életbe lép. Ugyanakkor egyesek szkeptikusan fogadták a hírt: Soheil Feizi professzor, a Marylandi Egyetem kutatója úgy vélekedik, a szűrő könnyen megkerülhető lesz, amennyiben a képeken előzőleg módosításokat végeztek, illetve sok esetben előfordulhatnak téves észlelések is.
Mi magunk mit tehetünk?
Ha biztosra akarunk menni a spammerekel és csalókkal szemben, a legjobb, ha magunk is megtanuljuk azonosítani a generált képeket. A mesterséges intelligencia egyelőre nem jár abban a szakaszban, hogy az általa létrehozott képeket lehetetlen legyen megkülönböztetni a valódiaktól. Ha alaposan szemügyre vesszük őket, felfedezhetjük a jeleket, melyek elárulják őket. Joe Davies, a FatJoe digitális marketingügynökség alapítója szerint az alábbiakra érdemes odafigyelni:
- Testrészek: Embereket ábrázoló képek esetén figyeljük meg a kezeket – a nem megfelelő számú, túl hosszú vagy épp rövid, esetleg összeolvadó ujjak gyakoriak az AI képeken. Más kisebb testrészek, például a fülek, szemek és a lábujjak is természetellenesen nézhetnek ki. A rossz testarányok szintén jellegzetes AI hibák: a túl nagy kezek vagy a különböző hosszúságú lábak sem ritkák.
Furcsa részletek: Például fordítva kézbe vett tollak vagy tányér fölött lebegő kanalak. Az ékszerek szintén árulkodóak lehetnek, pl. nem illeszkedő, vagy a jobb és bal fülben eltérően kinéző fülbevalók vagy olyan gyűrűk, melyek nem érik körbe az ujjakat.eltérő, ráadásul a hajjal is összeolvadó fülbevalók - Kaotikus hátterek: Pl. összeolvadó házak. Tapéták, csempék mintáinak torzulása.
- Szöveg: Az AI generált képeken látható szövegek gyakran csak az első pillanatban tűnnek helyesnek, közelebbről megnézve többnyire halandzsák.
- Árnyékok: Sokszor rossz irányba mutathatnak. Jellemző az is, hogy az emberek arca erőteljesen megvilágított, még akkor is, amikor homályos környezetben vannak.
- Textúra: A mesterséges intelligencia gyakran túl simának ábrázolja a bőrt, eltüntetve a valódi emberi bőr tökéletlenségeit. A haj túlságosan egységesnek tűnhet, sokszor inkább hasonlít egy tömör masszára, semmint szálak együttesére. A ruhák néha túl merevek, vagy abnormálisan fodrozódnak.
Forráscikkek és linkajánló: How Spammers and Scammers Leverage AI-Generated Images on Facebook for Audience Growth – arxiv.org, Renee DiResta, Josh A. Goldstein, 2024.03.19.
Facebook’s AI-Generated ‘Shrimp Jesus,’ Explained – Forbes, Dani Di Placido, 2024.04.28.
AI generated women steal thousands from men looking for love in dating app and social media scams – ABC13, Jason Knowles, 2023.11.17.
I fell for a girl online but it turns out she was just AI – I feel cheated – The Sun, Millie Turner, 2023.04.12.
How to spot an AI scam and warning signs after Willy Wonka event 'disaster' – Daily Record, Nicola Roy, 2024.02.28.
Why it's getting harder to tell AI-generated images from the real deal online – ABC News, Nate Woodall, 2024.04.26.
Nincsenek megjegyzések:
Megjegyzés küldése