keresés

2024. május 4., szombat

Az AI-generált képek árnyoldala: spammerek és csalók

Ahogy az utóbbi időben egyre jobb minőségű, valósághűbb képeket lett lehetséges létrehozni az AI segítségével, sajnos várható fordulatként következett be, hogy a közösségi oldalakon egyes felhasználók rossz célokra fordítják őket. A hatásvadász tartalmakkal szerzett nézettségnöveléstől kezdve a súlyos anyagi kárt okozó átverésekig szinte bármi lehetséges lett a generált képek által. A helyzet komolyságát már egy friss kutatás is alátámasztja, illetve több cég is felismerte problémát. A Meta bejelentése alapján közösségi oldalaikon hamarosan címkézésre kerülnek az AI képek, de mi magunk is leleplezhetjük a megtévesztő tartalmakat. 

Véget nem érő spamhullám a Facebookon

A közösségi oldalak közül leginkább a Facebook esett az abszurd, hatásvadász képeket generáló csalók áldozatául. Renee DiResta és Josh A. Goldstein kutatók márciusban publikált kutatásukban 120 Facebook oldalt vizsgáltak meg és megállapították, hogy a generált képek rengeteg reakciót és kommentet kapnak, ami felpörgeti az algoritmust, így még több emberhez jutnak el. Gyakoriak a kiszolgáltatott emberekről, úgy, mint idősekről, betegekről vagy kisgyerekekről generált képek, melyekhez többnyire együttérzést kiváltó rövid szövegeket is mellékelnek, pl. „engem senki nem vesz észre". Hasonlóan gyakran bukkannak fel a nem létező művészek, akik büszkén tárják a nagyközönség elé a nem létező munkáikat. Ezek a legkülönbözőbbek lehetnek, a festményektől kezdve a jégszobrokon át egészen a fából faragott domborművekig. A posztok azonos mintára készülnek, a legtöbb ilyen kép fölött a „saját kezűleg csináltam!" felirat szerepel, függetlenül attól, melyik spam-oldal hozta létre.

Különösen gyakoriak a vallásos motívumok is. A közelmúltban szép „karriert" futott be Jézus, ahogy vagy rákokkal pózol, vagy ő maga is rák, de sokszor látható katonák között vagy repülőgépeken és luxusyachtokon ülve is, ahol az utazóközönséggel együtt imádkozik. Az ezen posztokra érkező reakciók és a hozzászólások tanúsítják, hogy a felhasználók többnyire nincsenek tisztában azzal, hogy nem valódi fotót vagy művészeti alkotást látnak. A kiszolgáltatott emberek rengeteg sajnálkozó és együttérző kommentet, a művészek rengeteg gratulációt, a furcsa Jézusok pedig pedig rengeteg áment kapnak.
A probléma összefüggésben áll a Facebook oldalakat érő hackertámadásokkal is. Sok esetben fordul elő, hogy a spameket közreadó csalók nagy követőszámmal rendelkező oldalakat törnek fel, hogy azokon keresztül osszák meg tartalmaikat, melyekre így több reakció érkezik és a megosztások száma is nagyobb lesz. Például a „Thank Jesus For Everything" nevű spam-oldal eredetileg egy appalachiai zenészeket promotáló oldalként működött, melyet 2023 januárjában törtek fel.
A kutatók ugyanakkor azt is megfigyelték, hogy egyre több felhasználóban tudatosul, hogy generált tartalmat látnak és erről figyelmeztetik a többieket is. 

Akik szíveket és pénzt is rabolnak

Claudia
A tolakodó, ám jobbára ártalmatlan spam mellett sajnálatos módon gyakran használják valódi átverésekhez is az AI képeket. Például új szintre kerültek általuk a romantikus csalások, melyeket korábban létező emberek lopott képeivel követtek el. Ahogy egyre élethűbb portrékat képesek generálni az AI szoftverek, úgy válik egyre könnyebbé a csalók dolga is, akik sok esetben hatalmas pénzösszegeket tudnak legombolni áldozataikról a vonzó, de nem létező ember álarca mögé bújva. Egy 2023 novemberében készült riportban két amerikai férfi nyilatkozott, akiket fiatal nőkről létrehozott AI képekkel vertek át. Egyiküknél egy generált videót is bevetettek. Az első áldozatot befektetésre és kriptovaluta használatára vették rá, őt több, mint 60 000 dollárral (~ 21 millió forint) károsították meg. A másik férfi ajándékutalványokat küldött a csalóknak, körülbelül 2000 dollár (~ 720 000 Ft) értékben. Ugyanebben az évben történt, hogy Reddit-felhasználók tucatjai dőltek be Claudiának, akit két informatikus hallgató hozott létre viccből, a Stable Diffusion AI modell segítségével. A hallgatók elmondásuk szerint több, mint száz dollárt kerestek Claudia generált meztelen képeinek eladásaival. Azt is elmondták, hogy kísérletük egyben egy teszt is volt arra, hogy félre lehet-e vezetni az embereket az AI képekkel. A számok meglepték őket, nem számítottak arra, hogy ennyien ráharapnak majd a csalira.
Az anyagi károkon felül komoly érzelmi megrázkódtatást is okozhatnak az AI modellekkel létrehozott emberek, hiszen az áldozatoknak azzal is számolniuk kell, hogy vonzalmuk tárgya nem létezik. 

Túl szép ahhoz, hogy igaz legyen

macskavirág
Nem csupán a romantikus csalóknak nyújtanak segítséget a képgeneráló modellek. Idén februárban nagy felháborodást váltott ki egy Glasgow-ban megrendezett, Charlie és a csokigyár tematikájú gyerekprogram, ami finoman szólva nem tette valóssá a várt élményeket. Az eseményt látványos képekkel reklámozták és egy olyan „magával ragadó" világot ígértek a gyerekeknek és szüleiknek, ahol „a csokiálmok valósággá válnak". Mindezek helyett a résztvevők egy unalmas, szürke raktárhelyiségben találták magukat, sebtében összehordott kellékek között, bármilyen különleges program nélkül. A dühös szülők rendőrt is hívtak a helyszínre. Mint kiderült, a reklámfotók valójában AI segítségével létrehozott képek voltak egy olyan mesevilágról, amit a valóságban szinte lehetetlen kivitelezni.
Az idei év egy másik nagy AI képes csalása volt a macskafej-virágok esete. A képek több közösségi felületen is megjelentek, hamarosan pedig több online piactéren is árulták a „különleges növény" vetőmagjait. Arról még nincsenek információk, hogy pontosan mit kaptak azok becsapott internetezők, akik rendeltek belőle. 

Mit tesznek a cégek az átverések elkerülése érdekében?

A nagy cégek többynire már tisztában vannak az AI szoftverekkel létrehozott tartalmak veszélyeivel, például a Meta is, ahol idén év elején jelentették be, hogy felcímkézésre kerülnek a generált képek. A Meta AI segítségével létrehozott képek szűrésére már korábban is volt lehetőség, a most készülő technológia azonban már az Adobe, a Google, a Microsoft, a Midjourney, az OpenAI és a Shutterstock modelljeivel generált képeket is felismeri majd a metaadataik alapján. A fejlesztés várhatóan hamarosan életbe lép. Ugyanakkor egyesek szkeptikusan fogadták a hírt: Soheil Feizi professzor, a Marylandi Egyetem kutatója úgy vélekedik, a szűrő könnyen megkerülhető lesz, amennyiben a képeken előzőleg módosításokat végeztek, illetve sok esetben előfordulhatnak téves észlelések is.

Mi magunk mit tehetünk?

Ha biztosra akarunk menni a spammerekel és csalókkal szemben, a legjobb, ha magunk is megtanuljuk azonosítani a generált képeket. A mesterséges intelligencia egyelőre nem jár abban a szakaszban, hogy az általa létrehozott képeket lehetetlen legyen megkülönböztetni a valódiaktól. Ha alaposan szemügyre vesszük őket, felfedezhetjük a jeleket, melyek elárulják őket. Joe Davies, a FatJoe digitális marketingügynökség alapítója szerint az alábbiakra érdemes odafigyelni:
  • Testrészek: Embereket ábrázoló képek esetén figyeljük meg a kezeket – a nem megfelelő számú, túl hosszú vagy épp rövid, esetleg összeolvadó ujjak gyakoriak az AI képeken. Más kisebb testrészek, például a fülek, szemek és a lábujjak is természetellenesen nézhetnek ki. A rossz testarányok szintén jellegzetes AI hibák: a túl nagy kezek vagy a különböző hosszúságú lábak sem ritkák.
  • eltérő, ráadásul a hajjal is összeolvadó fülbevalók
    Furcsa részletek: Például fordítva kézbe vett tollak vagy tányér fölött lebegő kanalak. Az ékszerek szintén árulkodóak lehetnek, pl. nem illeszkedő, vagy a jobb és bal fülben eltérően kinéző fülbevalók vagy olyan gyűrűk, melyek nem érik körbe az ujjakat.
  • Kaotikus hátterek: Pl. összeolvadó házak. Tapéták, csempék mintáinak torzulása.
  • Szöveg: Az AI generált képeken látható szövegek gyakran csak az első pillanatban tűnnek helyesnek, közelebbről megnézve többnyire halandzsák.
  • Árnyékok: Sokszor rossz irányba mutathatnak. Jellemző az is, hogy az emberek arca erőteljesen megvilágított, még akkor is, amikor homályos környezetben vannak.
  • Textúra: A mesterséges intelligencia gyakran túl simának ábrázolja a bőrt, eltüntetve a valódi emberi bőr tökéletlenségeit. A haj túlságosan egységesnek tűnhet, sokszor inkább hasonlít egy tömör masszára, semmint szálak együttesére. A ruhák néha túl merevek, vagy abnormálisan fodrozódnak.

Forráscikkek és linkajánló: How Spammers and Scammers Leverage AI-Generated Images on Facebook for Audience Growth – arxiv.org, Renee DiResta, Josh A. Goldstein, 2024.03.19.

Facebook’s AI-Generated ‘Shrimp Jesus,’ Explained – Forbes, Dani Di Placido, 2024.04.28.




Nincsenek megjegyzések:

Megjegyzés küldése