A deepfake hamis világa
A deepfake a gépi tanulás egy speciális fajtájával, az úgynevezett „mély
tanulással” előállított képeket, videókat, vagy akár hanganyagokat jelenti. A
mély tanulás hasonló minden más gépi tanuláshoz, ahol az algoritmust példákkal
táplálják, hogy a gép ezek alapján hozzon létre valamit. Mi is hasonlóan
tanulunk; egy kisbaba mindenfélét a szájába tesz, így gyorsan megtanulja, hogy
mi ehető és mi nem. A házban lévő tárgyak hasonlatosak az interneten található
valós képekhez, a csecsemő képessége pedig, hogy egy idő után ránézésre
felismerje valamiről, hogy ehető e vagy sem, anélkül, hogy a szájába tegye,
hasonló az algoritmus azon képességéhez, hogy a meglévő adatok tanulmányozása
után hamis képeket hozzon létre, amik hasonlítanak a valódi képekre.
Ehhez még hozzájön, hogy komplex deepfake-k létrehozásához
valójában két algoritmust használnak. Az egyik arra van betanítva, hogy valódi
képekről létrehozza a lehető legjobb másolatot, míg a másik feladata, hogy
észlelje, ha egy kép hamis. Ezt a folyamatot oda-vissza ismételgetik, mindkettő
egyre jobban végezve munkáját. Ezzel a módszerrel egy olyan modellt kapnak, ami
rendkívül ügyesen tud hamis képeket, videókat gyártani.
Deepfake anyagokkal nagyrészt különféle közösségi média felületeken, illetve youtube-on, tiktok-on találkozhattunk, de alkalmazták már a technológiát a filmiparban is. A The Mandalorian sorozatban például megjelent a fiatal Luke Skywalker, akit a 70 éves Mark Hamill már nem tudott volna eljátszani. Az Anthony Bourdain, elhunyt sztárséfről szóló Roadrunner c. dokumentfilmben mesterséges intelligencia segítségével olyan mondatok hangzottak el Bourdain hangjával, amiket ugyan leírt, de sosem mondott ki. Az internetre feltöltött anyagok egy része természetesen poénkodás céljával készült, a legtöbb videóról, illetve hanganyagról könnyen meg lehet mondani, hogy nem valós. Azonban, ahogy előbb is említettem, az MI tanul (meg persze az emberek is, akik dolgoznak vele). Egyre jobb és jobb deepfake-k készülnek, és lesznek felkapottak az interneten. De nemcsak az anyagok minősége nő, hanem a mennyisége is, hiszen egyre könnyebb elkészíteni őket köszönhetően a sok online megjelent szolgáltatásnak, amiket a laikusok is könnyen használhatnak. 2022-ben például az ElevenLabs vállalat bemutatott egy szolgáltatást, amivel hatásosan le lehet klónozni bárki hangját. Csupán 5 dollárra és 45 másodperc hanganyaghoz van szükséged arra, hogy lemásold valaki hangját. Nem meglepő, hogy a mesterséges intelligenciával készült visszaélések mennyisége is megnőtt.
A Sensity AI 2020. decemberi jelentésében arról számolt be, hogy több mint 85.000 káros deepfake videót észleltek úgy, hogy a mérések kezdete óta, vagyis 2018 decembere óta, a mért szám félévente megkétszereződik. Ráadásul a jelentés csak közszereplőkről készített videókról számol be, magánszemélyekről nem, pedig rengeteg őket érintő eset van. Ez főként egyszerűvé vált annak köszönhetően, hogy a Tiktok, a Youtube vagy az Instagram végtelen anyagot szolgáltat deepfake-k elkészítéséhez.
Csalók profitálnak
Az arizonai Jennifer DeStefano ijesztő csalásnak lett
majdnem áldozata. Ugyan nem szenvedett anyagi károkat, de az eset igen traumatizáló
lehetett. Egy ismeretlen szám hívta, amit azért vett fel, mert idősebbik lánya
egy sítúrán vett részt, gondolta lehet onnan hívják. A hívásban ijedt és síró lánya
szólalt meg, aki segítségért könyörgött anyjának, mert férfiak tartják fogva.
Ezután egy férfi követelt pénzt a nőtől, megfenyegetve, hogy a lányt
túladagolják drogokkal, ha nem küldi. Szerencsére DeStefano nem volt egyedül,
miközben a férfival egyezkedett barátnői kapcsolatba tudtak lépni a lánnyal,
aki az apjával volt. Ha nem így lett volna 50 ezer dollárt csikarhattak volna
ki tőle. DeStefano nyilvánosság előtt beszélt a vele megtörténtekről, ennek
hatására többen jelentkeztek, akiket ugyanígy akartak átverni, illetve olyanok
is, akiket sajnos sikerült is átverni.
Életek tönkretétele
Még a deepfake technológiát megelőzte a face swap. Ennek
lényege, hogy valaki arcát egy másik ember fejére illesztik be, ami a
mesterséges intelligencia bevonásával ma már nagyon meggyőző eredményeket képes
hozni. Hatalmas problémát jelent, amikor ezt a technológiát pornográf videók
létrehozására használják. Például Kristen Bell és Scarlett Johansson színésznővel
több ilyen videót is készítettek. Az egyik ilyen hamis videó, ami „kiszivárgott”
felvételként volt feltüntetve, több mint 1.5 millió megtekintést kapott. Viszont
nem csak híres emberek vannak veszélyben. 2024 augusztusában egy dél-koreai
egyetemi diák kapott üzenetet Telegramon. Két kép szerepelt benne, az egyik pár
napos volt, valaki lefotózta őt. A másik pedig egy deepfake technológiával
elkészített pornográf kép volt. Az üzenetben megfenyegették a lányt, hogy ki
fogják szivárogtatni a képet. Ez viszont nem egyedüli eset. Nem sokkal ezelőtt
derült ki, hogy a rendőrség az ország két neves egyetemén működő deepfake
pornógyártó csoportok után nyomoz. Ko Narin újságírónő meg volt győződve arról,
hogy még több ilyen csoport létezik, így elkezdett utána járni. Több tucatnyi
csoportbeszélgetést leplezett le a Telegramon, amikben a tagok olyan nők képeit
osztották meg egymással, akiket ismertek, és egy MI szoftvert használva percek
alatt készítettek róluk pornográf képeket. Felfedezte, hogy ezek a csoportok
nem csak egyetemistákat vettek célba, hanem voltak chatszobák, amik egy-egy
gimnáziumnak, vagy akár általános iskolai felső tagozatos iskoláknak
szenteltek. Ha egy diáklányról sok kép készült még különálló chatszobát is
létrehoztak neki. A legrosszabb, amit Ko felfedezett, egy specifikus iskola
kiskorú diákjairól készült képeknek létrehozott csoport volt, amiben több mint
2000 tag volt. Több mint 500 iskola és egyetem volt érintett, az áldozatok
többsége 16 éven aluli lehet.
Sajnos a beleegyezés nélküli pornográfia tölti ki a deepfake
tartalmak nagy részét. A Sensity AI 2020-ban megállapította, hogy a deepfake
videók körülbelül 90-95%-a 2018 óta főként ilyen anyagot tartalmaz. Sajnos úgy
tűnik, 2020 óta nem javult a helyzet.
Mesterséges szocializálódás
Az MI chatbotok használata különösen népszerű most. Beszélgethetsz velük, ha unatkozol, kérdezhetsz tőlük, ha valamire nem tudod a választ, megírathatod velük a házifeladatod. Sokan kritizálják is emiatt, hiszen plágiumnak minősíthető a chatbot által írt dolgozat, illetve a diákok fejlődését is visszatartja, ha ilyen eszközökkel élnek az önálló munka helyett. Azonban nem csak az emberekre való hatásától kellene tartanunk. A természetre nézve kifejezetten károsak az ilyen alkalmazások. A gépi tanulási modellek betanításához hatalmas mennyiségű adatra van szükség, ami pedig nagy számítógépes teljesítményt igényel. A Massachusetts Egyetem tanulmánya szerint egyetlen MI modell betanítása annyi szén-dioxidot bocsáthat ki, mint 5 autó teljes élettartama során. Minél komplexebb a modell, annál több energiát vesz igénybe a betanítás. A chatbotokat általában felhőszervereken tárolt adatokkal tanítják be, amelyekhez hatalmas adatközpontokra van szükség. Sokszor vízrendszereket használnak az ilyen központok berendezéseinek hűtésére és működésének fenntartására. A Washington Post tanulmánya szerint egy GPT-4-t használó chatbot által generált 100 szavas email kb fél liter víznek felel meg. Megszorozva a felhasználók számával világszerte, ez hatalmas nyomást jelent egy amúgy is szűkös erőforrásra.
Mi lesz most?
Mivel a mesterséges intelligencia egy nagyon szerteágazó,
sok mindenre alkalmazható technológia, a vele járó problémák is hasonlóan
változatosak. Különösen nehéz, hogy nagyon gyorsan és folyamatosan változó
dologról van szó. Sajnos az igazságszolgáltatás, a jogalkotás egyelőre nem
képes tartani az ütemet ezzel a rohamos fejlődéssel. A világ különböző részei
másképp kezelik az ügyet, ami megint problémákat vethet fel, hiszen az internet
egy határokon átívelő hálózat, bárki bárhonnan okozhat kárt a másiknak rajta,
ezekkel a technológiákkal pedig a lehetséges kár nagysága is megnőtt.
Ahogy látszik, egyelőre nem attól kell félni, hogy a
mesterséges intelligencia átveszi a hatalmat az emberiség felett, hanem attól,
hogy az emberek miként alkalmazzák. Viszont nem szabad elbújni az ilyen problémák
elől, azt gondolni, hogy ilyen nem történhet meg velünk. Minél inkább beszélünk
erről, foglalkozunk vele, annál jobban fognak azok is, akik tehetnek is ellene
valamit.
Források:
- Mit jelent a mesterséges intelligencia?
- What the heck is a deepfake?
- The ultimate guide to AI deepfakes
- Star Wars fans love CGI Luke Skywalker, but deepfake implications are dangerous
- Artificial imposters - Cybercriminals turn to AI voice cloning for a new breed of scam
- Terrifying AI scam that uses your loved one's voice
- 8 Helpful everyday examples of artifical intelligence
- Everyday examples and applications of artificial intelligence (AI)
- Inside the deepfake porn crisis engulfing Korean schools
- A bottle of water per email: the hidden environmental costs of using AI chatbots
- Increasing threat of deepfake identities
Nincsenek megjegyzések:
Megjegyzés küldése