keresés

2024. november 12., kedd

Mesterséges intelligencia rossz kezekben

A mesterséges intelligencia egy számítógépes rendszer azon képessége,
hogy az emberi kognitív képességeket (mint például tanulás, problémamegoldás) tudja utánozni. A sci-fi művek közkedvelt eleme, de már az antikvitásban megtalálható a koncepció. Például az MI elődjének tekintik Ovidius Átváltozások c. művében Pügmalión történetét, aki beleszeret az általa készített elefántcsont szoborba, amit később Aphrodité életre is kelt neki. Kevésbé pozitív történet már Samuel Butler Erewhon c. 1872-ben megjelent műve, amiben elsőként szerepel az az elképzelés, hogy a gépek öntudatra ébredhetnek. Az alkotások nagy része negatív képet fest a mesterséges intelligenciáról. Ennek ellenére ma már mindennapjaink részévé vált, de nem hiába, jelentősen megkönnyíti az életünket. A legtöbb ember keresett már Google Maps-en, hogy megtudja hogyan jut el A-ból B-be. Lássuk be, egyszerűbb, mint elővenni egy papíralapú térképet, ami nem rendelkezik minden tömegközlekedési eszköz információjával. Vagy jelentősen könnyebb a munka egy online szótárral, nyelvfordító alkalmazással, mint könyvbéli társaikkal. A technológiát rengetegféleképpen fel lehet használni. Mindennapi életben, szórakozásban, munkában, orvoslásban, mind segítségünkre van. Mégis egyre többet hallani negatív hatásairól, vagy inkább nem megfelelő módon való alkalmazásáról.

A deepfake hamis világa

A deepfake a gépi tanulás egy speciális fajtájával, az úgynevezett „mély tanulással” előállított képeket, videókat, vagy akár hanganyagokat jelenti. A mély tanulás hasonló minden más gépi tanuláshoz, ahol az algoritmust példákkal táplálják, hogy a gép ezek alapján hozzon létre valamit. Mi is hasonlóan tanulunk; egy kisbaba mindenfélét a szájába tesz, így gyorsan megtanulja, hogy mi ehető és mi nem. A házban lévő tárgyak hasonlatosak az interneten található valós képekhez, a csecsemő képessége pedig, hogy egy idő után ránézésre felismerje valamiről, hogy ehető e vagy sem, anélkül, hogy a szájába tegye, hasonló az algoritmus azon képességéhez, hogy a meglévő adatok tanulmányozása után hamis képeket hozzon létre, amik hasonlítanak a valódi képekre.

Ehhez még hozzájön, hogy komplex deepfake-k létrehozásához valójában két algoritmust használnak. Az egyik arra van betanítva, hogy valódi képekről létrehozza a lehető legjobb másolatot, míg a másik feladata, hogy észlelje, ha egy kép hamis. Ezt a folyamatot oda-vissza ismételgetik, mindkettő egyre jobban végezve munkáját. Ezzel a módszerrel egy olyan modellt kapnak, ami rendkívül ügyesen tud hamis képeket, videókat gyártani.

Deepfake anyagokkal nagyrészt különféle közösségi média felületeken, illetve youtube-on, tiktok-on találkozhattunk, de alkalmazták már a technológiát a filmiparban is. A The Mandalorian sorozatban például megjelent a fiatal Luke Skywalker, akit a 70 éves Mark Hamill már nem tudott volna eljátszani. Az Anthony Bourdain, elhunyt sztárséfről szóló Roadrunner c. dokumentfilmben mesterséges intelligencia segítségével olyan mondatok hangzottak el Bourdain hangjával, amiket ugyan leírt, de sosem mondott ki. Az internetre feltöltött anyagok egy része természetesen poénkodás céljával készült, a legtöbb videóról, illetve hanganyagról könnyen meg lehet mondani, hogy nem valós. Azonban, ahogy előbb is említettem, az MI tanul (meg persze az emberek is, akik dolgoznak vele). Egyre jobb és jobb deepfake-k készülnek, és lesznek felkapottak az interneten. De nemcsak az anyagok minősége nő, hanem a mennyisége is, hiszen egyre könnyebb elkészíteni őket köszönhetően a sok online megjelent szolgáltatásnak, amiket a laikusok is könnyen használhatnak. 2022-ben például az ElevenLabs vállalat bemutatott egy szolgáltatást, amivel hatásosan le lehet klónozni bárki hangját. Csupán 5 dollárra és 45 másodperc hanganyaghoz van szükséged arra, hogy lemásold valaki hangját. Nem meglepő, hogy a mesterséges intelligenciával készült visszaélések mennyisége is megnőtt.

A Sensity AI 2020. decemberi jelentésében arról számolt be, hogy több mint 85.000 káros deepfake videót észleltek úgy, hogy a mérések kezdete óta, vagyis 2018 decembere óta, a mért szám félévente megkétszereződik. Ráadásul a jelentés csak közszereplőkről készített videókról számol be, magánszemélyekről nem, pedig rengeteg őket érintő eset van. Ez főként egyszerűvé vált annak köszönhetően, hogy a Tiktok, a Youtube vagy az Instagram végtelen anyagot szolgáltat deepfake-k elkészítéséhez.

Csalók profitálnak

Az arizonai Jennifer DeStefano ijesztő csalásnak lett majdnem áldozata. Ugyan nem szenvedett anyagi károkat, de az eset igen traumatizáló lehetett. Egy ismeretlen szám hívta, amit azért vett fel, mert idősebbik lánya egy sítúrán vett részt, gondolta lehet onnan hívják. A hívásban ijedt és síró lánya szólalt meg, aki segítségért könyörgött anyjának, mert férfiak tartják fogva. Ezután egy férfi követelt pénzt a nőtől, megfenyegetve, hogy a lányt túladagolják drogokkal, ha nem küldi. Szerencsére DeStefano nem volt egyedül, miközben a férfival egyezkedett barátnői kapcsolatba tudtak lépni a lánnyal, aki az apjával volt. Ha nem így lett volna 50 ezer dollárt csikarhattak volna ki tőle. DeStefano nyilvánosság előtt beszélt a vele megtörténtekről, ennek hatására többen jelentkeztek, akiket ugyanígy akartak átverni, illetve olyanok is, akiket sajnos sikerült is átverni.

Életek tönkretétele

Még a deepfake technológiát megelőzte a face swap. Ennek lényege, hogy valaki arcát egy másik ember fejére illesztik be, ami a mesterséges intelligencia bevonásával ma már nagyon meggyőző eredményeket képes hozni. Hatalmas problémát jelent, amikor ezt a technológiát pornográf videók létrehozására használják. Például Kristen Bell és Scarlett Johansson színésznővel több ilyen videót is készítettek. Az egyik ilyen hamis videó, ami „kiszivárgott” felvételként volt feltüntetve, több mint 1.5 millió megtekintést kapott. Viszont nem csak híres emberek vannak veszélyben. 2024 augusztusában egy dél-koreai egyetemi diák kapott üzenetet Telegramon. Két kép szerepelt benne, az egyik pár napos volt, valaki lefotózta őt. A másik pedig egy deepfake technológiával elkészített pornográf kép volt. Az üzenetben megfenyegették a lányt, hogy ki fogják szivárogtatni a képet. Ez viszont nem egyedüli eset. Nem sokkal ezelőtt derült ki, hogy a rendőrség az ország két neves egyetemén működő deepfake pornógyártó csoportok után nyomoz. Ko Narin újságírónő meg volt győződve arról, hogy még több ilyen csoport létezik, így elkezdett utána járni. Több tucatnyi csoportbeszélgetést leplezett le a Telegramon, amikben a tagok olyan nők képeit osztották meg egymással, akiket ismertek, és egy MI szoftvert használva percek alatt készítettek róluk pornográf képeket. Felfedezte, hogy ezek a csoportok nem csak egyetemistákat vettek célba, hanem voltak chatszobák, amik egy-egy gimnáziumnak, vagy akár általános iskolai felső tagozatos iskoláknak szenteltek. Ha egy diáklányról sok kép készült még különálló chatszobát is létrehoztak neki. A legrosszabb, amit Ko felfedezett, egy specifikus iskola kiskorú diákjairól készült képeknek létrehozott csoport volt, amiben több mint 2000 tag volt. Több mint 500 iskola és egyetem volt érintett, az áldozatok többsége 16 éven aluli lehet.

Sajnos a beleegyezés nélküli pornográfia tölti ki a deepfake tartalmak nagy részét. A Sensity AI 2020-ban megállapította, hogy a deepfake videók körülbelül 90-95%-a 2018 óta főként ilyen anyagot tartalmaz. Sajnos úgy tűnik, 2020 óta nem javult a helyzet.

Mesterséges szocializálódás

Az MI chatbotok használata különösen népszerű most. Beszélgethetsz velük, ha unatkozol, kérdezhetsz tőlük, ha valamire nem tudod a választ, megírathatod velük a házifeladatod. Sokan kritizálják is emiatt, hiszen plágiumnak minősíthető a chatbot által írt dolgozat, illetve a diákok fejlődését is visszatartja, ha ilyen eszközökkel élnek az önálló munka helyett. Azonban nem csak az emberekre való hatásától kellene tartanunk. A természetre nézve kifejezetten károsak az ilyen alkalmazások. A gépi tanulási modellek betanításához hatalmas mennyiségű adatra van szükség, ami pedig nagy számítógépes teljesítményt igényel. A Massachusetts Egyetem tanulmánya szerint egyetlen MI modell betanítása annyi szén-dioxidot bocsáthat ki, mint 5 autó teljes élettartama során. Minél komplexebb a modell, annál több energiát vesz igénybe a betanítás. A chatbotokat általában felhőszervereken tárolt adatokkal tanítják be, amelyekhez hatalmas adatközpontokra van szükség. Sokszor vízrendszereket használnak az ilyen központok berendezéseinek hűtésére és működésének fenntartására. A Washington Post tanulmánya szerint egy GPT-4-t használó chatbot által generált 100 szavas email kb fél liter víznek felel meg. Megszorozva a felhasználók számával világszerte, ez hatalmas nyomást jelent egy amúgy is szűkös erőforrásra.

Mi lesz most?

Mivel a mesterséges intelligencia egy nagyon szerteágazó, sok mindenre alkalmazható technológia, a vele járó problémák is hasonlóan változatosak. Különösen nehéz, hogy nagyon gyorsan és folyamatosan változó dologról van szó. Sajnos az igazságszolgáltatás, a jogalkotás egyelőre nem képes tartani az ütemet ezzel a rohamos fejlődéssel. A világ különböző részei másképp kezelik az ügyet, ami megint problémákat vethet fel, hiszen az internet egy határokon átívelő hálózat, bárki bárhonnan okozhat kárt a másiknak rajta, ezekkel a technológiákkal pedig a lehetséges kár nagysága is megnőtt.

Ahogy látszik, egyelőre nem attól kell félni, hogy a mesterséges intelligencia átveszi a hatalmat az emberiség felett, hanem attól, hogy az emberek miként alkalmazzák. Viszont nem szabad elbújni az ilyen problémák elől, azt gondolni, hogy ilyen nem történhet meg velünk. Minél inkább beszélünk erről, foglalkozunk vele, annál jobban fognak azok is, akik tehetnek is ellene valamit.

 

Források:



Nincsenek megjegyzések:

Megjegyzés küldése