keresés

2021. április 22., csütörtök

A deepfake bugyraiban

 

A deepfake szó a deep learning és a fake kifejezés elegyéből ered. A deep learning a mesterséges intelligencia tanulási folyamatát, a fake pedig hamisat jelent, ebből már kikövetkeztethető, hogy mire is lett kitalálva ez a technológia. A kifejezés 2017-ben jelent meg először az interneten. Azóta nagyon elterjedt és  széles körűvé vált a felhasználása. Segítségül szolgált már filmek utólagos szerkesztéséhez,  zsaroláshoz, megtévesztéshez és politikai fegyverként is előkerült már.

Miért is veszélyes a technológia?

Úgy néz ki eljött az ideje annak, hogy a kamuhírek közlése korszakot váltson. Már azt sem hihetjük el amit a saját szemünkkel-fülünkkel látunk-hallunk. A technológia használata nem kötött komoly számítástechnikai ismeretekhez, szinte minden számítógéppel rendelkező, átlagos felhasználó képes tartalom gyártásra. Azonban vannak, akik az általuk létrehozott tartalmat manipulációra használják. A deepfake-technológia kifejezetten arra lett kitalálva, hogy egy tetszőleges fotót, vagy videót a saját kedvünkre formáljunk. Elegendő csupán egy középkategóriás számítógép a folyamathoz, amellyel már egy hétvége alatt jó minőségű, manipulált videót lehet készíteni. A háttérmunkát a mély-tanuláson alapuló neurális háló végzi. A hamisítvány elkészítéséhez szükség van pár fotóra az adott személyről, ezek alapján dolgozza át a rendszer az eredeti képeket, eleinte pixeles majd elegendő idő ráfordításával teljesen élethű eredményt kapunk. A technológiával kapcsolatos bizonytalanság azonban alááshatja a reklámokat, politikai beszédeket, vagy akár egy átlag ember életét is. Ami tényleg ijesztő benne, hogy az internetre kitett nyilvános képeket bárki felhasználhatja rossz, ártó szándékkal.

A filmipar

A jövő technológiája lenne a deepfake? Lehet, hogy lassan már színészekre se lesz szükség. Az ír című filmben például CGI segítségével fiatalították meg a színészeket. Ami ugyan nem lett hibátlan, egy Youtube-videó azonban bemutatta, hogy ugyanezt megcsinálták deepfake-kel és az eredmény mondhatni hitelesebb lett, az „eredetinél”. 

Sajnos a technológiát a nemek közti harcra is használják. A deepfakepornót bosszúpornó néven is emlegetik. Ennek áldozatai túlnyomó részben nem hírességek, hanem teljesen átlagos nők. A Qubit és a Sensity felmérése alapján havonta nagyjából ezer ilyen videó kerül ki a  legkeresettebb pornóoldalakra. Ugyan a szabályzatuk tiltja a beleegyezés nélküli tartalom feltöltését, a deepfake-kel egyelőre nem tudnak mit kezdeni. A tavaly kirobbant Telegram-botrányban 104 852 nő fotóját töltötték fel az üzenetküldő szolgáltatáson tartózkodó botnak, majd a képekből algoritmusokkal manipulált aktfotókat készítettek. A szerkesztett képeket különféle Telegram-csatornákon terjesztették, sőt árulták is.

A rohamos tempó

"Félévente nő duplájára sz interneten keringő hamis felvételek száma."- a Sensity deepfake-detektáló oldal szerint. Hanry Farid, a Berkley kutatója és a deepfake szakértője szerint 2019 januárjában még nagyon pixeles, rossz minőségű arcképek készültek, majd 9 hónappal később már teljesen élethűre sikerült egy-egy felvétel. Ez is árulkodik ezen technológia gyors fejlődéséről. Persze ez azt is eredményezi, hogy azokat a szoftvereket is fejlesszék, amelyek képesek felismerni ezt a fajta jelenséget és kiszűrni őket. A deepfake tartalmat érzékelő rendszereket azonban egyelőre könnyű átverni, amit úgynevezett ellenséges minták beszúrásával viteleznek ki. Ezek olyan manipulált képek, amelyek hibázásra késztetik az intelligencia-alapú rendszereket. Ami rossz hír, ugyanis a deepfake tartalmakat egyelőre nem lehet 100 százalékosan kiszűrni.

Politikai fegyver

Ugyan ez a technológia még nem jár ott, hogy jelentősen befolyásolhasson választási kampányokat, azonban így is okozott már problémát. Például a gabonielnököt egy deepfake videóval próbálták lejáratni. A technológia már arra is használható, hogy nem létező emberekhez generáljon saját arcképet, így akár a közösségi médiában is létrejöhetnek olyan profilok, amelyek nem létező emberek képével vannak ellátva. 

A deepfake mellett megjelent a shallowfake is, ami a felvétel ritmusát  hivatott megváltoztatni. Ennek áldozata volt például Nancy Pelosi amerikai házelnök is, akinek egy mozdulatát úgy változtatták meg, hogy úgy tűnjön, mintha egy képviselőtársát inzultálná. 2018-ban, amikor Trump megvonta a szót a CNN riporterétől egy sajtótájékoztatón, szintén botrány lett. Ugyanis a Fehér Ház akkori szóvivője, Sarah Sanders a saját Twitter oldalán közölt egy manipulált videót az incidensről, amelyből kivágták a hangot és úgy tűnik, mintha a mikrofont kérő gyakornokot még meg is ütötték volna. 

A Buzzfeed felkérte Jordan Peele humoristát egy felvétel készítésére, amelyben Obama a "dipshit" jelzőt használta Trumpra. A célja ennek a videónak, az volt, hogy felhívják a figyelmet a deepfake és az dezinformáció veszélyeire.

Hol a védelem?

A helyzet súlyossága ellenére még nem történtek igazán komoly intézkedések a világban leszámítva az Amerikai Egyesült Államokat, ahol tagállami szinten korlátozzák a deepfake tartalmakat. Virginia államban törvény bünteti a beleegyezés nélkül készült deepfakepornó készítését. Texasban és Kaliforniában pedig betiltották az ilyen tartalmakat és az áldozatok kártérítést követelhetnek.

A Microsoft is próbál megoldást találni az ilyen tartalmak kiszűrésére, megszüntetésére. A Microsoft Video Authenticator képeket, videókat analizál az alapján, hogy mennyi esélye van annak, hogy az adott fájl manipulálva volt. A másik program a Microsoft felhőszolgáltatásának, az Azure részeként fog megjelenni. A program olyan funkciót tartalmaz, amely a vizuális tartalmak készítőinek lehetőséget ad arra, hogy az általuk készített fájlba belekerüljön a digitális aláírásuk és tanúsítványuk. Az aláírása metaadatokon keresztül marad benne a fájlba, így téve könnyebbé az eredeti szerző azonosítását. A Facebook és a Reddit is betiltotta már az általuk felfedezett deepfake tartalmakat, míg a Twitter megjelöli azokat.

A Facebook deepfake-felismerési kihívást indított másfél évvel ezelőtt és úgy tűnik mostanra meglett a győztes.  A  Deepfake Detection Challenge egy olyan nyilvános verseny, amelynek célja az autonóm algoritmikus észlelőrendszerek kifejlesztése és a deepfake fenyegetésének leküzdése. A versenyen több, mint 2000 versenyző vett részt szerte a világban. A kihívás a potenciális jogsértő videók automatikus felismerésére és további ellenőrzésre történő megjelölésre fókuszált. A Facebook tízmillió dollárt költött a versenyre és 3500 színészt bérelt fel, akik több ezer videót gyártottak le. Ezeknek a videóknak módosították a képsebességét és a minőségét, képátfedéseket és a videó képkockáiba független képeket helyeztek el, illetve volt néhány felvétel, amihez nem nyúltak hozzá. A győztes Selim Seferbekov modellje átlagosan 65 százalék feletti arányban szűrte ki a változtatásokat.

És, hogy mire használja az „átlag” polgár?

Egy amerikai anyuka a cheerleader-csapatból próbálta a lányatársait kirúgatni deepfake fotókkal. A nő a közösségi médiában talált profilképek felhasználásával készített aktfotókat az egyébként kiskorú lányokról, illetve alkohol és kábítószer fogyasztása közben láthatók a lányok a képeken. Ezeket névtelenül küldte tovább a csapat edzőinek, akik most zaklatással vádolják az anyukát.

Egy japán fiatal női Twitter-influenszerről pedig kiderült, hogy valójában 50 éves férfi, aki szintén a deepfake-kel csapta be követőit. Zonggu rengeteg energiát fektetett abba (még férfiként), hogy felépítse saját népszerű csatornáját a közösségi médiában, mégis azt látta, hogy középkorú férfiként nem igazán érdeklődnek iránta az emberek. Ekkor kezdett el a FaceApp-hoz és a Reface-hez hasonló alkalmazásokkal kísérletezni. A létrehozott fiatal, csinos hölgy persze „kelendőbb” volt. A korábbi 10 lájk helyett 1000 lájkot kaptak a bejegyzései. Néhány követője azonban gyanakodni kezdett és végül egy beszélgetős műsorban comingoutolt.

Források: 

Nincsenek megjegyzések:

Megjegyzés küldése