Miért is veszélyes a technológia?
Úgy néz ki eljött az ideje annak, hogy a kamuhírek közlése korszakot váltson. Már azt sem hihetjük el amit a saját szemünkkel-fülünkkel látunk-hallunk. A technológia használata nem kötött komoly számítástechnikai
ismeretekhez, szinte minden számítógéppel rendelkező, átlagos felhasználó képes
tartalom gyártásra. Azonban vannak, akik az általuk létrehozott tartalmat manipulációra
használják. A deepfake-technológia kifejezetten arra lett kitalálva, hogy egy
tetszőleges fotót, vagy videót a saját kedvünkre formáljunk. Elegendő csupán egy
középkategóriás számítógép a folyamathoz, amellyel már egy hétvége alatt jó
minőségű, manipulált videót lehet készíteni. A háttérmunkát a mély-tanuláson
alapuló neurális háló végzi. A hamisítvány elkészítéséhez szükség van pár
fotóra az adott személyről, ezek alapján dolgozza át a rendszer az eredeti
képeket, eleinte pixeles majd elegendő idő ráfordításával teljesen élethű eredményt kapunk. A technológiával kapcsolatos bizonytalanság azonban alááshatja a reklámokat, politikai beszédeket, vagy akár egy átlag ember életét is. Ami tényleg ijesztő benne, hogy az internetre kitett nyilvános képeket bárki felhasználhatja rossz, ártó szándékkal.
A filmipar
A jövő technológiája lenne a deepfake? Lehet, hogy lassan már színészekre se lesz szükség. Az ír című filmben például CGI segítségével fiatalították meg a színészeket. Ami ugyan nem lett hibátlan, egy Youtube-videó azonban bemutatta, hogy ugyanezt megcsinálták deepfake-kel és az eredmény mondhatni hitelesebb lett, az „eredetinél”.
Sajnos a technológiát a nemek közti harcra is használják.
A deepfakepornót bosszúpornó néven is emlegetik. Ennek áldozatai túlnyomó részben nem hírességek, hanem teljesen átlagos nők. A Qubit és a Sensity felmérése alapján havonta nagyjából ezer ilyen videó kerül ki a legkeresettebb pornóoldalakra. Ugyan a szabályzatuk tiltja a beleegyezés nélküli tartalom feltöltését, a deepfake-kel egyelőre nem tudnak mit kezdeni. A tavaly kirobbant Telegram-botrányban 104 852 nő fotóját töltötték fel az üzenetküldő szolgáltatáson tartózkodó botnak, majd a képekből algoritmusokkal manipulált aktfotókat készítettek. A szerkesztett képeket különféle Telegram-csatornákon terjesztették, sőt árulták is.
A rohamos tempó
"Félévente nő duplájára sz interneten keringő hamis felvételek száma."- a Sensity deepfake-detektáló oldal szerint. Hanry Farid, a Berkley kutatója és a deepfake szakértője szerint 2019 januárjában még nagyon pixeles, rossz minőségű arcképek készültek, majd 9 hónappal később már teljesen élethűre sikerült egy-egy felvétel. Ez is árulkodik ezen technológia gyors fejlődéséről. Persze ez azt is eredményezi, hogy azokat a szoftvereket is fejlesszék, amelyek képesek felismerni ezt a fajta jelenséget és kiszűrni őket. A deepfake tartalmat érzékelő rendszereket azonban egyelőre könnyű átverni, amit úgynevezett ellenséges minták beszúrásával viteleznek ki. Ezek olyan manipulált képek, amelyek hibázásra késztetik az intelligencia-alapú rendszereket. Ami rossz hír, ugyanis a deepfake tartalmakat egyelőre nem lehet 100 százalékosan kiszűrni.
Politikai fegyver
Ugyan ez a technológia még nem jár ott, hogy jelentősen befolyásolhasson választási kampányokat, azonban így is okozott már problémát. Például a gabonielnököt egy deepfake videóval próbálták lejáratni. A technológia már arra is használható, hogy nem létező emberekhez generáljon saját arcképet, így akár a közösségi médiában is létrejöhetnek olyan profilok, amelyek nem létező emberek képével vannak ellátva.
A deepfake mellett megjelent a shallowfake is, ami a felvétel ritmusát hivatott megváltoztatni. Ennek áldozata volt például Nancy Pelosi amerikai házelnök is, akinek egy mozdulatát úgy változtatták meg, hogy úgy tűnjön, mintha egy képviselőtársát inzultálná. 2018-ban, amikor Trump megvonta a szót a CNN riporterétől egy sajtótájékoztatón, szintén botrány lett. Ugyanis a Fehér Ház akkori szóvivője, Sarah Sanders a saját Twitter oldalán közölt egy manipulált videót az incidensről, amelyből kivágták a hangot és úgy tűnik, mintha a mikrofont kérő gyakornokot még meg is ütötték volna.
A Buzzfeed felkérte Jordan Peele humoristát egy felvétel készítésére, amelyben Obama a "dipshit" jelzőt használta Trumpra. A célja ennek a videónak, az volt, hogy felhívják a figyelmet a deepfake és az dezinformáció veszélyeire.
Hol a védelem?
A helyzet súlyossága ellenére még nem történtek igazán komoly intézkedések a világban leszámítva az Amerikai Egyesült Államokat, ahol tagállami szinten korlátozzák a deepfake tartalmakat. Virginia államban törvény bünteti a beleegyezés nélkül készült deepfakepornó készítését. Texasban és Kaliforniában pedig betiltották az ilyen tartalmakat és az áldozatok kártérítést követelhetnek.
A Microsoft is próbál megoldást találni az ilyen tartalmak kiszűrésére, megszüntetésére. A Microsoft Video Authenticator képeket, videókat analizál az alapján, hogy mennyi esélye van annak, hogy az adott fájl manipulálva volt. A másik program a Microsoft felhőszolgáltatásának, az Azure részeként fog megjelenni. A program olyan funkciót tartalmaz, amely a vizuális tartalmak készítőinek lehetőséget ad arra, hogy az általuk készített fájlba belekerüljön a digitális aláírásuk és tanúsítványuk. Az aláírása metaadatokon keresztül marad benne a fájlba, így téve könnyebbé az eredeti szerző azonosítását. A Facebook és a Reddit is betiltotta már az általuk felfedezett deepfake tartalmakat, míg a Twitter megjelöli azokat.
A Facebook deepfake-felismerési kihívást indított másfél évvel ezelőtt és úgy tűnik mostanra meglett a győztes. A Deepfake Detection Challenge egy olyan nyilvános verseny, amelynek célja az autonóm algoritmikus észlelőrendszerek kifejlesztése és a deepfake fenyegetésének leküzdése. A versenyen több, mint 2000 versenyző vett részt szerte a világban. A kihívás a potenciális jogsértő videók automatikus felismerésére és további ellenőrzésre történő megjelölésre fókuszált. A Facebook tízmillió dollárt költött a versenyre és 3500 színészt bérelt fel, akik több ezer videót gyártottak le. Ezeknek a videóknak módosították a képsebességét és a minőségét, képátfedéseket és a videó képkockáiba független képeket helyeztek el, illetve volt néhány felvétel, amihez nem nyúltak hozzá. A győztes Selim Seferbekov modellje átlagosan 65 százalék feletti arányban szűrte ki a változtatásokat.
És, hogy mire használja az „átlag” polgár?
Egy amerikai anyuka a cheerleader-csapatból próbálta a lányatársait kirúgatni deepfake fotókkal. A nő a közösségi médiában talált profilképek felhasználásával készített aktfotókat az egyébként kiskorú lányokról, illetve alkohol és kábítószer fogyasztása közben láthatók a lányok a képeken. Ezeket névtelenül küldte tovább a csapat edzőinek, akik most zaklatással vádolják az anyukát.
Egy japán fiatal női Twitter-influenszerről pedig kiderült, hogy valójában 50 éves férfi, aki szintén a deepfake-kel csapta be követőit. Zonggu rengeteg energiát fektetett abba (még férfiként), hogy felépítse saját népszerű csatornáját a közösségi médiában, mégis azt látta, hogy középkorú férfiként nem igazán érdeklődnek iránta az emberek. Ekkor kezdett el a FaceApp-hoz és a Reface-hez hasonló alkalmazásokkal kísérletezni. A létrehozott fiatal, csinos hölgy persze „kelendőbb” volt. A korábbi 10 lájk helyett 1000 lájkot kaptak a bejegyzései. Néhány követője azonban gyanakodni kezdett és végül egy beszélgetős műsorban comingoutolt.
Források:
- Megállíthatatlanok a deepfake tartalmak
- Egy fiatal női Twitter-influenszerről kiderült, hogy ötven éves férfi, aki deepfake videókat posztolt
- Deepfake videókat készített a lánya csapattársairól, hogy így zsarolja őket
- Új kampányfegyver a színen: a deepfake-technológia
- A Microsoft is beszáll a deepfake elleni harcba
- Mi az a deepfake és hogyan lehet felismerni? – Interjú Mezriczky Marcell-lel
- Győztest hirdetett a Facebook a deepfake-felismerési versenyben
- Azt hittük, hogy a demokráciát teszi tönkre, de az átlagembert küldi a sírba [18+]
- A negatív kampány új fegyvere fenyegeti a választások tisztaságát
- Totális káosz jöhet a pornóban és a politikában egyaránt
- A pornóipar segíti a politikai célú deepfake fejlődését
Nincsenek megjegyzések:
Megjegyzés küldése