Váratlan csapás: Steve esete
Steve az íróasztalánál dolgozott, amikor váratlanul megszólalt a telefonja. A vonal másik végén főnöke, Bela volt, aki idegesen és sietős hangon arra kérte, hogy azonnal küldje át a bizalmas ügyféljelentést egy új e-mail címre. Steve számára az arc és a hang is ismerős volt, ezért gondolkodás nélkül teljesítette a kérést.
Néhány órával később Bella személyesen is megjelent az irodájában, és rákérdezett a jelentésre. Steve értetlenül mesélt a korábbi hívásról, mire Bela megdöbbenve közölte, hogy ő nem is beszélt vele aznap videón. Hamarosan kiderült, hogy egy kifinomult deepfake-technológia segítségével elkövetett átverés áldozata lett. A hívás nem volt valódi, hanem egy kiberbűnöző által létrehozott tökéletes másolat, amely megtévesztette Steve-et.
A férfi alig akarta elhinni, mennyire élethű volt a hamis beszélgetés. Az arc, a hang és a gesztusok mind tökéletesen utánozták főnökét. Ez a megtévesztés egyre gyakoribbá válik, mivel a mesterséges intelligencia lehetővé teszi a meggyőző utánzatok létrehozását.
Mi az a deepfake?
A mesterséges intelligencia képes valósághű képek, hangfelvételek és videók előállítására, amelyeket különböző területeken alkalmaznak. A marketingipar reklámokhoz használja, a filmipar a színészek digitális fiatalítására, míg az oktatásban a tananyagok szemléltetésére.
A deepfake technológia azonban alkalmas arra is, hogy félrevezető tartalmakat hozzanak létre vele. Az elnevezés a „deep learning” (mélytanulás) és a „fake” (hamis) szavak összevonásából ered. Különösen veszélyessé akkor válik, amikor valakiről hamis képek vagy videók készülnek, és olyan szituációkban ábrázolják őket, amelyek soha nem történtek meg. Ezzel megtévesztő híreket terjeszthetnek, vagy akár bűncselekményekkel hozhatnak összefüggésbe ártatlan embereket.
Emellett lehetséges valakinek a hangját is lemásolni, majd azt felhasználva pénzt vagy bizalmas információkat kicsalni. Csalók például úgy tehetnek, mintha egy vállalat vezetője vagy egy családtag beszélne, és ezzel megtéveszthetik áldozataikat.
A deepfake különböző formái:
Léteznek mesterségesen létrehozott képek, amelyek teljesen új arcokat generálnak, valamint manipulált fotók, amelyek valós eseményeket ábrázolnak, de a valóságban soha nem történtek meg. Ezeket gyakran használják hamis hírek terjesztésére és manipulációra.
A hangklónozás során valakinek a hangját mesterséges intelligenciával utánozzák. Ezzel a módszerrel a támadók hitelesnek tűnő telefonhívásokat és hangfelvételeket hozhatnak létre, hogy bizalmas információkat csaljanak ki vagy félrevezessék az embereket.
A deepfake videók esetében nemcsak a hangot, hanem a mimikát és a testmozgásokat is manipulálják. Egy ilyen videóban például egy politikus olyan kijelentéseket tehet, amelyeket valójában soha nem mondott, vagy egy vállalatvezető hamis bejelentése terjedhet el a médiában.
Hogyan védekezhetünk?
A deepfake felismerése egyre nehezebb, mert a technológia folyamatosan fejlődik. Éppen ezért érdemes óvatosnak lenni és a következő óvintézkedéseket megtenni:
Ha egy üzenet vagy hívás szokatlanul sürgető vagy gyanús, mindig ellenőrizzük más forrásból is.
Az érzelmi manipuláció gyakori módszer: a támadók sokszor pánikot keltenek vagy siettetik az áldozatokat. Ha ilyet tapasztalunk, álljunk meg egy pillanatra, és gondoljuk át a helyzetet.
Ha kételkedünk egy hívás valódiságában, próbáljuk meg visszahívni az illetőt egy megbízható telefonszámon vagy más csatornán keresztül.
Használjunk előre egyeztetett kódszavakat családtagokkal és kollégákkal, hogy ellenőrizni tudjuk egy üzenet vagy hívás hitelességét.
Forrás: https://nki.gov.hu/wp-content/uploads/2025/03/ouch_hungarian_march_2025_deepfakes.pdf
Nincsenek megjegyzések:
Megjegyzés küldése