A ma már általános jelenséggé vált internetes átverések jelentős veszélyeket hordozhatnak nemcsak a tapasztalatlan, de bármely internetes felhasználó körében. A romantikus csalás (honeytrap scam) nem egy újkeletű dolog, az AI technológia alapján működő alkalmazások terjedése miatt azonban egyre népszerűbb eszköz a bűnözők körében. A hatóságok a romantikus csalások új hullámára figyelmezteti az embereket, a mesterséges intelligenciával generált képek, hangfelvételek és videók ugyanis egyre nehezebben felismerhetők.
A romantikus csalás lényege, működése
A romantikus átverés az adathalászat egyik olyan formája, amely során a kiberbűnözők a romantikus társaságot kereső személyeket célozzák meg az interneten, hogy aztán érzelmileg manipulálva pénzt, vagy bizalmas információkat szerezzenek meg tőlük, mindezt álprofil mögé rejtőzve. Az elkövetők gyakran a világ különböző pontjairól tevékenykednek, ezzel megnehezítve a helyi bűnüldöző szervek munkáját. A potenciális kiszemeltek között a statisztikák szerint többségében özvegyek és idős emberek vannak, náluk ugyanis a legvalószínűbb az esélye, hogy magányosak, társaságra vágynak. Az FBI közlése szerint a 2023-as évben körülbelül 18000 amerikai állampolgár esett áldozatul romantikus csalásoknak, és több mint 650 millió dolláros a veszteség. A pontos adatok azonban ettől jóval magasabbak lehetnek, ugyanis a nyomozók állítása szerint ez az adathalászati módszer az áldozatok szégyenérzete miatt nem olyan szinten jelentett mint a többi.
A használt technikák és történetek tekintetében megannyi változat létezik, a főbb lépések azonban egyformák. Az átverés során a csaló először személyes kapcsolatot próbál kialakítani a célszeméllyel, hogy elnyerje annak bizalmát. A kapcsolat hónapokig, de akár évekig is fennmaradhat, eközben minél jobban próbálja kiismerni áldozatát. Miután kapcsolatuk elért egy bizonyos szintet, a bűnöző mondvacsinált szomorú történetekkel hozakodik elő, mint például kirúgták a munkahelyéről és nincs elég pénze, vagy valamelyik közeli hozzátartozójának orvosi ellátásra lenne szüksége, amit saját zsebből nem tud kifizetni. Az adathalászat ezen típusának is vannak különböző módszerei, ide tartozik a zsarolás, catfishing, 419 vagy az eWhoring is.
Egy ilyen zsarolásos adathalászat áldozata lett William Wragg konzervatív párti országgyűlési képviselő miután a múlt hónapban kiderült, rákényszerítették arra, hogy kiadja kollégái személyes telefonszámait azután, hogy a Grindr társkereső alkalmazáson megismerkedett egy illetővel, akinek aztán kompromittáló képeket küldött magáról. A bűnöző a képek nyilvánosságra hozatalával zsarolta a képviselőt, aki ezt követően elküldte pár munkatársa és ismerőse számát. A Politico lap arról számolt be, hogy eddig 12 westminster-i személyt, köztük politikusokat, újságírókat és műsorvezetőket kerestek meg üzenetben a bűnözők azzal a céllal, hogy további személyes adatot gyűjtsenek be tőlük is.
A csalók által alkalmazott stratégia
Az elküldött üzenetek többsége tartalmaz egy úgynevezett stresszor-t. A stresszor egy olyan ,,kifejezésre" utal, amelyet a kiberbűnözők arra használnak, hogy nyomást gyakoroljanak az áldozatra. Egy ilyen stresszt kiváltó tényező közé sorolható például a megfélemlítés is. Wragg esetében az elküldött képek, és a velük való visszaélési megfélemlítés jelentette a stresszort, tehát ha nem tesz eleget a követelésnek, akkor közszemlére teszik azokat. A bűnöző célja ezzel az, hogy a személyt impulzív cselekvésre késztesse, ezzel pedig véghezvigye a csalást.
Az AI bevonása a csalásokba
Bár a mesterséges intelligencia megjelenését pozitív előrelépésnek tekinti az emberek nagytöbbsége, a bűnözők most is megtalálták a módját arra, hogy rossz célokra használják fel. A romantikus csalások felismerése érdekében tanácsolt egyik módszer az illetővel való kapcsolatfelvétel videochat-en. Ezzel ugyanis igen gyorsan kibukhat, hogy azzal beszélgettünk-e eddig, akinek ő mondta magát. Az újabb technológiák piacra dobásával azonban már nem egészen hihetünk a szemünknek sem. A deepfake-ek olyan manipulált képeket, videókat és hangfájlokat foglal magába, amelyeket a mesterséges intelligenciával generáltak. Ben Colman, a Reality Defender alapítója kiberbiztonsággal és az AI-val
foglalkozik, cége kormányzati és vállalati ügyfeleknek nyújt segítséget a támadások kiküszöbölésére. A BBC-nek adott interjúben elmondta, ,,az elmúlt kilenc hónapban szinte lehetetlenné vált még a legjobb szakértők számára is, hogy megmondják mi valós és mi mesterséges intelligencia által generált." A fordított képkeresés fontos segédeszköz lehet a csalók lebuktatásában. Ha gyanakodni kezdünk, érdemes lehet feltölteni az illető által küldött fényképeket egy ilyen képkeresőbe (például a Google Images-be vagy a Yandex képkeresőjébe), hogy megbizonyosodjunk róla, tényleg valós személy lehet-e a profil mögött.
foglalkozik, cége kormányzati és vállalati ügyfeleknek nyújt segítséget a támadások kiküszöbölésére. A BBC-nek adott interjúben elmondta, ,,az elmúlt kilenc hónapban szinte lehetetlenné vált még a legjobb szakértők számára is, hogy megmondják mi valós és mi mesterséges intelligencia által generált." A fordított képkeresés fontos segédeszköz lehet a csalók lebuktatásában. Ha gyanakodni kezdünk, érdemes lehet feltölteni az illető által küldött fényképeket egy ilyen képkeresőbe (például a Google Images-be vagy a Yandex képkeresőjébe), hogy megbizonyosodjunk róla, tényleg valós személy lehet-e a profil mögött.
Jelen helyzetben azonban még ezek a képkeresők sem fogják felismerni a szerkesztett és mesterséges intelligencia által generált arcokat. Kifejezetten a generált képeket felismerő szoftverek piacra dobása még gyerekcipőben jár. A Google tavaly egy béta verziót adott ki a Synth-ID elnevezésű, a mesterséges intelligenciával generált képek felismerése és vízjeggyel való ellátása céljából. A program egy digitális vízjelet ágyaz be az Imagen által generált kép pixeleibe, ami egyedül a rendszer számára érzékelhető és akkor is megmarad ha a kép szerkesztésével a metaadatok elvesznének. A SynthID-t egyenlőre korlátozott számú, szintén a Google által kiadott Imagent (text-to-image program) használó Vertex AI-ügyfelek számára került kiadásra.
A Yahoo fiúk
A ,,Yahoo fiúk” elnevezés főként Nyugat-Afrikai férfiak klaszterekbe szerveződött bűnözőit takarja. A ,,nigériai típusú” csalásként, vagy ,,419”-ként is számontartott átveréstípus már a 19. században is jelen volt. A Yahoo fiúk nevüket még régebbről kapták, amikor még Yahoo-s e-mail fiókokat használtak az emberek átverésére, meggazdagodási lehetőséget ígérve számukra. David Maimon, a Georgia State University professzora és a SentiLink vállalat csalásokkal foglalkozó osztályának vezetője a Wired lapnak adott interjújában elmondta, a csoportok körülbelül két éve kezdtek el kísérletezni a deepfake technológiával. Hisz hogyan máshogy lehetne jobban elhitetni egy emberrel az interneten, hogy tényleg azzal beszélget akinek az vallja magát, mintsem élő videóhíváson keresztül. Kétféle technikát figyeltek meg eddig Maimon-ék, ebből az egyik amikor 2 telefont és egy arccserélő (face-swapping) alkalmazást használnak. Ebben az esetben az egyik telefonon a hívás fut, és a kamera az előtte lévő telefont veszi, ahol a csaló a saját arcát veszi, közben pedig fut az alkalmazás. Több tucat, a Facebookon, WhatsApp-on és főleg a Telegram-on működő csoport létezik, ahol gyakran tippeket osztanak meg, hogy hogyan is lehet sikeresen átverni az embereket.
Mit tehetünk, hogy elkerüljük a csalásokat ?
Az online térben navigáló (főleg kezdő) felhasználók számára a figyelemfelhívása legfontosabb módszer az adathalász támadásokkal szembeni védekezésben.
Míg nem jelenik meg egy generált fotókat/videókat felismerő, bárki számára elérhető alkalmazás addig is érdemes ,,manuálisan” szemügyre venni a fotókat, és megfigyelni, hogy például minden testrész a helyén van-e és nincs-e belőlük több vagy kevesebb, nem-e homályos vagy összefolyt például a háttérrel. Azáltal, hogy folyamatosan tájékozódik az ember az újabb és újabb felbukkanó csalásokról, elkerülhető lesz, hogy a jövőben kevesebben essenek áldozatul.
Forráslista:
The Real-Time Deepfake Romance Scams Have Arrived-Wired, Matt Burgess; 2024.04.18.
A romantikus csalás-Nemzeti Kibervédelmi Intézet; 2024.02.14.
Senior Tory ‘mortified’ after reportedly passing MPs’ data to dating app contact-The Guardian, Nadeem Badshah; 2024.04.05.
Identifying AI-generated images with SynthID-Google Deepmind, Sven Gowal, Pushmeet Kohli; 2023.08.29.
Tackling deepfakes 'has turned into an arms race'-BBC, Jane Wakefield; 2024.03.27.
Nincsenek megjegyzések:
Megjegyzés küldése