keresés

2024. április 22., hétfő

A Microsoft új AI fejlesztése: a Vasa-1

 Az Ai videógenerátor programok, amelyek rendkívül meggyőző videók létrehozására képesek, komoly aggodalmakat vetnek fel az általuk hordozott esetleges biztonsági kivetnivalók kapcsán. Az egyre nehezebben felismerhető generált videókat nemcsak politikai felbujtásra és gazdasági félretájékoztatásra, de a hírnév beszennyezésére és az emberek átverésére is használhatják a csalók.

A Vasa-1 és az egyre élethűbb deepfake-ek 

A Microsoft cég új fejlesztéséről, a Vasa-1-ről nemrég rántották le a leplet a nagyközönség számára, de már most elgondolkodtak egyesek, hogy mi történne ha rossz kezekbe kerülne a technológia. A program lényege, hogy rendkívül valósághű videókat lehet vele készíteni emberekről, méghozzá egyetlen kép és egy hangfájl megadásával. A Microsoft Research csapata a cég
oldalán írja: “módszerünk jelentősen felülmúlja a korábbi eljárásokat […]. Módszerünk nemcsak kiváló videóminőséget biztosít valósághű arc- és fejdinamikával, hanem támogatja online streaming módban az 512x512-es videók generálását akár 40
Fps-ig (offline 45 Fps-ig), elhanyagolható kezdő késleltetés mellett.”

Az eddigi próbálkozásokkal ellentétben tehát a Vasa-1 már jóval élethűbb, az emberekével már-már megegyező arcmimikákat és fejmozgást tud véghezvinni. A technológia azonban adatvédelmi aggályokat is felvethet, ugyanis ha a cég elérhetővé tenné bárki számára, akkor akár meg is kerülhetnék vele a a biometrikus azonosításnál használt arcfelismerő rendszereket és a Face-ID-t. 

Biometrikus azonosítás  

A biometrikus azonosítás használata napjainkban egyre jobban előtérbe kerül biztonságossága és megbízhatósága miatt. Az arcfelismeréses hitelesítést egyre inkább előnyben részesítik az önkormányzatok, bankok és egyéb vállalatok, ezzel próbálva csökkenteni a lehetséges azonosítással járó visszaéléseket.
Habár a Microsoft fejlesztők elmondása szerint programjukat főként az esélyegyenlőség elősegítésére, vagyis például a kommunikációs nehézségekkel küzdő egyének integrálására és terápiákon résztvevő emberek érzelmi támogatására tervezték, tisztában vannak a visszaélések lehetőségével, főként az emberek megszemélyesítése terén.
Egyenlőre azonban nem kell ettől tartanunk, ugyanis ezt figyelembevéve a vállalat az általuk kiadott ismertetőben leírták, hogy nem áll szándékukban sem online demo változatot, sem pedig további kivitelezési részleteket megosztani ,,mindaddig, amíg meg nem bizonyosodnak arról, hogy a technológiát felelősségteljesen és az előírásoknak megfelelően használják az emberek.

Hogyan csaltak ki deepfake-el 9 milliárd forintot egy cég alkalmazottjától ? 

Az utóbbi időben egyre többször esett szó arról, hogy kiberbűnözők deepfake-et használva, másnak tettetve magukat pénzt csaltak ki egyesektől, vagy meggyőztek dolgozókat, hogy utaljanak át milliós összegeket egy ismeretlen számlára. Egy ilyen átverésben volt része idén egy kínai származású multinacionális cégnél dolgozó pénzügyi alkalmazottnak, akivel elhitették, hogy a vállalat pénzügyi igazgatójával beszél egy videókonferencián. A dolgozót először egy e-mail-el kereste fel a csaló, amiben egy brit cég pénzügyi igazgatójának adta ki magát, és egy titkos tranzakció végrehajtását sürgette. A dolgozó először sejtette, hogy egy adathalász e-mail-el lehet dolga, azonban amikor rávették, hogy csatlakozzon egy videóhíváshoz a cég további alkalmazottjával, a megbeszélés végén úgy tűnt sikeresen meggyőzték. Az általa látott munkatársak azonban egytől egyig mind deepfake-el generált emberek volt. Az átverésre aztán már csak akkor derült fény, amikor az alkalmazott utólag egyeztetett a vállalat központi irodájával.

Nincsenek megjegyzések:

Megjegyzés küldése