Kiskorúakról is kreált meztelen fotót egy deepfake algoritmus
Mintegy 100 ezer nőről készített meztelen fotót az érintettek tudomása nélkül a DeepNude app továbbfejlesztett változata 2020 júliusáig. Az áldozatok többsége ráadásul kiskorú.
A Vice magazin tavaly júniusban rántotta le a leplet a DeepNude, mesterséges intelligencia által vezérelt applikációról, ami ötven dolláros díj ellenében bármilyen fotónak elkészítette erotikus változatát. A szoftver valójában generatív kontradiktórius hálózatokat (GAN), vagyis a mélyhamisítások algoritmusát használta, mellyel a női ruhákat megtévesztően valóságos meztelen testekre cserélte. Minél lengébb ruhát viselt valaki a képen, annál könnyebb dolga volt az algoritmusnak, célcsoportját ráadásul kifejezetten nők alkották, férfiaknál ugyanis nem működött. Még egy nap sem telt el a Vice cikkének megjelenése után, mire a fejlesztők eltávolították az applikációt, Twitter közleményükben pedig azt írták, nem lesz több frissítése.
Ehhez képest a Sensity AI, egy manipulált tartalmakkal való visszaélések felderítésével foglalkozó kiberbiztonsági vállalat új vizsgálata a napokban nagyon hasonló technológiát talált egy nyilvánosan elérhető bot által a Telegram üzenetküldő alkalmazásban. Ezúttal ráadásul még egyszerűbbre tervezték a felhasználói felületet: bárki elküldheti a botnak a Telegram mobil- vagy webalkalmazáson keresztül a fényképét, és percek alatt megkapja annak akt változatát. A szolgáltatás teljesen ingyenes, bár a felhasználók száz rubelért (körülbelül másfél dollárért) olyan extrákat vásárolhatnak, mint például a „lecsupaszított” fotók vízjelének eltávolítása. A DeepNude app továbbfejlesztett változata 2020 júliusáig mintegy százezer nőről készített meztelen fotót, méghozzá az érintettek tudomása nélkül.
Giorgio Patrini, a Sensity vezérigazgatója és vezető kutatója szerint ráadásul az áldozatok többsége valószínűleg kiskorú.
A 2019. július tizenegyedikén elindított deepfake algoritmus hét Telegram csatornához kapcsolódik, összesen több mint százezer felhasználóval. (Ez a szám nem tartalmazza a duplikált regisztrációt az egyes csatornákon, de a főcsoport így is több mint negyvenötezer egyedi felhasználót jelent.) A központi csatorna a bot tárolására szolgál, míg a többit olyan funkciókra használják, mint a technikai támogatás és a képmegosztás. A képmegosztó csatornák olyan interfészeket tartalmaznak, amelyeket a felhasználók meztelen fotóik közzétételére és megítélésére használhatnak. Minél több lájkot szerez egy adott fotó, annál több prémium funkció illeti a usert.
„Ezzel olyan ösztönzést kapnak, mintha csak egy játékot játszanának” – mondja Patrini.
Képmegosztó oldalakra feltöltött képek
A kiberbiztonsági cég elemzői szerint ez a kereséseken, és a közösségi médián keresztül könnyen beazonosítható közösség az elmúlt évben folyamatosan bővült. Egy hétezer-kétszáz fős közvélemény-kutatás azt mutatta, hogy nagyjából hetven százalékuk Oroszországból vagy más orosz ajkú területről származik. Úgy tűnik azonban, hogy az áldozatok szélesebb körből kerülnek ki, beleértve Argentínát, Olaszországot, Oroszországot és az Egyesült Államokat.
Többségük magánszemély, akit a deepfake bot felhasználói a való életben is ismernek, vagy az Instagramon találtak.
Patrini elmondása alapján csak kis számú nőt sikerült beazonosítaniuk, akikkel megpróbáltak kapcsolatba lépni annak reményében, hogy hátha megosztják velük tapasztalataikat az esetről, de egyikük sem válaszolt. A kiberbiztonsági kutatók egyébként a Telegramot, és az érintett bűnüldöző szerveket, beleértve az FBI-t szintén felkeresték. A Telegram nem válaszolt sem a Sensity AI, sem az MIT Technology Review megkeresésére.
A bántalmazók egy ideje már használnak pornográf képeket a nők zaklatására: 2019-ben az Amerikai Pszichológiai Szövetség tanulmányából kiderült, hogy tizenkét nőből egy biztosan a deepfake pornó áldozatává válik élete során.
A szakértő gyanítja, hogy ezek a célzott támadások a jövőben sokkal rosszabbá válhatnak, annál is inkább, hiszen Patrini és kutatótársai már most testközelből látják a technológia fejlődését és terjedését. Felfedeztek például egy új, több mint háromszáznyolcvan oldalas adatbázist, amely kifejezetten deepfake hamisítványok létrehozását és megosztását tette lehetővé az orosz VK közösségi média platformon. (A cikk közzététele után a VK szóvivője nyilatkozatot küldött az MIT Technology Review-nak arról, hogy a VK nem tolerálja az ilyen tartalmakat vagy linkeket, és blokkolja azokat a közösségeket, amelyek terjesztik őket. Valamint további ellenőrzést, és a sértő tartalmak felülvizsgálatát ígérték.) Patriniék továbbá megállapították, hogy a „vetkőztető” algoritmust egyre gyakrabban alkalmazzák videókon, például a kifutón sétáló bikinis modellek felvételeinél.
„Jelenleg elemenként alkalmazzák csak ezeket az algoritmusokat, mivel még nagyon kezdetlegesek” – magyarázza Patrini. „De biztos vagyok benne, hogy idővel tökéletesíteni fogják, és licencszolgáltatást is létrehoznak mellé.” Sajnos még mindig kevés módja van az ilyen jellegű tevékenységek leállításának – mindenesetre pozitívumként tekinthetünk a vállalatok egyre növekvő tudatosságára. Az olyan óriáscégek, mint a Facebook és a Google, valamint a deepfake létrehozásához szükséges eszközöket gyártó kutatók ugyanis egyre komolyabb eszközökkel próbálnak fellépni a deepfake tartalmak ellen. Tavaly az Egyesült Államok Kongresszusa pedig egy új törvényjavaslatot is benyújtott, amely jogilag is lehetővé tenné az áldozatok védekezését a jó hírnevüket ért támadás miatt. Mindeközben a Sensity továbbra is nyomon követi és beszámol az ilyen típusú rosszindulatú hamisítványokról, és igyekszik jobban megérteni az azokat létrehozók motivációit és az áldozatok életére gyakorolt hatásokat. Merthogy Patrini szerint a jelentésükben megosztott adatok csupán a jéghegy csúcsát jelentik.
Iratkozz fel speciálisan erre a célra kialakított Telegram-csatornánkra, melyen teljes egészében megosztjuk cikkeinket! A telefonod háttérben futó üzemmódban fogja betölteni az aktuális híreket, így nem fogsz lemaradni a legfontosabb eseményekről!
Feliratkozás