Kiemelt hírek
Új kampányfegyver a színen: a deepfake-technológia
A technológia használatához nincs szükség komoly számítástechnikai ismeretekre, éppen ezért lehet különösen veszélyes.
A deepfake-technológia terjedésével szinte minden számítógéppel rendelkező, átlagos felhasználó képessé vált arra, hogy egy képet, de leginkább videót a maga ízlése szerint manipuláljon. A deepfake szó a deep learning és a fake angol kifejezések keveredéséből alakult ki; előbbi a mesterséges intelligencia tanulási folyamatát, míg utóbbi a hamisat jelenti. A kifejezés 2017-ben tűnt fel először az interneten, azóta egyre ismertebb.
A technológia használatához nincs szükség komoly számítástechnikai ismeretekre, éppen ezért lehet különösen veszélyes. Egy középkategóriás számítógép segítségével akár már egy hétvége alatt remek minőségű manipulált videókat készíthetünk, a háttérmunkát a mélytanuláson alapuló mesterséges intelligencia, egy neurális háló végzi. Ahhoz, hogy hihető hamisítvány készüljön, több ezer fotóra van szükség egy adott személyről – a rendszer ezután elkezd dolgozni, és amíg eleinte pixeles, elmosódott felvételeket fogunk látni, minél több időt és forrást biztosítunk a rendszernek, annál élethűbbé válik a másolat.
Bosszúpornó
A technológiával foglalkozó szakértők szerint a deepfake-ekre a dezinformáció újabb hullámaként kell tekinteni, de ennél tovább mennek: a nemek közötti harc egyik nagy fegyvereként is. A deepfake-eket ugyanis legtöbb esetben úgynevezett bosszúpornó készítésére is használják, amelynek áldozatai túlnyomó részben nők. A Qubit a Sensity felmérésére alapozva korábban azt írta, havonta nagyjából ezer deepfake videót töltenek fel a legnézettebb pornóoldalakra, amelyek szabályzata ugyan tiltja a hozzájárulás nélkül készült felvételek feltöltését, de a deepfake-kel nem nagyon tudnak mit kezdeni.
A tavaly robbant ki a Telegram-botrány is, amelyben 104 852 nő fotóját töltötték fel a Telegram üzenetküldő szolgáltatáson garázdálkodó botnak, majd a képekből algoritmusokkal manipulált aktfotókat gyártottak. A szerkesztett képeket különféle Telegram-csatornákon terjesztették, sőt még árulták is. Az esettanulmányban megvizsgált csatornák összesen több mint 100 ezer tagot számláltak, a felhasználók 70 százaléka Oroszországból vagy más kelet-európai országból származott.
Gyors fejlődés
A Sensity deepfake-detektáló oldal szerint félévente duplájára nő az interneten keringő hamis felvételek száma, Hany Farid, a Berkley kutatója és deepfake-szakértője pedig egy 2020-as interjújában elárulta, hogy amíg 2019 januárjában nagyon pixeles, rossz hasonulású arcképeket tudtak csak készíteni, 9 hónappal később már csaknem teljesen élethű volt egy-egy felvétel. A deepfake-ek fejlettsége napjainkban még nem közelíti meg azt a szintet, hogy a szakértőket is átverjék, a fejlődés mégis megkérdőjelezhetetlen. Ezzel azonban együtt jár a fejlett technológiát felismerni, detektálni képes szoftverek fejlesztése is – ami az állami és az üzleti szektorban is folyamatosan zajlik.
Krekó Péter, a Political Capital igazgatója a 168.hu-nak úgy fogalmazott: ahogy a technológia fejlődik, úgy fogja beérni az a módszer is, ami képes detektálni a manipulált felvételeket. „Ez rabló-pandúr szituációt fog előidézni, amelyben a rabló mindig egy kicsit előrébb jár majd” – mondta. Az elemző szerint azonban a technikára nem csak mumusként kell tekinteni, ugyanis annak fejlődése a dezinformáció elleni küzdelemben is fontos segítséget nyújthat.
Politikai fegyver
A deepfake ugyan valóban nem tölt még be olyan jelentős szerepet a választási kampányokban és a nagypolitikában, mint azt korábban jósolták, ám így is okozott már zavart a világban. A gaboni elnök népszerűségét egy deepfake videóval próbálták meg csökkenteni, Indiában pedig egy képviselőjelölt akarta megszólítani a legszélesebb szavazóréteget úgy, hogy deepfake videók gyártásába kezdett: különböző, általa nem beszélt nyelveken szólt a választókhoz.
A technológia arra is képes, hogy nem létező emberekhez generáljon arcképeket, ami a közösségi médiában megtévesztően hathat a felhasználókra. Az amerikai kongresszusban még a 2020-as választások előtt felvetődött ennek kérdése, Laurie A. Harris elemző arra hívta fel a figyelmet, hogy miután Oroszország bizonyítottan beavatkozott a 2016-os választásokba, számolni kell azzal, hogy a közösségi médiában nem létező emberek képével ellátott profilok okozhatnak veszélyt a nemzetbiztonságra, radikalizálhatják a fiatalokat.
A deepfake mellett már megjelent az úgynevezett shallowfake is, amely leginkább a felvétel ritmusát tudja megváltoztatni. Ennek esett áldozatául Nancy Pelosi amerikai házelnök is, akinél egy mozdulatot gyorsítottak fel, amelynek hatására úgy tűnt, mintha inzultálná egy képviselőtársát.
Lassú reakciók
A fenyegetések ellenére még nem léptek fel érdemben a deepfake terjedése ellen, leszámítva az Amerikai Egyesült Államokat, ahol tagállami szinten már most korlátozzák, állami szinten pedig kidolgozás alatt áll az erről szóló javaslat. Virginia állam az első, ahol törvény bünteti a beleegyezés nélküli deepfakepornó készítését. Texasban és Kaliforniában pedig a politikai tartalmú deepfake-ek ügyében hoztak szigorításokat: amíg az előbbi államban a választások befolyására szolgáló hamis videókat tiltották be, addig Kaliforniában arról hoztak döntést, hogy a deepfake-videók – akár politikai, akár pornográf – áldozatai kártérítést követelhetnek.
Arról, hogy az Európai Unióban és Magyarországon mikor várható valamilyen lépés erre a problémára, egyelőre nem tudni. Laptársunk felkereste kérdéseivel az illetékes Igazságügyi Minisztériumot, azonban cikkük megjelenésééig válasz nem érkezett.
Krekó Péter, a Political Capital dezinformációs szakértője szerint nem lehet kizárni azt sem, hogy egy Facebook-botrányhoz hasonló kaliberű skandalum kell a jogi szabályozás eléréséhez. Megjegyezte, hogy itthon egyelőre még nem kapcsolódott be a politikai kampányokba ez a technológia. „Igaz, a lehetőség adott, és valószínűleg nem is kell nagyon sokat várni rá” – mondta.
Ameddig nincs a lakosság számára elérhető, a hamisított felvételeket detektáló szoftver, addig csakis saját ítélőképességünkben bízhatunk. Nem árt alaposan utánanézni annak, honnan származik az információ, és amennyiben lehetetlen állításokat fogalmaznak meg egy-egy felvételen, érdemes több forrásból is meggyőződni annak igazságtartalmáról. A vélt kamuvideókon a szájmozgás helyessége mellett a szemek mozgását is érdemes megfigyelni – szakértők és filmes szakemberek szerint ugyanis ezeket a legnehezebb valósághűen manipulálni.
168.hu