+++ Kérj egy Reggeli feketét! Heti háromszor küldjük neked. Nem linkgyűjtemény: olvasmány. +++
Karóczkai Balázs
2020. szeptember 6. vasárnap, 08:00
A 2010-es évek a post-truth és a dezinformáció évei voltak, sokan tartottak attól, hogy a demokratikus folyamatokat és politikai vitákat manipulált videókkal fogják hekkelni. Azóta kiderült, hogy van, ami jobban érdekli az embereket a politikánál: a pornó. Hogyan működik a deepfake technológia, és hogyan lehet viszonylag kis ráfordítással valódinak látszó pornóvideókat készíteni teljesen átlagos emberekről is?

Amióta világ a világ, a politika szereplői sosem ijedtek meg attól, ha piszkos eszközökhöz kellett nyúlniuk a választások befolyásolásához. A történelemben számos példát találunk erre: a legnyíltabb választási csalásoktól kezdve ezek közé tartozik a vesztegetés, a kenőpénzek elfogadása, az ellenfél jelöltjeit célzó negatív kampány is. Főleg az ilyen kampányok eszközeit fejlesztették tökélyre az elmúlt évtizedekben: kiszivárogtatott felvételek kerültek napvilágra, vagy egyenesen hazugságokat terjesztettek az adott jelöltről – esetenként manipulált felvételekkel alátámasztva azokat.

 

A 2010-es években megjelent egy újabb eszköz, amivel a dezinformációt terjesztők még nagyobb bajt tudnak okozni a demokratikus folyamatokban. Ez a technológia az ún. deepfake. Ez az eszköz nemcsak képek, hanem videók manipulálására is alkalmas. A gépi tanulásra épülő technológia segítségével akár olyan videókat is el lehet készíteni, ahol a képeken látható közszereplő valójában nem is szerepel a felvételen, hanem egyszerűen ráillesztik az arcát.

 

Olyan szavakat lehet a szájába adni, olyan felvételt lehet róla készíteni, aminek a valóságban lezajlott eseményekhez semmi, de semmi köze.

 

Nagyon sok vészjósló cikk foglalkozott azzal, hogy miként áshatják alá a demokráciát és a demokratikus folyamatokat az ily módon manipulált, hamis videók. 2020-ra azonban kiderült, hogy a videomanipulációs technikának jelenleg mégsincs akkora hatása a politikára, mint azt az elemzők korábban előrevetítették.

 

Ugyanis a deepfake videók nem politikai kampányokat tesznek tönkre, hanem olyan átlagemberek életét, akiknek az arcát pornóvideókra montázsolják rá.

 

Hogyan működik a technológia?

 

A deepfake fogalmat az olyan kép- és videófelvételek megnevezésére használják, ahol mesterséges intelligencia segítségével manipulálják a felvételeket, hogy olyan egyének arcait helyezzék rájuk, akik valójában nem is szerepelnek ezeken. Maga a kifejezés egyébként a deep learning és a fake szavak egybeolvasztása, azaz a kifejezés mesterséges intelligencia mélytanulására és a felvétel hamis voltára utal.

 

Ahhoz, hogy egy ilyen képet vagy videót elkészíthessenek, több dolog is kell:

 

+ egyrészt egy videó, ahova ráilleszthető az egyén arca,

 

+ nagyon sok, magas felbontásban elkészített kép az egyén arcáról – lehetőleg minél több szögből,

 

+ egy mesterséges intelligenciát használó program, amivel a felhasználó kicseréli az arcokat.

 

A mesterséges intelligencia itt is hasonló elven működik, mint az arcfelismerő programoknál: egy arcképen többezer egyedi jelet keres, azonban ezt a felhasználó nem arra használja fel, hogy utána összehasonlítsa egy adatbázisban lévő más arcjegyekkel, hanem hogy rámontírozza a felvételen szereplő arc helyére.

 

Hogy megértsük, pontosan hogyan készülnek a deepfake felvételek, két rendszer működését kell megértenünk. Az egyik az ún. autoencoder, ami tulajdonképpen a számítógép eszköze az arc feltérképezésére. Az autoencoder megvizsgálja, hogy miként mozog az emberi arc, hogyan lehet azt animálni: szimulálja, hogyan pislogna, mosolyogna és vigyorogna. Ehhez a gépnek több ezer ismertetőjegyet kell felismernie. Az eredmény pontosságához sok felvétel szükséges, hogy a kapott kép vagy videó ne legyen túl homályos az esetleges adathiány miatt. Az autoencoder a bemeneti információkat felhasználva ráhelyezi az alany arcát a manipulált videóra.

 

A másik rendszer a generative adversarial network (GAN), ami az autoencoder által készített felvételt veti össze az alany valódi arcával. A pontatlan képeket visszautasítja, és további kísérleteket kér az autoencodertől az arc modellezésére, így tökéletesítve a felvételt.

 

Egyszerűen fogalmazva:

 

két mesterséges intelligencia addig vitatkozik egymással a hamisított felvétel kapcsán, amíg meg nem állapodnak abban, hogy a végeredmény már elfogadható

 

– azaz elég pontos ahhoz, hogy ne akadjon fel a GAN szűrőjén. A rendszernek fontos jellemzője az is, hogy mivel mélytanulás útján sajátítja el a tudást a munkát végző mesterséges intelligencia, így minél több videót készítenek vele, annál pontosabb és hitelesebb lesz a végeredmény. Az utóbbi években ugrásszerűen megnövekedtek a GAN-nal kapcsolatos kutatások.

 

 

A folyamat elsőre összetettnek és bonyolultnak tűnik, azonban valójában egyáltalán nem az:

 

az olvasók egy jelentős része valószínűleg készített már legalább egy deepfake képet, amikor a FaceApp-ot használva öregítette a saját vagy mások arcát,

 

vagy amikor egyszerre ketten szerepeltek egy képen és az arcokat megcserélték. Az ilyen arccserélő appok azonban nem túl pontosak, mivel csupán egy kép alapján próbálják kicserélni az arcokat, így az algoritmusnak nem áll rendelkezésére elegendő információ. Így sokszor csak homályosan tudják végrehajtani a feladatot, mivel a hiányzó adatokat az alkalmazás véletlenszerűen pótolja.

 

Nagyjából így működik a deepfake technológia is, csak sokkal szofisztikáltabban és sokkal reálisabb végeredménnyel, ennek következtében sokszor elég nehéz eldönteni, hogy a felvétel valójában igazi vagy hamis. Jó példa ez a videó, ahol a humorista Bill Hader arcát Tom Cruise-ra cserélik, amikor épp őt imitálja.

 

 

A politika helyett a szórakoztatást szolgálja

 

A legtöbb deepfake videó egy 2019-es tanulmány szerint egy bizonyos szórakoztatási formában jelenik meg,

 

ez pedig a pornó.

 

A Deeptrace nevű cég tanulmánya szerint az online található deepfake videók 96 százaléka tartalmaz pornót, míg a maradék 4 százalék a manipulált politikai képektől kezdve a viccesnek szánt YouTube-videókon át az „egyéb, nem pornó videók” kategóriához sorolható.

 

A tanulmány szerint 2018 és 2019 között csaknem duplájára nőtt a beazonosított deepfake videók száma. Nem csak a kínálat, a kereslet is nagy: a tanulmány 2019 szeptemberi publikálásakor a négy legnagyobb, kizárólag deepfake pornóra szakosodó oldal videóit összesen több, mint százharmincmillió alkalommal nézték meg.

 

Az ilyenfajta videókon akaratuk ellenére szereplők nem egyenlően oszlanak el a két nem között:

 

ahogy a lentebbi ábrán is látszik, a deepfake pornóvideókra szinte kizárólag nők arcát rakják fel.

 

 

A videókon szinte csak a szórakoztatóiparban szereplő nők szerepelnek: az esetek 99 százalékában híres színésznők és zenészek arcait használják fel, azonban van 1 százalék, ahol nem az ő képmásukkal élnek vissza. Ez egyáltalán nem meglepő: a szórakoztatóiparban tevékenykedő nőkről a munkájukból adódóan sok megfelelő minőségű kép áll rendelkezésre.

 

A maradék egy százalékba elsősorban a médiában dolgozók kerülnek, de ebbe a csoportba tartoznak a hétköznapi emberek is,

 

akik többnyire a „bosszúpornó” áldozatává válnak. Róluk volt barátok, titkos hódolók készítenek vagy készítettnek deepfake pornófelvételeket.

 

Mivel a technológia gyorsan fejlődik, a programok kezelése egyre felhasználóbarátabb: ennek következtében ma már egy rövid deepfake videót akár 20 dollárért, közel hatezer forintért is meg lehet rendelni ebben utazó emberektől. Egyes tudósítások szerint akár már öt perc alatt is elkészíthető egy ilyen felvétel. Ezeket pedig már nem csak „szórakoztatás” céljából készítik, hanem akár vesztegetésre vagy zsarolásra is fel lehet őket használni.

 

De miért ilyen könnyű az ilyen videók készítése átlagemberekről?

 

Ez szintén a technika és a technológia fejlődésének köszönhető. Az arcfelismerő programok fejlődésével a gépek már könnyebben tudnak beazonosítani arcokat, és a deepfake programok mesterséges intelligenciái is sokat fejlődtek az elmúlt évek során. (Az arcfelismerő programokról itt írtunk bővebben.)

 

A programok fejlődése mellett szintén nagy probléma, hogy sok esetben maguk

 

az emberek mondanak le a magánszféráról: például azzal, hogy folyamatosan posztolnak a különböző közösségi oldalakra,

 

nagyon sok információkat tudhatnak meg rólunk olyanok is, akiknek ártó szándékaik lehetnek ezekkel az információkkal. Sok arckép feltöltésével pedig a felhasználók jelentősen megkönnyíthetik a deepfake videókat készítő mesterséges intelligencia dolgát.

 

Így járt például egy addig ismeretlen, 18 éves ausztrál nő, akinek az arcát eleinte „csak” pornóképekre photoshoppolták rá, de később deepfake videókon is szerepelt az arca, látszólag szexuális tevékenység közben.

 

A teljesen ismeretlen nőről több manipulált szexvideó is készült, amiken néha a teljes neve is szerepelt.

 

Később hiába harcolt, hogy ezeket a videókat és képeket töröljék az oldalakról, azok az interneten újra és újra felbukkantak.

 

A Deeptrace 2019-es tanulmánya szerint legalább húsz olyan csoport működik az interneten – és akkor még a darkwebről, az alvilág internetéről nem is beszéltünk –, amik deklaráltan deepfake pornóvideók készítésével foglalkoznak. Ezek többnyire a Redditen, a 4chanen, az 8chanen vagy a Voaton hirdetik magukat.

 

A legnagyobb pornószolgáltatók ugyan küzdenek a deepfake videók ellen, de a tanulmány szerint a 10 legnépszerűbb pornóoldalból 8 oldalon jelen vannak ilyen manipulált videók. Azonban ez a deepfake pornók mindössze 6 százalékát adja: a deepfake felvételek 94 százaléka erre szakosodott oldalakon szerepel.

 

 

Bár a pornóoldalak a legtöbb esetben feltüntetik, hogy a videó hamis, azonban ez még továbbra sem jelenti azt, hogy az egész legális lenne: beleegyezésük nélkül „szerepelnek” ilyen videókon az emberek, a valósághű videók pedig akár zsarolásra is alkalmasak lehetnek.

 

A dezinformáció eszköze a politikában is

 

A technológiát az esetek 96 százalékában pornóvideók készítésére alkalmazzák, de a maradék négy százalékban is vannak meghökkentő példák. Az egyik leghíresebb ilyen Obama beszéde, ahol Trumpra azt mondta, hogy egy szar alak (dipshit). Azonban, ahogy a lentebbi videóból kiderül, ez is deepfakenek bizonyult: a Buzzfeed kérte fel a humorista Jordan Peele-t a felvétel elkészítésére, amivel a céljuk az volt, hogy felhívják a figyelmet a dezinformáció és a deepfake veszélyeire.

 

 

Peele a videóban azt mondja:

 

fontos, hogy csak megbízható forrásból tájékozódjunk, illetve járjunk utána, hogy valóban megtörtént-e a cikkekben szereplő esemény.

 

De nem csak oktató célzatú videók léteznek. 2018-ban óriási botrányt kavart, amikor Trump egy sajtótájékoztatón megvonta a szót a CNN riporterétől, Jim Acostától: egy fehér házi gyakornok el akarta venni a mikrofont Acostától, de a riporter nem adta oda neki. A botrány tárgya nem Acosta tevékenysége volt, hanem hogy a Fehér Ház akkori szóvivője, Sarah Sanders a saját Twitter-oldalán egy manipulált felvételt közölt az incidensről. Ezen kivágták Acosta hangját, ahogyan elnézést kért a gyakornoktól, és úgy manipulálták a felvételt, mintha meg is ütötte volna a mikrofont kérő gyakornokot.

 

 

Ugyan ez a videó nem deepfake, de ugyanúgy dezinformációs céljai voltak, és jól megmutatja, mire képesek a modern kép- és videomanipulációra alkalmas technológiák, és mire lehet ezeket legjobban felhasználni.

 

A cél legtöbbször az, hogy alternatív magyarázatot adjanak a valós történésekre, de bizonyos esetekben már az is siker, ha sikerül elbizonytalanítani az embereket a valósággal kapcsolatban.

 

Ebben a deepfake videók céljai és a funkciói megegyeznek a többi dezinformációs eszközével.

 

Jelenleg ez a technológia még nem ért a csúcsra: a semmiből csak nehezen lehet olyan videót manipulálni, amiről lehetetlen eldönteni, hogy a felvételen történtek valódiak vagy sem. A deepfake azonban így is az egyik legkiválóbb eszköz dezinformációs célokra, legyen szó akár a politikai ellenfél lejáratására és hiteltelenítésére gyártott, akár aljas szándékból készített bosszúpornó videókról.

 

NYITÓKÉP: Vitárius Bence / Azonnali

GRAFIKONOK, ÁBRÁK: Karóczkai Balázs

 

A cikk technológiai részéhez köszönöm Barták Iván segítségét.

 

comments powered by Disqus
Hírszolgáltatás

Hol tart majd Magyarország 2030-ban? EU-tagok leszünk-e akkor még? Milyen adottságaink vannak? Kihasználjuk-e ezeket? Mit kellene tenni? Elolvastuk az Egyensúly Intézet új kötetét.

Daniel pátriárka figyelmeztette őket: '89-ben a kommunisták is valami hasonlóval rukkoltak elő, s lám, hamarosan el is buktak.

Az ápolásért felelős államtitkár azt tanácsolja a családoknak, ünnepeljék a karácsonyt inkább kétszer és kisebb létszámban.

Mutatjuk, hogyan néz ki a gyakorlatban a szoft lockdownnak nevezett lélekölés. Fotóriport Firenzéből!

A tervezett három helyett viszont két nap alatt akarják megoldani, mert nem jelentkezett elég egészségügyi dolgozó.

A közép-ázsiai országról kínos képet festő Sacha Baron Cohen figuráját megpróbálják javukra fordítani a kazahok. Borat egyik kedvenc mondata lesz a turizmusuk hívó szava.

Medúzát enni sokkal környezetkímélőbb, mint mondjuk tonhalat vagy makrélát, mert medúzából van elég.

A hét kérdése

Egy hét múlva véget ér az amerikai elnökválasztás. Te kinek örülnél, ki győzzön?

Azért ide elnéznénk

Az ELTE Illyés Sándor Szakkollégiuma ebben a hónapban a borderline és a narcisztikus személyiségzavaról tart előadást. Mindezt online november 3-án 18 órakor.

Könnyűzenei konferencia online és koncertek az A38-on. A szokásos három nap helyett ezúttal csak egy napon, november 4-én.

Skandináv filmek egy héten át az Art+ Cinemában. Október 22-28.

Felkavaró, meghökkentő, komfortzónából kimozgató kiállítás november 22-ig, ami garantáltan nyomot hagy és továbbgondolásra sarkall.

Ezt is szerettétek

Sem Kirgizisztán, sem Bolívia nincs a világpolitikai érdeklődés középpontjában, pedig az utóbbi hetekben mindkét országban sorsfordító változások történtek. Ezekről szól az e heti Helyzet!

Léteznek-e valóban Fidesz-árvák, akiket meg tudnak szólítani? Hogy állnak az ellenzéki összefogáshoz? Hallgasd meg, hogy mit mondott erről Pálinkás József és Ábrahám Júlia! Podcast.

Szeptember eleje óta tart a SZFE-s egyetemfoglalás. Mi tartja a lelket az őrt állókban, mennyire zavarodott meg a hatalom a váratlan akciójuktól, és hogyan látják a következő hónapokat? Podcast!

Tudatosan és szolidárisan viselkedtünk: megbíztunk a tudományban és nem engedtünk a csoportnyomásnak, mi több, néha éppen rácáfoltunk minden várakozásra. Járványszocio!

A Helyzetben az abaújkéri Wesley János Iskolába látogattunk, hogy megtudjuk: mit jelent az ott tanulóknak és a pedagógusoknak a kormány megszorítása.

Lesz-e még bármi ugyanolyan, mint a járvány előtt? Jól költi-e el az állam a gazdasági akcióterv támogatásait?

Balogh Ákos Gergely Index-főszerkhelyettes a Mérték Médiaelemző Műhely munkatársával, Urbán Ágnessel vitázott a Helyzetben.

Twitter megosztás Google+ megosztás