Merre formálja a mesterséges intelligencia a társadalmainkat?

Szerző: Barta Judit
2022.05.21. 08:08

A webkorszak harmadik, ún. szemantikus szakaszába érve, amikor a Facebook helyett lassan átköltözünk a Metaverzum virtuális valóságába, és öntanuló (deep learning) gépek, az adatokat érteni képes, mesterséges intelligenciával felszerelt szemantikus weboldalak segítik a tájékozódásunkat, még fontosabbá válik a kérdés, hogy gépiesített, posztmodern, virtuális társadalmaink mennyiben fokozzák és talán mennyiben enyhíthetik a meglévő társadalmi egyenlőtlenségeket.

Merre formálja a mesterséges intelligencia a társadalmainkat?

A Kína-szerű társadalmi kreditendszer, az adatbányászattal megtámogatott hatékony profilírozás mind afelé mutatnak, hogy

a mesterséges intelligencia az államok társadalom feletti kontrollját erősíti fel korábban sose látott mértékben.

Eközben az Európai Unió is azon ügyködik (GDPR, Digitális Szolgáltatásokról szóló jogszabály és Digitális Piacokról szóló jogszabály), hogy a nagy technológiai cégek által használt algoritmusok minél átláthatóbbak legyenek, ezzel is segítve a társadalom önvédelmét legalább a profit-orientált cégek gépiesített kontrollja ellen.

„Ragadozó iparágak versenyeznek a szegények figyelméért: gyorshitelezők, kaszinók, profitorientált iskolák. A hatalom által preferált irányba mozgatnak minket” – hangzik el vészjóslóan a Coded bias című dokumentumfilmben, igaz, Amerika a szabályozás frontján állítólag a vadnyugat Európához képest.

A mesterséges intelligencia és a társadalom összefüggésének szempontjából három fő aktort érdemes megkülönböztetni:

  • azokat, akik a mesterséges intelligenciát fejlesztik (technológiai vállalatok, mint az Amazon, az IBM, vagy a Microsoft),
  • akik alkalmazzák,
  • és akik a jogi kereteket megszabják.

Az Európai Unió tekintetében ez utóbbi főképp az Európai Bizottság. Az alkalmazók körében még érdemes szétválasztani az államokat, amik főképp a megfigyelés, és társadalmi kontroll szempontjából jelentenek veszélyt, illetve a magáncégeket, amik manipulálnak, erősíthetik a meglévő társadalmi egyenlőtlenségeket és előszeretettel élnek vissza a felhasználók személyes adataival.

A mesterséges intelligencia (MI) tulajdonságai és a big data 

A mesterséges intelligencia egyik érdekes jellegzetessége, hogy egy egykori csúcstechnológia az idő elteltével rutinmegoldássá válik, és ekkor már nem is feltétlenül nevezzük mesterséges intelligenciának

– magyarázza Balogh Zsolt György, a Budapesti Corvinus Egyetem Informatikai Intézetének egyetemi docense, a Göttingeni Egyetem oktatója, aki végzettsége szerint programozó matematikus és jogász, és 1995-tól 2001-ig Majtényi László adatvédelmi biztos stábjában dolgozott.

Példának az optikai szövegfelismerést (OCR) hozza fel, aminek az volt a célja, hogy a számítógépet „megtanítsuk olvasni”, hogy aztán az eredetileg nyomtatásban álló szöveget a szkennelést követően elektronikus állományként kezelhessük.

Ma ez már szinte rutinmegoldás,

de kezdetben egy heurisztikus problémának indult, tehát rosszul vagy egyáltalán nem volt algoritmizálható.

A második fontos megkülönböztető jegye a MI-nak az ún. deep learning, azaz öntanuló algoritmusok, amelyeknek az alapjai évtizedek óta ismertek – emeli ki Balogh. A gépi tanulást legegyszerűbben az önvezető autókon lehet szemléltetni, amik közlekedés közben egyszerre figyelik a saját műszaki állapotukat, illetve a környezetüket (időjárás, útviszonyok, többi közlekedő), és egyre okosabbak lesznek.

A mesterséges intelligencia fontos hátránya, hogy a kis hibaszázalék is komoly bajt okoz. Ha például egy optikai szövegfelismerő 98 százalékos hatékonysággal működik, az másfél soronként két rontott karaktert jelent, ami azt jelenti, hogy „kifolyik a szemed, mire egy novellányi terjedelmű szöveg utólagos manuális hibaellenőrzését és javítását elvégzed”, magyarázza a Corvinus docense. 

Végül a harmadik fontos tulajdonsága a mesterséges intelligenciának, hogy

működésének, döntési folyamatainak a végkimenetele nem determinisztikus, hanem inkább véletlenszerű jelleget mutat.

A szövegszerkesztő viselkedése például determinisztikus, ezért ott nem beszélhetünk mesterséges intelligenciáról, hanem egy kiszámítható módon működő algoritmusról. Másképpen fogalmazva, ha egy kiinduló állapotból a kívánt végállapotba véges számú, jól meghatározott lépésben jutunk el – mint például a halászlé esetében, ahol paprika, hagyma, satöbbi kondérba öntésével eljutunk a halászléig –, akkor nem beszélünk mesterséges intelligenciáról.

Ellenben, ha a számítógépünket kreatív munkára használjuk, például adunk neki egy adatbázist hangmintákból és betápláljuk az összhangzattani szabályokat, majd ráindítunk egy algoritmust, hogy írjon egy szonátát, akkor már mesterséges intelligenciát alkalmazunk.

Ugyanakkor, hogy tovább bonyolítsuk a képet, a mesterséges intelligencia esetében az indeterminisztikusan működő algoritmusok is sok kicsi determinisztikus lépésekből állnak össze, tehát minden csak nézőpont kérdése.

Ami valójában új és a mesterséges intelligencia korábbinál hatékonyabb, megbízhatóbb döntésekben, megoldásokban, jobban működő szolgáltatásokban tetten érhető működésére vezetett – ezáltal a közfigyelmet is ráirányította a mesterséges intelligenciára –,

az a big data-n, tehát az óriási nem strukturált adattömegen alapuló újszerű gépi tanulási környezet,

ennek széleskörű elérhetővé válása, kiegészítve a számítógépek robosztus adatfeldolgozó kapacitásával. Ilyen nem strukturált adattömeg lehetnek például a Facebook-posztok, e-mailek, YouTube-videók, egyéb metaadatok, stb. 

Tendenciózus hibák és önkényes alkalmazás

Balogh szerint ha egy algoritmus elfogultan viselkedik, azért sokkal inkább a big data felelős, mint a programozók, hiszen az algoritmusok viszonylag bevett formulákat követnek.

Az egy adottság, hogy a társadalom szegmentált, és vannak kevésbé látható társadalmi csoportok. Arra a kérdésre, hogy a mesterséges intelligencia elfogultságai milyen társadalmi veszélyeket rejtenek, Balogh szerint nem szabad elfeledkezni az emberi döntésekre jellemző elfogultságokról sem, hiszen tökéletes objektivitásra még bírósági döntéseknél sem számíthatunk. A nemek közti elfogultságra tipikus példaként említi, kivételesen a nők javára, hogy a bontóperek legalább 70 százalékában a magyar bíróságok az anyáknak ítélik a gyermek feletti szülői felügyeleti jogot.

Ha robotbíró ítélkezne, akkor az esetek nagy számából tanulva, valószínűleg az is ezt a mintázatot követné.

A már említett Coded bias című dokumentumfilm főhőse Joy Buolamwini egy gánai–kanadai–amerikai informatikus, aki az MIT Média laborjának doktori kutatójaként szembesült azzal, hogy a piacon lévő arcfelismerő szoftverek nem detektálják az arcát, ám amikor egy fehér álarcot tett maga elé, akkor igen. Joy Buolamwini fekete és nő, míg az arcfelismerők algoritmusai főképp fehér férfiak fotóiból tanultak.

Ez a felfedezés a film kiindulópontja, s innen követhetjük végig a fiatal aktivista útját az Algoritmikus Igazság Liga megalapításától a kongresszusi meghallgatásáig, miközben további eseteket göngyölít fel és keres szövetségeseket, hogy felvegye a harcot a döntéshozó szoftverekben megjelenő előítéletek ellen.

Az egyik ügy, amin dolgozni kezd, egy zömében fekete és alacsonyabb státuszú lakóközösség életét megkeserítő, önkényesen bevezetett biometrikus arcfelismerő beléptető rendszer egy brooklyni bérházban. A tulaj a lakók beleegyezése nélkül szereltette fel a rendszert, összekötve azt a lakók személyes adataival (lakásszám, név, számlabefizetések),

amely az épületben található kamerákkal együtt már valóságos panoptikummá változtatta az otthonukat.

Időnként jegyzetekkel tarkított és a lakásszámukkal megjelölt fényképeket kaptak, amin kamerával rögzítve szerepeltek a tulaj szerinti szabályszegéseik, ha például nem megfelelően dobták ki a szelektív szemetet.

„Nem vagyok robot, nem vagyok állat, akkor miért kezelnek úgy? Nekem is vannak jogaim”

– fakadt ki az egyik idősebb lakó a filmben. A film egyik szakértője szerint az eset annyiban is tipikus (Buolamwini közbenjárására a rendszert leállították), hogy

Amerikában a legtolakodóbb, megfigyelésre épülő technológiákat először a szegényebb közösségekben próbálják ki, ahol az embereknek alacsonyabb a jogtudatossága.

Szexizmus és rasszizmus  

„A szegényeket büntetjük, a gazdagokat felemeljük, és az adattudomány ezt automatizálja. A mesterséges intelligencia növeli az egyenlőtlenséget, és ez a gyakorlat az interneten normalizálódik”  – hangzik el a Coded biasban.

Gyakori érve a mesterséges intelligencia apologétáinak, hogy

nem a nagy adatokon képzett algoritmusokkal van a gond, ha rasszistán vagy diszkriminatívan működnek, hiszen csak a meglévő társadalmat tükrözik, annak minden elfogultságával együtt.

Az idézett dokumentumfilmben szintén szereplő angliai Big Brother Watch információs jogvédő civil szervezet továbbra is az ellen kampányol, hogy a brit rendőrség nemcsak, hogy jogi alapot nélkülöző módon használ arcfelismerő kamerákat az utcákon, de 98 százalékban helytelenül azonosítja a többnyire fekete bőrű járókelőket körözött személyként.

Tehát a rendőrség rendszerszintű előítéletessége az új technológia szerves részévé vált.

Ráadásul törvénytelenül építenek adatbázist az arcképekből, ami a megfigyelő állam hatékony eszköze lehet. Magyarországon az okmánycseréknél szintén rögzítik a biometrikus adatainkat és valószínűsíthető, hogy jelenleg egy hasonló adatbázis kiépítése zajlik, amit még nem lehet tudni, hogy milyen célokra használnak majd fel.

Arcfelismerő rendszer bevezetése ellen tüntetnek Németországban „vegyétek ki az arcomat az adatbázisotokból!” felirattal még 2018-ban.

Arcfelismerő rendszer bevezetése ellen tüntetnek Németországban „vegyétek ki az arcomat az adatbázisotokból!” felirattal még 2018-ban.

Fotó: Endstation Jetzt / Flickr

Az Apple hitelkártyájának algoritmusára pedig 2019-ben rásütötték, hogy szexista, miután kiderült, hogy például Steve Wozniaknak, az Apple társalapítójának a felesége tizedannyi hitelkeretet kapott, mint ő. Tény, hogy ez a privilegizáltakat érintő nemi alapú diszkrimináció nem kiált azonnali jogvédelemért és az Apple-hitelkártya vásárlóinak valószínűleg meg is voltak az eszközeik, hogy orvosolják azt, de

az önéletrajzok gépi szortírozásában is gyakori jelenség a nőket vagy kisebbségeket diszkrimináló algoritmus.

Gépek és a jogi felelősség

Az algoritmizált döntések a szabálykövetésre, hatékonyságra és gyorsaságra optimalizálva nemcsak igazságtalanok lehetnek, hanem embertelenek is. A dokumentumfilmben említik, hogy Sztanyiszláv Petrov 1983-ban a orosz hadsereg katonájaként olyan jeleket látott, hogy az USA atomfegyvereket lőtt ki a Szovjetunióra. Egészen rövid idő állt a rendelkezésére, hogy reagáljon, de nem lépett, senkit sem tájékoztatott, arra gondolva, hogy legalább „mi nem öljük meg őket is”.

Egy gép, ami a válaszcsapásra lett volna programozva, nem lett volna képes rá, hogy ilyen humánus döntést hozzon.

Az algoritmusokra jellemző „tökéletes hatékonyság, állandó engedelmesség és a kötelező programkövetés nem mindig a legemberibb dolog”, kommentálja az egyik megszólaltatott szakértő a történetet.

A gépektől várható etikus döntés dilemmája nem újkeletű probléma, de a mesterséges intelligencia vetületében kifejezetten aktuális, magyarázza Balogh. Szerinte belátható időn, mintegy

200 éven belül nem jutunk el odáig, hogy a mesterséges intelligenciát jogalanynak, személynek, tehát a tetteiért felelősnek tekinthessük,

főképp, hogy a kognitív tudomány még az emberi intelligenciával kapcsolatban is csak sötétben tapogatózik. Éppen ezért is marad fontos a gépi döntések humán felülvizsgálata.

Ugyanakkor ez nem minden alkalmazásnál megoldható és olyankor korántsem egyértelmű, hogy ha kár keletkezik, akkor a mesterséges intelligencia fejlesztőjét vagy az a felhasználóját terheli-e a felelősség. Ő úgy véli, hogy a mesterséges intelligenciát veszélyes üzemnek kell minősíteni, hasonlóan a vasúti közlekedéshez.

Új biometrikus, arcfelismerő rendszerrel ellátott check-in pult az amerikai Delta légitársaságnál az atlantai reptéren még 2018-ból.

Új biometrikus, arcfelismerő rendszerrel ellátott check-in pult az amerikai Delta légitársaságnál az atlantai reptéren még 2018-ból.

Fotó: Chris Rank, Rank Studios / Delta News Hub (Flickr)

A társadalom is rosszul tekint a technológiára

Marshall McLuhan kanadai filozófus szerint csupán a technológiai analfabéták gondolják azt, hogy egy adott média esetében az számít, hogy miképp használjuk.

„Egy társadalom, amely csupán néhány árucikkre támaszkodik, ugyanúgy elfogadja azokat társadalmi kötelékként, mint a nagyváros a sajtót. A gyapot és az olaj ugyanúgy, mint a rádió és a tévé lesznek egy közösség teljes pszichés életének a »fix költségei«. És ez az általánosan érvényes tény hozza létre minden társadalom egyedi kulturális ízét, amelynek tagjai az orrukon és az összes többi érzékszervükön keresztül fizetnek minden egyes nyersanyagért, ami az életüket alakítja”

– írja McLuhan az A tömegmédiumok megértése: Az ember kiterjesztése című 1964-es klasszikusában, ami a médium maga az üzenet szállóigéről lett híres. Ezután gondolatában a híres pszichológust, Carl Jungot idézi. „Minden rómait rabszolgák vettek körül. A rabszolga és az ő pszichológiája elárasztotta az ókori Itáliát, és minden római a lelkében és persze akaratlanul rabszolga lett. Mert a rabszolgák állandó jelenlétében, a tudatalattijukon keresztül magukba szívták a rabszolgák pszichológiáját. Senki sem képes megvédeni magát az ilyen behatástól.”

Tehát, írja McLuhan,

emberi érzékszerveink, melyeknek minden egyes média a kiterjesztései, a személyes energiakészletünk szempontjából is fix költségeket képeznek és meghatározzák mindannyiunk érzékelését és tapasztalatát.

Az algoritmusoknak, amelyek szolgálnak minket, antropomorfizálásnak tűnhet pszichét tulajdonítani, mint ami képes megfertőzni minket a tudatalattinkon keresztül, ám Bruno Latour ANT-elméletének (Cselekvő hálózat) fényében – ami tudvalevőleg ellaposítja a különbséget a gépek és az ember között – nyugodtan ugorhatunk ekkorát.

Ha az algoritmusok „pszichéjét” automatizáltnak, parancsteljesítőnek, humánus belátásra képtelennek látjuk, az a társadalmunk lelke szempontjából nem ad okot az optimizmusra.

Ugyanakkor, McLuhan az automatizálás, s egyben a Gutenberg-galaxis meghaladásának a társadalmi hasznát épp abban látta, hogy az írás és könyvek által közvetített hideg racionalitás, lineáris gondolkodás egyeduralmát a multimédia környezetében átveszi egy totálisabb, az érzelmeket jobban mozgósító, testiesített (embodied) tapasztalás, ami az embereknek segíthet visszatalálni a természetesebb önkifejezéshez és autentikusabb egymáshoz kapcsolódáshoz.   

Virtuális játékokkal az előítéletek ellen?

Ennek a pozitív lehetőségnek az alátámasztására zárásként érdemes kiemelni a virtuális játékok alkalmazását rasszizmus és előítéletek kutatásában és azok relatív csökkentésében. Ezeknek épp az a lényege, hogy kvázi szimulálni lehet valós helyzeteket, viselkedéseket és az empátiát is jobban lehet erősíteni, mint hagyományos (racionális) edukálással.

Az MIT Informatikai és Mesterséges intelligencia laboratóriumának munkatársai 2020-ban továbbfejlesztettek egy korábbi videójáték szimulációt, ami lényegében egy kutatási kísérletként működött. A célja nem az volt, hogy megtanítsa, hogy mik a jó és mik a rossz válaszok egy rasszizált helyzetben, hanem hogy feltárja a pedagógusok rasszizmussal kapcsolatos tudását és attitűdjeit, és hogy segítsen a fekete bőrű diákoknak kezelni azokat a helyzeteket, amikor rasszista diszkriminációval találkoznak.

A játékban egy fehér tanár (Mrs. Smith) diszkriminatívan viselkedik egy fekete diákkal (Tiffany) szemben, konkrétan plagizálással vádolja, de a játékból kiderül, hogy a diák kitűnően tanul és a vád alaptalan. A játékos kiválasztja, hogy mely felkínált gondolatokkal tud a leginkább azonosulni, és hogy milyen verbális válaszokat, testnyelvet vagy gesztusokat szeretne kifejezni – ezek a kombinációk döntik el, hogy a történet hogyan alakul.

A kísérletből az derült ki, hogy amennyiben a játékosok „színvak” attitűddel rendelkeztek, akkor nem tudták helyesen értelmezni a rejtett rasszista jelentéseket.

Egy másik hasonló, érzékenyítő célú projekt volt 2018-ban a Stanford egyetem 1000 vágás útja. Ebben egy fejhallgatóval felszerelt játékos az interaktív játék virtuális valóságában belebújik egy fekete férfi, Michael Sterling bőrébe, majd a gyerekkori iskolai dresszúrázástól, a kamaszkori rendőri atrocitásokon át a fiatalkori munkahelyi diszkriminációig éli át a rasszizmus késszúrásait.

A harmadik szociálpszichológiai kutatási projekt szintén a Stanford egyetemen zajlott még 2006-ban. Ennek a címe az volt, hogy Sétálj egy mérföldet digitális cipőben. Ez azon a hipotézisen alapult, hogy

a virtuális valóságba lehetővé tett testiesített tapasztalalás (embodied experience) hatékonyabb módszer egy másik ember nézőpontjának a felvételére, mintha pusztán megkérjük, hogy képzelje bele magát egy másik személy helyzetébe.

A kutatás során azt találták, hogy azoknak a résztvevőknek, akik idősek avatárjaiba léptek be, szignifikánsan erősebben csökkent az idősekkel szembeni előzetes előítélete, mint azoké, akiket fiatal avatárokba helyeztek. Noha ezek a kutatási projektek biztatóak, az európai kontextus sok szempontból különbözik az amerikaitól.

Ami ugyanakkor jó fejlemény, hogy az Európai Bizottság legalább a cégek szintjén a mesterséges intelligencia transzparens alkalmazásának az irányába tett és remélhetőleg fog tenni komoly és nemzetközi szinten is példaértékű lépéseket.

Hogyan működnek az arcfelismerő rendszerek és mi a probléma velük? Utánajártunk! Milyen problémákat okoz a társadalomban a deepfake technológia? Annak is!

NYITÓKÉP: Tumisu / Pixabay

Barta Judit
Barta Judit vendégszerző

Barta Judit (PhD) szociológus és angol szakos bölcsész a McDaniel College Budapest és a Budapesti Metropolitan Egyetem Kommunikációtudományi intézetének megbízott oktatója, valamint fordító. Érdeklődési területe a digitális technológia és az újságírás viszonya.

olvass még a szerzőtől

Tetszett a cikk?

Az Azonnali hírlevele

Nem linkgyűjtemény. Olvasmány. A Reggeli fekete hétfőn, szerdán és pénteken jön, még reggel hét előtt – tíz baristából kilenc ezt ajánlja a kávéhoz!

Feliratkozásoddal elfogadod az adatkezelési szabályzatot.

Kommentek