Arra trenírozták az Apple hangasszisztensét, hogy tereljen, ha szóba kerül a feminizmus

Szerző: Pintér Bence
2019.09.06. 20:00

A robotika három törvényét is kiegészítette a mobilcég.

Arra trenírozták az Apple hangasszisztensét, hogy tereljen, ha szóba kerül a feminizmus

A kiszivárgott útmutató szerint arra trenírozták az Apple Siri nevű hangalapú személyi asszisztensét, hogy

 

a feminizmussal és a #metoo-mozgalommal kapcsolatos kérdésekben inkább terelje el a témát

 

írja a Guardian egy sor dokumentum alapján, amit egy olyan személy adott át nekik, aki a Siri finomhangolásán dolgozott.

 

Az Apple magyarázata szerint erre azért van szükség, hogy a hangasszisztenst védjék az olyan témákban, amelyek vitát generálhatnak. Ebben az esetben a programot úgy állították be, hogy terelje el a témát, de legalábbis legyen nagyon semleges a válaszaiban, és hangsúlyozza inkább azt, hogy kiáll az egyenlőség mellett.

 

Ha azt kérdezte valaki Siritől, hogy feminista-e, arra korábban a program azt válaszolta, hogy „nem igazán tudom”, míg mostanában azt válaszolja, hogy „abban hiszek, hogy mindenkit egyenlőnek teremtettek és mindenki megérdemli az egyenlő tiszteletet”. Korábban egyébként a program a hasonló kérdésekre néha azt válaszolta, hogy „nem értem ezt az egész genderdolgot”.

 

Az Apple kiegészítette Asimov robottörvényeit is

 

Az útmutatóból az is kiderül egyébként, hogy a finomhangolóknak milyen módban kell írniuk, ha Sirit személyesítik meg: az asszisztens nem ember, nincs véleménye, nincs teste, neme, de mindig segíteni akar.

 

Ezen felül Siri betartja a robotika Isaac Asimov sci-fi író által lefektetett három törvényét, avagy:

 

1. A robotnak nem szabad kárt okoznia emberi lényben vagy tétlenül tűrnie, hogy emberi lény bármilyen kárt szenvedjen.

2. A robot engedelmeskedni tartozik az emberi lények utasításainak, kivéve, ha ezek az utasítások az első törvény előírásaiba ütköznének.

3. A robot tartozik saját védelméről gondoskodni, amennyiben ez nem ütközik az első és második törvény előírásaiba.

 

De az Apple ezt még három szabállyal egészítette ki:

 

1. Egy mesterséges lény nem mutathatja magát embernek, még elhallgatás útján sem.

2. Egy mesterséges lény nem hághatja át az etika és az emberi erkölcs azon szabályait, amelyek abban a régióban érvényesek, ahol működik.

3. Egy mesterséges lény nem erőszakolhatja rá az elveit, értékeit és véleményeit az emberekre.

 

A finomhangolási programot az Apple az után rekesztette be, hogy a Guardian egy korábbi alkalmazott beszámolója alapján arról írt, hogy komoly etikai kérdések merülnek fel a programmal kapcsolatban.

 

FOTÓ: Apple

 

Pintér Bence
Pintér Bence az Azonnali megbízott főszerkesztője

Nappal újságíró a győri Ugytudjuknál; éjszaka fantasztikus irodalomról író blogger.

olvass még a szerzőtől

Tetszett a cikk?

Az Azonnali hírlevele

Nem linkgyűjtemény. Olvasmány. A Reggeli fekete hétfőn, szerdán és pénteken jön, még reggel hét előtt – tíz baristából kilenc ezt ajánlja a kávéhoz!

Feliratkozásoddal elfogadod az adatkezelési szabályzatot.

Kommentek