A Google kutatói megakadályozzák, hogy diszkrimináljon az MI

2016. október 13. 11:30

Egy-egy érzékeny paraméter nem várt és nem kívánt előrejelzéseket hozhat. A Google nem politikai korrektségből, hanem pontosabb kimenetek miatt dolgozott ki a problémát hatékonyan kezelő megoldást.

2016. október 13. 11:30
Devin Coldewey
TechCrunch

„Szemét be, szemét ki – mindig ez volt az informatika törvénye, és a gépi tanulás sem kivétel. A kezdetleges MI-k csak azt tudják, amit mondunk nekik, és ha az adatokban akármilyen elfogultság van, a rendszert is megtanítjuk rá. A Google figyel, hogy az »Esélyegyenlőség« módszerrel elkerülje ezeket a kellemetlen és potenciálisan súlyos következményekkel járó szituációkat.

A gépitanulás-rendszerek alapvetően különféle adatsorok jellegzetességeit megtanuló előrejelző gépek. Új adatdarabot adunk nekik, amit több kategória közül kell egyhez rendelniük: egy képfelismerő rendszer minden egyes képhez »szedán«, »teherautó«, »busz« stb. címkét társítva tanulhatja meg a különféle gépjárművek közti különbséget.

Elkerülhetetlenek a hibák, képzeljünk csak el egy BRAT-t vagy El Camino-t – akármit is dönt a számítógép, téved, mert nincs elég adata ezekről az alulreprezentált járműtípusokról.

A tévedés következményei látszatra banálisak, de mi van, ha a komputer járművek helyett emberek közül válogat, és a kategorizálással például egy lakásbérlet alapfeltételeit kockáztatja? A közös paraméterekbe nem passzoló személyek aránytalan mértében távolodnak el a rendszer által az adatsor többi része alapján jónak megtanulttól. Pontosan így működnek a gépitanulás-rendszerek.

»Ha egy csoporthoz tartozás érzékeny tulajdonságokkal, például bőrszín, nem, fogyatékosság vagy vallás esik egybe, a szituáció igazságtalan vagy előítéletes kimenetekhez vezethet. Annak ellenére sincs az e tulajdonságokon alapuló negatív megkülönböztetést megelőző gépitanulás-módszer, hogy szükség lenne rá« – írta egy blogposztban Moritz Hardt (Google Brain).

Hardt és két kollégája tanulmányban fejtette ki, hogy hogyan kerülhetők el ezek a kimenetek. Lényege, hogy ha létezik kívánatos kimenet, amit e tulajdonságok valamelyike tévesen befolyásolhat, és ezért valaki nem érheti el, az algoritmus úgy módosít magán, hogy legyenek az adott tulajdonságot figyelmen kívül hagyó kimenetek is. Úgy gyakoroltatjuk, hogy egyenlőséget tegyen a nem-releváns tulajdonságok között.

Nem politikai korrektségről van szó, hanem arról, hogy így sokkal pontosabb az előrejelzés. Ha pedig e tulajdonságok valamelyike számít (például, ha ki akarjuk következtetni, hogy lakókörnyezete alapján milyen valláshoz tartozik valaki, vagy ha nemtől függő orvosi előrejelzést végzünk) egyszerűen betesszük az algoritmusba.

Figyelembe véve, hogy a gépi tanulás milyen gyorsan ért el sok iparágat, a Google törekvése megfontolt és követendő. Fontos, hogy ismerjük az új technológiák korlátait és a velük járó kockázatokat. Az említett probléma ugyan aprónak tűnik, de mégis fontos.”

az eredeti, teljes írást itt olvashatja el Navigálás

Összesen 0 komment

A kommentek nem szerkesztett tartalmak, tartalmuk a szerzőjük álláspontját tükrözi. Mielőtt hozzászólna, kérjük, olvassa el a kommentszabályzatot.
Sorrend:
Jelenleg csak a hozzászólások egy kis részét látja. Hozzászóláshoz és a további kommentek megtekintéséhez lépjen be, vagy regisztráljon!