A mesterséges intelligencia képességei exponenciálisan bővülnek, az AI-t ma már a reklámtól az orvosi kutatásig használják az iparban. Az AI használata érzékenyebb területeken, mint például az arcfelismerő szoftverek, algoritmusok bérbeadása és az egészségügyi ellátás, vitát váltott ki az elfogultságról és a méltányosságról.

A torzítás az emberi pszichológia jól kutatott aspektusa. A kutatások rendszeresen feltárják tudattalan preferenciáinkat és előítéleteinket, és most azt látjuk, hogy az AI ezeknek a torzításoknak az egyikét tükrözi algoritmusaikban.

Szóval, hogyan lesz elfogult a mesterséges intelligencia? És miért számít ez?

Hogyan válik az AI elfogultá?

Az egyszerűség kedvéért ebben a cikkben hivatkozunk erre gépi tanulás és mély tanulás algoritmusok, mint AI algoritmusok vagy rendszerek.

A kutatók és fejlesztők kétféleképpen vezethetik be az AI-rendszerek elfogultságát.

Először is, a kutatók kognitív torzításai véletlenül beágyazódhatnak a gépi tanulási algoritmusokba. A kognitív torzítások az öntudatlan emberi felfogások, amelyek befolyásolhatják az emberek döntéseit. Ez akkor válik jelentős kérdéssé, amikor az elfogultság emberekre vagy embercsoportokra vonatkozik, és károsíthatja ezeket az embereket.

instagram viewer

Ezeket az elfogultságokat közvetlenül, de véletlenül is be lehet vezetni, vagy a kutatók az AI-t olyan adatkészleteken képezhetik ki, amelyeket maguk is elfogultság érintettek. Például egy arcfelismerő AI-t ki lehet tanítani olyan adatkészlet segítségével, amely csak világos bőrű arcokat tartalmaz. Ebben az esetben az AI jobban fog teljesíteni, ha világos bőrű arcokkal foglalkozik, mint a sötét. Az AI-torzítás ezen formája negatív örökségként ismert.

Másodszor, torzítások merülhetnek fel, ha az AI-t hiányos adatkészletekre oktatják. Például, ha egy mesterséges intelligenciát olyan adatkészletre képeznek ki, amely csak informatikusokat tartalmaz, akkor az nem fogja képviselni a teljes populációt. Ez olyan algoritmusokhoz vezet, amelyek nem adnak pontos előrejelzést.

Példák a valós világ AI elfogultságára

A közelmúltban számos, jól közölt példa volt az AI elfogultságára szemléltesse a veszélyt hogy ezek az elfogultságok be tudnak kúszni.

Amerikai alapú egészségügyi prioritások

2019-ben egy gépi tanulási algoritmust fejlesztettek ki, amely segít a kórházaknak és a biztosító társaságoknak meghatározni, hogy mely betegek részesüljenek a legtöbb előnyben bizonyos egészségügyi programokból. Körülbelül 200 millió embert tartalmazó adatbázis alapján az algoritmus a fehér betegeket részesítette előnyben a fekete betegekkel szemben.

Megállapítást nyert, hogy ennek oka az algoritmus hibás feltételezése volt a fekete-fehér emberek közötti egészségügyi ellátás különböző költségeiről, és az elfogultság végül 80% -kal csökkent.

COMPAS

A korrekciós bűncselekmény-menedzsment profilozása az alternatív szankciókhoz (COMPAS) egy AI-algoritmus volt, amelynek célja annak megjósolása, hogy egyes emberek megsértik-e újra. Az algoritmus kétszer hamis pozitív eredményt produkált a fekete bűnelkövetőknél, összehasonlítva a fehér bűnelkövetőkkel. Ebben az esetben mind az adatkészlet, mind a modell hibás volt, ami súlyos elfogultságot vezetett be.

amazon

A felvételi algoritmus, amelyet az Amazon használ a pályázók alkalmasságának megállapításához, 2015-ben kiderült, hogy a férfiakat előnyben részesíti a nőkkel szemben. Ennek oka az volt, hogy az adatkészlet szinte kizárólag férfiakat és önéletrajzukat tartalmazta, mivel az Amazon legtöbb alkalmazottja férfi.

Hogyan lehet megállítani az AI elfogultságot

Az AI máris forradalmasítja a munkánkat minden iparág. Az érzékeny döntéshozatali folyamatokat irányító elfogult rendszerek kevésbé kívánatosak. Legjobb esetben csökkenti az AI-alapú kutatás minőségét. Legrosszabb esetben aktívan károsítja a kisebbségi csoportokat.

Vannak példák a már használt AI algoritmusokra segíti az emberi döntéshozatalt az emberi kognitív torzítások hatásának csökkentésével. A gépi tanulási algoritmusok kiképzése miatt pontosabbak és kevésbé elfogultak lehetnek, mint az azonos helyzetben lévő emberek, így igazságosabb döntéshozatalhoz vezetnek.

De mint megmutattuk, ennek az ellenkezője is igaz. Az emberi elfogultságoknak az AI által történő beépítésének és felerősítésének kockázata meghaladja a lehetséges előnyök egy részét.

A nap végén, Az AI csak olyan jó, mint az adatok, amelyekkel edzettek. Az elfogulatlan algoritmusok fejlesztése az adatkészletek átfogó és alapos előzetes elemzését igényli, biztosítva, hogy az adatok mentesek legyenek implicit torzításoktól. Ez nehezebb, mint amilyennek hangzik, mert oly sok elfogultságunk eszméletlen és gyakran nehéz beazonosítani.

Kihívások az AI elfogultságának megakadályozásában

Az AI rendszerek fejlesztése során minden lépést fel kell mérni, hogy képes-e elfogultságot beépíteni az algoritmusba. Az elfogultság megelőzésének egyik fő tényezője annak biztosítása, hogy az elfogultság helyett a méltányosság „beleforrjon” az algoritmusba.

A tisztesség meghatározása

A méltányosság egy olyan fogalom, amelyet viszonylag nehéz meghatározni. Valójában ez egy olyan vita, amely soha nem jutott konszenzusra. A dolgok még nehezebbé tétele érdekében az AI rendszerek fejlesztésekor matematikailag meg kell határozni a méltányosság fogalmát.

Például az Amazon bérbeadási algoritmusát tekintve a tisztesség úgy néz ki, mint egy tökéletes 50/50 arányú férfi és női munkavállaló? Vagy más arány?

A funkció meghatározása

Az AI fejlesztésének első lépése annak meghatározása, hogy pontosan mit fog elérni. Ha a COMPAS példát használnánk, az algoritmus megjósolná a bűnözők újbóli elkövetésének valószínűségét. Ezután meg kell határozni a tiszta adatbevitelt, hogy az algoritmus működhessen. Ehhez szükség lehet olyan fontos változók meghatározására, mint például a korábbi bűncselekmények száma vagy az elkövetett bűncselekmények típusa.

Ezeknek a változóknak a meghatározása nehéz, de fontos lépés az algoritmus igazságosságának biztosításában.

Az adatkészlet elkészítése

Amint kitértünk rá, az AI-torzítás egyik fő oka a hiányos, nem reprezentatív vagy elfogult adat. Az arcfelismerés AI esetéhez hasonlóan a bemeneti adatokat is alaposan ellenőrizni kell az elfogultság, a megfelelőség és a teljesség szempontjából a gépi tanulási folyamat előtt.

Attribútumok kiválasztása

Az algoritmusokban bizonyos attribútumok figyelembe vehetők vagy sem. Az attribútumok lehetnek nemek, fajok vagy iskolai végzettség - alapvetően bármi, ami fontos lehet az algoritmus feladata szempontjából. Attól függően, hogy mely attribútumokat választják, az algoritmus prediktív pontossága és torzítása erősen befolyásolható. A probléma az, hogy nagyon nehéz mérni, hogy egy algoritmus mennyire elfogult.

AI Bias nincs itt, hogy maradjon

Az AI torzítás akkor fordul elő, amikor az algoritmusok elfogult vagy pontatlan előrejelzéseket tesznek az elfogult bemenetek miatt. Akkor fordul elő, ha az elfogult vagy hiányos adatok tükröződnek vagy felerősödnek az algoritmus fejlesztése és oktatása során.

Jó hír, hogy a mesterséges intelligencia kutatásának finanszírozásának szaporodásával valószínűleg új módszereket fogunk látni a mesterséges intelligencia elfogultságának csökkentésére, sőt megszüntetésére.

Email
5 általános mítosz a mesterséges intelligenciáról, amelyek nem igazak

Állítsuk egyenesen a mesterséges intelligenciát körülvevő néhány gyakori hamisságot.

Olvassa el a következőt

Kapcsolódó témák
  • Technológia magyarázata
  • Mesterséges intelligencia
  • Gépi tanulás
A szerzőről
Jake Harfield (6 cikk megjelent)

Jake Harfield szabadúszó író, székhelye Perth, Ausztrália. Amikor nem ír, általában a bokorban fényképezi a helyi vadon élő állatokat. Meglátogathatja a www.jakeharfield.com címen

Tovább Jake Harfield-től

Iratkozzon fel hírlevelünkre

Csatlakozzon hírlevelünkhöz, amely műszaki tippeket, véleményeket, ingyenes e-könyveket és exkluzív ajánlatokat tartalmaz!

Még egy lépés…!

Kérjük, erősítse meg e-mail címét az imént elküldött e-mailben.

.