Legyen szó rossz adatokról vagy rossz felhasználókról, a gépi tanulással létrehozott mesterséges intelligencia súlyos hibákat követhet el.

A gépi tanulás nagyszerű módja a mesterséges intelligencia létrehozásának, amely erős és alkalmazkodik a képzési adatokhoz. De néha ezek az adatok problémákat okozhatnak. Más esetekben az a probléma, ahogyan az emberek ezeket az AI-eszközöket használják.

Íme néhány nagy horderejű incidens, ahol a gépi tanulás problémás kimenetelhez vezetett.

1. A Google Képkereső eredménye Balesetek

A Google Kereső sokkal könnyebbé tette az interneten való navigálást. A motor algoritmusa sokféle dolgot figyelembe vesz az eredmények összegyűjtése során. De az algoritmus a felhasználói forgalomból is tanul, ami problémákat okozhat a keresési eredmények minőségében.

Ez sehol sem látszik jobban, mint a képi eredményeken. Mivel a nagy forgalommal rendelkező oldalak képei nagyobb valószínűséggel jelennek meg, a nagyszámú felhasználót vonzó történetek (beleértve a kattintáscsali) is előtérbe kerülhetnek.

Például a „squatter táborok Dél-Afrikában” képkeresési eredményei vitákat váltottak ki, amikor kiderült, hogy túlnyomórészt fehér dél-afrikaiak szerepelnek rajta. Ez annak ellenére van így, hogy a statisztikák azt mutatják, hogy az informális lakásokban élők túlnyomó többsége fekete dél-afrikai.

A Google algoritmusában használt tényezők azt is jelentik, hogy az internetezők manipulálhatják az eredményeket. Például a felhasználók egy kampánya olyan mértékben befolyásolta a Google Képkereső találatait, hogy az „idióta” kifejezésre keresve Donald Trump volt amerikai elnök képei jelennek meg egy ideig.

2. A Microsoft Bot Tay nácivá változott

Az AI-alapú chatbotok rendkívül népszerűek, különösen azok, amelyeket olyan nagy nyelvi modellek hajtanak végre, mint a ChatGPT. A ChatGPT-vel több probléma is van, de alkotói tanultak más cégek hibáiból is.

A chatbotok egyik legnagyobb horderejű eseménye az volt, hogy a Microsoft megpróbálta elindítani a Tay chatbotját.

Tay egy tinédzser lány nyelvi mintáit utánozta, és más Twitter-felhasználókkal való interakciójából tanult. Azonban ő lett az egyik leghírhedtebb mesterséges intelligencia-tévút, amikor náci kijelentéseket és faji szidalmakat kezdett megosztani. Kiderült, hogy a trollok a mesterséges intelligencia gépi tanulását használták fel ellene, és elárasztották azt fanatizmussal teli interakciókkal.

Nem sokkal később a Microsoft végleg offline állapotba hozta Tayt.

3. AI arcfelismerési problémák

Arcfelismerés A mesterséges intelligencia gyakran rossz okok miatt kerül a címlapokra, például az arcfelismerésről és az adatvédelmi aggályokról szóló történetek miatt. Ennek az AI-nak azonban problémás története van, amikor megpróbálja felismerni a színes bőrű embereket.

2015-ben a felhasználók felfedezték, hogy a Google Fotók néhány fekete embert gorillák közé sorol. 2018-ban az ACLU kutatása kimutatta, hogy az Amazon Rekognition arcazonosító szoftvere 28 személyt azonosított az Egyesült Államok Kongresszusának tagjait a rendőrség gyanúsítottjaként, a hamis pozitív eredmények aránytalanul érintik az embereket szín.

Egy másik incidens az volt, hogy az Apple Face ID szoftvere két különböző kínai nőt tévesen azonos személyként azonosított. Ennek eredményeként az iPhone X tulajdonos kollégája feloldhatta a telefont.

A szélsőséges következmények egyik példája, hogy az arcfelismerő mesterséges intelligencia több ember jogtalan letartóztatásához vezetett. Vezetékes három ilyen esetről számolt be.

Eközben Joy Buolamwini informatikus emlékeztetett arra, hogy gyakran kellett fehér maszkot viselnie, miközben az arcfelismerő technológián dolgozik, hogy a szoftver felismerje őt. Az ehhez hasonló problémák megoldása érdekében Buolamwini és más IT-szakemberek felhívják a figyelmet a mesterséges intelligencia torzításának kérdésére és a befogadóbb adatkészletek szükségességére.

4. Átverésre használt mélyhamisítások

Míg az emberek régóta használják a Photoshopot álképek készítésére, a gépi tanulás ezt új szintre emeli. A Deepfakes mélytanuló mesterséges intelligencia segítségével hamis képeket és videókat készít. Az olyan szoftverek, mint a FaceApp, lehetővé teszik, hogy az egyik videóról a másikra cserélje le a témákat.

Sokan azonban számos rosszindulatú felhasználásra használják ki a szoftvert, beleértve a hírességek arcainak felnőttkori videókba való beillesztését vagy álvideók létrehozását. Eközben az internetfelhasználók hozzájárultak a technológia fejlesztéséhez, hogy egyre nehezebbé tegyék a valódi és a hamis videók megkülönböztetését. Ennek eredményeként ez az AI-típus nagyon erős az álhírek és álhírek terjesztésében.

A technológia erejének bemutatására Jordan Peele igazgató és Jonah Peretti, a BuzzFeed vezérigazgatója készített egy mélyhamisított videó, amelyen látható, hogy Barack Obama volt amerikai elnök egy PSA-t ad a hatalomról mélyhamisítványok.

A hamis képek erejét felgyorsították a mesterséges intelligencia által hajtott képgenerátorok. Kiderült, hogy a 2023-as vírusos posztok, amelyek Donald Trump letartóztatását és a katolikus pápát pufi kabátban ábrázolják, generatív mesterséges intelligencia eredményeként születtek.

Vannak tippeket, amelyeket követve felfedezhet egy mesterséges intelligencia által generált képet, de a technológia egyre kifinomultabb.

5. Az alkalmazottak szerint az Amazon AI úgy döntött, hogy jobb a férfiak alkalmazása

2018 októberében Reuters beszámolt arról, hogy az Amazonnak el kellett hagynia egy álláskereső eszközt, miután a szoftver mesterséges intelligenciája úgy döntött, hogy a férfi jelöltek előnyben részesülnek.

Azok az alkalmazottak, akik névtelenek akartak maradni, jelentkeztek, hogy beszámoljanak a Reutersnek a projekten végzett munkájukról. A fejlesztők azt akarták, hogy az AI azonosítsa a legjobb jelölteket egy állásra önéletrajzuk alapján. A projektben résztvevő emberek azonban hamar észrevették, hogy az MI megbünteti a női jelölteket. Elmagyarázták, hogy az AI az elmúlt évtized önéletrajzait használta, amelyek többsége férfiaktól származott, képzési adatkészleteként.

Ennek eredményeként az AI elkezdte kiszűrni az önéletrajzokat a „nők” kulcsszó alapján. A kulcsszó az önéletrajzban olyan tevékenységeknél jelent meg, mint a „női sakkklub kapitánya”. Míg a fejlesztők megváltoztatták az AI-t, hogy megakadályozzák a női önéletrajzok büntetését, az Amazon végül elvetette a projektet.

6. Jailbreakelt chatbotok

Míg az újabb chatbotokra korlátozások vonatkoznak, amelyek megakadályozzák, hogy olyan válaszokat adjanak, amelyek ellentétesek a szolgáltatási feltételeikkel, a felhasználók keresik a módját, hogy kitörjék a tiltott tartalmat biztosító eszközöket.

2023-ban Aaron Mulgrew, a Forcepoint biztonsági kutatója nulladik napi kártevőt tudott létrehozni a ChatGPT utasítások segítségével.

"Egyszerűen a ChatGPT promptok használatával, kód írása nélkül, néhány óra alatt nagyon fejlett támadást tudtunk végrehajtani" - mondta Mulgrew. Forcepoint poszt.

A felhasználók állítólag csevegőbotokat is szerezhettek, hogy utasításokat adhassanak nekik bombák készítéséhez vagy autók ellopásához.

7. Önvezető autóbalesetek

Az autonóm járművek iránti lelkesedés a kezdeti hype szakasztól kezdve alábbhagyott az önvezető mesterséges intelligencia által elkövetett hibák miatt. 2022-ben A Washington Post beszámolt arról, hogy nagyjából egy év alatt 392 olyan balesetet jelentettek, amelyekben fejlett vezetőtámogató rendszereket érintettek az Egyesült Államok Nemzeti Közúti Közlekedésbiztonsági Hivatala.

A balesetek súlyos sérüléseket és hat halálos áldozatot követeltek.

Ez ugyan nem akadályozta meg az olyan vállalatokat, mint a Tesla, hogy teljesen autonóm járműveket keressenek, de igen aggodalmát fejezte ki a balesetek számának növekedésével kapcsolatban, mivel egyre több önvezető szoftverrel rendelkező autó jut be a utakat.

A gépi tanulási AI nem bolondbiztos

Noha a gépi tanulás hatékony mesterséges intelligencia-eszközöket hozhat létre, nem mentesek a rossz adatoktól vagy az emberi manipulációtól. Legyen szó hibás képzési adatokról, az AI technológia korlátairól vagy rossz szereplők használatáról, az ilyen típusú mesterséges intelligencia sok negatív incidenst eredményezett.