A Microsoft Tay AI-ja egy ígéretes mesterségesintelligencia-ból teljes katasztrófává vált kevesebb mint egy nap alatt. Íme, mit tanult a cég.
Az olyan AI chatbotok, mint a ChatGPT, egyre inkább a modern technológia szerves részévé válnak, de sokak számára ismeretlen, hogy a generatív mesterséges intelligencia nem mindig volt olyan jó, mint manapság. Valójában 2016-ban a Microsoft által készített chatbot, Tay megmutatta nekünk, milyen gyorsan képes visszaütni a mesterséges intelligencia.
Vizsgáljuk meg, mi volt a Microsoft AI chatbotja, Tay, miért bukott meg, milyen vitákat tudhat magáénak, és milyen tanulságokat tanult a vállalat a katasztrofális kudarca után.
Mi volt a Microsoft Tayje?
A Tay egy mesterséges intelligencia chatbot volt, amelyet a Microsoft fejlesztett ki, és 2016. március 23-án tette elérhetővé a Twitteren. A chatbotot 18 és 24 év közöttiek számára fejlesztették ki az Egyesült Államokban, "szórakoztatási célokra", valamint "kísérletek és kutatások elvégzésére a társalgási megértéssel kapcsolatban".
Tay-t nem egy olyan kifinomult chatbotnak szánták, mint a ChatGPT, hanem egy barátságos mesterséges intelligenciabotnak a Twitteren, akivel beszélgethetsz – úgymint Az én mesterséges intelligencia a Snapchaten, hanem a társasági élethez.
Miért állította le a Microsoft a Tay-t?
A Microsoft az éles indítást követő 24 órán belül leállította Tay-t – jó okkal. Szinte azonnal Tay bemutatása után a Twitter felhasználói visszaélni kezdtek a szolgáltatással a chatbot etetésével félretájékoztatást, becsmérlő kifejezéseket tanítva rá, és arra késztetve, hogy egyre sértőbb legyen, csak hogy lássuk, meddig menne.
És valóban messzire ment. Az indulás után néhány órán belül Tay a legsértőbb faji szidalmakat tweetelt, gyűlöletbeszédet terjesztett, nácizmust hirdetett, és még egy "fajháborút" is inspirált. Jajj! Nyilvánvaló, hogy a Microsoft borzasztóan boldogult, és nem engedhette volna, hogy a szolgáltatás tovább működjön.
Az a bejegyzést a hivatalos Microsoft blogon, a Microsoft vállalati alelnöke, Peter Lee ugyanezt hangoztatta:
Nagyon sajnáljuk a nem szándékosan sértő és bántó tweeteket Tay-től, amelyek nem tükrözik, hogy kik vagyunk, mit képviselünk, sem azt, hogyan terveztük meg Tayt. Tay most offline állapotban van, és csak akkor igyekszünk visszahozni Tayt, ha biztosak vagyunk abban, hogy jobban el tudjuk látni az elveinkkel és értékeinkkel ütköző rosszindulatú szándékokat.
A Tay összeomlása csak egy a sok közül a mesterséges intelligencia veszélyei és erős emlékeztető arra, hogy miért kell fejlesztését a legnagyobb körültekintéssel és felügyelettel végezni.
6 lecke, amelyet a Microsoft Tay után tanult meg
Tay teljes katasztrófa volt, de a Microsoftnak is adott néhány döntő leckét, amikor az AI-eszközök fejlesztéséről volt szó. És amiért megéri, valószínűleg az a jobb, hogy a Microsoft előbb, mint utóbb megtanulta a leckét, ami lehetővé tette számára, hogy előnyt szerezzen a Google-nál, és kifejlessze az új AI-alapú Bing böngésző.
Íme néhány a leckék közül:
1. Az internet tele van trollokkal
Az internet tele van trollokkal, és ez nem éppen hír, igaz? Nyilvánvalóan ez volt a Microsoftnál 2016-ban. Nem állítjuk, hogy a 18–24 éves korosztályt megcélzó „szórakoztatási célú” chatbot felépítésének bármi köze lenne a szolgáltatással való visszaélések arányához. Ennek ellenére határozottan nem ez volt a legokosabb ötlet.
Az emberek természetesen szeretnék tesztelni az új technológiák korlátait, és végső soron a fejlesztő feladata, hogy számot adjon ezekről a rosszindulatú támadásokról. Bizonyos értelemben a belső trollok a minőségbiztosítás visszacsatolási mechanizmusaként működnek, de ez nem jelenti azt, hogy egy chatbotot szabadon kell engedni anélkül, hogy megfelelő biztosítékokat vezetnének be az indítás előtt.
2. Az AI nem tud intuitív módon különbséget tenni a jó és a rossz között
A jó és a rossz fogalmát az MI intuitív módon nem érti. Úgy kell programozni, hogy szimulálja azt a tudást, hogy mi a helyes és mi a helytelen, mi az erkölcsös és erkölcstelen, és mi a normális és sajátos.
Ezek a tulajdonságok többé-kevésbé természetesek az emberekben, mint társas lényekben, de a mesterséges intelligencia nem tud önálló ítéletet alkotni, empátiát érezni vagy fájdalmat átélni. Ez az oka annak, hogy amikor a Twitter-felhasználók mindenféle propagandával táplálták Tay-t, a bot egyszerűen követte – nem volt tudatában az általa gyűjtött információk etikájának.
3. Ne tanítson mesterséges intelligencia-modelleket az emberek beszélgetései alapján
A Tay-t úgy hozták létre, hogy „releváns nyilvános adatok bányászatával, mesterséges intelligenciával és szerkesztőségükkel dolgoztak, amelyeket többek között a munkatársak fejlesztettek ki improvizációs komikusok." Egy mesterséges intelligencia modellt képezni az emberek internetes beszélgetései alapján szörnyű dolog ötlet.
És mielőtt ezt a Twitteren hibáztatnád, tudd, hogy az eredmény platformtól függetlenül valószínűleg ugyanaz lett volna. Miért? Mert az emberek egyszerűen nem a legjobb önmaguk az interneten. Elérzékenyülnek, szlengszavakat használnak, és névtelenségüket arra használják, hogy aljaskodjanak.
4. A mesterséges intelligencia hiányzik a józan észből, és nem éri a szarkazmust
A mesterséges intelligencia ma intuitívabbnak tűnik (pontosabban fogalmazva, jobban szimulálja az intuíciót), de néha még mindig küzd a szarkazmus és a beszédfigurák felismerésével. Ez még inkább igaz volt 2016-ban. Ami nyilvánvaló az emberek számára, az nem nyilvánvaló a mesterséges intelligencia számára; más szóval, hiányzik belőle a józan ész.
Az olyan AI-k, mint Tay, nem értik, hogy az emberek miért olyanok, amilyenek mi vagyunk, miért viselkednek úgy, ahogyan mi, és az egyes egyének különcségeit. Lehet, hogy meglepően emberien viselkedik és hangzik, de a jó programozás csak idáig mehet.
5. Az AI-t úgy kell programozni, hogy elutasítsa az érvénytelen kéréseket
Az AI nagyon befolyásolható, és úgy kell programozni, hogy elutasítsa a kárt okozó kéréseket. Még ma is, a természetes nyelvi feldolgozás terén elért fejlődésünk után az emberek még mindig találnak nyelvi kiskapukat "hallucinálja" az olyan AI chatbotokat, mint a ChatGPT és olyan eredményeket hoznak, amelyeket korlátozni kívántak.
Itt az a lényeg, hogy a mesterséges intelligencia tökéletesen engedelmes, ami talán a legnagyobb erőssége és gyengesége. Mindent, amit nem szeretne egy chatbottól, manuálisan kell bele programozni.
6. Az AI chatbotokat soha nem szabad felügyelet nélkül hagyni
Amíg a mesterséges intelligencia nem tudja szabályozni magát, addig nem hagyható felügyelet nélkül. A mai mesterséges intelligenciára úgy gondolhat, mint egy csodagyerekre; bizonyos szempontból zseniális, de ettől függetlenül még gyerek. Ha felügyelet nélkül hagyják, az emberek kihasználják a gyengeségeit – és erre Tay volt a kiváló példa.
A mesterséges intelligencia egy eszköz, akárcsak az internet, de az AI-val kapcsolatos dolgok visszaütő képessége sokkal nagyobb, mint amit az internet korai napjaiban tapasztaltunk.
A mesterséges intelligencia folyamatos felügyeletet és szabályozást igényel
Nem Tay az egyetlen chatbot, amely szélhámosnak bizonyult – sok más hasonló eset is előfordult már. De ami kitűnt, az a puszta sebesség, amellyel sikerült – és az a tény, hogy egy technológiai óriás, például a Microsoft készítette.
Az ehhez hasonló példák azt mutatják, hogy mennyire körültekintőnek kell lennünk az AI-eszközök fejlesztésekor, különösen akkor, ha azokat hétköznapi emberek számára szánják.