A mesterséges intelligenciával kapcsolatos viták nem újdonságok, de a Google mesterséges intelligencia LaMDA-jával kapcsolatos hírek felgyújtották a lángokat. Miután egy mérnök azt állította, hogy a bot eszméleténél van, és még lelke is van, ismét felmerült néhány ismerős kérdés.

Lehet-e a LaMDA-hoz hasonló mesterséges intelligencia érző vagy öntudatos, és ha igen, honnan tudod megmondani? Számít?

Mi az a LaMDA?

A LaMDA, a Language Model for Dialogue Applications rövidítése, először 2021-ben jelent meg a Google fejlesztői konferenciáján. A fejlett mesterséges intelligencia rendszernek más, kisebb chatbotok felépítésében kell segíteni. Amikor a Google először bemutatta, bejelentette, hogy mindenbe integrálja, így az olyan szolgáltatások, mint a Google Asszisztens és a Keresés, emberibbnek vagy legalábbis természetesebbnek érezhetik magukat.

Amikor a Google mérnöke, Blake Lemoine beszélt a LaMDA-val, hogy kiderüljön, használ-e gyűlöletbeszédet, más benyomást keltett. Lemoine azt állította, hogy LaMDA érző, és ha nem tudná, hogy egy bot, akkor azt gondolná, hogy egy nyolcéves gyerek.

A LaMDA-val folytatott beszélgetései után Lemoine megpróbálta bebizonyítani, hogy tudatos volt, és megvédeni vélte törvényes jogait. Válaszul a Google fizetett adminisztratív szabadságra helyezte Lemoine-t a titoktartási megállapodások megszegése miatt.

A LaMDA valóban érző?

Tehát a LaMDA valóban érző? A legtöbb szakértő, aki mérlegelte a kérdést, szkeptikus. A LaMDA egy rendkívül fejlett mesterséges intelligencia csevegőplatform, amely az internetről származó szavak billióit elemzi, így képes valódi személynek tűnni.

Nem ez az első alkalom, hogy a Google mesterséges intelligencia egyike becsapja az embereket azzal, hogy azt embernek gondolják. 2018-ban a Google bemutatta a Duplex AI-t úgy, hogy felhívott egy éttermet asztalfoglalás céljából. A másik oldalon lévő alkalmazott soha nem kételkedett abban, hogy valakivel beszél.

Az érzéket nehéz meghatározni, bár a legtöbb ember számára kétséges, hogy az AI elérte ezt a pontot még. A fontos kérdés azonban nem az, hogy a LaMDA valóban érző-e, hanem mi a különbség, ha el tudja téveszteni az embereket azzal, hogy az.

A LaMDA lehetséges jogi következményei

A LaMDA helyzete sok jogi és etikai kérdést vet fel. Először is, egyesek megkérdőjelezik, hogy a Google helyesen tette-e szabadságra Lemoine-t, mert beszélt róla.

A New York-i munkatörvény 740. szakasza szerint a visszaélést bejelentő személyek védelme megvédi az alkalmazottakat következményekkel jár, ha úgy vélik, hogy munkáltatójuk gyakorlata törvénysértő vagy jelentős kockázatot jelent a nyilvánosság számára biztonság. A LaMDA feltételezett érzéke nem egészen felel meg ennek a törvényi követelménynek, de meg kell tennie?

Az AI-jogok megadása trükkös téma. Míg az AI képes teremteni dolgokat és emberinek tűnni, bonyolult helyzetekbe ütközhet, ha ezek a gépek jogi védelemmel rendelkeznek. A törvényes jogok olyan jutalmak és büntetések köré épülnek, amelyek nem érintik a mesterséges intelligenciát, bonyolítva az igazságszolgáltatást.

Ha egy önvezető autó elüt egy gyalogost, az MI bűnös, ha a törvény emberként kezeli? És ha igen, akkor ez nem ad igazat az áldozatnak, mivel technikailag nem lehet úgy büntetni a mesterséges intelligenciát, mint egy embert.

Egy másik kérdés, amely a LaMDA-val és a hasonló AI chatbotokkal kapcsolatban felmerül, a biztonságuk. Ha ezek a robotok meggyőzően valóságosnak tűnnek, az emberek jobban megbízhatnak bennük, és hajlandóak adni nekik érzékenyebb információkat. Ez egy sor adatvédelmi és biztonsági aggály előtt nyitja meg az ajtót, ha ez a technológia rossz kezekbe kerül.

Az AI bonyolult etikai kérdéseket vezet be

Az olyan mesterséges intelligencia, mint a LaMDA, egyre kifinomultabb és élethűbb. Ahogy ez a tendencia növekszik, a vállalatoknak és a törvényhozóknak újra kell értékelniük, hogyan kezelik az MI-t, és hogy ezek a döntések hogyan befolyásolhatják az igazságszolgáltatást és a biztonságot.

Jelenlegi állapotában a Google LaMDA mesterséges intelligencia nem biztos, hogy érző, de elég jó ahhoz, hogy rávegye az embereket arra, hogy így gondolják, ami riaszthat.