A generatív mesterséges intelligencia nagyszerű, de mindig abszolút tekintéllyel mutatja be az információit. Ami nagyszerű, hacsak nem hallucinálja az igazságot.

A mesterséges intelligencia (AI) hallucinációja zavarba ejtően hangzik. Valószínűleg arra gondol: "A hallucináció nem emberi jelenség?" Nos, igen, régen kizárólag ember volt egészen addig, amíg a mesterséges intelligencia olyan emberi jellemzőket nem mutatott, mint az arcfelismerés, az öntanulás és a beszéd elismerés.

Sajnos az AI felvett néhány negatív tulajdonságot, beleértve a hallucinációkat. Tehát a mesterséges intelligencia hallucinációja hasonlít az emberek által tapasztalt hallucinációkhoz?

Mi az AI hallucináció?

A mesterséges intelligencia hallucinációja akkor fordul elő, ha egy mesterséges intelligencia modell a várttól eltérő kimeneteket generál. Vegye figyelembe, hogy egyes mesterséges intelligencia modelleket arra tanítanak, hogy szándékosan olyan kimeneteket hozzanak létre, amelyek nem kapcsolódnak semmilyen valós bemenethez (adatokhoz).

instagram viewer

Például, legjobb AI szöveg-művészet generátorok, mint például a DALL-E 2, kreatívan generálhatnak új képeket, amelyeket "hallucinációként" jelölhetünk meg, mivel ezek nem valós adatokon alapulnak.

AI hallucináció nagy nyelvi feldolgozási modellekben

Nézzük meg, hogyan nézne ki a mesterséges intelligencia hallucinációja egy olyan nagy nyelvi feldolgozási modellben, mint a ChatGPT. A ChatGPT hallucinációja azt eredményezné, hogy a bot téves tényt közöl bizonyos állításokkal, így Ön természetesen az ilyen tényeket igazságnak tekinti.

Egyszerűen fogalmazva, ezek a mesterségesen intelligens chatbot által kitalált nyilatkozatok. Íme egy példa:

További kérdésre a ChatGPT ezt mutatta:

AI hallucináció a számítógépes látásban

Tekintsünk egy másik mesterséges intelligencia területet, amely MI hallucinációt tapasztalhat: Számítógépes látás. Az alábbi kvíz egy 4x4-es montázst mutat be két olyan egységgel, amelyek nagyon hasonlítanak egymásra. A képek BBQ burgonya chips és levelek keveréke.

A kihívás az, hogy úgy válasszuk ki a burgonya chipseket, hogy ne ütjük meg a leveleket a montázsban. Ez a kép trükkösnek tűnhet a számítógép számára, és előfordulhat, hogy nem tud különbséget tenni a BBQ burgonya chips és a levelek között.

Íme egy újabb montázs uszkár és sertésselyem zsemle képekkel. A számítógép nagy valószínűséggel nem tud különbséget tenni közöttük, ezért keveri a képeket.

Miért fordul elő AI hallucináció?

A mesterséges intelligencia hallucinációja ellentétes példák miatt fordulhat elő – olyan bemeneti adatok, amelyek megtévesztik az AI-alkalmazást, hogy rosszul osztályozza őket. Például az AI-alkalmazások betanítása során a fejlesztők adatokat (kép, szöveg vagy egyebek) használnak fel; ha az adatok megváltoznak vagy torzulnak, az alkalmazás másként értelmezi a bemenetet, rossz kimenetet adva.

Ezzel szemben az ember a torzulások ellenére is képes pontosan felismerni és azonosítani az adatokat. Ezt józan észnek nevezhetjük – olyan emberi tulajdonság, amellyel a mesterséges intelligencia még nem rendelkezik. Nézze meg, hogyan bolondítják meg az AI-t ellenséges példákkal ebben a videóban:

Ami a nagy nyelvi alapú modelleket illeti, mint pl A ChatGPT és alternatívái, hallucinációk származhatnak a transzformátor pontatlan dekódolásából (gépi tanulási modell).

Az AI-ban a transzformátor egy mély tanulási modell, amely önfigyelmet használ (a szavak közötti szemantikai kapcsolatokat egy mondat), hogy olyan szöveget állítson elő, mint amit az ember írna egy kódoló-dekódoló (input-output) segítségével. sorrend.

Tehát a transzformátorok, egy félig felügyelt gépi tanulási modell, új szövegrészt (kimenetet) állíthatnak elő a betanítása (bemenete) során felhasznált szöveges adatok nagy korpuszából. Ezt úgy teszi, hogy az előző szavak alapján megjósolja a sorozat következő szavát.

Ami a hallucinációt illeti, ha egy nyelvi modellt elégtelen és pontatlan adatokra és erőforrásokra képeztek ki, akkor a kimenet várhatóan kitalált és pontatlan lesz. A nyelvi modell létrehozhat egy történetet vagy narratívát logikai következetlenségek vagy tisztázatlan összefüggések nélkül.

Az alábbi példában a ChatGPT-t arra kérték, hogy adjon meg egy „revolt” szóhoz hasonló szót, és „b”-vel kezdődik. Íme a válasza:

A további vizsgálódások során folyamatosan rossz válaszokat adott, nagy magabiztossággal.

Tehát miért nem tud a ChatGPT pontos választ adni ezekre a kérdésekre?

Előfordulhat, hogy a nyelvi modell nem képes kezelni az ilyen vagy ehhez hasonló, meglehetősen összetett felszólításokat nem tudja pontosan értelmezni a promptot, figyelmen kívül hagyva a promptot, amikor egy hasonló szót ad meg egy adott kifejezéssel ábécé.

Hogyan lehet felismerni az AI-hallucinációt?

Ma már nyilvánvaló, hogy az AI-alkalmazások képesek hallucinálni – máskülönben a várt kimenetből (tény vagy igazság) reagálni, rosszindulatú szándék nélkül. A mesterséges intelligencia hallucinációinak észlelése és felismerése pedig az ilyen alkalmazások felhasználóin múlik.

Íme néhány módszer a mesterséges intelligencia hallucinációinak észlelésére gyakori AI-alkalmazások használata közben:

1. Nagy nyelvi feldolgozási modellek

Bár ritka, ha nyelvtani hibát észlel egy nagy feldolgozási modell, például a ChatGPT által előállított tartalomban, az felhúzza a szemöldökét, és hallucinációra gyanakszik. Hasonlóképpen, ha a szöveges tartalom nem hangzik logikusan, nem korrelál a megadott kontextussal, vagy nem egyezik a bemeneti adatokkal, hallucinációra kell gyanakodnia.

Az emberi ítélőképesség vagy a józan ész használata segíthet észlelni a hallucinációkat, mivel az emberek könnyen felismerik, ha egy szövegnek nincs értelme, vagy nem követi a valóságot.

2. Számítógépes látás

A mesterséges intelligencia, a gépi tanulás és a számítástechnika ágaként a számítógépes látás képessé teszi a számítógépeket arra, hogy az emberi szemhez hasonlóan felismerjék és feldolgozzák a képeket. Használata konvolúciós neurális hálózatok, az edzésük során felhasznált hihetetlen mennyiségű vizuális adatra támaszkodnak.

Az edzés során használt vizuális adatok mintáitól való eltérés hallucinációkat eredményez. Például, ha egy számítógépet nem teniszlabda képeivel edzettek, akkor zöld narancsként azonosíthatja. Vagy ha a számítógép felismeri a lovat egy emberi szobor mellett, mint egy lovat egy valódi ember mellett, akkor mesterséges intelligencia hallucináció történt.

Tehát a számítógépes látás hallucinációjának észleléséhez hasonlítsa össze a generált kimenetet azzal, amit egy [normál] ember látni fog.

3. Önvezető autók

Kép jóváírása: Ford

Az AI-nak köszönhetően az önvezető autók fokozatosan beszivárognak az autópiacra. Az olyan úttörők, mint a Tesla Autopilot és a Ford BlueCruise, szorgalmazzák az önvezető autók színterét. Ki lehet nézni hogyan és mit lát a Tesla Autopilot hogy egy kicsit megértsék, hogyan vezérli az AI az önvezető autókat.

Ha van ilyen autója, tudnia kell, hogy az AI autója hallucinál-e. Az egyik jel az lesz, ha úgy tűnik, hogy járműve vezetés közben eltér a szokásos viselkedési mintáitól. Például, ha a jármű minden nyilvánvaló ok nélkül hirtelen fékez vagy kanyarodik, a mesterséges intelligencia járműve hallucinálhat.

Az AI rendszerek is hallucinálhatnak

Az emberek és a mesterséges intelligencia modellek eltérően élik meg a hallucinációkat. A mesterséges intelligencia esetében a hallucinációk olyan hibás kimenetekre utalnak, amelyek mérföldekre vannak egymástól a valóságtól, vagy nincs értelme az adott prompt kontextusában. Például egy mesterséges intelligencia csevegőbotja nyelvtanilag vagy logikailag helytelen választ adhat, vagy tévesen azonosíthat egy objektumot zaj vagy más szerkezeti tényezők miatt.

A mesterséges intelligencia hallucinációi nem tudatos vagy tudatalatti elméből származnak, ahogyan azt az embereknél megfigyelnéd. Inkább az AI-rendszer betanítása és programozása során használt adatok elégtelenségéből vagy elégtelenségéből adódik.