Az AI chatbotok hallucinálhatnak, és magabiztosan helytelen válaszokat adnak – amit a hackerek kihasználhatnak. Íme, hogyan fegyverzik fel a hackerek a hallucinációkat.
A nagy nyelvi modell AI-k tökéletlenek, és néha hamis információkat generálnak. Ezek a hallucinációknak nevezett esetek kiberfenyegetést jelenthetnek a vállalkozásokra és az egyéni AI-rajongókra.
Szerencsére növelheti a mesterséges intelligencia hallucinációival szembeni védelmet fokozott tudatossággal és egészséges második tippeléssel.
Miért hallucinál az AI?
Nincs egyetértés abban, hogy az AI-modellek miért hallucinálnak, bár van néhány valószínű találgatás.
Az AI-t hatalmas adatkészletekből képezik, amelyek gyakran tartalmaznak olyan hibákat, mint a gondolati hézagok, a tartalmi eltérések vagy a káros torzítások. Az ezekből a hiányos vagy nem megfelelő adatkészletekből származó bármilyen képzés a hallucinációk gyökere lehet, még akkor is, ha az adathalmaz későbbi iterációit adatkutatók kezelték.
Idővel az adatkutatók pontosabbá tehetik az információkat, és további ismereteket adhatnak be az üresedési helyekre, és minimalizálhatják a hallucinációk lehetőségét. A felvigyázók félrecímkézhetik az adatokat. A programozási kód hibás lehet. Ezen elemek javítása elengedhetetlen, mert az AI-modellek a gépi tanulási algoritmusok alapján fejlődnek.
Ezek az algoritmusok adatokat használnak a meghatározásokhoz. Ennek kiterjesztése az AI neurális hálózata, amely új döntéseket hoz létre a gépi tanulási tapasztalattól egészen a hasonlítanak az emberi elme eredetiségére pontosabban. Ezek a hálózatok transzformátorokat tartalmaznak, amelyek a távoli adatpontok közötti kapcsolatokat elemzik. Ha a transzformátorok elromlanak, hallucinációk léphetnek fel.
Hogyan kínálnak lehetőséget a mesterséges intelligencia hallucinációi a hackereknek?
Sajnos nem köztudott, hogy a mesterséges intelligencia hallucinál, és a mesterséges intelligencia magabiztosan hangzik még akkor is, ha teljesen rossz. Mindez hozzájárul ahhoz, hogy a felhasználók önelégültebbek legyenek és megbízhassanak a mesterséges intelligencia iránt, és a fenyegetés szereplői erre a felhasználói viselkedésre támaszkodnak, hogy letöltsék vagy indítsák el támadásaikat.
Például egy mesterséges intelligencia modell hallucinálhat egy hamis kódkönyvtárat, és azt javasolhatja a felhasználóknak, hogy töltsék le azt. Valószínű, hogy a modell továbbra is ugyanazt a hallucinált könyvtárat fogja ajánlani sok felhasználónak, aki hasonló kérdést tesz fel. Ha a hackerek felfedezik ezt a hallucinációt, létrehozhatják az elképzelt könyvtár valódi változatát – de tele van veszélyes kóddal és rosszindulatú programokkal. Most, amikor a mesterséges intelligencia továbbra is ajánlja a kódkönyvtárat, a nem akaró felhasználók letöltik a hackerek kódját.
A káros kódok és programok átvitele a mesterséges intelligencia hallucinációinak kihasználásával nem meglepő következő lépés a fenyegetés szereplői számára. A hackerek nem feltétlenül hoznak létre számtalan újszerű kiberfenyegetést – csupán új utakat keresnek, hogy gyanú nélkül eljussanak. A mesterséges intelligencia hallucinációi ugyanazt az emberi naivitást zsákmányolják, ha az e-mail linkekre kattintás attól függ (ezért kell használjon hivatkozás-ellenőrző eszközöket az URL-ek ellenőrzéséhez).
A hackerek is magasabb szintre léphetnek. Ha kódolási segítséget keres, és letölti a hamis, rosszindulatú kódot, akkor a fenyegetés szereplője ténylegesen működőképessé teheti a kódot, miközben egy káros program fut a háttérben. Csak azért, mert úgy működik, ahogy előre gondolod, még nem jelenti azt, hogy nem veszélyes.
Az oktatás hiánya ösztönözheti Önt az AI által generált ajánlások letöltésére az online robotpilóta viselkedése miatt. Minden ágazat kulturális nyomás alatt van, hogy üzleti gyakorlataiba beépítse az AI-t. Számtalan, a technológiától távol eső szervezet és iparág játszik mesterséges intelligencia-eszközökkel, kevés tapasztalattal és még ritkább kiberbiztonsággal, hogy versenyképesek maradjanak.
Hogyan maradhat biztonságban a fegyveres mesterséges intelligencia hallucinációitól
A haladás a láthatáron. A rosszindulatú programok generatív mesterséges intelligenciával történő létrehozása egyszerű volt, mielőtt a vállalatok kiigazították volna az adatkészleteket és a feltételeket az etikátlan generációk elkerülése érdekében. Ismerve a veszélyes mesterséges intelligencia hallucinációkkal szembeni társadalmi, technikai és személyes gyengeségeit, milyen módok vannak a biztonság megőrzésére?
Az iparágban bárki dolgozhat a neurális hálózati technológia finomításán és a könyvtárak ellenőrzésén. Fékeknek és ellensúlyozásoknak kell lenniük, mielőtt a válaszok elérnék a végfelhasználókat. Annak ellenére, hogy ez egy szükséges iparági előrelépés, Önnek is szerepet kell játszania abban, hogy megvédje magát és másokat a generatív mesterségesintelligencia-fenyegetések ellen.
Átlagos felhasználók gyakorolhatja a mesterséges intelligencia hallucinációinak észlelését ezekkel a stratégiákkal:
- Helyesírási és nyelvtani hibák keresése.
- Látni, ha a lekérdezés kontextusa nem illeszkedik a válasz kontextusához.
- Elismerni, ha a számítógépes látás alapú képek nem egyeznek meg azzal, ahogyan az emberi szem látná a koncepciót.
Mindig legyen óvatos, amikor tartalmat tölt le az internetről, még akkor is, ha az AI javasolja. Ha a mesterséges intelligencia kód letöltését javasolja, ne tegye ezt vakon; ellenőrizze az összes véleményt, hogy meggyőződjön a kód jogszerűségéről, és nézze meg, talál-e információt az alkotóról.
A mesterséges intelligencia hallucináción alapuló támadásaival szemben a legjobb ellenállás az oktatás. Ha a tapasztalatairól beszél, és elolvassa, hogy mások miként váltottak ki rosszindulatú hallucinációkat, akár véletlenül, akár szándékos tesztelésből, felbecsülhetetlen értékű a jövőbeli mesterséges intelligencia navigálásában.
A mesterséges intelligencia kiberbiztonságának javítása
Vigyáznia kell arra, hogy mit kér, amikor egy MI-vel beszél. Korlátozza a veszélyes következmények lehetőségét azáltal, hogy a lehető legpontosabb legyen, és megkérdőjelez mindent, ami a képernyőn megjelenik. Tesztelje a kódot biztonságos környezetben, és ellenőrizze a többi megbízhatónak tűnő információt. Ezenkívül együttműködhet másokkal, megbeszélheti tapasztalatait, és leegyszerűsítheti az AI-ról szóló zsargont a hallucinációk és a kiberbiztonsági fenyegetések segíthetik a tömegeket, hogy éberebbek és ellenállóbbak legyenek hackerek.