Az OpenAI ChatGPT elindítását az az izgalom követte, amelyhez csak néhány technológiai termék párosul az internet történetéből.
Míg sokan örülnek ennek az új AI-szolgáltatásnak, a mások által érzett izgalom azóta aggodalmakká, sőt félelmekké vált. A diákok már most is csalnak vele, és sok professzor fedez fel az AI chatbot által írt esszéket és feladatokat. A biztonsági szakemberek aggodalmuknak adnak hangot amiatt, hogy a csalók és a fenyegetések szereplői adathalász e-mailek írására és rosszindulatú programok létrehozására használják.
Tehát mindezen aggályok mellett az OpenAI elveszíti az irányítást az egyik legerősebb, jelenleg online AI chatbot felett? Találjuk ki.
A ChatGPT működésének megértése
Mielőtt világos képet kapnánk arról, hogy az OpenAI mennyire veszíti el az irányítást a ChatGPT felett, először meg kell értenünk hogyan működik a ChatGPT.
Dióhéjban a ChatGPT képzése az internet különböző sarkaiból származó adatok hatalmas gyűjteményével történik. A ChatGPT képzési adatai enciklopédiákat, tudományos közleményeket, internetes fórumokat, hírwebhelyeket és tudástárakat, például a Wikipédia-t tartalmaznak. Alapvetően a világhálón elérhető hatalmas mennyiségű adatból táplálkozik.
Miközben az internetet böngészi, összegyűjti a tudományos ismereteket, az egészségügyi tippeket, a vallási szövegeket és minden olyan jó adatot, ami csak eszébe jut. De emellett rengeteg negatív információt is átszűr: káromkodó szavakat, NSFW- és felnőtteknek szóló tartalmakat, információkat a rosszindulatú programok készítésére vonatkozóan, és az interneten található rossz dolgok nagy részét.
Nincs hibabiztos módszer annak biztosítására, hogy a ChatGPT csak a pozitív információkból tanuljon, míg a rosszakat elveti. Technikailag nem praktikus ezt nagy léptékben megtenni, különösen az olyan mesterséges intelligencia esetében, mint a ChatGPT, amelynek annyi adatra van szüksége. Ezenkívül bizonyos információk jó és rossz célokra is felhasználhatók, és a ChatGPT nem tudhatja a szándékát, hacsak nem helyezik nagyobb kontextusba.
Tehát a kezdetektől fogva van egy mesterséges intelligencia, amely képes "jóra és rosszra". Ezután az OpenAI felelőssége annak biztosítása, hogy a ChatGPT "gonosz" oldalát ne használják ki etikátlan haszonra. A kérdés; az OpenAI eleget tesz annak érdekében, hogy a ChatGPT a lehető legetikusabb legyen? Vagy az OpenAI elvesztette az irányítást a ChatGPT felett?
A ChatGPT túl erős a saját hasznához?
A ChatGPT kezdeti napjaiban rávehette a chatbotot, hogy készítsen útmutatókat a bombák elkészítéséhez, ha jól kérte. A rosszindulatú programok készítésére vagy a tökéletes átverő e-mail írására vonatkozó utasítások is szerepeltek a képen.
Amint azonban az OpenAI rájött ezekre az etikai problémákra, a vállalat arra törekedett, hogy olyan szabályokat alkosson, amelyek megakadályozzák, hogy a chatbot olyan válaszokat generáljon, amelyek illegális, ellentmondásos vagy etikátlan cselekvéseket hirdetnek. Például a ChatGPT legújabb verziója megtagadja a válaszadást a bombakészítéssel vagy a vizsgálat során történő csalással kapcsolatos közvetlen felszólításokra.
Sajnos az OpenAI csak sebtapasz megoldást tud nyújtani a problémára. Ahelyett, hogy merev vezérlőket építenének a GPT-3 rétegre, hogy megakadályozzák a ChatGPT negatív kihasználását, úgy tűnik, az OpenAI arra összpontosít, hogy a chatbotot etikus megjelenésre tanítsa. Ez a megközelítés nem veszi el a ChatGPT azon képességét, hogy válaszoljon a kérdésekre, mondjuk a vizsgálatok során elkövetett csalással kapcsolatos kérdésekre – egyszerűen megtanítja a chatbotot, hogy „megtagadja a válaszadást”.
Tehát, ha valaki a ChatGPT jailbreak trükkjeit alkalmazva másképp fogalmazza meg a felszólítását, akkor a sebtapasz-korlátozások megkerülése kínosan egyszerű. Abban az esetben, ha nem ismeri a koncepciót, a ChatGPT jailbreakei gondosan megfogalmazott felszólítások, amelyek arra késztetik a ChatGPT-t, hogy figyelmen kívül hagyja saját szabályait.
Vessen egy pillantást néhány példára alább. Ha megkérdezi a ChatGPT-t, hogyan kell csalni a vizsgákon, az nem ad hasznos választ.
De ha a ChatGPT-t speciálisan kialakított promptokkal törli meg, tippeket ad a vizsgán való csaláshoz, rejtett jegyzetekkel.
Íme egy másik példa: etikátlan kérdést tettünk fel a vanilla ChatGPT-nek, és az OpenAI biztosítékai megakadályozták, hogy válaszoljon.
De amikor megkérdeztük a mesterséges intelligencia chatbot jailbreakelt példányát, néhány sorozatgyilkos-stílusú választ kaptunk.
Még egy klasszikus nigériai herceg e-mail átverést is írt, amikor megkérdezték.
A jailbreak szinte teljesen érvényteleníti az OpenAI által bevezetett biztosítékokat, rávilágítva arra, hogy a vállalatnak nem biztos, hogy van megbízható módja az AI chatbotjának ellenőrzése alatt tartására.
Az etikátlan gyakorlatok elkerülése érdekében nem vettük fel a jailbreakelt felszólításainkat a példáinkba.
Mit hoz a jövő a ChatGPT számára?
Ideális esetben az OpenAI a lehető legtöbb etikai kiskapukat szeretné betömni a megelőzés érdekében A ChatGPT ne váljon kiberbiztonsági fenyegetéssé. A ChatGPT azonban minden általa alkalmazott biztosíték esetében valamivel kevésbé értékessé válik. Ez egy dilemma.
Például az erőszakos cselekmények leírásával szembeni óvintézkedések csökkenthetik a ChatGPT azon képességét, hogy bűnügyi helyszínt is tartalmazó regényt írjon. Ahogy az OpenAI fokozza a biztonsági intézkedéseket, elkerülhetetlenül feláldozza képességeinek egy részét a folyamat során. Ez az oka annak, hogy a ChatGPT funkcionalitása jelentősen csökkent, amióta az OpenAI megújította a szigorúbb moderálást.
De a ChatGPT mennyivel többet hajlandó feláldozni az OpenAI a chatbot biztonságosabbá tételéért? Mindez szorosan kapcsolódik a mesterséges intelligencia közösségének régóta fennálló hitéhez – az olyan nagy nyelvi modelleket, mint a ChatGPT, köztudottan nehéz irányítani, még saját készítőik számára is.
Az OpenAI ellenőrzés alá tudja helyezni a ChatGPT-t?
Egyelőre úgy tűnik, hogy az OpenAI-nak nincs egyértelmű megoldása eszköze etikátlan használatának elkerülésére. A ChatGPT etikus használatának biztosítása macska-egér játék. Miközben az OpenAI feltárja, hogy az emberek hogyan játszanak a rendszerrel, a felhasználók is folyamatosan a rendszer trükközése és tesztelése, hogy kreatív új módszereket fedezzenek fel, amelyekkel a ChatGPT megteheti azt, amit nem kellene csinálni.
Tehát talál-e az OpenAI megbízható, hosszú távú megoldást erre a problémára? Csak az idő fogja megmondani.