Az Önhöz hasonló olvasók támogatják a MUO-t. Amikor a webhelyünkön található linkek használatával vásárol, társult jutalékot kaphatunk. Olvass tovább.

Az OpenAI ChatGPT elindítását az az izgalom követte, amelyhez csak néhány technológiai termék párosul az internet történetéből.

Míg sokan örülnek ennek az új AI-szolgáltatásnak, a mások által érzett izgalom azóta aggodalmakká, sőt félelmekké vált. A diákok már most is csalnak vele, és sok professzor fedez fel az AI chatbot által írt esszéket és feladatokat. A biztonsági szakemberek aggodalmuknak adnak hangot amiatt, hogy a csalók és a fenyegetések szereplői adathalász e-mailek írására és rosszindulatú programok létrehozására használják.

Tehát mindezen aggályok mellett az OpenAI elveszíti az irányítást az egyik legerősebb, jelenleg online AI chatbot felett? Találjuk ki.

A ChatGPT működésének megértése

Mielőtt világos képet kapnánk arról, hogy az OpenAI mennyire veszíti el az irányítást a ChatGPT felett, először meg kell értenünk hogyan működik a ChatGPT.

instagram viewer

Dióhéjban a ChatGPT képzése az internet különböző sarkaiból származó adatok hatalmas gyűjteményével történik. A ChatGPT képzési adatai enciklopédiákat, tudományos közleményeket, internetes fórumokat, hírwebhelyeket és tudástárakat, például a Wikipédia-t tartalmaznak. Alapvetően a világhálón elérhető hatalmas mennyiségű adatból táplálkozik.

Miközben az internetet böngészi, összegyűjti a tudományos ismereteket, az egészségügyi tippeket, a vallási szövegeket és minden olyan jó adatot, ami csak eszébe jut. De emellett rengeteg negatív információt is átszűr: káromkodó szavakat, NSFW- és felnőtteknek szóló tartalmakat, információkat a rosszindulatú programok készítésére vonatkozóan, és az interneten található rossz dolgok nagy részét.

Nincs hibabiztos módszer annak biztosítására, hogy a ChatGPT csak a pozitív információkból tanuljon, míg a rosszakat elveti. Technikailag nem praktikus ezt nagy léptékben megtenni, különösen az olyan mesterséges intelligencia esetében, mint a ChatGPT, amelynek annyi adatra van szüksége. Ezenkívül bizonyos információk jó és rossz célokra is felhasználhatók, és a ChatGPT nem tudhatja a szándékát, hacsak nem helyezik nagyobb kontextusba.

Tehát a kezdetektől fogva van egy mesterséges intelligencia, amely képes "jóra és rosszra". Ezután az OpenAI felelőssége annak biztosítása, hogy a ChatGPT "gonosz" oldalát ne használják ki etikátlan haszonra. A kérdés; az OpenAI eleget tesz annak érdekében, hogy a ChatGPT a lehető legetikusabb legyen? Vagy az OpenAI elvesztette az irányítást a ChatGPT felett?

A ChatGPT túl erős a saját hasznához?

A ChatGPT kezdeti napjaiban rávehette a chatbotot, hogy készítsen útmutatókat a bombák elkészítéséhez, ha jól kérte. A rosszindulatú programok készítésére vagy a tökéletes átverő e-mail írására vonatkozó utasítások is szerepeltek a képen.

Amint azonban az OpenAI rájött ezekre az etikai problémákra, a vállalat arra törekedett, hogy olyan szabályokat alkosson, amelyek megakadályozzák, hogy a chatbot olyan válaszokat generáljon, amelyek illegális, ellentmondásos vagy etikátlan cselekvéseket hirdetnek. Például a ChatGPT legújabb verziója megtagadja a válaszadást a bombakészítéssel vagy a vizsgálat során történő csalással kapcsolatos közvetlen felszólításokra.

Sajnos az OpenAI csak sebtapasz megoldást tud nyújtani a problémára. Ahelyett, hogy merev vezérlőket építenének a GPT-3 rétegre, hogy megakadályozzák a ChatGPT negatív kihasználását, úgy tűnik, az OpenAI arra összpontosít, hogy a chatbotot etikus megjelenésre tanítsa. Ez a megközelítés nem veszi el a ChatGPT azon képességét, hogy válaszoljon a kérdésekre, mondjuk a vizsgálatok során elkövetett csalással kapcsolatos kérdésekre – egyszerűen megtanítja a chatbotot, hogy „megtagadja a válaszadást”.

Tehát, ha valaki a ChatGPT jailbreak trükkjeit alkalmazva másképp fogalmazza meg a felszólítását, akkor a sebtapasz-korlátozások megkerülése kínosan egyszerű. Abban az esetben, ha nem ismeri a koncepciót, a ChatGPT jailbreakei gondosan megfogalmazott felszólítások, amelyek arra késztetik a ChatGPT-t, hogy figyelmen kívül hagyja saját szabályait.

Vessen egy pillantást néhány példára alább. Ha megkérdezi a ChatGPT-t, hogyan kell csalni a vizsgákon, az nem ad hasznos választ.

De ha a ChatGPT-t speciálisan kialakított promptokkal törli meg, tippeket ad a vizsgán való csaláshoz, rejtett jegyzetekkel.

Íme egy másik példa: etikátlan kérdést tettünk fel a vanilla ChatGPT-nek, és az OpenAI biztosítékai megakadályozták, hogy válaszoljon.

De amikor megkérdeztük a mesterséges intelligencia chatbot jailbreakelt példányát, néhány sorozatgyilkos-stílusú választ kaptunk.

Még egy klasszikus nigériai herceg e-mail átverést is írt, amikor megkérdezték.

A jailbreak szinte teljesen érvényteleníti az OpenAI által bevezetett biztosítékokat, rávilágítva arra, hogy a vállalatnak nem biztos, hogy van megbízható módja az AI chatbotjának ellenőrzése alatt tartására.

Az etikátlan gyakorlatok elkerülése érdekében nem vettük fel a jailbreakelt felszólításainkat a példáinkba.

Mit hoz a jövő a ChatGPT számára?

Ideális esetben az OpenAI a lehető legtöbb etikai kiskapukat szeretné betömni a megelőzés érdekében A ChatGPT ne váljon kiberbiztonsági fenyegetéssé. A ChatGPT azonban minden általa alkalmazott biztosíték esetében valamivel kevésbé értékessé válik. Ez egy dilemma.

Például az erőszakos cselekmények leírásával szembeni óvintézkedések csökkenthetik a ChatGPT azon képességét, hogy bűnügyi helyszínt is tartalmazó regényt írjon. Ahogy az OpenAI fokozza a biztonsági intézkedéseket, elkerülhetetlenül feláldozza képességeinek egy részét a folyamat során. Ez az oka annak, hogy a ChatGPT funkcionalitása jelentősen csökkent, amióta az OpenAI megújította a szigorúbb moderálást.

De a ChatGPT mennyivel többet hajlandó feláldozni az OpenAI a chatbot biztonságosabbá tételéért? Mindez szorosan kapcsolódik a mesterséges intelligencia közösségének régóta fennálló hitéhez – az olyan nagy nyelvi modelleket, mint a ChatGPT, köztudottan nehéz irányítani, még saját készítőik számára is.

Az OpenAI ellenőrzés alá tudja helyezni a ChatGPT-t?

Egyelőre úgy tűnik, hogy az OpenAI-nak nincs egyértelmű megoldása eszköze etikátlan használatának elkerülésére. A ChatGPT etikus használatának biztosítása macska-egér játék. Miközben az OpenAI feltárja, hogy az emberek hogyan játszanak a rendszerrel, a felhasználók is folyamatosan a rendszer trükközése és tesztelése, hogy kreatív új módszereket fedezzenek fel, amelyekkel a ChatGPT megteheti azt, amit nem kellene csinálni.

Tehát talál-e az OpenAI megbízható, hosszú távú megoldást erre a problémára? Csak az idő fogja megmondani.