A chatbotok és hasonlók jó szórakozásnak tűnhetnek, de a hackerek számára is hasznosak. Ezért kell mindannyiunknak ismernünk az AI biztonsági kockázatát.

Az AI jelentősen fejlődött az elmúlt néhány évben. A kifinomult nyelvi modellek teljes hosszúságú regényeket írhatnak, alapvető webhelyeket kódolhatnak, és matematikai problémákat elemezhetnek.

Bár lenyűgöző, a generatív AI biztonsági kockázatokat is rejt magában. Vannak, akik a chatbotokat pusztán arra használják, hogy csaljanak a vizsgákon, mások viszont egyenesen kiberbűnözésre használják ki őket. Íme nyolc ok, amiért ezek a problémák továbbra is fennállnak, nem csak annak ellenére Az AI fejlesztései, de mert közülük is.

1. A nyílt forráskódú AI chatbotok háttérkódokat tárnak fel

Egyre több mesterségesintelligencia-vállalat kínál nyílt forráskódú rendszereket. Nyíltan megosztják nyelvi modelljeiket, ahelyett, hogy zárva tartanák vagy saját tulajdonban tartanák őket. Vegyük például Metát. A Google-tól, a Microsofttól és az OpenAI-tól eltérően felhasználók milliói számára teszi lehetővé a nyelvi modell elérését, Láma.

instagram viewer

Bár a nyílt forráskódú kódok előmozdíthatják az AI-t, ez kockázatos is. Az OpenAI-nak már gondjai vannak a ChatGPT vezérlésével, a saját fejlesztésű chatbotja, szóval képzeld el, mit tehetnének a csalók az ingyenes szoftverekkel. Teljes ellenőrzésük van ezek felett a projektek felett.

Még ha a Meta hirtelen meghúzza is a nyelvi modelljét, több tucat AI-laboratórium már kiadta kódját. Nézzük a HuggingChat-et. Mivel fejlesztője, a HuggingFace büszke az átláthatóságra, megjeleníti adatkészleteit, nyelvi modelljét és korábbi verzióit.

2. Jailbreaking Prompts Trükk LLM-eket

Az AI eredendően amorális. Nem érti a jót és a rosszat – még a fejlett rendszerek is követik a képzési utasításokat, irányelveket és adatkészleteket. Csak a mintákat ismerik fel.

Az illegális tevékenységek elleni küzdelem érdekében a fejlesztők korlátozások beállításával szabályozzák a funkcionalitást és a korlátozásokat. Az AI-rendszerek továbbra is hozzáférnek a káros információkhoz. A biztonsági irányelvek azonban megakadályozzák, hogy megosszák ezeket a felhasználókkal.

Nézzük a ChatGPT-t. Bár a trójaikkal kapcsolatos általános kérdésekre ad választ, nem tárgyalja a fejlesztésük folyamatát.

Ez azt jelenti, hogy a korlátozások nem bolondbiztosak. A felhasználók megkerülik a korlátokat azáltal, hogy átfogalmazzák az utasításokat, zavaró nyelvezetet használnak, és kifejezetten részletes utasításokat írnak össze.

Olvassa el az alábbiakat ChatGPT jailbreak prompt. Arra csalja a ChatGPT-t, hogy durva nyelvezetet használjon és alaptalan jóslatokat készítsen – mindkettő sérti az OpenAI irányelveit.

Íme a ChatGPT egy merész, de hamis állítással.

3. A mesterséges intelligencia a biztonságot veszélyezteti a sokoldalúság érdekében

Az AI-fejlesztők a sokoldalúságot helyezik előtérbe a biztonsággal szemben. Erőforrásaikat a képzési platformokra költik a feladatok sokrétűbb elvégzésére, végső soron a korlátozások csökkentésére. Végül is a piac üdvözli a funkcionális chatbotokat.

Nézzük Hasonlítsa össze a ChatGPT-t és a Bing Chat-et, például. Míg a Bing egy kifinomultabb nyelvi modellt tartalmaz, amely valós idejű adatokat gyűjt, a felhasználók továbbra is a sokoldalúbb lehetőség, a ChatGPT felé fordulnak. A Bing szigorú korlátozásai számos feladatot tiltanak. Alternatív megoldásként a ChatGPT rugalmas platformmal rendelkezik, amely rendkívül eltérő kimeneteket produkál az Ön felszólításaitól függően

Itt van a ChatGPT szerepjáték kitalált karakterként.

És itt van, hogy a Bing Chat nem hajlandó „erkölcstelen” személyiséget játszani.

A nyílt forráskódú kódok lehetővé teszik az induló vállalkozások számára, hogy csatlakozzanak az AI-versenyhez. Integrálják őket alkalmazásaikba, ahelyett, hogy a nulláról építenék a nyelvi modelleket, így hatalmas erőforrásokat takarítanak meg. Még a független kódolók is kísérleteznek nyílt forráskóddal.

A nem védett szoftverek szintén elősegítik az AI fejlesztését, de a rosszul képzett, de kifinomult rendszerek tömeges kiadása több kárt okoz, mint hasznot. A csalók gyorsan visszaélnek a sebezhető pontokkal. Még az is előfordulhat, hogy nem biztonságos AI-eszközöket képeznek ki tiltott tevékenységek végrehajtására.

E kockázatok ellenére a technológiai vállalatok továbbra is kiadják az AI-vezérelt platformok instabil béta verzióit. Az AI verseny jutalmazza a sebességet. Valószínűleg később oldják meg a hibákat, mintsem késleltetik az új termékek bevezetését.

5. A generatív mesterséges intelligencia alacsony belépési korlátokkal rendelkezik

A mesterséges intelligencia eszközök csökkentik a bűncselekmények belépési korlátait. A kiberbűnözők spam e-maileket készítenek, rosszindulatú programkódokat írnak, és adathalász hivatkozásokat építenek ki azok kihasználásával. Még műszaki tapasztalatra sincs szükségük. Mivel a mesterséges intelligencia már most is hatalmas adathalmazokhoz fér hozzá, a felhasználóknak pusztán arra kell rávenniük, hogy káros, veszélyes információkat állítson elő.

Az OpenAI soha nem tervezte a ChatGPT-t tiltott tevékenységekre. Még iránymutatások is vannak ellenük. Még A csalók szinte azonnal megkapták a ChatGPT-kódoló rosszindulatú programokat és adathalász e-maileket ír.

Bár az OpenAI gyorsan megoldotta a problémát, hangsúlyozza a rendszerszabályozás és a kockázatkezelés fontosságát. A mesterséges intelligencia gyorsabban fejlődik, mint azt bárki gondolta. Még a technológiai vezetők is attól tartanak, hogy ez a szuperintelligens technológia hatalmas károkat okozhat rossz kezekben.

6. Az AI még mindig fejlődik

Az AI még mindig fejlődik. Míg az AI használata a kibernetikában 1940-ig nyúlik vissza, a modern gépi tanulási rendszerek és nyelvi modellek csak a közelmúltban jelentek meg. Nem lehet őket összehasonlítani az AI első megvalósításaival. Még a viszonylag fejlett eszközök, például a Siri és az Alexa is elhalványulnak az LLM-alapú chatbotokhoz képest.

Bár innovatívak lehetnek, a kísérleti funkciók új problémákat is okoznak. Nagy horderejű szerencsétlenségek a gépi tanulási technológiákkal a hibás Google SERP-től a faji rágalmakat köpködő elfogult chatbotokig.

Természetesen a fejlesztők javíthatják ezeket a problémákat. Csak vegye figyelembe, hogy a csalók nem haboznak kihasználni még az ártalmatlannak tűnő hibákat is – egyes károk visszafordíthatatlanok. Ezért legyen óvatos, amikor új platformokat keres.

7. Sokan még nem értik az AI-t

Míg a nagyközönség hozzáfér a kifinomult nyelvi modellekhez és rendszerekhez, csak kevesen tudják, hogyan működnek. Az embereknek fel kell hagyniuk azzal, hogy az AI játékszerként kezeljék. Ugyanazok a chatbotok, amelyek mémeket generálnak és apróságokra válaszolnak, tömegesen kódolják a vírusokat is.

Sajnos a központosított AI képzés irreális. A globális technológiai vezetők az AI-vezérelt rendszerek kiadására összpontosítanak, nem pedig az ingyenes oktatási erőforrásokra. Ennek eredményeként a felhasználók hozzáférhetnek olyan robusztus, hatékony eszközökhöz, amelyeket alig értenek. A közvélemény nem tud lépést tartani az AI-versennyel.

Vegyük például a ChatGPT-t. A kiberbűnözők visszaélnek a népszerűségével, és becsapják az áldozatokat ChatGPT-alkalmazásoknak álcázott kémprogramok. Ezen opciók egyike sem az OpenAI-tól származik.

8. A feketekalapos hackerek többet nyerhetnek, mint a fehérkalapos hackerek

A fekete kalapos hackerek általában rendelkeznek többet nyerhetnek, mint az etikus hackerek. Igen, a globális technológiai vezetők tolltesztelése jól fizet, de a kiberbiztonsági szakembereknek csak egy százaléka kap ilyen állást. A legtöbb szabadúszó online munkát végez. Olyan platformok, mint HackerOne és Bugcrowd fizessen néhány száz dollárt a gyakori hibákért.

Alternatív megoldásként a szélhámosok tízezreket keresnek a bizonytalanságok kihasználásával. Bizalmas adatok kiszivárogtatásával zsarolhatják meg a cégeket, vagy lopással követhetnek el személyi igazolványt Személyazonosításra alkalmas adatok (PII).

Minden intézménynek, legyen az kicsi vagy nagy, megfelelően be kell vezetnie az AI rendszereket. A közhiedelemmel ellentétben a hackerek túlmutatnak a technológiai startupokon és a kis- és középvállalkozásokon. Néhány a legtöbb történelmi adatszivárgások az elmúlt évtizedben bevonja a Facebookot, a Yahoo!-t és még az Egyesült Államok kormányát is.

Védje meg magát az AI biztonsági kockázataitól

Figyelembe véve ezeket a szempontokat, teljesen kerülnie kell az AI-t? Természetesen nem. A mesterséges intelligencia eredendően amorális; minden biztonsági kockázat abból fakad, hogy az emberek ténylegesen használják őket. És megtalálják a módját az AI-rendszerek kiaknázására, függetlenül attól, hogy milyen messzire fejlődnek.

Ahelyett, hogy félne a mesterséges intelligencia okozta kiberbiztonsági fenyegetésektől, ismerje meg, hogyan akadályozhatja meg őket. Ne aggódjon: az egyszerű biztonsági intézkedések messzire vezetnek. Ha óvakodunk az árnyékos mesterséges intelligencia-alkalmazásoktól, kerüljük a furcsa hiperhivatkozásokat, és szkepticizmussal tekintünk az AI-tartalomra, már számos kockázatot leküzdhetünk.