A Samsung alkalmazottai véletlenül kiszivárogtatták a magánvállalati adatokat a ChatGPT-n keresztül – ez egy példa arra, hogy a mesterséges intelligencia miért jelent olyan nagy veszélyt az Ön magánéletére és biztonságára.
A ChatGPT jelentős biztonsági és adatvédelmi problémává vált, mert túl sokan vagyunk, akik önfeledten osztják meg személyes adatainkat róla. A ChatGPT minden vele folytatott beszélgetést naplóz, beleértve az Ön által megosztott személyes adatokat is. Ennek ellenére ezt nem tudhatja, hacsak nem ásta át az OpenAI adatvédelmi szabályzatát, a szolgáltatási feltételeket és a GYIK oldalt, hogy összeállítsa.
Elég veszélyes kiszivárogtatni a saját adatait, de mivel a hatalmas cégek minden nap a ChatGPT-t használják az információk feldolgozására, ez egy adatszivárgási katasztrófa kezdete lehet.
A Samsung bizalmas információkat szivárogtatott ki a ChatGPT-n keresztül
Alapján Gizmodo, a Samsung alkalmazottai tévedésből bizalmas információkat szivárogtattak ki a ChatGPT-n keresztül három különböző alkalommal 20 nap alatt. Ez csak egy példa arra, hogy a vállalatok milyen könnyen kompromittálhatják a személyes adatokat.
A ChatGPT-t nyilvánosan vitatják adatvédelmi problémái miatt, ezért komoly figyelmetlenség, hogy a Samsung hagyta, hogy ez megtörténjen. Egyes országok még a ChatGPT-t is betiltották hogy megvédjék polgáraikat mindaddig, amíg nem javítja a magánéletét, ezért azt gondolná, hogy a vállalatok jobban odafigyelnének arra, hogyan használják fel az alkalmazottakat.
Szerencsére úgy tűnik, hogy a Samsung ügyfelei biztonságban vannak – legalábbis egyelőre. A megsértett adatok csak a belső üzleti gyakorlatra, az általuk használt, saját fejlesztésű kódokra, valamint a csapatértekezletek jegyzőkönyvére vonatkoznak, amelyeket az alkalmazottak nyújtottak be. A munkatársak azonban ugyanolyan könnyen kiszivárogtathatták volna a fogyasztók személyes adatait, és csak idő kérdése, mikor látjuk, hogy egy másik cég pontosan ezt teszi. Ha ez megtörténik, remélhetjük, hogy meglátjuk az adathalász csalások tömeges növekedése és személyazonosság-lopás.
Itt van egy másik kockázati réteg is. Ha az alkalmazottak a ChatGPT segítségével keresik a hibákat, mint ahogyan azt a Samsung kiszivárogtatásánál tették, akkor a chat-dobozba beírt kód is az OpenAI szerverein tárolódik. Ez olyan jogsértésekhez vezethet, amelyek nagymértékben érintik a kiadatlan termékek és programok hibaelhárítását végző vállalatokat. Még az is előfordulhat, hogy olyan információkat láthatunk, mint a kiadatlan üzleti tervek, jövőbeli kiadások és prototípusok, ami hatalmas bevételkiesést eredményez.
Hogyan történik a ChatGPT adatszivárgása?
A ChatGPT adatvédelmi szabályzata egyértelművé teszi, hogy rögzíti a beszélgetéseit, és megosztja a naplókat más cégekkel és AI-oktatóival. Amikor valaki (például a Samsung alkalmazottja) bizalmas információkat ír be a párbeszédpanelbe, a rendszer rögzíti és menti a ChatGPT szervereire.
Nagyon valószínűtlen, hogy az alkalmazottak ezt szándékosan tették, de ez a félelmetes része. A legtöbb adatszivárgást emberi mulasztás okozza. Ennek gyakran az az oka, hogy a vállalat elmulasztotta felvilágosítani munkatársait az olyan eszközök használatának adatvédelmi kockázatairól, mint az AI.
Ha például beillesztenek egy nagy névjegylistát a csevegésbe, és megkérik az AI-t, hogy különítse el az ügyfelek telefonszámait az adatokból, a ChatGPT ezeket a neveket és telefonszámokat rögzíti a nyilvántartásában. Az Ön személyes adatai azoknak a cégeknek a kiszolgáltathatók, amelyekkel nem osztotta meg azokat, ezért előfordulhat, hogy nem védik azokat kellően ahhoz, hogy biztonságban legyenek. Van néhány dolog, amit megtehetsz vigyázzon magára egy adatszivárgás után, de a vállalkozásoknak kell felelniük a szivárgások megelőzéséért.
A történet morálja: Ne áruld el a ChatGPT-nek a titkaidat
Biztonságosan használhatja a ChatGPT-t több száz különböző feladathoz, de a bizalmas információk rendszerezése nem tartozik ezek közé. Ügyeljen arra, hogy ne írjon be semmi személyes dolgot a chat mezőbe, beleértve a nevét, címét, e-mail címét és telefonszámát. Könnyű elkövetni ezt a hibát, ezért ügyeljen arra, hogy ellenőrizze az utasításokat, hogy megbizonyosodjon arról, hogy semmi nem történt véletlenül.
A Samsung kiszivárogtatása megmutatja, mennyire valós a ChatGPT-vel kapcsolatos adatszivárgás kockázata. Sajnos több ilyen típusú hibát fogunk látni, talán sokkal nagyobb hatással, mivel a mesterséges intelligencia a legtöbb vállalkozás folyamatának központi részévé válik.