A Samsung alkalmazottai véletlenül kiszivárogtatták a magánvállalati adatokat a ChatGPT-n keresztül – ez egy példa arra, hogy a mesterséges intelligencia miért jelent olyan nagy veszélyt az Ön magánéletére és biztonságára.

A ChatGPT jelentős biztonsági és adatvédelmi problémává vált, mert túl sokan vagyunk, akik önfeledten osztják meg személyes adatainkat róla. A ChatGPT minden vele folytatott beszélgetést naplóz, beleértve az Ön által megosztott személyes adatokat is. Ennek ellenére ezt nem tudhatja, hacsak nem ásta át az OpenAI adatvédelmi szabályzatát, a szolgáltatási feltételeket és a GYIK oldalt, hogy összeállítsa.

Elég veszélyes kiszivárogtatni a saját adatait, de mivel a hatalmas cégek minden nap a ChatGPT-t használják az információk feldolgozására, ez egy adatszivárgási katasztrófa kezdete lehet.

A Samsung bizalmas információkat szivárogtatott ki a ChatGPT-n keresztül

Alapján Gizmodo, a Samsung alkalmazottai tévedésből bizalmas információkat szivárogtattak ki a ChatGPT-n keresztül három különböző alkalommal 20 nap alatt. Ez csak egy példa arra, hogy a vállalatok milyen könnyen kompromittálhatják a személyes adatokat.

A ChatGPT-t nyilvánosan vitatják adatvédelmi problémái miatt, ezért komoly figyelmetlenség, hogy a Samsung hagyta, hogy ez megtörténjen. Egyes országok még a ChatGPT-t is betiltották hogy megvédjék polgáraikat mindaddig, amíg nem javítja a magánéletét, ezért azt gondolná, hogy a vállalatok jobban odafigyelnének arra, hogyan használják fel az alkalmazottakat.

Szerencsére úgy tűnik, hogy a Samsung ügyfelei biztonságban vannak – legalábbis egyelőre. A megsértett adatok csak a belső üzleti gyakorlatra, az általuk használt, saját fejlesztésű kódokra, valamint a csapatértekezletek jegyzőkönyvére vonatkoznak, amelyeket az alkalmazottak nyújtottak be. A munkatársak azonban ugyanolyan könnyen kiszivárogtathatták volna a fogyasztók személyes adatait, és csak idő kérdése, mikor látjuk, hogy egy másik cég pontosan ezt teszi. Ha ez megtörténik, remélhetjük, hogy meglátjuk az adathalász csalások tömeges növekedése és személyazonosság-lopás.

Itt van egy másik kockázati réteg is. Ha az alkalmazottak a ChatGPT segítségével keresik a hibákat, mint ahogyan azt a Samsung kiszivárogtatásánál tették, akkor a chat-dobozba beírt kód is az OpenAI szerverein tárolódik. Ez olyan jogsértésekhez vezethet, amelyek nagymértékben érintik a kiadatlan termékek és programok hibaelhárítását végző vállalatokat. Még az is előfordulhat, hogy olyan információkat láthatunk, mint a kiadatlan üzleti tervek, jövőbeli kiadások és prototípusok, ami hatalmas bevételkiesést eredményez.

Hogyan történik a ChatGPT adatszivárgása?

A ChatGPT adatvédelmi szabályzata egyértelművé teszi, hogy rögzíti a beszélgetéseit, és megosztja a naplókat más cégekkel és AI-oktatóival. Amikor valaki (például a Samsung alkalmazottja) bizalmas információkat ír be a párbeszédpanelbe, a rendszer rögzíti és menti a ChatGPT szervereire.

Nagyon valószínűtlen, hogy az alkalmazottak ezt szándékosan tették, de ez a félelmetes része. A legtöbb adatszivárgást emberi mulasztás okozza. Ennek gyakran az az oka, hogy a vállalat elmulasztotta felvilágosítani munkatársait az olyan eszközök használatának adatvédelmi kockázatairól, mint az AI.

Ha például beillesztenek egy nagy névjegylistát a csevegésbe, és megkérik az AI-t, hogy különítse el az ügyfelek telefonszámait az adatokból, a ChatGPT ezeket a neveket és telefonszámokat rögzíti a nyilvántartásában. Az Ön személyes adatai azoknak a cégeknek a kiszolgáltathatók, amelyekkel nem osztotta meg azokat, ezért előfordulhat, hogy nem védik azokat kellően ahhoz, hogy biztonságban legyenek. Van néhány dolog, amit megtehetsz vigyázzon magára egy adatszivárgás után, de a vállalkozásoknak kell felelniük a szivárgások megelőzéséért.

A történet morálja: Ne áruld el a ChatGPT-nek a titkaidat

Biztonságosan használhatja a ChatGPT-t több száz különböző feladathoz, de a bizalmas információk rendszerezése nem tartozik ezek közé. Ügyeljen arra, hogy ne írjon be semmi személyes dolgot a chat mezőbe, beleértve a nevét, címét, e-mail címét és telefonszámát. Könnyű elkövetni ezt a hibát, ezért ügyeljen arra, hogy ellenőrizze az utasításokat, hogy megbizonyosodjon arról, hogy semmi nem történt véletlenül.

A Samsung kiszivárogtatása megmutatja, mennyire valós a ChatGPT-vel kapcsolatos adatszivárgás kockázata. Sajnos több ilyen típusú hibát fogunk látni, talán sokkal nagyobb hatással, mivel a mesterséges intelligencia a legtöbb vállalkozás folyamatának központi részévé válik.