A mesterséges intelligencia (AI) képes megváltoztatni társadalmunk természetét. És ha a jelenleg rendelkezésünkre álló mesterséges intelligencia-eszközök bármiféle jelzést adnak arról, hogy mi várható, akkor sok mindenre számíthatunk.
Nekünk is sok mindenre kell vigyáznunk. Nevezetesen a mesterséges intelligencia kiberbűnözők és más fenyegetés szereplői általi fegyveresítése. Ez nem elméleti aggály, és még az AI képgenerátorok sem mentesek a visszaélésektől.
Mik azok az AI képgenerátorok? Hogyan működnek?
Ha valaha is használt mesterséges intelligencia képgenerátort, akkor elég jó ötlete van, hogy miről is szól. Még ha soha nem is használtál ilyet, valószínűleg találkoztál már mesterséges intelligencia által generált képekkel a közösségi médiában és máshol. A ma népszerű szoftver nagyon egyszerű elven működik: a felhasználó begépeli a szöveget, az AI pedig a szöveg alapján készít egy képet.
Ami a motorháztető alatt zajlik, az sokkal összetettebb. Az AI sokkal jobb lett az elmúlt években, és a legtöbb szöveg-kép generátorok manapság úgynevezett diffúziós modellek. Ez azt jelenti, hogy hosszú időn keresztül "oktatják" őket hatalmas számú szövegen és képen, amitől alkotásaik lenyűgözőek és lenyűgözően valósághűek.
Ami ezeket az AI-eszközöket még lenyűgözőbbé teszi, az az a tény, hogy nemcsak a meglévő képeket módosítják, vagy több ezer képet egyesítenek egybe, hanem új, eredeti képeket is létrehoznak a semmiből. Minél többen használják ezeket a szöveg-kép generátorokat, annál több információt kapnak, és annál jobbak lesznek az alkotásaik.
Néhány a legismertebbek közül Az AI képgenerátorok a Dream by WOMBO, DALL-E, Stable Diffusion, Midjourney, DeepAI, Fotor és Craiyon. Újak bukkannak fel jobbra-balra, a technológiai óriások – köztük a Google is – kiadják a sajátjukat, így csak találgathatunk, mit hoz a jövő.
4 mód, ahogyan a fenyegető szereplők fegyverezhetik az AI képgenerátorokat
Mint minden technológiát, az AI képgenerátorokat is visszaélhetik a rosszindulatú szereplők. Valójában már mindenféle aljas célra használják őket. De pontosan milyen típusú csalásokat és kibertámadásokat hajthat végre egy bűnöző az AI képgenerátorok segítségével?
1. Szociális tervezés
Az egyik nyilvánvaló dolog, amit a fenyegetés szereplői tehetnek az AI képgenerátorokkal szociális tervezéssel foglalkozni; például hamis közösségimédia-profilokat hozhat létre. E programok némelyike hihetetlenül valósághű képeket hozhat létre, amelyek pont úgy néznek ki, mint valódi emberek valódi fényképei, és a csalók ezeket a hamis közösségi média profilokat harcsázásra használhatják.
A valódi emberek fotóival ellentétben a mesterséges intelligencia által generált képeket nem lehet felderíteni fordított képkereséssel, és a kiberbûnözõnek nem kell korlátozott számú fénykép a célpont megszerzéséhez – mesterséges intelligencia segítségével tetszőleges mennyiséget generálhatnak, meggyőző online identitást építve karcolás.
De vannak valós példák arra, hogy a fenyegetés szereplői mesterséges intelligencia képgenerátorokat használnak az emberek átverésére. 2022 áprilisában TechTalks Ben Dickinson blogger e-mailt kapott egy ügyvédi irodától, amelyben azt állították, hogy engedély nélkül használt fel egy képet. Az ügyvédek e-mailben küldtek egy DMCA szerzői jogi megsértési közleményt, amelyben azt mondták Dickinsonnak, hogy vissza kell hivatkoznia egy ügyfelükre, vagy el kell távolítania a képet.
Dickinson rákeresett a google-ban az ügyvédi irodára, és megtalálta a hivatalos weboldalt. Mindez teljesen jogosnak tűnt; az oldalon még 18 ügyvéd fényképe is volt, életrajzukkal és bizonyítványukkal együtt. De egyik sem volt igazi. A fotókat mind mesterséges intelligencia generálta, és a feltételezett szerzői jogsértésről szóló értesítéseket kiküldték valakitől, aki vissza linkeket akar kicsikarni a gyanútlan bloggerektől, egy etikátlan, fekete kalap SEO (keresőoptimalizálás) stratégia.
2. Jótékonysági csalások
Amikor 2023 februárjában pusztító földrengések sújtották Törökországot és Szíriát, világszerte emberek milliói fejezték ki szolidaritásukat az áldozatokkal ruhák, élelmiszerek és pénz adományozásával.
-tól származó jelentés szerint BBC, a csalók kihasználták ezt, mesterséges intelligencia segítségével valósághű képeket készítettek és adományokat kértek. Az egyik csaló mesterséges intelligencia által generált képeket mutatott a romokról a TikTok Live-on, és adományokat kért nézőitől. Egy másik egy mesterséges intelligencia által generált képet tett közzé egy görög tűzoltóról, aki egy sérült gyermeket ment ki a romokból, és Bitcoin-adományokat kért követőitől.
Csak elképzelni lehet, hogy a jövőben milyen típusú jótékonysági csalásokat hajtanak végre a bűnözők a mesterséges intelligencia segítségével, de nyugodtan feltételezhetjük, hogy csak jobban tudják majd visszaélni ezzel a szoftverrel.
3. Mélyhamisítások és dezinformáció
Kormányok, aktivista csoportok és agytrösztök már régóta figyelmeztetnek erre a mélyhamisítás veszélyei. A mesterséges intelligencia képgenerátorai egy újabb összetevővel bővítik ezt a problémát, tekintettel arra, hogy alkotásaik mennyire valósághűek. Valójában az Egyesült Királyságban van még egy vígjáték is, a Deep Fake Neighbor Wars, amely humort talál a valószínűtlen celebpárokban. Mi akadályozna meg egy dezinformációs ügynököt abban, hogy hamis képet alkosson, és azt botok segítségével reklámozza a közösségi médiában?
Ennek valós életbeli következményei lehetnek, ahogy az majdnem megtörtént 2022 márciusában, amikor egy hamis videó, amely Volodimir Zelenszkij ukrán elnököt ábrázolja, amint az ukránokat adják meg magát, az interneten. NPR. De ez csak egy példa, mert a lehetőségek szinte végtelenek, és számtalan mód létezik a a fenyegetőző ronthatja valaki hírnevét, hamis narratívát hirdethet vagy álhíreket terjeszthet a segítséggel az AI.
4. Hirdetéscsalás
TrendMicro A kutatók 2022-ben fedezték fel, hogy a csalók mesterséges intelligencia által generált tartalmakat használnak félrevezető reklámok létrehozására és árnyékos termékek népszerűsítésére. Olyan képeket készítettek, amelyek azt sugallták, hogy népszerű hírességek használnak bizonyos termékeket, és ezek alapján reklámkampányokat futtattak.
Például egy „pénzügyi tanácsadási lehetőség” hirdetésében szerepelt Elon Musk milliárdos, a Tesla alapítója és vezérigazgatója. Természetesen Musk soha nem támogatta a szóban forgó terméket, de a bemutatott mesterséges intelligencia által generált felvételek így látszottak, feltehetően rávetették a gyanútlan nézőket, hogy kattintsanak a hirdetésekre.
AI és kiberbiztonság: összetett probléma, amelyet meg kell oldanunk
A jövőben valószínűleg a kormányzati szabályozóknak és a kiberbiztonsági szakértőknek együtt kell működniük a mesterséges intelligencia által hajtott kiberbűnözés növekvő fenyegetésének leküzdésében. De hogyan szabályozhatjuk a mesterséges intelligenciát és védhetjük meg a hétköznapi embereket az innováció elfojtása és a digitális szabadságjogok korlátozása nélkül? Ez a kérdés az elkövetkező években is felvetődik.
Amíg nincs válasz, tegyen meg mindent, hogy megvédje magát: gondosan ellenőrizze az interneten látott információkat, kerülje el árnyékos webhelyeket, használjon biztonságos szoftvereket, tartsa naprakészen eszközeit, és tanulja meg használni a mesterséges intelligenciát előny.