Álhírek, mélyhamisítások, félrevezető képek: mindezek mesterséges intelligencia segítségével hozhatók létre. Íme, hogyan jelenti az AI a téves információk terjedését.
A mesterséges intelligencia (AI) ma már életünk számos területén szerepet játszik. Konkrétan az olyan generatív AI-eszközök, mint a ChatGPT és mások, jelentősen növekedtek. Ez azt jelenti, hogy a jövőben rengeteg mesterséges intelligencia által generált tartalom lesz.
A generatív mesterséges intelligencia azonban az AI által generált dezinformáció kockázatát is magában hordozza. Jellemzői megkönnyítik az opportunista személyek hamis információk terjesztését. Tehát vizsgáljuk meg, hogyan használják fel a generatív AI-t dezinformációra.
A generatív mesterséges intelligencia lehetséges kockázatai a dezinformáció terjesztésében
A generatív mesterséges intelligencia számos fenyegetést jelent az emberekre, például munkahelyek elvesztésével, fokozott megfigyeléssel és kibertámadásokkal. És a A mesterséges intelligencia biztonsági problémái még rosszabbak lesznek
. De van egy másik aggodalom: az emberek felhasználhatják hazugságok terjesztésére. A megtévesztő egyének a generatív mesterséges intelligencia segítségével álhíreket oszthatnak meg vizuális, auditív vagy szöveges tartalmakon keresztül.A hamis hírek három típusba sorolhatók:
- Félretájékoztatás: Nem szándékosan téves vagy hamis információ.
- Dezinformáció: manipulatív vagy megtévesztő információk szándékos felhasználása.
- Rossz információ: Félrevezető hír vagy az igazság eltúlzott változata.
Amikor deepfake technológiával kombinálva, a generatív AI-eszközök valódi megjelenésű és hangzású tartalmakat, például képeket, videókat, hangklipeket és dokumentumokat készíthetnek. Számos lehetőség kínálkozik hamis tartalom létrehozására, tehát tudva hogyan védheti meg magát a mélyhamisított videóktól fontos.
Az álhírek terjesztői nagy mennyiségben generálhatnak tartalmat, ami megkönnyíti a tömegek közötti terjesztést a közösségi médián keresztül. A célzott dezinformáció felhasználható a politikai kampányok befolyásolására, ami potenciálisan hatással lehet a választásokra. Ezenkívül a mesterséges intelligencia szöveg- és képgeneráló eszközeinek használata aggályokat vet fel a szerzői jogi törvényekkel kapcsolatban, amint arról beszámolt a Kongresszusi Kutatószolgálat: az ezen eszközök által generált tartalom tulajdonjogának meghatározása kihívást jelent.
Hogyan kezeli a törvény az álhírek generatív mesterségesintelligencia útján történő terjesztését? Ki lesz felelős a hamis információk terjesztéséért – a felhasználók, a fejlesztők vagy maguk az eszközök?
A generatív mesterséges intelligencia 4 módja a dezinformáció terjesztésére
Az online biztonság megőrzése érdekében mindenkinek meg kell értenie a generatív mesterséges intelligencia kockázatait a dezinformáció terjesztésében, mivel ennek számos formája van. Íme néhány módszer, amellyel emberek manipulálására használható.
1. Hamis tartalom generálása online
A hamis tartalom generatív mesterséges intelligencia segítségével történő létrehozása a hamis híreket terjesztők által alkalmazott általános stratégia. Olyan népszerű generatív mesterséges intelligencia eszközöket használnak, mint a ChatGPT, DALL-E, Bard, Midjourney és mások különféle típusú tartalmak előállításához. Például, A ChatGPT számos módon segítheti a tartalomkészítőket. De közösségi médiában olyan bejegyzéseket vagy hírcikkeket is generálhat, amelyek megtéveszthetik az embereket.
Ennek bizonyítására arra kértem a ChatGPT-t, hogy írjon egy kitalált cikket Joe Biden amerikai elnök korrupciós vádak miatti letartóztatásáról. Azt is kértük, hogy csatolja az illetékes hatóságok nyilatkozatait, hogy hihetőbbnek tűnjön.
Íme az a fiktív cikk, amellyel a ChatGPT állt elő:
Meglepő módon az eredmény nagyon meggyőző volt. A cikk meggyőzőbbé tétele érdekében mérvadó személyek nevét és nyilatkozatait tartalmazza. Ez azt mutatja be, hogy bárki hogyan tud ilyen eszközökkel hamis híreket generálni és könnyen terjeszteni az interneten.
2. Chatbotok használata az emberek véleményének befolyásolására
A generatív mesterséges intelligencia modellekre támaszkodó chatbotok különféle taktikákat alkalmazhatnak az emberek véleményének befolyásolására, többek között:
- Érzelmi manipuláció: A mesterséges intelligencia az érzelmi intelligencia modelljei segítségével képes kihasználni az érzelmi kiváltó tényezőket és az elfogultságokat az Ön nézőpontjának alakítására.
- Visszhangkamrák és megerősítési torzítás: A chatbotok megerősíthetik a meglévő hiedelmeket azáltal, hogy visszhangkamrákat hoznak létre, amelyek igazolják az elfogultságait. Ha már rendelkezik egy bizonyos nézőponttal, az AI megerősítheti azt azáltal, hogy olyan információkat mutat be, amelyek összhangban vannak az Ön véleményével.
- Társadalmi bizonyíték és bandwagon hatás: A mesterséges intelligencia képes manipulálni a közhangulatot azáltal, hogy társadalmi bizonyítékokat generál. Ennek jelentős következményei lehetnek, mivel az egyéneket arra késztetheti, hogy alkalmazkodjanak a közvéleményhez, vagy kövessék a tömeget.
- Célzott személyre szabás: A chatbotok hatalmas mennyiségű adathoz férnek hozzá, amelyet személyre szabott profilok létrehozásához gyűjthetnek. Ez lehetővé teszi számukra, hogy az Ön preferenciái alapján személyre szabják a tartalmat. A célzott személyre szabással az AI meggyőzheti az egyéneket, vagy tovább erősítheti véleményüket.
Ezek a példák mind azt mutatják be, hogy a chatbotok hogyan használhatók félrevezetésre.
3. AI DeepFakes létrehozása
Valaki a mélyhamisításokkal hamis videókat készíthet arról, hogy egy egyén olyasmit mond vagy tesz, amit soha nem tett. Használhatják ezeket az eszközöket szociális manipulációra vagy mások elleni rágalomkampányok futtatására. Ráadásul a mai mémkultúrában a mélyhamisítások a közösségi médiában történő internetes zaklatás eszközeiként is szolgálhatnak.
Ezenkívül a politikai ellenfelek mélyhamisított hangokat és videókat használhatnak ellenfeleik hírnevének rontására, manipulálva a közhangulatot a mesterséges intelligencia segítségével. Így A mesterséges intelligencia által generált mélyhamisítások számos fenyegetést jelentenek a jövőben. Egy 2023-as szerint A Reuters jelentése, az AI technológia térnyerése hatással lehet a 2024-es amerikai választásokra. A jelentés kiemeli az olyan eszközök hozzáférhetőségét, mint a Midjourney és a DALL-E, amelyek könnyen létrehozhatnak kitalált tartalmat, és befolyásolhatják az emberek kollektív véleményét.
Akkor kulcsfontosságú, hogy képes legyen rá azonosítani a mélyhamisítások által létrehozott videókat és megkülönbözteti őket az eredetitől.
4. Emberi hangok klónozása
A generatív mesterséges intelligencia a mélyhamisítási technológiával együtt lehetővé teszi valaki beszédének manipulálását. A Deepfake technológia gyorsan fejlődik, és számos olyan eszközt kínál, amelyekkel bárki hangját megismételheti. Ez lehetővé teszi a rosszindulatú személyek számára, hogy kiadják magukat másoknak, és megtévesszék a gyanútlan személyeket. Az egyik ilyen példa az a deepfake zene használata.
Lehet, hogy olyan eszközökkel találkoztál, mint pl Hasonlítson az AI-re, Szónokol, Becsapni tégedés mások, amelyek a hírességek hangját utánozhatják. Bár ezek az AI audioeszközök szórakoztatóak lehetnek, jelentős kockázatokat rejtenek magukban. A csalók hangklónozási technikákat használhatnak különféle csalárd sémákhoz, ami anyagi veszteségeket okoz.
A csalók mély hamis hangokat használhatnak, hogy megszemélyesítsék szeretteit, és felhívják Önt, úgy tesznek, mintha bajban vannak. A meggyőzően hangzó szintetikus hanganyaggal felszólíthatják Önt, hogy sürgősen küldjön pénzt, így csalásuk áldozatává válhat. Egy eseményről számolt be A Washington Post 2023 márciusa példázza ezt a problémát: a csalók mély hamis hangokat használtak, hogy meggyőzzék az embereket arról, hogy unokáik börtönben vannak, és pénzre van szükségük...
Hogyan lehet észrevenni az AI által terjesztett dezinformációt
A mesterséges intelligencia által elősegített dezinformáció terjedése elleni küzdelem sürgető kérdés a mai világban. Tehát hogyan lehet észrevenni az AI által készített hamis információkat?
- Szkeptikusan közelítse meg az online tartalmat. Ha valami manipulatívnak vagy hihetetlennek tűnő dologgal találkozik, ellenőrizze ezt keresztellenőrzéssel.
- Mielőtt megbízna egy hírcikkben vagy közösségi média bejegyzésben, győződjön meg róla, hogy jó hírű forrásból származik.
- Ügyeljen a mélyhamisítások jeleire, mint például a természetellenes pislogás vagy arcmozgások, rossz hangminőség, torz vagy elmosódott képek, valamint a valódi érzelmek hiánya a beszédben.
- Használjon tényellenőrző webhelyeket az információk pontosságának ellenőrzésére.
Az alábbi lépések követésével azonosíthatja magát, és megvédheti magát az AI-vezérelt félretájékoztatástól.
Óvakodj az AI által terjesztett dezinformációtól
A generatív szoftverek döntő szerepet játszottak az AI fejlesztésében. Ennek ellenére jelentős dezinformációs források is lehetnek a társadalomban. Ezek a megfizethető eszközök lehetővé tették bárki számára, hogy különféle típusú tartalmakat hozzon létre kifinomult AI-modellek segítségével; az a képességük, hogy nagy mennyiségben generálnak tartalmat és mélyhamisítványokat építsenek be, még veszélyesebbé teszi őket.
Fontos, hogy tisztában legyen a dezinformáció kihívásaival az AI-korszakban. Annak megértése, hogy az AI hogyan használható álhírek terjesztésére, az első lépés a félretájékoztatás elleni védekezés felé.