A Deepfake technológiával szórakoztató lehet játszani, de a benne rejlő károk jelentősek. Íme, mit hozhat a deepfake jövője.

A mélyhamisított képek árulkodó jeleit korábban könnyű volt észrevenni, de a generatív mesterséges intelligencia szinte mindent megkérdőjelez, amit most látunk és hallunk. Minden új kibocsátott mesterséges intelligencia-modellel a hamis képek árulkodó jelei csökkennek, és tovább fokozzák a zavart, most már hamisított videókat, szerettei hangklónjait, és hamis cikkeket készíthet egyszerűen. másodpercig.

Ahhoz, hogy ne tévesszen meg bennünket az AI mélyhamisítása, érdemes tudni, hogy milyen veszélyeket rejtenek magukban.

A mélyhamisítások evolúciója

A mélyhamisítás azt mutatja, hogy egy személy olyasmit csinál, ami soha nem történt meg a való életben. Teljesen hamis. Nevetünk a mélyhamisítványokon, amikor mémként vagy viccként megosztják őket az interneten, de nagyon kevesen találják viccesnek, ha félrevezetnek minket.

A múltban a mélyhamisításokat úgy hozták létre, hogy egy meglévő fényképet készítettek, és egy képszerkesztő szoftverben, például a Photoshopban módosították. A mesterséges intelligencia mélyhamisítását azonban az különbözteti meg egymástól, hogy mélytanulási algoritmusok segítségével a semmiből előállítható.

A Merriam-Webster szótár a mélyhamisítást a következőképpen határozza meg:

Olyan kép vagy felvétel, amelyet meggyőzően módosítottak és manipuláltak annak érdekében, hogy valaki olyasmit csinál vagy mond, amit valójában nem tettek vagy mondanak.

De az AI technológia fejlődésével ez a meghatározás kezd elavultnak tűnni. Az AI-eszközök használatával a mélyhamisítások immár képeket, szövegeket, videókat és hangklónozást is tartalmaznak. Néha az AI-generálás mind a négy módját egyszerre használják.

Mivel ez egy automatizált folyamat, amely hihetetlenül gyorsan és olcsón használható, tökéletes eszköz a kidobáshoz. soha nem látott sebességű mélyhamisítást – mindezt anélkül, hogy bármit is tudnia kellene a fotók, videók vagy hang.

Az AI Deephamisítások nagy veszélyei

Egy sereg AI videó generátorok már léteznek, sok mellett AI hanggenerátorok. Dobd be a nagy nyelvi modell, mint a GPT-4 és van egy receptje a leghihetőbb mélyhamisítások létrehozására, amelyeket a modern történelemben eddig láttunk.

Az egyik módja annak, hogy elkerüljük a félrevezetést, ha tisztában vagyunk a mesterséges intelligencia mélyhamisításainak különböző típusaival, és azzal, hogy hogyan lehet őket becsapni. Íme néhány komoly példa arra, hogy az AI mélyhamisítási technológia valós veszélyt jelent.

1. AI Identity Theft

Lehet, hogy láttad őket. Az első valóban vírusos mesterségesintelligencia-hamisítványok között, amelyek világszerte elterjedtek, volt Donald Trump letartóztatásáról készült képe, valamint Ferenc pápa fehér kabátjában.

Miközben az ember ártatlan újragondolásnak tűnik, hogy egy híres vallásos személyiség mit ölthet magára egy hűvös római napon; a másik kép, amely egy politikai személyiséget mutat be súlyos helyzetben a törvénnyel, sokkal nagyobb következményekkel jár, ha valósnak tekintjük.

Eddig az emberek főként hírességeket, politikai személyiségeket és más híres személyeket vettek célba az AI mélyhamisítások készítésekor. Részben ennek az az oka, hogy a híres személyek rengeteg fotót találnak róluk az interneten, ami valószínűleg segített a modell képzésében.

Egy olyan mesterséges intelligencia képgenerátor esetében, mint a Midjourney – amelyet Trump és a pápa mélyhamisításában is használnak – a felhasználónak egyszerűen be kell írnia egy szöveget, amely leírja, hogy mit szeretne látni. Kulcsszavak használhatók a művészeti stílus megadására, például fénykép vagy fotorealizmus, és az eredmények finomhangolhatók a felbontás felskálázásával.

Ugyanilyen könnyen lehet tanuld meg a Midjourney használatát és próbálja ki ezt saját maga, de nyilvánvaló erkölcsi és jogi okokból kerülje a képek nyilvános közzétételét.

Sajnos, ha egy átlagos, nem híres ember vagy, az sem garantálja, hogy biztonságban vagy a mesterséges intelligencia mélyhamisításaitól.

A probléma az AI képgenerátorok által kínált kulcsfontosságú szolgáltatásban rejlik: a saját kép feltöltésének és az AI segítségével történő manipulálásának lehetőségében. És egy olyan eszköz, mint Kifestés a DALL-E 2-ben kiterjesztheti egy meglévő képet a határain túlra, ha beír egy szöveget, és leírja, hogy mit szeretne még létrehozni.

Ha valaki más tenné ezt a fotóiddal, a veszélyek lényegesen nagyobbak lehetnek, mint a fehér kabátban viselő pápa mélyhamisítása – bárhol használhatják, úgy tesznek, mintha te vagy. Míg a legtöbb ember általában jó szándékkal használja az AI-t, nagyon kevés korlátozás akadályozza meg az embereket abban, hogy kárt okozzanak, különösen személyazonosság-lopás esetén.

2. Deepfake Voice Clone csalások

Az AI segítségével a mélyhamisítások átléptek egy határt, amire a legtöbben nem voltunk felkészülve: hamis hangklónokra. Csupán kis mennyiségű eredeti hanganyaggal – esetleg egy egyszer közzétett TikTok-videóból vagy egy YouTube-videóból, amelyben szerepel – egy mesterséges intelligencia modell képes reprodukálni az Ön egyedi hangját.

Egyszerre megdöbbentő és ijesztő elképzelni, hogy olyan telefonhívást kapunk, amely családtagnak, barátnak vagy kollégának szól. A mélyhamisított hangklónok elég komoly aggodalomra adnak okot ahhoz, hogy a Szövetségi Kereskedelmi Bizottság (FTC) figyelmeztetést adott ki ezzel kapcsolatban.

Ne bízz a hangban. Hívja fel azt a személyt, aki állítólag kapcsolatba lépett Önnel, és ellenőrizze a történetet. Használjon olyan telefonszámot, amelyről tudja, hogy az övék. Ha nem tudja elérni kedvesét, próbálja meg felvenni vele a kapcsolatot egy másik családtagon vagy a barátaikon keresztül.

– közölte a Washington Post egy 70-es éveiben járó házaspár esete, akiket olyan személy hívott fel, aki az unokájára hasonlított. Börtönben volt, és sürgősen pénzre volt szüksége az óvadékhoz. Nem lévén más okuk kételkedni, hogy kivel beszélnek, továbbmentek, és átadták a pénzt a csalónak.

Nem csak az idősebb generáció van veszélyben, – számolt be a The Guardian egy másik példa egy bankvezetőre, aki jóváhagyott egy 35 millió dolláros tranzakciót, miután egy sor „mélyen hamisított hívást” indított valakitől, akiről azt hitték, hogy bankigazgató.

3. Tömeggyártású álhírek

Nagy nyelvi modellek, pl ChatGPT nagyon-nagyon jók az emberi hangzású szövegek létrehozásában, és jelenleg nincsenek hatékony eszközeink a különbség észlelésére. Rossz kezekben az álhíreket és az összeesküvés-elméleteket olcsón lehet előállítani, és tovább tart a leleplezésük.

A félretájékoztatás terjesztése természetesen nem újdonság, hanem kutatási cikk megjelent az arXiv 2023 januárjában kifejti, hogy a probléma abban rejlik, hogy mennyire egyszerű a kimenetet AI-eszközökkel bővíteni. „A mesterséges intelligencia által generált befolyásolási kampányoknak” nevezik, amelyeket például a politikusok felhasználhatnak politikai kampányaik kiszervezésére.

Egynél több mesterséges intelligencia által generált forrás kombinálása magas szintű mélyhamisítást eredményez. Példaként említhetjük, hogy egy mesterséges intelligencia-modell jól megírt és meggyőző hírt generálhat Donald Trump letartóztatásáról szóló hamis kép mellé. Ez nagyobb legitimitást ad neki, mintha a képet önmagában osztanák meg.

Az álhírek nem korlátozódnak a képekre és az írásra, a mesterséges intelligencia videógenerálásának fejlődése azt jelenti, hogy egyre több mélyhamisított videó jelenik meg. Íme, Robert Downey Jr. egyike Elon Muskról készült videóba oltva, amelyet a Deepfakery YouTube-csatorna.

A mélyhamisítás létrehozása olyan egyszerű lehet, mint egy alkalmazás letöltése. Használhat hasonló alkalmazást A TokkingHeads az állóképeket animált avatarokká alakítja, amely lehetővé teszi saját kép és hang feltöltését, hogy úgy tűnjön, mintha az illető beszélne.

A legtöbb esetben szórakoztató és szórakoztató, de van benne baj is. Megmutatja, milyen könnyű bárkiről alkotott kép segítségével azt a látszatot kelteni, mintha az illető olyan szavakat mondott volna ki, amelyeket soha nem beszélt.

Ne tévesszen meg egy AI Deephamisítvány

A mélyhamisítások gyorsan, nagyon alacsony költséggel, alacsony szakértelem vagy számítási teljesítmény mellett telepíthetők. Lehetnek generált kép, hangklón vagy mesterséges intelligencia által generált képek, hangok és szövegek kombinációja.

Korábban sokkal bonyolultabb és munkaigényesebb volt mélyhamisítást előállítani, de most, mivel rengeteg mesterséges intelligencia-alkalmazás létezik, szinte bárki hozzáférhet a mélyhamisításhoz használt eszközökhöz. Ahogy a mesterséges intelligencia mélyhamisítási technológiája egyre fejlettebbé válik, érdemes szorosan figyelemmel kísérni az általa jelentett veszélyeket.