A mélyhamisítások és az AI által létrehozott videók itt maradnak. De az elmúlt néhány évben minőségük és mennyiségük növekedett, és sokan aggódtak a nemzetbiztonság és a magánélet miatt.

Ennek ellenére hiába próbálták a névtelen online felhasználók valósághűvé tenni hamis videójukat, soha nem tudtak túljutni a fejlett arcfelismerő szoftveren. Mostanáig.

Bolond arcfelismerő API -k

A dél -koreai Suwon -i Sungkyunkwan Egyetem kutatói, tesztelte a jelenlegi deepfake technológia minőségét. Mind az Amazon, mind a Microsoft API-kat tesztelték nyílt forráskódú és általánosan használt deepfake videógeneráló szoftverrel, hogy lássák, mennyire jól teljesítenek.

A kutatók hollywoodi hírességek arcát használták. Annak érdekében, hogy szilárd mélyhamisítványokat hozzon létre, a szoftvernek sok, kiváló minőségű képre van szüksége a különbözőktől ugyanazon személyek szögei, amelyeket sokkal könnyebb elsajátítani a hírességek helyett a hétköznapi emberek.

A kutatók úgy döntöttek, hogy tanulmányaik során a Microsoft és az Amazon API -ját is használják, mivel mindkét vállalat hírességek arcfelismerő szolgáltatásait kínálja. Nyilvánosan elérhető adatkészleteket használtak, és alig több mint 8000 mélyhamisítványt hoztak létre. Minden mélyfake videóból több arcfelvételt szedtek ki, és kérdéses az API -khoz.

A Microsoft Azure Cognitive Services szolgáltatásával a kutatók az idő 78 százalékában képesek voltak becsapni a rendszert a mélyhamisítások segítségével. Az Amazon eredményei valamivel jobbak voltak, a beküldött arcok 68 százalékát valósnak azonosították.

Mi a helyzet a Deepfake detektorokkal?

A Deepfake érzékelők nagyjából ugyanúgy működnek, mint a deepfake. Az érzékelők olyan szoftverek, amelyeket gépi tanulási modellek segítségével tanítottak meg a hamis videók észlelésére.

De ahelyett, hogy egy hiperreális videó létrehozására összpontosítana, hogy becsapja az érzékelőket, a mélyfake-ek most minden keretben tartalmazhatnak ellentmondásos példákat, hogy megzavarják az AI rendszert. Valójában az ilyen típusú mélyhamis támadások sikerességi rátái eltérőek 78 -ról 99 százalékra.

Rosszabbodik

A Deepfakes egy gépi tanulási alkalmazás. Egy olyan kép létrehozásához, amely még távolról is meggyőző, több száz olyan képre van szüksége ugyanazon személy arcáról, akik különböző szögekből és különböző érzelmekből állnak.

Mivel hatalmas mennyiségű adatra van szükség, azt gondolnánk, hogy csak a nagy online jelenlétű emberek vannak veszélyben, például hírességek és politikusok. De ez már nem így van.

A Deeptrace szerint az online mélyhamisítások száma 330 százalékkal nőtt egy év alatt - 2019 októberétől 2020 júniusáig. Arról nem is beszélve, hogy a szoftverek és az algoritmusok, amelyeket a mélyhamisítók használnak, egyre erősebbek, könnyebben elérhetők és hozzáférhetők.

Kiket fenyeget a Deepfakes?

Amikor a mélyhamisítások először mainstream, az elsődlegesek lettek a magánélet és a nemzetbiztonság miatt aggódtak. Az emberek attól tartottak, hogy a politikusokról és a hivatalos kormányzati dolgozókról készült videofelvételekben már nem lehet megbízni.

De bár felelőtlenség lenne figyelmen kívül hagyni a mélykockázati biztonsági kockázatot, több felmérés is azt találta, hogy a mélyfake -gyártókat még nem érdekli annyira a politika megzavarása. Az online mélyfake -videók többsége két kategóriába sorolható: hírességinterjúk vicces videói, valamint filmek és pornográf anyagok.

Bár a közelmúltbeli tanulmányt hírességek arcai segítségével végezték annak biztosítása érdekében, hogy a mélyhamisítások magas színvonalúak legyenek az API -k becsapásához, ez nem jelenti azt, hogy nem lehet mélyebb hamisítványokat készíteni kevesebb adatszolgáltatással. Persze lehet, hogy esélyük sincs becsapni a fejlett arcfelismerő rendszereket, de elég meggyőzőek lehetnek ahhoz, hogy becsapjanak másokat.

Manapság meggyőzően el lehet készíteni bárkit, akinek társadalmi jelenléte van. Mindössze néhány fényképre van szükségük rólad, és talán egy videóra, amelyben megjelensz. A kapott mélyhamisítás lehet, hogy gyenge minőségű, de még mindig kivitelezhető és káros lehet.

A jövő még ismeretlen

Sok ellentmondásos jóslat létezik a mélyhamisítások állapotával kapcsolatban, mivel ezek nem fognak egyhamar elmúlni.

Vannak, akik apokaliptikus kiberjövőt várnak, ahol nem bízhat az online felvételekben. Mások optimistábbak, összehasonlítják a mélyhamisításokat az animációval, és azt mondják, hogy jövője lehet a tartalomgyártásban.

RészvényCsipogEmail
Hogyan védhetjük meg magunkat a hamis videóktól

Egyre elterjedtebbek a mélyhamisítások. Az alábbiakban bemutatjuk, hogyan fenyegethetik online adatvédelmét, és hogyan kerülhetik el a befogadást.

Olvassa tovább

Kapcsolódó témák
  • Biztonság
  • Internet
  • Arcfelismerés
  • Online adatvédelem
  • Online biztonság
A szerzőről
Anina Ot (52 cikk megjelent)

Anina szabadúszó technológia- és internetbiztonsági író a MakeUseOf -nál. 3 éve kezdett írni a kiberbiztonságban, remélve, hogy hozzáférhetőbbé teszi az átlagember számára. Szeretne új dolgokat tanulni, és egy hatalmas csillagászati ​​nerd.

Továbbiak Anina Ot

Iratkozzon fel hírlevelünkre

Csatlakozz hírlevelünkhöz, ahol technikai tippeket, véleményeket, ingyenes e -könyveket és exkluzív ajánlatokat találsz!

Feliratkozáshoz kattintson ide