A mesterséges intelligencia és a gépi tanulás csodákra képes, a művészetkészítéstől az adminisztrátori feladatok automatizálásáig. De kockázatot is jelentenek, mivel olyan trükkökkel erősíthetik meg a rossz színészeket, mint a deepfake.

Amint ez a technológia fejlődik, jó ötlet megtanulni, hogyan működnek valójában a mélyhamisítások, és ki akarná használni őket – legálisan és illegálisan egyaránt.

Miért fontos megérteni, hogyan és miért használják a mélyhamisításokat

A mélyhamisítás technológia főbb alkalmazásai főként vicces, pornográf vagy filmes anyagok körül forognak, de egy tanulmány bebizonyította, hogy A mélyhamisítások becsaphatják az arcfelismerést. Ez már önmagában is ok az aggodalomra, és vigyázz magadra.

Minél többet használják a technológiát a mindennapi életben és a nagyszabású projektekben, annál jobban megtanulják fejlesztői, hogy zökkenőmentesen hamis videókat készítsenek emberekről, akár hírességekről, akár családtagokról.

Megértés hogyan védheti meg magát a mélyhamisított videóktól

instagram viewer
most már elengedhetetlen, tekintve, hogy az iparágak milyen lelkesen fogadják a technológia előnyeit, különösen a szórakoztatás terén.

Hollywood már jóval korábban több projektben is használta A Metaphysic mélyhamisított AGT bejegyzése, amely megmutatta a világnak, milyen gyors és hatékony is lehet a deepfake alkotás. Íme, mit tartalmaz a folyamat.

Hogyan működnek a mélyhamisítások?

Ami a mélyhamisítások hátterét illeti, a névben van egy nyom: a mély tanulás, a mesterséges neurális hálózatok (ANN) tudománya. Ezek a mélyhamisítású algoritmusok esetében az adatok felszívása, tanulás azokból, és új adatok létrehozása arckifejezések vagy a tiédre ráhelyezett egész arc formájában.

A mélyhamisítású szoftverek fejlesztői jellemzően két ANN-típus egyikét használják: az automatikus kódolókat vagy a generatív ellenséges hálózatokat (GAN).

Az automatikus kódolók megtanulják reprodukálni az általuk betáplált adattömegeket, főleg az arcokról és arckifejezésekről készült fényképeket, és újra létrehozni a kért adatkészleteket. Ezek azonban ritkán pontos másolatok.

A GAN-ok viszont egy intelligensebb rendszerrel rendelkeznek, amely magában foglal egy generátort és egy diszkriminátort. Az előbbi a megtanult adatokat mélyhamisításokká reprodukálja, amelyek aztán megtévesztik az utóbbit.

A diszkriminátor összehasonlítja a generátor alkotásait a valós képekkel, és meghatározza azok hatékonyságát. A legjobb mélyhamisítások természetesen azok, amelyek tökéletesen utánozzák az emberi viselkedést.

Szóval, hogyan készülnek mélyhamisítások ezzel a technológiával? Az olyan alkalmazások mögötti algoritmusok, mint a Reface és DeepFaceLab folyamatosan tanulnak a rajtuk áthaladó adatokból, hogy hatékonyan tudják igazítani az arcvonásokat és kifejezéseket, vagy egyik arcot a másikra rétegezni.

A szoftver alapvetően egy videoszerkesztő, amelyet kifejezetten az arcok manipulálására terveztek. Egyes alkalmazások bonyolultabbak, mint mások, de mindent összevetve bármit megtehetsz, az öregedéstől kezdve a filmezésig.

De a technológiának még mindig vannak hibái. Deepfake létrehozása bonyolultabb lehet, mint hogyan készülnek hamis élő videók, de ugyanolyan egyszerűen észlelhető, mint hamis.

Hogyan lehet felfedezni egy mélyhamisítást

Mivel a mélyhamisításokat főként gépek készítik, a digitális arc jellemzői vagy modora nem mindig tűnik természetesnek. A videó beállításában is előfordulhatnak hibák. Más szóval, hamisítványokat készíthet, ha tudja, mit kell keresnie.

Íme néhány árulkodó jel:

  • Természetellenes pislogás: A gépi tanulás gyakran figyelmen kívül hagyja a pislogást, vagy kínossá teszi.
  • Homályos vagy instabil tulajdonságok: Valakinek a haja, a szája vagy az álla kissé elmosódott lehet, vagy furcsa, gyakran eltúlzott módon mozoghat.
  • Az érzelmek hiánya vagy félrevezetése: A rossz mélyhamisítások szenvtelenek, vagy rosszul utánozzák az érzelmeket.
  • Kínos testbeszéd: Ha a videóban szereplő személy torz vagy szétszórt módon mozgatja a fejét vagy a testét, az mélyhamisítás lehet.
  • Rossz színek és világítás: Az elszíneződések, a megmagyarázhatatlan fények és árnyékok a hamis videók biztos jelei.
  • Inkonzisztens objektumok: A videó beállítása során a mélyhamisító szoftver hibákat követhet el, például megváltoztathatja a ruhák, ékszerek és háttérelemek alakját.
  • Rossz hang: A mélyhamisítások torzíthatják a beszédet és a hangokat a videóban.

Legtöbbet kihozni valamiből módszerek a mélyhamisítások észlelésére ha megtanulod, hogy általában mire készülnek az ilyen videók, és nagyon odafigyelsz az interneten látható felvételek részleteire – ha lehetséges, lassíts.

Emellett egyre több eszközt fejlesztenek ki, mint pl Microsoft Authenticator és a Sensity-é Törvényszéki mélyhamisítás-felderítés, amelyek egy perc szinten elemzik a videókat.

Ki használ mélyhamisítást?

A filmesek egyre gyakrabban használnak mélyhamisítást a színészek arcának öregítésére vagy lecserélésére, mint a Star Warsban. A művészeknek sikerül megeleveníteniük a portrékat, és rávenni őket beszélni és énekelni.

A marketingszakemberek mélyhamisítási technológiával kísérleteznek olyan promóciós tartalmakhoz, amelyekhez nincs szükség színészek felvételére. Az olyan cégek, mint a WPP, szintén alkalmazzák ezt az oktatási videóikhoz.

A technikusok általában vicces videókat készítenek, ahol arcot cserélnek a barátaikkal, vagy egyik színészt a másikra helyezik a népszerű filmekben. Sylvester Stallone átvette a Home Alone irányítását, Heath Ledger Jokerje pedig megjelent az A Knight's Tale-ben.

Sajnos, ha megvizsgálja, mire használják még a mélyhamisítási technológiát, sok rosszindulatú esetet találhat. A deepfake készítők szeretnek félretájékoztatást és sértő üzeneteket terjeszteni, valamint hírességeket céloznak meg, és felnőttfilmekbe helyezik őket. Még hamis felvételekkel is zsarolják az embereket.

Jelenlegi féktelen formájában a deepfake egyet jelent az emberek személyiségi jogait, biztonságát, és még a szerzői jogokat is, például ha az algoritmus egyértelműen nem nyilvánosan használ fotót vagy műalkotást elérhető.

Ezért teszik le a lábukat az országok és a márkák. 2021-től a A Cyber ​​Civil Rights Initiative térképe Az Egyesült Államokban a mélyhamisításról szóló törvények közül négy állam lép fel a közzétett mélyhamisított videók ellen, amelyek valakit nyíltan vagy más módon káros módon ábrázolnak.

Kína emellett lépéseket tesz annak érdekében, hogy kriminalizálja az embereket és a társadalmat károsító mélyhamisításokat, akár az egyéni jogok megsértésével, akár az álhírek terjesztésével. Még – jelentette be Meta 2020-ban a félrevezető, manipulált videókat nem fogadták szívesen.

A szabályozás mellett a hivatalos szervek világszerte a mélyhamisított bűncselekmények jobb felderítését és megelőzését szorgalmazzák. A A Rathenau Instituut jelentése Arról, hogy az európai politikának miként kell kezelnie a mélyhamisításokat, támogatja a szoftvereket olyan eszközökkel, mint a hangszóró- és arcfelismerés, a hang élénkségének észlelése és az arcvonáselemzés.

Ismerje meg, hogyan működnek a mélyhamisítások, hogy félrevezessenek

A Deepfakes már jóban-rosszban a mainstream-be került. Élvezze tehát a vicces és inspiráló videókat, miközben felkészül a rosszindulatúak leküzdésére.

Végső soron mi is egy ilyen mélyhamisítás, de nem egy olyan eszköz, amely arra szolgál, hogy becsapjon? Ha tudod, hogy mit keress és hogyan reagálj, kevesebb hatalma van feletted.

Például észreveheti a mélyhamisításokat a közösségi médiában az álhírek és fiókok mellett, és elkerülheti a félretájékoztatást, az adathalász kísérleteket és egyebeket. A mélyhamisítás-észlelési és -megelőzési technológia fejlődésével egyre több támogatást fog kapni.