A mesterséges intelligencia (AI) éppolyan ellentmondásos, mint amilyen lenyűgöző. A munka és a mindennapi élet számos részét megkönnyítheti, de etikai kérdéseket is felvet. A mesterséges intelligencia amerikai kormány általi használata különösen nyugtalanítja néhány embert.

Manapság számos kormányzati mesterséges intelligencia-projekt van használatban vagy fejlesztés alatt, és néhányuk sok jót tett. Ugyanakkor rengeteg mesterséges intelligencia adatvédelmi aggályt vetnek fel. Íme egy közelebbi pillantás ezekre a projektekre, és arra, hogy mit jelentenek a nyilvánosság számára.

Példák kormányzati AI- és automatizálási projektekre

Az Egyesült Államok kormánya által használt mesterséges intelligencia legalapvetőbb példái a rutin irodai munka automatizálása. 2019-ben Seattle használt Robotikus folyamatautomatizálás (RPA) gondoskodni az adatbevitelről és a kérelmek feldolgozásáról. Azóta a város több mint 6000 elmaradt kérvényen ment keresztül, és több száz munkaórát takarított meg.

Más kormányzati mesterséges intelligencia-projektek figyelemfelkeltőbbek. A New York-i tűzoltóság robotkutyákat tesztel

Boston Dynamics szerkezeti sérülések és mérgező füstök mérésére a tűzoltók belépése előtt. A tűzoltórobot-projekt előtt a New York-i Rendőrkapitányság ugyanezen robotok megvalósítását tervezte.

A rendőrség és más kormányzati szervek országszerte fontolgatják hasonló technológiák alkalmazását. Ahogy azonban ezek a kormányzati mesterséges intelligencia-projektek elindulnak, nyilvánvalóvá váltak potenciális adatvédelmi hiányosságaik.

A mesterséges intelligencia veszélyt jelent a magánéletre és a biztonságra?

Még mindig bizonytalan, hogy a jövőben látni-e rendőrrobotokat, de úgy tűnik, a dolgok ebbe a irányba mennek. Ezek a projektek számos előnnyel járnak, de a mesterséges intelligencia adatvédelmi aggályai súlyosabbá válnak a kormánnyal való kapcsolattartás során. Íme néhány az ezekkel a technológiákkal kapcsolatos legnagyobb problémák közül.

A mesterséges intelligencia az adatok gyűjtésén és elemzésén alapul. Ennek eredményeként több kormányzati AI-projekt azt jelenti, hogy ezek az ügynökségek további információkat gyűjtenek és tárolnak állampolgáraikról. Vannak, akik úgy érzik, hogy mindezt az információt gyűjtik megsérti a magánéletüket és sérti a jogaikat.

Az olyan technológiák, mint a tűzoltókutyás projekt, különösen aggasztóak, mert félrevezetővé tehetik a kormányzati felügyeletet. Az ügynökségek szerint a robot azért van, hogy ellenőrizze a biztonsági aggályokat, de az emberek nem tudják megmondani, milyen adatokat gyűjt. Lehetnek benne olyan kamerák és érzékelők, amelyek letapogatják az arcukat vagy nyomon követik a mobiltelefonjukat anélkül, hogy tudnák.

Vannak, akik attól tartanak, hogy a robotok „menő tényezője” elrejti felügyeleti potenciáljukat. A rendőrségi robotok a jövőben anélkül kémkedhetnek a polgárok után, hogy különösebb gyanút keltenek, mivel az emberek csak az új technológiát látják, ahelyett, hogy megsértenék a magánéletüket.

Tisztázatlan felelősségek

Ezek az AI és automatizálási projektek felvetik az elszámoltathatóság kérdését is. Ha egy robot hibát követ el, ami kárt okoz, ki a felelős érte? Ha egy állami alkalmazott túllépi a határait és megsérti valakinek a jogait, a bíróságok felelősségre vonhatják, de mi a helyzet egy robottal?

Ez a probléma az önvezető autóknál is megfigyelhető. Az emberek a gyártót termékfelelősségi követelés alapján vádolják egyes robotpilóta-balesetekben, míg mások a vezetőt hibáztatják. Egy esetben a Országos Közlekedésbiztonsági Tanács a gyártót és a járművezetőt egyaránt felelősség terheli, de ezt végső soron eseti alapon kell eldönteni. A rendőrrobotok ugyanúgy sárosítják a vizet. Ha megsértik a magánéletét, nem világos, hogy a gyártót, a rendőrséget vagy az emberi felügyelőket kell-e hibáztatni.

Ez a zűrzavar lelassíthatja és megnehezítheti a jogi eljárásokat. Eltarthat egy ideig, amíg a magánélet megsértésének vagy jogaik megsértésének áldozatai megkapják a megérdemelt igazságot. Az új törvények és jogi precedensek tisztázhatnák a dolgokat és megoldanák ezt a kérdést, de jelenleg ez bizonytalan.

Adatszivárgás kockázatai

Az Egyesült Államok kormánya által használt mesterséges intelligencia a magánszektorban tapasztalható mesterséges intelligencia adatvédelmi aggályait is kiterjesztheti. Bizonyos adatok gyűjtése teljesen legális lehet, de minél több szervezet gyűjt össze, annál nagyobb a veszély. Előfordulhat, hogy a vállalat vagy a kormány nem használja fel az információkat illegális célokra, de kiszolgáltatottá teheti az embereket a kiberbűnözéssel szemben.

Ott volt több mint 28 000 kibertámadás egyedül az Egyesült Államok kormányával szemben 2019-ben. Ha az ügynökségek több polgári személyes információval rendelkeznek, ezek a támadások nemcsak a kormányt érinthetik. Egy sikeres adatszivárgás sok embert veszélyeztethet anélkül, hogy tudnák. A jogsértések gyakran észrevétlenek maradnak, ezért meg kell tennie ellenőrizze, hogy adatai még nincsenek-e eladók.

Például, ha egy rendőrségi robot a jövőben arcfelismerést használ keresett bűnözők keresésére, sok állampolgár biometrikus adatait tárolhatja. A rendszerbe bekerülő hackerek ellophatják ezeket az információkat, és felhasználhatják az emberek bankszámláira való behatolásra. A kormányzati mesterséges intelligencia projekteknek erős kiberbiztonsági intézkedésekkel kell rendelkezniük, ha nem akarják veszélyeztetni az emberek adatait.

A kormányzat mesterséges intelligencia előnyökkel jár, de aggodalmakat vet fel

Még mindig nem világos, hogy az amerikai kormány hogyan fogja használni a mesterséges intelligenciát a jövőben. Az új védelmek és törvények megoldhatják ezeket a problémákat, és kockázatok nélkül hozhatják az AI minden előnyét. Egyelőre azonban ezek az aggodalmak riasztanak.

Az adatvédelmi aggályok bővelkednek mindenhol, ahol a mesterséges intelligencia működik. Ezek a kérdések egyre súlyosabbak, ahogy egyre nagyobb szerepet játszik a kormányban. Az állami mesterségesintelligencia-projektek sok jót hozhatnak, de jelentős károkat is okozhatnak.

A Microsoft arra figyelmeztet, hogy „1984” három éven belül valóra válhat

Olvassa el a következőt

Ossza megCsipogOssza megEmail

Kapcsolódó témák

  • Biztonság
  • Mesterséges intelligencia
  • Online adatvédelem

A szerzőről

Shannon Flynn (79 cikk megjelent)

Shannon egy tartalomkészítő Phillyben (PA). Körülbelül 5 éve ír a műszaki területen, miután informatikai diplomát szerzett. Shannon a ReHack Magazine ügyvezető szerkesztője, és olyan témákkal foglalkozik, mint a kiberbiztonság, a játékok és az üzleti technológia.

Továbbiak Shannon Flynntől

Iratkozzon fel hírlevelünkre

Csatlakozzon hírlevelünkhöz műszaki tippekért, ismertetőkért, ingyenes e-könyvekért és exkluzív ajánlatokért!

Kattintson ide az előfizetéshez