A mesterséges intelligencia fejlődése gyorsan halad előre, de kinek kell irányítania az AI-t és annak a világra gyakorolt ​​hatását?

Kulcs elvitelek

  • Az AI-nak szigorúbb felügyeletre van szüksége, mivel továbbra is felmerülnek a kiberbiztonsági sebezhetőségek és az adatvédelmi aggályok.
  • A kormánynak, a technológiai vállalatoknak és a végfelhasználóknak egyaránt szerepe van az AI szabályozásában, de mindegyik megközelítésnek megvannak a maga korlátai.
  • A médiák, a non-profit szervezetek, a technológiai iparági szövetségek, a tudományos intézmények és a bűnüldöző szervek is hozzájárulnak a mesterséges intelligencia szabályozásához.

A közvélemény eltérően vélekedik az MI-ről – egyesek úgy vélik, hogy a gépek teljesen felváltják az emberi munkásokat, míg mások azt állítják, hogy az AI egy hóbort. Egy dologban azonban mindenki egyetért, hogy az AI-nak szigorúbb ellenőrzésre van szüksége.

A mesterséges intelligencia szabályozásának fontossága ellenére a képzés háttérbe szorult. A fejlesztők annyira megszállottjai a következő legnagyobb mesterségesintelligencia-modell megépítésének, hogy a kiberbiztonsággal kereskednek a gyors fejlődés érdekében. A kérdés nem az, hogy az AI-nak szüksége van-e szabályozásra; a megfelelő finanszírozással, emberi erőforrásokkal és technológiai kapacitással rendelkező irányító testület fogja kezdeményezni.

Tehát kinek kell szabályoznia az AI-t?

Kormányzati szervek

Különféle emberek, fogyasztóktól egészen technológiai vezetők, remélik, hogy a kormány szabályozni fogja az AI-t. A közfinanszírozott intézményeknek megvannak erre a forrásai. Még Elon Musk és Sam Altman, az AI-verseny két fő mozgatórugója is úgy gondolja, hogy egyesek az AI körüli adatvédelmi aggályok túl veszélyesek ahhoz, hogy a vezető testületek figyelmen kívül hagyják.

A kormánynak a választói magánélet és a polgári szabadságjogok védelmére kell összpontosítania, ha átveszi a mesterséges intelligencia szabályozását. A kiberbűnözők folyamatosan találják a módokat arra, hogy kiaknázzák az AI-rendszereket a rendszereikben. Az AI-ban nem jártas egyéneket könnyen becsaphatják a szintetizált hangok, a mélyhamisított videók és a botokkal működtetett online profilok.

A mesterséges intelligencia szabályozását szabályozó kormány egyik fő problémája azonban az, hogy akaratlanul is elfojthatja az innovációt. Az AI egy összetett, fejlődő technológia. Hacsak a telepítési, fejlesztési és képzési irányelveket felügyelő tisztviselők nem értik az AI működését, korai, nem hatékony ítéleteket hozhatnak.

AI fejlesztők, műszaki vállalatok és laboratóriumok

Figyelembe véve a lehetséges akadályokat, amelyek a kormány megfigyelő mesterséges intelligenciájából fakadhatnak, sokan inkább a technológiai cégeket szeretnék a szabályozás élén. Úgy gondolják, hogy a fejlesztőknek felelősséget kell vállalniuk az általuk kiadott technológiáért. Az önszabályozás lehetővé teszi számukra, hogy ösztönözzék az innovációt, és e rendszerek hatékony fejlesztésére összpontosítsanak.

Ezen túlmenően a mesterséges intelligencia alapos ismerete segít nekik igazságos, tájékozott irányelveket alkotni, amelyek a felhasználók biztonságát helyezik előtérbe a funkcionalitás veszélyeztetése nélkül. Mint minden technológia esetében, az iparági szakértelem ésszerűsíti a felügyeletet. Ha képzetlen tisztviselőket bíznak meg az általuk alig értett technológiák szabályozásával, az több problémát jelenthet, mint hasznot.

Vegyük például az Egyesült Államok Szenátusának 2018-as meghallgatását a Facebook adatvédelmi törvényeiről. Ebben a jelentésben A Washington Post, látni fogja, hogy sok törvényhozó össze van zavarodva a Facebook alapvető funkcióival. Tehát hacsak az Egyesült Államok Szenátusa nem hoz létre egyetlen műszaki szakértői osztályt, akkor valószínűleg nem lesz képes szabályozni egy ilyen fejlett, folyamatosan változó rendszert, mint az AI.

A technológiai társaságok önszabályozásának fő problémája azonban az, hogy az árnyékos vállalatok visszaélhetnek hatalmukkal. Beavatkozó harmadik fél nélkül alapvetően szabadon megtehetnek, amit akarnak.

Végfelhasználó

Vannak, akik attól tartanak, hogy a kormány és a magánszervezetek visszaélnek az AI-rendszerekkel. Nem biztosak abban, hogy egy maroknyi irányító testületnek teljes irányítást biztosítanak az ilyen hatékony technológiák felett, különösen azért, mert a mesterséges intelligencia még mindig fejlődik. Előfordulhat, hogy végül a hatalomért harcolnak, ahelyett, hogy a hatékony szabályozásért dolgoznának.

E kockázatok mérséklése érdekében a szkeptikusok úgy vélik, hogy a végfelhasználók szabad kezet érdemelnek, hogy úgy használják az AI-modelleket, ahogyan akarják. Szerintük a kormányzati szerveknek csak akkor szabad beavatkozniuk, ha az AI-felhasználók megszegik a törvényt. Ez egy ambiciózus cél, de technikailag elérhető lenne, ha a nyílt forráskódú mesterséges intelligencia fejlesztői uralnák a piaci részesedéseket.

Ennek ellenére ez a beállítás hátrányos helyzetbe hozza a technológiában nem jártas egyéneket. A felhasználók felelősek a rendszerükön belüli korlátozások beállításáért – sajnos nem mindenkinek van erre erőforrása.

Szintén rövidlátó a szabadalmaztatott modellek eltávolítása a piacról. Az elterjedése A nyílt forráskódú mesterséges intelligencia modelleknek számos pozitív és negatív hatása van; egyesek számára a hátrányok meghaladják az előnyöket.

Más entitások, amelyek szerepet játszanak az AI szabályozásában

Bár a nagy entitások élen járnak majd a mesterséges intelligencia szabályozásában, vannak testületek, amelyek jelentős szerepet játszanak:

A médiák kritikus szerepet játszanak a közvélemény AI-ról alkotott képének alakításában. Beszámolnak az iparági fejlesztésekről, új eszközöket osztanak meg, felhívják a figyelmet a mesterséges intelligencia káros felhasználásaira, és interjúkat készítenek szakértőkkel a vonatkozó aggályokról.

A legtöbb tény, amit a végfelhasználók tudnak az AI-ról, alapvetően a médiáktól származnak. A hamis adatok közzététele, akár szándékosan, akár nem, visszafordíthatatlan károkat okoz – nem lehet alábecsülni, milyen gyorsan terjed a téves információ.

2. Nem kormányzati szervezetek

Számos non-profit szervezet az AI-felhasználók magánéletének és polgári szabadságjogainak védelmére összpontosít. Ingyenes forrásokon keresztül oktatják a közvéleményt, új politikákat szorgalmaznak, együttműködnek a kormányzati tisztviselőkkel, és hangot adnak a figyelmen kívül hagyott aggályoknak.

A nonprofit szervezetekkel az egyetlen probléma az, hogy általában szűkösek az erőforrások. Mivel nem állnak kapcsolatban a kormányzattal, a mindennapi működésükhöz magánfelhívásokra és adományokra támaszkodnak. Sajnos csak néhány szervezet jut megfelelő finanszírozáshoz.

3. Tech Industry Associations

Az AI-központú technológiai iparági szövetségek képviselhetik a nyilvánosság jogait és érdekeit. A nonprofit szervezetekhez hasonlóan ők is együttműködnek a törvényhozókkal, képviselik az érintett személyeket, tisztességes politikát szorgalmaznak, és felhívják a figyelmet konkrét kérdésekre.

A különbség azonban az, hogy gyakran magáncégekkel állnak kapcsolatban. Tagjaik továbbra is megkereséseket tesznek, de általában elegendő finanszírozást kapnak szülői szervezeteiktől mindaddig, amíg eredményeket hoznak.

4. Akadémiai intézmények

Bár a mesterséges intelligencia számos kockázattal jár, eleve semleges. Minden elfogultság, adatvédelmi probléma, biztonsági hiba és potenciális kiberbűnözés emberből fakad, így az AI-tól önmagában nem kell félni.

De nagyon kevesen értik már a modern AI modellek működését. A tévhitek torzítják az emberek mesterséges intelligenciáról alkotott képét, állandósítva az olyan alaptalan félelmeket, mint például az emberiség elfoglalása vagy a munkahelyek ellopása.

Az akadémiai intézmények ezeket az oktatási hiányosságokat hozzáférhető források segítségével pótolhatnák. Még nincs túl sok tudományos munka a modern LLM-ekről és NLP-rendszerekről. A közvélemény felelősségteljesebben használhatja a mesterséges intelligenciát és küzdhet le a számítógépes bűnözés ellen, ha teljesen megérti annak működését.

5. Rendészeti ügynökségek

A bűnüldöző szerveknek többet kell találniuk AI-kompatibilis kibertámadások. A generatív modellek elterjedésével a szélhámosok gyorsan szintetizálhatnak hangokat, mélyhamis képeket generálhatnak, kaparhatnak. személyazonosításra alkalmas adatok (PII), és akár teljesen új személyiségeket is létrehozhat.

A legtöbb ügynökség nincs felkészülve ezeknek a bűncselekményeknek a kezelésére. Be kell ruházniuk új rendszerekbe, és ki kell képezniük tiszteiket a modern számítógépes bűnözésre; különben gondjuk lesz elkapni ezeket a szélhámosokat.

A mesterséges intelligencia szabályozásának jövője

Figyelembe véve az AI gyors tempójú természetét, nem valószínű, hogy egyetlen irányító testület irányítaná. Igen, a technológiai vezetőknek nagyobb hatalmuk lesz, mint a fogyasztóknak, de a különféle entitásoknak együtt kell működniük az AI-kockázatok kezelésében a fejlődés akadályozása nélkül. A legjobb az ellenőrzési intézkedéseket most beállítani, miközben a mesterséges általános intelligencia (AGI) még távoli cél.

Ennek ellenére az AI szabályozása ugyanolyan távoli, mint az AGI. Addig is a felhasználóknak be kell tartaniuk a biztonsági gyakorlatokat az AI által vezérelt fenyegetésekkel szemben. Az olyan jó szokások, mint például az online kapcsolattartók számának korlátozása és a digitális személyazonosításra alkalmas adatok védelme, már sokat jelentenek.