Általános vélemény, hogy az AI-technológiákat szabályozni kell. A legtöbb kormány, mesterséges intelligencia termékfejlesztő és még az AI-termékek hétköznapi felhasználói is egyetértenek ebben. Sajnos ennek a gyorsan növekvő területnek a szabályozásának legjobb módja egy megoldatlan rejtvény.
Ha figyelmen kívül hagyjuk, az AI-technológiák negatívan megzavarhatják életmódunkat, és veszélyeztethetik létünket. De hogyan tudnak a kormányok eligazodni a kihívások labirintusában, amely ezzel a gyorsan fejlődő területtel jár?
1. Adatvédelmi és adatvédelmi szabályzat
Az AI-technológiák egyik elsődleges szempontja az adatvédelem és a biztonság. A mesterséges intelligencia rendszerek adatéhes gépek. Adatokra van szükségük a működéshez, több adatra a hatékony működéshez, és még több adatra a fejlesztéshez. Bár ez nem probléma, az adatok forrásának módja, természete, valamint feldolgozásuk és tárolásuk módja az egyik legnagyobb beszédtéma az AI-szabályozással kapcsolatban.
Ezt figyelembe véve a logikus út az, hogy szigorú adatvédelmi szabályokat vezessenek be, amelyek az adatokat szabályozzák gyűjtése, tárolása és feldolgozása, valamint azon egyének hozzáférési és ellenőrzési jogai, akiknek adatait felhasználják adataikat. Ezek a kérdések, amelyekre ezek a szabályozások valószínűleg válaszolnak, a következők:
- Milyen adatokat lehet gyűjteni?
- Vajon tabunak kell tekinteni bizonyos személyes adatokat az AI-ban?
- Hogyan kezeljék a mesterséges intelligencia vállalatok az érzékeny személyes adatokat, például az egészségügyi nyilvántartásokat vagy a biometrikus információkat?
- Kötelezniük kell-e a mesterséges intelligencia vállalatokat olyan mechanizmusok bevezetésére, amelyek segítségével az egyének kérhetik személyes adataik törlését vagy helyesbítését?
- Milyen következményekkel jár az AI-társaságokra, amelyek nem tartják be az adatvédelmi előírásokat? Hogyan kell ellenőrizni a megfelelést, és hogyan kell biztosítani a végrehajtást?
- A legfontosabb talán az, hogy milyen szabványt kell alkalmazniuk a mesterséges intelligencia vállalatoknak, hogy biztosítsák a birtokukban lévő információk érzékeny természetének biztonságát?
Ezek a kérdések és néhány további kérdés képezték a lényeget miért tiltották be ideiglenesen a ChatGPT-t Olaszországban. Ha ezekkel az aggályokkal nem foglalkoznak, a mesterséges intelligencia tér vadnyugat lehet az adatvédelem szempontjából, és Olaszország tilalma a világ más országai általi betiltások sablonja lehet.
2. Ethical AI Framework kidolgozása
Az AI-cégek gyakran dicsekednek azzal, hogy elkötelezettek az etikai irányelvek mellett az AI-rendszerek fejlesztése során. Legalábbis papíron mindannyian a felelős AI-fejlesztés hívei. A médiában a Google vezetői hangsúlyozták, hogy a vállalat mennyire veszi komolyan az AI biztonságát és etikáját. Hasonlóképpen, a „Biztonságos és etikus AI” az OpenAI vezérigazgatójának, Sam Altmannek a mantrája. Ezek igencsak dicséretesek.
De ki hozza a szabályokat? Ki dönti el, hogy mely AI etikai irányelvek elég jók? Ki dönti el, hogyan néz ki a biztonságos AI-fejlesztés? Jelenleg úgy tűnik, hogy minden AI-cégnek megvan a maga sajátossága a felelős és etikus mesterségesintelligencia-fejlesztésben. OpenAI, Anthropic, Google, Meta, Microsoft, mindenki. Veszélyes pusztán az AI-cégekre hagyatkozni, hogy helyesen cselekszenek.
A az ellenőrizetlen AI-tér következményei katasztrofálisak lehetnek. Ha hagyjuk az egyes vállalatokat eldönteni, hogy milyen etikai irányelveket alkalmazzanak, és melyeket vetnek el, az olyan, mintha alvajárással járnánk egy mesterséges intelligencia apokalipszis felé. A megoldás? Egy világos etikai mesterséges intelligencia keretrendszer, amely biztosítja:
- A mesterséges intelligencia rendszerek nem hoznak méltánytalanul hátrányos helyzetbe vagy diszkriminálják az egyéneket vagy bizonyos csoportokat faji, nemi vagy társadalmi-gazdasági helyzetük alapján.
- Az AI-rendszerek biztonságosak, biztonságosak és megbízhatóak, és minimálisra csökkentik a nem kívánt következmények vagy káros viselkedés kockázatát.
- Az AI-rendszerek az AI-technológiák szélesebb körű társadalmi hatásait szem előtt tartva épülnek fel.
- Hogy az emberek megőrizzék a végső irányítást az AI-rendszerek felett és átláthatóan döntéshozatalukban.
- Az AI-rendszereket szándékosan korlátozzák az ember számára előnyös módon.
3. Kijelölt Szabályozó Ügynökség
Az emberi civilizációra gyakorolt lehetséges hatása miatt a mesterséges intelligencia biztonságáról szóló vita jellemzően egy egészségügyi válság vagy egy nukleáris katasztrófa kockázatával párhuzamos. A potenciális nukleáris incidensek elkerülése érdekében olyan külön ügynökségre van szükség, mint az Egyesült Államok NRC-je (Nuclear Regulatory Commission). A veszélyes egészségügyi válságok kockázatának elkerülése szükségessé teszi az FDA (Food and Drug Administration) létrehozását.
Hasonlóképpen, annak érdekében, hogy a dolgok ne menjenek rosszul a mesterséges intelligencia terén, szükség van egy, az FDA-hoz és az NRC-hez hasonló, dedikált ügynökségre, mivel a mesterséges intelligencia továbbra is agresszíven behatol életünk minden területére. Sajnos az országon belüli mesterséges intelligencia szabályozásának kérdése bonyolult. Valószínűleg minden kifejezetten szabályozó ügynökség munkája kínosan nehéz lesz határokon átnyúló együttműködés nélkül. Csakúgy, mint az amerikai NRC-nek (Nuclear Regulatory Commission) együtt kell működnie a Nemzetközi Atomenergiával. Ügynökség (NAÜ) ahhoz, hogy a legjobb teljesítményt nyújthassa, bármely országban működő mesterséges intelligencia szabályozó ügynökségnek nemzetközi analógra is szüksége lenne.
Egy ilyen ügynökség a következőkért felelne:
- AI-szabályozás kidolgozása
- A megfelelés és végrehajtás biztosítása
- Az AI-projektek etikai felülvizsgálati folyamatának felügyelete
- Együttműködés és országok közötti együttműködés a mesterséges intelligencia biztonságával és etikájával kapcsolatban
4. A szerzői joggal és a szellemi tulajdonnal kapcsolatos aggályok kezelése
A meglévő szerzői jogi törvények és jogi keretek összeomlanak a mesterséges intelligenciával szemben. Az AI-eszközök, különösen a generatív mesterségesintelligencia-eszközök tervezése olyan nyilvánosan támogatott szerzőijog-sértő gépnek tűnik, amely ellen nem tehet semmit.
Hogyan? Nos, sok mai mesterséges intelligencia rendszert szerzői joggal védett anyagok felhasználásával képeznek ki. Tudod, szerzői joggal védett cikkek, szerzői joggal védett dalok, szerzői joggal védett képek stb. Így szeretik az eszközök ChatGPT, Bing AI és Google Bard meg tudják csinálni azokat a fantasztikus dolgokat, amiket csinálnak.
Noha ezek a rendszerek egyértelműen kihasználják az emberek szellemi tulajdonát, az a mód, ahogy ezek az AI-rendszerek ezt teszik nem különbözik attól, hogy egy ember szerzői joggal védett könyvet olvas, szerzői joggal védett dalokat hallgat, vagy szerzői joggal védett dalokat néz. képeket.
Elolvashat egy szerzői joggal védett könyvet, új tényeket tanulhat meg belőle, és felhasználhatja ezeket a tényeket saját könyve alapjául. Meghallgathatsz egy szerzői jogvédelem alatt álló dalt is, hogy inspirációt kapj saját zene létrehozásához. Mindkét esetben szerzői joggal védett anyagokat használt, de ez nem feltétlenül jelenti azt, hogy a származékos termék sérti az eredeti szerzői jogait.
Noha ez logikus magyarázat arra, hogy elmagyarázza a mesterséges intelligencia által a szerzői jogi törvényeket okozó zűrzavart, mégis árt a szerzői jogok és a szellemi tulajdon tulajdonosainak. Ezt figyelembe véve szabályozásra van szükség:
- Világosan határozza meg az AI-rendszer életciklusában részt vevő összes fél felelősségét és felelősségét. Ez magában foglalja az AI-fejlesztőktől a végfelhasználókig minden fél szerepének tisztázását a felelősség biztosítása érdekében a feleket felelősségre vonják az AI által elkövetett szerzői jogok vagy szellemi tulajdonjogok megsértéséért rendszerek.
- A meglévő szerzői jogi keretrendszer megerősítése, és esetleg mesterséges intelligencia-specifikus szerzői jogi törvények bevezetése.
- A mesterséges intelligencia terén az innováció biztosítása érdekében az eredeti alkotók jogainak védelme mellett, az AI szabályozásnak újra kell definiálnia a méltányos használat és az átalakító munka fogalmát az összefüggésben AI által generált tartalom. Világosabb definíciókra és iránymutatásokra van szükség annak biztosításához, hogy a mesterséges intelligencia területe tovább fejlődhessen, miközben tiszteletben tartja a szerzői jogi határokat. Alapvetően fontos egyensúlyt teremteni az innováció és a tartalomkészítők jogainak megőrzése között.
- Világos utak a jogtulajdonosokkal való együttműködéshez. Ha az AI-rendszerek mindenképpen használni fogják az emberek szellemi tulajdonát, világos utakat vagy kereteket kell biztosítani az AI-fejlesztők és a jogtulajdonosokat az együttműködésre, különösen az anyagi ellentételezés tekintetében, ha az ilyen szellemi tulajdonokból származó munkák kereskedelmi forgalomba került.
A mesterséges intelligencia szabályozása égetően szükséges megoldás
Míg a mesterséges intelligencia sok társadalmi problémánk ígéretes megoldásaként jelent meg, maga az AI is gyorsan sürgős megoldást igénylő problémává válik. Itt az ideje, hogy egy lépést hátralépjünk, elgondolkodjunk, és elvégezzük a szükséges javításokat, hogy biztosítsuk az AI társadalomra gyakorolt pozitív hatását. Sürgősen újrakalibrálnunk kell az AI-rendszerek felépítésével és használatával kapcsolatos megközelítésünket.