Míg a szabadalmaztatott szoftverek, például a GPT és a PaLM uralják a piacot, sok fejlesztő inkább a nyílt forráskódú nyelvi modellekben lát értéket. Vegyük például Metát. 2023 februárjában került a címlapokra, hogy hivatalosan is kiadták a LLaMA nagynyelvi modellt nyílt forráskódú programként. Nem meglepő módon ez a döntés vegyes reakciókat váltott ki.
Mivel a nyílt forráskódú nyelvi modelleknek számos előnye és hátránya van, és pozitívan és negatívan is befolyásolhatják az AI-ipart, összefoglaltuk azokat a kulcsfontosságú pontokat, amelyeket tudnod és megértened kell.
5 A nyílt forráskódú nyelvi modellek pozitív hatásai
A nyílt forráskódú nyelvi modellek elősegítik az együttműködésen alapuló megközelítést. A fejlesztőktől származó adatok, áttekintések és használati esetek világszerte vitathatatlanul segítik őket abban, hogy gyorsabban haladjanak előre, mint a lezárt projektek.
1. Az AI-fejlesztők erőforrásokat takarítanak meg nyílt forráskódú modellekkel
A védett nyelvi modellek elindítása milliókba, ha nem milliárdokba kerül, erőforrásokba. Vegyük például az OpenAI-t.
Business Insider beszámol arról, hogy a cégnek körülbelül 30 milliárd dollárt kellett összegyűjtenie a ChatGPT hatékony működtetéséhez. Ennyi finanszírozás megszerzése a legtöbb vállalat számára lehetetlen. A korai szakaszban lévő technológiai startupok szerencsések lennének, ha elérnék a hét számjegyet is.Tekintettel a magas költségekre, sok fejlesztő nyílt forráskódú nyelvi modelleket használ helyette. Milliókat takarítanak meg e rendszerek architektúrájának, neurális struktúrájának, betanítási adatainak, algoritmusainak, kódmegvalósításának és betanítási adatkészleteinek felhasználásával.
2. A nyílt forráskódú modellek vitathatatlanul gyorsabban fejlődnek
Sok technológiai vezető azzal érvel, hogy a nyílt forráskódú nyelvi modellek gyorsabban fejlődnek, mint a szabadalmaztatott társaik. Nagyra értékelik a közösségi hozzájárulást és az együttműködést. Képzett fejlesztők milliói dolgoznak nyitott projekteken – elméletileg sokkal gyorsabban érhetnek el hibamentes, kifinomult iterációt.
A nyílt forráskódú mesterséges intelligencia segítségével gyorsabb a tudásbeli hiányosságok áthidalása is. Ahelyett, hogy a csapatokat a hibák megtalálására, a frissítések tesztelésére és a megvalósítások felfedezésére képeznék ki, a vállalatok elemezhetik a közösségi hozzájárulásokat. A tudásmegosztás lehetővé teszi a felhasználók számára a hatékonyabb munkavégzést.
A közösségi hozzájárulások nem mindig pontosak. A fejlesztőknek továbbra is kétszer ellenőrizniük kell az algoritmusokat és modelleket, mielőtt integrálnák őket a rendszerükbe.
3. A fejlesztők gyorsabban észlelik a sebezhetőségeket
A nyílt forráskódú nyelvi modellek ösztönzik a szakértői értékeléseket és az aktív részvételt az együttműködő közösségen belül. A fejlesztők szabadon hozzáférhetnek a kódbázis módosításaihoz. Mivel sok felhasználó elemzi a nyitott projekteket, valószínűleg gyorsabban észlelik a biztonsági problémákat, a sebezhetőségeket és a rendszerhibákat.
Hasonlóképpen, a hibaelhárítás is áramvonalasabb. A rendszerproblémák kézi megoldása helyett a fejlesztők ellenőrizhetik a projekt verziókezelő rendszerét a korábbi javításokért. Előfordulhat, hogy egyes bejegyzések elavultak. Mindazonáltal továbbra is hasznos kiindulási alapot nyújtanak a kutatóknak és az AI-oktatóknak.
4. Az AI Tech vezetői tanulnak a nyílt forráskódú modellekből
A nyílt forráskódú nyelvi modellek hasznot húznak a visszacsatolásból. A pozitív visszacsatolás hatékony algoritmusokat, adatkészleteket és funkciókat oszt meg, és arra ösztönzi a fejlesztőket, hogy ezeket utánozzák. A folyamat sok időt takarít meg nekik. Csak vegye figyelembe, hogy hibák adódhatnak pozitív visszajelzésekből, amelyeket a felhasználók véletlenül megismételnek – a hibákat általában figyelmen kívül hagyják.
Eközben a negatív visszacsatolás a fejlesztendő területekre összpontosít. A folyamat magában foglalja a személyes ismeretek megosztását a hibák kijavítása, az új funkciók tesztelése és a rendszerproblémák kijavítása közben.
5. A nyílt forráskódú mesterséges intelligencia platformok első ízben érkeznek az új rendszerekre
A technológiai cégek nem kedvességből osztanak meg milliárd dolláros nyelvi rendszereket. Míg a nyílt forráskódú licencek a harmadik fél felhasználók számára biztosítják a rendszerek módosításának és értékesítésének szabadságát, korlátaik vannak.
A forgalmazók gyakran olyan feltételeket teremtenek, amelyek biztosítják, hogy megőrizzenek bizonyos tekintélyt. Ezek a szabályok a nyílt forráskódú programok licencszerződéseiben találhatók – a végfelhasználók ritkán kapnak 100 százalékos jogosultságot.
Tegyük fel, hogy a Meta irányítani akarja a LLaMA-val hajtott termékek felett. Jogi csapata meghatározhatja, hogy a Meta fenntartja a jogot, hogy bármilyen új rendszerbe fektessen be, amely a nyelvi modelljére épül.
De ne értse félre – a külső fejlesztők és forgalmazók továbbra is kölcsönösen előnyös megállapodásokat kötnek. Ez utóbbi milliárd dolláros technológiákat és rendszereket biztosít. Eközben az induló vállalkozások és a független fejlesztők azt vizsgálják, hogyan lehet ezeket különböző alkalmazásokban implementálni.
5 A nyílt forráskódú nyelvi modellek negatív hatásai
A nyílt forráskódú nyelvi modellek eleve elfogulatlanok, az emberek azonban nem. A fogyasztók, a fejlesztők és a rosszindulatú vállalatok személyes haszonszerzés céljából kihasználhatják e rendszerek nyílt természetét.
1. A vállalatok véletlenül csatlakoznak az AI-versenyhez
A vállalatokra jelenleg túl nagy nyomás nehezedik, hogy csatlakozzanak az AI-versenyhez. Az AI-rendszerek népszerűsödésével sok vállalat attól tart, hogy elavulttá válnak, ha nem alkalmazzák az AI-t. Ennek eredményeként a márkák véletlenül ráugranak a kocsira. Nyílt forráskódú nyelvi modelleket építenek be termékeikbe, hogy eladják a terméket és lépést tartsanak a versenytársakkal, még akkor is, ha semmi értékeset nem kínálnak.
Igen, az AI egy gyorsan fejlődő piac. De a kifinomult, de nem biztonságos rendszerek hanyagul kibocsátása árt az iparágnak és veszélyezteti a fogyasztók biztonságát. A fejlesztőknek az AI-t kell használniuk a problémák megoldására, nem pedig marketing trükköket futtatniuk.
2. A fogyasztók olyan technológiához jutnak, amelyet alig értenek
Különféle technológiai eszközök AI-alapú változatait találja online képszerkesztők nak nek egészségfigyelő alkalmazások. A márkák pedig folyamatosan új rendszereket vezetnek be az AI fejlődésével. Az AI-modellek segítenek nekik testreszabottabb, felhasználóközpontúbb iterációkat biztosítani meglévő platformjaikról.
Míg a technológiai ipar üdvözli az innovációkat, az AI gyors fejlődése meghaladja a felhasználók oktatását. A fogyasztók olyan technológiákhoz jutnak hozzá, amelyeket alig értenek. Az oktatás hiánya hatalmas tudáshézagokat hoz létre, ami miatt a közvélemény hajlamos a kiberbiztonsági fenyegetésekre és a ragadozó gyakorlatokra.
A márkáknak éppúgy előnyben kell részesíteniük a képzést, mint a termékfejlesztést. Segíteniük kell a felhasználókat a hatékony AI-alapú eszközök biztonságos és felelősségteljes használatának megértésében.
3. Nem minden fejlesztőnek vannak jó szándékai
Nem mindenki használja az AI-eszközöket a rendeltetésének megfelelően. Például az OpenAI kifejlesztette a ChatGPT-t, hogy válaszoljon a munkabiztonsággal kapcsolatos általános ismeretekre vonatkozó kérdésekre, és reprodukálja a természetes nyelvi kimenetet, de a bűnözők ezt kihasználják tiltott tevékenységekre. Több is volt már ChatGPT csalások az AI chatbot 2022 novemberi indulása óta.
Még ha az AI-laborok szigorú korlátozásokat is bevezetnek, a szélhámosok továbbra is találnak módot ezek megkerülésére. Vegyük ismét példaként a ChatGPT-t. A felhasználók megkerülik a korlátozásokat, és tiltott feladatokat hajtanak végre a használatával ChatGPT jailbreak figyelmeztetések.
Az alábbi beszélgetések bemutatják ezeket a sebezhetőségeket. A ChatGPT korlátozott adatkészlettel rendelkezik; ennélfogva nem tud előre jelezni instabil, nem garantált eseményeket.
Korlátai ellenére a ChatGPT végrehajtotta kérésünket, és alaptalan előrejelzéseket adott a jailbreak után.
4. Az intézményeknek gondjai lehetnek a nyílt forráskódú mesterséges intelligencia szabályozásával
A szabályozó szervek nehezen tudnak lépést tartani az AI-val, és a nyílt forráskódú modellek elterjedése csak megnehezíti a megfigyelést. A mesterséges intelligencia fejlesztései már most felülmúlják a szabályozási kereteket. Még olyan globális technológiai vezetők is, mint Elon Musk, Bill Gates és Sam Altman szigorúbb mesterséges intelligencia szabályozást követel.
A magán- és a kormányzati szektornak egyaránt ellenőriznie kell ezeket a rendszereket. Ellenkező esetben a rosszindulatú személyek továbbra is kihasználják őket az adatvédelmi törvények megsértésére, végrehajtásra személyazonosság-lopás, és csalás áldozatai, egyéb tiltott tevékenységek mellett.
5. Az alacsonyabb belépési korlátok hátráltatják a minőséget
A nyílt forráskódú nyelvi modellek elterjedése csökkenti az AI-versenybe való belépés akadályait. Több ezer AI-alapú eszközt találhat az interneten.
Lenyűgözőnek tűnhet, ha látjuk, hogy a cégek alkalmazzák a gépi és mély tanulást, de kevesen kínálnak tényleges értéket. A legtöbb csak másolja a versenytársakat. Idővel a kifinomult nyelvi modellek és képzési adatkészletek hozzáférhetősége értelmetlen mesterséges intelligencia platformokká válhat.
A nyílt forráskódú nyelvi modellek általános hatása az AI-iparra
Míg a nyílt forráskódú nyelvi modellek hozzáférhetőbbé teszik az AI-technológiákat, számos biztonsági kockázatot is jelentenek. A fejlesztőknek szigorúbb korlátozásokat kell bevezetniük. A Crooks egyébként továbbra is kihasználja e rendszerek átlátható architektúráját.
Ennek ellenére a fogyasztók nem teljesen védtelenek az AI-csalásokkal szemben. Ismerkedjen meg a szélhámosok generatív mesterséges intelligencia-eszközök kihasználásának általános módjaival, és tanulmányozza a támadások figyelmeztető jeleit. A legtöbb kiberbűnözés ellen leküzdheti magát, ha éber marad.