Az olyan mesterséges intelligencia eszközök, mint a ChatGPT, nagyszerűek, de több oka is van annak, hogy egy csipet sóval vegye az olvasottakat.

Az AI átalakítja az általunk ismert világot, és hatása minden iparágban érezhető. Ezek a változások azonban nem feltétlenül pozitívak. Míg a mesterséges intelligencia számos területen izgalmas új lehetőségeket kínál, nem hagyhatjuk figyelmen kívül azt a tényt, hogy hiányzik belőle a döntéshozatalt irányító erkölcsi iránytű vagy tényellenőrző rendszer.

Éppen ezért mindig ellenőriznie kell a tényeket, amit mondanak Önnek, ahogy a világ egyre inkább mesterséges intelligencia-központúvá válik. Egyes AI-eszközök manipulálhatják az információkat, teljesen félreérthetik a kontextust, és ugyanakkor magabiztosan tévedhetnek, ezért a mesterséges intelligencia vakon bízása rossz ötlet.

1. Az AI magabiztosan tévedhet

Az emberek egyre inkább támaszkodnak AI chatbotok olyan feladatokhoz, mint például az írás, találkozók ütemezése, és még fontos döntések meghozatala is. Azonban ezeknek a chatbotoknak a kényelme gyakran jelentős költségekkel jár – biztosan tévednek.

Ennek illusztrálására megkértük a ChatGPT-t, hogy meséljen nekünk a Python tanulására írt első könyvről. Így reagált:

Elkaptad a hibát? Amikor felhívtuk a ChatGPT-t ezzel kapcsolatban, gyorsan kijavította magát. Sajnos, bár elismerte hibáját, ez megmutatja, hogy az AI néha teljesen tévedhet.

Az AI chatbotok korlátozott információval rendelkeznek, de úgy vannak programozva, hogy mindkét módon reagáljanak. A képzési adataikra támaszkodnak, és származhatnak az Ön gépi tanulással való interakciójából is. Ha egy mesterséges intelligencia nem hajlandó válaszolni, nem tud tanulni vagy korrigálni magát. Ezért van az, hogy a mesterséges intelligencia időnként magabiztosan téved; tanul a hibáiból.

Bár jelenleg ez csak a mesterséges intelligencia jellemzője, láthatja, hogyan válhat ebből probléma. A legtöbb ember nem ellenőrzi tényszerűen a Google-kereséseit, és ez itt is így van az olyan chatbotokkal, mint a ChatGPT. Ez félretájékoztatáshoz vezethet, és már most is bőven van mit körüljárnunk – ami elvezet minket a második ponthoz.

2. Könnyen használható információk manipulálására

Nem titok, hogy a mesterséges intelligencia megbízhatatlan lehet, és hajlamos a hibákra, de az egyik legalattomosabb tulajdonsága az információk manipulálására való hajlam. A probléma az, hogy a mesterséges intelligencia nem ismeri az Ön kontextusát, ezért a tényeket saját céljainak megfelelően hajlítja.

Pontosan ez történt a Microsoft Bing Chatjével. Az egyik felhasználó Twitteren kért vetítési időt az új Avatar-filmhez, de a chatbot megtagadta az információ megadását, arra hivatkozva, hogy a filmet még nem adták ki.

Persze ezt könnyen leírhatod hibaként vagy egyszeri hibaként. Ez azonban nem változtat azon a tényen, hogy ezek az AI-eszközök tökéletlenek, ezért óvatosan kell eljárnunk.

3. Ez akadályozhatja kreativitását

Sok szakember, például írók és tervezők, ma már mesterséges intelligenciát használ a hatékonyság maximalizálására. Fontos azonban megérteni, hogy az AI-t eszköznek kell tekinteni, nem pedig parancsikonnak. Bár ez utóbbi minden bizonnyal csábítónak hangzik, súlyosan befolyásolhatja kreativitását.

Amikor az AI chatbotokat parancsikonként használják, az emberek hajlamosak tartalmat másolni és beilleszteni ahelyett, hogy egyedi ötleteket generálnának. Ez a megközelítés csábítónak tűnhet, mert időt és erőfeszítést takarít meg, de nem köti le az elmét és nem segíti elő a kreatív gondolkodást.

Például a tervezők megtehetik használja a Midjourney AI-t művészet létrehozásához, de ha kizárólag az AI-ra hagyatkozunk, az korlátozhatja a kreativitás hatókörét. Ahelyett, hogy új ötleteket keresne, előfordulhat, hogy a meglévő terveket reprodukálja. Ha író vagy, megteheted használja a ChatGPT-t vagy más mesterséges intelligencia chatbotokat a kutatáshoz, de ha parancsikonként használod a tartalom generálásához, akkor az íráskészséged stagnálni fog.

A mesterséges intelligencia használata a kutatás kiegészítésére különbözik attól, hogy pusztán rá támaszkodunk ötletek generálására.

4. Az AI könnyen visszaélhető

Az AI számos áttörést hozott különböző területeken. Azonban, mint minden technológia esetében, itt is fennáll a visszaélés veszélye, amely súlyos következményekkel járhat.

A mesterséges intelligencia azon képessége, hogy megalázza, zaklatja, megfélemlítse és elhallgattassa az egyéneket, komoly aggodalomra ad okot. Az AI visszaélés példái közé tartozik a mélyhamisítások létrehozása és többek között a szolgáltatásmegtagadási (DoS) támadások.

A mesterséges intelligencia által generált mélyhamisítások használata gyanútlan nőkről készült explicit fotók készítésére zavaró tendencia. A kiberbűnözők mesterséges intelligencia által vezérelt DoS támadásokat is alkalmaznak, hogy megakadályozzák a jogos felhasználók hozzáférését bizonyos hálózatokhoz. Az ilyen támadások egyre összetettebbé válnak, és egyre nehezebb megállítani őket, mivel emberszerű tulajdonságokat mutatnak.

A mesterséges intelligencia képességeinek nyílt forráskódú könyvtárként való elérhetősége lehetővé tette, hogy bárki hozzáférjen olyan technológiákhoz, mint a kép- és arcfelismerés. Ez jelentős kiberbiztonsági kockázatot jelent, mivel terrorista csoportok használhatják ezeket a technológiákat terrortámadások indítására

5. A kontextus korlátozott megértése

Ahogy korábban említettük, az AI nagyon korlátozottan ismeri a kontextust, ami jelentős kihívást jelenthet a döntéshozatalban és a problémamegoldásban. Még akkor is, ha a mesterséges intelligencia kontextuális információkat ad meg, hiányozhat az árnyalatokból, és pontatlan vagy hiányos információkat szolgáltathat, amelyek helytelen következtetésekhez vagy döntésekhez vezethetnek.

Ennek az az oka, hogy az AI előre programozott algoritmusokon működik, amelyek statisztikai modellekre és mintafelismerésre támaszkodnak az adatok elemzéséhez és feldolgozásához.

Vegyünk például egy chatbotot, amely úgy van programozva, hogy segítse az ügyfeleket egy termékkel kapcsolatos kérdéseikben. Bár a chatbot képes lehet válaszolni a termék jellemzőivel és specifikációival kapcsolatos alapvető kérdésekre, igen nehezen nyújtanak személyre szabott tanácsokat vagy ajánlásokat az ügyfél egyedi igényei és preferenciái alapján.

6. Nem helyettesítheti az emberi ítélőképességet

Amikor összetett kérdésekre keresünk választ, vagy szubjektív preferenciákon alapuló döntéseket hozunk, a kizárólag az AI-ra hagyatkozni kockázatos lehet.

Hiábavaló gyakorlat lehet arra kérni egy mesterséges intelligencia rendszert, hogy határozza meg a barátság fogalmát, vagy válasszon két tétel közül szubjektív kritériumok alapján. Ennek az az oka, hogy a mesterséges intelligencia nem képes figyelembe venni az emberi érzelmeket, a kontextust és az ilyen fogalmak megértéséhez és értelmezéséhez elengedhetetlen immateriális elemeket.

Például, ha megkér egy mesterséges intelligencia rendszert, hogy válasszon két könyv közül, javasolhatja azt, amelyik magasabb értékeléseket, de nem veszi figyelembe az Ön személyes ízlését, olvasási preferenciáit vagy azt a célt, amelyre szüksége van A könyv.

Másrészt az emberi recenzens árnyaltabb és személyre szabottabb értékelést nyújthat a könyvről, ha értékeli a könyvet. irodalmi érték, az olvasó érdeklődési körének relevanciája és egyéb, nem mérhető szubjektív tényezők tárgyilagosan.

Legyen óvatos a mesterséges intelligenciával

Bár az AI hihetetlenül hatékony eszköznek bizonyult különböző területeken, elengedhetetlen, hogy tisztában legyünk korlátaival és lehetséges torzításaival. A mesterséges intelligencia vakon bízása kockázatos és jelentős következményekkel járhat, mivel a technológia még gyerekcipőben jár, és messze van a tökéletestől.

Fontos megjegyezni, hogy a mesterséges intelligencia egy eszköz, és nem helyettesíti az emberi szakértelmet és ítélőképességet. Ezért próbálja csak a kutatás kiegészítéseként használni, de ne hagyatkozzon csak rá a fontos döntéseknél. Mindaddig, amíg ismeri a hiányosságokat, és felelősségteljesen használja az AI-t, biztonságos kezekben kell lennie.