A Google TensorFlow platformja lehetővé teszi a felhasználók számára, hogy mesterséges intelligenciát képezzenek azáltal, hogy eszközöket és erőforrásokat biztosít a gépi tanuláshoz. A mesterséges intelligencia mérnökei hosszú ideje hagyományos CPU-kat és GPU-kat használtak az AI betanítására. Bár ezek a processzorok különféle gépi tanulási folyamatokat képesek kezelni, mégis általános célú hardverek, amelyeket különféle mindennapi feladatokhoz használnak.

Az AI képzés felgyorsítása érdekében a Google kifejlesztett egy alkalmazásspecifikus integrált áramkört (ASIC), amely Tensor Processing Unit (TPU) néven ismert. De mi az a Tensor Processing Unit, és hogyan gyorsítják fel az AI programozást?

Mik azok a tenzor feldolgozó egységek (TPU)?

A tenzor feldolgozó egységek a Google-é ASIC a gépi tanuláshoz. A TPU-kat kifejezetten mély tanulásra használják összetett mátrix- és vektorműveletek megoldására. A TPU-k áramvonalasak a mátrix- és vektorműveletek rendkívül nagy sebességű megoldására, de az utasítások adásához és végrehajtásához CPU-val kell párosítani őket. A TPU-k csak a Google-vel használhatók

instagram viewer
TensorFlow vagy TensorFlow Lite platform, akár felhőalapú számítástechnikával, akár helyi hardveren lévő egyszerűsített verziójával.

Alkalmazások TPU-khoz

Kép jóváírása: Element5 Digital/ Unsplash 

A Google 2015 óta használ TPU-kat. Azt is megerősítették, hogy ezeket az új processzorokat használják a Google Street View szövegfeldolgozáshoz, a Google Fotókhoz és a Google keresési eredményekhez (Rank Brain). valamint egy AlphaGo néven ismert mesterséges intelligencia létrehozása, amely legyőzte a legjobb Go játékosokat, valamint az AlphaZero rendszert, amely nyert a sakk, a go és a vezető programok ellen. Shogi.

A TPU-k különféle mély tanulási alkalmazásokban használhatók, mint például a csalásészlelés, a számítógépes látás, a természetes nyelv feldolgozás, önvezető autók, hangos mesterséges intelligencia, mezőgazdaság, virtuális asszisztensek, tőzsdei kereskedés, e-kereskedelem és különféle közösségi jóslatok.

Mikor érdemes TPU-kat használni

Mivel a TPU-k speciális hardverek a mély tanuláshoz, sok egyéb funkciót elveszítenek, amelyek általában elvárhatók egy általános célú processzortól, például egy CPU-tól. Ezt szem előtt tartva, vannak konkrét forgatókönyvek, amikor a TPU-k használata a legjobb eredményt hozza az AI betanítása során.

A legjobb alkalom a TPU használatára olyan műveleteknél, ahol a modellek nagymértékben támaszkodnak a mátrix számításokra, például a keresőmotorok ajánlási rendszereire. A TPU-k nagyszerű eredményeket adnak azoknál a modelleknél is, amelyekben az AI hatalmas mennyiségű adatpontot elemez, amelyek elkészítése több hetet vagy hónapot vesz igénybe. A mesterséges intelligencia mérnökei TPU-kat használnak az egyedi TensorFlow modellek nélküli esetekben, és a nulláról kell kezdeniük.

Mikor ne használjon TPU-kat

Amint azt korábban említettük, a TPU-k optimalizálása miatt az ilyen típusú processzorok csak meghatározott terhelési műveleteken működnek. Ezért vannak olyan esetek, amikor a hagyományos CPU és GPU használata gyorsabb eredményeket hoz. Ilyen esetek a következők:

  • Gyors prototípuskészítés maximális rugalmassággal
  • A rendelkezésre álló adatpontok által korlátozott modellek
  • Egyszerű és gyorsan betanítható modellek
  • A modellek túl nehézkesek a változtatáshoz
  • A C++ nyelven írt egyedi TensorFlow műveletekre támaszkodó modellek

TPU verziók és specifikációk

Kép jóváírása:Zinskauf/ Wikimedia Commons

Mióta a Google bejelentette TPU-it, a nyilvánosság folyamatosan értesül a TPU-k legújabb verzióiról és specifikációiról. Az alábbiakban felsoroljuk az összes TPU-verziót specifikációkkal:

TPUv1 TPUv2 TPUv3 TPUv4 Edgev1
Bevezetés dátuma 2016 2017 2018 2021 2018
Folyamat csomópont (nm) 28 16 16 7
A szerszám mérete (mm²) 331 <625 <700 <400
Chip-memória 28 32 32 144
Órajel (MHz) 700 700 940 1050
Legkisebb memória konfiguráció (GB) 8 DDR3 16 HBM 32 HBM 32 HBM
TDP (watt) 75 280 450 175 2
TOPS (Tera műveletek másodpercenként) 23 45 90 ? 4
TOPS/W 0.3 0.16 0.2 ? 2

Amint láthatja, a TPU órajelei nem tűnnek olyan lenyűgözőnek, különösen akkor, ha a mai modern asztali számítógépek 3-5-ször gyorsabbak lehetnek. De ha megnézzük a táblázat alsó két sorát, láthatjuk, hogy a TPU-k másodpercenként 23-90 tera műveletet képesek feldolgozni mindössze 0,16-0,3 watt teljesítménnyel. A TPU-k becslések szerint 15-30-szor gyorsabbak, mint a modern CPU-k és GPU-k, ha neurális hálózati interfészt használnak.

Minden egyes verzió kiadásával az újabb TPU-k jelentős fejlesztéseket és képességeket mutatnak. Íme néhány kiemelés az egyes verziókhoz.

  • TPUv1: Az első nyilvánosan bejelentett TPU. 8 bites mátrixszorzó motornak készült, és csak egész számok megoldására korlátozódik.
  • TPUv2: Mivel a mérnökök megállapították, hogy a TPUv1 sávszélessége korlátozott. Ez a verzió most dupla sávszélességgel rendelkezik 16 GB RAM-mal. Ez a verzió már képes megoldani a lebegőpontokat, így hasznos lehet a képzéshez és a következtetésekhez.
  • TPUv3: A 2018-ban kiadott TPUv3 kétszer annyi processzorral rendelkezik, és négyszer annyi chippel van telepítve, mint a TPUv2. A frissítések lehetővé teszik, hogy ez a verzió nyolcszor nagyobb teljesítményt nyújtson a korábbi verziókhoz képest.
  • TPUv4: Ez a TPU legújabb verziója, amelyet 2021. május 18-án jelentettek be. A Google vezérigazgatója bejelentette, hogy ez a verzió több mint kétszerese lesz a TPU v3 teljesítményének.
  • Edge TPU: Ez a TPU-verzió kisebb műveletekhez készült, és az általános működés során kevesebb energiát fogyaszt, mint a TPU más verziói. Bár csak két watt teljesítményt használ, az Edge TPU másodpercenként akár négy terra-műveletet is képes megoldani. Az Edge TPU csak kisméretű kézi eszközökön található, például a Google Pixel 4 okostelefonján.

Hogyan férhet hozzá a TPU-khoz? Ki használhatja őket?

A TPU-k szabadalmaztatott feldolgozó egységek, amelyeket a Google a TensorFlow platformmal való használatra tervezett. A harmadik felek hozzáférése ezekhez a processzorokhoz 2018 óta engedélyezett. Ma a TPU-k (az Edge TPU-k kivételével) csak a Google-n keresztül érhetők el számítástechnikai szolgáltatások a felhőn keresztül. Míg az Edge TPU hardver megvásárolható a Google Pixel 4 okostelefonján és annak Coral néven ismert prototípus-készletén keresztül.

A Coral egy USB-gyorsító, amely USB 3.0 Type C-t használ adat- és tápellátáshoz. Edge TPU-val látja el eszközét, amely 4 TOPS-ra képes minden 2 W teljesítményre. Ez a készlet Windows 10, macOS és Debian Linux operációs rendszert használó gépeken futhat (működhet a Raspberry Pi-vel is).

Egyéb speciális AI-gyorsítók

Mivel az elmúlt évtizedben a mesterséges intelligencia divatos volt, a Big Tech folyamatosan keresi a módokat arra, hogy a gépi tanulást a lehető leggyorsabbá és leghatékonyabbá tegye. Bár a Google TPU-i vitathatatlanul a legnépszerűbb ASIC, amelyet mély tanulásra fejlesztettek ki, más technológiai vállalatok, mint például az Intel, a Microsoft, az Alibaba és a Qualcomm is kifejlesztették saját AI-gyorsítóikat. Ezek közé tartozik a Microsoft Brainwave, az Intel Neural Compute Stick és a Graphicore IPU (Intelligence Processing Unit).

Miközben azonban több mesterséges intelligencia hardvert fejlesztenek, sajnos a legtöbb még nem lesz elérhető a piacon, és sokan soha nem is fognak. Az írás pillanatában, ha valóban mesterséges intelligenciagyorsító hardvert szeretne vásárolni, a legnépszerűbb lehetőség egy Coral prototípus-készítő készlet, egy Intel NCS, egy Graphicore Bow Pod vagy egy Asus IoT AI Accelerator vásárlása. Ha csak speciális mesterségesintelligencia-hardverhez szeretne hozzáférni, használhatja a Google felhőalapú számítástechnikai szolgáltatásait vagy más alternatívákat, például a Microsoft Brainwave-ot.