Video: How to Enable Dark Mode on Google Chrome Android (November 2024)
Ena najzanimivejših - in nepričakovanih - napovedi, ki jo je Google objavil na svoji konferenci razvijalcev V / I prejšnji teden, je bila, da je zasnoval in implementiral svoje čipe za strojno učenje. Glavni direktor Googla Sundar Pichai je predstavil tisto, kar je poimenoval Tensor Processing Unit (TPU), rekoč, da ga je družba uporabila v svojih AlphaGo strojih, ki so premagali Go prvaka Lee Sedol.
"TPU-ji so za veliko večjo zmogljivost na vat kot komercialni FPGA in GPU-ji, " je dejal Pichai. Čeprav ni navedel veliko podrobnosti, je Google ugledni strojni inženir Norm Jouppi v blogovski objavi pojasnil, da je TPU po meri ASIC (vgrajeno vezje, specifično za aplikacijo). Z drugimi besedami, gre za čip, ki je posebej zasnovan za izvajanje strojnega učenja in je posebej prilagojen TensorFlow, Googlovemu okviru strojnega učenja.
V objavi je Jouppi dejal, da je "bolj strpen" do zmanjšane računske natančnosti, kar pomeni, da potrebuje manj tranzistorjev na operacijo. To Googlu omogoča več operacij na sekundo, uporabnikom pa omogoča hitrejše doseganje rezultatov. Povedal je, da se tabla s TPU prilega v režo za trdi disk v svojih nosilcih podatkovnega centra in je pokazal sliko strežniških nosilcev, napolnjenih s TPU-ji, za katere je dejal, da se uporabljajo v podjetjih AlphaGo-jevih strojih.
Poleg tega je Jouppi dejal, da TPU-ji že delajo na številnih aplikacijah pri Googlu, vključno z RankBrainom, ki se uporabljajo za izboljšanje ustreznosti rezultatov iskanja, in Street View za izboljšanje natančnosti in kakovosti zemljevidov in navigacije.
Na tiskovni konferenci je Googlov VP za tehnično infrastrukturo Urs Hölzle potrdil, da TPU deluje z uporabo 8-bitne celoštevilne matematike, namesto bolj natančne matematike s plavajočo vejico, za katero so zasnovani večina sodobnih CPU-jev in GPU-jev. Večina algoritmov strojnega učenja se lahko kosa z nižjo ločljivostjo, kar pomeni, da lahko čip prenese več operacij na določenem območju in se loteva bolj zapletenih modelov. To ni nova ideja; modul Nvidia Drive PX 2, ki je bil na CES napovedan že v letošnjem letu, je sposoben 8 teraflopov z 32-bitno natančnostjo s plavajočo vejico, vendar doseže 24 globoko učljivih "teraopov" (podjetje je izraz za 8 -bit celo matematiko).
Čeprav se je Hölzle odpovedal podrobnostim, poročila kažejo, da Google danes uporablja tako TPU kot GPU. Povedal je, da se bo to nadaljevalo še nekaj časa, a je predlagal, da Google na GPU gleda kot na preveč splošne in raje čip bolj optimiziran za strojno učenje. Povedal je, da bo podjetje kasneje izdalo dokument, v katerem bo opisal prednosti čipa, vendar je jasno povedal, da so namenjeni samo za notranjo uporabo, ne pa za prodajo drugim podjetjem. Druga aplikacija, ki jo je opisal, je bila uporaba čipov za obdelavo dela računalništva, ki stoji za motorjem za prepoznavanje glasu, ki se uporablja v telefonu Android.
Izbira za uporabo ASIC je Google zanimiva stava. Največji napredek v strojnem učenju v zadnjih letih - tehnologija za velik pritisk globokih nevronskih mrež - je sprejetje GPU-jev, zlasti linije Nvidia Tesla, za usposabljanje teh modelov. Pred kratkim je Intel kupil Altera, vodilnega proizvajalca FPGA (polja, ki jih lahko programirajo vrata), ki so nekje na sredini; niso tako splošni namen kot GPU-ji ali posebej zasnovani za TensorFlow kot Googlov čip, vendar jih je mogoče programirati za opravljanje različnih nalog. Microsoft je za poglobljeno učenje eksperimentiral z Altera FPGA. IBM razvija svoj čip TrueNorth Neurosynaptic, zasnovan posebej za nevronske mreže, ki se je pred kratkim začel uporabljati v različnih aplikacijah. Cadence (Tensilica), Freescale in Synopsys pritiskajo na svoje DSP (digitalne signalne procesorje), da te modele poganjajo; Mobileye in NXP sta nedavno napovedala čipe, zasnovane posebej za ADAS in samovozeče avtomobile; in več manjših podjetij, vključno z Movidiusom in Nervano, so objavili načrte za čipe, zasnovane posebej za AI.
Prezgodaj je vedeti, kateri pristop bo na dolgi rok najboljši, toda če imamo zelo različne možnosti, bomo verjetno videli zanimivo konkurenco v naslednjih nekaj letih.