Vai al contenuto

Tensor Processing Unit

Da Wikipedia, l'enciclopedia libera.
Una Tensor Processing Unit 3.0
Una Tensor Processing Unit 3.0

Una tensor processing unit (TPU) è un acceleratore IA costituito da un circuito ASIC sviluppato da Google per applicazioni specifiche nel campo delle reti neurali. La prima tensor processing unit è stata presentata nel maggio del 2016 in occasione della Google I/O; la società specificò che le TPU erano già impiegate all'interno dei propri data center da oltre un anno[1][2]. Il circuito è stato appositamente progettato per la libreria open source TensorFlow[3]. La stessa Google continua ad impiegare le classiche CPU e GPU per altre tipologie di applicazioni orientate all'apprendimento automatico.

Descrizione

Google ha pensato per questo tipo di processore ad una architettura a specifico dominio progettata come un processore-matrice esclusivamente pensato per il lavoro per reti neurali a velocità incredibilmente elevate consumando molta meno energia e all'interno di uno spazio fisico ridotto[4]. In questa maniera viene ridotto grandemente il collo di bottiglia dell'architettura di von Neumann perché Il compito principale del processore è di calcolare matrici,approcciando con una architettura ad array sistolico può usare migliaia di moltiplicatori e addenti e connetterli direttamente per formare una matrice fisica per questi operatori[4]. Per la seconda generazione di TPU ci sono due array sistolici da 128 x 128 che aggregano 32768 ALU per valori a 16 bit in virgola mobile per singolo processore[4]..

Prodotti

Prima generazione

La TPU di prima generazione è un motore di moltiplicazione a matrice a 8 bit che opera con le istruzioni CISC dalla CPU host tramite il bus PCIe 3.0.  Il TPU è prodotto con un processo a 28 nm e la dimensione esatta della matrice non è nota, ma è meno della metà di Haswell.  La velocità di clock è di 700 MHz e la potenza di progettazione termica (consumo energetico) è di 28-40 W.  Il TPU ha una memoria chip da 28 MiB e un accumulatore da 4 MiB a 32 bit che ottiene i risultati di 65536 accumulatori a 8 bit.  Le istruzioni eseguono la trasmissione / ricezione dei dati con l'host, la moltiplicazione / convoluzione della matrice e l'applicazione della funzione di attivazione.


Seconda generazione

Terza generazione

Note

  1. ^ (EN) Google's Tensor Processing Unit explained: this is what the future of computing looks like, su TechRadar. URL consultato il 14 aprile 2019.
  2. ^ (EN) Google supercharges machine learning tasks with TPU custom chip, su Google Cloud Platform Blog. URL consultato il 14 aprile 2019.
  3. ^ (EN) TensorFlow: Open source machine learning, su YouTube. URL consultato il 14 aprile 2019.
  4. ^ a b c What makes TPUs fine-tuned for deep learning?, in cloud.google.com. URL consultato il 28 aprile 2019.

Voci correlate

  Portale Informatica: accedi alle voci di Wikipedia che trattano di informatica