Przejdź do zawartości

Tensor Processing Unit

Z Wikipedii, wolnej encyklopedii
Wersja do druku nie jest już wspierana i może powodować błędy w wyświetlaniu. Zaktualizuj swoje zakładki i zamiast tego użyj domyślnej funkcji drukowania w swojej przeglądarce.
Tensor Processing Unit w wersji 3.0

Tensor Processing Unitspecjalistyczna jednostka obliczeniowa przystosowana do obliczeń uczenia maszynowego, głównie związanych z sieciami neuronowymi, opracowany przez Google. Jej zastosowanie jest podobne do NPU. Przyspiesza działanie takich frameworków PyTorch, czy TensorFlow[1]. TPU są dostępne w ramach Google Cloud Platform(inne języki)[2].

Został stworzony ze względu na zapotrzebowanie użytkowników w zasoby obliczeniowe do uczenia maszynowego[3]. Oferuje szczytową przepustowość rzędu 92 TOPS (ang. Trillion operations per second). Układy TPU są bardziej wydajne niż GPU Nvidii K80, ale zużywają mniej energii[4].

W kwietniu 2025 Google ogłosiło nową generację układu TPU o nazwie „Ironwood”[5][6].

Przypisy

  1. Tensor Processing Units (TPUs) [online], Google Cloud [dostęp 2025-04-19] (ang.).
  2. Introduction to Cloud TPU [online], Google Cloud [dostęp 2025-04-19] (ang.).
  3. TPU, czip Google do maszynowego uczenia, w wydajności deklasuje GPU, „dobreprogramy” [dostęp 2025-04-19] [zarchiwizowane z adresu 2023-06-07].
  4. Szczegóły architektury TPU od Google [online], evertiq.pl, 2017 [dostęp 2025-04-19].
  5. Google prezentuje Ironwood. To nowa generacja układów TPU zoptymalizowanych pod kątem wnioskowania AI [online], PurePC.pl, 11 kwietnia 2025 [dostęp 2025-04-19].
  6. Ironwood: The first Google TPU for the age of inference [online], Google, 9 kwietnia 2025 [dostęp 2025-04-19] (ang.).