https://de.wikipedia.org/w/index.php?action=history&feed=atom&title=Tensor_Processing_Unit
Tensor Processing Unit - Versionsgeschichte
2025-05-22T07:25:43Z
Versionsgeschichte dieser Seite in Wikipedia
MediaWiki 1.45.0-wmf.1
https://de.wikipedia.org/w/index.php?title=Tensor_Processing_Unit&diff=249744777&oldid=prev
Aka: Tippfehler entfernt, deutsch
2024-10-25T16:06:56Z
<p><a href="/wiki/Benutzer:Aka/Tippfehler_entfernt" title="Benutzer:Aka/Tippfehler entfernt">Tippfehler entfernt</a>, deutsch</p>
<table style="background-color: #fff; color: #202122;" data-mw="interface">
<col class="diff-marker" />
<col class="diff-content" />
<col class="diff-marker" />
<col class="diff-content" />
<tr class="diff-title" lang="de">
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td>
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 25. Oktober 2024, 18:06 Uhr</td>
</tr><tr>
<td colspan="2" class="diff-lineno">Zeile 1:</td>
<td colspan="2" class="diff-lineno">Zeile 1:</td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>[[Datei:TPU v4.png|<del style="font-weight: bold; text-decoration: none;">thumb|right</del>|TPUs der vierten Generation. Die farbigen Schläuche führen die Kühlflüssigkeit zu den vier ASICs]]</div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>[[Datei:TPU v4.png|<ins style="font-weight: bold; text-decoration: none;">mini</ins>|TPUs der vierten Generation. Die farbigen Schläuche führen die Kühlflüssigkeit zu den vier ASICs]]</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>'''Tensor Processing Units''' ('''TPUs'''), auch '''[[Tensor]]-Prozessoren''', sind [[Anwendungsspezifische integrierte Schaltung|anwendungsspezifische Chips]] zur Beschleunigung von [[Maschinelles Lernen|maschinellem Lernen]]. TPUs werden vor allem genutzt, um Daten in [[Künstliches neuronales Netz|künstlichen neuronalen Netzen]] zu verarbeiten (siehe [[Deep Learning]]).</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>'''Tensor Processing Units''' ('''TPUs'''), auch '''[[Tensor]]-Prozessoren''', sind [[Anwendungsspezifische integrierte Schaltung|anwendungsspezifische Chips]] zur Beschleunigung von [[Maschinelles Lernen|maschinellem Lernen]]. TPUs werden vor allem genutzt, um Daten in [[Künstliches neuronales Netz|künstlichen neuronalen Netzen]] zu verarbeiten (siehe [[Deep Learning]]).</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td colspan="2" class="diff-lineno">Zeile 19:</td>
<td colspan="2" class="diff-lineno">Zeile 19:</td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>=== Dritte Generation ===</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>=== Dritte Generation ===</div></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>[[Datei:Tensor Processing Unit 3.0.jpg|alternativtext=TPUv3<del style="font-weight: bold; text-decoration: none;"> </del>Karte|mini|TPUv3-Karte]]</div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>[[Datei:Tensor Processing Unit 3.0.jpg|alternativtext=TPUv3<ins style="font-weight: bold; text-decoration: none;">-</ins>Karte|mini|TPUv3-Karte]]</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die dritte Generation von Googles TPU (''TPU 3.0'') wurde auf der [[Google I/O#2018|Google I/O 2018]] vorgestellt. Die TPUs besitzen 4 MXUs mit je 8 GiB Arbeitsspeicher (32 GiB je TPU).<ref name="tnp_TPU3" /> Die Netzwerktopologie der TPUs ist ebenfalls in Form eines 2D-[[Torus]] ausgelegt. Die Racks besitzen zudem eine [[Wasserkühlung]], mit der die TPUs gekühlt werden.<ref name="tnp_TPU3" /> TPU 3.0-Pods bestehen aus 8 Racks mit insgesamt 1024 TPUs und 256 Server-CPUs. Die Rechenleistung eines Pod liegt bei knapp über 100 PFLOPS.<ref name="tnp_TPU3" /></div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die dritte Generation von Googles TPU (''TPU 3.0'') wurde auf der [[Google I/O#2018|Google I/O 2018]] vorgestellt. Die TPUs besitzen 4 MXUs mit je 8 GiB Arbeitsspeicher (32 GiB je TPU).<ref name="tnp_TPU3" /> Die Netzwerktopologie der TPUs ist ebenfalls in Form eines 2D-[[Torus]] ausgelegt. Die Racks besitzen zudem eine [[Wasserkühlung]], mit der die TPUs gekühlt werden.<ref name="tnp_TPU3" /> TPU 3.0-Pods bestehen aus 8 Racks mit insgesamt 1024 TPUs und 256 Server-CPUs. Die Rechenleistung eines Pod liegt bei knapp über 100 PFLOPS.<ref name="tnp_TPU3" /></div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
</table>
Aka
https://de.wikipedia.org/w/index.php?title=Tensor_Processing_Unit&diff=248825135&oldid=prev
2A00:6020:50DC:5D00:0:0:0:1: Typo färbig -> farbig
2024-09-23T09:03:20Z
<p>Typo färbig -> farbig</p>
<table style="background-color: #fff; color: #202122;" data-mw="interface">
<col class="diff-marker" />
<col class="diff-content" />
<col class="diff-marker" />
<col class="diff-content" />
<tr class="diff-title" lang="de">
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td>
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 23. September 2024, 11:03 Uhr</td>
</tr><tr>
<td colspan="2" class="diff-lineno">Zeile 1:</td>
<td colspan="2" class="diff-lineno">Zeile 1:</td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>[[Datei:TPU v4.png|thumb|right|TPUs der vierten Generation. Die <del style="font-weight: bold; text-decoration: none;">färbigen</del> Schläuche führen die Kühlflüssigkeit zu den vier ASICs]]</div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>[[Datei:TPU v4.png|thumb|right|TPUs der vierten Generation. Die <ins style="font-weight: bold; text-decoration: none;">farbigen</ins> Schläuche führen die Kühlflüssigkeit zu den vier ASICs]]</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>'''Tensor Processing Units''' ('''TPUs'''), auch '''[[Tensor]]-Prozessoren''', sind [[Anwendungsspezifische integrierte Schaltung|anwendungsspezifische Chips]] zur Beschleunigung von [[Maschinelles Lernen|maschinellem Lernen]]. TPUs werden vor allem genutzt, um Daten in [[Künstliches neuronales Netz|künstlichen neuronalen Netzen]] zu verarbeiten (siehe [[Deep Learning]]).</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>'''Tensor Processing Units''' ('''TPUs'''), auch '''[[Tensor]]-Prozessoren''', sind [[Anwendungsspezifische integrierte Schaltung|anwendungsspezifische Chips]] zur Beschleunigung von [[Maschinelles Lernen|maschinellem Lernen]]. TPUs werden vor allem genutzt, um Daten in [[Künstliches neuronales Netz|künstlichen neuronalen Netzen]] zu verarbeiten (siehe [[Deep Learning]]).</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
</table>
2A00:6020:50DC:5D00:0:0:0:1
https://de.wikipedia.org/w/index.php?title=Tensor_Processing_Unit&diff=243546035&oldid=prev
Troubled asset: konziser
2024-03-29T11:44:20Z
<p>konziser</p>
<table style="background-color: #fff; color: #202122;" data-mw="interface">
<col class="diff-marker" />
<col class="diff-content" />
<col class="diff-marker" />
<col class="diff-content" />
<tr class="diff-title" lang="de">
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td>
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 29. März 2024, 13:44 Uhr</td>
</tr><tr>
<td colspan="2" class="diff-lineno">Zeile 1:</td>
<td colspan="2" class="diff-lineno">Zeile 1:</td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>[[Datei:TPU v4.png|thumb|right|TPUs der vierten Generation. Die färbigen Schläuche führen die Kühlflüssigkeit zu den vier ASICs]]</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>[[Datei:TPU v4.png|thumb|right|TPUs der vierten Generation. Die färbigen Schläuche führen die Kühlflüssigkeit zu den vier ASICs]]</div></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>'''Tensor Processing Units''' ('''TPUs'''), auch '''[[Tensor]]-Prozessoren''', sind [[Anwendungsspezifische integrierte Schaltung|anwendungsspezifische Chips]] <del style="font-weight: bold; text-decoration: none;">um Anwendungen im</del> <del style="font-weight: bold; text-decoration: none;">Rahmen</del> von [[Maschinelles Lernen|maschinellem Lernen]]<del style="font-weight: bold; text-decoration: none;"> zu beschleunigen</del>. TPUs werden vor allem genutzt, um Daten in [[Künstliches neuronales Netz|künstlichen neuronalen Netzen]]<del style="font-weight: bold; text-decoration: none;">,</del> <del style="font-weight: bold; text-decoration: none;">vgl.</del> [[Deep Learning]]<del style="font-weight: bold; text-decoration: none;">, zu verarbeiten</del>.</div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>'''Tensor Processing Units''' ('''TPUs'''), auch '''[[Tensor]]-Prozessoren''', sind [[Anwendungsspezifische integrierte Schaltung|anwendungsspezifische Chips]] <ins style="font-weight: bold; text-decoration: none;">zur</ins> <ins style="font-weight: bold; text-decoration: none;">Beschleunigung</ins> von [[Maschinelles Lernen|maschinellem Lernen]]. TPUs werden vor allem genutzt, um Daten in [[Künstliches neuronales Netz|künstlichen neuronalen Netzen]] <ins style="font-weight: bold; text-decoration: none;">zu verarbeiten (siehe</ins> [[Deep Learning]]<ins style="font-weight: bold; text-decoration: none;">)</ins>.</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Die von [[Google Inc.|Google]] entwickelten TPUs wurden speziell für die Softwaresammlung [[TensorFlow]]<ref name="tf"/> entworfen. TPUs sind die Basis für alle Google Services, <del style="font-weight: bold; text-decoration: none;">welche</del> maschinelles Lernen einsetzen, und wurden auch in den [[AlphaGo]]-Maschine-vs.-Mensch-Wettkämpfen <del style="font-weight: bold; text-decoration: none;">mit</del> <del style="font-weight: bold; text-decoration: none;">einem</del> der weltbesten [[Go (Spiel)|Go]]-Spieler, <del style="font-weight: bold; text-decoration: none;">[[Lee Sedol]], zum Einsatz gebracht</del>.<ref>{{Internetquelle|url=https://www.heise.de/newsticker/meldung/Google-I-O-2016-Tensor-Prozessoren-halfen-beim-Go-Sieg-3210953.html |titel=Google I/O 2016: "Tensor-Prozessoren" halfen beim Go-Sieg – heise online |autor=Christof Windeck |werk=heise.de |datum=2016-05-19 |zugriff=2016-11-23}}</ref></div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Die von [[Google Inc.|Google]] entwickelten TPUs wurden speziell für die Softwaresammlung [[TensorFlow]]<ref name="tf"/> entworfen. TPUs sind die Basis für alle Google Services, <ins style="font-weight: bold; text-decoration: none;">die</ins> maschinelles Lernen einsetzen, und wurden auch in den [[AlphaGo]]-Maschine-vs.-Mensch-Wettkämpfen <ins style="font-weight: bold; text-decoration: none;">gegen</ins> <ins style="font-weight: bold; text-decoration: none;">[[Lee Sedol]], einen</ins> der weltbesten [[Go (Spiel)|Go]]-Spieler, <ins style="font-weight: bold; text-decoration: none;">eingesetzt</ins>.<ref>{{Internetquelle|url=https://www.heise.de/newsticker/meldung/Google-I-O-2016-Tensor-Prozessoren-halfen-beim-Go-Sieg-3210953.html |titel=Google I/O 2016: "Tensor-Prozessoren" halfen beim Go-Sieg – heise online |autor=Christof Windeck |werk=heise.de |datum=2016-05-19 |zugriff=2016-11-23}}</ref></div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Generationen der Tensor Processing Units ==</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Generationen der Tensor Processing Units ==</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>=== Erste Generation ===</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>=== Erste Generation ===</div></td>
</tr>
</table>
Troubled asset
https://de.wikipedia.org/w/index.php?title=Tensor_Processing_Unit&diff=243531622&oldid=prev
86.111.153.241: Typos
2024-03-28T21:37:10Z
<p>Typos</p>
<table style="background-color: #fff; color: #202122;" data-mw="interface">
<col class="diff-marker" />
<col class="diff-content" />
<col class="diff-marker" />
<col class="diff-content" />
<tr class="diff-title" lang="de">
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td>
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 28. März 2024, 23:37 Uhr</td>
</tr><tr>
<td colspan="2" class="diff-lineno">Zeile 5:</td>
<td colspan="2" class="diff-lineno">Zeile 5:</td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Generationen der Tensor Processing Units ==</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Generationen der Tensor Processing Units ==</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>=== Erste Generation ===</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>=== Erste Generation ===</div></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Die erste Generation von Googles TPU wurde auf der [[Google I/O#2016|Google I/O 2016]] vorgestellt und speziell entworfen, um die Anwendung eines bereits trainierten [[Künstliches neuronales Netz|künstlichen neuronalen Netzwerks]] zu unterstützen bzw. zu beschleunigen.<ref name="supercharge" /> Dies wurde u.&nbsp;a. durch eine geringere Präzision im Vergleich zu normalen [[CPU]]s oder [[Grafikprozessor|GPUs]] und <del style="font-weight: bold; text-decoration: none;">einer</del> Spezialisierung auf Matrizenoperationen erreicht.</div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Die erste Generation von Googles TPU wurde auf der [[Google I/O#2016|Google I/O 2016]] vorgestellt und speziell entworfen, um die Anwendung eines bereits trainierten [[Künstliches neuronales Netz|künstlichen neuronalen Netzwerks]] zu unterstützen bzw. zu beschleunigen.<ref name="supercharge" /> Dies wurde u.&nbsp;a. durch eine geringere Präzision im Vergleich zu normalen [[CPU]]s oder [[Grafikprozessor|GPUs]] und <ins style="font-weight: bold; text-decoration: none;">eine</ins> Spezialisierung auf Matrizenoperationen erreicht.</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Die TPU besteht aus einem [[Systolischer Array|systolischen Array]] mit einer 256×256-8-Bit-Matrizenmultiplikationseinheit (MMU), welche von einem Mikroprozessor mit einem [[Complex Instruction Set Computer|CISC]]-Befehlsatz angesteuert wird. Der Chip wurde in einem 28-nm-Prozess gefertigt und taktet mit 700&nbsp;MHz bei einer [[Thermal Design Power]] von 28 bis 40&nbsp;W. Die TPU besitzt 28&nbsp;MiB Arbeitsspeicher am Chip. Zudem sind 4-MiB-32-Bit-[[Akkumulator (Computer)|Akkumulatoren]] verbaut, welche die Ergebnisse der Matrizenmultiplikationseinheit übernehmen. Die TPU kann [[Matrizenmultiplikation]]en, [[Faltung (Mathematik)|Faltungen]] und [[Künstliches Neuron#Aktivierungsfunktionen|Aktivierungsfunktionen]]<del style="font-weight: bold; text-decoration: none;">,</del> sowie Datentransfer zum Hostsystem über [[PCI Express|PCIe]] 3.0 oder zum DDR3 DRAM, welcher sich am Board befindet, ausführen.</div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Die TPU besteht aus einem [[Systolischer Array|systolischen Array]] mit einer 256×256-8-Bit-Matrizenmultiplikationseinheit (MMU), welche von einem Mikroprozessor mit einem [[Complex Instruction Set Computer|CISC]]-Befehlsatz angesteuert wird. Der Chip wurde in einem 28-nm-Prozess gefertigt und taktet mit 700&nbsp;MHz bei einer [[Thermal Design Power]] von 28 bis 40&nbsp;W. Die TPU besitzt 28&nbsp;MiB Arbeitsspeicher am Chip. Zudem sind 4-MiB-32-Bit-[[Akkumulator (Computer)|Akkumulatoren]] verbaut, welche die Ergebnisse der Matrizenmultiplikationseinheit übernehmen. Die TPU kann [[Matrizenmultiplikation]]en, [[Faltung (Mathematik)|Faltungen]] und [[Künstliches Neuron#Aktivierungsfunktionen|Aktivierungsfunktionen]] sowie Datentransfer zum Hostsystem über [[PCI Express|PCIe]] 3.0 oder zum DDR3 DRAM, welcher sich am Board befindet, ausführen.</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>=== Zweite Generation ===</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>=== Zweite Generation ===</div></td>
</tr>
<tr>
<td colspan="2" class="diff-lineno">Zeile 16:</td>
<td colspan="2" class="diff-lineno">Zeile 16:</td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die TPUs der zweiten Generation sind in Form der [[Google Compute Engine]], einem [[Cloud Computing|Cloud]]-Angebot von Google, nutzbar.</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die TPUs der zweiten Generation sind in Form der [[Google Compute Engine]], einem [[Cloud Computing|Cloud]]-Angebot von Google, nutzbar.</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Um die Speicherbandbreite der Architektur zu erhöhen kommt [[High Bandwidth Memory|HBM]]-Speicher zum Einsatz.<ref>{{Internetquelle |url=https://cloud.google.com/tpu/docs/system-architecture?hl=de |titel=Systemarchitektur {{!}} Cloud TPU |abruf=2020-01-12 |sprache=de}}</ref></div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Um die Speicherbandbreite der Architektur zu erhöhen<ins style="font-weight: bold; text-decoration: none;">,</ins> kommt [[High Bandwidth Memory|HBM]]-Speicher zum Einsatz.<ref>{{Internetquelle |url=https://cloud.google.com/tpu/docs/system-architecture?hl=de |titel=Systemarchitektur {{!}} Cloud TPU |abruf=2020-01-12 |sprache=de}}</ref></div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>=== Dritte Generation ===</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>=== Dritte Generation ===</div></td>
</tr>
</table>
86.111.153.241
https://de.wikipedia.org/w/index.php?title=Tensor_Processing_Unit&diff=236658296&oldid=prev
Wdwd: +Abbildung TPUv4
2023-08-22T20:12:14Z
<p>+Abbildung TPUv4</p>
<table style="background-color: #fff; color: #202122;" data-mw="interface">
<col class="diff-marker" />
<col class="diff-content" />
<col class="diff-marker" />
<col class="diff-content" />
<tr class="diff-title" lang="de">
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td>
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 22. August 2023, 22:12 Uhr</td>
</tr><tr>
<td colspan="2" class="diff-lineno">Zeile 1:</td>
<td colspan="2" class="diff-lineno">Zeile 1:</td>
</tr>
<tr>
<td colspan="2" class="diff-empty diff-side-deleted"></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>[[Datei:TPU v4.png|thumb|right|TPUs der vierten Generation. Die färbigen Schläuche führen die Kühlflüssigkeit zu den vier ASICs]]</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>'''Tensor Processing Units''' ('''TPUs'''), auch '''[[Tensor]]-Prozessoren''', sind [[Anwendungsspezifische integrierte Schaltung|anwendungsspezifische Chips]] um Anwendungen im Rahmen von [[Maschinelles Lernen|maschinellem Lernen]] zu beschleunigen. TPUs werden vor allem genutzt, um Daten in [[Künstliches neuronales Netz|künstlichen neuronalen Netzen]], vgl. [[Deep Learning]], zu verarbeiten.</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>'''Tensor Processing Units''' ('''TPUs'''), auch '''[[Tensor]]-Prozessoren''', sind [[Anwendungsspezifische integrierte Schaltung|anwendungsspezifische Chips]] um Anwendungen im Rahmen von [[Maschinelles Lernen|maschinellem Lernen]] zu beschleunigen. TPUs werden vor allem genutzt, um Daten in [[Künstliches neuronales Netz|künstlichen neuronalen Netzen]], vgl. [[Deep Learning]], zu verarbeiten.</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
</table>
Wdwd
https://de.wikipedia.org/w/index.php?title=Tensor_Processing_Unit&diff=232539584&oldid=prev
Aka: Abkürzung korrigiert, Datumsformat im Einzelnachweis korrigiert, Leerzeichen in Überschrift, Kleinkram
2023-04-06T14:15:31Z
<p>Abkürzung korrigiert, Datumsformat im Einzelnachweis korrigiert, Leerzeichen in Überschrift, Kleinkram</p>
<table style="background-color: #fff; color: #202122;" data-mw="interface">
<col class="diff-marker" />
<col class="diff-content" />
<col class="diff-marker" />
<col class="diff-content" />
<tr class="diff-title" lang="de">
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td>
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 6. April 2023, 16:15 Uhr</td>
</tr><tr>
<td colspan="2" class="diff-lineno">Zeile 22:</td>
<td colspan="2" class="diff-lineno">Zeile 22:</td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>=== Vierte Generation ===</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>=== Vierte Generation ===</div></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Die vierte Generation von Googles TPU (''TPU v4'') wurde von Google im Dezember 2021 vorgestellt.<ref>{{Internetquelle |url=https://cloud.google.com/blog/topics/tpus/google-showcases-cloud-tpu-v4-pods-for-large-model-training |titel=Google showcases Cloud TPU v4 Pods for large model training {{!}} |abruf=2022-04-11 |sprache=de}}</ref><del style="font-weight: bold; text-decoration: none;"> </del></div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Die vierte Generation von Googles TPU (''TPU v4'') wurde von Google im Dezember 2021 vorgestellt.<ref>{{Internetquelle |url=https://cloud.google.com/blog/topics/tpus/google-showcases-cloud-tpu-v4-pods-for-large-model-training |titel=Google showcases Cloud TPU v4 Pods for large model training {{!}} |abruf=2022-04-11 |sprache=de}}</ref></div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Mit den sogenannten SparseCores und Optical Circuit Switches (OCS) kann der TPU v4 interne Verbindungen dynamisch rekonfigurieren und skalieren. Das optische Netzwerk kann außerdem an die Struktur des berechneten KI-Modells angepasst werden. Die Sicherheit soll durch die Trennung der Racks auf Netzwerkebene erhöht werden. Der OCS ist verhältnismäßig günstig, da er unter fünf Prozent der Gesamtkosten der TPU ausmacht. Bei der Leistungsaufnahme schlägt das optische Netzwerk mit unter drei Prozent ebenfalls kaum zu Buche.<ref>golem.de, Johannes Hiltscher: [https://www.golem.de/news/google-erklaert-tpu-v4-ki-supercomputer-mit-flexiblem-optischen-netz-2304-173234-2.html Google erklärt TPU v4: KI-Supercomputer mit flexiblem optischen Netz], 5. April 2023</ref><del style="font-weight: bold; text-decoration: none;"> </del></div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Mit den sogenannten SparseCores und Optical Circuit Switches (OCS) kann der TPU v4 interne Verbindungen dynamisch rekonfigurieren und skalieren. Das optische Netzwerk kann außerdem an die Struktur des berechneten KI-Modells angepasst werden. Die Sicherheit soll durch die Trennung der Racks auf Netzwerkebene erhöht werden. Der OCS ist verhältnismäßig günstig, da er unter fünf Prozent der Gesamtkosten der TPU ausmacht. Bei der Leistungsaufnahme schlägt das optische Netzwerk mit unter drei Prozent ebenfalls kaum zu Buche.<ref>golem.de, Johannes Hiltscher: [https://www.golem.de/news/google-erklaert-tpu-v4-ki-supercomputer-mit-flexiblem-optischen-netz-2304-173234-2.html Google erklärt TPU v4: KI-Supercomputer mit flexiblem optischen Netz], 5. April 2023</ref></div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Die TPU v4 hat dank einer Umstellung auf eine 7-nm-Fertigung und einer Transistorzahl von 22 Milliarden eine mehr als doppelt so hohe Rechenleistung von 275 TFLOPS bei [[bfloat16]] und [[int8]]. Trotzdem ist sie mit einer Größe von nur 600 mm² kleiner und verbraucht maximal 192 Watt, was im Vergleich zur TPU v3 eine Einsparung darstellt.<ref>{{Internetquelle|autor=Norman P. Jouppi u.a. |url=https://arxiv.org/abs/2304.01433 |titel=TPU v4: An Optically Reconfigurable Supercomputer for Machine Learning with Hardware Support for Embeddings |werk=[[arxiv.org]] | sprache=en |datum=2023-04-04 |abruf=2023-04-06 |abruf-verborgen=1}} {{DOI|10.48550/arXiv.2304.01433}}</ref></div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Die TPU v4 hat dank einer Umstellung auf eine 7-nm-Fertigung und einer Transistorzahl von 22 Milliarden eine mehr als doppelt so hohe Rechenleistung von 275 TFLOPS bei [[bfloat16]] und [[int8]]. Trotzdem ist sie mit einer Größe von nur 600 mm² kleiner und verbraucht maximal 192 Watt, was im Vergleich zur TPU v3 eine Einsparung darstellt.<ref>{{Internetquelle|autor=Norman P. Jouppi u.<ins style="font-weight: bold; text-decoration: none;">&nbsp;</ins>a. |url=https://arxiv.org/abs/2304.01433 |titel=TPU v4: An Optically Reconfigurable Supercomputer for Machine Learning with Hardware Support for Embeddings |werk=[[arxiv.org]] | sprache=en |datum=2023-04-04 |abruf=2023-04-06 |abruf-verborgen=1}} {{DOI|10.48550/arXiv.2304.01433}}</ref></div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>== Tabellarische Übersicht über einzelne TPU-Parameter==</div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>== Tabellarische Übersicht über einzelne TPU-Parameter<ins style="font-weight: bold; text-decoration: none;"> </ins>==</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>{| class="wikitable"</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>{| class="wikitable"</div></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>|+Tensor Processing Units<ref name=Cloud-System-Architecture>{{Cite web |title=System Architecture {{!}} Cloud TPU |url=https://cloud.google.com/tpu/docs/system-architecture-tpu-vm |access-date=2022-12-11 |website=Google Cloud |language=en}}</ref><ref name='TPU_memory'>{{cite news|last1=Kennedy|first1=Patrick|title=Case Study on the Google TPU and GDDR5 from Hot Chips 29|url=https://www.servethehome.com/case-study-google-tpu-gddr5-hot-chips-29/|access-date=23<del style="font-weight: bold; text-decoration: none;"> August 2017</del>|publisher=Serve The Home|date=22<del style="font-weight: bold; text-decoration: none;"> August 2017</del>}}</ref><ref>{{Internetquelle|autor= |url=https://cloud.google.com/blog/products/ai-machine-learning/google-breaks-ai-performance-records-in-mlperf-with-worlds-fastest-training-supercomputer?hl=en |titel=Google wins MLPerf benchmark contest with fastest ML training supercomputer – Google Cloud Blog |werk=cloud.google.com | sprache=en |datum=2020-07-30 |abruf=2023-04-06}}</ref></div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>|+Tensor Processing Units<ref name=Cloud-System-Architecture>{{Cite web |title=System Architecture {{!}} Cloud TPU |url=https://cloud.google.com/tpu/docs/system-architecture-tpu-vm |access-date=2022-12-11 |website=Google Cloud |language=en}}</ref><ref name='TPU_memory'>{{cite news|last1=Kennedy|first1=Patrick|title=Case Study on the Google TPU and GDDR5 from Hot Chips 29|url=https://www.servethehome.com/case-study-google-tpu-gddr5-hot-chips-29/|access-date=<ins style="font-weight: bold; text-decoration: none;">2017-08-</ins>23|publisher=Serve The Home|date=<ins style="font-weight: bold; text-decoration: none;">2017-08-</ins>22}}</ref><ref>{{Internetquelle|autor= |url=https://cloud.google.com/blog/products/ai-machine-learning/google-breaks-ai-performance-records-in-mlperf-with-worlds-fastest-training-supercomputer?hl=en |titel=Google wins MLPerf benchmark contest with fastest ML training supercomputer – Google Cloud Blog |werk=cloud.google.com | sprache=en |datum=2020-07-30 |abruf=2023-04-06}}</ref></div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>! !! TPU v1 !! TPU v2 !! TPU v3 !! TPU v4 !! Edge v1</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>! !! TPU v1 !! TPU v2 !! TPU v3 !! TPU v4 !! Edge v1</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>|-</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>|-</div></td>
</tr>
<tr>
<td colspan="2" class="diff-lineno">Zeile 65:</td>
<td colspan="2" class="diff-lineno">Zeile 65:</td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Literatur ==</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Literatur ==</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>* Norman P. Jouppi, Cliff Young, Nishant Patil, David Patterson: ''[https://cacm.acm.org/magazines/2018/9/230571-a-domain-specific-architecture-for-deep-neural-networks/fulltext A domain-specific architecture for deep neural networks.]'' In: ''Communications of the ACM.'' 61, 2018, S.&nbsp;50, {{DOI|10.1145/3154484}}.</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>* Norman P. Jouppi, Cliff Young, Nishant Patil, David Patterson: ''[https://cacm.acm.org/magazines/2018/9/230571-a-domain-specific-architecture-for-deep-neural-networks/fulltext A domain-specific architecture for deep neural networks.]'' In: ''Communications of the ACM.'' 61, 2018, S.&nbsp;50, {{DOI|10.1145/3154484}}.</div></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>* {{Internetquelle|autor=Norman P. Jouppi u.a. |url=https://arxiv.org/abs/2304.01433 |titel=TPU v4: An Optically Reconfigurable Supercomputer for Machine Learning with Hardware Support for Embeddings |werk=[[arxiv.org]] | sprache=en |datum=2023-04-04 |abruf=2023-04-06 |abruf-verborgen=1}} {{DOI|10.48550/arXiv.2304.01433}}</div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>* {{Internetquelle|autor=Norman P. Jouppi u.<ins style="font-weight: bold; text-decoration: none;">&nbsp;</ins>a. |url=https://arxiv.org/abs/2304.01433 |titel=TPU v4: An Optically Reconfigurable Supercomputer for Machine Learning with Hardware Support for Embeddings |werk=[[arxiv.org]] | sprache=en |datum=2023-04-04 |abruf=2023-04-06 |abruf-verborgen=1}} {{DOI|10.48550/arXiv.2304.01433}}</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Weblinks ==</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Weblinks ==</div></td>
</tr>
</table>
Aka
https://de.wikipedia.org/w/index.php?title=Tensor_Processing_Unit&diff=232526428&oldid=prev
질량 분석: /* Tabellarische Übersicht über einzelne TPU-Parameter */ form
2023-04-06T06:35:53Z
<p><span class="autocomment">Tabellarische Übersicht über einzelne TPU-Parameter: </span> form</p>
<table style="background-color: #fff; color: #202122;" data-mw="interface">
<col class="diff-marker" />
<col class="diff-content" />
<col class="diff-marker" />
<col class="diff-content" />
<tr class="diff-title" lang="de">
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td>
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 6. April 2023, 08:35 Uhr</td>
</tr><tr>
<td colspan="2" class="diff-lineno">Zeile 31:</td>
<td colspan="2" class="diff-lineno">Zeile 31:</td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>{| class="wikitable"</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>{| class="wikitable"</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>|+Tensor Processing Units<ref name=Cloud-System-Architecture>{{Cite web |title=System Architecture {{!}} Cloud TPU |url=https://cloud.google.com/tpu/docs/system-architecture-tpu-vm |access-date=2022-12-11 |website=Google Cloud |language=en}}</ref><ref name='TPU_memory'>{{cite news|last1=Kennedy|first1=Patrick|title=Case Study on the Google TPU and GDDR5 from Hot Chips 29|url=https://www.servethehome.com/case-study-google-tpu-gddr5-hot-chips-29/|access-date=23 August 2017|publisher=Serve The Home|date=22 August 2017}}</ref><ref>{{Internetquelle|autor= |url=https://cloud.google.com/blog/products/ai-machine-learning/google-breaks-ai-performance-records-in-mlperf-with-worlds-fastest-training-supercomputer?hl=en |titel=Google wins MLPerf benchmark contest with fastest ML training supercomputer – Google Cloud Blog |werk=cloud.google.com | sprache=en |datum=2020-07-30 |abruf=2023-04-06}}</ref></div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>|+Tensor Processing Units<ref name=Cloud-System-Architecture>{{Cite web |title=System Architecture {{!}} Cloud TPU |url=https://cloud.google.com/tpu/docs/system-architecture-tpu-vm |access-date=2022-12-11 |website=Google Cloud |language=en}}</ref><ref name='TPU_memory'>{{cite news|last1=Kennedy|first1=Patrick|title=Case Study on the Google TPU and GDDR5 from Hot Chips 29|url=https://www.servethehome.com/case-study-google-tpu-gddr5-hot-chips-29/|access-date=23 August 2017|publisher=Serve The Home|date=22 August 2017}}</ref><ref>{{Internetquelle|autor= |url=https://cloud.google.com/blog/products/ai-machine-learning/google-breaks-ai-performance-records-in-mlperf-with-worlds-fastest-training-supercomputer?hl=en |titel=Google wins MLPerf benchmark contest with fastest ML training supercomputer – Google Cloud Blog |werk=cloud.google.com | sprache=en |datum=2020-07-30 |abruf=2023-04-06}}</ref></div></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>! !! <del style="font-weight: bold; text-decoration: none;">TPUv1</del> !! <del style="font-weight: bold; text-decoration: none;">TPUv2</del> !! <del style="font-weight: bold; text-decoration: none;">TPUv3</del> !! <del style="font-weight: bold; text-decoration: none;">TPUv4</del> !! Edge v1</div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>! !! <ins style="font-weight: bold; text-decoration: none;">TPU v1</ins> !! <ins style="font-weight: bold; text-decoration: none;">TPU v2</ins> !! <ins style="font-weight: bold; text-decoration: none;">TPU v3</ins> !! <ins style="font-weight: bold; text-decoration: none;">TPU v4</ins> !! Edge v1</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>|-</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>|-</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>| Einführungsdatum || 2016 || 2017 || 2018 || 2021 || 2018</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>| Einführungsdatum || 2016 || 2017 || 2018 || 2021 || 2018</div></td>
</tr>
</table>
질량 분석
https://de.wikipedia.org/w/index.php?title=Tensor_Processing_Unit&diff=232526415&oldid=prev
질량 분석: /* Tabellarische Übersicht über einzelne TPU-Parameter */ rf
2023-04-06T06:35:05Z
<p><span class="autocomment">Tabellarische Übersicht über einzelne TPU-Parameter: </span> rf</p>
<table style="background-color: #fff; color: #202122;" data-mw="interface">
<col class="diff-marker" />
<col class="diff-content" />
<col class="diff-marker" />
<col class="diff-content" />
<tr class="diff-title" lang="de">
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td>
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 6. April 2023, 08:35 Uhr</td>
</tr><tr>
<td colspan="2" class="diff-lineno">Zeile 30:</td>
<td colspan="2" class="diff-lineno">Zeile 30:</td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Tabellarische Übersicht über einzelne TPU-Parameter==</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Tabellarische Übersicht über einzelne TPU-Parameter==</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>{| class="wikitable"</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>{| class="wikitable"</div></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>|+Tensor Processing Units<ref name=Cloud-System-Architecture>{{Cite web |title=System Architecture {{!}} Cloud TPU |url=https://cloud.google.com/tpu/docs/system-architecture-tpu-vm |access-date=2022-12-11 |website=Google Cloud |language=en}}</ref><ref name='TPU_memory'>{{cite news|last1=Kennedy|first1=Patrick|title=Case Study on the Google TPU and GDDR5 from Hot Chips 29|url=https://www.servethehome.com/case-study-google-tpu-gddr5-hot-chips-29/|access-date=23 August 2017|publisher=Serve The Home|date=22 August 2017}}</ref><ref><del style="font-weight: bold; text-decoration: none;">[</del>https://cloud.google.com/blog/products/ai-machine-learning/google-breaks-ai-performance-records-in-mlperf-with-worlds-fastest-training-supercomputer <del style="font-weight: bold; text-decoration: none;">Stay</del> <del style="font-weight: bold; text-decoration: none;">tuned,</del> <del style="font-weight: bold; text-decoration: none;">more</del> <del style="font-weight: bold; text-decoration: none;">information</del> <del style="font-weight: bold; text-decoration: none;">on</del> <del style="font-weight: bold; text-decoration: none;">TPU</del> <del style="font-weight: bold; text-decoration: none;">v4</del> <del style="font-weight: bold; text-decoration: none;">is</del> <del style="font-weight: bold; text-decoration: none;">coming</del> <del style="font-weight: bold; text-decoration: none;">soon],</del> <del style="font-weight: bold; text-decoration: none;">retrieved</del> 2020-<del style="font-weight: bold; text-decoration: none;">08</del>-06<del style="font-weight: bold; text-decoration: none;">.</del></ref></div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>|+Tensor Processing Units<ref name=Cloud-System-Architecture>{{Cite web |title=System Architecture {{!}} Cloud TPU |url=https://cloud.google.com/tpu/docs/system-architecture-tpu-vm |access-date=2022-12-11 |website=Google Cloud |language=en}}</ref><ref name='TPU_memory'>{{cite news|last1=Kennedy|first1=Patrick|title=Case Study on the Google TPU and GDDR5 from Hot Chips 29|url=https://www.servethehome.com/case-study-google-tpu-gddr5-hot-chips-29/|access-date=23 August 2017|publisher=Serve The Home|date=22 August 2017}}</ref><ref><ins style="font-weight: bold; text-decoration: none;">{{Internetquelle|autor= |url=</ins>https://cloud.google.com/blog/products/ai-machine-learning/google-breaks-ai-performance-records-in-mlperf-with-worlds-fastest-training-supercomputer<ins style="font-weight: bold; text-decoration: none;">?hl=en</ins> <ins style="font-weight: bold; text-decoration: none;">|titel=Google</ins> <ins style="font-weight: bold; text-decoration: none;">wins</ins> <ins style="font-weight: bold; text-decoration: none;">MLPerf</ins> <ins style="font-weight: bold; text-decoration: none;">benchmark</ins> <ins style="font-weight: bold; text-decoration: none;">contest</ins> <ins style="font-weight: bold; text-decoration: none;">with</ins> <ins style="font-weight: bold; text-decoration: none;">fastest</ins> <ins style="font-weight: bold; text-decoration: none;">ML</ins> <ins style="font-weight: bold; text-decoration: none;">training</ins> <ins style="font-weight: bold; text-decoration: none;">supercomputer</ins> <ins style="font-weight: bold; text-decoration: none;">–</ins> <ins style="font-weight: bold; text-decoration: none;">Google Cloud Blog |werk=cloud.google.com | sprache=en |datum=</ins>2020-<ins style="font-weight: bold; text-decoration: none;">07-30 |abruf=2023-04</ins>-06<ins style="font-weight: bold; text-decoration: none;">}}</ins></ref></div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>! !! TPUv1 !! TPUv2 !! TPUv3 !! TPUv4 !! Edge v1</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>! !! TPUv1 !! TPUv2 !! TPUv3 !! TPUv4 !! Edge v1</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>|-</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>|-</div></td>
</tr>
</table>
질량 분석
https://de.wikipedia.org/w/index.php?title=Tensor_Processing_Unit&diff=232526395&oldid=prev
질량 분석: /* Tabellarische Übersicht über einzelne TPU-Parameter */ rf
2023-04-06T06:34:04Z
<p><span class="autocomment">Tabellarische Übersicht über einzelne TPU-Parameter: </span> rf</p>
<table style="background-color: #fff; color: #202122;" data-mw="interface">
<col class="diff-marker" />
<col class="diff-content" />
<col class="diff-marker" />
<col class="diff-content" />
<tr class="diff-title" lang="de">
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td>
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 6. April 2023, 08:34 Uhr</td>
</tr><tr>
<td colspan="2" class="diff-lineno">Zeile 30:</td>
<td colspan="2" class="diff-lineno">Zeile 30:</td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Tabellarische Übersicht über einzelne TPU-Parameter==</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Tabellarische Übersicht über einzelne TPU-Parameter==</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>{| class="wikitable"</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>{| class="wikitable"</div></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>|+Tensor Processing Units<ref name=Cloud-System-Architecture>{{Cite web |title=System Architecture {{!}} Cloud TPU |url=https://cloud.google.com/tpu/docs/system-architecture-tpu-vm |access-date=2022-12-11 |website=Google Cloud |language=en}}</ref><ref name='TPU_memory'>{{cite news|last1=Kennedy|first1=Patrick|title=Case Study on the Google TPU and GDDR5 from Hot Chips 29|url=https://www.servethehome.com/case-study-google-tpu-gddr5-hot-chips-29/|access-date=23 August 2017|publisher=Serve The Home|date=22 August 2017}}</ref></div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>|+Tensor Processing Units<ref name=Cloud-System-Architecture>{{Cite web |title=System Architecture {{!}} Cloud TPU |url=https://cloud.google.com/tpu/docs/system-architecture-tpu-vm |access-date=2022-12-11 |website=Google Cloud |language=en}}</ref><ref name='TPU_memory'>{{cite news|last1=Kennedy|first1=Patrick|title=Case Study on the Google TPU and GDDR5 from Hot Chips 29|url=https://www.servethehome.com/case-study-google-tpu-gddr5-hot-chips-29/|access-date=23 August 2017|publisher=Serve The Home|date=22 August 2017}}<ins style="font-weight: bold; text-decoration: none;"></ref><ref>[https://cloud.google.com/blog/products/ai-machine-learning/google-breaks-ai-performance-records-in-mlperf-with-worlds-fastest-training-supercomputer Stay tuned, more information on TPU v4 is coming soon], retrieved 2020-08-06.</ins></ref></div></td>
</tr>
<tr>
<td colspan="2" class="diff-empty diff-side-deleted"></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>! !! TPUv1 !! TPUv2 !! TPUv3 !! TPUv4 !! Edge v1</div></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>! !! TPUv1 !! TPUv2 !! TPUv3 !! TPUv4<ref name=Cloud-System-Architecture/><ref>[https://cloud.google.com/blog/products/ai-machine-learning/google-breaks-ai-performance-records-in-mlperf-with-worlds-fastest-training-supercomputer Stay tuned, more information on TPU v4 is coming soon], retrieved 2020-08-06.</ref> !! Edge v1</div></td>
<td colspan="2" class="diff-empty diff-side-added"></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>|-</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>|-</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>| Einführungsdatum || 2016 || 2017 || 2018 || 2021 || 2018</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>| Einführungsdatum || 2016 || 2017 || 2018 || 2021 || 2018</div></td>
</tr>
</table>
질량 분석
https://de.wikipedia.org/w/index.php?title=Tensor_Processing_Unit&diff=232525142&oldid=prev
질량 분석: /* Generationen der Tensor Processing Units */ - wl
2023-04-06T05:27:21Z
<p><span class="autocomment">Generationen der Tensor Processing Units: </span> - wl</p>
<table style="background-color: #fff; color: #202122;" data-mw="interface">
<col class="diff-marker" />
<col class="diff-content" />
<col class="diff-marker" />
<col class="diff-content" />
<tr class="diff-title" lang="de">
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td>
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 6. April 2023, 07:27 Uhr</td>
</tr><tr>
<td colspan="2" class="diff-lineno">Zeile 6:</td>
<td colspan="2" class="diff-lineno">Zeile 6:</td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die erste Generation von Googles TPU wurde auf der [[Google I/O#2016|Google I/O 2016]] vorgestellt und speziell entworfen, um die Anwendung eines bereits trainierten [[Künstliches neuronales Netz|künstlichen neuronalen Netzwerks]] zu unterstützen bzw. zu beschleunigen.<ref name="supercharge" /> Dies wurde u.&nbsp;a. durch eine geringere Präzision im Vergleich zu normalen [[CPU]]s oder [[Grafikprozessor|GPUs]] und einer Spezialisierung auf Matrizenoperationen erreicht.</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die erste Generation von Googles TPU wurde auf der [[Google I/O#2016|Google I/O 2016]] vorgestellt und speziell entworfen, um die Anwendung eines bereits trainierten [[Künstliches neuronales Netz|künstlichen neuronalen Netzwerks]] zu unterstützen bzw. zu beschleunigen.<ref name="supercharge" /> Dies wurde u.&nbsp;a. durch eine geringere Präzision im Vergleich zu normalen [[CPU]]s oder [[Grafikprozessor|GPUs]] und einer Spezialisierung auf Matrizenoperationen erreicht.</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Die TPU besteht aus einem [[Systolischer Array|systolischen Array]] mit einer 256×256-8-Bit-<del style="font-weight: bold; text-decoration: none;">[[</del>Matrizenmultiplikationseinheit<del style="font-weight: bold; text-decoration: none;">]]</del> (MMU), welche von einem Mikroprozessor mit einem [[Complex Instruction Set Computer|CISC]]-Befehlsatz angesteuert wird. Der Chip wurde in einem 28-nm-Prozess gefertigt und taktet mit 700&nbsp;MHz bei einer [[Thermal Design Power]] von 28 bis 40&nbsp;W. Die TPU besitzt 28&nbsp;MiB Arbeitsspeicher am Chip. Zudem sind 4-MiB-32-Bit-[[Akkumulator (Computer)|Akkumulatoren]] verbaut, welche die Ergebnisse der Matrizenmultiplikationseinheit übernehmen. Die TPU kann [[Matrizenmultiplikation]]en, [[Faltung (Mathematik)|Faltungen]] und [[Künstliches Neuron#Aktivierungsfunktionen|Aktivierungsfunktionen]], sowie Datentransfer zum Hostsystem über [[PCI Express|PCIe]] 3.0 oder zum DDR3 DRAM, welcher sich am Board befindet, ausführen.</div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Die TPU besteht aus einem [[Systolischer Array|systolischen Array]] mit einer 256×256-8-Bit-Matrizenmultiplikationseinheit (MMU), welche von einem Mikroprozessor mit einem [[Complex Instruction Set Computer|CISC]]-Befehlsatz angesteuert wird. Der Chip wurde in einem 28-nm-Prozess gefertigt und taktet mit 700&nbsp;MHz bei einer [[Thermal Design Power]] von 28 bis 40&nbsp;W. Die TPU besitzt 28&nbsp;MiB Arbeitsspeicher am Chip. Zudem sind 4-MiB-32-Bit-[[Akkumulator (Computer)|Akkumulatoren]] verbaut, welche die Ergebnisse der Matrizenmultiplikationseinheit übernehmen. Die TPU kann [[Matrizenmultiplikation]]en, [[Faltung (Mathematik)|Faltungen]] und [[Künstliches Neuron#Aktivierungsfunktionen|Aktivierungsfunktionen]], sowie Datentransfer zum Hostsystem über [[PCI Express|PCIe]] 3.0 oder zum DDR3 DRAM, welcher sich am Board befindet, ausführen.</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>=== Zweite Generation ===</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>=== Zweite Generation ===</div></td>
</tr>
</table>
질량 분석