„Mooresches Gesetz“ – Versionsunterschied
[ungesichtete Version] | [gesichtete Version] |
KKeine Bearbeitungszusammenfassung |
|||
(572 dazwischenliegende Versionen von mehr als 100 Benutzern, die nicht angezeigt werden) | |||
Zeile 1: | Zeile 1: | ||
[[Datei:Moore's Law Transistor Count 1970-2020.png|hochkant=2.1|mini|Mooresches Gesetz: Im betrachteten Zeitraum verdoppelt sich die Anzahl der Transistoren etwa alle zwei Jahre.]] |
|||
Die Beobachtung, dass sich durch den technischen Fortschritt die Komplexität von integrierten Schaltkreisen alle 18 Monate verdoppelt, heißt '''Mooresche Gesetz'''. |
|||
Das '''Mooresche Gesetz''' ({{enS|Moore’s law}}; deutsch „Gesetz“ im Sinne von „Gesetzmäßigkeit“) besagt, dass sich die Zahl der Transistoren [[integrierter Schaltkreis]]e mit minimalen Komponentenkosten regelmäßig verdoppelt; je nach Quelle werden 12, 18 oder 24 Monate als Zeitraum genannt.<ref>{{Literatur |Autor=R. Hagelauer, A. Bode, H. Hellwagner, [[Walter Proebster|W. Proebster]], D. Schwarzstein, J. Volkert, B. Plattner, P. Schulthess |Titel=Informatik-Handbuch |Auflage=2 |Verlag=Pomberger |Ort=München |Datum=1999 |ISBN=3-446-19601-3 |Seiten=298–299}}</ref><ref>{{Internetquelle |autor=Robert Schanze |url=https://www.giga.de/ratgeber/specials/mooresches-gesetz-defintion-und-ende-von-moore-s-law-einfach-erklaert/ |titel=Mooresches Gesetz: Defintion und Ende von Moore's Law – Einfach erklärt |werk=[[GIGA]] |datum=2016-02-25 |sprache=de |abruf=2019-10-15}}</ref> |
|||
Unter Komplexität verstand [[Gordon Moore]], der das Gesetz 1965 formulierte, die Anzahl der Schaltkreiskomponenten auf einem integrierten Schaltkreis. Gelegentlich ist auch von einer Verdoppelung der [[Integrationsdichte]] die Rede, also der Anzahl an [[Transistor]]en pro Flächeneinheit. Diese technische Entwicklung bildet eine wesentliche Grundlage der „[[Digitale Revolution|digitalen Revolution]]“. |
|||
[[Gordon Moore]] bemerkte [[1965]], also nur wenige Jahre nach der Erfindung der [[Integrierte Schaltung|Integrierten Schaltung]] (IC) im September [[1958]], dass die Dichte der [[Transistor]]en auf einer Integrierten [[Schaltung]] mit der Zeit [[exponentiell]] ansteigt. |
|||
Als Folge daraus wächst auch die [[Rechenleistung]] der [[Computer]] exponentiell. |
|||
== Geschichte == |
|||
Die Presse, die die Geschichte aufgriff, nannte diese Regelmäßigkeit dann das '''Mooresche Gesetz'''. |
|||
[[Datei:PPTMooresLawai.jpg|mini|hochkant=2.1|Bildliche Darstellung des mooreschen Gesetzes über die gesamte [[Geschichte des Computers|Geschichte der Rechenmaschinen]]]] |
|||
[[Gordon Moore]] äußerte seine Beobachtung in einem am 19. April 1965 erschienenen Artikel der Zeitschrift ''[[Electronics International|Electronics]]'',<ref>{{Literatur |Autor=G. E. Moore |Titel=Cramming more components onto integrated circuits |Sammelwerk=Electronics |Band=38 |Nummer=8 |Datum=1965 |Seiten=114–117 |Online=http://cva.stanford.edu/classes/cs99s/papers/moore-crammingmorecomponents.pdf |Format=PDF |KBytes=}}</ref> nur wenige Jahre nach Erfindung der [[Integrierte Schaltung|integrierten Schaltung]]. Die Bezeichnung „mooresches Gesetz“ wurde um 1970 von [[Carver Mead]] geprägt. Ursprünglich sagte Moore eine jährliche Verdoppelung voraus, korrigierte diese Aussage jedoch 1975 in einer Rede vor der ''[[SPIE (Optik)|Society of Photo-Optical Instrumentation Engineers]]'' (SPIE) auf eine Verdoppelung alle zwei Jahre (siehe auch [[wirthsches Gesetz]]). Auslöser dafür war, dass sich die stürmische Entwicklung der [[Halbleitertechnik]] der ersten Jahre verlangsamt hatte. Neben der Verkleinerung von Elementen und der Vergrößerung der Wafer spielte in den ersten Jahren noch die von Moore so genannte „{{lang|en|cleverness}}“ eine Rolle, nämlich die Kunst, Bauelemente intelligent auf dem Chip zu integrieren. Die Grenzen dieser Cleverness waren in den 1970er Jahren weitgehend ausgereizt. Moores damaliger [[Intel]]-Kollege David House brachte eine Abschätzung von 18 Monaten ins Spiel,<ref name="news.cnet.com">Michael Kanellos: [http://news.cnet.com/2100-1001-984051.html ''Moore’s Law to roll on for another decade''.] In: ''CNET News''. 11. Februar 2003. (englisch)</ref> was heute die verbreitetste Variante des mooreschen Gesetzes ist und auch den Rahmen bildet, an dem die [[Halbleiterindustrie]] ihre Entwicklungspläne auf mehrere Jahre hinaus festmacht. Real verdoppelt sich die Leistung neuer Computerchips im Mittel etwa alle 20 Monate. In den Medien ist bis heute meist von einer Verdoppelung der [[Integrationsdichte]] alle 18 Monate die Rede. |
|||
Dieser Wert bezieht sich jedoch auf Angaben aus der Massenproduktion einer zu dem Zeitpunkt aktuellen Technologie-Generation. 2005 lief beispielsweise die konkurrenzfähige Herstellung der Chips für den Weltmarkt mit [[Strukturgröße|Strukturen]] zwischen 130 und 90 [[Nanometer|nm]]. In Vorbereitung für die Massenfertigung befand sich die [[65-nm-Technik]] (Gatelänge je nach Technologie ca. 30 bis 50 nm) und im Labor befasste man sich damals bereits mit wiederum kleineren Strukturgrößen. So wurden schon erste Prototyp-Transistoren mit 10 nm Gatelänge gefertigt.<ref>{{Literatur |Autor=R. Chau, B. Doyle, M. Doczy, S. Datta, S. Hareland, B. Jin, J. Kavalieros, M. Metz |Titel=Silicon nano-transistors and breaking the 10 nm physical gate length barrier |Sammelwerk=Device Research Conference, 2003 |Datum=2003 |Seiten=123–126 |DOI=10.1109/DRC.2003.1226901}}</ref> |
|||
Trotz steigender technischer Herausforderungen ist das Mooresche Gesetz seitdem gültig geblieben. |
|||
Allerdings mehren sich die Stimmen, die eine eventuelle Verlangsamung in der [[Integrationsdichte]] in naher Zukunft erwarten. |
|||
Zum einen werde eine technische Grenze erreicht, wenn ein Transistor die Ausdehnung weniger Atome erreiche. |
|||
Zum anderen wachse der finanzielle Aufwand zur Entwicklung und Herstellung integrierter Schaltkreise schneller als die Integrationsdichte, so dass es einen Punkt geben werde, an dem die [[Investition]]en sich nicht mehr rentieren. |
|||
Bei einem exponentiellen Wachstum der Entwicklungskosten ist gleichermaßen eine Grenze durch das gesamte in der Wirtschaft verfügbare Kapital gegeben. |
|||
Auf ''[[Intel]]s'' Entwicklerforum (''[[Intel Developer Forum|IDF]]'') im Herbst 2007 sagte Moore das Ende seines Gesetzes voraus: Es werde wahrscheinlich noch 10 bis 15 Jahre Bestand haben, bis eine fundamentale Grenze erreicht sei. Allerdings prognostizierte [[Pat Gelsinger]], Chef der ''Digital-Enterprise''-Sparte von ''Intel'', bereits ein halbes Jahr später, dass das mooresche Gesetz noch bis 2029 Gültigkeit behalten würde. Im Oktober 2009 erklärte Martin Strobel in seiner Funktion als Pressesprecher von Intel Deutschland im Detail, weshalb man zuversichtlich sei, „das mooresche Gesetz noch eine ganze Weile erfüllen zu können“.<ref>{{Internetquelle |url=https://www.macgadget.de/News/2009/10/19/Wir-sind-zuversichtlich-das-Mooresche-Gesetz-noch-eine-ganze-Weile-erfüllen-zu-könne |titel=Wir sind zuversichtlich, das Mooresche Gesetz noch eine ganze Weile erfüllen zu können |werk=MacGadget |datum=2009-10-19 |abruf=2011-06-20}}</ref> |
|||
Auf der anderen Seite zeigen Futurologen wie [[Raymond Kurzweil]], dass das Mooresche Gesetz nur ein Spezialfall eines allgemeineren Gesetzes ist. Technologische Evolution verläuft immer exponentiell und sogar doppelt exponentiell. Ist ein technologisches Paradigma am Ende wird es von einem anderen abgelöst. Trägt man im logarithmischen Maßstab die Entwicklung von mechanischen Rechenmaschinen, über Röhren und Transistoren bis zum heutigen Mikroprozessor auf ergibt sich wieder eine exponentielle Steigerung der Leistungsfähigkeit. Daraus würde sich ergeben dass etwa ab 2010 die ersten Computer die Leistungsfähigkeit des menschlichen Gehirns erreichen. Ab etwa 2020 wäre diese Leistungsfähigkeit auch in jedem Standardcomputer um $1000 enthalten. Kurzweil nennt diesen Punkt [[Die Singularität]], da danach Menschen mit natürlicher Inteligenz nicht mehr verstehen werden was in dieser Welt vor sich geht. Ab 2050 hätte der Standardcomputer die Leistungsfähigkeit der gesamten Menscheit. Kurzweil's Thesen erscheinen auf den ersten Blick wie Science-Fiction doch sind gut argumentiert. |
|||
Abseits dieser technischen Fragen fällt bei der genauen Lektüre des Originalartikels aus dem Jahr 1965 allerdings auf, dass Moore keine wirkliche Begründung dafür liefert, warum die Entwicklung in dieser Geschwindigkeit und in dieser Form verlaufen sollte. Auch war zum damaligen Zeitpunkt die Entwicklung der Halbleitertechnik noch so neu, dass eine (z. B. lineare) Extrapolation des bisherigen Verlaufes in die Zukunft kaum hätte seriös genannt werden können. Stattdessen skizziert Moore ausführlich – und mit offensichtlicher Begeisterung – ein sehr weites Szenario möglicher zukünftiger Anwendungen in Wirtschaft, Verwaltung (und Militär), die zum damaligen Zeitpunkt aber – wenn überhaupt – allenfalls als Plan oder als grobe Vorstellung tatsächlich existierten. Dabei behauptet er zwar gleich am Anfang seines Artikels, dass „bis 1975 wirtschaftlicher Druck dazu führen würde, bis zu 65.000 Komponenten auf einen einzelnen Chip zusammenzuquetschen“ ({{lang|en|… by 1975 economics may dictate squeezing as many as 65,000 components on a single silicon chip …}}), macht aber keine weiteren Angaben dazu, woher, in welcher Form oder auch von wem ein solcher wirtschaftlicher Druck ausgeübt werden sollte. Rückblickend und nachdem die Informationstechnik sich tatsächlich so rasant über mehrere Jahrzehnte hinweg entwickelt hat, ist es kaum noch möglich, die visionäre Kraft adäquat einzuschätzen, die damals von Gordon Moore für diese Prognose aufgebracht werden musste. |
|||
== Auslegung == |
|||
[[Datei:Moore Kosten.png|mini|hochkant=2.1|'''Mooresches Gesetz:''' Das Optimum der Kosten in Abhängigkeit von der Strukturgröße verschiebt sich mit der Zeit zu niedrigeren Werten und kleineren Strukturgrößen. Die einzelnen Kurven stellen verschiedene Technologiestände im Abstand von zwei bis drei Jahren dar. Man versucht für jeden dieser Zeiträume, sich ins Minimum der entsprechenden Kurve zu setzen. Prinzipiell könnte man Muster mit deutlich kleinerer Strukturgröße fertigen, allerdings dann zu exorbitant hohen Kosten.]] |
|||
Moores Gesetz ist kein wissenschaftliches [[Physikalisches Gesetz|Naturgesetz]], sondern eine [[Faustregel]], die auf eine [[Empirie|empirische]] Beobachtung zurückgeht. Gleichzeitig kann man von einer „[[Selbsterfüllende Prophezeiung|selbsterfüllenden Prophezeiung]]“<ref>Gordon Moore bezeichnet sein Gesetz als eine „self fulfilling prophecy“, siehe {{Internetquelle |url=https://www.theinquirer.net/inquirer/news/1014782/gordon-moore-aloha-moore-law |titel=Gordon Moore says aloha to Moore’s Law |werk=The Inquirer |datum=2005-04-13 |sprache=en |abruf=2009-03-04 |archiv-url=https://web.archive.org/web/20091106055601/http://www.theinquirer.net/inquirer/news/1014782/gordon-moore-aloha-moore-law |archiv-datum=2009-11-06 }}</ref> |
|||
sprechen, da verschiedenste Industriezweige an der Entwicklung besserer Mikrochips beteiligt sind. Sie müssen sich auf gemeinsame Meilensteine einigen (z. B. optische Industrie mit verbesserten [[Fotolithografie (Halbleitertechnik)|lithographischen]] Methoden), um wirtschaftlich arbeiten zu können. Die Formulierung des mooreschen Gesetzes hat sich im Laufe der Zeit stark verändert. Sprach Moore noch von der Komponentenanzahl auf einer integrierten Schaltung, so ist heute von der Transistoranzahl auf einer integrierten Schaltung die Rede, mitunter sogar von der Transistoranzahl pro Flächeneinheit. |
|||
Moore stellte fest, dass die Kosten einer Schaltkreiskomponente verfahrensbedingt sowohl mit sinkender als auch mit steigender Komponentenanzahl anstiegen. Bei niedriger Komponentenanzahl wurde das verfügbare Material nicht voll ausgenutzt, für höhere Komponentenanzahlen mussten experimentelle Verfahren eingesetzt werden, die sich wirtschaftlich noch nicht lohnten. Er bezog seine Beobachtung daher ausschließlich auf das jeweilige Kostenoptimum, also dasjenige Produktionsverfahren und diejenige Komponentenanzahl pro Schaltkreis, bei denen die Kosten pro Schaltkreiskomponente am geringsten ausfielen. Dadurch ist theoretisch klar vorgegeben, welches Herstellungsverfahren und welcher Computerchip zur Überprüfung des mooreschen Gesetzes in jedem Jahr betrachtet werden müssten. |
|||
Die unterschiedlichen Formulierungen verzerren die ursprüngliche Beobachtung Moores teilweise bis zur Unkenntlichkeit. Bereits die variable Auslegung des Verdoppelungszeitraums von 12, 18 oder 24 Monaten verursacht beträchtliche Unterschiede. Da Computerchips stark in der Größe variieren, ist es auch nicht dasselbe, ob man die Transistoranzahl pro Chip oder pro Flächeneinheit betrachtet. Das Weglassen des Kostenoptimums schließlich führt zu einer vollständigen Entfremdung. Ohne Kostenoptimum kann jedes beliebige Produktionsverfahren und jeder beliebige Schaltkreis zur Bestätigung des mooreschen Gesetzes herangezogen werden; ob es sich um einen handelsüblichen Prozessor, extrem teure Hochtechnologie oder experimentelle Schaltkreise, die noch gar nicht auf dem Markt sind, handelt, ist in dieser laxen Auslegung ohne Belang. Durch die unterschiedlichen kursierenden Versionen hat das mooresche Gesetz viel von seiner objektiven Aussagekraft eingebüßt. |
|||
== Schreibweise == |
|||
Die Komplexität <math>K</math> in Abhängigkeit mit der Zeit <math>t</math> des mooreschen Gesetzes folgt einer [[Exponentialfunktion]]: |
|||
:<math>K(t) = K_0 \cdot e^{\lambda \cdot t}</math> |
|||
Dabei ist die Rate der Zunahme <math>\lambda</math> der Kehrwert der [[Verdopplungszeit]] <math>T_2</math>, multipliziert mit der Konstanten <math>\ln(2)</math>: |
|||
:<math>\lambda = \ln(2) \cdot \frac{1}{T_2}</math> |
|||
Dieser Zusammenhang kann auch in der verkürzten Schreibweise: |
|||
:<math>K(t) = K_0 \cdot 2^{\frac{t}{T_2}}</math> |
|||
dargestellt werden. |
|||
Für die Verdopplungszeit <math>T_2</math> sind mehrere Annahmen gebräuchlich. Oftmals wird <math>T_2 = 2 a</math> verwendet, <math>\lambda</math> beträgt in diesem Fall 0,35 pro Jahr. |
|||
== Rechenleistung == |
|||
=== Zusammenhang zwischen Transistoranzahl und Leistung === |
|||
Aus dem mooreschen Gesetz lässt sich nicht direkt ableiten, dass die [[Rechenleistung]] von [[Computer]]n mit der Anzahl der [[Transistor]]en linear zunimmt. Moderne [[Hauptprozessor|Prozessoren]] verwenden zunehmend Transistoren für integrierte [[Cache]]-Speicher, die lediglich die Datenbereitstellung beschleunigen, jedoch nicht direkt zur arithmetischen Rechenleistung beitragen. |
|||
Ein Beispiel liefert der Vergleich zweier [[Pentium III|Pentium-III]]-Modelle: |
|||
* Der „Katmai“ mit 500 MHz und externem L2-Cache enthält rund 9,5 Mio. Transistoren. |
|||
* Der „Coppermine“ mit 1000 MHz und integriertem L2-Cache enthält etwa 28,5 Mio. Transistoren. |
|||
Trotz Verdopplung der Taktfrequenz und Verdreifachung der Transistoranzahl stieg die Rechenleistung – gemessen anhand der SPEC-Benchmarks – nur um den Faktor 2,2 bis 2,3.<ref>{{Internetquelle |
|||
| titel = SPEC CPU2000 Results – Intel Pentium III |
|||
| url = https://www.spec.org/cpu2000/results/res2000q1/ |
|||
| werk = Standard Performance Evaluation Corporation (SPEC) |
|||
| datum = 2000-02-14 |
|||
| zugriff = 2025-06-25 |
|||
}}</ref><ref>{{Internetquelle |
|||
| titel = Intel Microprocessor Reference Guide – Pentium III |
|||
| url = https://web.archive.org/web/20010417001219/http://developer.intel.com:80/design/PentiumIII/prodbref/ |
|||
| werk = Intel Developer |
|||
| datum = 2000-01-10 |
|||
| zugriff = 2025-06-25 |
|||
}}</ref> |
|||
{| class="wikitable" |
|||
|- |
|||
! rowspan="2"| Prozessor |
|||
! rowspan="2"| Transistoranzahl |
|||
! colspan="2"| [[Standard Performance Evaluation Corporation|SPEC-Werte]] |
|||
|- |
|||
! Ganzzahl (int) |
|||
! Gleitkomma (fp) |
|||
|- |
|||
| Pentium III 500 MHz (Katmai, externer L2-Cache) |
|||
| 9,5 Mio. |
|||
| 20,6 |
|||
| 14,7 |
|||
|- |
|||
| Pentium III 1000 MHz (Coppermine, interner L2-Cache) |
|||
| 28,5 Mio. |
|||
| 46,8 |
|||
| 32,2 |
|||
|} |
|||
=== Mehrkernprozessoren und Parallelisierung === |
|||
Seit Einführung von [[Mehrkernprozessor]]en wird die steigende Transistoranzahl häufig durch zusätzliche [[Prozessorkern]]e umgesetzt. Diese erhöhen die parallele Verarbeitungsfähigkeit, aber nicht zwingend die Rechenleistung im gleichen Maß. Ursache sind Koordinationsaufwand und beschränkte Parallelisierbarkeit. |
|||
Nach dem [[Amdahlsches Gesetz|amdahlschen Gesetz]] limitiert bereits ein geringer sequentieller Anteil die theoretische Beschleunigung. Ist z. B. 10 % des Programmcodes nicht parallel ausführbar, so ist bei beliebig vielen Kernen ein maximaler Speedup von 10 erreichbar.<ref>{{Literatur |
|||
| Autor = Gene M. Amdahl |
|||
| Titel = Validity of the Single Processor Approach to Achieving Large-Scale Computing Capabilities |
|||
| Sammelwerk = AFIPS Conference Proceedings |
|||
| Band = 30 |
|||
| Datum = 1967 |
|||
| Seiten = 483–485 |
|||
}}</ref> |
|||
== Grenzen == |
|||
=== Wirtschaftliche und physikalische Limitierungen === |
|||
Seit den 2010er-Jahren wird das mooresche Gesetz zunehmend kritisch hinterfragt. Während sich die Transistoranzahl auf integrierten Schaltungen rein technisch weiter erhöhen lässt, steigen die dafür nötigen Entwicklungskosten überproportional an. In den 1990er-Jahren wirkte das Gesetz noch als [[selbsterfüllende Prophezeiung]], da sich die Halbleiterindustrie entlang koordinierter Roadmaps orientierte und technologische Hürden mit steigenden Investitionen überwinden konnte.<ref name="Waldrop">M. Mitchell Waldrop: ''The chips are down for Moore’s law''. News Feature, Nature 530, Februar 2016, [[doi:10.1038/530144a]].</ref> |
|||
Heute liegt die physikalische Grenze zunehmend in quantenmechanischen Effekten wie dem [[Tunnelstrom]], die bei Strukturgrößen unterhalb von 3 nm deutlich zunehmen. Die Entwicklungskosten haben sich seit 2010 laut Branchenschätzungen etwa verzehnfacht.<ref>{{Literatur |Autor=Christian J. Meier |Titel=Milli, mikro, nano, weg? |Sammelwerk=Süddeutsche Zeitung |Nummer=289 |Verlag=Süddeutsche Zeitung GmbH |Ort=München |Datum=2024-12-14 |Seiten=32–33}}</ref> |
|||
=== Stand der Fertigungstechnologie === |
|||
Seit 2022 produziert [[TSMC]] erste Chips mit Strukturbreiten von 3 nm. Die für Ende 2025 angekündigte Einführung der 2-nm-Technologie dürfte sich jedoch um etwa zwei Jahre verzögern.<ref>{{Internetquelle |url=https://www.tsmc.com/english/dedicatedFoundry/technology/logic/l_2nm |titel=2nm Technology |werk=TSMC |datum=2024-10-18 |zugriff=2025-06-25}}</ref> Die 2016 veröffentlichte [[International Roadmap for Devices and Systems|technologische Roadmap]] der Branche orientiert sich nicht mehr am mooreschen Gesetz.<ref name="Waldrop" /> |
|||
=== Neue Technologiekandidaten === |
|||
Um die Grenzen der Siliziumtechnik zu überwinden, erforschen Industrie und Wissenschaft verschiedene Alternativen: |
|||
* [[Graphen]] und weitere [[Nanomaterial]]ien |
|||
* [[3D-Integration|Vertikale Integration]] (mehr Transistoren pro Volumen) |
|||
* [[Spintronik]] und [[Mehrwertige Logik]] |
|||
* Tieftemperatur- und [[Supraleiter]]-Computer |
|||
* [[Optischer Computer|Optische Systeme]] |
|||
* [[Quantencomputer]] |
|||
* [[Neuromorphes Rechnen|Neuromorphe Chips]], die sich am Gehirn orientieren<ref>{{Webarchiv |url=https://plus.google.com/+ResearchatGoogle/posts/fpjmKvEkTEf |text=Moore’s Law, Part 2: More Moore and More than Moore |archive-is=20131113201706}}</ref><ref>{{Literatur |Autor=Christian J. Meier |Titel=Milli, mikro, nano, weg? |Sammelwerk=Süddeutsche Zeitung |Nummer=289 |Verlag=Süddeutsche Zeitung GmbH |Ort=München |Datum=2024-12-14 |Seiten=32–33}}</ref> |
|||
Diese Konzepte würden Leistung und Speicherdichte steigern, ohne dabei im klassischen Sinn die Transistordichte auf einer Fläche zu erhöhen. Das mooresche Gesetz verlöre damit seine formale Gültigkeit, bliebe aber in seiner Systemwirkung relevant. |
|||
=== Skalierbarkeitsgrenzen in der Anwendung === |
|||
Auch auf Anwendungsseite zeigt sich, dass höhere Transistordichte nicht automatisch zu höherer Rechenleistung führt. Besonders in der numerischen [[Strömungssimulation]] auf Rechnerclustern mit vielen Kernen ist seit etwa 2003 eine Stagnation feststellbar: Die Rechenzeit pro [[Zelle]] und [[Iteration]] sinkt kaum noch. Grund ist der sogenannte [[Von-Neumann-Flaschenhals]], bei dem Datenübertragungsraten nicht mit Rechenleistung mithalten.<ref>Rainald Löhner, Joseph D. Baum: [http://www.emeraldinsight.com/doi/abs/10.1108/HFF-01-2013-0016 ''On maximum achievable speeds for field solvers'']. In: ''International Journal of Numerical Methods for Heat & Fluid Flow''. 2014, S. 1537–1544, [[doi:10.1108/HFF-01-2013-0016]]</ref> |
|||
Zudem schöpfen viele reale Anwendungen das theoretische Potenzial moderner Prozessoren nicht vollständig aus – etwa durch thermische Limitierungen, schlechte Parallelisierbarkeit oder nicht angepasste Software. |
|||
== Weitere Rezeption == |
|||
Sherry „Lass“ Lassiter, Vorsitzende der [[FabLab|Fab Foundation]], formulierte 2016 das sogenannte ''lasssche Gesetz'' ({{lang|en|Lass' Law}}): Demnach verdopple sich die Zahl der FabLabs und der auf [[Open-Source-Hardware]] basierenden Produktionssysteme jährlich.<ref>{{Internetquelle |autor=Roberto Saracco |url=https://cmte.ieee.org/futuredirections/2018/03/09/lasss-law-is-knocking-at-the-door/ |titel=Lass’ Law is knocking at the door |datum=2018-03-09 |sprache=en |abruf=2021-02-01}}</ref> |
|||
[[Neil Gershenfeld]] betrachtet diese Entwicklung als nächste Stufe der digitalen, dezentralisierten [[Produktentwicklung]].<ref>{{Literatur |Autor=Alan Gershenfeld, Joel Cutcher-Gershenfeld |Titel=Designing Reality: How to Survive and Thrive in the Third Digital Revolution |Auflage=First edition |Ort=New York |ISBN=978-0-465-09347-2}}</ref> |
|||
== Weblinks == |
== Weblinks == |
||
{{Commonscat|Moore's law|Mooresches Gesetz}} |
|||
* http://www.intel.com/research/silicon/mooreslaw.htm |
|||
{{Wiktionary}} |
|||
* http://www.intel.com/labs/eml/eml_demo/EML_demo.htm |
|||
* http://beat.doebe.li/bibliothek/w00862.html |
|||
* [https://www.computerhistory.org/siliconengine/moores-law-predicts-the-future-of-integrated-circuits/ Moore’s Law Predicts the Future of Integrated Circuits] – Computer History Museum (englisch) |
|||
* http://www.kurzweilai.net/articles/art0134.html?printable=1 |
|||
* {{Internetquelle |
|||
| autor = Ray Kurzweil |
|||
| url = https://www.kurzweilai.net/the-law-of-accelerating-returns |
|||
| titel = The Law of Accelerating Returns |
|||
| werk = kurzweilai.net |
|||
| datum = 2001-03-07 |
|||
| sprache = en |
|||
| kommentar = Prognose zur exponentiellen Technologiebeschleunigung |
|||
| abruf = 2025-06-25}} |
|||
* Jürgen Kuri: [https://www.heise.de/newsticker/meldung/Vor-40-Jahren-Electronics-druckt-Moores-Gesetz-154183.html Vor 40 Jahren: Electronics druckt Moores Gesetz]. In: ''Heise online'', 19. April 2005. |
|||
* Ilkka Tuomi: [http://firstmonday.org/ojs/index.php/fm/article/view/1000/921 The Lives and Deaths of Moore’s Law]. In: ''First Monday'', Vol. 7, Nr. 11, 4. November 2002 (englisch, peer-reviewed) |
|||
* Bernd Kling: [https://www.zdnet.de/88351453/nvidia-ceo-moores-law-ist-am-ende/ Nvidia-CEO: Moore’s Law ist am Ende]. In: ''ZDNet'', 10. Januar 2019 |
|||
== Literatur == |
|||
* {{Literatur |
|||
| Autor = Scott Hamilton |
|||
| Titel = Taking Moore’s law into the next century |
|||
| Sammelwerk = Computer |
|||
| Band = 32 |
|||
| Nummer = 1 |
|||
| Datum = 1999 |
|||
| Seiten = 43–48 |
|||
| Sprache = en |
|||
| DOI = 10.1109/2.738303 |
|||
}} |
|||
* {{Literatur |
|||
| Hrsg = M. Y. Lanzerotti |
|||
| Titel = The Technical Impact of Moore’s Law |
|||
| Sammelwerk = IEEE Solid-State Circuits Society Newsletter |
|||
| Band = 20 |
|||
| Nummer = 3 |
|||
| Datum = 2006 |
|||
| Sprache = en |
|||
| Online = https://sscs.ieee.org/images/files/newsletter_archive/sscs_newsletter_200609.pdf |
|||
| Format = PDF |
|||
| KBytes = 1228 |
|||
}} |
|||
* {{Literatur |
|||
| Autor = R. R. Schaller |
|||
| Titel = Moore’s law: past, present and future |
|||
| Sammelwerk = IEEE Spectrum |
|||
| Band = 34 |
|||
| Nummer = 6 |
|||
| Datum = 1997 |
|||
| Seiten = 52–59 |
|||
| Sprache = en |
|||
| DOI = 10.1109/6.591665 |
|||
}} |
|||
* Christoph Drösser: [https://www.zeit.de/2005/16/Moore_s_Gesetz ''Die Wie-schnell-wird-aus-Technik-Schrott-Formel'']. In: ''Die Zeit''. Nr. 16/2005, 14. April 2005. |
|||
== Einzelnachweise == |
|||
<references /> |
|||
{{Navigationsleiste Befehlssatzarchitektur}} |
|||
{{Normdaten|TYP=s|GND=4322660-5|VIAF=137807886}} |
|||
[[Kategorie:Mikroelektronik]] |
|||
[[en:Moore's law]] |
|||
[[ |
[[Kategorie:Gordon Moore]] |
||
[[Kategorie:Technikgeschichte]] |
|||
[[fr:Loi de Moore]] |
|||
[[Kategorie:Halbleitertechnik]] |
|||
[[ja:ムーアの法則]] |
|||
[[nl:Wet van Moore]] |
|||
[[sv:Moores lag]] |
Aktuelle Version vom 28. Juni 2025, 10:01 Uhr

Das Mooresche Gesetz (englisch Moore’s law; deutsch „Gesetz“ im Sinne von „Gesetzmäßigkeit“) besagt, dass sich die Zahl der Transistoren integrierter Schaltkreise mit minimalen Komponentenkosten regelmäßig verdoppelt; je nach Quelle werden 12, 18 oder 24 Monate als Zeitraum genannt.[1][2]
Unter Komplexität verstand Gordon Moore, der das Gesetz 1965 formulierte, die Anzahl der Schaltkreiskomponenten auf einem integrierten Schaltkreis. Gelegentlich ist auch von einer Verdoppelung der Integrationsdichte die Rede, also der Anzahl an Transistoren pro Flächeneinheit. Diese technische Entwicklung bildet eine wesentliche Grundlage der „digitalen Revolution“.
Geschichte
[Bearbeiten | Quelltext bearbeiten]
Gordon Moore äußerte seine Beobachtung in einem am 19. April 1965 erschienenen Artikel der Zeitschrift Electronics,[3] nur wenige Jahre nach Erfindung der integrierten Schaltung. Die Bezeichnung „mooresches Gesetz“ wurde um 1970 von Carver Mead geprägt. Ursprünglich sagte Moore eine jährliche Verdoppelung voraus, korrigierte diese Aussage jedoch 1975 in einer Rede vor der Society of Photo-Optical Instrumentation Engineers (SPIE) auf eine Verdoppelung alle zwei Jahre (siehe auch wirthsches Gesetz). Auslöser dafür war, dass sich die stürmische Entwicklung der Halbleitertechnik der ersten Jahre verlangsamt hatte. Neben der Verkleinerung von Elementen und der Vergrößerung der Wafer spielte in den ersten Jahren noch die von Moore so genannte „cleverness“ eine Rolle, nämlich die Kunst, Bauelemente intelligent auf dem Chip zu integrieren. Die Grenzen dieser Cleverness waren in den 1970er Jahren weitgehend ausgereizt. Moores damaliger Intel-Kollege David House brachte eine Abschätzung von 18 Monaten ins Spiel,[4] was heute die verbreitetste Variante des mooreschen Gesetzes ist und auch den Rahmen bildet, an dem die Halbleiterindustrie ihre Entwicklungspläne auf mehrere Jahre hinaus festmacht. Real verdoppelt sich die Leistung neuer Computerchips im Mittel etwa alle 20 Monate. In den Medien ist bis heute meist von einer Verdoppelung der Integrationsdichte alle 18 Monate die Rede.
Dieser Wert bezieht sich jedoch auf Angaben aus der Massenproduktion einer zu dem Zeitpunkt aktuellen Technologie-Generation. 2005 lief beispielsweise die konkurrenzfähige Herstellung der Chips für den Weltmarkt mit Strukturen zwischen 130 und 90 nm. In Vorbereitung für die Massenfertigung befand sich die 65-nm-Technik (Gatelänge je nach Technologie ca. 30 bis 50 nm) und im Labor befasste man sich damals bereits mit wiederum kleineren Strukturgrößen. So wurden schon erste Prototyp-Transistoren mit 10 nm Gatelänge gefertigt.[5]
Auf Intels Entwicklerforum (IDF) im Herbst 2007 sagte Moore das Ende seines Gesetzes voraus: Es werde wahrscheinlich noch 10 bis 15 Jahre Bestand haben, bis eine fundamentale Grenze erreicht sei. Allerdings prognostizierte Pat Gelsinger, Chef der Digital-Enterprise-Sparte von Intel, bereits ein halbes Jahr später, dass das mooresche Gesetz noch bis 2029 Gültigkeit behalten würde. Im Oktober 2009 erklärte Martin Strobel in seiner Funktion als Pressesprecher von Intel Deutschland im Detail, weshalb man zuversichtlich sei, „das mooresche Gesetz noch eine ganze Weile erfüllen zu können“.[6]
Abseits dieser technischen Fragen fällt bei der genauen Lektüre des Originalartikels aus dem Jahr 1965 allerdings auf, dass Moore keine wirkliche Begründung dafür liefert, warum die Entwicklung in dieser Geschwindigkeit und in dieser Form verlaufen sollte. Auch war zum damaligen Zeitpunkt die Entwicklung der Halbleitertechnik noch so neu, dass eine (z. B. lineare) Extrapolation des bisherigen Verlaufes in die Zukunft kaum hätte seriös genannt werden können. Stattdessen skizziert Moore ausführlich – und mit offensichtlicher Begeisterung – ein sehr weites Szenario möglicher zukünftiger Anwendungen in Wirtschaft, Verwaltung (und Militär), die zum damaligen Zeitpunkt aber – wenn überhaupt – allenfalls als Plan oder als grobe Vorstellung tatsächlich existierten. Dabei behauptet er zwar gleich am Anfang seines Artikels, dass „bis 1975 wirtschaftlicher Druck dazu führen würde, bis zu 65.000 Komponenten auf einen einzelnen Chip zusammenzuquetschen“ (… by 1975 economics may dictate squeezing as many as 65,000 components on a single silicon chip …), macht aber keine weiteren Angaben dazu, woher, in welcher Form oder auch von wem ein solcher wirtschaftlicher Druck ausgeübt werden sollte. Rückblickend und nachdem die Informationstechnik sich tatsächlich so rasant über mehrere Jahrzehnte hinweg entwickelt hat, ist es kaum noch möglich, die visionäre Kraft adäquat einzuschätzen, die damals von Gordon Moore für diese Prognose aufgebracht werden musste.
Auslegung
[Bearbeiten | Quelltext bearbeiten]
Moores Gesetz ist kein wissenschaftliches Naturgesetz, sondern eine Faustregel, die auf eine empirische Beobachtung zurückgeht. Gleichzeitig kann man von einer „selbsterfüllenden Prophezeiung“[7] sprechen, da verschiedenste Industriezweige an der Entwicklung besserer Mikrochips beteiligt sind. Sie müssen sich auf gemeinsame Meilensteine einigen (z. B. optische Industrie mit verbesserten lithographischen Methoden), um wirtschaftlich arbeiten zu können. Die Formulierung des mooreschen Gesetzes hat sich im Laufe der Zeit stark verändert. Sprach Moore noch von der Komponentenanzahl auf einer integrierten Schaltung, so ist heute von der Transistoranzahl auf einer integrierten Schaltung die Rede, mitunter sogar von der Transistoranzahl pro Flächeneinheit.
Moore stellte fest, dass die Kosten einer Schaltkreiskomponente verfahrensbedingt sowohl mit sinkender als auch mit steigender Komponentenanzahl anstiegen. Bei niedriger Komponentenanzahl wurde das verfügbare Material nicht voll ausgenutzt, für höhere Komponentenanzahlen mussten experimentelle Verfahren eingesetzt werden, die sich wirtschaftlich noch nicht lohnten. Er bezog seine Beobachtung daher ausschließlich auf das jeweilige Kostenoptimum, also dasjenige Produktionsverfahren und diejenige Komponentenanzahl pro Schaltkreis, bei denen die Kosten pro Schaltkreiskomponente am geringsten ausfielen. Dadurch ist theoretisch klar vorgegeben, welches Herstellungsverfahren und welcher Computerchip zur Überprüfung des mooreschen Gesetzes in jedem Jahr betrachtet werden müssten.
Die unterschiedlichen Formulierungen verzerren die ursprüngliche Beobachtung Moores teilweise bis zur Unkenntlichkeit. Bereits die variable Auslegung des Verdoppelungszeitraums von 12, 18 oder 24 Monaten verursacht beträchtliche Unterschiede. Da Computerchips stark in der Größe variieren, ist es auch nicht dasselbe, ob man die Transistoranzahl pro Chip oder pro Flächeneinheit betrachtet. Das Weglassen des Kostenoptimums schließlich führt zu einer vollständigen Entfremdung. Ohne Kostenoptimum kann jedes beliebige Produktionsverfahren und jeder beliebige Schaltkreis zur Bestätigung des mooreschen Gesetzes herangezogen werden; ob es sich um einen handelsüblichen Prozessor, extrem teure Hochtechnologie oder experimentelle Schaltkreise, die noch gar nicht auf dem Markt sind, handelt, ist in dieser laxen Auslegung ohne Belang. Durch die unterschiedlichen kursierenden Versionen hat das mooresche Gesetz viel von seiner objektiven Aussagekraft eingebüßt.
Schreibweise
[Bearbeiten | Quelltext bearbeiten]Die Komplexität in Abhängigkeit mit der Zeit des mooreschen Gesetzes folgt einer Exponentialfunktion:
Dabei ist die Rate der Zunahme der Kehrwert der Verdopplungszeit , multipliziert mit der Konstanten :
Dieser Zusammenhang kann auch in der verkürzten Schreibweise:
dargestellt werden.
Für die Verdopplungszeit sind mehrere Annahmen gebräuchlich. Oftmals wird verwendet, beträgt in diesem Fall 0,35 pro Jahr.
Rechenleistung
[Bearbeiten | Quelltext bearbeiten]Zusammenhang zwischen Transistoranzahl und Leistung
[Bearbeiten | Quelltext bearbeiten]Aus dem mooreschen Gesetz lässt sich nicht direkt ableiten, dass die Rechenleistung von Computern mit der Anzahl der Transistoren linear zunimmt. Moderne Prozessoren verwenden zunehmend Transistoren für integrierte Cache-Speicher, die lediglich die Datenbereitstellung beschleunigen, jedoch nicht direkt zur arithmetischen Rechenleistung beitragen.
Ein Beispiel liefert der Vergleich zweier Pentium-III-Modelle:
- Der „Katmai“ mit 500 MHz und externem L2-Cache enthält rund 9,5 Mio. Transistoren.
- Der „Coppermine“ mit 1000 MHz und integriertem L2-Cache enthält etwa 28,5 Mio. Transistoren.
Trotz Verdopplung der Taktfrequenz und Verdreifachung der Transistoranzahl stieg die Rechenleistung – gemessen anhand der SPEC-Benchmarks – nur um den Faktor 2,2 bis 2,3.[8][9]
Prozessor | Transistoranzahl | SPEC-Werte | |
---|---|---|---|
Ganzzahl (int) | Gleitkomma (fp) | ||
Pentium III 500 MHz (Katmai, externer L2-Cache) | 9,5 Mio. | 20,6 | 14,7 |
Pentium III 1000 MHz (Coppermine, interner L2-Cache) | 28,5 Mio. | 46,8 | 32,2 |
Mehrkernprozessoren und Parallelisierung
[Bearbeiten | Quelltext bearbeiten]Seit Einführung von Mehrkernprozessoren wird die steigende Transistoranzahl häufig durch zusätzliche Prozessorkerne umgesetzt. Diese erhöhen die parallele Verarbeitungsfähigkeit, aber nicht zwingend die Rechenleistung im gleichen Maß. Ursache sind Koordinationsaufwand und beschränkte Parallelisierbarkeit.
Nach dem amdahlschen Gesetz limitiert bereits ein geringer sequentieller Anteil die theoretische Beschleunigung. Ist z. B. 10 % des Programmcodes nicht parallel ausführbar, so ist bei beliebig vielen Kernen ein maximaler Speedup von 10 erreichbar.[10]
Grenzen
[Bearbeiten | Quelltext bearbeiten]Wirtschaftliche und physikalische Limitierungen
[Bearbeiten | Quelltext bearbeiten]Seit den 2010er-Jahren wird das mooresche Gesetz zunehmend kritisch hinterfragt. Während sich die Transistoranzahl auf integrierten Schaltungen rein technisch weiter erhöhen lässt, steigen die dafür nötigen Entwicklungskosten überproportional an. In den 1990er-Jahren wirkte das Gesetz noch als selbsterfüllende Prophezeiung, da sich die Halbleiterindustrie entlang koordinierter Roadmaps orientierte und technologische Hürden mit steigenden Investitionen überwinden konnte.[11]
Heute liegt die physikalische Grenze zunehmend in quantenmechanischen Effekten wie dem Tunnelstrom, die bei Strukturgrößen unterhalb von 3 nm deutlich zunehmen. Die Entwicklungskosten haben sich seit 2010 laut Branchenschätzungen etwa verzehnfacht.[12]
Stand der Fertigungstechnologie
[Bearbeiten | Quelltext bearbeiten]Seit 2022 produziert TSMC erste Chips mit Strukturbreiten von 3 nm. Die für Ende 2025 angekündigte Einführung der 2-nm-Technologie dürfte sich jedoch um etwa zwei Jahre verzögern.[13] Die 2016 veröffentlichte technologische Roadmap der Branche orientiert sich nicht mehr am mooreschen Gesetz.[11]
Neue Technologiekandidaten
[Bearbeiten | Quelltext bearbeiten]Um die Grenzen der Siliziumtechnik zu überwinden, erforschen Industrie und Wissenschaft verschiedene Alternativen:
- Graphen und weitere Nanomaterialien
- Vertikale Integration (mehr Transistoren pro Volumen)
- Spintronik und Mehrwertige Logik
- Tieftemperatur- und Supraleiter-Computer
- Optische Systeme
- Quantencomputer
- Neuromorphe Chips, die sich am Gehirn orientieren[14][15]
Diese Konzepte würden Leistung und Speicherdichte steigern, ohne dabei im klassischen Sinn die Transistordichte auf einer Fläche zu erhöhen. Das mooresche Gesetz verlöre damit seine formale Gültigkeit, bliebe aber in seiner Systemwirkung relevant.
Skalierbarkeitsgrenzen in der Anwendung
[Bearbeiten | Quelltext bearbeiten]Auch auf Anwendungsseite zeigt sich, dass höhere Transistordichte nicht automatisch zu höherer Rechenleistung führt. Besonders in der numerischen Strömungssimulation auf Rechnerclustern mit vielen Kernen ist seit etwa 2003 eine Stagnation feststellbar: Die Rechenzeit pro Zelle und Iteration sinkt kaum noch. Grund ist der sogenannte Von-Neumann-Flaschenhals, bei dem Datenübertragungsraten nicht mit Rechenleistung mithalten.[16]
Zudem schöpfen viele reale Anwendungen das theoretische Potenzial moderner Prozessoren nicht vollständig aus – etwa durch thermische Limitierungen, schlechte Parallelisierbarkeit oder nicht angepasste Software.
Weitere Rezeption
[Bearbeiten | Quelltext bearbeiten]Sherry „Lass“ Lassiter, Vorsitzende der Fab Foundation, formulierte 2016 das sogenannte lasssche Gesetz (Lass' Law): Demnach verdopple sich die Zahl der FabLabs und der auf Open-Source-Hardware basierenden Produktionssysteme jährlich.[17]
Neil Gershenfeld betrachtet diese Entwicklung als nächste Stufe der digitalen, dezentralisierten Produktentwicklung.[18]
Weblinks
[Bearbeiten | Quelltext bearbeiten]- Moore’s Law Predicts the Future of Integrated Circuits – Computer History Museum (englisch)
- Ray Kurzweil: The Law of Accelerating Returns. In: kurzweilai.net. 7. März 2001, abgerufen am 25. Juni 2025 (englisch, Prognose zur exponentiellen Technologiebeschleunigung).
- Jürgen Kuri: Vor 40 Jahren: Electronics druckt Moores Gesetz. In: Heise online, 19. April 2005.
- Ilkka Tuomi: The Lives and Deaths of Moore’s Law. In: First Monday, Vol. 7, Nr. 11, 4. November 2002 (englisch, peer-reviewed)
- Bernd Kling: Nvidia-CEO: Moore’s Law ist am Ende. In: ZDNet, 10. Januar 2019
Literatur
[Bearbeiten | Quelltext bearbeiten]- Scott Hamilton: Taking Moore’s law into the next century. In: Computer. Band 32, Nr. 1, 1999, S. 43–48, doi:10.1109/2.738303 (englisch).
- The Technical Impact of Moore’s Law. In: M. Y. Lanzerotti (Hrsg.): IEEE Solid-State Circuits Society Newsletter. Band 20, Nr. 3, 2006 (englisch, ieee.org [PDF; 1,3 MB]).
- R. R. Schaller: Moore’s law: past, present and future. In: IEEE Spectrum. Band 34, Nr. 6, 1997, S. 52–59, doi:10.1109/6.591665 (englisch).
- Christoph Drösser: Die Wie-schnell-wird-aus-Technik-Schrott-Formel. In: Die Zeit. Nr. 16/2005, 14. April 2005.
Einzelnachweise
[Bearbeiten | Quelltext bearbeiten]- ↑ R. Hagelauer, A. Bode, H. Hellwagner, W. Proebster, D. Schwarzstein, J. Volkert, B. Plattner, P. Schulthess: Informatik-Handbuch. 2. Auflage. Pomberger, München 1999, ISBN 3-446-19601-3, S. 298–299.
- ↑ Robert Schanze: Mooresches Gesetz: Defintion und Ende von Moore's Law – Einfach erklärt. In: GIGA. 25. Februar 2016, abgerufen am 15. Oktober 2019.
- ↑ G. E. Moore: Cramming more components onto integrated circuits. In: Electronics. Band 38, Nr. 8, 1965, S. 114–117 (stanford.edu [PDF]).
- ↑ Michael Kanellos: Moore’s Law to roll on for another decade. In: CNET News. 11. Februar 2003. (englisch)
- ↑ R. Chau, B. Doyle, M. Doczy, S. Datta, S. Hareland, B. Jin, J. Kavalieros, M. Metz: Silicon nano-transistors and breaking the 10 nm physical gate length barrier. In: Device Research Conference, 2003. 2003, S. 123–126, doi:10.1109/DRC.2003.1226901.
- ↑ Wir sind zuversichtlich, das Mooresche Gesetz noch eine ganze Weile erfüllen zu können. In: MacGadget. 19. Oktober 2009, abgerufen am 20. Juni 2011.
- ↑ Gordon Moore bezeichnet sein Gesetz als eine „self fulfilling prophecy“, siehe Gordon Moore says aloha to Moore’s Law. In: The Inquirer. 13. April 2005, archiviert vom am 6. November 2009; abgerufen am 4. März 2009 (englisch).
- ↑ SPEC CPU2000 Results – Intel Pentium III. In: Standard Performance Evaluation Corporation (SPEC). 14. Februar 2000, abgerufen am 25. Juni 2025.
- ↑ Intel Microprocessor Reference Guide – Pentium III. In: Intel Developer. 10. Januar 2000, abgerufen am 25. Juni 2025.
- ↑ Gene M. Amdahl: Validity of the Single Processor Approach to Achieving Large-Scale Computing Capabilities. In: AFIPS Conference Proceedings. Band 30, 1967, S. 483–485.
- ↑ a b M. Mitchell Waldrop: The chips are down for Moore’s law. News Feature, Nature 530, Februar 2016, doi:10.1038/530144a.
- ↑ Christian J. Meier: Milli, mikro, nano, weg? In: Süddeutsche Zeitung. Nr. 289. Süddeutsche Zeitung GmbH, München 14. Dezember 2024, S. 32–33.
- ↑ 2nm Technology. In: TSMC. 18. Oktober 2024, abgerufen am 25. Juni 2025.
- ↑ Moore’s Law, Part 2: More Moore and More than Moore ( vom 13. November 2013 im Webarchiv archive.today)
- ↑ Christian J. Meier: Milli, mikro, nano, weg? In: Süddeutsche Zeitung. Nr. 289. Süddeutsche Zeitung GmbH, München 14. Dezember 2024, S. 32–33.
- ↑ Rainald Löhner, Joseph D. Baum: On maximum achievable speeds for field solvers. In: International Journal of Numerical Methods for Heat & Fluid Flow. 2014, S. 1537–1544, doi:10.1108/HFF-01-2013-0016
- ↑ Roberto Saracco: Lass’ Law is knocking at the door. 9. März 2018, abgerufen am 1. Februar 2021 (englisch).
- ↑ Alan Gershenfeld, Joel Cutcher-Gershenfeld: Designing Reality: How to Survive and Thrive in the Third Digital Revolution. First edition Auflage. New York, ISBN 978-0-465-09347-2.