Prozessor

Der Prozessor ist eine Recheneinheit eines Computers, der per Software andere Bestandteile steuert.
Die grundlegende Eigenschaft des Prozessors ist die Programmierbarkeit, das Verhalten des Prozessors wird dabei von Programmen in Form von Maschinencode bestimmt.
Hauptbestandteile des Prozessor sind die Register, das Rechenwerk (ALU), das Steuerwerk und der Speichermanager (MMU) der den Arbeitsspeicher verwaltet.
Zu den zentralen Aufgaben des Prozessor gehören arithmetische Operationen, das Lesen und Schreiben von Daten im Arbeitsspeicher, sowie das Ausführen von Sprüngen im Programm.
Computer bestehen meist aus mehreren Prozessoren wobei der Hauptprozessor alle anderen steuert.
Im allgemeinen Sprachgebrauch ist meist der Zentralprozessor (CPU) eines Computers gemeint, also das funktionale Kernstück eines elektronischen Rechners, das heute normalerweise auf einem Chip integriert ist.
Die moderne Form des Prozessors ist der Mikroprozessor, der alle Bausteine des Prozessors auf einem Mikrochip vereinigt.
Entwicklung

In den 1930er Jahren bestand das Rechenwerk eines Computers zunächst aus Relais und mechanischen Bauelementen. Die ersten Computer waren also elektromechanische Rechner, die langsam und äußerst störanfällig waren. Noch in den 40ern begann man damit, Computer mit Hilfe von Röhren zu bauen. Die Rechner wurden schneller und weniger störanfällig. Waren diese Rechner anfangs teure, aus Steuergeldern finanzierte Einzelprojekte, so reifte die Technik im Laufe der 50er Jahren immer mehr aus. Röhrenrechner wurden nach und nach zu Massenartikeln, die für Universitäten, Forschungseinrichtungen und Firmen durchaus erschwinglich waren. Um dieses Ziel zu erreichen, war es unabdingbar, die Anzahl der benötigten Röhren auf ein Mindestmaß zu reduzieren. Aus diesem Grund setzte man Röhren nur dort ein, wo sie unabdingbar waren. So begann man damit, Hauptspeicher und CPU-Register auf einer Magnettrommel unterzubringen, Rechenoperationen seriell auszuführen und die Ablaufsteuerung mit Hilfe einer Diodenmatrix zu realisieren. Ein typischer Vertreter dieser Rechnergeneration war der LGP-30.
Ein Mikroprozessor (griech. mikros für klein) ist ein Prozessor in sehr kleinem Maßstab, bei dem alle Bausteine des Prozessors auf einem Mikrochip vereinigt sind.
Geschichte
In den frühen 60ern wurden die Röhren von den Transistoren verdrängt. Anfangs wurden die Prozessoren aus einzelnen Transistoren aufgebaut. Durch die Verkleinerung der Transistor auf nur einige Mikrometer war es möglich immer mehr Transistorfunktionen auf ICs unter zu bringen. Waren es zunächst nur einzelne Gatter, integrierte man immer häufiger auch ganze Register und Funktionseinheiten wie Addierer und Zähler, schließlich dann sogar Registerbänke und Rechenwerke auf einem Chip. Diese zunehmende Integration von immer mehr Transistor- und Gatterfunktionen auf einem Chip führte dann fast zwangsläufig zu dem, was heute als Mikroprozessor bekannt ist.
Als Erfinder des Mikroprozessors gilt die Firma Texas Instruments, die sich diese Idee auch patentieren ließ. Im Jahr 1971 stellte Intel mit dem 4004 die erste CPU auf einem Chip vor. Der Mikroprozessor war geboren. Mit nur 4 Bit breiten Registern und einer Taktfrequenz von knapp über 100 kHz, war der 4004 aber nicht gerade besonders leistungsfähig. Seine im Vergleich mit den klassischen CPUs äußerst kompakte Bauform verhalf dem Mikroprozessor aber schließlich trotzdem zum Durchbruch. Ursprünglich war der 4004 eine Auftragsentwicklung für den japanischen Tischrechnerhersteller Busicom. Intels Projektleiter Ted Hoff hatte die Idee, das Herz dieses Tischrechners in Form eines programmierbaren Bausteins zu realisieren. Dass dabei die erste universell einsetzbare Einchip-CPU der Welt herauskam, war eigentlich nicht beabsichtigt. Da Busicom damals in finanziellen Schwierigkeiten steckte, bot man Intel den Rückkauf des 4004-Designs an, woraufhin Intel mit der Vermarktung des 4004 begann. Der 4004 wurde zum ersten kommerziellen Mikroprozessor der Welt...
Es gab schon Ende der 60er Jahre einen Microprozessor von Rockwell (PPS4 (Parallel Processing System 4bit)), der aber nur für US-Rüstungsprojekte bei Raketensteuerungen Verwendung fand. Zunächst waren dies noch recht einfache Schaltungen. Die Mikroelektronik brachte neben der Miniaturisierung und der enormen Kostenersparnis noch weitere Vorteile wie Geschwindigkeit, geringer Stromverbrauch, Zuverlässigkeit und später auch höhere Komplexität. Dies führte dazu, dass vergleichsweise billige Mikroprozessoren mit der Zeit die teuren Prozessoren der Minicomputer und teilweise sogar der Großrechner verdrängten. Gegen Ende des zwanzigsten Jahrhunderts hielt der Mikroprozessor Einzug in viele elektronische Geräte, vor allem als CPU von Personal-Computern (PCs). Auch als die Strukturgröße der Mikroprozessor-Chips auf einige hundert Nanometer (Nanoelektronik) weiter verkleinert wurde, blieb der Begriff Mikroprozessor bestehen.
Zur Realisierung eines kompletten Computers muss der Mikroprozessor noch um Speicher und Ein-/Ausgabe-Funktionen erweitert werden. Diese stehen in Form weiterer Chips zur Verfügung. Nur wenige Jahre nach der Einführung von Mikroprozessoren erschienen jedoch auch sog. Mikrocontroller, die diese Funktionen auf einem Chip vereinigten.
Beachtenswerte 8-Bit-Prozessoren
Der 4004 wurde 1972 durch den 8008 abgelöst, der erste 8-Bit-Mikroprozessor der Welt. Dieser Prozessor war der Vorläufer für den äusserst erfolgreichen Intel 8080 (1974), den Zilog Z80 (1976) und weitere 8-Bit-Prozessoren von Intel. Der konkurrierende Motorola 6800 war ab August 1974 , im selben Jahr wie der 8080, erhältlich. Die Architektur des 6800 wurde 1975 für den MOS Technology 6502 kopiert und verbessert, der in den 80iger-Jahren in der Popularität mit dem Z80 wetteiferte.
Sowohl der Z80 als auch der 6502 wurden im Hinblick auf tiefe Gesamtkosten entwickelt: So wurde ein kompaktes Gehäuse, tiefe Ansprüche an den Bus und die Einbindung von Schaltungen, die normalerweise in einem separaten Chip zur Verfügung gestellt werden mussten (Der Z80 verfügte zB. über einen eigenen Memory Controller), miteinander kombiniert. Diese Eigenschaften waren es schliesslich, die dem Heimcomputer-Markt in anfangs 1980 zum Durchbruch verhalfen und in Maschinen resultierten, die für US$99 erhätlich waren.
Western Design Center (WDC) stellte den CMOS 65C02 in 1982 vor und lizenzierte das Design an verschiedene Firmen. Dieser Prozessor wurde das Herz der Apple IIc und IIe, wurde in Herzschrittmachern und Deffilibratoren, Autos sowie in industriellen Geräten und Geräten auf dem Verbrauchermarkt eingesetzt. WDC bereitete so den Weg vor für das Lizenzieren von Mikroprozessor-Technologie, das Modell wurde später durch ARM und anderen Hersteller in den 90iger-Jahren übernommen.
Motorola übertrumpfte 1978 die gesamte 8-Bit-Welt mit der Vorstellung des Motorola 6809, wohl eine der leistungsstärksten, unabhängigen und saubersten 8-Bit-Architekturen - und auch eine der komplexesten festverdrahteten Mikroprozessor-Logiken, die auch produziert wurden. Mikroprogrammierung ersetzte zu dieser Zeit die bisher festverdrahteten Logiken - gerade weil die Anforderungen der Designs für eine feste Verdrahtung zu komplex wurden.
Ein weiterer 8-Bit-Mikroprozessor war der Signetics 2650, der aufgrund seiner innovativen und leistungsfähigen Befehlssatz-Architektur kurzzeitig im Zentrum des allgemeinen Interesses stand.
Ein für die Raumfahrt wegweisender Mikroprozessor war der RCA 1802 (a.k.a. CDP1802, RCA COSMAC. Vorgestellt 1974), der in den Voyager,Viking und Galileo-Raumsonden eingesetzt wurde. Der CDP1802 wurde verwendet, weil er mit sehr wenig Energie betrieben konnte und seine Bauart (Silicon on Saphire) einen wesentlich höheren Schutz gegenüber kosmischer Strahlung und elektrostatischen Entladungen bot als jeder andere Prozessor zu dieser Zeit. Der CP1802 wurde als erster Strahlungs-gehärteter Prozessor bezeichnet.
16-Bit-Prozessoren
Der erste Mehrfach-Chip 16-Bit-Mikroprozessor war der IMP-16 von National Semiconductor, vorgestellt 1973. Eine 8-Bit-Version wurde ein Jahr später als der IMP-8 vorgestellt. 1975 stellte National Semiconductor den ersten Ein-Chip-Mikroprozessor vor, PACE, der später gefolgt wurde durch eine NMOS-Version, dem INS8900.
Andere Mehrfach-Chip 16-Bit-Mikroprozessoren waren der TMS 9900 von TI, der auch mit der hauseigenen TI 990-Minicomputer-Modellreihe kompatibel war. Der Chip besass ein grosses 64-Pin DIP-Gehäuse, während die meisten 8-Bit-Prozessoren in das weiter verbreitete, kleinere und billigere 40-Pin DIP-Gehäuse aus Kunstoff eingesetzt wurden. Ein Nachfolger wurde aus dem 9900 entwickelt, der TMS 9980, ebenfalls ein billigeres Gehäuse besass. Er sollte ein Konkurrent zum Intel 8080 darstellen. Der TMS9980 konnte 8 Datenbits zur gleichen Zeit kopieren, aber nur 16KB addressieren. Ein dritter Chip, der TMS 9995, wurde neu entwickelt. Diese Prozessorfamilie wurde später mit dem 99105 und 99110 erweitert.
WDC machte seinen 65C02 16-Bit-tauglich und stellte diesen Prozessor als CMOS 65816 im Jahre 1984 vor. Der 65816 stellte den Kern der Apple IIgs und später des Super Nintendos dar, was ihn zu einem der beliebtesten 16-Bit-Designs machte.
Intel folgte einem anderen Pfad, keine Minicomputer zu emulieren, und "vergrösserte" stattdessen ihr 8080-Design auf 16-Bit. Daraus entstand der Intel 8086, das erste Mitglied der x86-Familie, die heute in den meisten PCs zu finden ist. Intel stellte den 8086 als kostengünstigen Weg vor, Software von der 8080-Linie zu portieren und machte damit gute Geschäfte. Nachfolgend zum 8080 und Intel 8088 wurde der 80186, der 80286 und 1995 der 32-Bit 80386, die alle rückwärtskompatibel waren und so die Marktvorherrschaft von Intel entscheidend stärkten.
32-Bit-Prozessoren
Der erste 32-Bit-Mikroprozessor in einem eigenen Gehäuse war der BELLMAC-32A von AT&T Bell Labs, von dem erste Stücke 1980 erhältlich waren und 1982 in Masse produziert wurde. Nach der Zerschlagung von AT&T in 1984 wurde er in WE 32000 umbenannt (WE für Western Electric), und hatte zwei Nachfolger: Den WE 32100 und WE 32200. Diese Mikroprozessoren wurden in den folgenden Minicomputern von AT&T eingesetzt: 3B2, 3B5, 3B15, "Companion" und "Alexander".
Ein bemerkenswerter 32-Bit-Mikroprozessor ist der MC68000, der 1979 vorgestellt wurde. Er wurde meist als 68K bezeichnet und verfügte über 32-bittige Register, verwendete aber 16 Bit breite interne Busleitungen und ein ebenso breiter externe Datenbus um die Anzahl der Pins zu verringern. Motorola bezeichnete diesen Prozessor im allgemeinen als 16-Bit-Prozessor, obwohl er über eine 32-Bit-Architektur verfügte. Die Kombination aus einem schnellen und grossen Speicher-Adressraum (16 Megabyte) und tiefen Kosten machten im zum beliebtesten Prozessor seiner Klasse. Der Apple Lisa und die Macintosh-Reihe verwendeten den 68K, Mitte der 80iger-Jahren wurde dieser Prozessor auch im Atari ST und Commodore Amiga eingesetzt.
Intel's erster 32-Bit-Mikroprozessor war der iAPX 432, welcher 1981 vorgestellt wurde. Obwohl er über eine fortgeschrittene, objekt-orientierte Architektur verfügte, war ihm kein kommerzieller Erfolg beschieden, nicht zuletzt weil die Leistung gegenüber konkurrierenden Architekturen schlechter abschnitt.
Motorola's Erfolg mit dem 68K führte zur Vorstellung des MC68010, welcher virtuellen Speicher unterstützte. Der MC68020 schliesslich verfügte über 32 Bit breite interne und externe Busse. Dieser Prozessor wurde im Unix-Supermicrocomputer äusserst beliebt, und viele kleinere Firmen stellten Desktop-Systeme mit diesem Prozessor her. Der MC68030 integrierte die MMU in den Chip. Die meisten Computer, die nicht auf DOS liefen, setzten nun einen Chip der 68K-Familie ein. Dieser anhaltende Erfolg führe zum MC68040, der auch die FPU in den Chip integrierte und so die Geschwindigkeit arithmetischer Operationen erhöhte. Ein geplanter MC68050 erreichte nicht die erwünschten Verbesserungen und wurde nicht produziert, der MC68060 wurde auf ein Marktsegment geworfen, das bereits mit viel schnelleren RISC-Designs gesättigt war.
Der 68020 und seine Nachfolger wurde häufig in Embedded Systems eingesetzt.
Während dieser Zeit (Anfang bis Mitte 1980) stellte National Semiconductor ähnlich wie Motorola einen 32-Bit-Prozessor mit einem 16-bittigen Pinout her, den NS 16032 (später umbenannt zu NS 32016), die Version mit einem ebenfalls 32-Bit breiten Bus war der NS 32032. Sequent stellte basierend auf diesem Mikroprozessor Mitte der 80iger-Jahren den ersten SMP-Computer vor.
Andere Systeme setzten den Zilog Z8000 ein, welcher aber zu spät im Markt ankam und bald wieder verschwand.
Prozessor Aufbau
Ein Prozessor besteht aus Registern, einem Rechenwerk, einem Befehlsdecoder sowie einem Steuerwerk. Das Rechenwerk ist für arithmetische und logische Funktionen zuständig, Befehlsdecoder und Steuerwerk sind für die Ausführung der Befehle und die Koordination deryuahah du hastz´die machtsdsdsd]]) bzw. zusätzlichen (etwa einem Fließkommarechenwerk) Rechenwerken ausgestattet sein. Zur effizienteren Bearbeitung von Befehlen werden Pipelines verwendet. Alle komplexeren Signal bewirkt. Einige (sehr einfach aufgebaute und damit sehr billige) Prozessoren haben keine Interruptfähigkeit, sondern müssen über Software abfragen, ob ein äußeres Ereignis vorliegt.
Befehlsbearbeitung
Die Befehlsbearbeitung moderner Mikroprozessoren folgt dem Von-Neumann-Zyklus. Die wichtigsten Phasen sind dabei das Laden des Befehls (FETCH), seine Dekodierung (DECODE) und seine Ausführung (EXECUTE). Gelegentlich unterscheidet man auch noch eine Rückschreibphase, in welcher die Rechenergebnisse in bestimmte Register geschrieben werden. Da moderne Mikroprozessoren parallele Techniken wie etwa Pipelining und Superskalarität einsetzen, werden unter Umständen mehrere Befehle gleichzeitig in dieser Weise bearbeitet.
Ungeordnete Befehlsausführung
Die meisten modernen Hochleistungsprozessoren sind in der Lage, Befehle in ungeordneter, d.h. nicht strikt in der vom Programm vorgegebenen Reihenfolge auszuführen. Die Motivation für eine Abweichung von der vorgegebenen Befehlsfolge besteht darin, dass aufgrund von Verzweigungsbefehlen der Programmlauf nicht immer sicher vorhergesehen werden kann. Möchte man Befehle bis zu einem gewissen Grad parallel ausführen, so ist es in diesen Fällen notwendig, sich für eine Verzweigung zu entscheiden und die jeweilige Befehlsfolge spekulativ auszuführen. Es ist dann möglich, dass der weitere Programmlauf dazu führt, dass eine andere Befehlsfolge ausgeführt werden muss, so dass die spekulativ ausgeführten Befehle wieder rückgängig gemacht werden müssen. In diesem Sinne spricht man von einer ungeordneten Befehlsausführung.
Die Grafik zeigt die wesentlichen Komponenten und das Grundprinzip einer ungeordneten Befehlsausführung. Zunächst erkennt man eine Harvard-Architektur, d.h. eine Trennung von Daten- und Befehlsspeicher, die ein paralleles Laden von Befehlen und ihren Operanden ermöglicht. Es existieren mehrere Rechenwerke, die parallel arbeiten können. Befehle und Operanden werden nun aber nicht direkt in die Rechenwerke eingespeist, sondern zunächst in sogenannte Reservierungs-Stationen. Dabei kann es sich um Befehle handeln, die aufgrund einer Programmverzweigung möglicherweise gar nicht ausgeführt werden müssen. Sobald ein Rechenwerk frei ist, werden Befehl und Operanden aus der zugehörigen Reservierungs-Station geladen, der Befehl ausgeführt und das Ergebnis in einem sogenannten Umbenennungs-Register aufgefangen. Das Zurückhalten des Ergebnisses ist notwendig, da noch nicht klar ist, ob der ausgeführte Befehl überhaupt auszuführen war. Sobald klar ist, dass die Verzweigung korrekt vorhergesagt wurde, sorgt die Komplettierungseinheit dafür, dass die Umbenennungs-Register mit den Architektur-Registern synchronisiert werden. Die Architektur-Register sind die klassischen Prozessor-Register, von denen aus das Ergebnis (ggf. über einen Cache-Speicher) in den Hauptspeicher transportiert wird. Sollte sich herausstellen, dass die Befehle aufgrund einer falsch vorhergesagten Verzweigung nicht auszuführen waren, so werden die Umbenennungs-Register zurückgesetzt. Man spricht dann auch von Branch Recovery.
Adressierungsarten
In modernen Mikroprozessoren werden verschiedene Adressierungsarten für die verwendeten Operanden verwendet. Dabei handelt es sich um verschiedene Methoden zur Berechnung der effektiven logischen Speicheradressen. Die Berechnung der physikalischen Adressen anhand der logischen Adressen ist davon unabhängig und wird in der Regel von einer Memory Management Unit durchgeführt. Das folgende Bild gibt einen Überblick über die die wichtigsten Adressierungsarten.
Registeradressierung
Bei einer Registeradressierung steht der Operand bereits in einem Prozessorregister bereit und muss folglich nicht mehr aus dem Speicher geladen werden. Erfolgt die Registeradressierung implizit, so wird das Register über die Angabe des Opcodes mitadressiert (Beispiel: der Opcode bezieht sich implizit auf den Akkumulator). Bei expliziter Registeradressierung wird die Nummer des Registers im Registerfeld des Opcodes mitgegeben.
Einstufige Adressierung
Bei einstufigen Adressierungsarten kann die effektive Adresse durch eine einzige Adressberechnung ermittelt werden. Es muss also im Laufe der Adressberechnung nicht erneut auf den Speicher zugegriffen werden. Bei unmittelbarer Adressierung enthält der Befehl keine Adresse, sondern den Operanden selbst. Bei direkter Adressierung enthält der Befehl die logische Adresse selbst, es muss also keine Adressberechnung mehr ausgeführt werden. Bei Register-indirekter Adressierung ist die gesuchte logische Adresse bereits in einem Adressregister des Prozessors enthalten. Die Nummer dieses Adressregisters wird über den Opcode übergeben. Bei der indizierten Adressierung erfolgt die Adressberechnung mittels Addition: Der Inhalt eines Registers wird zu einer Basisadresse hinzugerechnet. Bei Programmzähler-relativer Adressierung wird die neue Adresse aus dem aktuellen Wert des Programmzählers und einem Offset ermittelt.
Zweistufige Adressierung
Bei zweistufigen Adressierungsarten sind mehrere Rechenschritte notwendig, um die effektive Adresse zu erhalten. Insbesondere ist im Laufe der Berechnung meist ein zusätzlicher Speicherzugriff notwendig. Als Beispiel sei hier die indirekte absolute Adressierung genannt. Dabei enthält der Befehl eine absolute Speicheradresse. Das Speicherwort, das unter dieser Adresse zu finden ist, enthält die gesuchte effektive Adresse. Es muss also zunächst mittels der absoluten Speicheradresse auf den Speicher zurückgegriffen werden, um die effektive Adresse zu ermitteln. Dies kennzeichnet alle zweistufigen Verfahren.
Beispiele
Literatur
- Thomas Flik: Mikroprozessortechnik und Rechnerstrukturen, Springer-Verlag, Berlin und Heidelberg 2004, ISBN 3-540-22270-7
- Michael S. Malone: Der Mikroprozessor. Eine ungewöhnliche Biographie, Springer-Verlag, Berlin und Heidelberg 1995, ISBN 3-540-60514-2
Steuerung durch Befehle
Alle Computerprogramme liegen als binäres Bitmuster im Speicher vor. Diese Bitmuster sind prozessorspezifisch: bestimmte Muster lösen bei unterschiedlichen Prozessoren unterschiedliche elementare Befehle aus. Derartige elementare Prozessorbefehle lassen sich prozessorspezifisch in Maschinensprache oder Assemblersprache programmieren, allerdings ist das Programm dann nicht portabel. Zur Umgehung dieses Problems benutzt man Hochsprachen, etwa C, C++, FORTRAN oder Pascal. Ein spezielles Übersetzungsprogramm (Compiler) setzt dann das Hochsprachenprogramm in für den Prozessor geeignete Maschinensprache um.
Befehlsbearbeitung
Die Befehlsbearbeitung moderner Prozessoren folgt dem Von-Neumann-Zyklus. Die wichtigsten Phasen sind dabei das Laden des Befehls (FETCH), seine Dekodierung (DECODE) und seine Ausführung (EXECUTE). Gelegentlich unterscheidet man auch noch eine Rückschreibphase, in welcher die Rechenergebnisse in bestimmte Register geschrieben werden.
Befehlssatz
Der Befehlssatz bezeichnet die Menge der Maschinenbefehle eines Prozessors. Der Umfang des Befehlssatzes variiert je nach Prozessortyp beträchtlich.
Relativ große Befehlssätze findet man in CISC-Prozessoren, möglichst kleine Befehlssätze werden in RISC-Prozessoren angestrebt. Heutige Hochleistungsprozessoren sind in der Regel hybride CISC/RISC-Prozessoren.
Nach dem Befehlssätz unterscheidet man zwischen RISC und CISC Prozessor-Architekturen:
- RISC-Prozessoren (englisch Reduced Instruction Set Computing = reduzierter Befehlssatz).
- CISC-Prozessoren (englisch Complex Instruction Set Computing = komplexer Befehlssatz).
Ein RISC Prozessor ist ein Prozessor mit reduziertem Befehlssatz.
Ein RISC-Befehlssatz verzichtet zugunsten einer hohen Ausführungsgeschwindigkeit und eines niedrigeren Decodierungsaufwands auf Seiten der CPU, konsequent auf komplexe Befehle, wodurch die Ausführung schneller als bei einem CISC-Befehlssatz ist.
Ein CISC Prozessor ist ein Prozessor mit komplexem Befehlssatz.
Ein CISC-Befehlssatz zeichnet sich durch verhältnismäßig leistungsfähige Einzelbefehle aus, die komplexe Operationen durchführen können, aber dafür langsammer als RISC Befehle sind.
Grundlegende Buskonzepte der Prozessoren
Der Prozessor hat einen Bus der den Arbeitsspeicher mit dem Prozessor verbindet, je nach dem ob man für Daten und Programmcode je einen eigenen oder für beide einen gemeinsamen Bus verwendet unterscheidet man zwischen den folgenden zwei Prozessor Architekturen:
- Von-Neumann-Architektur: Ein Bus für Daten UND Programmcode (z. B. CISC-Prozessoren).
- Harvard-Architektur (erweiterte Von-Neumann-Architektur): Ein oder mehrere getrennte Busse für Daten und Programmcode. Teilweise mit mehreren ALUs zur parallelen Verarbeitung großer Datenmengen (z. B. Digitale Signalprozessoren).
Prozessor-Core
Die Prozessor-Core ist das Schaltbild (Kern) eines Vollständigen Prozessors.
Je nach der menge der Prozessorkerne(Cores), in einem Microchip, unterscheidet man zwischen :
Mikroprozessoren mit nur einem Prozessorkern bezeichnet man als Single-Core-Prozessor (Einzelkernprozessor), mit zwei Prozessorkernen bezeichnet man sie als Dual-Core-Prozessor (Doppelkernprozessor) und mit vier Prozessorkernen bezeichnet man sie als Quad-Core-Prozessor.
Diese Terminologie lässt sich entsprechend fortsetzen.
Generell werden Mikroprozessoren mit mehr als einem Prozessorkernen als Multi-Core-Prozessor (Mehrkernprozessor) bezeichnet.
Prozessorarten:
Hauptprozessor
Der Hauptprozessor (CPU) im allgemeinen Sprachgebrauch oft auch nur als Prozessor bezeichnet, ist der Zentrale (haupt) Prozessor eines Computers, der alle anderen Bestandteile steuert.
Multicore-Prozessor
Als Multicore-Prozessor (auch: Mehrkernprozessor oder Multikernprozessor), bezeichnet man einen Mikroprozessor mit mehr als einem vollständigen Hauptprozessor.
Koprozessor
Ein Koprozessor ist ein zusätzlicher Mikroprozessor, der den Hauptprozessor bei seiner Arbeit unterstützt. Beispiel ist ein mathematischer Koprozessor.
Mikroprozessor
Ein Mikroprozessor (griech. mikros für klein: ist ein Prozessor in sehr kleinem Maßstab, bei dem alle Bausteine des Prozessors auf einem Mikrochip vereinigt sind.
Mikrocontroller
Mikrocontroller (auch µController, µC, MCU) sind Ein-Chip-Computersysteme, bei welchen nahezu sämtliche Komponenten (wie z.B.: CPU, Programmspeicher (meist auf ROM- oder Flash-Basis), Arbeitsspeicher (auf SRAM-Basis), Ein-/Ausgabe-Schnittstellen) auf einem einzigen Chip (Integrierter Schaltkreis) untergebracht sind.
Digitaler SignalProzessor (DSP)
Digitaler SignalProzessor (DSP) ist ein Pozessor der analoger Signale mit Hilfe digitaler Systeme Verarbeitet.
Spezialisierte Ein-/Ausgabeprozessoren (I/O)
Spezialisierte Ein-/Ausgabeprozessoren (I/O) sind Prozessoren die Ein- und Ausgabegeräte steuern.
Koprozessoren:
Mathematische Koprozessor (FPU)
FPU für Floating Point Unit, bezeichnet eine spezielle CPU, die der Verarbeitung von Gleitkommazahlen dient.
Grafikprozessor (GPU)
Der Grafikprozessor GPU - neuerdings auch zunehmend VPU (Visual Processing Unit) - dient zur Berechnung der Grafikinformationen für die Bildschirmausgabe.
Soundprozessor
Ein Soundprozessor (SPU, englisch Sound Processing Unit) ist ein auf Klangverarbeitung und -erzeugung spezialisierter Prozessor.
Spezialprozessoren:
Notebookprozessor
Der Notebookprozessor, auch Mobilprozessor, ist eine Unterart der Prozessoren, die vor allem in mobilen und auch in besonders stromsparenden Computersystemen eingebaut wird.
Prozessormodul
- Bit-Slice-Prozessoren (kaskadierfähige Prozessoren um größere Bitbreiten zu verarbeiten)
Ein Bit Slice ist ein vorgefertigter Baustein in Form eines integrierten Schaltkreises, der in der Mikroelektronik zum individuellen Bau eines Prozessors verwendet wird. Bit-Slicing bezeichnet eine Methode aus der Rechnerarchitektur, bei der man aus mehreren arithmetisch-logischen Einheiten, die alle auf sehr kleine Worte (meist 4 bit lang) rechnen - den Bit Slices - größere Rechenwerke zusammenbaut.
Prozessorarchitektur
- Auflistung der einzelnen Prozessorarchitekturen.