Computer
Ein Computer /lateinisch computare, deutsch [zusammen-]rechnen) oder Rechner (lateinisch computator (Person) bzw. computatrum (Sache)) ist ein Apparat, der Informationen mit Hilfe einer programmierbaren Rechenvorschrift (Algorithmus) verarbeiten kann (Datenverarbeitung). Der englische Begriff computer, abgeleitet vom Verb to compute (rechnen), bezeichnete Menschen, die im Mittelalter für Astronomen die quälend langwierigen Berechnungen vornahmen. Im 19. Jahrhundert wurde Computer als Bezeichnung für Volkszähler verwendet. Zunächst wurden Arbeiter, die entsprechende Maschinen bedienten, als Computer bezeichnet, später ging der Begriff auf diese Maschinen über. Computer sind frei programmierbare Rechenmaschinen – das heißt die Eingabe, Verarbeitung und Ausgabe von Daten ist frei programmierbar.
/ (englisch compute,




Ursprünglich war die Informationsverarbeitung mit Computern auf die Verarbeitung von Zahlen beschränkt. Durch die zunehmende Leistungsfähigkeit eröffneten sich neue Einsatzbereiche, Computer sind heute in praktisch allen Bereichen des täglichen Lebens vorzufinden: Sie dienen der Speicherung, Verarbeitung und Ausgabe von Informationen in Wirtschaft und Behörden, der Berechnung der Statik von Bauwerken bis hin zur Steuerung von Waschmaschinen und Automobilen. Die leistungsfähigsten Computer werden eingesetzt, um komplexe Vorgänge zu simulieren: Beispiele sind die Klimaforschung, thermodynamische Fragestellungen, medizinische Berechnungen – bis hin zu militärischen Aufgaben, zum Beispiel der Simulation des Einsatzes von nuklearen Waffen. Mehr Informationen über die leistungsstärksten Rechner finden Sie in der Liste der Weblinks. Viele Geräte des Alltags, vom Telefon über den Videorekorder bis hin zur Münzprüfung in Warenautomaten, werden heute von integrierten Kleinstcomputern gesteuert (Embedded Systems).
Grundprinzipien
Grundsätzlich sind zwei Bauweisen zu unterscheiden: Ein Computer ist ein Digitalcomputer, wenn er mit digitalen Geräteeinheiten digitale Daten verarbeitet; er ist ein Analogcomputer, wenn er mit analogen Geräteeinheiten analoge Daten verarbeitet.
Bis auf wenige Ausnahmen werden heute fast ausschließlich Digitalcomputer eingesetzt. Diese folgen gemeinsamen Grundprinzipien, mit denen ihre freie Programmierung ermöglicht wird. Bei einem Digitalcomputer werden dabei zwei grundsätzliche Bausteine unterschieden: Die Hardware, die aus den elektronischen, physisch anfassbaren Teilen des Computers gebildet wird, sowie die Software, die die Programmierung des Computers beschreibt.
Ein Digitalcomputer besteht zunächst nur aus Hardware. Die Hardware stellt erstens einen so genannten Speicher bereit, in dem Daten wie in Schubladen gespeichert und jederzeit zur Verarbeitung oder Ausgabe abgerufen werden können. Zweitens verfügt das Rechenwerk der Hardware über grundlegende Bausteine für eine freie Programmierung, mit denen jede beliebige Verarbeitungslogik für Daten dargestellt werden kann: Diese Bausteine sind im Prinzip die Berechnung, der Vergleich, und der bedingte Sprung. Ein Digitalcomputer kann beispielsweise zwei Zahlen addieren, das Ergebnis mit einer dritten Zahl vergleichen und dann abhängig vom Ergebnis entweder an der einen oder der anderen Stelle des Programms fortfahren. In der Informatik wird dieses Modell theoretisch durch die Turing-Maschine abgebildet; die Turing-Maschine stellt die grundsätzlichen Überlegungen zur Berechenbarkeit dar.
Erst durch Software wird der Digitalcomputer jedoch nützlich. Jede Software ist im Prinzip eine definierte, funktionale Anordnung der oben geschilderten Bausteine Berechnung, Vergleich und Bedingter Sprung, wobei die Bausteine beliebig oft verwendet werden können. Diese Anordnung der Bausteine, die als Programm bezeichnet wird, wird in Form von Daten im Speicher des Computers abgelegt. Von dort kann sie von der Hardware ausgelesen und abgearbeitet werden. Dieses Funktionsprinzip der Digitalcomputer hat sich seit seinen Ursprüngen in der Mitte des 20. Jahrhunderts nicht wesentlich verändert, wenngleich die Details der Technologie erheblich verbessert wurden.
Analogrechner funktionieren jedoch nach einem anderen Prinzip. Bei ihnen ersetzen analoge Bauelemente (Verstärker, Kondensatoren) die Logikprogrammierung. Analogrechner wurden früher häufiger zur Simulation von Regelvorgängen eingesetzt (siehe: Regelungstechnik), sind heute aber fast vollständig von Digitalcomputern verdrängt worden.
Hardwarearchitektur
Das heute allgemein angewandte Prinzip, das nach seiner Beschreibung von John von Neumann von 1946 als "Von-Neumann-Architektur" bezeichnet wird, definiert für einen Computer vier Hauptkomponenten:
- die Recheneinheit (Arithmetisch-Logische Einheit (ALU)),
- die Steuereinheit,
- den Speicher und
- die Eingabe- und Ausgabeeinheit(en).
In den heutigen Computern sind die ALU und die Steuereinheit meist zu einem Baustein verschmolzen, der so genannten CPU (Central Processing Unit, zentraler Prozessor).
Der Speicher ist eine Anzahl von durchnummerierten "Zellen", jede dieser Zellen kann ein kleines Stück Information aufnehmen. Diese Information wird als Binärzahl, also einer Abfolge von ja/nein-Informationen, in der Speicherzelle abgelegt. Besser vorzustellen als eine Folge von Nullen und Einsen. Ein Charakteristikum der "Von Neumann-Architektur" ist, dass diese Zahl (beispielsweise 65) entweder ein Teil der Daten sein kann (also zum Beispiel der Buchstabe "A"), oder ein Befehl für die CPU ("Springe...").
Wesentlich in der Von-Neumann-Architektur ist, dass sich Programm und Daten einen Speicherbereich teilen (dabei belegen die Daten in aller Regel den unteren und die Programme den oberen Speicherbereich).
Dem gegenüber stehen in der sog. Harvard-Architektur Daten und Programmen eigene (physikalisch getrennte) Speicherbereiche zur Verfügung. Dadurch können Daten-Schreiboperationen keine Programme überschreiben.
In der Von-Neumann-Architektur ist die Steuereinheit dafür zuständig, zu wissen, was sich an welcher Stelle im Speicher befindet.
Man kann sich das so vorstellen, dass die Steuereinheit einen "Zeiger" auf eine bestimmte Speicherzelle hat, in der der nächste Befehl steht, den sie auszuführen hat.
Sie liest diesen aus dem Speicher aus, erkennt zum Beispiel "65", erkennt dies als "Springe".
Dann geht sie zur nächsten Speicherzelle, weil sie wissen muss, wo sie hinspringen soll. Sie liest auch diesen Wert aus, interpretiert die Zahl als Nummer (so genannte Adresse) einer Speicherzelle.
Dann setzt sie den Zeiger auf eben diese Speicherzelle, um dort wiederum ihren nächsten Befehl auszulesen; der Sprung ist vollzogen.
Wenn der Befehl zum Beispiel statt "Springe" lauten würde "Lies Wert", dann würde sie nicht den Programmzeiger verändern, sondern aus der in der Folge angegebenen Adresse einfach den Inhalt auslesen, um ihn dann beispielsweise an die ALU weiterzuleiten.
Die ALU hat die Aufgabe, Werte aus Speicherzellen zu kombinieren. Sie bekommt die Werte von der Steuereinheit geliefert, verrechnet sie (addiert beispielsweise zwei Zahlen, welche die Steuereinheit aus zwei Speicherzellen ausgelesen hat) und gibt den Wert an die Steuereinheit zurück, die den Wert dann für einen Vergleich verwenden oder wieder in eine dritte Speicherzelle zurückschreiben kann.
Die Ein-/Ausgabeeinheiten schließlich sind dafür zuständig, die initialen Programme in die Speicherzellen einzugeben und die Ergebnisse der Berechnung einem Benutzer auch wieder anzeigen zu können.
Softwarearchitektur
Die Von-Neumann-Architektur ist gewissermaßen die unterste Ebene des Funktionsprinzips eines Computers oberhalb der elektrophysikalischen Vorgänge in den Leiterbahnen. Die ersten Computer wurden auch tatsächlich so programmiert, dass man die Nummern von Befehlen und von bestimmten Speicherzellen so, wie es das Programm erforderte, nacheinander in die einzelnen Speicherzellen schrieb.
Um diesen Aufwand zu reduzieren, wurden Programmiersprachen entwickelt. Diese generieren die Zahlen innerhalb der Speicherzellen, die der Computer letztlich als Programm abarbeitet, aus höheren Strukturen heraus automatisch.
Sodann wurden bestimmte sich wiederholende Prozeduren in so genannten Bibliotheken zusammengefasst, um nicht jedes Mal das Rad neu erfinden zu müssen, z. B. das Interpretieren einer gedrückten Tastaturtaste als Buchstabe "A" und damit als Zahl "65" (im ASCII-Code). Die Bibliotheken wurden in übergeordneten Bibliotheken gebündelt, welche Unterfunktionen zu komplexen Operationen verknüpfen (Beispiel: die Anzeige eines Buchstabens "A", bestehend aus 20 einzelnen schwarzen und 50 einzelnen weißen Punkten auf dem Bildschirm, nachdem der Benutzer die Taste "A" gedrückt hat).
In einem modernen Computer arbeiten sehr viele dieser Programmebenen über- bzw. untereinander. Komplexere Aufgaben werden in Unteraufgaben zerlegt, welche von anderen Programmierern bereits bearbeitet wurden, die wiederum auf die Vorarbeit weiterer Programmierer aufbauen, deren Bibliotheken sie verwenden. Auf der untersten Ebene findet sich dann aber immer der so genannte Maschinencode - jene Abfolge von Zahlen, mit denen der Computer auch tatsächlich rechnen kann...
Geschichte

- Abakus, älteste mechanische Rechenhilfe
- Rechenbrett des Pythagoras
- 1. Jh. v. Chr.: Computer von Antikythera, vorzeitliche Berechnungsmaschine (den Rechenschiebern ähnlich, nur weitaus komplexer) mit erst im 18. Jahrhundert wiederentdecktem Differentialgetriebe. Diente zur Bahnberechnung der damals bekannten Planeten.
- 1614 John Napier publiziert seine Logarithmentafel
- 1623 Erste Vier-Spezies-Maschine durch Wilhelm Schickard
- 1642 Blaise Pascal baut eine Rechenmaschine
- 1668 Samuel Morland entwickelt eine Rechenmaschine, die nicht dezimal addiert, sondern auf das englische Geldsystem abgestimmt ist
- 1673 Rechenmaschine von Gottfried Leibniz
- 1805 Joseph-Marie Jacquard entwickelt Lochkarten, um Webstühle zu steuern.
- 1820 Charles Xavier Thomas de Colmar baut das "Arithmometer", den ersten Rechner in Massenproduktion
- Charles Babbage entwickelt die Difference Engine 1822 und die Analytical Engine 1833, kann sie aber aus Geldmangel nicht bauen
- 1843 Edvard und George Scheutz bauen in Stockholm den ersten mechanischen Computer nach den Ideen von Babbage
- 1890 US-Volkszählung mit Hilfe des Lochkartensystems von Herman Hollerith durchgeführt; Torres y Quevedo baut eine Schachmaschine, die mit König und Turm einen König matt setzen kann
- 1935 International Business Machines stellt die IBM 601 vor, eine Lochkartenmaschine, die eine Multiplikation/Sekunde durchführen kann. Es werden ca. 1500 Stück der Maschine verkauft.
- 1937 Konrad Zuse meldet zwei Patente an, die bereits alle Elemente der so genannten Von-Neumann-Architektur beschreiben.
- 1937 Alan Turing publiziert einen Artikel, der die "Turing-Maschine" beschreibt.
- 1938 Konrad Zuse stellt die Zuse Z1 fertig, einen frei programmierbaren mechanischen Rechner, der allerdings aufgrund von Problemen mit der Fertigungspräzision nie voll funktionstüchtig war. Die Z1 verfügte bereits über Fließkommarechnung. Die Z1 wurde im Krieg zerstört und später nach Originalplänen neu gefertigt, die Teile wurden auf modernen Fräs- und Drehbänken hergestellt. Dieser Nachbau der Z1 ist mechanisch voll funktionsfähig und hat eine Rechengeschwindigkeit von 1 Hz (eine Rechenoperation pro Sekunde)
- 1938 Claude Shannon publiziert einen Artikel darüber, wie man symbolische Logik mit Relais implementieren kann
Während des Zweiten Weltkrieges gibt Alan Turing die entscheidenden Hinweise zur Entschlüsselung der ENIGMA-Codes und baut dafür einen speziellen mechanischen Rechner.
Ebenfalls im Krieg baut Konrad Zuse die erste funktionstüchtige programmgesteuerte, binäre Rechenmaschine, bestehend aus einer großen Zahl von Relais, die Z3. Zeitgleich werden in den USA ähnliche elektronische Maschinen zur numerischen Berechnung gebaut. Auch Maschinen auf analoger Basis werden erstellt.
- 1941 Konrad Zuse stellt die Z3 fertig, die heute als der erste funktionstüchtige Computer gilt
- 1943 IBM-Chef Thomas Watson sagt: "Ich glaube, es gibt einen weltweiten Bedarf an vielleicht fünf Computern."
- 1943 Tommy Flowers stellt mit seinem Team in Bletchley Park den ersten "Colossus" fertig
- 1944 Fertigstellung des ASCC (Automatic Sequence Controlled Computer, "Mark I" durch Howard H. Aiken)
- 1944 Das Team um Reinold Weber stellt eine Entschlüsselungsmaschine für das Verschlüsselungsgerät M-209 der US-Streitkräfte fertig [1].
Zur Architektur der Rechenmaschinen Z1 und Z3: http://www.zib.de/zuse/Inhalt/Kommentare/Html/0687/0687.html
- 1946 ENIAC (Electronic Numerical Integrator and Computer) wird unter der Leitung von John Eckert und John Mauchly entwickelt
- 1947 IBM baut den SSEC
- 1947 Erfindung des Transistors
- 1949 Maurice Wilkes stellt mit seinem Team in Cambridge den "EDSAC" (Electronic Delay Storage Automatic Computer); basierend auf Neumanns EDVAC ist es der erste Rechner, der vollständig speicherprogrammierbar ist
- 1949 Konrad Zuse stellt die Z4 fertig, deren Bau schon 1942 begonnen wurde und 1944 in wesentlichen Teilen abgeschlossen war, die aber kriegsbedingt nicht fertiggestellt werden konnte.
- 1950 Die Z4 geht an der ETH Zürich in Betrieb
- 1951 UNIVAC I, kommerzieller Röhrenrechner der RAND Corporation
- 1955 TRADIC, erster Computer, der komplett mit Transistoren statt Röhren bestückt ist. Gebaut von den Bell Labs für die US Air Force.
- 1955 OPREMA Erster Computer der DDR
- 1956 Erstes Magnetplattensystem von IBM (RAMAC)
- 1960 IBM 1401, transistorisierter Rechner mit Lochkartensystem
- 1960 DECs (Digital Equipment Corporation) erster Minicomputer, die PDP-1 (Programmierbarer Datenprozessor) erscheint
- 1962 Telefunken_AG liefert die ersten TR 4 aus
- 1964 DEC baut den Minicomputer PDP-8 für unter 20000 Dollar
- 1964 IBM definiert die erste Computerarchitektur S/360, Rechner verschiedener Leistungsklassen können denselben Code ausführen
- 1964 bei Texas Instruments wird der erste "Integrierte Schaltkreis", IC, entwickelt
- 1966 D4a 33bit Auftischrechner der TU Dresden
- 1968 HewlettPackard bewirbt den HP-9100A als "personal computer" in der Science-Ausgabe vom 4.Oct.1968
- 1970 Intel baut mit dem 4004 den ersten in Serie gefertigten Mikroprozessor (2250 Transistoren)
- 1971 Telefunken liefert TR_440 Deutsches Rechenzentrum Darmstadt und Universitäten Bochum und München
- 1972 der Illiac IV, ein Supercomputer mit Array-Prozessoren geht in Betrieb
- 1973 Xerox Alto - Der erste Computer mit Maus, GUI und eingebauter Ethernet-Karte.
- 1973 beginnt die französische Firma R2E mit der Auslieferung des Micral
- 1974 Motorola baut den 6800 Prozessor; Intel baut den 8080 Prozessor
- 1975 MITS beginnt mit der Auslieferung des Altair 8800
- 1976 die Firma Apple Computer bringt den Apple I auf den Markt; Zilog entwickelt den Z80 Prozessor
- 1977 Ken Olson, Präsident und Gründer von DEC sagt: Es gibt keinen Grund, warum jemand einen Computer zu Hause haben wollte.
- 1977 der Apple II, der Commodore PET und der Tandy TRS 80 kommen auf den Markt.
- 1978 DEC bringt die VAX-11/780, eine Maschine speziell für virtuelle Speicheradressierung, auf den Markt
- 1979 Atari bringt seine Rechnermodelle 400 und 800 in die Läden. Revolutionär ist, dass mehrere Custom-Chips den Hauptprozessor entlasten.
- 1980er: Blütezeit der Heimcomputer, zunächst mit 8-Bit-Mikroprozessoren und einem Arbeitsspeicher bis 64 kB (Commodore VC20, C64, Sinclair ZX80/81, Sinclair ZX Spectrum, Schneider CPC 464/664), später auch leistungsfähigere Modelle mit 16-Bit- oder 16/32-Bit-Mikroprozessoren (z. B. Amiga, Atari ST)
- 1981 IBM stellt den IBM-PC (Personal-Computer) vor und bestimmt damit entscheidend die weitere Entwicklung
- 1982 Intel bringt den 80286-Prozessor auf den Markt
- 1982 Sun Microsystems entwickelt die Sun-1 Workstation
- 1984 der Apple Macintosh kommt auf den Markt und setzt neue Maßstäbe für Benutzerfreundlichkeit
- 1985, Januar Atari stellt den ST-Computer auf der CES in Las Vegas vor
- 1985, Juli Commodore produziert den Amiga-Heimcomputer
- 1986 Intel bringt den 80386-Prozessor auf den Markt; Motorola präsentiert den 68030-Prozessor
- 1988 NeXT, Steve Jobs, Mitgründer von Apple, stellt den gleichnamigen Computer vor.
- 1989 Intel bringt den 80486 auf den Markt
Internet ...
- 1991 Das AIM-Konsortium (Apple, IBM, Motorola) spezifiziert die PowerPC-Plattform
- 1992 DEC stellt die ersten Systeme mit dem 64-Bit-Alpha-Prozessor vor
- 1993 Intel bringt den Pentium-Prozessor auf den Markt
- 1994 Leonard Adleman stellt mit dem TT-100 den ersten Prototypen für einen DNA-Computer vor.
- 1995 Intel bringt den Pentium-Pro-Prozessor auf den Markt
- 1995 Be Incorporated stellt die BeBox vor
- 1999 Intel baut den Supercomputer ASCI Red mit 9.472 Prozessoren
- 1999 AMD stellt den Nachfolger der K6-Prozessorfamilie vor, den Athlon.
Gegenwart: Zur Zeit haben allein in Deutschland mehrere Millionen Menschen ein eigenes Computersystem.
Beginn des 21. Jahrhunderts: Weitere Steigerung der Leistungsfähigkeit, fortschreitende Verkleinerung und Integration von Telekommunikation und Bildbearbeitung. Allgemeine, weltweite Verbreitung und Akzeptanz. Wechsel von klassischen Informationsdienstleistungen (Datendienste, Vermittlung, Handel, Medien) in das digitale Weltmedium Internet.
- 2001 IBM baut den Supercomputer ASCI White
- 2002 der NEC Earth Simulator geht in Betrieb
- 2003 Apple liefert den PowerMac G5 aus, erster Computer mit 64-Bit-Prozessoren für die breite Bevölkerung. AMD stellt mit dem Opteron und dem Athlon 64 seine ersten 64-Bit-Prozessoren vor.
- 2005 Renommierte Analysten erwarten, dass dieses Jahr weltweit 200 Mio neue PCs, Laptops und Server verkauft werden.
- 2005 AMD und Intel produzieren erste Dual-Core Prozessoren
Stichwörter zur Geschichte der Rechentechnik
Abakus, ARPANET, Hahn, Hamann, Logarithmentafel, OHDNER, OUGHTRED, PARTRIDGE, Pascal, Rechenschieber, Rechenstab, ROTH, Sprossenradmaschine, Zweispeziesrechner
Zukunft
Zukünftige Entwicklungen bestehen aus der möglichen Nutzung biologischer Systeme (Biocomputer), optischer Signalverarbeitung und neuen physikalischen Modellen (Quantencomputer). Weitere Verknüpfungen zwischen biologischer und technischer Informationsverarbeitung. Auf der anderen Seite nimmt man langsam Abstand von nicht realisierten Trends der letzten 20 Jahre Expertensysteme und Künstliche Intelligenzen, die ein Bewusstsein entwickeln, sich selbst verbessern oder gar rekonstruieren, zu erforschen.
Siehe auch
- eine Übersicht über die Artikel zum Thema "Computer" finden Sie im Portal Informatik.
Literatur
- Konrad Zuse: Der Computer – Mein Lebenswerk. Springer, Berlin 1993, ISBN 3-540-56292-3
Weblinks
Vorlage:Wiktionary1 Vorlage:Wikiquote1 Vorlage:Commons2
- Homecomputermuseum.de
- Computergeschichte.de
- Verein zum Erhalt klassischer Computer e.V.
- Das Atari Computermuseum
- Deutsche EDV-Geschichte 1940er-1960er - SUSAS Netzwerk für Wissensweitergabe
- Angeblich größtes Computermuseum der Welt in Paderborn
- http://www.hchistory.de/index.php3
- Ein Foliant zur Geschichte der Datenübertragung
- Liste der 500 leistungssstärksten Computer