Computer
Ein Computer (lat. computare, Rechnen) oder Rechner, ist ein Gerät, das quantifizierbare Informationen nach einer prinzipiell zunächst einmal frei programmierbaren Abfolge verarbeiten kann. Computer sind also Rechenmaschinen mit dem zusätzlichen Charakteristikum der freien Programmierbarkeit.
Computer werden heute in allen Bereichen des täglichen Lebens eingesetzt. Sie dienen der Speicherung von Informationen in Wirtschaft und Behörden, zur Berechnung von Bauwerken, aber auch zur Steuerung von Waschmaschinen und Automobilen. Die leistungsfähigsten Computer der Erde werden benutzt, um komplexeste Vorgänge zu simulieren - im Moment sind die beiden diesbezüglichen Hauptanwendungsgebiete die Klimaforschung sowie die Simulation von Atomwaffenexplosionen. Kleinstcomputer, bei denen die Programme in der Regel fest verdrahtet sind (also in den Bahnen bzw. nicht reprogrammierbaren Speicherbereichen der Mikrochips festgelegt), steuern so gut wie jedes elektrische Gerät, vom Telefon über den Videorekorder bis hin zur Münzprüfung im Zigarettenautomaten.
Den meisten Computern ist gemeinsam, dass sie über zwei wesentliche Grundprinzipien verfügen, die ihre freie Programmierung ermöglichen: Da ist zum Einen das Prinzip des Speichers, in dem Datenbestände wie in Schubladen einsortiert und wieder abgerufen werden können. Und zum Anderen das Vermögen, mit den drei grundlegenden Bausteinen umgehen zu können, aus denen sich jede beliebige Verarbeitungslogik für diese Zahlen zusammensetzen lässt: Die Berechnung, der Vergleich, und der bedingte Sprung: Ein Computer kann beispielsweise zwei Zahlen addieren (Berechnung), das Ergebnis mit einer dritten Zahl vergleichen (Vergleich) und dann abhängig vom Ergebnis entweder an der einen oder der anderen Stelle seines Programmes fortfahren. Aus diesen drei Grundoperationen sind sämtliche Computerprogramme aufgebaut. (In der Informatik wird dieses Modell theoretisch durch die Turing-Maschine abgebildet. Anhand der Turing-Maschine lassen sich viele grundsätzliche Überlegungen zur Berechenbarkeit anstellen).
Es gibt eine besondere Gruppe von Computern, die so genannten Analogrechner, die nicht nach diesem Prinzip funktionieren. Bei ihnen ersetzen analoge Bauelemente (Verstärker, Kondensatoren) die Logikprogrammierung. Analogrechner wurden früher häufiger zur Simulation von Regelvorgängen eingesetzt (siehe: Regelungstechnik, sind heute aber fast vollständig von den digitalen Computern (die alle nach dem erstgenannten Prinzip arbeiten) verdrängt worden.
Ursprünglich war die Informationsverabeitung in Computern auf die reine Verarbeitung von Zahlen konzentriert, durch zunehmende Leistungsfähigkeit der Geräte wurde es jedoch möglich, auch komplexere Begriffe mit Computern zu verarbeiten. Diese werden letztlich auch wieder auf Zahlen reduziert (so lässt sich das Wort "ABC" zum Beispiel als Abfolge der Zahlen 65, 66, 67 definieren), die der Computer speichern und mit den oben angeführten drei Bausteinen (Berechnung, Vergleich und bedingter Sprung) verarbeiten kann.
Wortherkunft
Heute wird der Begriff "Computer" in erster Linie gleichbedeutend mit Digitalcomputer verwendet. Im allgemeinen Sprachgebrauch bezieht sich das Wort auch häufig auf den Personal Computer.
Das Wort "Computer" stammt aus dem Englischen ("to compute" -> rechnen, "Computer" -> Rechner) bzw. ursprünglich dem Lateinischen ("computare"). Ursprünglich war "Computer" die Bezeichnung für eine Person, die arithmetische Berechnungen anzustellen hatte, mit oder ohne mechanische Hilfsmittel, ähnlich der deutschen Berufsbezeichnung "Kalkulator".
Das deutsche Wort für Computer ist Rechner - mit der exakt gleichen Wortbedeutung. Andere Sprachen konzentrieren sich weniger aufs Rechnen und mehr auf die Sortierung: Das französische ordinateur oder das spanische ordenador gehen in diese Richtung. In Schweden zielt die Sprache mit dator eher auf die Daten ab, und die Chinesen nennen ihn gar dian now, Elektrogehirn.
Funktionsprinzip
Das Funktionsprinzip des heute fast ausschließlich verwendeten Typus des Digitalcomputers hat sich seit seinen Ursprüngen in der Mitte des letzten Jahrhunderts nicht wesentlich verändert, wenngleich die Details der Technologie dramatisch verbessert wurden.
Bei einem Computer werden dabei zwei grundsätzliche Bausteine unterschieden: Da ist zum Einen die Hardware (Festzeugs), die aus den elektronischen, physisch anfassbaren Teilen des Computers gebildet wird, und zum Anderen die Software (Weichzeugs), nämlich die Programmierung des Computers. Ein Computer besteht zunächst einmal nur aus Hardware, aber erst durch seine Software wird er tatsächlich nützlich.
Hardwarearchitektur
Dieses Prinzip, das nach dem Urheber "Von Neumann-Architektur" genannt wird, definiert für einen Computer vier Hauptkomponenten:
- die Arithmetisch-Logische Einheit (ALU)
- die Steuereinheit
- den Speicher und
- die Eingabe-/Ausgabeeinheiten.
In den heutigen Computern sind die ALU und die Steuereinheit meist zu einem Baustein verschmolzen, der so genannten CPU (Central Processing Unit).
Der Speicher ist eine Anzahl von durchnummerierten "Zellen", jede dieser Zellen kann ein kleines Stück Information aufnehmen. Diese Information wird als Binärzahl, also einer Abfolge von ja/nein-Informationen, in der Speicherzelle abgelegt. Charakteristikum der Von Neumann-Architektur ist nun, dass diese Zahl (z.B. 65) entweder ein Teil der Daten sein kann (also z.B. der Buchstabe "A"), oder ein Befehl für die CPU ("Springe...").
In der Von-Neumann Architektur ist die Steuereinheit dafür zuständig, zu wissen, was sich an welcher Stelle im Speicher befindet. Man kann sich das so vorstellen, dass die Steuereinheit einen "Zeiger" auf eine bestimmte Speicherzelle hat, in der der nächste Befehl steht, den sie auszuführen hat. Sie liest diesen aus dem Speicher aus, erkennt zum Beispiel "65", erkennt dies als "Springe". Dann geht sie zur nächsten Speicherzelle, weil sie wissen muss, wo sie hinspringen soll. Sie liest auch diesen Wert aus, interpretiert die Zahl als Nummer (so genannte Adresse) einer Speicherzelle. Dann setzt sie den Zeiger auf eben diese Speicherzelle, um dort wiederum ihren nächsten Befehl auszulesen; der Sprung ist vollzogen. Wenn der Befehl zum Beispiel statt "Springe" lauten würde "Lies Wert", dann würde sie nicht den Programmzeiger verändern, sondern aus der in der Folge angegebenen Adresse einfach den Inhalt auslesen, um ihn dann beispielsweise an die ALU weiterzuleiten:
Die ALU hat die Aufgabe, Werte aus Speicherzellen zu kombinieren. Sie bekommt die Werte von der Steuereinheit geliefert, verrechnet sie (addiert z.B. zwei Zahlen, welche die Steuereinheit aus zwei Speicherzellen ausgelesen hat), und gibt den Wert an die Steuereinheit zurück, die den Wert dann für einen Vergleich verwenden oder wieder in eine dritte Speicherzelle zurückschreiben kann.
Die Ein-/Ausgabeeinheiten schließlich sind dafür zuständig, die initialen Programme in die Speicherzellen eingeben zu können und die Ergebnisse der Berechnung einem Benutzer auch wieder anzeigen zu können.
Softwarearchitektur
Die Von Neumann-Architektur ist gewissermaßen die tiefste Ebene des Funktionsprinzips eines Computers oberhalb der elekrophysikalischen Vorgänge in den Leiterbahnen. Die ersten Copmuter wurden auch tatsächlich so programmiert, dass man die Nummern von Befehlen, die Nummern von bestimmten Speicherzellen, so wie es das Programm erforderte, nacheinander in die einzelnen Speicherzellen einschrieb.
Um diesen Aufwand zu reduzieren, wurden Programmiersprachen entwickelt, die die Zahlen in Speicherzellen, die der Computer letztlich als sein Programm abarbeitet, aus höheren Strukturen heraus automatisch generieren.
Sodann wurden bestimmte, immer wieder vorkommende Prozeduren (zum Beispiel das Interpretieren einer gedrückten Tastaturtaste als Buchstabe "A" und damit als Zahl "65") in so genannten Bibliotheken zusammengefasst, um nicht jedesmal das Rad neu erfinden zu müssen. Auf diesen Bibliotheken wurden noch höherwertige Bibliotheken angesiedelt, die Unterfunktionen zu komplexen Operationen bündeln (zum Beispiel die Anzeige eines Buchstabens "A", bestehend aus 20 einzelnen schwarzen und 50 einzelnen weißen Punkten auf dem Bildschirm, nachdem der Benutzer die Taste "A" gedrückt hat.)
In einem modernen Computer arbeiten also sehr viele dieser Programmebenen über- bzw. untereinander: Komplexere Aufgaben werden in Unteraufgaben zerlegt, um die sich andere Programmier bereits gekümmert haben, die wiederum auf die Vorarbeit anderer Programmierer aufbauen, deren Bibliotheken sie verwenden. Auf der untersten Ebene findet sich dann aber immer der so genannte Maschinencode, jene Abfolge von Zahlen, mit denen der Computer auch tatsächlich rechnen kann.
Typen
Personal-Computer - Mini-Computer - PDAs - Mainframe-Computer - Heimcomputer - Einchip-Computer/Microcontroller - Spielkonsolen - Supercomputer
Hardware
CPU - Speichermedien - Grafikkarte - Hauptplatine -
Software
Betriebssystem - Anwendungsprogramm - Hilfsprogramm - Programmiersprachen
Sicherheit
DoS - DDoS - Exploits - Sicherheitslücke - Betriebssystemsicherheit - Computersicherheit
Geschichte
Levy: Die Entwicklung des Computers
Antike
- Abakus älteste mechanische Rechenhilfe
- Rechenbrett des Pythagoras
- 1614 John Napier publiziert seine Logarithmentafel
- 1623 Erste Vier-Spezies-Maschine durch Wilhelm Schickhard
- 1642 Blaise Pascal baut eine Rechenmaschine
- 1668 Samuel Morland entwickelt eine Rechenmaschine die nicht dezimal addiert, sondern auf das englische Geldsystem abgestimmt ist
- 1673 Rechenmaschine von Gottfried Leibniz
(Mechanische Rechenmaschinen - ein entwicklungsgeschichtlicher Abriss http://www.ph-ludwigsburg.de/mathematik/mmm/geschichte.htm)
- 1805 Joseph-Marie Jacquard entwickelt Lochkarten um Webstühle zu steuern
- 1820 Charles Xavier Thomas de Colmar baut das "Arithmometer", der erste Rechner in Massenproduktion
- Charles Babbage entwickelt die Difference Engine 1822 und die Analytical Engine 1833, kann sie aber aus Geldmangel nicht bauen
- 1843 Edvard und George Scheutz bauen in Stockholm den ersten mechanischen Computer nach den Ideen von Babbage
- 1890 US-Volkszählung mit Hilfe des Lochkartensystems von Herman Hollerith durchgeführt; Torres y Quevedo baut eine Maschine die mit König und Turm einen König matt setzen kann
- 1935 International Business Machines stellt die IBM601 vor, eine Lochkartenmaschine die eine Multiplikation/Sekunde durchführen kann. Es werden ca. 1500 Stück der Maschine verkauft.
- 1937 Alan Turing publiziert einen Artikel der die "Turing-Maschine" beschreibt.
- 1938 Claude Shannon publiziert einen Artikel darüber, wie man symbolische Logik mit Relais implementieren kann
Während des zweiten Weltkrieges gibt Alan Turing die entscheidenden Hinweise zur Entschlüsselung der ENIGMA-Codes und baut einen der ersten elektronisch programmierten Computer. Gegen Ende des Krieges baut Konrad Zuse die erste programmgesteuerte, binäre Rechenmaschine, bestehend aus einer großen Zahl von Relais (erstes funktionstüchtiges Modell Z3 wird 1941 fertiggestellt). Programme werden in der von ihm entwickelten Methodik des Plankalküls programmiert. Zeitgleich werden in den USA ähnliche elektronische Maschinen zur numerischen Berechnung gebaut. Auch Maschinen auf analoger Basis werden erstellt.
- 1941 Konrad Zuse stellt Z3 fertig
- 1943 Tommy Flowers stellt mit seinem Team in Bletchley Park den ersten "Colossus" fertig
- 1944 Fertigstellung des ASCC (Automatic Sequence Controlled Computer, "Mark I" durch Howard H. Aiken)
- 1946 ENIAC (Electronic Numerical Integrator and Computer) wird unter der Leitung von John Eckert und John Mauchly entwickelt
- 1947 IBM baut den SSEC
- 1949 Maurice Wilkes stellt mit seinem Team in Cambridge den "EDSAC" (Electronic Delay Storage Automatic Computer); basierend auf Neumanns EDVAC ist es der erste Rechner, der vollständig speicherprogrammierbar ist (der erste Computer im modernen Sinn)
Die Architektur der Rechenmaschinen Z1 und Z3 http://www.zib.de/zuse/Inhalt/Kommentare/Html/0687/0687.html
Unzufrieden mit der bürokratisierten, zentralen Architektur von Rechenzentren, entwerfen Steven Wozniak und Steve Jobs den ersten Personal-Computer, der alle funktionalen Elemente eines Computersystems enthält, aber von jedermann erworben und verändert werden kann. Bei Xerox PARC werden viele der Konzepte und Techniken, die bis heute in unseren PCs tätig sind, entwickelt.
- 1970 Intel baut mit dem 4004 den ersten Mikroprozessor (2250 Transistoren)
- 1972 der Illiac IV, ein Supercomputer mit Array-Prozessoren geht in Betrieb
- 1973 Xerox Alto - Der erste Computer mit Maus, GUI und eingebauter Ethernet-Karte.
- 1974 Motorola baut den 6800 Prozessor; Intel baut den 8080 Prozessor
- 1976 die Firma Apple Computer bringt den Apple I auf den Markt; Zilog entwickelt den Z80 Prozessor
- 1977 der Apple II, der Commodore PET und der Tandy TRS 80 kommen auf den Markt.
1980er: Boom der Heimcomputer, zunächst mit 8 bit Mikroprozessoren und einem Arbeitsspeicher bis 64 kB (Commodore VC20, C64, Sinclair ZX80/81, Sinclair ZX Spectrum), später auch leistungsfähigere Modelle mit 16 bit Mikroprozessoren (z.B. Amiga, Atari ST, Schneider CPC 464/664)
- 1980 IBM stellt den IBM PC (Personal Computer) vor und bestimmt damit entscheidend die weitere Entwicklung
- 1982 Intel bringt den 80286 Prozessor auf den Markt
- 1983 der Apple Macintosh kommt auf den Markt und setzt neue Maßstäbe für Benutzerfreundlichkeit
- 1986 Intel bringt den 80386 Prozessor auf den Markt; Motorola präsentiert den 68030 Prozessor; Commodore produziert den Amiga Heimcomputer
- 1989 Intel bringt den 80486 auf den Markt
Internet ...
- 1999 Intel baut den Supercomputer ASCI Red mit 9.472 Prozessoren
Gegenwart: Zur Zeit haben allein in Deutschland mehrere Millionen Menschen ein eigenes Computersystem.
Beginn des 21. Jahrhunderts: Weitere Steigerung der Leistungsfähigkeit, fortschreitende Verkleinerung und Integration von Telekommunikation und Bildbearbeitung. Allgemeine, weltweite Verbreitung und Akzeptanz. Wechsel von klassischen Informationsdienstleistungen (Datendienste, Vermittlung, Handel, Medien) in das digitale Weltmedium Internet.
- 2001 IBM baut den Supercomputer ASCI White
- 2002 der NEC Earth Simulator geht in Betrieb
Stichworte zur Geschichte der Rechentechnik:
ARPANET, Gunter, Hahn, Hamann, Logaritmustafeln, OHDNER, OUGHTRED, PARTRIDGE, Pascal, Rechenschieber, Rechenstab, ROTH, Sprossenradmaschine, Zweispeziesrechner
Zukunft
Zukünftige Entwicklungen bestehen aus der möglichen Nutzung biologischer Systeme (Biocomputer), optischer Signalverarbeitung und neuen physikalischen Modellen (Quantencomputer). Weitere Verknüpfungen zwischen biologischer und technischer Informationsverarbeitung. Nicht zu vergessen bessere Expertensysteme und Künstliche Intelligenzen, die ein Bewusstsein entwickeln oder sich selbst verbessern.
Weblinks:
- Virtuelles Computermuseum: http://www.homecomputermuseum.de
- Computergeschichte: http://www.computergeschichte.de
- Größtes (angeblich) Computermuseum der Welt in Paderborn: http://www.hnf.de
Siehe auch:: Logikus Spielcomputer