Zum Inhalt springen

Virtuelle Maschine

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 19. Februar 2015 um 13:04 Uhr durch 78.94.244.178 (Diskussion). Sie kann sich erheblich von der aktuellen Version unterscheiden.
virtuelle Maschine in VirtualBox

Als virtuelle Maschine (kurz ITAVM) wird in der Informatik die Nachbildung eines Rechnersystem bezeichnet. Die virtuelle Maschine bildet die Rechnerarchitektur eines real in Hardware existierenden oder hypothetischen Rechners nach.[1] Die abstrahierende Schicht zwischen realem Rechner (auf dem die virtuelle Maschine ausgeführt wird) und virtueller Maschine wird Hypervisor oder Virtual Machine Monitor genannt und seine Implementierung erfolgt rein hardwarebasiert, rein softwarebasiert oder durch eine Kombination aus Beidem. Der Hypervisor erlaubt in der Regel den Betrieb mehrerer virtueller Maschinen gleichzeitig auf einem physischen Rechner.

Typen virtueller Maschinen

Virtuelle Maschinen werden heute danach eingeteilt, in welchem Umfang sie die Funktionalität eines realen Rechners nachstellen. Systembasierte virtuelle Maschinen bilden einen Rechner so vollständig nach, dass Betriebssysteme, die für den realen Rechner entworfen wurden, sich auf der virtuellen Maschine genauso wie auf dem entsprechenden realen Rechner ausführen lassen.[2] Dieser Ansatz wird auch als vollständige Virtualisierung bezeichnet.[3] Er basiert im Wesentlichen auf der von Robert Goldberg und ITA Gerald Popek 1972 noch enger gefasst Definition:

„Eine virtuelle Maschine ist ein effizientes, identisches und isoliertes Duplikat eines echten Prozessors.“[4]

Beispiele für bekannte Produkte die Virtualisierung mit Hilfe systembasierter virtueller Maschinen realisieren sind Microsoft's Hyper-V oder VMWare's vSphere.

Im Gegensatz dazu erlauben es prozessbasierte virtuelle Maschinen nur einzelne Programme abstrahiert von der Ausführungsumgebung einer Rechnerarchitektur auszuführen, indem sie eine darauf aufbauende Laufzeitumgebung bereitstellen.[5] Meist werden solche virtuellen Maschinen auf mehrere Rechnerarchitekturen bereitgestellt, wodurch die Anwendung dann auf all diesen Plattformen ohne Änderung ausgeführt werden kann. Bekannte Beispiele solcher Umgebungen mit entsprechenden virtuellen Maschinen sind die Java Laufzeitumgebung als Teil der Java-Plattform und die Common Language Runtime als Teil des .Net-Framworks.

Systembasierte virtuelle Maschinen

Geschichte

Der Wunsch, mehrere Betriebssysteme gleichzeitig auf einem Rechner betreiben zu können, war die ursprüngliche Motivation zur Einführung systembasierter virtueller Maschinen. IBM's 1966 erstmals veröffentlichte CP/CMS war das erste Betriebssystem, welches vollständige Virtualisierung unterstützte und es dadurch mehreren Benutzern erlaubte, gleichzeitig auf einem physischen Rechner jeweils ein eigenes Einzelbenutzerbetriebssystem unabhängig zu nutzen.[6]

In ihrem Artikel Formal Requirements for Virtualizable Third Generation Architectures von 1974 legten Gerald J. Popek and Robert P. Goldberg die formalen Grundlagen und stellen die grundlegenden Anforderungen an eine Architektur dar, um virtuelle Maschinen mit Hilfe eines Hypervisors zu unterstützen.[4]

Vor- und Nachteile des Einsatzes systembasierter virtueller Maschinen

Der Einsatz von systembasierten virtuellen Maschinen bietet gegenüber der direkten Ausführung von Betriebssystemen auf dem Rechner einige Vorteile:

Mehrere Betriebssysteme gleichzeitig:

  • unterschiedliche Betriebssysteme können gleichzeitig auf der gleichen physischen Maschine betrieben werden. Dadurch können Ressourcen des physischen Rechners (z. B. der Prozessor) besser ausgenutzt werden, da mehrere Betriebssysteme sich diese teilen können. Auch können unterschiedliche Betriebssystemversionen oder Systeme von unterschiedlichen Betriebssystemherstellern parallel betrieben werden.

Unterstützung unterschiedlicher Instruktionssätze:

  • die virtuelle Maschine kann eine Befehlssatzarchitektur unterstützen, die von der der physischen Maschine abweicht. Dadurch können Betriebssysteme ausgeführt werden, die auf der realen Hardware gar nicht lauffähig wären.

Günstigerer und vereinfachter Betrieb:

  • Insbesondere in Rechenzentren müssen sehr viele Systeme parallel betrieben werden. Durch den Einsatz von virtuellen Maschinen muss nicht für jedes System eigene Hardware bereitgestellt werden, sondern unterschiedliche Systeme teilen sich eine sehr leistungsfähige Plattform. Da der Betrieb einer sehr leistungsfähigen Plattform in der Regel wirtschaftlicher ist als der Betrieb vieler kleinerer Plattformen mit der (insgesamt) gleichen Leistung, bietet sich der ITA Ansatz der Virtualisierung für Rechenzentren (siehe auch Rezentralisierung) an.

Allerdings „erkauft“ man sich diese Vorteile auch mit einige Nachteilen, die sich gegenüber direkter Ausführung des Betriebssystems auf dem Rechner ergeben:

Effizienzverlust:

  • eine virtuelle Maschine ist weniger effizient als die reale Maschine, da ein Teil der Leistungsfähigkeit für den Betrieb des Hypervisors (als die Verwaltung der virtuellen Maschinen) verwendet werden muss.

Gegenseitige Beeinflussung gleichzeitig betriebener virtueller Maschinen:

  • wenn mehrere virtuelle Maschinen parallel betrieben werden, ist zwar durch den Hypervisor eine Trennung sichergestellt, jedoch teilen sie sich die (beschränkten) Ressourcen des physischen Rechners. Da das Lastverhalten anderer virtueller Maschinen für eine einzelne VM nicht vorhersehbar und beeinflussbar ist, können Lastspitzen zu unstabiler bzw. nicht vorhersagbarer Leistungsfähigkeit einzelner oder aller gleichzeitig betriebener virtuellen Maschinen führen, wenn der Hypervisor hier nicht gesonderte Vorkehrungen trifft (z. B. durch Zusicherung von Ressourcen für einzelne VMs).

Neuartige Herausforderungen bzgl. Sicherheit und Datenschutz:

  • Schutzmechanismen gegen Viren und Malware wurden bisher auf Betriebssystemebene umgesetzt und schützten so den Benutzer. Durch den Einsatz von Hypervisoren entsteht eine neue Angriffsmöglichkeit, nämlich der Hypervisor selbst, um Schadcode auf dem Rechner auszuführen. Daher sind neuartige Schutzmechanismen über die bisher bekannten hinaus erforderlich.

Neue Herausforderungen hinsichtlich der Lizenzierung von ITAsystemen

  • Während die Lizenzierung eines Betriebssystems früher an einen jeweiligen physischen Rechner mit seinen Eigenschaften (z. B. Anzahl Prozessoren, Speichergröße) gebunden war, ist das durch die Virtualisierung nicht mehr ohne weiteres möglich (es muss kein Rechner mehr mit der tatsächlichen Speichergröße oder Anzahl Prozessoren existieren, sondern er existiert ggf. nur virtuell). Dies zwingt Hersteller und Kunden zur Auseinandersetzung mit teils recht komplizierten Lizenzmodellen. Bestimmte Hersteller (z. B. Apple) erlauben auch gar keine Virtualisierung ihrer Betriebssysteme.

Methoden

Hypervisor
Hardware-Emulation
Hardware-Virtualisierung
Paravirtualisierung

Anwendungsszenarien

Prozessbasierte virtuelle Maschinen

Geschichte

Die Geschichte der prozessbasierten virtuellen Maschinen begann mit dem bahnbrechenden Aufsatz Transportability of Software Applications on Microcomputers von W. Wellbourne (1983) und der vorausgegangenen Arbeit A Comparison of Pascal Intermediate Languages von P. Nelson (1979).[7] Es geht hier um die Lösung des Problems, Anwendungscode, der für eine Rechnerarchitektur entwickelt wurde, ohne Änderungen auf einer anderen Rechnerarchitektur auszuführen. Insbesondere um den Portierungsaufwand für Anwendungen von einer Architektur zu anderen, der für jede neue Rechnerarchitektur entsteht, gering zu halten.

Vor- und Nachteil des Einsatzes prozessbasierter virtueller Maschinen

Der Einsatz von prozessbasierten virtuellen Maschinen bietet folgende Vorteile:

Der Einsatz von prozessbasierten virtuellen Maschinen hat folgende Nachteile:

  • Die Ausführung eines portablen Programms auf einer portablen virtuellen Maschine ist langsamer als die native Ausführung eines Programms, das speziell für die Zielumgebung übersetzt wurde.
  • Bei Verwendung eines Interpreters ergeben sich zusätzliche Indirektionen, was ineffizienter ist als direkte Ausführung.
  • Dynamische Übersetzung zur Laufzeit (JIT-Compiler) löst zwar die meisten Indirektionen auf und sorgt für großteils direkte Ausführung, jedoch erfordert die Übersetzung selbst zusätzlichen Aufwand, bis der Code direkt ausgeführt werden kann (jedoch nur im Moment der Übersetzung, nicht mehr bei späteren Durchläufen).

Diese Nachteile können durch geeignete (z. B. dynamische) Optimierung verringert werden. Eine weitere Möglichkeit ist die automatische Kompilierung mittels Ahead-of-time-Compiler unmittelbar vor der Ausführung. Damit wird das Backend eines hochoptimierenden, maschinenorientierten Compilers unmittelbar auf dem Anwendersystem ausgeführt. Dadurch kann der Compiler noch spezifischere Optimierungen für das System des Anwenders vornehmen, als es bei einem vorkompilierten Programm ohne spezielle Optimierungen für das System bzw. den Prozessor des Anwenders möglich wäre.

Anwendungsszenarien

Siehe auch

Literatur

Einzelnachweise

  1. Springer Gabler Verlag (Herausgeber), Gabler Wirtschaftslexikon, Stichwort: virtuelle Maschine, online im Internet:
  2. James E. Smith, Ravi Nair, Virtual Machines: Versatile Platforms For Systems And Processes, Morgan Kaufmann, Mai 2005, ISBN 1-55860-910-5, S.8
  3. eLecure Uni Freiburg - Vorlesung Systeme I - Kapitel 2 - Seite 2
  4. a b Gerald J. Popek and Robert P. Goldberg: Formal Requirements for Virtualizable Third Generation Architectures. In: Communications of the ACM. 17. Jahrgang, Nr. 7, 1974, S. 412–421, doi:10.1145/361011.361073 (http://doi.acm.org/10.1145/361011.361073 ITA).
  5. James E. Smith, Ravi Nair, Virtual Machines: Versatile Platforms For Systems And Processes, Morgan Kaufmann, Mai 2005, ISBN 1-55860-910-5, S.10
  6. R. J. Creasy, "The origin of the VM/370 time-sharing system", IBM Journal of Research & Development'ITA', Vol. 25, No. 5 (September 1981), pp. 483–90, PDF
    ― perspective on CP/CMS and VM history by the CP-40 project lead, also a CTSS author
  7. Bator,Ferenc, "Virtuelle Maschinen",2005