Servervirtualisierung: Was ist das eigentlich?

Servervirtualisierung: Was ist das eigentlich?
Je größer ein Rechenzentrum wird, desto mehr ungenutzte Ressourcen sammeln sich an - die Platz, Energie und schlussendlich Geld kosten. Foto: ColossusCloud/pixabay.com

In der Regel beherbergen Server eine Applikation bzw. werden für eine Aufgabe genutzt. Dies ist notwendig, da die Applikationen nicht gemeinsam mit anderen auf der selben Hardware oder dem selben Betriebssystem funktionieren. Das Problem dabei: die Serverkapazitäten werden kaum ausgeschöpft und Rechenleistung bleibt unangetastet. Je größer ein Rechenzentrum wird, desto mehr ungenutzte Ressourcen sammeln sich an – die Platz, Energie und schlussendlich Geld kosten.

Die Lösung dieses Problems heißt Servervirtualisierung. Seit über 10 Jahren gibt es die Technologie für x86-Server, jedoch scheuen immer noch viele die Implementierung. Professionelle Dienstleister wie Bechtle Steffen übernehmen die Einrichtung, welche viele Möglichkeiten bietet.

Was ist Servervirtualisierung?

Bei einer Servervirtualisierung unterteilt ein Administrator einen physikalischen Server in mehrere virtuelle Maschinen. Diese sind voneinander isoliert, nutzen allerdings die gleiche Hardware. Dafür wird eine Abstraktionsebene (Hypervisor) zwischen Hardware und Betriebssystem erschaffen. Dies ermöglicht das Erstellen Virtueller Maschinen, die einen physikalischen Server inklusive Memory, CPU, Schnittstellen etc. emulieren. Doch anders als klassische Emulatoren arbeiten Virtualisierungs-Systeme direkt mit der physikalischen Host-Hardware. Nur die Peripherie und Einsteckkarten wie Grafikkarte oder Festplattencontroller werden emuliert. Ziel einer solchen Virtualisierung ist die Konsolidierung von vielen wenig ausgelasteten Servern auf wenige gut ausgelasteten Server.

Welche Arten der Virtualisierung gibt es?

Es wird grundlegend zwischen 3 Ansätzen unterschieden:

1. Virtuelle Maschinen

Diese Variante funktioniert nach dem Host/Gast Paradigma. Der physische Server ist dabei der Host und die virtuellen Maschinen (VM) sind die Gäste. Für jeden Gast wird die Hardwareebene separat emuliert. Dadurch sind mehrere Gäste auf einem Host möglich. Diese sind komplett voneinander isoliert, unabhängig und können damit auch unterschiedliche Betriebssysteme nutzen. Eine VM kann beispielsweise rebooten ohne andere VMs zu beeinflussen. Die VM wissen weder voneinander noch von der Hostsoft- und Hosthardware. Sie arbeiten wie mit realen physischen Komponenten.

Der Hypervisor – auch als Virtual Machine Monitor (VMM) bezeichnet – ist für die Koordination aller Befehle an die CPU zuständig. Er überwacht die Ressourcen und verwaltet und bestätigt jeden ausgeführten Code. Das Emulieren kostet dem Gesamtsystem jedoch Systemleistung (Virtualisierungsschwund). Je nach Virtualisierungssoftware und Zugriffsart liegt dieser Verlust zwischen 5 und 25 %. Neuste Software versucht diesen Schwund durch eine effizientere Kontrolle so niedrig wie möglich zu halten.

2. Paravirtuelle Maschinen

Stützt sich auch auf das Host/Gast Paradigma und verwendet ebenfalls eine VMM. Anders als bei den VM kommunizieren die einzelnen Gäste aber direkt mit dem VMM und nicht mit der physikalischen Hardware. Dadurch weiß ein Gastsystem von der virtuellen Hardware und greift dabei auf eine angepasste Version zu. Alle VM wissen voneinander und kennen die jeweiligen Anforderungen an die Rechenleistungen. Die VM bilden also eine Einheit, wodurch die physikalische Hardware dynamisch an die jeweiligen Anforderungen der einzelnen Gäste aufgeteilt werden kann. Durch dieses Arbeitsprinzip wird der Hypervisor stark entlastet und es muss nur noch eine virtuelle Hardware abgebildet werden. Dadurch ist der Gast-Zugriff auf die Hardware verbessert.

3. Virtualisierung auf Betriebssystem-Ebene

Anders als in den zwei vorherigen Varianten gibt es hier nur ein Betriebssystem – das des physikalischen Servers. Es übernimmt alle Funktionen des Hypervisors. Jede VM agiert unabhängig, einzelne Fehler betreffen die anderen VMs nicht. Jedoch läuft alles auf dem gleichen Betriebssystem, dessen Bibliotheken und Programme werden gemeinsam genutzt, auch bei laufenden Prozessen. Systemaufrufe zwischen den Schichten sind beseitigt, was die CPU-Auslastung reduziert und die Arbeitsgeschwindigkeit erhöht. Zudem benötigt ein solcher virtueller Server nur sehr wenig Speicher.

Wann ist Servervirtualisierung sinnvoll?

Prinzipiell gilt: Wenn ungenutzte Ressourcen vorhanden sind. Technisch sinnvoll wird die Servervirtualisierung aber erst ab 5 Servern, bei weniger Servern ist das Ausfallrisiko durch die Konsolidierung schlicht zu hoch.

Im Vorfeld ist eine Bedarfsanalyse unablässig. Ein Virtualisierungsprojekt ist sehr komplex, ohne Analyse laufen vor allem kleine und mittelständische Unternehmen Gefahr, über- oder unterdimensioniert zu investieren. Dies ist im besten Fall nur teuer, im schlimmsten Fall führt es zu einer Nichtfunktion des Systems. Bei ressourcenintensiven Anwendungen, die viel CPU, RAM oder Speicher benötigen, ist eine Virtualisierung weniger sinnvoll.

Welche Vorteile hat Servervirtualisierung?

Richtig angewendet profitiert der Anwender von einer Reihe von Vorteilen, die den Arbeitsprozess und die Hardware-Funktionalität optimieren:

1. Optimale Hardware-Auslastung

Tools und Applikationen müssen nicht mehr isoliert auf eigenen Servern gespeichert werden, bei den virtuellen Servern können sowohl die Server als auch ihre Anwendungen sauber voneinander isoliert werden. Das spart nicht nur Hardware sondern sorgt für eine optimale Auslastung von CPU, Memory und Speicher.

2. Platz- und Energieeinsparung

Weniger physikalische Speicher bedeutet kleinere Rechenzentren und eine enorme Reduktion des Energiebedarfs.

3. Moderne Hardware trotz alter Anwendungen

Alte Anwendungen, die auf neuer Hardware nicht mehr laufen, können auf virtuellen Servern weiterhin betrieben werden – dazu werden ganz einfach das alte Betriebssystem und die alte Hardware emuliert.

4. Problemlose Anpassung

Dank der Unabhängigkeit zur Hardware können virtuelle Maschinen leicht verändert und verschoben werden. Wartungszeiten können somit optimal geplant werden. Systeme lassen sich im laufenden Betrieb von einem Server zum anderen verschieben.

5. Kostenersparnis

Ein kleineres Rechenzentrum heißt vor allem weniger Energie- und Hardwarekosten. Zudem muss nicht mehr so viel in die Wartung investiert werden.

6. Flexibles IT-Management

Der Administrator kann im Notfall auch vom Home-Office aus auf Server zugreifen.

7. Eigenes Testcenter

Sowohl virtuelle als auch frei gewordene physikalische Server können gut für ein eigenes Testcenter für neue Applikationen genutzt werden.

8. Kein Lock-In des Anwenders

Neue Hardware kann sehr schnell virtualisiert bereitgestellt werden, der virtuelle Server läuft unabhängig von der zugrunde liegenden Hardware.

9. Cloud-Computing

Mit virtualisierten Servern ist die Cloud nicht mehr weit entfernt – mit dem von der Hardware-Schicht abgekoppelten Server kann das firmeninterne Rechenzentrum private Clouds für seine Mitarbeiter und Kunden anbieten.

10. Virtuelles Disaster Recovery

Die Disaster Recovery basiert auf drei Komponenten der virtuellen Infrastruktur: Dank der VMs und deren Unabhängigkeit zur Host-Hardware können Applikationen und Tools einfach gespiegelt werden. Prinzipiell ist die Hardware kleiner dimensioniert. Zudem werden meist Softwaretools für einen automatisierten Failover-Prozess mitgegeben.

Abonniere uns

Gib deine E-Mail-Adresse an, um diesen Blog zu abonnieren und Benachrichtigungen über neue Beiträge via E-Mail zu erhalten.

Über Marvin 717 Artikel
Marvin hat seine Ausbildung zum IT-Systemkaufmann 2011 bei der Deutschen Telekom AG abgeschlossen und bloggt seit 2014 regelmäßig rund um die Themen Ausbildung, Karriere, Wirtschaft und IT auf itsystemkaufmann.de. Außerdem hat er sich seit vielen Jahren dem Online-Marketing verschrieben und ist als selbstständiger Online-Marketing-Berater unter www.web-malocher.de tätig.

Hinterlasse jetzt einen Kommentar

Kommentar hinterlassen

E-Mail Adresse wird nicht veröffentlicht.