Multi-NIC vMotion Performance von VMware vMotion erhöhen

Das von VMware schon 2003 ent­wickelte vMotion erlaubt einen unter­brechungs­losen Umzug von laufen­den virtu­ellen Maschinen zwischen ESXi-Servern, etwa für die Hardware-Wartung oder zur manu­ellen bzw. auto­matischen (DRS) Last­verteilung. Die parallele Nutzung mehrerer Netz­werk­karten be­schleunigt diesen Vor­gang.

vMotion ist das eigentliche Killer-Feature, das aus einem Produkt für die Server-Konsolidierung eine Business-Continuity-Lösung machte. Mit vMotion muss nämlich ein Rechen­zentrum keinen Ausfall von Anwendungen mehr hin­nehmen, nur weil einige Infrastruktur­komponenten ersetzt werden müssen. VMware hat das vMotion-Feature über die Jahre immer weiter ausgebaut. Hier die technologische Timeline zu vMotion bis vSphere 6.0, noch ohne Encrypted vMotion, das in der Version 6.5 hinzukam:

vMotion wurde von VMware in seiner Funktionalität immer mehr erweitert.

Grundlegendes Netzwerk-Design für vMotion

Vor vSphere 5 war das Entwerfen eines vMotion-Netzwerks relativ einfach. Man wählte nach Möglich­keit die schnellste physische Netzwerk­karte aus und fügte diese einem vMotion-Kernel-Adapter (VMknic) hinzu. So unter­stützte beispiels­weise schon vSphere 4.x Netzwerke mit 1 GB und 10 GB.

Die Einrichtung in Kurzform:

  1. VMkernel-Adapter auf einen Standard-vSwitch erstellen
  2. vMotion-Checkbox aktivieren
  3. IP-Adresse von Quell- und Ziel-Host im gleichen Subnetz, ggf. auch gleiches VLAN
  4. Zuweisen einer physikalischen NIC
vMotion erfordert erstmal grundsätzlich einen eigenen VMKernel-Adapter für das vMotion-Netzwerk.

Multiple-NIC-vMotion

vSphere verteilt seit der Version 5.x vMotion-Vorgänge stets auf alle dafür verfügbaren Netzwerk­karten. Das gilt sowohl für eine einzelne als auch für mehrere gleichzeitige VM-Migrationen. So lässt sich durch Verwenden mehrerer NICs die Dauer eines vMotion-Vorgangs reduzieren.

Das bietet gleich mehrere Vorteile:

Manuelle vMotion-Prozesse: Weist man dem vMotion-Prozess indirekt mehr Bandbreite zu, verkürzt das allgemein die Migrations­zeiten.

DRS-Lastausgleich: Aufgrund der kürzeren Zeit pro Migration und der höheren Anzahl der gleichzeitigen vMotion-Prozesse reduziert DRS bei Multiple-NIC-vMotion die Anzahl der Last­ausgleichs­vorgänge zwischen zwei Last­ausgleichs­läufen.

Dies kommt wiederum dem Load-Balancing des Clusters insgesamt zugute. Ein besserer Lastausgleich bewirkt eine höhere Verfügbarkeit von Ressourcen für die virtuellen Maschinen, was zu einer besseren Leistung für die Anwendungen führt.

Wartungsmodus: Kürzere Migrations­zeiten bedeuten auch, dass ein einzelner Host weniger Zeit benötigt, um in den Wartungs­modus zu wechseln. Mit einem höheren Konsoli­dierungsgrad nimmt insgesamt die Zeit zu, die für die Migration aller virtuellen Maschinen vom Host erforderlich ist.

Multi-NIC-Setup

Der VMotion-Prozess nutzt für den Lastausgleich immer den VMKernel-Port (VMknic), anstatt Pakete direkt an eine physische Netzwerk­karte zu senden. Um also mehrere NICs für vMotion verwenden zu können, benötigt man mehrere VMKernel-Adapter.

Hier weiterlesen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.