Verbesserung der ITund

Gesponsert von Verbesserung der ITund Unternehmensflexibilität in MultiHypervisorUmgebungen Bernd Harzog Analyst – Virtualisierungsleistungs- und Ka...
1 downloads 2 Views 281KB Size
Gesponsert von

Verbesserung der ITund Unternehmensflexibilität in MultiHypervisorUmgebungen Bernd Harzog

Analyst – Virtualisierungsleistungs- und Kapazitätsverwaltung The Virtualization Practice

Verbesserung der IT- und Unternehmensflexibilität in Multi-Hypervisor-Umgebungen

Zusammenfassung Virtualisierungsumgebungen stellen einzigartige Herausforderungen dar, diese lassen sich am besten mit Tools meistern, die speziell für diese Umgebungen erstellt wurden. Da sich der Markt für Virtualisierungssoftware ständig weiterentwickelt, haben die User heutzutage weitaus mehr Optionen als nur VMware. Jedoch treten mit der Einführung neuer Hypervisors auch neue Herausforderungen auf, vor allem in Umgebungen, in denen verschiedene Hypervisors gleichzeitig nebeneinander laufen. Verwaltungslösungen, die mehrere Hypervisors unterstützen, erlauben es Administratoren, mit einem einzigen Tool, die Vorteile der Virtualisierung auf einer tieferen Ebene anzuwenden. Unternehmen wiederum profitieren auch weiterhin ganz erheblich von den Vorteilen der Virtualisierung, wie z.B. eine verbesserte ITFlexibilität, ohne darauf aufgrund der zusätzlichen Komplexität, die mehrere Virtualisierungsplattformen mitbringen, verzichten zu müssen.

2

Verbesserung der IT- und Unternehmensflexibilität in Multi-Hypervisor-Umgebungen

Zusammenfassung

2

Die Herausforderungen bei der Verwaltung virtualisierter Umgebungen

5

Zeitkontrollprobleme bei virtuellen Maschinen

5

Dichte und Virtualisierung

5

Dynamische Abläufe

6

Programme für die Verwaltung von Anwendungen

6

Virtualisierte Desktops (VDI)

7

Überholte (physische) Verwaltungsansätze

8

Virtualisierung Ihrer wichtigsten Haupt-Anwendungen – Folgen für die Verwaltung

9

Zentralisierte „Besitzverhältnisse" der Server-Ressourcen

9

Bedarf von Unternehmen an Service-Level-Management

9

Die Entstehung der Multi-Hypervisor-Umgebung

9

Mehrere tragfähige Hypervisor-Optionen dank heranreifendem Markt

9

Gründe für mehr als nur einen Hypervisor

10

Prognostizierte Hyper-V-Einführungsrate

10

Die Vorteile einer Cross-Hypervisor-Verwaltung

11

Niedrigere Anschaffungskosten für Tools

11

Niedrigere Schulungs- und Betriebskosten für Tools

12

Verwalten von Anwendungen auf mehreren Hypervisoren

12

Übersichtliches Verwaltungssystem

12

Die Herausforderungen bei der Cross-Hypervisor-Verwaltung

13

Häufig auftretende Fehler bei der physischen Verwaltung

13

Mehrfacher und gemischter Plattform Support

13

Starke Zunahme von Verwaltungstools

14

Wiederholung vergangener Fehler

14

Bewährte Verfahren für eine Cross-Hypervisor-Verwaltung

14

Überwachung der physischen Server und des Netzwerks

14

Überwachung der Speicherung

15

3

Verbesserung der IT- und Unternehmensflexibilität in Multi-Hypervisor-Umgebungen

Überwachung der Ressourcenauslastung

15

Kapazitätsplanung- und -verwaltung

15

Überwachung von Konfigurationsänderungen

16

Kostenausgleich

16

Topologieerkennung und Mapping

16

Die Kosten-Nutzen-Analyse für die Virtualisierung der CrossHypervisor-Verwaltung

17

Schlussbetrachtung 18

4

Verbesserung der IT- und Unternehmensflexibilität in Multi-Hypervisor-Umgebungen

Die Herausforderungen bei der Verwaltung virtualisierter Umgebungen Um verstehen zu können, wie sich die Virtualisierung auf das Leistungsmanagement auswirkt, muss man erst einmal die grundlegende Funktionsweise der Virtualisierung begreifen. Der Hypervisor teilt sich die physischen Ressourcen auf dem Server mit mehreren Gast-Betriebssystemen (normalerweise Windows-Server-Betriebssysteme), die nicht erkennen, dass sie selbst nicht mehr die alleinige Kontrolle über die physischen Ressourcen des Hostservers haben. Hinzu kommen eine Reihe weiterer Faktoren (siehe unten), die wiederum neue Herausforderungen schaffen.

Zeitkontrollprobleme bei virtuellen Maschinen Ist ein Betriebssystem erst einmal virtualisiert, besitzt dieses Betriebssystem nicht länger die Kontrolle über die Systemuhr auf dem Server oder dem Arbeitsplatzrechner, wo das Betriebssystem läuft. Die Kontrolle über die Systemuhr ist in der Hand des Host-Betriebssystems oder Hypervisors des Virtualisierungsprodukts (z.B. VMware vSphere oder Microsoft Hyper-V). Der Hypervisor vergibt speicher- und zeitbasierte Ressourcen auf Grundlage von Planungsalgorithmen und Konfigurationseinstellungen an die Gäste. Das wiederum bedeutet aber auch, dass alle Produkte, die sich auf die Programme der Gast-Betriebssysteme stützen, dazu verurteilt sind, Daten zu sammeln, die durch den Virtualisierungsprozess verzerrt wurden. Ein Beispiel dafür ist das Programm, das in das Windows-Betriebssystem eingebaut wurde, um für Perfmon, Task Manager, und WMI (also alle fremden Verwaltungsprodukte) Daten bereitzustellen. Zeitbasierte Daten, wie z.B. die CPU-Auslastung auf dem Gast insgesamt sowie die CPUAuslastung je Prozess, die auf einem Windows-Gast gesammelt werden, sind somit nicht intakt. VMware hat dieses Problem dadurch gelöst, indem es die erforderlichen Auslastungsdaten der Ressourcen direkt vom Hypervisor zieht und diese Daten über die vSphere APIs zur Verfügung stellt.

Dichte und Virtualisierung Virtualisieren bedeutet zusammenführen und verdichten. Das heißt, viele verschiedene und dezentrale Systeme werden zusammengefasst und auf einigen wenigen physischen Servern gebündelt, womit eine Reduzierung von Ressourcen, Netzwerkleitungen und SAN-Zugriffsinfrastruktur einhergeht. Eine derartige Erhöhung der Dichte von Anwendungssystemen schafft oft unvorhersehbare Engpässe bei der Anwendungsinfrastruktur. Anwendungen, die vorher über eigene CPUs, Speicher und sogar Datenträgerressourcen verfügten, müssen sich nun diese Ressourcen in einem Serverpool teilen. Jede Anwendung ist jetzt Spannungsabfällen ausgesetzt, die

5

Verbesserung der IT- und Unternehmensflexibilität in Multi-Hypervisor-Umgebungen

durch Lastspitzen in anderen Anwendungen verursacht werden, welche vorher physisch getrennt waren. Darüber hinaus empfangen Switches, SANs und Speicher-Arrays, die ehedem Lasten von hochgradig verteilten Servergruppen erhielten, inzwischen eine wesentlich konzentriertere Last von einer viel kleineren Servergruppe.  All dies zusammen schafft dahingehend funktionale Verwaltungsprobleme. Man muss wissen, wo sich auftretende Engpässe befinden. Die dafür notwendigen Lösungen und Tools müssen bei der Kapazitätsplanung die Virtualisierung mit Ihren konsolidierten Eigenschaften berücksichtigen.

Dynamische Abläufe VMware VMotion, Microsoft Hyper-V Live Migration und ähnliche Features auf anderen Virtualisierungsplattformen ermöglichen es den Verarbeitungsprozessen, entsprechend den Ressourcenschwellwerten und Regeln automatisch von Server zu Server zu wechseln. Hatte sich in Zeiten vor der Virtualisierung ein Administrator auf einen physischen Server aufgeschaltet, waren die Umgebung und die daran gestellten Anforderungen normalerweise hinlänglich bekannt. Das Verschieben von Kapazitäten schafft neue Probleme bei der Verdichtung und der gemeinsamen Nutzung von Ressourcen, zumal die Produkte, die für das automatische Verschieben der Gäste zuständig sind, dabei nicht wirklich über leistungsbezogene End-to-End-Transparenz verfügen.

Programme für die Verwaltung von Anwendungen Es ist von einigen Ausnahmen abgesehen nicht empfehlenswert, Managementagenten in virtuellen Maschinen zu installieren. Der Grund dafür ist ganz einfach: in einer virtualisierten Umgebung wird die Zuständigkeit für die Planung und Belegung der physischen CPU und Speicherressourcen dem Betriebssystem in der VM (virtuelle Maschine) entzogen und vom Hypervisor übernommen. In dieser Situation ist der effizienteste (und daher auch der kompakteste und am wenigsten kostspielige) Ansatz der, dass der Hypervisor nur denjenigen Aktivitäten Kapazitäten zuweist, die die Ausführung von Anwendungen unterstützen. Einen Managementagenten in der VM zu installieren, der in regelmäßigen Abständen ausgeführt werden muss, ist also ineffizient. Die Tatsache, dass es viele virtuellen Maschinen auf einem Host gibt und daher möglicherweise viele Managementagenten pro Host (im Gegensatz zu nur einem einzigen pro Host in einer physischen Welt) potenziert das Problem. Zudem ist da auch noch die Frage nach der Wirksamkeit dieses Ansatzes. Ins¬besondere Systemverwaltungsagenten (Überwachungsprogramme), die Daten aus dem Betriebssystem sammeln sollen, sind aus den oben genannten Gründen der Zeitkontrolle geradezu dazu prädestiniert, verfälschte Daten zu erfassen. Aus genau diesem Grund macht VMware Daten, die normalerweise über Systemverwaltungagenten und Prozessverwaltungsprotokolle wie z.B. WMI gesammelt werden, über die

6

Verbesserung der IT- und Unternehmensflexibilität in Multi-Hypervisor-Umgebungen

vCenter APIs verfügbar, wodurch diejenigen Daten aufgerufen werden, die vCenter direkt vom Hypervisor sammelt. Aus diesen Gründen empfiehlt es sich, Verwaltungsagenten nicht in virtuellen Maschinen zu installieren und laufen zu lassen. Das wiederum bedeutet allerdings meist auch, dass bei der Virtualisierung eines physischen Servers dessen Verwaltungsagenten entfernt und durch für eine Virtualisierungsumgebung geeignete Alternativen ersetzt werden sollten. Aus diesem Grund gibt es Anbieter für Virtualisierungssicherheit, virtualisierte Konfigurationsverwaltung, Verwaltung der Virtualisierungsleistung und virtualisiertes Backup aus einem Guss. Die offensichtlichen Ausnahmen dieser Regel sind Applications Performance Management (APM)-Agenten, die entweder in der Laufzeitumgebung (JVM oder .NET CLR) oder in der Anwendung selbst installiert sind. Es ist schlichtweg nicht möglich, die von einem APM-Programm bereitgestellten Funktionen mit den aus dem Hypervisor gesammelten Daten zu replizieren.

Virtualisierte Desktops (VDI) Während sich die meisten IT-Abteilungen auf die Virtualisierung ihrer sporadisch genutzten Serverfarmen konzentriert haben, entschieden sich viele von ihnen aber auch dafür, Enduser-Desktops zu virtualisieren. Dies wird durch die Schaffung eines Hostservers erreicht, der viele (manchmal 200 bis 300) Instanzen von Windows XP als Gäste hat. Jeder WindowsGast ist in Wirk¬lichkeit aber die Desktop-Rechner-Umgebung eines Users. Einige IT-Abteilungen entscheiden sich aber auch dafür, die Anwendungen dynamisch über Produkte wie Microsoft App-V (von Softricity erworben) oder über einen Citrix Streaming Server in diese Gäste zu streamen (anstatt sie zu installieren). Aus diesem Grund neigen VDI-Umgebungen dazu, alle nur denkbaren mit virtualisierten Servern einhergehenden Probleme samt der zusätzlichen Komplexität des Verhaltens von Endusern sowie nicht selten weiteren gestreamten Anwendungen aufzuweisen. VDI-Implementierungen stellen IT-Prozesse vor sämtliche Herausforderungen, die virtualisierte Server mitbringen. Dazu kommen alle Probleme, die im Zusammenhang mit den vom Desktop des Users gesammelten verfälschten Messdaten stehen. Es gibt viele Produkte, die entweder die Messdaten der Ressourcennutzung oder die Antwortzeiten von den Desktops sammeln. Diese Produkte leiden alle unter den eingangs in diesem Whitepaper beschriebenen Problemen der Zeitkontrolle, wenn sie im Inneren der virtualisierten Desktops laufen. Für VDI-Implementierungen ist daher zur Lösung dieser Probleme ein spezieller Ansatz erforderlich.

7

Verbesserung der IT- und Unternehmensflexibilität in Multi-Hypervisor-Umgebungen

Überholte (physische) Verwaltungsansätze Die Leistungsverwaltung in der Virtualisierungsvorbereitung bzw. der physischen Umgebung erfolgt bis heute auf eine der drei folgenden Arten:

1. Reagieren wenn es brennt: Bei diesem Ansatz wartet man, bis genügend User eine Beschwerde vorbringen, bevor man manuell die Infrastruktur mithilfe von integrierten Tools wie den Windows Task Manager durchleuchtet, um Probleme, sobald sie wieder auftreten, zu erfassen. Bei dieser Methode kommen keine wirklichen Leistungsverwaltungs-Tools zum Einsatz, viel Zeit geht bei der Suche nach der Fehlerursachek verloren. Es ist leider der am weitesten verbreitete Ansatz der drei genannten.

2. Überwachung der Betriebssystemressourcen: Bei diesem Ansatz werden Ressourcennutzungsdaten über Agenten von PerformanceManagement- Anbietern oder aus integrierten Programmen (zum Beispiel über die WMI Schnittstelle welche im Betriebssystem des Windows Servers installierte Agenten zum Auslesen zur Verfpgung stellt) gesammelt. Dieser Ansatz hat den Vorteil, dass er in einer Vielzahl von Umgebungen und Anwendungen arbeiten kann. Jedoch ist er aufgrund der bereits beschriebenen Zeitkontrollprobleme und der mit der Virtualisierung einhergehenden Trennung der virtuellen von den physischen Ressourcen nicht länger nutzbar, sobald Anwendungen in eine virtualisierte Umgebung migriert werden.

3. Anwendungs oder architektur spezifische Messmethoden. Es gibt viele ausgezeichnete Lösungen, die durchgängiges Anwendungsleistungsmanagement liefern können, dies gilt aber nur für solche Anwendungen, die in eine bestimmte Infrastruktur integriert sind (zum Beispiel Web Server/J2EE/.Net/Relational Database), oder in einigen Fällen auch für eine bestimmte Reihe von Unternehmensanwendungen. Obwohl diese Lösungen einerseits für die Teams wichtig sind, die die Nutzung dieser Anwendungen unterstützen, fehlt ihnen jedoch andererseits die Möglichkeit breitgefächert nach der Virtualisierung auch für die Virtualisierungs-Admins alle Anwedungen auf Ihrer Sicht zu erfassen und in das bestehende Management zu integrieren. Zusammenfassend kann man sagen, dass die Tools und Möglichkeiten zur Anwendungsverwaltung in einer physischen Umgebung nicht zwangsläufig diese Umgebung ausreichend durchdringen, um die Anwendungen wirksam zu verwalten, wenn sie in einer virtuellen Umgebung eingesetzt werden.

8

Verbesserung der IT- und Unternehmensflexibilität in Multi-Hypervisor-Umgebungen

Virtualisierung Ihrer wichtigsten HauptAnwendungen – Folgen für die Verwaltung Zentralisierte „Besitzverhältnisse" der Server-Ressourcen In der verteilten/physischen Welt waren die Geschäftseinheiten oft „im Besitz“ der Server, auf denen ihre individuellen Anwendungen liefen. Bei Leistungsproblemen war die erste Reaktion oft, mehr Serverkapazität zur Verfügung zu stellen (was wiederum zu einer Serverflut führen kann). Die IT war zwar für die Hardware und das Betriebssystem zuständig, aber eben auch nur dafür. Sobald ein Server in einem gemeinsam genutzten Server-Pool virtualisiert wird, verliert das Unternehmen die Möglichkeit, auf auftretende Leistungsprobleme mit mehr Kapazität zu antworten, und macht die IT zu Recht für die Leistung des gesamten Softwarepakets in der neuen „IT-Umgebung" verantwortlich. Werden Anwendungssysteme in eine zentralisierte virtualisierten Umgebung komprimiert, sitzt die IT näher an diesen Anwendungen, und trägt demzufolge auch die Verantwortung für die Leistung des gesamten Pakets.

Bedarf von Unternehmen an Service Level Management Sobald ein Anwendungssystem in einer gemeinsam genutzten virtuellen Infra¬struktur aufgegangen ist, ist es nur normal, dass das Unternehmen von der IT verlangt, die Leistung jeder virtualisierten Anwendung zu gewährleisten. In der Tat ist die Fähigkeit (oder Unfähigkeit) der IT, Leistungs- und Verfügbarkeitsverpflichtungen für die virtualisierten Anwendungen zu geben und einzuhalten, einer der wichtigsten Gründe dafür, warum Organisationen auf die Bremse treten, ja sogar vereinzelt zurückrudern und Initiativen zur Virtualisierung weiterer als der offensichtlichen und bereits umgesetzten Virtualisierungsprojekte scheitern lassen. 

Die Entstehung der Multi-HypervisorUmgebung Mehrere tragfähige Hypervisor-Optionen dank heranreifendem Markt Während VMware Pionierarbeit bei der Virtualisierung von x86 Anwendungen leistete, und Marktführer in der Virtualisierungsbranche ist, gibt es zurzeit mehrere gangbare Lösungswege für die Virtualisierung von Produktionsanwendungen jenseits von VMware vSphere. Microsoft Hyper-V, Citrix XenServer und Red Hat KVM haben sich alle in den letzten zwei Jahren bedeutsam weiterentwickelt und haben allesamt bewiesen, dass sie ebenfalls tragfähige Virtualisierungsplattformen sind.

9

Verbesserung der IT- und Unternehmensflexibilität in Multi-Hypervisor-Umgebungen

Gründe für mehr als nur einen Hypervisor Viele Unternehmen haben sich dafür entschieden, mehr als nur eine Virtualisierungsplattform zu betreiben und mehr als nur einen Hypervisor laufen zu lassen. Die Hauptgründe dafür sind die Kosten und die Anpassung der Plattform an die zu bewältigenden Aufgaben. Microsoft hat beispielsweise Hyper-V in Windows Server integriert und es zu einer kostenlosen Zusatzoption gemacht, die ganz einfach per Knopfdruck bei der Konfigurierung aktiviert werden kann. Das hat sich als überaus beliebt bei denjenigen Abnehmern erwiesen, die zu 100 % oder fast 100 % vertraglich an Windows gebunden sind, da für diese so keine zusätzlichen Lizenzkosten beim Einsatz der Virtualisierungslösung oder zusätzliche Verwaltungs- und Ausbildungskosten entstehen, da die Mitarbeiter nicht in einer völlig neuen und anderen Virtualisierungsplattform geschult werden müssen. Ebenso gibt es viele Kunden, die sich in der Vergangenheit eng an die Lösungen von Citrix und Red Hat gebunden hatten und der Meinung sind, dass es in einigen Fällen einfach sinnvoll ist, eine XenDesktop oder XenApp Umgebung auf der Xen-Virtualisierungsplattform und ihre Red Hat Enterprise Linux-Umgebung auf KVM laufen zu lassen. Auch tritt immer häufiger der Fall auf, dass vor allem große Unternehmen mit sehr vielfältigen Umgebungen über mehrere Virtualisierungsplattformen verfügen. Grund dafür ist der bereits erwähnte Wunsch, für jedes Projekte die richtige Plattform haben zu wollen; außerdem erhalten die Unternehmen zudem einen gewissen Verhandlungsspielraum mit den Anbietern von Virtualisierungsplattformen.

Prognostizierte Hyper-V-Einführungsrate Während VMware seine führende Rolle in großen Unternehmen behauptet, sind viele kleinere Unternehmen mit fast ausschließlicher Windows-Umgebung standardmäßig auf Hyper-V umgestiegen, da es sich hierbei um ein einfach zu aktivierendes Feature ihres standardmäßigen Serverbetriebssystems handelt. Als VMware begann, Kosten für vSphere 5 basierend auf der Zahl der CPUSockets und des konfigurierten virtuellen Speichers zu erheben, fingen viele Unternehmen (sogar große) damit an, Alternativen zu vSphere im Rahmen von Kostenmanagementmaßnahmen in Erwägung zu ziehen.  Die aktuelle Zunahme von Hyper-V wird im sogenannten V-Index wiedergegeben, der sowohl die Verbreitung der Server- und Desktop-Virtualisierung als auch die von den Unternehmen verwendeten Hypervisoren aufzeichnet. Der V-Index zeigt, dass im dritten Quartal 2011 43 % der Unternehmen wenigstens eine Art von Hyper-V für die Server-Virtualisierung und 45 % der Unternehmen eine wie auch immer geartete Form von Hyper-V für die DesktopVirtualisierung verwendeten. Dieselben Unternehmen gaben an, dass in 68 % der Fälle VMware vSphere der primäre Hypervisor für die Server-Virtualisierung und in 54 % der Fälle für die Desktop-Virtualisierung war. Diese Zahlen zeigen deutlich, dass wir heute in einer Multi-Hypervisor-Welt leben.

10

Verbesserung der IT- und Unternehmensflexibilität in Multi-Hypervisor-Umgebungen

Die Teilnehmer am V-Index gaben dabei auch die erforderlichen Anschaffungskosten für die Hardware zur Virtualisierung (vor allem für die gemeinsam genutzten Disk-Speicher) als das größte Hindernis bei der Einführung der Virtualisierung an. Da Microsoft auf eine Reduzierung dieser Kosten bei dem in Kürze erscheinenden Windows Server 2012 sowie den Hyper-V3- Produkten hingearbeitet hat, wird Hyper-V höchstwahrscheinlich im Laufe der Zeit Boden gewinnen können. Zudem hat Hyper-V laut Network World im vergangenen Jahr eine Zunahme von 62 % erfahren. Derselbe Artikel zitiert auch eine unabhängige Prognose aus Gartner, dass im kommenden Jahr 27 % des Virtualisierungsmarktes auf Hyper-V entfallen werden. Mit der Verbreitung von alternativen Hypervisoren wird die Zahl der Unternehmen, die mehr als einen Hypervisor verwenden, auch in Zukunft weiter steigen.

Die Vorteile einer Cross-HypervisorVerwaltung Niedrigere Anschaffungskosten für Tools Einer der Gründe, warum die Verwaltung von physischen Systemen mit ihren gewachsenen und vielfältigeren Umgebungen so kompliziert und teuer ist, sind die verschiedenen zusätzlichen Verwaltungstools für jedes neue Element im IT-Bestand sowie jeden neuen Anwendungsfall und jede Zielgruppe. Das wiederum hat zu einer explosionsartigen Verbreitung von Verwaltungstools für physische Systeme geführt, wobei einzelne Unternehmen über mehr als 100 verschiedene Tools allein zum Überwachen ihrer kombinierten Speicher, Netzwerke, Server, Betriebssysteme, Anwendungsumgebungen sowie Anwendungen selbst verfügen. Die Virtualisierung schaffte eine Gelegenheit, die Verwaltung zu vereinfachen, indem viele Ebenen des IT-„Pakets“ gemeinsam verwaltet werden. Möglich wurde dies durch die Tatsache, dass der Hypervisor ein ausgezeichneter Datensammler für Informationen über Infrastruktur und Anwendungen ist. Deshalb konnten die Kunden, die als erste VMware vSphere als Standard einführten, auch eine drastische Vereinfachung und Verringerung der Zahl der erforderlichen Verwaltungstools verbuchen Die größte Herausforderung beim Wechsel auf mehrere virtualisierte Plattfor¬men ist es zu verhindern, dass sich durch die zusätzlichen Virtualisierungsplattformen die Zahl der erforderlichen Verwaltungstools verdoppelt oder verdreifacht. Fügt man Hyper-V zu einer bereits vorhandenen VMware-Umgebung hinzu, sollte man zumindest versuchen, ein Verwaltungspaket zu erhalten, das auf beide Virtualisierungsplattformen ausgelegt ist. Das führt zu erheblich niedrigeren Anschaffungskosten für die Tools, kann man doch für ein Tool Mengenrabatte geltend machen, statt Geld für zwei Einzeltools auszugeben.

11

Verbesserung der IT- und Unternehmensflexibilität in Multi-Hypervisor-Umgebungen

Niedrigere Schulungs- und Betriebskosten für Tools Das Kostspieligste am Besitz eines Verwaltungstools ist nicht die Anschaffung des Tools an sich. Der aufwändigste Teil jedes Verwaltungstools ist das Erlernen, wie man es nutzt, unterstützt und langfristig einsetzt. Der Lernprozess, wie man mehrere übergreifende Tools in einer physischen Umgebung benutzt, war ein Grund dafür, dass die Verwaltung der physischen Umgebung so komplex und teuer geworden ist. Was Sie nun wirklich nicht gertan werden sollte, ist diesen Fehler in Ihrer virtualisierten Umgebung oder in Ihrer privaten oder hybriden Cloud zu wiederholen. Die laufende Verwaltung einer virtualisierten Umgebung sollte doch weniger kompliziert und teuer als das Verwalten des heterogenen Vorgängers sein. Wenn Sie jedoch mehrere Virtualisierungsplattformen einführen, wird sich diese Leistungsfähigkeit bei den Verwaltungsvorgängen und Betriebskosten (OPEX) nur dann aufrechterhalten lassen, wenn Sie Verwaltungslösungen auswählen, die sämtliche Ihrer Virtualisierungsplattformen erfassen.

Verwalten von Anwendungen auf mehreren Hypervisoren Wenn Sie dann letztendlich mehr als eine Virtualisierungsplattform haben, werden Sie höchstwahrscheinlich auch Anwendungen haben, die sich über mehrere Plattformen erstrecken. An diesem Punkt werden Sie, um entweder das Verhalten der diese Anwendung unterstützenden Infrastruktur oder das Verhalten des gesamten Anwendungssystems überschauen zu können, ein Produkt benötigen, das die gesamte diese Anwendung unterstützende Umgebung erfasst. Indem Sie sich für ein einziges Verwaltungstool für alle Hypervisor-Plattformen entscheiden, nehmen Sie aber auch Abweichungen bei der Leistungsmessung und -analyse einer Anwendung in mehreren Umgebungen heraus - das Tool führt dieselbe Art der Anwendungsüberwachung in allen Umgebungen durch.

Übersichtliches Verwaltungssystem Das Konzept eines transparenten Verwaltungssystems für mehrere Virtualisie¬rungsumgebungen und deren Anwendungen, ist entscheidend für ein flexibles und kosteneffizientes IT-Betriebsteam. Erneut wird die physische Umgebung durch die endlose Suche nach einem Sündenbock belastet, wo jeder Beteiligte die Ergebnisse seines Funktionstools präsentiert und seine Unschuld beteuert. Die der Virtualisierung innewohnenden Effizienz und Flexibilität wird nur dann über mehrere Virtualisierungsplattformen hinweg aufrechterhalten, wenn ein einheitlicher Cross-Plattform-Ansatz für die Verwaltung ergriffen wird.

12

Verbesserung der IT- und Unternehmensflexibilität in Multi-Hypervisor-Umgebungen

Die Herausforderungen bei der CrossHypervisor-Verwaltung Häufig auftretende Fehler bei der physischen Verwaltung Es gibt zwei Fehler, die in physischen Umgebungen immer und immer wieder gemacht worden sind und die nicht wiederholt werden sollten, wenn ein Unternehmen in eine völlig virtualisierte oder private Cloud-Umgebung wechselt. Die meisten großen Unternehmen haben beide Fehler begangen, und beide zusammengenommen sind tödlich. Der erste Fehler ist, die Produktbeschreibung eines großen Systemmanagementanbieters anzusehen und sich von dessen Verkaufspersonal überzeugen zu lassen, dass seine Produktlinie Ihre gesamten Anforderungen abdeckt und aus aufeinander abgestimmten integrierten erstklassigen Einzelelementen besteht. In Wirklichkeit setzen sich die Produktportfolios der großen Systemmanagementanbieter (wie IBM, BMC, HP, und CA) meist aus älteren Softwareanwendungen zusammen, die in einer virtualisierten Welt nicht richtig funktionieren. Zwar setzten sich diese Produkte meist auf Modulen zusammen die über Jahre entstanden sind, jedoch sind Sie noch nicht gut in die Virtualisierung integriert.Deshalb passiert es immer wieder, dass ein Unternehmen eine Management Suite kauft und dann feststellt, dass viele der Produktkomponenten nicht das tun, was von ihnen behauptet wird. Was wiederum direkt zum zweiten Fehler führt. Sobald sich herausstellt, dass die Elemente des Managementsystems nicht die Anforderungen der Gruppen erfüllen, die verschiedene Teile der Umgebung unterstützen und ihr Eigen nennen, gehen diese Gruppen los und kaufen ein Einzeltool von einem Anbieter, der sich auf die Erfüllung dieses speziellen Bedarfs spezialisiert hat. Das führt zwangsläufig zu einer starken Zunahme von Verwaltungstools, was nachfolgend behandelt wird.

Mehrfacher und vermischter Plattform Support Derzeit gibt es auf dem Markt vier Hauptvirtualisierungsplattformen: VMware, Microsoft, Citrix, und Red Hat. Auch wenn die meisten Kunden zwar standard¬mäßig VMware für ihre Produktionsserver-Virtualisierungsumgebung verwen¬den, gewinnen die anderen Anbieter doch Boden in einem oder mehreren Bereichen. Microsoft spielt seine Stärke bei Windows Server Administratoren aus, die zwar Windows kennen, aber nichts über VMware oder die Unix- Um¬gebung wissen, auf der VMware basiert. Citrix gewinnt schnell an Markt¬anteilen, weil eine VDI-Lösung mit Citrix-Frontend oft auf VMware oder Microsoft-Backends läuft. Citrix macht zudem auch Fortschritte mit dem XenServer als Plattform für XenApp (Citrix Presentation Server).

13

Verbesserung der IT- und Unternehmensflexibilität in Multi-Hypervisor-Umgebungen

Starke Zunahme von Verwaltungstools Wenn Sie für ein großes Unternehmen arbeiten und eine Bestandsaufnahme Ihrer Verwaltungstools machen, werden Sie höchstwahrscheinlich feststellen, dass Sie über mehr als 100 verschiedene Tools verfügen. Sie werden wahrscheinlich auch feststellen, dass viele von diesen sich in ihren Funktionen überschneiden. Diese starke Zunahme von Tools wird durch das bereits zuvor beschriebene Problem der unzureichenden Systeme verursacht, woraufhin Gruppen, die einen bestimmten Bereich der Infrastruktur ihr Eigen nennen, losgehen und „erstklassige" Einzeltools kaufen. Das Problem bei diesem Einzeltool-Ansatz ist, dass dabei oft nicht diejenigen ausgewählt werden, die möglichst breitgefächert in ihren Anwendungsmöglichkeiten sind. Wenn zum Beispiel ein Datenbanktool angeschafft werden soll, werden oft gleich drei separate Tools gekauft - eins für Oracle, eins für den SQL Server und eins für MYSQL.

Wiederholung vergangener Fehler All dies führt uns zurück zum obersten Gebot für die Aufstellung einer Tool-Strategie für virtualisierte Umgebungen. Das oberste Gebot lautet, die in der Vergangenheit gemachten Fehler nicht zu wiederholen. In diesem konkreten Fall heiβt das sicherzustellen, dass Sie auf keinen Fall mehr als ein Verwaltungstool für Ihre Umgebung einrichten – vor allem dann, wenn Sie mehrere Hypervisoren brauchen oder planen.

Bewährte Verfahren für eine CrossHypervisor-Verwaltung Dieser einzigartigen und neuen Fragen kommen immer dann zum Tragen, wennein breites Spektrum unternehmenskritischer Anwendungen virtualisiert werden. Dafür kreieren wir eine neue Reihe einzigartiger und anspruchsvoller Kriterien, anhand derer Management-Lösungen zu beurteilen sind.

Überwachung der physischen Server und des Netzwerks Tatsächlich erfordert die Überwachung der Leistung und Kapazität einer virtu¬ellen Infrastruktur und der auf dieser Infrastruktur laufenden Anwendungen ei¬ne große Menge an Daten über die Leistung und Nutzung dieser virtuellen In¬frastruktur selbst sowie der ihr zugrunde liegenden physischen Ressourcen. Glücklicherweise liefern moderne Virtualisierungsplattformen wie VMware und Hyper-V über ihre Schnittstellen eine große Menge an Daten in Bezug auf die ihnen zugrunde liegende physische Umgebung. Vieles wird mit den von den Virtualisierungsplattformen bereitgestellten Daten möglich. Allerdings gibt es einige Teile der physischen Infrastruktur, die für die Virtualisierungsplattform nicht erkennbar sind (zum Beispiel die physischen Switches und Router, die die gesamte Umgebung unterstützen). Deswegen erfordert ein ganzheitlich

14

Verbesserung der IT- und Unternehmensflexibilität in Multi-Hypervisor-Umgebungen

auf das Problem der Leistungs- und Kapazitätsverwaltung gerichteter Ansatz den Zugang zu Messzahlen sowohl über die virtuellen als auch die physischen Infrastrukturen.

Überwachung der Speicherung Das die virtuelle Infrastruktur unterstützende Speicher-Array ist ein ganz besonderer und häufiger Störenfaktor in der virtuellen Umgebung. Eine Fehlkonfiguration der Speicher-Arrays, fehlende Kenntnisse über das Mapping von Anwendungen auf LUNs und Spindeln, sowie durch Konfigurationsprobleme verursachte Zugriffskonflikte und selbst VMotion-Abläufe sind einige der häufigsten Ursachen für Probleme mit Anwendungsleistung in virtualisierten Systemen.  Gerade aus diesem Grund ist ein bedeutendes Feature der virtuelle Infrastruktur überwachenden Lösungen, nur granulare Daten bezüglich Konfiguration und Auslastung des zugrunde liegenden Speichers zu sammeln, um Systemleistung und -kapazität dieser Systeme zu erkennen. Manche Produkte verfügen über grundlegenden Speicherüberwachungsfunktionen mithilfe von SNMP, SMIS (eine Speicherschnittstelle für die Verwaltung) oder die in den vSphere APIs verfügbaren Speicherinformationen, während fortschrittlichere Anbieter andere, weitaus schwieriger zu implementierende Methoden verwenden, um Speicherleistungsdaten direkt aus dem SAN oder den Speicher-Arrays zu gewinnen.

Überwachung der Ressourcenauslastung Jedes Leistungs- und Kapazitätsverwaltungsprodukt misst die Ressourcenauslastung. Im Allgemeinen sind in einer virtualisierten Umgebung Ressourcenauslastungsmetriken wesentlich nützlicher für die Bewertung eines gesamten Hosts, Ressourcepools oder Clusters als für die Bewertung der Leistung einzelner Anwendungen oder Anwendungskomponenten. Der Trick in einer virtualisierten Umgebung besteht darin, die gesamte Umgebung abzudecken, um in der Lage zu sein, die echten Ressourcenengpässe aufzuspüren und die Daten so zu sammeln, dass die infolge der Zeitkontrollprobleme auftretenden Probleme bei den in den Gästen gesammelten Messzahlen beseitigt werden.

Kapazitätsplanung- und verwaltung Das erste, was passiert, wenn n physische Server auf weniger Virtualisierungshosts komprimiert werden, ist, dass Arbeitslasten, die bisher ihre eigenen Server hatten, nun plötzlich einen Server mit anderen Kapazitäten teilen müssen. Daraus ergibt sich das erste Problem, das in einem Virtualisierungssystem angegangen werden muss – die permanente Kapazitätsverwaltung, damit kurzzeitige Engpässe bei den Ressourcen keine negativen Auswirkungen auf die Leistung der Verarbeitungsprozess und die in der Virtualisierungsinfrastruktur laufenden Anwendungen haben.

15

Verbesserung der IT- und Unternehmensflexibilität in Multi-Hypervisor-Umgebungen

Überwachung von Konfigurationsänderungen Ein extrem hoher Prozentsatz der Ursachen von Anwendungsleistungsproblemen im Zusammenhang mit der Infrastruktur lässt sich letztendlich auf eine Fehlkonfiguration oder eine unsachgemäße Änderung der Konfiguration zurückführen. Die Virtualisierung macht deutlich, wie wichtig die Nachverfolgbarkeit von Konfigurationsänderungen ist. Dies betrifft ebenso einfache manuelle Konfigurationsanpassungen als auch massive Anpassungen durch automatisierte Ereignisse, wie z.B. VMotion, Lastverteilung (DRS), HA oder DPM-Vorgängen. ITaaS wirkt sich noch verschärfend aus, da jede vom Kunden veranlasste, automatisch genutzte Dienstleistung fachgerecht konfiguriert werden muss, bevor sie zum Einsatz kommt. Aus diesen Gründen sind die Fähigkeit zur Bewertung der Umgebungskonfiguration sowie der Konfigurationsverwaltung, über an die Verarbeitungsprozesse und Unternehmensdienstleistungen gebundene Methoden, zum Erkennen einer Konfigurationsabweichung und zum Ergreifen von entsprechenden Maβnahmen wesentliche Eigenschaften einer robusten Überwachungslösung.

Kostenausgleich Da virtualisierte Umgebungen zu Hosts für unternehmenskritische Auslastun¬gen werden, wird sich die Frage stellen, wie man die Kosten eines virtuellen, gemeinsam genutzten Datenzentrums auf die in der Umgebung laufenden Lasten verteilt. Diese Funktion gibt es in ihrer ersten Generation heutzutage in vielen Produkten, die auf der Ressourcennutzung für die Auslastungen als Metrik basiert, um eine gleichmäßige Aufteilung zu erzielen. Die Nutzung der Ressourcenauslastung ist aber wahrscheinlich keine geeignete langfristige Antwort. Der Grund dafür ist, dass die Ressourcenauslastung nicht die Leistungsanforderungen (Reaktionszeit) der wichtigsten gewerblichen Anforderungen berücksichtigt. Daher ist es viel wahrscheinlicher, dass eine zweite Generation von Ausgleichslösungen aufkommen wird, die das Reaktionszeitprofil einer Anwendung zusammen mit ihrer Übertragungsrate als Messwert bei der Berechnung der Kostenverteilung berücksichtigt.

Topologieerkennung und Mapping Angesichts der natürlichen Veränderungsrate bei automatisch verwalteten Systemen (Systeme, die VMotion, HA, DRS oder deren Äquivalente von ande¬ren Anbietern nutzen), muss jede zuverlässige Leistungsund Kapazitätsverwaltungslösung in der Lage sein, Gäste, Server und unterstützende Ressourcen dynamisch zu erkennen, sowie all diese Elemente ausreichend häufig wiederzuerkennen, um bei Veränderungen auf dem Laufenden zu bleiben. Eine zuverlässige Lösung sollte weder eine Konfiguration im Vorfeld benötigen noch statische Beziehungen zwischen den Elementen in diesen Systemen voraussetzen. Letztendlich muss ein effektives Produkt die Auswirkungen einer dynamischen „Rückstellung“ (von Gästen, Betriebssystemen, Anwendungen und Usern) bewältigen und exakt messen können.

16

Verbesserung der IT- und Unternehmensflexibilität in Multi-Hypervisor-Umgebungen

Die Kosten-Nutzen-Analyse für die Virtualisierung der Cross-HypervisorVerwaltung Jede der in vorliegendem Whitepaper genannten Lösung der genannten Probleme wird Geld beim Kauf, Zeit bei der Umsetzung sowie Mühe beim Lernen kosten. Der Schlüssel dabei ist, diese Investitionen mit einem Toolset zu bewerkstelligen, das Ihre gesamten virtualisierten Umgebungen unterstützt, anstelle überflüssige Verwaltungspakete auf allen Hypervisoren zu vermehren, wie es so oft bei verschiedenen physischen Plattformen geschehen ist. Die Einführung eines gemeinsamen Verwaltungspakets auf allen Virtualisierungsplattformen führt zu den folgenden Geschäftsvorteilen:

1. Kaufen, Kennenlernen, Benutzen und Instandhalten eines einzigen Tools. Die Vermeidung einer Vielzahl von Tools ist an und für sich ein Vorteil.

2. Einsparungen bei den betrieblichen Gesamtaufwendungen mit flexiblem IT-Personal. Bei der Virtualisierung der ersten Generation wurde der ROI von durch die erfolgte Investitionsersparnis infolge von Serverzusammenlegungen bestimmt. Je mehr unternehmenskritische Anwendungen wir virtualisieren, desto mehr wird sich der ROI in die IT und Unternehmensflexibilität verlagern und Investitionsersparnisse zur Folge haben, die von einer Rationalisierung der Prozesse und der Nutzung der Automatisierungstechnik herrühren. Ein einziges Toolset macht es viel einfacher, schlanke Prozesse zusammenlaufen zu lassen und eine Automatisierung einzuführen.

3. Intelligente Kapazitätsverteilung. Ein gemeinsames Toolset für alle Virtualisierungsplattformen macht es möglich, einen gemeinsamen Datensatz zu den Verarbeitungsprozessen plattformübergreifend zu sammeln, sodass intelligentere Entscheidungen darüber getroffen werden können, welche Prozesse am besten auf welchen Virtualisierungsplattformen laufen sollen.

4. Virtualisierungserweiterung ohne die Nachteile einer Anbieterabhängigkeit. Ursprünglich wurden die meisten Verarbeitungsprozesse in kürzest möglicher Zeit auf nur einer Plattform virtualisiert. Allerdings sind viele Unternehmen aufgrund der einschneidenden kürzlichen Preisanpassungen seitens VMware misstrauisch gegenüber einer Standardisierung von VMware geworden. Eine auf mehrere Hypervisoren verteilte gemeinsame ManagementPlattform erlaubt weiterhin hohe Geschwindigkeiten bei den Virtualisierungsprojekten, während das Unternehmen gleichzeitig über volle finanzielle und technische Flexibilität bei der Auswahl von Virtualisierungsverwaltungsplattformen verfügt.

17

Verbesserung der IT- und Unternehmensflexibilität in Multi-Hypervisor-Umgebungen

Schlussbetrachtung Die Virtualisierung setzt viele der bestehenden und in der physischen Welt verwendeten Ansätze bezüglich der Leistungsverwaltung außer Kraft und eröffnet eine völlig neue Reihe von Herausforderungen, die für eine effektive Leistungs- und Kapazitätsverwaltung virtualisierter Systeme zu erfüllen sind. Etablierte Lösungen von den traditionsreichen Leistungs- und Systemmanagementanbietern sind, anders als die von auf Virtualisierung spezialisierten Anbietern angebotenen Lösungen, derzeit leider nicht auf dieses Problem und diese Gegebenheit ausgerichtet. Aufgrund des enormen ROI, der mit dem Einsatz einer auf Virtualisierung ausgerichteten Leistungs- und Kapazitätsverwaltungslösung einhergeht, ist es die Zeit und das Geld wert, um eine solche Lösung eines spezialisierten Anbieters bereits heute einzusetzen. Da sich Multi-Hypervisor-Umgebungen immer mehr verbreiten, wird es entscheidend sein, auf ein standardisiertes Verwaltungspaket umzusteigen, das sämtliche Hypervisoren in der Umgebung unterstützt - und den früheren Fehler, für jedes einzelne Speichertechnologie ein eigenes Verwaltungspaket anzulegen, nicht zu wiederholen.

18

Verbesserung der IT- und Unternehmensflexibilität in Multi-Hypervisor-Umgebungen

Über The Virtualization Practice The Virtualization Practice ist die führende Online-Ressource für objektive und didaktische Analyse mit dem besonderen Schwerpunkt Virtualisierung und die Cloud-Computing-Branche. Bernd Harzog ist der Analyst für Virtualisierungsleistung und Kapazitätsverwaltung bei „The Virtualization Practice“. Herr Harzog war früher Forschungsleiter der Gartner Group mit Schwerpunkt auf dem Windows Server-Betriebssystem, Geschäftsführer von RTO Software, Vizepräsident von Products of Netuitive und beschäftigt sich seit 1980 mit Anbieter- und IT-Strategien.

Über Veeam Software Veeam® Software entwickelt innovative Lösungen für die Datensicherung von VMware und Hyper-V sowie für Virtualisierungsmanagement. Veeam Backup & Replication™ ist die führende Lösung für Backups von virtuellen Maschinen. Veeam ONE™ stellt in einer einzigen Lösung Echtzeit-Überwachung, Ressourcenoptimierung, Dokumentation und Management-Reporting für VMware und Hyper-V bereit. Veeam erweitert tiefgreifende VMware-Überwachung mit Veeam Management Pack™ (MP) auf Microsoft System Center und mit Veeam Smart Plug-In™ (SPI) auf HP Operations Manager. Außerdem bietet Veeam kostenlose Virtualisierungs-Tools. Weitere Informationen finden Sie unter http://www.veeam.com/de.

19

Suggest Documents