Infrastruktur-Virtualisierung „in den Wolken“, Teil 2

9. Mai 2009 | Von | Kategorie: Cloud, Social Media, Devices

Cloud Computing ist das jüngste Modewort und es steckt voller begeisternder Möglichkeiten. Aber wie bei den meisten Modewörtern ist auch hier eine solide Definition schwer zu umreißen. Cloud Computing ist ein sehr breit angelegter Begriff und deckt fast alle Ausprägungen von Computing außer Haus oder Storage-Services ab.


Cloud Computing eröffnet neue Optionen für Kapazitätserweiterungen und Wiederherstellung im Katastrophenfall

2012-08-22 18_22_17von Mel Beckman

Aber solche Services gibt es schon seit fast 50 Jahren – seit den ersten Computer Time-Sharing Services der 1960er Jahre. Sie könnten nun argumentieren, das Internet selbst sei bereits eine gigantische Cloud Computing Ressource, die Off-Site Computing in Form des Zugriffs auf verteilte Server, virtuelles Hosting und wissenschaftliches High-Performance Computing unterstützt. Worin hat Cloud Computing also sein Alleinstellungsmerkmal? Im ersten Teil, erschienen in der Maiausgabe 2009, haben Sie die Cloud Mechanismen kennen gelernt.

Kein Silberstreifen am Horizont

Eine Cloud-basierte Infrastruktur kann zwar die gesamten IT-Operationen Ihres Unternehmens erheblich kostengünstiger gestalten, aber in drei Kategorien es gibt Vorbehalte: in der Zuverlässigkeit, der Sicherheit und der Verantwortlichkeit. Bisher gestaltet sich die Cloud-Zuverlässigkeit – speziell bei kleineren Cloud-Providern – eher unausgewogen. Selbst große Clouds wie Amazon’s EC2 (Elastic Compute Cloud) hatten Ausfallzeiten zu verzeichnen, sie sich über mehrere Stunden erstreckten und letztlich zu Verlusten von Kundendaten führten. Amazon argumentiert, dass das EC2 Problem zu einem Zeitpunkt auftrat, als der Service sich noch im Beta-Stadium befand. Amazon bietet nun ein SLA (Service Level Agreement) an, um die Kunden gegen solche Ausfälle – und sogar gegen übermäßig verlangsamte Antwortzeiten – zu schützen. Wie auch immer, SLAs wie das von Amazon erkennen keine Schäden an und erstatten den Kunden nur einen Anteil der Kosten für den nicht gewährten Service. Solch ein SLA bedeutet für Sie – den Kunden, dessen Verlust an Produktivität und Umsatz vermutlich erheblich größer ist als die zu erwartende SLA-Rückvergütung – keinen wirklichen Schutz. Um die Situation noch zu verschlimmern, bürden die meisten SLAs dem Kunden die Verpflichtung auf, Ausfälle oder Verzögerungen in hohem Detaillierungsgrad, teilweise sogar bis in den Millisekundenbereich, zu dokumentieren.Eine Möglichkeit, die Zuverlässigkeitsproblematik abzumildern, besteht darin, Cloud-Operationen auf mehrere Provider zu verteilen. Da sich aber Standards für Cloud-basierte Serveradministration noch in der Entwicklung (durch Organisationen wie das Open Cloud Consortium – opencloudconsortium.org) befinden, erfordert dieser Ansatz erhebliche zusätzliche Bemühungen und Kosten auf der Seite des Kunden. Darüber hinaus kann ein großflächiger Internet-Ausfall, von dem eventuell Ihre sämtlichen Cloud-Provider oder die Internet-Pfade dorthin betroffen sind, diesen Ansatz zunichte machen. Wie auch immer, das letztere Risiko besteht eigentlich immer, gleichgültig, ob Sie Ihre Server im eigenen Hause, in verteilten Außenstellen oder in der Cloud betreiben. Ein wirklich geeignetes Mittel dagegen gibt ist nicht, eine Tatsache, die letztlich aufzeigt, wie abhängig das Geschäftsleben heute vom Internet geworden ist.

Sicherheit kann immer zum Thema werden, sobald Daten das eigene Haus verlassen und Unternehmensfremden zum Schutze anvertraut werden. Die Übertragung sensitiver Daten in die Cloud steigert die Möglichkeit, versehentlich die Kontrolle über die Inhalte oder gar die Inhalte selbst zu verlieren. Die Daten könnten unterwegs von einem Hacker, der in Ihren virtuellen Server oder Cloud-basierten Speicher eingebrochen ist, ausgelesen oder entwendet werden. Die Risiken sind hier höher als bei im eigenen Hause gespeicherten Daten, da die Möglichkeit zur physischen Kontrolle des Zugriffs auf die Computing- und Speicherressourcen, die die Cloud-Daten beherbergen, fehlt. Glücklicherweise lassen sich Daten in einer Weise schützen, die sich nicht auf das Vertrauen zu dem Cloud Provider oder anderen Dritten beschränkt. Dies kann bei jeglichen Datenübertragungsoperationen durch Verschlüsselung der Daten, Signierung der Code-Objekte und Benutzung digitaler Zertifikate zur Berechtigungsprüfung beider Seiten geschehen. Diese Maßnahmen müssen allerdings von Ihnen selbst getroffen werden.

2012-08-22 18_22_17

Die Verantwortlichkeit für Ihr Unternehmen und vielleicht auch für Sie persönlich wird vom Cloud Computing auf unterschiedliche Weise tangiert. Gesetzliche Regelungen schreiben beispielsweise bestimmte Sicherheitsvorkehrungen für sensitive Daten wie Finanzinformationen oder Patientendaten vor. Aber die Verantwortlichkeit erstreckt sich auch auf Services, die Sie Ihren Kunden anbieten sowie auf die Kosten für Cloud-basierte Verarbeitung, die sich schnell explosiv entwickeln können, sofern sie nicht sorgfältig überwacht werden.

Im letzteren Fall werden Sie Ihren Kunden, die Sie über Cloud-Computing bedienen, keine höhere Zuverlässigkeit garantieren wollen, als Sie selbst von Ihrem Cloud-Provider erwarten können. Hierzu ist es erforderlich, die Kostenstruktur für Cloud-Services, die Sie einkaufen und überwachen, vollständig zu verstehen. Da Cloud-Services nutzungsabhängig berechnet werden, können durch versehentlichen Betrieb ungenutzter Server- und Speicherressourcen schnell erhebliche Kosten entstehen. Beim Lesen des Kleingedruckten in der Service-Vereinbarung mit dem Provider werden Sie feststellen, dass Sie für sämtliche Nutzung in Ihrem Account verantwortlich sind, auch wenn die Nutzung versehentlich erfolgte oder durch Hacker vorgenommen wurde.

Machen diese Risiken Cloud-Computing unbrauchbar? Auf keinen Fall, was zumindest für die meisten Anwendungen gilt. Aber bevor Services in die Cloud übertragen werden, sollten die Risiken und Kosten sorgfältig abgewogen werden und es sollte ein bestimmter Kostenblock für kompromisslose Überwachung der Performance (zur Verfolgung von Performance-Problemen), der Sicherheitsereignisse, der Nutzung und der Berechnung eingeplant werden.

Der Autor

Mel Beckman ist als leitender technischer Autor für NEWSolutions tätig. Übersetzt und für den deutschsprachigen Markt überarbeitet von Joachim Riener.

Ökonomische Aspekte der Infrastruktur-Virtualisierung

Da reduzierte Kosten eine der primären Triebfedern für IV sind, ist es nur vernünftig, nach den Kosten zu fragen. Es ist allerdings nicht weiter verwunderlich, dass diese Frage nicht ganz einfach zu beantworten ist. Der Preis ist von der Kapazität des Providers und der Art der benötigten Ressourcen abhängig. Ein Server mit einer Basis-Ausstattung (2 GHz-Prozessor, 2 GB Speicher und 120 GB Plattenvolumen) kann beispielsweise bereits zum Preis von 0,10 $ pro Stunde angemietet werden. Ein Aufrüsten auf einen schnelleren Multi-Core Server mit größerem Speicher könnte diesen Preis auf 0,50 $ pro Stunde oder auch mehr anheben. Zusätzlich zu der stündlichen Rate für jede Server-Instanz fallen Gebühren für den öffentlichen Netzwerkverkehr oder den Verkehr zwischen geographischen Regionen an. Eingehender Verkehr wird dabei gewöhnlich mit geringeren Raten berechnet als ausgehender Verkehr. Typische Preise sind 0,10 $ für eingehenden, 0,15 $ für ausgehenden Verkehr. Provider bieten fast immer Sonderpreise für Benutzer mit hohem Transaktionsvolumen an, die in Kraft treten, sobald das Volumen ein oder zwei Terabyte übersteigt.

In IV-Clouds wird der einer Server-Instanz zugeordnete Plattenspeicher gelöscht, sobald der Server neu gebootet oder heruntergefahren wird. Soll der Plattenspeicher erhalten bleiben, muss beständiger Cloud-Plattenspeicher – üblicherweise in GB-Schritten – angemietet werden. Die Kosten bewegen sich hier um 0,10 $ pro GB und Monat. Auf lange Sicht gerechnet entsprechen die Kosten hier in etwa den anfallenden Gesamtkosten bei eigener Anschaffung und eigenem Betrieb vergleichbarer Kapazitäten. Darüber hinaus ist IV-Speicher ebenso schnell wie eigene Platteneinheiten, da dieser Speicher zusammen mit den betriebenen Server-Instanzen in SAN-Arrays implementiert ist.

Die Übertragungsgeschwindigkeit beim Einstellen oder Auslesen von Daten hängt allerdings eher von der Geschwindigkeit der Internet-Verbindung ab; ein Faktor, der speziell bei Anwendungen zur Wiederherstellung im Katastrophenfall äußerst sorgfältig bedacht werden sollte. Es macht oft Sinn, für das erstmalige Hochladen der Daten oder für schnelle Downloads bei einer Wiederherstellung im Katastrophenfall temporäre Internet-Services mit hoher Übertragungskapazität – zumeist auf Stundenbasis –anzumieten.

Zusätzlich zur Server-Instanz, zu Datenverkehr und Speicher können weitere Softwarelizenzkosten anfallen, wenn Ihre Server-Instanz mit einem vom Provider oder einem Dritthersteller bereitgestellten, lizenzierten Image arbeitet. So berechnen Provider für die Image-Nutzung generell einen Aufschlag auf die Gebühr für das Basis-OS in Höhe von 15 bis 25 % pro Stunde sowie zusätzliche Aufschläge für lizenzierte Komponenten wie z. B. SQL Server. Auf diese Weise erspart man sich zwar die Anschaffungskosten für eine Windows-Lizenz, da sich aber die auf Stundenbasis anfallenden Gebühren im Laufe der Zeit zu erheblichen Beträgen summieren können, kann der Fall eintreten, dass es günstiger gewesen wäre, direkt eine eigene Lizenz zu kaufen. Auf jeden Fall sollte auch bedacht werden, dass für die eine oder andere Lizenz-Software Mindestanforderungen an Geschwindigkeit und Kapazität des Servers vorgegeben sind, was wiederum zur Steigerung der stündlich anfallenden Kosten beitragen kann.

Schlagworte: , , , , , , , , , , , , , , , , , , , , , ,

Schreibe einen Kommentar

Sie müssen eingeloggt sein, um einen Kommentar schreiben.