View Full Version : Hochverfügbarkeit
Zur Softwarelösung. Die mir bekannten Lösungen waren/sind nicht in der Lage *JOBQ's zu spiegeln.
Jobs die hier auf die Ausführung warten, sind im Backup-Fall "weg". Fragen nach Lösungen waren seitens der Verkäufer einfach zu bewantworten: Kundensache. Der Kunde soll selbst "wie auch immer" dafür sorgen, dass diese Informationen auf dem Backup-Rechner landen, z.B. durch Kauf geeigneter Software.
Das die OUTQ's auch nicht gespiegelt werden/wurden auch kein Problem: Sache des Kunden.
Das heißt, zu den Kosten für die Softwarelösung kommen noch die Kosten für die Software in Bezug auf *JOBQ's und OUTQ's.
Letzendlich hat man mehr als ein Produkt um die Hochverfügbarkeit zu realisieren und damit noch mehr Baustellen, die im Falle eine Backup, bearbeitet werden müssen, bevor das Backupsystem zur Verfügung gestellt werden kann.
Gruß
DVE
Hallo zusammen,
ich bin jetzt nicht der absolute Spiegelungsexperte.
Bei einem Kunden ist aber auch eine Softwarelösung im Einsatz
und manchmal gibt es kuriose Dinge.
Beispielsweise bringt auf einmal ein RPG Programm das täglich
mehrfach läuft eine Fehlermeldung das Objekte für eine
Datei nicht zugeordnet werden können obwohl die Datei
nur mit Input geöffent wird.
Oder das Objekte die temporär im IFS abgelegt werden
bei einer Schleife auf einmal nicht gelöscht werden
können.
Nur als Hinweis
Gruss an alle
Michael
Mahlzeit!
Wie schon aus einigen Antworten/Kommentaren deutlich wird ist eine hardwarebasierte Lösung (entsprechende monetäre Ressourcen vorausgesetzt) die einzig praktikable Lösung, die relativ nahe an eine echte Hochverfügbarkeit herankommt.
Ich habe mich mehrere Jahre lang mit Vision Solutions (OMS+ODS) herumschlagen dürfen/müssen/sollen und habe immer wieder darauf hingewiesen, dass eine softwarebasierte Lösung aus diversen Gründen nicht ausreichend und oft auch viel zu anfällig ist. Nach einem mittelschweren GAU mit Totalverlust der i5 wurden dann endlich die finanziellen Mittel bereitgestellt, um eine hardwarebasierte Lösung zu implementieren. Diese auf i5+DS8000+MetroMirror/PPRC (und optional FlashCopy) basierende Lösung haben wir intensiv in einer gross angelegten Laborumgebung getestet und für gut befunden. Die einzige Konstellation die wir nicht getestet haben (auch weil IBM uns davor gewarnt hatte, dass dadurch die DS8000 bzw. die Datenbestände auf der Maschine irreparabel beschädigt werden könnten) war das berühmte "ziehen wir mal den Strom raus und schauen was die Kiste dann sagt"-Szenario. Aber mit dieser Einschränkung kann ich leben, zumal ich mit FlashCopy die Möglichkeit habe, innerhalb weniger Sekunden (im Idealfall) eine konstistente Kopie meiner kompletten Maschine auf die Backupsite zu bringen, so dass im Falle eines Hardcore-Crashs der Produktionsseite nur ein minimaler Ausfall/Datenverlust zustande kommt.
Hochverfügbare Grüsse
Martin
Der_Unwissende
22-12-06, 10:19
Oft ist es ja auch eine Frage des Geldes. Ich persönlich halte die Softwarelösung (bei uns Vision) für eine stabile Lösung. Natürlich ist der Datenverlust im Ernstfall höher (mitunter mehere Minuten), aber Kosten - Nutzen müssen sich die Balance halten. Ausserdem kann man viele Sachen nochmal eingeben, wieder laufen lassen oder am Ende per Datenbankeingriff wieder so hinbiegen, dass das Geschäft normal weiter läuft.
PS: In der Automobilindustrie ist das vielleicht anders *fg*
Hallo,
das Problem ist nicht, dass da 3 Minuten fehlen, sondern die zweifelhafte Konsistenz der Daten und was die Applikation dann so daraus macht im Backup Fall und auch beim zurück, ich kenne jemanden, der musste beim Rückweg einen Scratch Install machen und das nach einem Test!!!
Kann mir nochmal jemand vorrechnen, wie die Software Lösung billiger sein soll als die Hardware Lösung, das kriege ich selbst bei Weglassen des dann folgenden Hätschelaufwands nicht hin.
Auch die Furcht von IBM vor Stecker raus kann ich so nicht kommentarlos hinnehmen, das kriegen andere klaglos hin, zum Beispiel Linux mit journalisiertem Reiser Filesystem; was bei denen früher mit fsck (RCLSTG auf Linux) nicht immer ging, geht nun ohne zeitlichen Aufwand beim reboot und ohne, dass ich (oder manuelles fsck) bisher je ein Problem bemerkt hätte.
mfg
Dieter Bender
Oft ist es ja auch eine Frage des Geldes. Ich persönlich halte die Softwarelösung (bei uns Vision) für eine stabile Lösung. Natürlich ist der Datenverlust im Ernstfall höher (mitunter mehere Minuten), aber Kosten - Nutzen müssen sich die Balance halten. Ausserdem kann man viele Sachen nochmal eingeben, wieder laufen lassen oder am Ende per Datenbankeingriff wieder so hinbiegen, dass das Geschäft normal weiter läuft.
PS: In der Automobilindustrie ist das vielleicht anders *fg*
Was ist Billiger ?? Nun zunächst einmal das was man ausgibt.
Wenn später (im Falle des Falles) Datenmüll dazu führt, dass man nicht arbeiten kann, dann wird es richtig teuer.
Ein IBM-Vertriebler hat einmal auf die Frage ob man Platten spiegeln soll, geantwortet: Wie lange können Sie ohne Daten "leben" ?
Dasselbe sollte man sich hier auch Fragen. Bei Vision hinzunehmen, dass die eine oder andere Datei fehlt, beim Produkt x hinzunehmen, dass der eine oder andere Datensatz fehlt, ist im Normalbetrieb kein Problem. Aber wehe es kommt zum Crash, dann führt jeder fehlender Datensatz, jedes fehlende Objekt, jeder Job in der *JOBQ zu einem GAU.
Deshalb sollte man genau Rechnen und jede Lösung ablehnen, die nicht in der Lage ist, das der Zielrechner zu jedem Zeitpunkt ein Abbild des Quellrechner ist.
Aber wie Eingangs erwähnt, billiger ist immer dann wenn man das Geld ausgibt.
Gruß
DVE
Hallo,
irgendwie rechne ich so:
ohne alles:
1 Rechner
Platten für alle Daten mit Basis Redundanzen
Lizenzen für Rechner nach Prozessorklasse
Software HA Lösung:
dasselbe wie oben nochmal (soll ja bei Ausfall einspringen)
verbilligte Lizenzen für zusätzliche Hardware (werden benötigt, weil Rechner ja im Empfängermode betrieben wird)
Lizenze, Wartung und Hätschelkosten für Replikations Software, whatever
Hardware Spiegelung:
komplette Hardware doppelt (analog zu Software HA)
zusätzliche Lizenz nicht erforderlich, da nur ein Rechner betrieben wird
für iASP bin ich da eigentlich fertig?!
das letztere ist doch billiger als die Software Variante, oder übersehe ich da was, oder übersieht da jemand was, der Variante 2 für billiger als Variante 3 hält?
mfg
Dieter Bender
PS: natürlich ist klar, dass viele weder 2 noch 3 brauchen und die dann 1 nehmen. Mit RAID, konventioneller Sicherung; Journalisierung (entweder Receiver im Netz versenden, oder remote) kommt man für die meisten weit genug.
Was ist Billiger ?? Nun zunächst einmal das was man ausgibt.
Wenn später (im Falle des Falles) Datenmüll dazu führt, dass man nicht arbeiten kann, dann wird es richtig teuer.
Ein IBM-Vertriebler hat einmal auf die Frage ob man Platten spiegeln soll, geantwortet: Wie lange können Sie ohne Daten "leben" ?
Dasselbe sollte man sich hier auch Fragen. Bei Vision hinzunehmen, dass die eine oder andere Datei fehlt, beim Produkt x hinzunehmen, dass der eine oder andere Datensatz fehlt, ist im Normalbetrieb kein Problem. Aber wehe es kommt zum Crash, dann führt jeder fehlender Datensatz, jedes fehlende Objekt, jeder Job in der *JOBQ zu einem GAU.
Deshalb sollte man genau Rechnen und jede Lösung ablehnen, die nicht in der Lage ist, das der Zielrechner zu jedem Zeitpunkt ein Abbild des Quellrechner ist.
Aber wie Eingangs erwähnt, billiger ist immer dann wenn man das Geld ausgibt.
Gruß
DVE
Jetzt muss ich auch mal meinen "Senf" dazu loswerden.
Denn ich betreue / berate Banken, und die sind in Punkto Ausfallsicherheit ja auch ziemlich kleinlich. Dennoch haben wir es bei keinem Kunden bisher geschafft, eine Hardwarelösung durchzudrücken. Jeder der Entscheidungsbosse schaut zunächst auf die einmaligen Kosten, weniger auf dlie laufenden. Die Summe ist sicherlich bei der Softwarelösung höher. Dennoch kann ich immer noch den 2. Rechner als Testsytem betreiben und "nur" die Umgebung spiegeln. Der Aufwand ist vertretbar und auch die Prüfung der Spiegelung besser. Auch sind die Umschhaltzeiten (wie lange kann ich ohne Daten leben) ausschlaggebend, denn wenn ich in einer großen Firma darauf angewiesen bin, das alles nach ein paar minuten wieder reibungslos funktioniert, dann habe ich andere Anforderungen als wenn es ruhig mal ein paar Stunden dauern kann.
Des weiteren: In der Regel ist ja nicht nur die AS400 betroffen, sondern auch alle Sekundärsyssteme (Netzwerk, Gateways, Server usw.) Wenn schon, muss dann konsequenterweise alles doppelt vorgehalten werden. Reine Softwarelösungen sind da im Gesamtbild immer noch günstiger, wenngleich natürlich Umschaltzeiten, ggf. Datenverluste und vor allem das Zurückschalten einfacher sind.
Hallo,
die Milchmädchenrechnung kenne ich auch (von einer Bank), aber selbst da sollte doch ein switchable iASP billiger sein - die Verkäufer von den Software HAs die habens scheinbar echt drauf...
mfg
Dieter Bender
Jetzt muss ich auch mal meinen "Senf" dazu loswerden.
Denn ich betreue / berate Banken, und die sind in Punkto Ausfallsicherheit ja auch ziemlich kleinlich. Dennoch haben wir es bei keinem Kunden bisher geschafft, eine Hardwarelösung durchzudrücken. Jeder der Entscheidungsbosse schaut zunächst auf die einmaligen Kosten, weniger auf dlie laufenden. Die Summe ist sicherlich bei der Softwarelösung höher. Dennoch kann ich immer noch den 2. Rechner als Testsytem betreiben und "nur" die Umgebung spiegeln. Der Aufwand ist vertretbar und auch die Prüfung der Spiegelung besser. Auch sind die Umschhaltzeiten (wie lange kann ich ohne Daten leben) ausschlaggebend, denn wenn ich in einer großen Firma darauf angewiesen bin, das alles nach ein paar minuten wieder reibungslos funktioniert, dann habe ich andere Anforderungen als wenn es ruhig mal ein paar Stunden dauern kann.
Des weiteren: In der Regel ist ja nicht nur die AS400 betroffen, sondern auch alle Sekundärsyssteme (Netzwerk, Gateways, Server usw.) Wenn schon, muss dann konsequenterweise alles doppelt vorgehalten werden. Reine Softwarelösungen sind da im Gesamtbild immer noch günstiger, wenngleich natürlich Umschaltzeiten, ggf. Datenverluste und vor allem das Zurückschalten einfacher sind.
Ja die Kosten.
Wir haben eine SW-Lösung und die ist :eek: Warum ? Die angeblich gespiegelten Datenbestände sind "inkontinent". Angeblich gespiegelte Dateien wurden monatelang nicht gespiegelt und die synch-Werkzeuge meldeten keinen Fehler. Ganze IFS-Verzeichnisse waren/sind nicht gespiegelt.
Wie es weitergeht. Ganz einfach, nachdem die SW-Lösung zeigte, dass Sie es nicht kann, geht es jetzt Richtung HW-Lösung.
Und damit geht auch die Performance des Quellrechner wieder in die richtige Richtung. Die Sprüche von wegen .. fast kein Performanceverlust, hielten nicht lange. Die Jobs sind deutlich langsamer und je mehr Daten geändert werden um so mehr mischt die SW-Lösung bei der Performancevergabe mit (schließlich müssen Journale gelesen und das gelesene verarbeitet werden).
Wer mit der SW-Lösung zufrieden ist sollte sich darüber freuen, dass er noch kein Ernstfall hatte und damit weiterhin mit der "billigeren" Lösung billiger ist als mit der HW-Lösung.
Wer aber schon einmal erlebt hat, wie sich der Zielrechner beim Umschalten verhält, der weiß was er von seiner SW-Lösung zu halten hat.
Ich für meinen Teil bin zufrieden, dass es jetzt Richtung HW-Lösung geht und damit eine tatsächliche Spiegelung aller Kompenenten (also auch *OUTQ's, IFS und vor allem *JOBQ's) durchgeführt wird.
Gruß
DVE