dc.description.abstract
Im Laufe der letzten zehn Jahre hat der Begriff 'Systems Management' im Bereich verteilter Client/Server Systeme zunehmend Bedeutung erlangt. In dem Maße, in dem billige PC Hardware und die dazu verfügbare kommerzielle Software Einzug in die Datenverarbeitung der Unternehmen genommen hat, sahen die IT Manager die Notwendigkeit, diese Technologie und die damit verbundenen Probleme und Kosten unter Kontrolle zu bringen. Da nun leistungsfähige PC-Serverhardware einen nicht unwesentlichen Teil der Last in der EDV trägt, ist es notwendig, die wesentlichen System Managementdisziplinen, wie z.B. Kapazitäts- und Lastmanagement, analog den Methoden am Großrechner zu implementieren. Während es aber am Großrechner mehr als vierzig Jahre Erfahrung mit diesen Disziplinen gibt, fehlt es im Bereich verteilter PC Server z.B. im Bereich der Lastanalyse und Kapazitätsmanagement sowohl an der Theorie als auch verfügbaren Werkzeugen. Für die transaktions- bzw. batch-orientierte Software, wie sie meist auf Großrechnern läuft und die im Zusammenspiel des Betriebssystems, der Middleware-Komponenten und der Anwendungssoftware besteht, gibt es eine umfangreiche theoretische Grundlage, die zum Teil ihre Wurzeln in der Abbildung von Kommunikationskanälen hat, und eine Menge an erprobten Hilfsmitteln, die es ermöglichen, die Last an bestimmten Punkten zu messen und an andere Ressourcen zu verteilen. Alles, was es im PC-Bereich in diese Richtung gibt, stammt direkt vom Großrechner ab. In der Praxis hat sich jedoch gezeigt, daß die Anwendung dieser Methoden und Werkzeuge keine brauchbaren Ergebnisse liefert. Eine der Hauptgründe dafür liegt darin, daß die Betriebssysteme am PC - wir betrachten hier vor allem OS/2 - mit der Grundidee eines interaktiven und 'ungeordneten' Arbeitens mit einem Benutzer vollkommen anderen Gesetzen gehorchen als die sehr strikten Großrechner. Dazu kommt, daß verteilte Systeme inzwischen extrem kompliziert sind und aus so vielen Komponenten bestehen, daß es kaum möglich ist, hier 'manuelle' Methoden der Messung, Modellierung und Berechnung einzusetzen. Diese Dissertation zeigt den Wert und die Notwendigkeit der Langzeit-Lastüberwachung auf und beschreibt die wesentlichen Probleme, die damit verbunden ist. Es wird aufgezeigt, wie diese Probleme gelöst werden können, und welchen Nutzen man aus den gewonnenen Informationen ziehen kann. Das Hauptaugenmerk liegt auf dem Werkzeug SRVMONPM, das diese Erkenntnisse im Rahmen einer Reihe von Programmen implementiert. Die Ergebnisse zweier Fallstudien werden grafisch aufbereitet dargestellt. Auf Grund der Erkenntnisse aus den beiden Studien und anderen Erfahrungen, die im Rahmen der Arbeiten mit dem Werkzeug gewonnen wurden, kommen wir zu dem Schluß, daß ein solches Werkzeug die Kontrollierbarkeit und Steuerbarkeit eines komplexen, verteilten Systems verbessert, daß es aber eine Reihe von Problemen gibt, die nicht einfach durch ein Werkzeug gelöst werden können. Der wesentliche Beitrag dieser Dissertation besteht im Entwurf und der Umsetzung einer Methodik zur Erfassung und Analyse umfangreicher Systemparameter aus verteilten Systemen über einen langen Zeitraum hinweg, die es ermöglicht, solche Systeme, die aus sehr vielen heterogenen Teilen bestehen, in ihrer Gesamtheit zu erfassen und zu durchleuchten. Neben statistischen Standardauswertungen wurde ein spezieller Algorithmus entwickelt, der es ermöglicht, ohne Kenntnisse oder Annahmen über das beobachtete System Korrelationen zwischen beliebigen Systemparametern zu finden. Dies ist deshalb wichtig, weil es auf Grund fehlenden Wissens bzw. Information praktisch unmöglich ist, für ein reales System die notwendigen Voraussetzungen klassischer Methoden zu erfüllen. Die daraus resultierende Methode arbeitet frei von Annahmen und ist auch für die Einbindung jeglicher weiterer Systeminformationen offen.
de