Maurer, M. (2012). Governance of Cloud computing infrastructures using knowledge management [Dissertation, Technische Universität Wien]. reposiTUm. https://resolver.obvsg.at/urn:nbn:at:at-ubtuw:1-50060
Cloud Computing; Resourcemanagement; Service Level Agreement (SLA); Energieeffizienz; SLA Mappings; SLA Enactment; Infrastructure as a Service (IaaS); Wissensmanagement; Fallbasiertes Schließen; Regelbasiertes Schließen
de
Cloud computing; resource management; service level agreement (SLA); energy efficiency; SLA Mappings; SLA enactment; infrastructure as a service (IaaS); knowledge management; case based reasoning (CBR); rule-based system
en
Abstract:
Cloud Computing hat in den letzten Jahren reges Interesse erfahren. Die Vision von Cloud Computing, Kunden Rechenleistung als Dienstleistung wie Wasser, Strom oder Gas anzubieten, impliziert das Vorhandensein von schier unlimitierten und augenblicklich verfügbaren Rechenresourcen. Jedoch gibt es noch viele Hindernisse auf dem Weg dieses Ziel zu erreichen. Diese Dissertation nimmt zwei davon in Angriff, die im Bezug zu Service Level Agreements (deutsch etwa Dienstgütevereinbarung, Abk. SLA) stehen: adaptive SLA Mappings (deutsch etwa SLA Zuordnungen) und resource- und energieeffizientes SLA enactement (deutsch etwa das Einhalten von SLAs). Ein Anbieter von Cloud Computing, der seine Rechenresourcen anbieten möchte, unterzeichnet einen Vertrag, ein sogenanntes SLA, mit seinem Kunden. In diesem SLA spezifiziert der Anbieter die Gütekriterien (englisch Quality of Service, Abk. QoS), die er einhalten möchte, den Preis, den der Kunde bezahlen muss, sowie die Strafe, die der Anbieter bezahlen muss, falls er die QoS-Garantien bricht. Der Kunde hat sein eigenes SLA mit QoS-Garantien, die er sucht, und mit den Preisen, die er zu zahlen bereit ist. Das Zusammenbringen von Angebot und Nachfrage ist speziell deshalb schwierig, weil nicht standardisierte, sich häufig ändernde Definitionen von Rechenresourcen in elektronischen Märkten eine große Vielfalt an verschiedenen SLAs verursachen. Des Weiteren sind diese SLAs meistens in internen Geschäftsprozessen verankert und können daher nicht leicht verändert werden.<br />Wir verwenden in dieser Dissertation SLA-Vorlagen (englisch SLA templates) und SLA Mappings, die es Anbietern und Kunden erlauben sich Parameter ihrer SLAs gegenseitig zuzuordnen ohne die originalen SLAs verändern zu müssen. Von diesen Mappings lernen wir die Präferenzen der Anwender. Dadurch sind wir in der Lage öffentliche SLA-Vorlagen zu generieren und zu adaptieren, die die Anwenderpräferenzen widerspiegeln und die uns helfen SLAs zu standardisieren. Wir präsentieren eine Kosten-Nutzenrechnung von diesem Ansatz und evaluieren verschiedene Lern- und Adaptionsstrategien. Nachdem sich Angebot und Nachfrage gefunden haben und das SLA unterzeichnet worden ist, muss der Cloud Computing-Anbieter seine Versprechen trotz dynamischer Auslastungsveränderungen einhalten um SLA-Strafzahlungen zu vermeiden. Andererseits sind auch Resourceunterauslastung und die dadurch entstehende Energieverschwendung große Kostenfaktoren in großen verteilen Systemen (englisch large-scale distributed systems). Daher haben Cloud Computing-Anbieter das Ziel SLA-Verletzungen zu minimieren, die Resourceauslatung zu maximieren und Energieverschwendung zu minimieren. Allerdings ist dies nicht einfach, da Cloud Computing-Infrastrukturen aus vielen verschieden konfigurierbaren Elementen bestehen. Diese Elemente sind Applikationen, virtuelle Maschinen (VM), physische Maschinen (Server, Abk. PM) und andere Cloud-Anbieter, zu denen man Applikationen outsourcen kann. Dies führt zu einer unüberschaubaren Anzahl an möglichen Rekonfigurations- und Reallokationssaktionen von diesen Elementen und den Resourcen, denen sie zugeordnet sind. Viele der entstehenden Probleme sind typischerweise NP-schwer.<br />Diese Dissertation benutzt Autonomic Computing und Wissensmanagement (englisch knowledge management, Abk. KM) um Cloud Computing-Infrastrukturen zu verwalten und zu steuern. Wir finden und strukturieren mögliche reaktive und proaktive Aktionen, die SLA-Verletzungen vermeiden, die Resourcenauslastung erhöhen und den Energieverbrauch reduzieren. Zuerst konzentrieren wir uns auf die (Re-)konfiguration von VM-Resourcen und betrachten einige Wissensmanagementmethoden wie Case Based Reasoning (deutsch Fallbasiertes Schließen), Default Logic, Situationskalkül (englisch situation calculus) und einen regelbasierten Ansatz. Wir entwerfen und implementieren eine KM-agnostische Simulationsumgebung, mit der wir die Eignung dieser Ansätze evaluieren. Der regelbasierte Ansatz schneidet am besten ab, sowohl was die Qualität der empfohlenen Aktionen, als auch seine Skalierbarkeit (englisch scalability) betrifft. Allerdings wurden auch Parameter identifiziert, die die Leistung des regelbasierten Ansatzes stark beeinflussen. Deswegen wurde ein selbstadaptiver regelbasierter Ansatz entwickelt, der sich schwankender Auslastungsvolatilität (englisch workload volatility) autonom anpasst.<br />Weiters beschreiben wir Lösungen und Modelle für das Migrieren von VMs und das PM-Power-Management. Wir zeigen, dass dieses Managementproblem eine Instanz des NP-schweren binary integer programming-Problems ist und evaluieren mehrere Heuristiken, die den Energieverbrauch reduzieren.<br />Dabei zeigen wir auch, dass die (Re-)konfigurationen der VMs nicht nur die Resource-, sondern auch die Energieeffizienz steigern. Schließlich präsentieren wir eine mögliche Erweiterung der KM-Lösung für Cloud-Föderationen (englisch Cloud federations).<br />
de
Cloud computing has gained a lot of momentum in recent years.<br />Its vision is to offer computing power as a utility implying sheerly unlimited and instantly provisioned resources for customers. However, there are a lot of obstacles towards these goals. This thesis tackles two of them related to Service Level Agreements (SLAs): adaptive SLA mapping, and resource- and energy-efficient SLA enactment. A Cloud provider who wants to offer computing resources signs an SLA with the customer. In this SLA the provider states the Quality of Service (QoS) she will guarantee, the price the customer will have to pay, and the penalty the provider will have to pay in case she breaches the QoS guarantees. The customer has his own SLA with the QoS guarantees he wants, and the prices he is willing to pay. Matching these bids and asks is especially hard as non-standardized varying definitions of computing resources in electronic markets cause a large variety of different SLAs. Moreover, these SLAs are typically bound to internal business processes and, therefore, cannot be altered easily.<br />In this thesis we use SLA templates and SLA mappings that allow providers and customers to map parameters of their SLAs to each other without changing the original ones. From these mappings we learn user preferences and are able to generate and adapt public SLA templates that reflect the users' needs and help to standardize SLAs. We present a cost-benefit analysis of this approach and evaluate various learning and adaptation strategies.<br />Furthermore, after bids and asks have been matched and the SLA has been signed, the Cloud provider has to keep up to her promises to avoid SLA penalties - despite all the dynamism of workload changes. On the other hand, also under-utilization of resources and high energy wastage are big cost factors in large-scale distributed systems. Consequently, a Cloud provider aims at minimizing SLA violations, maximizing resource utilization, and minimizing energy wastage. However, this is not straightforward as Cloud computing infrastructures consist of many differently configurable elements as applications, virtual machines (VMs), physical machines (PMs), and also other Cloud providers, to which applications can be outsourced. This leads to a plethora of possible reconfiguration and reallocation actions of these elements and the resources they are assigned to. Many of the resulting problems are typically NP-hard.<br />This thesis uses autonomic computing and knowledge management to govern cloud computing infrastructures. We find and structure possible reactive and proactive actions that prevent SLA violations, increase resource utilization and lower energy usage. First, we focus on VM resource (re-)configuration and investigate several knowledge management (KM) techniques such as case based reasoning, default logic, situation calculus, or a rule-based approach. We design and implement a KM-technique agnostic simulation engine to evaluate the suitability of these approaches. The rule-based approach is found most profitable in terms of the quality of the recommended actions, as well as its scalability. However, parameters were identified, on which the performance of the rule-based approach largely depends. Therefore, a self-adapting rule-based approach is introduced that autonomically adapts to changing workload volatility. Furthermore, we tackle VM migrations and PM power management. We introduce migration models for VMs and power management models for PMs, show that this management problem is an instance of the NP-hard binary integer programming problem, and apply and evaluate several heuristics reducing energy consumption. Doing this, it also proven that the VM (re-)configurations do not only increase resource, but also energy efficiency. Finally, we show a possible extension of the KM approach for Cloud federations.
en
Additional information:
Zsfassung in dt. Sprache Teile dieser Arbeit u.a. auch erschienen in: Michael Maurer, Vincent C. Emeakaroha, Ivona Brandic, Joern Altmann. Cost-Benefit Analysis of an SLA Mapping Approach for Defining Standardized Cloud Computing Goods. Future Generation Computer Systems, 2011.