Bibliographic Metadata

Title
Online learning of timeout policies for dynamic power management / Umair Ali Khan
Additional Titles
Online learning of timeout policies for dynamic power management
AuthorKhan, Umair Ali
CensorRinner, Bernhard ; Platzner, Marco
Published2013
DescriptionIX, 87 Bl. : graph. Darst.
Institutional NoteKlagenfurt, Alpen-Adria-Univ., Diss., 2013
Annotation
Abweichender Titel laut Übersetzung der Verfasserin/des Verfassers
LanguageEnglish
Bibl. ReferenceOeBB
Document typeDissertation (PhD)
Keywords (DE)Reinforcement Learning / Dynamischem Power-Management / Eingebetteten Systemen
URNurn:nbn:at:at-ubk:1-11121 Persistent Identifier (URN)
Restriction-Information
 The work is publicly available
Files
Online learning of timeout policies for dynamic power management [3.43 mb]
Links
Reference
Classification
Abstract (German)

Diese Arbeit schlÃ$gt einen neuen Ansatz des maschinellen Lernens fÃr die Dynamic Power Management (DPM) von einem Computersystem zu seinen Stromverbrauch wÃ$hrend der Laufzeit zu reduzieren und gleichzeitig die Gesamtleistung auf einem optimalen Niveau. Diese Arbeit konzentriert sich hauptsÃ$chlich auf zwei wichtige Aspekte der dynamischen Power-Management: (i) Erhalt verschiedene LÃsungen entsprechend den Stromverbrauch und Leistung mit einer vom Benutzer gewÃ$hlten Kriterien, und (ii) dynamisch Neukonfiguration des Systems wÃ$hrend des Betriebs, so dass ein Benutzer angegebenen EinschrÃ$nkung (oder Ebene) der Stromverbrauch oder die Leistung erzielt wird.

Angesichts der Dynamik der realen Umgebungen, verwendet diese Technik ein DPM Reinforcement Learning (RL) basierenden Ansatz zur Anpassung an die Umwelt und die Anpassung der DPM Entscheidungen online wÃ$hrend den Betrieb des Systems. Die DPM Entscheidungen in diesem Rahmen lernen, die so genannte Online-Lernen von Timeout Policies (OLTP), sind die optimale Auswahl der Timeout-Werte in den verschiedenen ZustÃ$nde des GerÃ$tes. Im Gegensatz zu den weit verbreiteten statischem Timeout Politik gegenÃber lernt der OLTP dynamisch Ã$ndern die Timeout-Entscheidungen in den verschiedenen ZustÃ$nde des GerÃ$tes einschlieÃlich der nicht-operativen Staaten.

Der vorgeschlagene Ansatz ist DPM weiter in der Lage, die vom Benutzer angegebene Leistung / Performance EinschrÃ$nkungen Online Ãber Online Anpassung der Power / Leistung (OAPP) Rahmen anzupassen. DarÃber hinaus hat die VertrÃ$glichkeit und Wirksamkeit der vorgeschlagenen OLTP/OAPP Rahmen fÃr ein System mit einer hÃheren Anzahl von Leistung / Performance-ZustÃ$nde auch in dieser Arbeit nachgewiesen. Die vorgeschlagenen Techniken umgesetzt wurden und auf einem Embedded VerkehrsÃberwachung Plattform namens MobiTrick ausgewertet.

Abstract (English)

This thesis proposes a novel machine learning based approach for the Dynamic Power Management (DPM) of a computing system to reduce its power consumption during runtime while maintaining the overall performance at an optimal level. This work mainly focuses on two major aspects of dynamic power management: (i) obtaining different solutions corresponding to power consumption and performance with a user-selected criteria, and (ii) dynamically reconfiguring the system during the operation so that a user-specified constraint (or level) of power consumption or performance is achieved. Considering the dynamic nature of real environments, this DPM technique uses a Reinforcement Learning (RL) based approach to adapt to the environment and adjusting the DPM decisions online during the system's operation. The DPM decisions in this learning framework, referred to as Online Learning of Timeout Policies (OLTP), include the optimal selection of timeout values in the different device states. As opposed to the widely used static timeout policies, the OLTP learns to dynamically change the timeout decisions in the different device states including the non-operational states. The proposed DPM approach is further able to adapt the user-specified power/performance constraints online via an Online Adaptation of Power/Performance (OAPP) framework. Additionally, the compatibility and effectiveness of the proposed OLTP/OAPP framework for a system having a higher number of power/performance states has also been demonstrated in this thesis. The proposed techniques have been implemented and evaluated on an embedded traffic surveillance platform called MobiTrick.

Stats
The PDF-Document has been downloaded 14 times.