Titelaufnahme

Titel
Online learning of timeout policies for dynamic power management / Umair Ali Khan
Weitere Titel
Online learning of timeout policies for dynamic power management
VerfasserKhan, Umair Ali
Begutachter / BegutachterinRinner, Bernhard ; Platzner, Marco
Erschienen2013
UmfangIX, 87 Bl. : graph. Darst.
HochschulschriftKlagenfurt, Alpen-Adria-Univ., Diss., 2013
Anmerkung
Abweichender Titel laut Übersetzung der Verfasserin/des Verfassers
SpracheEnglisch
Bibl. ReferenzOeBB
DokumenttypDissertation
Schlagwörter (DE)Reinforcement Learning / Dynamischem Power-Management / Eingebetteten Systemen
URNurn:nbn:at:at-ubk:1-11121 Persistent Identifier (URN)
Zugriffsbeschränkung
 Das Werk ist frei verfügbar
Dateien
Online learning of timeout policies for dynamic power management [3.43 mb]
Links
Nachweis
Klassifikation
Zusammenfassung (Deutsch)

Diese Arbeit schlÃ$gt einen neuen Ansatz des maschinellen Lernens fÃr die Dynamic Power Management (DPM) von einem Computersystem zu seinen Stromverbrauch wÃ$hrend der Laufzeit zu reduzieren und gleichzeitig die Gesamtleistung auf einem optimalen Niveau. Diese Arbeit konzentriert sich hauptsÃ$chlich auf zwei wichtige Aspekte der dynamischen Power-Management: (i) Erhalt verschiedene LÃsungen entsprechend den Stromverbrauch und Leistung mit einer vom Benutzer gewÃ$hlten Kriterien, und (ii) dynamisch Neukonfiguration des Systems wÃ$hrend des Betriebs, so dass ein Benutzer angegebenen EinschrÃ$nkung (oder Ebene) der Stromverbrauch oder die Leistung erzielt wird.

Angesichts der Dynamik der realen Umgebungen, verwendet diese Technik ein DPM Reinforcement Learning (RL) basierenden Ansatz zur Anpassung an die Umwelt und die Anpassung der DPM Entscheidungen online wÃ$hrend den Betrieb des Systems. Die DPM Entscheidungen in diesem Rahmen lernen, die so genannte Online-Lernen von Timeout Policies (OLTP), sind die optimale Auswahl der Timeout-Werte in den verschiedenen ZustÃ$nde des GerÃ$tes. Im Gegensatz zu den weit verbreiteten statischem Timeout Politik gegenÃber lernt der OLTP dynamisch Ã$ndern die Timeout-Entscheidungen in den verschiedenen ZustÃ$nde des GerÃ$tes einschlieÃlich der nicht-operativen Staaten.

Der vorgeschlagene Ansatz ist DPM weiter in der Lage, die vom Benutzer angegebene Leistung / Performance EinschrÃ$nkungen Online Ãber Online Anpassung der Power / Leistung (OAPP) Rahmen anzupassen. DarÃber hinaus hat die VertrÃ$glichkeit und Wirksamkeit der vorgeschlagenen OLTP/OAPP Rahmen fÃr ein System mit einer hÃheren Anzahl von Leistung / Performance-ZustÃ$nde auch in dieser Arbeit nachgewiesen. Die vorgeschlagenen Techniken umgesetzt wurden und auf einem Embedded VerkehrsÃberwachung Plattform namens MobiTrick ausgewertet.

Zusammenfassung (Englisch)

This thesis proposes a novel machine learning based approach for the Dynamic Power Management (DPM) of a computing system to reduce its power consumption during runtime while maintaining the overall performance at an optimal level. This work mainly focuses on two major aspects of dynamic power management: (i) obtaining different solutions corresponding to power consumption and performance with a user-selected criteria, and (ii) dynamically reconfiguring the system during the operation so that a user-specified constraint (or level) of power consumption or performance is achieved. Considering the dynamic nature of real environments, this DPM technique uses a Reinforcement Learning (RL) based approach to adapt to the environment and adjusting the DPM decisions online during the system's operation. The DPM decisions in this learning framework, referred to as Online Learning of Timeout Policies (OLTP), include the optimal selection of timeout values in the different device states. As opposed to the widely used static timeout policies, the OLTP learns to dynamically change the timeout decisions in the different device states including the non-operational states. The proposed DPM approach is further able to adapt the user-specified power/performance constraints online via an Online Adaptation of Power/Performance (OAPP) framework. Additionally, the compatibility and effectiveness of the proposed OLTP/OAPP framework for a system having a higher number of power/performance states has also been demonstrated in this thesis. The proposed techniques have been implemented and evaluated on an embedded traffic surveillance platform called MobiTrick.

Statistik
Das PDF-Dokument wurde 12 mal heruntergeladen.