dc.contributor.author |
Παπαγεωργίου, Γεώργιος Μιχαήλ
|
|
dc.date.accessioned |
2025-07-04T09:16:46Z |
|
dc.date.available |
2025-07-04T09:16:46Z |
|
dc.identifier.uri |
https://dspace.lib.ntua.gr/xmlui/handle/123456789/62124 |
|
dc.identifier.uri |
http://dx.doi.org/10.26240/heal.ntua.29820 |
|
dc.rights |
Default License |
|
dc.subject |
Resource allocation, Cloud-native, Microservices, Edge–fog–cloud Topology, Deep Reinforcement Learning, Proximal Policy Optimisation, MILP, IoT orchestration, Energy efficiency |
en |
dc.title |
Ανάθεση Cloud Native Εφαρμογών σε Κατανεμημένες και Συνεργατικές Υποδομές IoΤ-Edge-Cloud με Χρήση Τεχνικών Μηχανικής Μάθησης |
el |
heal.type |
bachelorThesis |
|
heal.classification |
Cloud Engineering |
en |
heal.language |
el |
|
heal.access |
campus |
|
heal.recordProvider |
ntua |
el |
heal.publicationDate |
2025-07-02 |
|
heal.bibliographicCitation |
Πρότυπο του IEEE |
el |
heal.abstract |
Η εκρηκτική αύξηση των συσκευών IoT και η υιοθέτηση κατανεμημένων υποδομών edge–fog–cloud καθιστούν επιτακτική την ανάγκη για έξυπνη ενορχήστρωση φορτίων. Η παρούσα εργασία εξετάζει την βέλτιστη ανάθεση cloud-native μικροϋπηρεσιών σε ένα τριεπίπεδο συνεχές IoT-edge–fog–cloud, με στόχο τη μείωση του κόστους και της κατανάλωσης ενέργειας, εξασφαλίζοντας παράλληλα εγγυήσεις QoS στους τελικούς χρήστες. Αρχικά, το πρόβλημα διατυπώνεται ως Mixed-Integer Linear Programming (MILP) που ενσωματώνει περιορισμούς υπολογιστικής ισχύος, μνήμης, εύρους ζώνης, καθυστέρησης, αναπαραγωγής και μετανάστευσης. Παρά τη βέλτιστη λύση που παρέχει, ο MILP γίνεται ανεφάρμοστος σε πραγματικό χρόνο λόγω εκθετικής πολυπλοκότητας. Για την υπέρβαση του εμποδίου αυτού, αναπτύσσεται ένας ενορχηστρωτής Βαθιάς Ενισχυτικής Μάθησης (DRL) βασισμένος στον αλγόριθμο Maskable Proximal Policy Optimisation (PPO). Η μάσκα ενεργειών απορρίπτει μη επιτρεπτές ενέργειες, επιταχύνοντας την εκπαίδευση και διασφαλίζοντας την τήρηση όλων των περιορισμών. Ο πράκτορας εκπαιδεύεται με γνώμονα τις λύσεις MILP και αξιολογείται σε δύο τοπολογίες (15 και 45 κόμβων) υπό ένα στατικό και τρία δυναμικά σενάρια κίνησης. Τα πειραματικά αποτελέσματα δείχνουν ότι η πολιτική DRL επιτυγχάνει κόστος πολύ κοντά στο βέλτιστο, κατά κύριο λόγο 100 % αποδοχή αιτημάτων και έως πολύ μικρότερο χρόνο λήψης απόφασης έναντι του επιλυτή MILP, τηρώντας όλους τους περιορισμούς πόρων και καθυστέρησης. Συνεπώς, η προτεινόμενη προσέγγιση επιτρέπει ευέλικτη και ενεργειακά αποδοτική ενορχήστρωση cloud-native εφαρμογών IoT σε μεγάλες, συνεργατικές υποδομές edge. |
el |
heal.tableOfContents |
Περίληψη 5
Abstract 6
Ευχαριστίες 7
Κεφάλαιο 1: Εισαγωγή 11
1.1 Γενικά 11
1.2 Αντικείμενο Διπλωματικής Εργασίας 12
1.3 Οργάνωση του τόμου 13
Μέρος Ι: ΘΕΩΡΗΤΙΚΟ ΜΕΡΟΣ 14
Κεφάλαιο 2: Θεωρητικό Υπόβαθρο 15
2.1 Cloud Computing 15
2.1.1 Ορισμός και βασικές αρχές 15
2.1.2 Τα τρία κύρια Μοντέλα Υπηρεσιών (Infrastructure-as-a-Service, Platform-as-a-Service, Software-as-a-Service). 16
2.1.3 Τα τέσσερα μοντέλα ανάπτυξης του Νέφους 19
2.1.4 Πλεονεκτήματα και προκλήσεις 20
2.2 Cloud-Native Applications: 22
2.2.1 Ορισμός και Χαρακτηριστικά 22
2.2.2 Βασικές Τεχνολογίες και Εργαλεία 23
2.2.3 Microservices and Microservice Architecture 32
2.2.4 Διαχείριση cloud-native εφαρμογών σε κατανεμημένα περιβάλλοντα 36
2.3 Machine Learning 40
2.3.1 Χρήση Μηχανικής Μάθησης για Resource Allocation στο Νέφος 41
2.3.2 Markov Decision Processes & Reinforcement Learning 46
2.3.3 Deep Reinforcement Learning 61
Κεφάλαιο 3: Σχετική Εργασία 67
Μέρος ΙΙ: ΠΡΑΚΤΙΚΟ ΜΕΡΟΣ 70
Κεφάλαιο 4: Περιβάλλον, Πρόβλημα και λύση MILP 72
4.1 Γενικά 72
4.2 Διατύπωση προβλήματος – Problem Formulation 72
4.2.1 Μεταβλητές 73
4.2.2 Περιορισμοί του προβλήματος - Problem Constraints 82
4.2.3 Στόχος βελτιστοποίησης 87
Κεφάλαιο 5: Λύση βαθιάς ενισχυτικής μάθησης 89
5.1 Προτεινόμενη Λύση 89
5.2 Χώρος Κατάστασης – State Space 90
5.3 Χώρος Ενεργειών – Action Space 90
5.4 Μάσκα Ενεργειών – Action Mask 91
5.5 Συνάρτηση Επιβράβευσης – Reward Function 92
Κεφάλαιο 6: Τεχνική Υλοποίηση 97
6.1 Προγραμματιστικό περιβάλλον 97
6.2 Βιβλιοθήκες Python 97
6.2.1 Stable-Baselines3 97
6.2.2 Gym 98
6.2.3 Numpy 98
6.3 Μεταβλητές Περιβάλλοντος 99
6.3.1 Περιβάλλον 15 99
6.3.2 Περιβάλλον 45 103
6.4 Υπερ-παράμετροι και λοιπές μεταβλητές Εκπαίδευσης 106
Κεφάλαιο 7: Αποτελέσματα εκπαίδευσης και αξιολόγησης 109
7.1 Στατικό Πειραματικό Σενάριο – Περιβάλλον 15 109
7.2 Δυναμικό Πειραματικό Σενάριο – Περιβάλλον-15 111
7.3 Στατικό Πειραματικό Σενάριο – Περιβάλλον-45 115
7.4 Δυναμικό Πειραματικό Σενάριο – Περιβάλλον-45 117
7.5 Δυναμικό Πειραματικό Σενάριο με αφίξεις Poisson – Περιβάλλον-45 119
7.6 Δυναμικό Πειραματικό Σενάριο με κυματικές αφίξεις – Περιβάλλον-45 120
7.7 Σύγκριση Αποτελεσμάτων των τριών μεθόδων διαχείρισης χρηστών 120
7.8 Σύγκριση χρόνου εκτέλεσης MILP και PPO 123
Μέρος ΙΙΙ: ΕΠΙΛΟΓΟΣ 126
Κεφάλαιο 8: Συμπεράσματα και Μελλοντικές Επεκτάσεις 127
8.1 Σύνοψη 127
8.2 Συμπεράσματα Πειραματικών Δοκιμών 127
8.3 Συμβολή και περιορισμοί 130
8.4 Μελλοντικές Επεκτάσεις 130
Βιβλιογραφία 132 |
el |
heal.advisorName |
Βαρβαρίγος, Εμμανουήλ |
|
heal.advisorName |
Varvarigos, Emmanouel
|
|
heal.committeeMemberName |
Βαρβαρίγου, Θεοδώρα |
|
heal.committeeMemberName |
Τσέρπες, Κωνσταντίνος |
|
heal.academicPublisher |
Επικοινωνιών, Ηλεκτρονικής & Συστημάτων Πληροφορικής (el) |
el |
heal.academicPublisherID |
ntua |
|
heal.numberOfPages |
138 |
|
heal.fullTextAvailability |
false |
|