HEAL DSpace

Ανάθεση Cloud Native Εφαρμογών σε Κατανεμημένες και Συνεργατικές Υποδομές IoΤ-Edge-Cloud με Χρήση Τεχνικών Μηχανικής Μάθησης

Αποθετήριο DSpace/Manakin

Εμφάνιση απλής εγγραφής

dc.contributor.author Παπαγεωργίου, Γεώργιος Μιχαήλ
dc.date.accessioned 2025-07-04T09:16:46Z
dc.date.available 2025-07-04T09:16:46Z
dc.identifier.uri https://dspace.lib.ntua.gr/xmlui/handle/123456789/62124
dc.identifier.uri http://dx.doi.org/10.26240/heal.ntua.29820
dc.rights Default License
dc.subject Resource allocation, Cloud-native, Microservices, Edge–fog–cloud Topology, Deep Reinforcement Learning, Proximal Policy Optimisation, MILP, IoT orchestration, Energy efficiency en
dc.title Ανάθεση Cloud Native Εφαρμογών σε Κατανεμημένες και Συνεργατικές Υποδομές IoΤ-Edge-Cloud με Χρήση Τεχνικών Μηχανικής Μάθησης el
heal.type bachelorThesis
heal.classification Cloud Engineering en
heal.language el
heal.access campus
heal.recordProvider ntua el
heal.publicationDate 2025-07-02
heal.bibliographicCitation Πρότυπο του IEEE el
heal.abstract Η εκρηκτική αύξηση των συσκευών IoT και η υιοθέτηση κατανεμημένων υποδομών edge–fog–cloud καθιστούν επιτακτική την ανάγκη για έξυπνη ενορχήστρωση φορτίων. Η παρούσα εργασία εξετάζει την βέλτιστη ανάθεση cloud-native μικροϋπηρεσιών σε ένα τριεπίπεδο συνεχές IoT-edge–fog–cloud, με στόχο τη μείωση του κόστους και της κατανάλωσης ενέργειας, εξασφαλίζοντας παράλληλα εγγυήσεις QoS στους τελικούς χρήστες. Αρχικά, το πρόβλημα διατυπώνεται ως Mixed-Integer Linear Programming (MILP) που ενσωματώνει περιορισμούς υπολογιστικής ισχύος, μνήμης, εύρους ζώνης, καθυστέρησης, αναπαραγωγής και μετανάστευσης. Παρά τη βέλτιστη λύση που παρέχει, ο MILP γίνεται ανεφάρμοστος σε πραγματικό χρόνο λόγω εκθετικής πολυπλοκότητας. Για την υπέρβαση του εμποδίου αυτού, αναπτύσσεται ένας ενορχηστρωτής Βαθιάς Ενισχυτικής Μάθησης (DRL) βασισμένος στον αλγόριθμο Maskable Proximal Policy Optimisation (PPO). Η μάσκα ενεργειών απορρίπτει μη επιτρεπτές ενέργειες, επιταχύνοντας την εκπαίδευση και διασφαλίζοντας την τήρηση όλων των περιορισμών. Ο πράκτορας εκπαιδεύεται με γνώμονα τις λύσεις MILP και αξιολογείται σε δύο τοπολογίες (15 και 45 κόμβων) υπό ένα στατικό και τρία δυναμικά σενάρια κίνησης. Τα πειραματικά αποτελέσματα δείχνουν ότι η πολιτική DRL επιτυγχάνει κόστος πολύ κοντά στο βέλτιστο, κατά κύριο λόγο 100 % αποδοχή αιτημάτων και έως πολύ μικρότερο χρόνο λήψης απόφασης έναντι του επιλυτή MILP, τηρώντας όλους τους περιορισμούς πόρων και καθυστέρησης. Συνεπώς, η προτεινόμενη προσέγγιση επιτρέπει ευέλικτη και ενεργειακά αποδοτική ενορχήστρωση cloud-native εφαρμογών IoT σε μεγάλες, συνεργατικές υποδομές edge. el
heal.tableOfContents Περίληψη 5 Abstract 6 Ευχαριστίες 7 Κεφάλαιο 1: Εισαγωγή 11 1.1 Γενικά 11 1.2 Αντικείμενο Διπλωματικής Εργασίας 12 1.3 Οργάνωση του τόμου 13 Μέρος Ι: ΘΕΩΡΗΤΙΚΟ ΜΕΡΟΣ 14 Κεφάλαιο 2: Θεωρητικό Υπόβαθρο 15 2.1 Cloud Computing 15 2.1.1 Ορισμός και βασικές αρχές 15 2.1.2 Τα τρία κύρια Μοντέλα Υπηρεσιών (Infrastructure-as-a-Service, Platform-as-a-Service, Software-as-a-Service). 16 2.1.3 Τα τέσσερα μοντέλα ανάπτυξης του Νέφους 19 2.1.4 Πλεονεκτήματα και προκλήσεις 20 2.2 Cloud-Native Applications: 22 2.2.1 Ορισμός και Χαρακτηριστικά 22 2.2.2 Βασικές Τεχνολογίες και Εργαλεία 23 2.2.3 Microservices and Microservice Architecture 32 2.2.4 Διαχείριση cloud-native εφαρμογών σε κατανεμημένα περιβάλλοντα 36 2.3 Machine Learning 40 2.3.1 Χρήση Μηχανικής Μάθησης για Resource Allocation στο Νέφος 41 2.3.2 Markov Decision Processes & Reinforcement Learning 46 2.3.3 Deep Reinforcement Learning 61 Κεφάλαιο 3: Σχετική Εργασία 67 Μέρος ΙΙ: ΠΡΑΚΤΙΚΟ ΜΕΡΟΣ 70 Κεφάλαιο 4: Περιβάλλον, Πρόβλημα και λύση MILP 72 4.1 Γενικά 72 4.2 Διατύπωση προβλήματος – Problem Formulation 72 4.2.1 Μεταβλητές 73 4.2.2 Περιορισμοί του προβλήματος - Problem Constraints 82 4.2.3 Στόχος βελτιστοποίησης 87 Κεφάλαιο 5: Λύση βαθιάς ενισχυτικής μάθησης 89 5.1 Προτεινόμενη Λύση 89 5.2 Χώρος Κατάστασης – State Space 90 5.3 Χώρος Ενεργειών – Action Space 90 5.4 Μάσκα Ενεργειών – Action Mask 91 5.5 Συνάρτηση Επιβράβευσης – Reward Function 92 Κεφάλαιο 6: Τεχνική Υλοποίηση 97 6.1 Προγραμματιστικό περιβάλλον 97 6.2 Βιβλιοθήκες Python 97 6.2.1 Stable-Baselines3 97 6.2.2 Gym 98 6.2.3 Numpy 98 6.3 Μεταβλητές Περιβάλλοντος 99 6.3.1 Περιβάλλον 15 99 6.3.2 Περιβάλλον 45 103 6.4 Υπερ-παράμετροι και λοιπές μεταβλητές Εκπαίδευσης 106 Κεφάλαιο 7: Αποτελέσματα εκπαίδευσης και αξιολόγησης 109 7.1 Στατικό Πειραματικό Σενάριο – Περιβάλλον 15 109 7.2 Δυναμικό Πειραματικό Σενάριο – Περιβάλλον-15 111 7.3 Στατικό Πειραματικό Σενάριο – Περιβάλλον-45 115 7.4 Δυναμικό Πειραματικό Σενάριο – Περιβάλλον-45 117 7.5 Δυναμικό Πειραματικό Σενάριο με αφίξεις Poisson – Περιβάλλον-45 119 7.6 Δυναμικό Πειραματικό Σενάριο με κυματικές αφίξεις – Περιβάλλον-45 120 7.7 Σύγκριση Αποτελεσμάτων των τριών μεθόδων διαχείρισης χρηστών 120 7.8 Σύγκριση χρόνου εκτέλεσης MILP και PPO 123 Μέρος ΙΙΙ: ΕΠΙΛΟΓΟΣ 126 Κεφάλαιο 8: Συμπεράσματα και Μελλοντικές Επεκτάσεις 127 8.1 Σύνοψη 127 8.2 Συμπεράσματα Πειραματικών Δοκιμών 127 8.3 Συμβολή και περιορισμοί 130 8.4 Μελλοντικές Επεκτάσεις 130 Βιβλιογραφία 132 el
heal.advisorName Βαρβαρίγος, Εμμανουήλ
heal.advisorName Varvarigos, Emmanouel
heal.committeeMemberName Βαρβαρίγου, Θεοδώρα
heal.committeeMemberName Τσέρπες, Κωνσταντίνος
heal.academicPublisher Επικοινωνιών, Ηλεκτρονικής & Συστημάτων Πληροφορικής (el) el
heal.academicPublisherID ntua
heal.numberOfPages 138
heal.fullTextAvailability false


Αρχεία σε αυτό το τεκμήριο

Αυτό το τεκμήριο εμφανίζεται στην ακόλουθη συλλογή(ές)

Εμφάνιση απλής εγγραφής