HEAL DSpace

Προανάκτηση δεδομένων στην κρυφή μνήμη με χρήση μοντέλων μηχανικής μάθησης

Αποθετήριο DSpace/Manakin

Εμφάνιση απλής εγγραφής

dc.contributor.author Καραλή, Αικατερίνη el
dc.contributor.author Karali, Aikaterini en
dc.date.accessioned 2021-12-21T12:10:56Z
dc.date.available 2021-12-21T12:10:56Z
dc.identifier.uri https://dspace.lib.ntua.gr/xmlui/handle/123456789/54221
dc.identifier.uri http://dx.doi.org/10.26240/heal.ntua.21919
dc.rights Default License
dc.subject Προανάκτηση el
dc.subject Κρυφή μνήμη τελευταίου επιπέδου el
dc.subject Δέλτα el
dc.subject Νευρωνικά δίκτυα el
dc.subject Κυτταρα μακράς βραχέας μνήμης el
dc.subject Μηχανισμός προσοχής el
dc.subject Prefetching en
dc.subject Last level cache en
dc.subject Delta en
dc.subject PC-based prefetching en
dc.subject Neural networks en
dc.subject LSTM en
dc.subject Attention mechanism en
dc.subject Transformer en
dc.title Προανάκτηση δεδομένων στην κρυφή μνήμη με χρήση μοντέλων μηχανικής μάθησης el
heal.type bachelorThesis
heal.classification Προανάκτηση el
heal.classification Prefetching en
heal.language el
heal.access free
heal.recordProvider ntua el
heal.publicationDate 2021-07-01
heal.abstract Πολλοί είναι οι μηχανισμοί που χρησιμοποιούνται για τη βελτίωση της απόδοσης των εφαρμογών. Η προανάκτηση (\en{prefetching}) αφορά τη μετακίνηση δεδομένων σε ταχύτερες, ως προς το χρόνο πρόσβασης, μνήμες και έχει προταθεί ως λύση για την μείωση του άεργου χρόνου του επεξεργαστή, εν αναμονή δεδομένων από την κύρια μνήμη. Οι πλέον γνωστοί \en{prefetchers} χρησιμοποιούν πρόσφατες προσβάσεις στη μνήμη για να προβλέψουν τις μελλοντικές, ακολουθώντας απλούς ευριστικούς κανόνες ή πολύπλοκους αλγορίθμους. Στις προσεγγίσεις αυτές, δεδομένων των πόρων που έχουν δοθεί, καθορίζεται ένα όριο που αφορά την πολυπλοκότητα των μοντέλων πρόσβασης στη μνήμη, ενώ πιο εξειδικευμένοι \en{prefetchers} δύναται να συλλάβουν πιο πολύπλοκα μοτίβα. Τα νευρωνικά δίκτυα, και γενικότερα η μηχανική μάθηση, φαίνεται να μπορούν να συνδράμουν σε αυτό το σημείο και να αποτελέσουν μία καθολική μέθοδο που να ανταποκρίνεται σε όλο το εύρος των εφαρμογών. Μέσω της εκπαίδευσης και της προσαρμογής των βαρών τους, τα νευρωνικά δίκτυα μπορούν να προσεγγίσουν διαφορετικά μοντέλα πρόσβασης, εστιάζοντας στην τρέχουσα εφαρμογή. Σε αυτή την διπλωματική εργασία υλοποιούμε και αξιολογούμε δύο μοντέλα επαναλαμβανόμενων νευρωνικών δικτύων (\en{recurrent neural networks}), το πρώτο βασισμένο στα κύτταρα μακράς βραχέας μνήμης (\en{long short-term memory}) και το δεύτερο στο μηχανισμό προσοχής \en{Transformer}. Αντιμετωπίζουμε το πρόβλημα της προανάκτησης ως πρόβλημα ταξινόμησης και διαχωρίζουμε τη ροή δεδομένων για κάθε δείκτη προγράμματος. Εφαρμόζουμε τον μηχανισμό στην κρυφή μνήμη τρίτου (τελευταίου) επιπέδου. Τα πειραματικά αποτελέσματα μας ενισχύουν την ιδέα πως τα νευρωνικά δίκτυα αποτελούν πρόσφορο έδαφος για την υλοποίηση ενός καθολικού μηχανισμού προανάκτησης, ενώ μεταξύ των δύο υλοποιούμενων τύπων δεν διαφαίνεται υπεροχή του ενός έναντι του άλλου. Τέλος, ιδιαίτερη σημασία έχει η αξιολόγηση των παραμέτρων καθώς και των σχεδιαστικών επιλογών που απαιτήθηκαν για την υλοποίηση. el
heal.abstract Many are the mechanisms used to boost execution performance. Prefetching, i.e. fetching data or instructions to a faster in terms of access time local memory before it is actually needed, have been proposed as a solution to reduce processor's idle time, waiting for data from main memory. Best known prefetching techniques are based on recent memory accesses to predict future ones, using simple heuristic rules and algorithms. In these approaches the given resources set a limit on the complexity of memory access patterns that can be captured, while more sophisticated prefetchers are highly capable to respond. Neural networks, in which models are trained independently for each application, may be a promising solution to address this problem. In this thesis the models implemented and evaluated belong to recurrent neural networks. The first one is based on Long Short-term Memory cells while the second uses only attention mechanisms and more specifically a technique called Transformer. The 'prefetching problem', while at first seems to be a regression problem, is treated as a classification one. The prefetching mechanism is PC-based and applied in the Last Level Cache. The experimental results reinforce the idea that neural networks are breeding ground for the implementation of a universal prefetching mechanism. Regarding the two models studied in this thesis, there is no apparent superiority of one over the other. The evaluation of the parameters as well as the design options of the implementation is of particular importance. en
heal.advisorName Κοζύρης, Νεκτάριος el
heal.committeeMemberName Γκούμας, Γεώργιος el
heal.committeeMemberName Πνευματικάτος, Διονύσιος el
heal.academicPublisher Εθνικό Μετσόβιο Πολυτεχνείο. Σχολή Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών. Τομέας Τεχνολογίας Πληροφορικής και Υπολογιστών el
heal.academicPublisherID ntua
heal.numberOfPages 102 σ. el
heal.fullTextAvailability false


Αρχεία σε αυτό το τεκμήριο

Αυτό το τεκμήριο εμφανίζεται στην ακόλουθη συλλογή(ές)

Εμφάνιση απλής εγγραφής