dc.contributor.author |
Καραλή, Αικατερίνη
|
el |
dc.contributor.author |
Karali, Aikaterini
|
en |
dc.date.accessioned |
2021-12-21T12:10:56Z |
|
dc.date.available |
2021-12-21T12:10:56Z |
|
dc.identifier.uri |
https://dspace.lib.ntua.gr/xmlui/handle/123456789/54221 |
|
dc.identifier.uri |
http://dx.doi.org/10.26240/heal.ntua.21919 |
|
dc.rights |
Default License |
|
dc.subject |
Προανάκτηση |
el |
dc.subject |
Κρυφή μνήμη τελευταίου επιπέδου |
el |
dc.subject |
Δέλτα |
el |
dc.subject |
Νευρωνικά δίκτυα |
el |
dc.subject |
Κυτταρα μακράς βραχέας μνήμης |
el |
dc.subject |
Μηχανισμός προσοχής |
el |
dc.subject |
Prefetching |
en |
dc.subject |
Last level cache |
en |
dc.subject |
Delta |
en |
dc.subject |
PC-based prefetching |
en |
dc.subject |
Neural networks |
en |
dc.subject |
LSTM |
en |
dc.subject |
Attention mechanism |
en |
dc.subject |
Transformer |
en |
dc.title |
Προανάκτηση δεδομένων στην κρυφή μνήμη με χρήση μοντέλων μηχανικής μάθησης |
el |
heal.type |
bachelorThesis |
|
heal.classification |
Προανάκτηση |
el |
heal.classification |
Prefetching |
en |
heal.language |
el |
|
heal.access |
free |
|
heal.recordProvider |
ntua |
el |
heal.publicationDate |
2021-07-01 |
|
heal.abstract |
Πολλοί είναι οι μηχανισμοί που χρησιμοποιούνται για τη βελτίωση της απόδοσης των εφαρμογών. Η προανάκτηση (\en{prefetching}) αφορά τη μετακίνηση δεδομένων σε ταχύτερες, ως προς το χρόνο πρόσβασης, μνήμες και έχει προταθεί ως λύση για την μείωση του άεργου χρόνου του επεξεργαστή, εν αναμονή δεδομένων από την κύρια μνήμη. Οι πλέον γνωστοί \en{prefetchers} χρησιμοποιούν πρόσφατες προσβάσεις στη μνήμη για να προβλέψουν τις μελλοντικές, ακολουθώντας απλούς ευριστικούς κανόνες ή πολύπλοκους αλγορίθμους. Στις προσεγγίσεις αυτές, δεδομένων των πόρων που έχουν δοθεί, καθορίζεται ένα όριο που αφορά την πολυπλοκότητα των μοντέλων πρόσβασης στη μνήμη, ενώ πιο εξειδικευμένοι \en{prefetchers} δύναται να συλλάβουν πιο πολύπλοκα μοτίβα.
Τα νευρωνικά δίκτυα, και γενικότερα η μηχανική μάθηση, φαίνεται να μπορούν να συνδράμουν σε αυτό το σημείο και να αποτελέσουν μία καθολική μέθοδο που να ανταποκρίνεται σε όλο το εύρος των εφαρμογών. Μέσω της εκπαίδευσης και της προσαρμογής των βαρών τους, τα νευρωνικά δίκτυα μπορούν να προσεγγίσουν διαφορετικά μοντέλα πρόσβασης, εστιάζοντας στην τρέχουσα εφαρμογή. Σε αυτή την διπλωματική εργασία υλοποιούμε και αξιολογούμε δύο μοντέλα επαναλαμβανόμενων νευρωνικών δικτύων (\en{recurrent neural networks}), το πρώτο βασισμένο στα κύτταρα μακράς βραχέας μνήμης (\en{long short-term memory}) και το δεύτερο στο μηχανισμό προσοχής \en{Transformer}. Αντιμετωπίζουμε το πρόβλημα της προανάκτησης ως πρόβλημα ταξινόμησης και διαχωρίζουμε τη ροή δεδομένων για κάθε δείκτη προγράμματος. Εφαρμόζουμε τον μηχανισμό στην κρυφή μνήμη τρίτου (τελευταίου) επιπέδου. Τα πειραματικά αποτελέσματα μας ενισχύουν την ιδέα πως τα νευρωνικά δίκτυα αποτελούν πρόσφορο έδαφος για την υλοποίηση ενός καθολικού μηχανισμού προανάκτησης, ενώ μεταξύ των δύο υλοποιούμενων τύπων δεν διαφαίνεται υπεροχή του ενός έναντι του άλλου. Τέλος, ιδιαίτερη σημασία έχει η αξιολόγηση των παραμέτρων καθώς και των σχεδιαστικών επιλογών που απαιτήθηκαν για την υλοποίηση. |
el |
heal.abstract |
Many are the mechanisms used to boost execution performance. Prefetching, i.e. fetching data or instructions to a faster in terms of access time local memory before it is actually needed, have been proposed as a solution to reduce processor's idle time, waiting for data from main memory. Best known prefetching techniques are based on recent memory accesses to predict future ones, using simple heuristic rules and algorithms. In these approaches the given resources set a limit on the complexity of memory access patterns that can be captured, while more sophisticated prefetchers are highly capable to respond. Neural networks, in which models are trained independently for each application, may be a promising solution to address this problem. In this thesis the models implemented and evaluated belong to recurrent neural networks. The first one is based on Long Short-term Memory cells while the second uses only attention mechanisms and more specifically a technique called Transformer. The 'prefetching problem', while at first seems to be a regression problem, is treated as a classification one. The prefetching mechanism is PC-based and applied in the Last Level Cache. The experimental results reinforce the idea that neural networks are breeding ground for the implementation of a universal prefetching mechanism. Regarding the two models studied in this thesis, there is no apparent superiority of one over the other. The evaluation of the parameters as well as the design options of the implementation is of particular importance. |
en |
heal.advisorName |
Κοζύρης, Νεκτάριος |
el |
heal.committeeMemberName |
Γκούμας, Γεώργιος |
el |
heal.committeeMemberName |
Πνευματικάτος, Διονύσιος |
el |
heal.academicPublisher |
Εθνικό Μετσόβιο Πολυτεχνείο. Σχολή Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών. Τομέας Τεχνολογίας Πληροφορικής και Υπολογιστών |
el |
heal.academicPublisherID |
ntua |
|
heal.numberOfPages |
102 σ. |
el |
heal.fullTextAvailability |
false |
|