HEAL DSpace

Συγκριτική αξιολόγηση κατανεμημένων συστημάτων βαθιάς μηχανικής μάθησης σε περιβάλλον υπολογιστικού νέφους

Αποθετήριο DSpace/Manakin

Εμφάνιση απλής εγγραφής

dc.contributor.author Κρίσιλιας, Ανδρέας el
dc.contributor.author Krisilias, Andreas en
dc.date.accessioned 2021-07-20T09:34:39Z
dc.date.available 2021-07-20T09:34:39Z
dc.identifier.uri https://dspace.lib.ntua.gr/xmlui/handle/123456789/53659
dc.identifier.uri http://dx.doi.org/10.26240/heal.ntua.21357
dc.rights Default License
dc.subject Deep learning en
dc.subject Distributed learning en
dc.subject Mxnet en
dc.subject Pytorch en
dc.subject Tensorflow en
dc.subject Κατανεμημένη εκπαίδευση el
dc.subject Βαθιά νευρωνική μάθηση el
dc.subject Κατηγοριοποίηση εικόνας el
dc.subject Υνελικτικά νευρωνικά δίκτυα el
dc.subject Διακομιστής παραμέτρων el
dc.title Συγκριτική αξιολόγηση κατανεμημένων συστημάτων βαθιάς μηχανικής μάθησης σε περιβάλλον υπολογιστικού νέφους el
heal.type bachelorThesis
heal.classification Computer Science en
heal.classification Πληροφορική el
heal.language el
heal.language en
heal.access free
heal.recordProvider ntua el
heal.publicationDate 2021-07-08
heal.abstract Η δημοτικότητα της βαθιάς μηχανικής μάθησης έχει εκτοξευτεί την τελευταία δεκαετία κυρίως σε εφαρμογές επεξεργασίας ήχου, εικόνας ή φυσικής γλώσσας. Σε συνδυασμό με τον ολοένα αυξανόμενο όγκο των δεδομένων έχει γίνει επιτακτική ανάγκη η εκπαίδευση νευρωνικών δικτύων με κατανεμημένο τρόπο από ομάδες (clusters) υπολογιστικών πόρων. Παράλληλα, έχουν εκδοθεί πολλαπλές βιβλιοθήκες/συστήματα για την διευκόλυνση υλοποίησης και εκπαίδευσης βαθιών νευρωνικών δικτύων. Θα ήταν χρήσιμο, συνεπώς, για τον χρήστη να μπορεί να διακρίνει τις διαφορές μεταξύ των διαφορετικών συστημάτων τόσο σε απόδοση όσο και σε ευχρηστία, ώστε να μπορεί να διαλέξει το κατάλληλο σύμφωνα με τις δικές του ανάγκες. Στην παρούσα εργασία εξετάζονται τρία από τα πιο διάσημα συστήματα βαθιάς μηχανικής μάθησης που υποστηρίζουν εκπαίδευση σε κατανεμημένο περιβάλλον, τα TensorFlow, PyTorch και MXNet. Αξιολογούνται συγκριτικά πάνω σε cluster τριών μηχανημάτων αποτελούμενα από επεξεργαστές Intel. Τα πειράματα απαρτίζονται από έξι συνδυασμούς μεταξύ τεσσάρων διαφορετικών νευρωνικών δικτύων και δύο συνόλων δεδομένων. Από τα αποτελέσματα φαίνεται ότι τα PyTorch και MXNet είναι πολύ πιο αποδοτικά όταν τρέχουν σε επεξεργαστές Intel λόγω των ειδικά βελτιστοποιημένων τελεστών που χρησιμοποιούν, ενώ το TensorFlow μπορεί να μειώσει το χρόνο φόρτωσης δεδομένων ιδίως σε μικρά δίκτυα κάνοντας χρήση της cache. Ακόμα, γίνεται εντοπισμός αργών υλοποιήσεων μεμονωμένων τελεστών σε όλα τα συστήματα. Το MXNet φαίνεται να υπερέχει ελαφρώς στην ταχύτητα κατανεμημένης επικοινωνίας, παρότι αυτό δεν επηρεάζει ιδιαίτερα το τελικό αποτέλεσμα. el
heal.abstract The popularity of deep learning has skyrocketed in the last decade mainly in audio, video or natural language processing applications. In combination with the increasing volume of data, it has become imperative to train neural networks in a distributed way using clusters of computational resources. At the same time, multiple libraries/systems have been published to facilitate the implementation and training of deep neural networks. Thus, it would be useful for the user to be able to distinguish the differences between the different systems in both performance and usability, so that they can choose the right one according to their own needs. This thesis examines three of the most popular deep learning systems that support distributed training, TensorFlow, PyTorch and MXNet. They are comparatively evaluated on a cluster of three machines consisting of Intel processors. The experiments consist of six combinations between four different neural networks and two datasets. The results show that PyTorch and MXNet are much more efficient when running on Intel processors due to the specially optimized operators they use, while TensorFlow can reduce data load time especially on small networks by using cache. Also, slow implementations of individual operators are detected in all systems. MXNet seems to outperform slightly in the speed of distributed communication, although this does not significantly affect the end result. en
heal.advisorName Κοζύρης, Νεκτάριος el
heal.committeeMemberName Κοζύρης, Νεκτάριος el
heal.committeeMemberName Γκούμας, Γεώργιος el
heal.committeeMemberName Κωσταντίνου, Ιωάννης el
heal.academicPublisher Εθνικό Μετσόβιο Πολυτεχνείο. Σχολή Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών. Τομέας Τεχνολογίας Πληροφορικής και Υπολογιστών. Εργαστήριο Υπολογιστικών Συστημάτων el
heal.academicPublisherID ntua
heal.numberOfPages 113 σ. el
heal.fullTextAvailability false


Αρχεία σε αυτό το τεκμήριο

Αυτό το τεκμήριο εμφανίζεται στην ακόλουθη συλλογή(ές)

Εμφάνιση απλής εγγραφής