HEAL DSpace

Στρατηγικές ανθεκτικότητας για νευρωνικά δίκτυα σε υλικό

Αποθετήριο DSpace/Manakin

Εμφάνιση απλής εγγραφής

dc.contributor.author Πατεράκης, Αλέξανδρος el
dc.contributor.author Paterakis, Alexandros en
dc.date.accessioned 2024-12-04T07:58:03Z
dc.date.available 2024-12-04T07:58:03Z
dc.identifier.uri https://dspace.lib.ntua.gr/xmlui/handle/123456789/60502
dc.identifier.uri http://dx.doi.org/10.26240/heal.ntua.28198
dc.rights Αναφορά Δημιουργού 3.0 Ελλάδα *
dc.rights.uri http://creativecommons.org/licenses/by/3.0/gr/ *
dc.subject Neural Networks en
dc.subject Hardware en
dc.subject Edge Computing en
dc.subject Image Classification en
dc.subject Robustness en
dc.title Στρατηγικές ανθεκτικότητας για νευρωνικά δίκτυα σε υλικό el
dc.title Adversarial Robustness Strategies for Neural Networks in Hardware en
heal.type bachelorThesis
heal.classification Neural networks en
heal.language el
heal.language en
heal.access free
heal.recordProvider ntua el
heal.publicationDate 2024-04-02
heal.abstract While Neural Networks have been in research for multiple years, they have experienced a significant surge in popularity only in the last decade. This surge has helped revolutionize various sectors and fields from medical to agriculture to automotive automation and many more, while their capabilities on object detection, computer vision, natural language processing and decision-making have led to multiple breakthroughs with exceptional levels of accuracy and efficiency. However, despite their exponential growth, their security and robustness, which are key factors of Neural Networks, seem to be overlooked. Even though we are becoming more accustomed to using Neural Networks in our everyday lives, their susceptibility to adversarial attacks can create concerns over their reliability and safety. Adversarial attacks, such as HopSkipJump, which exploit vulnerabilities in models by introducing small imperceptible perturbations in the input data, can be a major flaw in safety-critical applications such as autonomous vehicles. This thesis, addresses the crucial issue by investigating strategies to enhance the robustness of image classi- fication networks against adversarial attacks. Additionally, it considers the impact of hardware deployment on a Neural Network’s performance, exploring how hardware resources, including the Versal Platform, can be leveraged to enhance the robustness of models in edge computing environments and emulate real-world deployment. Specifically, this work focuses on popular lightweight model architectures, namely ResNet20, ResNet56 and MobileNetV2. By employing CIFAR-10 and FashionMNIST Datasets, a series of techniques, including adversarial retraining, preprocessing and quantization are applied on these models to improve their robustness. Furthermore, the impact of such mechanisms is quantified using PSNR metrics, demonstrating significant improvements in robustness, with enhancements ranging from 37% to 49% thus contributing to the development of more secure and reliable Neural Networks for practical applications. en
heal.abstract Τα νευρωνικά δίκτυα ερευνώνται εδώ και αρκετά χρόνια, ωστόσο έχουν παρουσιάσει σημαντική άνοδο στην δημοσιότητα μόνο την τελευταία δεκαετία. Η άνοδος αυτή έχει συμβάλει στην ραγδαία ανάπτυξη διαφόρων τομέων όπως την ιατρική, την γεωργία, τον αυτοματισμό αυτοκινήτων και πολλούς άλλους. Παρά την συνεχή ανοδική πορεία τους, η ασφάλεια και η ανθεκτικότητα, χαρακτηριστικά που αποτελούν βασικούς συντελεστές των νευρωνικών δικτύων, παραμελούνται. Επιτηδευμένες επιθέσεις όπως το HopSkipJump, οι οποίες εκμεταλλεύονται τα ευπαθή σημεία των μοντέλων προσθέτοντας μικρές ανεπαίσθητες διαταραχές στα δεδομένα, αποτελούν σοβαρό ελάττωμα σε κρίσιμες ως προς την ασφάλεια εφαρμογές όπως τα αυτόνομα οχήματα. Η παρούσα διπλωματική, ασχολείται με το κρίσιμο αυτό ζήτημα, διερευνώντας στρατηγικές ενίσχυσης της ανθεκτικότητας των νευρωνικών δικτύων αναγνώρισης εικόνων ενάντια στις συγκεκριμένες επιθέσεις. Επιπλέον, εξετάζεται ο αντίκτυπος της εγκατάστασης των δικτύων σε συσκευές περιορισμένων πόρων, ως προς την απόδοση τους, διερευνώντας έτσι τρόπους με τους οποίους συσκευές, όπως η πλατφόρμα Versal, μπορούν να αξιοποιηθούν για την ενίσχυση της ανθεκτικότητας σε περιβάλλοντα Edge (Edge Computing) προσομοιώνοντας ρεαλιστικές εφαρμογές. Στην εργασία αυτή, επικεντρωνόμαστε στις δημοφιλείς αρχιτεκτονικές ResNet20, ResNet56 και MobileNetV2. Χρησιμοποιώντας τα CIFAR-10 και FashionMNIST datasets, εφαρμόζουμε στα μοντέλα μια σειρά από τεχνικές, όπως την προ-επεξεργασία (Preprocessing), την κβάντιση (Quantization) και την επανεκπαίδευση με δεδομένα τα αποτελέσματα των επιθέσεων Adversarial Retraining. Τέλος, ο αντίκτυπος των μηχανισμών αυτών ποσοτικοποιείται, αναδεικνύοντας σημαντικές βελτιώσεις που κυμαίνονται μεταξύ 37% και 49%, συμβάλλοντας έτσι στην ανάπτυξη ασφαλέστερων και πιο αξιόπιστων νευρωνικών δικτύων. el
heal.advisorName Δανόπουλος, Δημήτριος el
heal.advisorName Σούντρης, Δημήτριος el
heal.committeeMemberName Σούντρης, Δημήτριος el
heal.committeeMemberName Τσανάκας, Παναγιώτης el
heal.committeeMemberName Ξύδης, Σωτήριος el
heal.academicPublisher Εθνικό Μετσόβιο Πολυτεχνείο. Σχολή Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών. Τομέας Τεχνολογίας Πληροφορικής και Υπολογιστών. Εργαστήριο Μικροϋπολογιστών και Ψηφιακών Συστημάτων VLSI el
heal.academicPublisherID ntua
heal.numberOfPages 128 σ. el
heal.fullTextAvailability false


Αρχεία σε αυτό το τεκμήριο

Οι παρακάτω άδειες σχετίζονται με αυτό το τεκμήριο:

Αυτό το τεκμήριο εμφανίζεται στην ακόλουθη συλλογή(ές)

Εμφάνιση απλής εγγραφής

Αναφορά Δημιουργού 3.0 Ελλάδα Εκτός από όπου ορίζεται κάτι διαφορετικό, αυτή η άδεια περιγράφεται ως Αναφορά Δημιουργού 3.0 Ελλάδα