HEAL DSpace

Εντοπισμός επιθετικών παραδειγμάτων σε συνελικτικά νευρωνικά δίκτυα

Αποθετήριο DSpace/Manakin

Εμφάνιση απλής εγγραφής

dc.contributor.author Περτιγκιόζογλου, Στέφανος el
dc.contributor.author Pertigkiozoglou, Stefanos en
dc.date.accessioned 2018-09-27T10:07:32Z
dc.date.available 2018-09-27T10:07:32Z
dc.date.issued 2018-09-27
dc.identifier.uri https://dspace.lib.ntua.gr/xmlui/handle/123456789/47692
dc.identifier.uri http://dx.doi.org/10.26240/heal.ntua.15952
dc.rights Default License
dc.subject Μηχανική μάθηση el
dc.subject Νευρωνικά δίκτυα el
dc.subject Όραση υπολογιστών el
dc.subject Επεξεργασία εικόνας el
dc.subject Επιθετικά παραδείγματα el
dc.subject Machine learning en
dc.subject Computer vision en
dc.subject Image processing en
dc.subject Neural networks en
dc.subject Adversarial examples en
dc.title Εντοπισμός επιθετικών παραδειγμάτων σε συνελικτικά νευρωνικά δίκτυα el
heal.type bachelorThesis
heal.classification Αντίληψη και όραση υπολογιστών el
heal.classification Προχωρημένη μηχανική μάθηση el
heal.classificationURI http://data.seab.gr/concepts/12c1c913dbe758d67c4c509a6768bdbc7905830c
heal.classificationURI http://data.seab.gr/concepts/d5cf140063d31fceb414be6c8dcb4654ffd3efcf
heal.language el
heal.access campus
heal.recordProvider ntua el
heal.publicationDate 2018-07-24
heal.abstract Τα εντυπωσιακά αποτελέσματα που επιτυγχάνονται με την χρήση βαθιών νευρωνικών δικτύων, έχουν ως αποτέλεσμα την μεγάλη εξάπλωση της χρήσης τους σε πολλές εφαρμογές μηχανικής μάθησης. Τα συστήματα αυτά όμως είναι ευάλωτα σε ειδικά κατασκευασμένες εισόδους, τα επιθετικά παραδείγματα, τα οποία ενώ δεν γίνονται εύκολα αντιληπτά από ανθρώπινους παρατηρητές, οδηγούν τα νευρωνικά δίκτυα σε λανθασμένα συμπεράσματα. Η εργασία αυτή εκτελεί ανάλυση των βασικών χαρακτηριστικών των επιθετικών παραδειγμάτων για συνελικτικά νευρωνικά δίκτυα τα οποία χρησιμοποιούνται σε εφαρμογές αναγνώρισης εικόνων, δίνοντας ιδιαίτερη βαρύτητα στα επιθετικά παραδείγματα που παράγονται από την Fast Gradient Sign Method, ενώ παράλληλα προτείνει τρεις νέες μεθόδους οι οποίες στοχεύουν στον εντοπισμό πιθανών επιθετικών παραδειγμάτων. Η πρώτη από τις προτεινόμενες μεθόδους βασίζεται στην ομαλοποίηση του διανύσματος χαρακτηριστικών που παράγει σαν έξοδο το νευρωνικό δίκτυο, προκειμένου να εντοπίσει πιθανά επιθετικά παραδείγματα. Η δεύτερη μέθοδος κάνει χρήση των ιστογραμμάτων των τιμών των εξόδων των ενδιάμεσων επιπέδων του νευρωνικού δικτύου, για να συμπεράνει αν η είσοδος του δικτύου αποτελεί επιθετικό παράδειγμα. Τα ιστογράμματα αυτά συγκροτούν ένα διάνυσμα χαρακτηριστικών το οποίο εισάγεται σαν είσοδος σε ένα SVM που ταξινομεί την αρχική είσοδο είτε ως επιθετικό παράδειγμα είτε ως πραγματική είσοδο. Τέλος για την τρίτη μέθοδο παρουσιάζουμε την έννοια τη υπολειπόμενης εικόνας, η οποία περιέχει πληροφορία σχετικά με τα μέρη του προτύπου εισόδου τα οποία αγνοούνται από το νευρωνικό δίκτυο. Η μέθοδος αυτή στοχεύει στον εντοπισμό πιθανών επιθετικών εικόνων, χρησιμοποιώντας την πληροφορία που παρέχει η υπολειπόμενη εικόνα και ενισχύοντας τα μέρη του προτύπου εισόδου που αγνοούνται από το νευρωνικό δίκτυο. Για τις τρεις μεθόδους που προτείνονται, παρουσιάζονται τα αποτελέσματα εντοπισμού επιθετικών παραδειγμάτων σε ένα νευρωνικό δίκτυο εκπαιδευμένο στο MNIST σύνολο δεδομένων. Επίσης για την τρίτη μέθοδο παρουσιάζονται αποτελέσματα εντοπισμού επιθετικών παραδειγμάτων και σε ένα νευρωνικό δίκτυο εκπαιδευμένο στο CIFAR-10 σύνολο δεδομένων. Τέλος παρουσιάζεται η δυνατότητα συνδυασμού των μεθόδων για περαιτέρω ενίσχυση των αποτελεσμάτων εντοπισμού. el
heal.abstract The great success of deep neural networks, has caused a massive spread of the use of such systems in a large variety of machine learning applications. However these systems are vulnerable to certain inputs, the adversarial examples, which although are not easily perceived by humans can lead a neural network to produce faulty results. This thesis analyzes the basic characteristics of adversarial examples for convolutional neural networks which are used in image recognition applications, emphasizing particularly in adversarial examples produced by the Fast Gradient Sign Method, while at the same time proposes three new methods for detecting possible adversarial examples. The first of the proposed methods is based on the regularization of the feature vector that the neural network produces as an output, in order to detect possible adversarial examples. The second method uses the histograms of the values from the outputs of the hidden layers of the neural network, in order to detect adversarial examples. These histograms create a feature vector which is the input of an SVM that classifies the original input either as an adversarial example or as a real input. Finally for the third method we introduce the concept of the residual image, which contains information about the parts of the input pattern that are ignored by the neural network. This method aims in the detection of possible adversarial examples, by using the residual image and reinforcing the parts of the input pattern that are ignored by the neural network. For the three proposed methods we present the results of detecting adversarial examples in a convolutional neural networks trained in the MNIST dataset. Furthermore for the third method we present the results of detecting adversarial examples in a convolutional neural network trained in the CIFAR-10 dataset. Finally the possibility of combining these methods is presented as a way to further boost the results of detection. en
heal.advisorName Μαραγκός, Πέτρος el
heal.committeeMemberName Ποταμιάνος, Γεράσιμος el
heal.committeeMemberName Ψυλλάκης, Χαράλαμπος el
heal.committeeMemberName Μαραγκός, Πέτρος el
heal.academicPublisher Εθνικό Μετσόβιο Πολυτεχνείο. Σχολή Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών. Τομέας Σημάτων, Ελέγχου και Ρομποτικής el
heal.academicPublisherID ntua
heal.numberOfPages 84 σ.
heal.fullTextAvailability true


Αρχεία σε αυτό το τεκμήριο

Αυτό το τεκμήριο εμφανίζεται στην ακόλουθη συλλογή(ές)

Εμφάνιση απλής εγγραφής