HEAL DSpace

Ανασκόπηση της Ευρωστίας και της Ιδιωτικότητας συστημάτων Τεχνητής Νοημοσύνης με ανάλυση περιπτώσεων χρήσης σε κρίσιμα πεδία της έρευνας και των επιχειρήσεων

Αποθετήριο DSpace/Manakin

Εμφάνιση απλής εγγραφής

dc.contributor.author Κουτρούμπας, Αθανάσιος el
dc.contributor.author Koutroubas, Athanasios en
dc.date.accessioned 2024-06-19T11:05:15Z
dc.date.available 2024-06-19T11:05:15Z
dc.identifier.uri https://dspace.lib.ntua.gr/xmlui/handle/123456789/59750
dc.identifier.uri http://dx.doi.org/10.26240/heal.ntua.27446
dc.rights Αναφορά Δημιουργού - Μη Εμπορική Χρήση - Παρόμοια Διανομή 3.0 Ελλάδα *
dc.rights.uri http://creativecommons.org/licenses/by-nc-sa/3.0/gr/ *
dc.subject Νευρωνικά Δίκτυα el
dc.subject Μηχανική Μάθηση el
dc.subject Βαθιά Μηχανική Μάθηση el
dc.subject Ευρωστία el
dc.subject Ιδιωτικότητα el
dc.subject Neural Networks en
dc.subject Machine Learning en
dc.subject Deep Learning en
dc.subject Robustness en
dc.subject Privacy en
dc.title Ανασκόπηση της Ευρωστίας και της Ιδιωτικότητας συστημάτων Τεχνητής Νοημοσύνης με ανάλυση περιπτώσεων χρήσης σε κρίσιμα πεδία της έρευνας και των επιχειρήσεων el
dc.title Review of Robustness and Privacy of Artificial Intelligence systems with analysis of use cases in critical fields of research and business en
heal.type bachelorThesis
heal.classification Τεχνητή Νοημοσύνη el
heal.classification Βαθιά μηχανική μάθηση el
heal.classification Ανταγωνιστική Ευρωστία el
heal.classification Μηχανική Μάθηση Διατήρησης Ιδιωτικότητας el
heal.classification Αυτόνομη Οδήγηση el
heal.classification Ιατρική Διάγνωση el
heal.classification Έξυπνα Δίκτυα el
heal.classification Artificial Intelligence en
heal.classification Machine Learning en
heal.classification Adversarial Robustness en
heal.classification Privacy Preserving Machine Learning en
heal.classification Autonomous Driving en
heal.classification Medical Diagnosis en
heal.classification Smart Grids en
heal.language el
heal.access free
heal.recordProvider ntua el
heal.publicationDate 2024-03-14
heal.abstract Η ραγδαία ανάπτυξη των της τεχνητής νοημοσύνης (AI), ειδικότερα τεχνικών μηχανικής μάθησης (ML) και βαθιάς μάθησης, έχει δημιουργήσει μοντέλα με εξαιρετικές επιδόσεις σε πληθώρα εργασιών, και για αυτό χρησιμοποιούνται ευρέως σε καθημερινές εφαρμογές και σε εργασίες όπως αναγνώριση και κατηγοριοποίηση εικόνων, ανίχνευση αντικειμένων ή αναγνώριση ψηφίων. Ακόμη, η χρήση του AI έχει αυξηθεί και επεκταθεί πέρα από τις κλασσικές εφαρμογές της σε τομείς της πληροφορικής, διεισδύοντας σε πιο κλασσικές και βαριές βιομηχανίες, όπως στο πεδίο της αυτοκινητοβιομηχανίας, για ανάπτυξη αυτόνομων συστημάτων πλοήγησης, στο πεδίο της ενέργειας για πρόβλεψη ενεργειακής ζήτησης, αλλά και σε πεδία όπως η υγεία για παροχή ιατρικής διάγνωσης. Παρά την ευρεία χρήση, αναδύονται ζητήματα ασφάλειας και ρίσκου όταν γίνεται εφαρμογή τέτοιων τεχνικών ειδικά σε κρίσιμα πεδία κυρίως λόγω της ευπάθειας των ML μοντέλων σε προσεκτικά κατασκευασμένα δείγματα εισόδου που περιέχουν διαταραχές, τα οποία ονομάζονται ανταγωνιστικά παραδείγματα και έχουν τη δυνατότητα να προκαλέσουν δυσλειτουργία στο σύστημα και στην απόφαση αυτού. Αντίστοιχες ανησυχίες υπάρχουν και για την ιδιωτικότητα των δεδομένων με τα οποία εκπαιδεύονται τα ML μοντέλα, ειδικά όταν αυτά περιέχουν ευαίσθητα προσωπικά δεδομένα (π.χ. ιατρικό ιστορικό) και το κατά πόσο μπορεί να διατηρηθεί όταν τα μοντέλα έχουν αποδειχθεί ότι απομνημονεύουν πολλά δεδομένα και μπορούν να διαρρεύσουν πληροφορίες για αυτά. Στόχος της διπλωματικής εργασίας είναι η ανασκόπηση της ευρωστίας και της ιδιωτικότητας συστημάτων τεχνητής νοημοσύνης με ανάλυση περιπτώσεων χρήσης σε 3 κρίσιμα πεδία της έρευνας και των επιχειρήσεων: των οχημάτων και αυτόνομης οδήγησης, της υγείας και ιατρικής διάγνωσης, και της ηλεκτρικής ενέργειας και των έξυπνων δικτύων. Αυτό γίνεται με ταξινόμηση και ανάλυση των τρεχόντων και δημοφιλέστερων ανταγωνιστικών επιθέσεων και αμυνών με αξιολόγηση των κινδύνων, προστασιών και επιπτώσεων για το κάθε πεδίο. Αντίστοιχα, γίνεται ταξινόμηση και ανάλυση των επιθέσεων και προστασιών της ιδιωτικότητας των μοντέλων και δεδομένων με αξιολόγηση εφαρμογής των τρεχόντων τεχνικών στο κάθε πεδίο. Παρουσιάζονται επίσης τα προβλήματα και οι συμβιβασμοί που προκύπτουν με την προσπάθεια εφαρμογής τεχνικών για τη βελτίωση της ευρωστίας ή της προστασίας της ιδιωτικότητας σε ML μοντέλα, και γίνεται αναφορά σε μελλοντικές προεκτάσεις για την έρευνα και υλοποίηση μεθόδων ενίσχυσης ευρωστίας και ιδιωτικότητας σε κρίσιμα πεδία και μη. el
heal.abstract The rapid development of artificial intelligence (AI) and particularly machine learning (ML) and deep learning techniques has led to the creation of models with exceptional performance across a multitude of tasks, widely used in everyday applications such as image recognition, object detection, and digit recognition. Moreover, the use of AI has expanded beyond its classical applications into heavy industries, such as the automotive sector for developing autonomous navigation systems, the energy sector for energy demand prediction, and healthcare for medical diagnosis. Despite their widespread use, issues of security and risk arise when applying such techniques, especially in critical fields, mainly due to the vulnerability of ML models to carefully crafted input samples containing perturbations, known as adversarial examples, capable of causing system malfunction and decision errors. Similar concerns exist for data privacy when training ML models, especially when they involve sensitive personal data, and the extent to which privacy can be maintained when models have been shown to memorize extensive data and potentially leak information. The aim of the thesis is to review the robustness and privacy of artificial intelligence systems through case studies in three critical research and business fields: autonomous vehicles, healthcare and medical diagnosis, and electric energy and smart grids. This is achieved by classifying and analyzing current and popular adversarial attacks and defenses with risk assessment and impact evaluation for each field. Similarly, attacks and defenses on the privacy of models and data are classified and analyzed, with an evaluation of the application of current techniques in each field. The problems and trade-offs arising from the attempt to apply techniques to improve robustness or privacy protection in ML models are also presented, with reference to future extensions for research and implementation of methods to enhance robustness and privacy in critical and non-critical fields. en
heal.advisorName Ασκούνης, Δημήτριος el
heal.committeeMemberName Ψαρράς, Ιωάννης el
heal.committeeMemberName Μαρινάκης, Ευάγγελος el
heal.academicPublisher Εθνικό Μετσόβιο Πολυτεχνείο. Σχολή Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών. Τομέας Ηλεκτρικών Βιομηχανικών Διατάξεων και Συστημάτων Αποφάσεων el
heal.academicPublisherID ntua
heal.numberOfPages 224 σ. el
heal.fullTextAvailability false


Αρχεία σε αυτό το τεκμήριο

Οι παρακάτω άδειες σχετίζονται με αυτό το τεκμήριο:

Αυτό το τεκμήριο εμφανίζεται στην ακόλουθη συλλογή(ές)

Εμφάνιση απλής εγγραφής

Αναφορά Δημιουργού - Μη Εμπορική Χρήση - Παρόμοια Διανομή 3.0 Ελλάδα Εκτός από όπου ορίζεται κάτι διαφορετικό, αυτή η άδεια περιγράφεται ως Αναφορά Δημιουργού - Μη Εμπορική Χρήση - Παρόμοια Διανομή 3.0 Ελλάδα