dc.contributor.author | Κουτρούμπας, Αθανάσιος | el |
dc.contributor.author | Koutroubas, Athanasios | en |
dc.date.accessioned | 2024-06-19T11:05:15Z | |
dc.date.available | 2024-06-19T11:05:15Z | |
dc.identifier.uri | https://dspace.lib.ntua.gr/xmlui/handle/123456789/59750 | |
dc.identifier.uri | http://dx.doi.org/10.26240/heal.ntua.27446 | |
dc.rights | Αναφορά Δημιουργού - Μη Εμπορική Χρήση - Παρόμοια Διανομή 3.0 Ελλάδα | * |
dc.rights.uri | http://creativecommons.org/licenses/by-nc-sa/3.0/gr/ | * |
dc.subject | Νευρωνικά Δίκτυα | el |
dc.subject | Μηχανική Μάθηση | el |
dc.subject | Βαθιά Μηχανική Μάθηση | el |
dc.subject | Ευρωστία | el |
dc.subject | Ιδιωτικότητα | el |
dc.subject | Neural Networks | en |
dc.subject | Machine Learning | en |
dc.subject | Deep Learning | en |
dc.subject | Robustness | en |
dc.subject | Privacy | en |
dc.title | Ανασκόπηση της Ευρωστίας και της Ιδιωτικότητας συστημάτων Τεχνητής Νοημοσύνης με ανάλυση περιπτώσεων χρήσης σε κρίσιμα πεδία της έρευνας και των επιχειρήσεων | el |
dc.title | Review of Robustness and Privacy of Artificial Intelligence systems with analysis of use cases in critical fields of research and business | en |
heal.type | bachelorThesis | |
heal.classification | Τεχνητή Νοημοσύνη | el |
heal.classification | Βαθιά μηχανική μάθηση | el |
heal.classification | Ανταγωνιστική Ευρωστία | el |
heal.classification | Μηχανική Μάθηση Διατήρησης Ιδιωτικότητας | el |
heal.classification | Αυτόνομη Οδήγηση | el |
heal.classification | Ιατρική Διάγνωση | el |
heal.classification | Έξυπνα Δίκτυα | el |
heal.classification | Artificial Intelligence | en |
heal.classification | Machine Learning | en |
heal.classification | Adversarial Robustness | en |
heal.classification | Privacy Preserving Machine Learning | en |
heal.classification | Autonomous Driving | en |
heal.classification | Medical Diagnosis | en |
heal.classification | Smart Grids | en |
heal.language | el | |
heal.access | free | |
heal.recordProvider | ntua | el |
heal.publicationDate | 2024-03-14 | |
heal.abstract | Η ραγδαία ανάπτυξη των της τεχνητής νοημοσύνης (AI), ειδικότερα τεχνικών μηχανικής μάθησης (ML) και βαθιάς μάθησης, έχει δημιουργήσει μοντέλα με εξαιρετικές επιδόσεις σε πληθώρα εργασιών, και για αυτό χρησιμοποιούνται ευρέως σε καθημερινές εφαρμογές και σε εργασίες όπως αναγνώριση και κατηγοριοποίηση εικόνων, ανίχνευση αντικειμένων ή αναγνώριση ψηφίων. Ακόμη, η χρήση του AI έχει αυξηθεί και επεκταθεί πέρα από τις κλασσικές εφαρμογές της σε τομείς της πληροφορικής, διεισδύοντας σε πιο κλασσικές και βαριές βιομηχανίες, όπως στο πεδίο της αυτοκινητοβιομηχανίας, για ανάπτυξη αυτόνομων συστημάτων πλοήγησης, στο πεδίο της ενέργειας για πρόβλεψη ενεργειακής ζήτησης, αλλά και σε πεδία όπως η υγεία για παροχή ιατρικής διάγνωσης. Παρά την ευρεία χρήση, αναδύονται ζητήματα ασφάλειας και ρίσκου όταν γίνεται εφαρμογή τέτοιων τεχνικών ειδικά σε κρίσιμα πεδία κυρίως λόγω της ευπάθειας των ML μοντέλων σε προσεκτικά κατασκευασμένα δείγματα εισόδου που περιέχουν διαταραχές, τα οποία ονομάζονται ανταγωνιστικά παραδείγματα και έχουν τη δυνατότητα να προκαλέσουν δυσλειτουργία στο σύστημα και στην απόφαση αυτού. Αντίστοιχες ανησυχίες υπάρχουν και για την ιδιωτικότητα των δεδομένων με τα οποία εκπαιδεύονται τα ML μοντέλα, ειδικά όταν αυτά περιέχουν ευαίσθητα προσωπικά δεδομένα (π.χ. ιατρικό ιστορικό) και το κατά πόσο μπορεί να διατηρηθεί όταν τα μοντέλα έχουν αποδειχθεί ότι απομνημονεύουν πολλά δεδομένα και μπορούν να διαρρεύσουν πληροφορίες για αυτά. Στόχος της διπλωματικής εργασίας είναι η ανασκόπηση της ευρωστίας και της ιδιωτικότητας συστημάτων τεχνητής νοημοσύνης με ανάλυση περιπτώσεων χρήσης σε 3 κρίσιμα πεδία της έρευνας και των επιχειρήσεων: των οχημάτων και αυτόνομης οδήγησης, της υγείας και ιατρικής διάγνωσης, και της ηλεκτρικής ενέργειας και των έξυπνων δικτύων. Αυτό γίνεται με ταξινόμηση και ανάλυση των τρεχόντων και δημοφιλέστερων ανταγωνιστικών επιθέσεων και αμυνών με αξιολόγηση των κινδύνων, προστασιών και επιπτώσεων για το κάθε πεδίο. Αντίστοιχα, γίνεται ταξινόμηση και ανάλυση των επιθέσεων και προστασιών της ιδιωτικότητας των μοντέλων και δεδομένων με αξιολόγηση εφαρμογής των τρεχόντων τεχνικών στο κάθε πεδίο. Παρουσιάζονται επίσης τα προβλήματα και οι συμβιβασμοί που προκύπτουν με την προσπάθεια εφαρμογής τεχνικών για τη βελτίωση της ευρωστίας ή της προστασίας της ιδιωτικότητας σε ML μοντέλα, και γίνεται αναφορά σε μελλοντικές προεκτάσεις για την έρευνα και υλοποίηση μεθόδων ενίσχυσης ευρωστίας και ιδιωτικότητας σε κρίσιμα πεδία και μη. | el |
heal.abstract | The rapid development of artificial intelligence (AI) and particularly machine learning (ML) and deep learning techniques has led to the creation of models with exceptional performance across a multitude of tasks, widely used in everyday applications such as image recognition, object detection, and digit recognition. Moreover, the use of AI has expanded beyond its classical applications into heavy industries, such as the automotive sector for developing autonomous navigation systems, the energy sector for energy demand prediction, and healthcare for medical diagnosis. Despite their widespread use, issues of security and risk arise when applying such techniques, especially in critical fields, mainly due to the vulnerability of ML models to carefully crafted input samples containing perturbations, known as adversarial examples, capable of causing system malfunction and decision errors. Similar concerns exist for data privacy when training ML models, especially when they involve sensitive personal data, and the extent to which privacy can be maintained when models have been shown to memorize extensive data and potentially leak information. The aim of the thesis is to review the robustness and privacy of artificial intelligence systems through case studies in three critical research and business fields: autonomous vehicles, healthcare and medical diagnosis, and electric energy and smart grids. This is achieved by classifying and analyzing current and popular adversarial attacks and defenses with risk assessment and impact evaluation for each field. Similarly, attacks and defenses on the privacy of models and data are classified and analyzed, with an evaluation of the application of current techniques in each field. The problems and trade-offs arising from the attempt to apply techniques to improve robustness or privacy protection in ML models are also presented, with reference to future extensions for research and implementation of methods to enhance robustness and privacy in critical and non-critical fields. | en |
heal.advisorName | Ασκούνης, Δημήτριος | el |
heal.committeeMemberName | Ψαρράς, Ιωάννης | el |
heal.committeeMemberName | Μαρινάκης, Ευάγγελος | el |
heal.academicPublisher | Εθνικό Μετσόβιο Πολυτεχνείο. Σχολή Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών. Τομέας Ηλεκτρικών Βιομηχανικών Διατάξεων και Συστημάτων Αποφάσεων | el |
heal.academicPublisherID | ntua | |
heal.numberOfPages | 224 σ. | el |
heal.fullTextAvailability | false |
Οι παρακάτω άδειες σχετίζονται με αυτό το τεκμήριο: