dc.contributor.author | Αυγερινός, Πέτρος | el |
dc.contributor.author | Avgerinos, Petros | en |
dc.date.accessioned | 2025-02-04T10:06:04Z | |
dc.date.available | 2025-02-04T10:06:04Z | |
dc.identifier.uri | https://dspace.lib.ntua.gr/xmlui/handle/123456789/61054 | |
dc.identifier.uri | http://dx.doi.org/10.26240/heal.ntua.28750 | |
dc.rights | Αναφορά Δημιουργού-Μη Εμπορική Χρήση-Όχι Παράγωγα Έργα 3.0 Ελλάδα | * |
dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/3.0/gr/ | * |
dc.subject | Επεξηγηματική Τεχνητή Νοημοσύνη | el |
dc.subject | Εντοπισμός Άνοιας | el |
dc.subject | Μάθηση Συνόλου | el |
dc.subject | Επεξήγηση Συνόλου | el |
dc.subject | Βαθιά Μάθηση | el |
dc.subject | Explainable Artificial Intelligence | en |
dc.subject | Dementia Detection | en |
dc.subject | Ensemble Learning | en |
dc.subject | Ensemble XAI | en |
dc.subject | XAI | en |
dc.title | Εφαρμογές τεχνητής νοημοσύνης για την βελτίωση της ποιότητας ζωής σε ασθενείς με ́άνοια | el |
dc.title | AI applications for the betterment of quality of life in dementia patients | el |
heal.type | bachelorThesis | |
heal.classification | Machine Learning | en |
heal.classification | Μηχανική Μάθηση | el |
heal.classification | Επεξηγησιμότητα | el |
heal.classification | Explainability | en |
heal.language | el | |
heal.language | en | |
heal.access | free | |
heal.recordProvider | ntua | el |
heal.publicationDate | 2024-09-30 | |
heal.abstract | Η έρευνα αυτή εστιάζει στο τομέα του Explainable AI και στις εφαρμογές της για την ανάπτυξη μοντέλων μηχανικής μάθησης για την ανίχνευση άνοιας μέσω ανάλυσης ομιλίας. Η έρευνα πραγματοποιήθηκε στα πλαίσια του έργου COMFORTAGE, το οποίο έχει στόχο την ανάπτυξη εργαλείων για την παρακολούθηση και διάγνωση ασθενών με άνοια. Η μελέτη μας περιλαμβάνει μια επισκόπηση των μεθόδων XAI και των μετρικών τους, επισημαίνοντας τα πλεονεκτήματα και τα μειονεκτήματα των διάφορων προσεγγίσεων. Εξετάσαμε επίσης τις ηθικές και νομικές εκτάσεις της χρήσης εφαρμογών τεχνητής νοημοσύνης στην υγεία, με γνώμονα τη διαφάνεια, την ευθύνη και τη δικαιοσύνη στην ανάπτυξη τέτοιων μοντέλων, και τον ρόλο που έχει να παίξει το XAI στον συγκεκριμένο τομέα. Η έρευνα μας κορυφώθηκε με την ανάπτυξη ενός XAI εργαλείου ονόματι DEMET, το οποίο έκανε χρήση ensemble learning συνδυάζοντας ταξινομητές και transformers για την ανίχνευση άνοιας από δείγματα ομιλίας. Το DEMET έδειξε ότι το ensemble learning δίνει σημαντικά αποτελέσματα στην απόδοση, επιτυγχάνοντας πάνω από 97% ακρίβεια στο σύνολο δεδομένων DementiaBank. Εξετάσαμε επίσης τη χρήση φωνητικών χαρακτηριστικών τα οποία υπήρχαν στα δείγματα ομιλίας του συνόλου δεδομένων DementiaBank, τα οποία μετατράπηκαν σε μια πιο ερμηνεύσιμη μορφή την οποία ονομάσαμε CHA tokens και ύστερα δημιουργήσαμε εξηγήσεις από τρεις διαφορετικές μεθόδους επεξηγησιμότητας, τις LIME, Transformers-Interpret και Anchors. Παρατηρήσαμε ότι οι LIME και Transformers-Interpret ήταν πιο αποτελεσματικές στην παροχή εύκολα ερμηνεύσιμων εξηγήσεων, ενώ η μέθοδος Anchors δεν είχε την ίδια απόδοση. Επίσης, παρατηρήσαμε ότι τα CHA tokens κατάφεραν να βελτιώσουν την ερμηνευσιμότητα του μοντέλου παρέχοντας πιο κατανοητές εξηγήσεις που συμφωνούσαν με την υπάρχουσα βιβλιογραφία σχετικά με τα συμπτώματα της άνοιας. ́Ενα βασικό εύρημα της εργασίας μας ήταν ότι ο συνδυασμός διαφορετικών εξηγήσεων οι οποίες δημιουργήθηκαν από διαφορετικούς transformers για την τελική δημιουργία μίας ενιαίας εξήγησης, μια μορφή ensemble learning δηλαδή αλλά στα πλαίσια της εξήγησης, μπορεί να μειώσει προκαταλήψεις των μοναδικών εξηγήσεων και να προσφέρει πιο αξιόπιστες ερμηνείες. Αυτά τα ευρήματα προήλθαν από μια κλινική μελέτη που πραγματοποιήσαμε για να αξιολογήσουμε τη χρησιμότητα και την αποτελεσματικότητα των μεθόδων επεξηγησιμότητας σε ένα πραγματικό περιβάλλον. Οι επαγγελματίες υγείας που συμμετείχαν στην κλινική μελέτη πιστεύουν ότι οι εφαρμογές που βασίζονται στο XAI όπως το DEMET μπορεί να είναι χρήσιμες στην ανίχνευση και παρακολούθηση της άνοιας, ιδιαίτερα για μη κλινικές, εμπορικές εφαρμογές. Αυτά τα εργαλεία μπορούν να παρέχουν σε ασθενείς ένα μη επεμβατικό, οικονομικό μέσο αξιολόγησης της κατάστασής τους, και τελικά να τους οδηγήσουν στην επικοινωνία με κάποιον ειδικό. Τα ευρήματα από αυτήν την έρευνα συμβάλλουν στις συνεχείς προσπάθειες του έργου COMFORTAGE για την ανάπτυξη αποτελεσματικών λύσεων για τη φροντίδα της άνοιας, με το DEMET να παίζει έναν πιθανό ρόλο στην επίτευξη αυτών των στόχων. | el |
heal.abstract | This study focuses on the field of Explainable Artificial Intelligence (XAI) and its application in the development of machine learning models for dementia detection through speech analysis. The research was conducted as part of the COMFORTAGE project, which aims to develop tools for monitoring and diagnosing dementia patients. The study involved a comprehensive review of XAI methods and their metrics, highlighting the advantages and disadvantages of various approaches. We also delved into the ethical and legal considerations surrounding the use of AI in healthcare, emphasizing the importance of transparency, accountability, and fairness in model development, and the role that XAI stands to play in this ever-evolving landscape. Our research culminated in the development of an XAI-driven cognitive assessment tool, named DEMET, which leveraged ensemble learning techniques in order to combine classifiers and transformers to detect dementia from spontaneous speech samples. DEMET demonstrated that ensemble models can significantly improve performance, achieving over 97% accuracy on the DementiaBank dataset. We explored the use of phonological features derived from the speech samples of the DementiaBank dataset, which were converted into a more interpretable format which we called CHA tokens and generated explanations from three different explainable methods, namely LIME, Transformers-Interpret and Anchors, to assess each method’s performance on both qualitative and quantitive metrics. Our results showed that LIME and Transformers-Interpret were more effective in providing interpretable explanations, while Anchors did not perform as well. We also found that CHA tokens managed to enhance model interpretability by providing more understandable explanations which were aligned with existing literature on dementia symptoms. A key finding of our work was that combining explanations from different models could reduce potential biases of singular explanations and offer more reliable interpretations. These findings were derived from a clinical study we conducted to evaluate the usability and effectiveness of the explainability methods in a real-world setting, and although the clinical study involved a small sample size, feedback from healthcare professionals indicated that XAI-driven approaches like DEMET could be valuable in dementia detection and monitoring, particularly for non-clinical, commercial applications. These tools could provide individuals with a non-invasive, cost-effective method of self-assessment, potentially leading to professional consultation. The findings from this research contribute to the ongoing efforts of the COMFORTAGE project to develop effective solutions for dementia care, with DEMET playing a potential role in achieving these goals. | en |
heal.advisorName | Βουλόδημος, Αθανάσιος | el |
heal.committeeMemberName | Βουλόδημος, Αθανάσιος | el |
heal.committeeMemberName | Δουλάμης, Νικόλαος | el |
heal.committeeMemberName | Σταφυλοπάτης, Ανδρέας-Γεώργιος | el |
heal.academicPublisher | Εθνικό Μετσόβιο Πολυτεχνείο. Σχολή Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών. Τομέας Τεχνολογίας Πληροφορικής και Υπολογιστών | el |
heal.academicPublisherID | ntua | |
heal.numberOfPages | 142 σ. | el |
heal.fullTextAvailability | false |
Οι παρακάτω άδειες σχετίζονται με αυτό το τεκμήριο: