dc.contributor.author | Τζάθας, Ευστάθιος | el |
dc.contributor.author | Tzathas, Efstathios | en |
dc.date.accessioned | 2021-05-14T17:56:21Z | |
dc.date.available | 2021-05-14T17:56:21Z | |
dc.identifier.uri | https://dspace.lib.ntua.gr/xmlui/handle/123456789/53436 | |
dc.identifier.uri | http://dx.doi.org/10.26240/heal.ntua.21134 | |
dc.rights | Αναφορά Δημιουργού - Μη Εμπορική Χρήση - Παρόμοια Διανομή 3.0 Ελλάδα | * |
dc.rights.uri | http://creativecommons.org/licenses/by-nc-sa/3.0/gr/ | * |
dc.subject | Κοινωνικά Δίκτυα | el |
dc.subject | Ψευδείς ειδήσεις | el |
dc.subject | Νευρωνικά Δίκτυα | el |
dc.subject | Ταξινόμηση | el |
dc.subject | Δέντρα Αποφάσεων | el |
dc.subject | Clickbait | en |
dc.subject | Python | el |
dc.subject | NLP | el |
dc.subject | SVM | el |
dc.subject | el | |
dc.title | Ανάπτυξη συστήματος συγκέντρωσης, ανάλυσης και επιβεβαίωσης συμβάντων σε ειδήσεις και κοινωνικά δίκτυα | el |
dc.contributor.department | Εργαστήριο Συστημάτων Αποφάσεων και Διοίκησης | el |
heal.type | bachelorThesis | |
heal.generalDescription | Αναγνώριση Ψευδών Ειδήσεων | el |
heal.classification | Επιστήμη των Υπολογιστών | el |
heal.language | el | |
heal.access | free | |
heal.recordProvider | ntua | el |
heal.publicationDate | 2020-03-11 | |
heal.abstract | Η εξάπλωση των ειδήσεων στις μέρες μας γίνεται με ταχύτατους ρυθμούς. Τα νέα ποτέ στην ιστορία δεν μεταδίδονταν τόσο γρήγορα και σε τέτοιο πλήθος από πλευράς πληροφορίας. Το διαδίκτυο είναι το μέσο αυτής της γιγαντιαίας ανταλλαγής πληροφορίων και τα κοινωνικά δίκτυα τα κέντρα μετάδοσης τους. Καθένας μπορεί να γίνει δίαυλος ενημέρωσης χωρίς όμως να ελέγχεται η αξιοπιστία του. Αυτήν την αδυναμία ελέγχου της ποιότητας των ειδήσεων χρησιμοποιούν κακόβουλοι χρήστες ώστε να προωθήσουν τα προσωπικά τους οικονομικά συμφέροντα ή να για αναπαράγουν αναλήθειες. Ο σκοπός της διπλωματικής εργασίας είναι η ανάπτυξη μεθοδολογίας για την ανίχνευση, αναγνώριση και καταγραφή των clickbaits , μιας τακτικής χειραγώγησης του αναγνώστη για την μετάδοση και εξάπλωση ψευδών ειδήσεων. Αρχικό ζητούμενο αποτέλεσε η αυτοματοποιημένη αξιολόγηση των ειδήσεων ως προς την αξιοπιστία τους. Η μεθοδολογία που ακολουθήσαμε για την εύρεση και συλλογή παραπλανητικών τίτλων έγινε κατόπιν μελέτης των σύγχρονων τεχνολογικών ερευνών πάνω σε παρόμοια έργα της επιστήμης των δεδομένων. Στόχος ήταν η ταυτοποίηση των τίτλων ειδήσεων που ξεχωρίζουν από την πλειοψηφία των δεδομένων ως προς τα γλωσσικά τους χαρακτηριστικά. Στο πλαίσιο αυτό υλοποιήθηκε σύστημα ανάλυσης του γραπτού λόγου σε μια προσπάθεια να εξαχθούν νοήματα από τα γλωσσικά δεδομένα. Κατόπιν υλοποιήθηκαν μοντέλα αναδράσεων , για την εκτίμηση και ταξινόμηση των τίτλων σε κατηγορίες . Στα μοντέλα αυτά συμπεριλήφθηκαν Δέντρα Αποφάσεων , μηχανές SVM και νευρωνικά δίκτυα (RNN , MLP). Το σύστημα υλοποιήθηκε εξολοκλήρου σε γλώσσα Python και τα δεδομένα αλιεύθηκαν από το ίντερνετ και με τη χρήση διασύνδεσης προγραμματισμού εφαρμογών του κοινωνικού δικτύου Twitter. | el |
heal.abstract | In our days news spreads rapidly in every corner of the globe. It is unprecedented in human history for so much information, of any kind or form, to be able to reach as many people and as quickly as it does today. The internet has been the tool that has enabled this development. Moreover, over the past 15 years social networks have turbocharged the spread of information. On social networks anyone can reach an enormous amount of people and spread any kind of information he wishes without any verification of whether the information is credible or not. This lack of verification and quality control of information of news spread online allows malicious agents to spread misinformation so they can further their economic or political interests. The purpose of this thesis is the development of a methodology for detecting, identifying and recording clickbaits, a tactic that is often used for the manipulation of readers and the spreading of fake news. The initial aim was the automation of the evaluation of the credibility of news. The methodology we used for finding and collecting misleading article titles resulted after studying recent research on similar topics of data science. The goal was the identification of news titles that stand out due to their linguistic characteristics. In this context, a system of analysis of written speech was implemented in an attempt to extract the meaning of linguistic data. Feedback models were then implemented to evaluate and classify the titles into categories. These models included Decision Trees, Support-Vector Machines (SVM in brief), and neural networks such as Recurrent Neural Network and Multilayer Perceptron (RNN and MLP in brief). The system was implemented entirely in Python and the data was captured from the Internet and using the Twitter application programming interface. | en |
heal.advisorName | Ασκούνης, Δημήτριος | el |
heal.committeeMemberName | Ασκούνης, Δημήτριος | el |
heal.committeeMemberName | Ψαρράς, Ιωάννης | el |
heal.committeeMemberName | Δούκας, Χρυσόστομος | el |
heal.academicPublisher | Εθνικό Μετσόβιο Πολυτεχνείο. Σχολή Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών. Τομέας Τεχνολογίας Πληροφορικής και Υπολογιστών | el |
heal.academicPublisherID | ntua | |
heal.numberOfPages | 71 σ. | el |
heal.fullTextAvailability | false |
Οι παρακάτω άδειες σχετίζονται με αυτό το τεκμήριο: