HEAL DSpace

Ανάπτυξη συστήματος συγκέντρωσης, ανάλυσης και επιβεβαίωσης συμβάντων σε ειδήσεις και κοινωνικά δίκτυα

Αποθετήριο DSpace/Manakin

Εμφάνιση απλής εγγραφής

dc.contributor.author Τζάθας, Ευστάθιος el
dc.contributor.author Tzathas, Efstathios en
dc.date.accessioned 2021-05-14T17:56:21Z
dc.date.available 2021-05-14T17:56:21Z
dc.identifier.uri https://dspace.lib.ntua.gr/xmlui/handle/123456789/53436
dc.identifier.uri http://dx.doi.org/10.26240/heal.ntua.21134
dc.rights Αναφορά Δημιουργού - Μη Εμπορική Χρήση - Παρόμοια Διανομή 3.0 Ελλάδα *
dc.rights.uri http://creativecommons.org/licenses/by-nc-sa/3.0/gr/ *
dc.subject Κοινωνικά Δίκτυα el
dc.subject Ψευδείς ειδήσεις el
dc.subject Νευρωνικά Δίκτυα el
dc.subject Ταξινόμηση el
dc.subject Δέντρα Αποφάσεων el
dc.subject Clickbait en
dc.subject Python el
dc.subject NLP el
dc.subject SVM el
dc.subject Twitter el
dc.title Ανάπτυξη συστήματος συγκέντρωσης, ανάλυσης και επιβεβαίωσης συμβάντων σε ειδήσεις και κοινωνικά δίκτυα el
dc.contributor.department Εργαστήριο Συστημάτων Αποφάσεων και Διοίκησης el
heal.type bachelorThesis
heal.generalDescription Αναγνώριση Ψευδών Ειδήσεων el
heal.classification Επιστήμη των Υπολογιστών el
heal.language el
heal.access free
heal.recordProvider ntua el
heal.publicationDate 2020-03-11
heal.abstract Η εξάπλωση των ειδήσεων στις μέρες μας γίνεται με ταχύτατους ρυθμούς. Τα νέα ποτέ στην ιστορία δεν μεταδίδονταν τόσο γρήγορα και σε τέτοιο πλήθος από πλευράς πληροφορίας. Το διαδίκτυο είναι το μέσο αυτής της γιγαντιαίας ανταλλαγής πληροφορίων και τα κοινωνικά δίκτυα τα κέντρα μετάδοσης τους. Καθένας μπορεί να γίνει δίαυλος ενημέρωσης χωρίς όμως να ελέγχεται η αξιοπιστία του. Αυτήν την αδυναμία ελέγχου της ποιότητας των ειδήσεων χρησιμοποιούν κακόβουλοι χρήστες ώστε να προωθήσουν τα προσωπικά τους οικονομικά συμφέροντα ή να για αναπαράγουν αναλήθειες. Ο σκοπός της διπλωματικής εργασίας είναι η ανάπτυξη μεθοδολογίας για την ανίχνευση, αναγνώριση και καταγραφή των clickbaits , μιας τακτικής χειραγώγησης του αναγνώστη για την μετάδοση και εξάπλωση ψευδών ειδήσεων. Αρχικό ζητούμενο αποτέλεσε η αυτοματοποιημένη αξιολόγηση των ειδήσεων ως προς την αξιοπιστία τους. Η μεθοδολογία που ακολουθήσαμε για την εύρεση και συλλογή παραπλανητικών τίτλων έγινε κατόπιν μελέτης των σύγχρονων τεχνολογικών ερευνών πάνω σε παρόμοια έργα της επιστήμης των δεδομένων. Στόχος ήταν η ταυτοποίηση των τίτλων ειδήσεων που ξεχωρίζουν από την πλειοψηφία των δεδομένων ως προς τα γλωσσικά τους χαρακτηριστικά. Στο πλαίσιο αυτό υλοποιήθηκε σύστημα ανάλυσης του γραπτού λόγου σε μια προσπάθεια να εξαχθούν νοήματα από τα γλωσσικά δεδομένα. Κατόπιν υλοποιήθηκαν μοντέλα αναδράσεων , για την εκτίμηση και ταξινόμηση των τίτλων σε κατηγορίες . Στα μοντέλα αυτά συμπεριλήφθηκαν Δέντρα Αποφάσεων , μηχανές SVM και νευρωνικά δίκτυα (RNN , MLP). Το σύστημα υλοποιήθηκε εξολοκλήρου σε γλώσσα Python και τα δεδομένα αλιεύθηκαν από το ίντερνετ και με τη χρήση διασύνδεσης προγραμματισμού εφαρμογών του κοινωνικού δικτύου Twitter. el
heal.abstract In our days news spreads rapidly in every corner of the globe. It is unprecedented in human history for so much information, of any kind or form, to be able to reach as many people and as quickly as it does today. The internet has been the tool that has enabled this development. Moreover, over the past 15 years social networks have turbocharged the spread of information. On social networks anyone can reach an enormous amount of people and spread any kind of information he wishes without any verification of whether the information is credible or not. This lack of verification and quality control of information of news spread online allows malicious agents to spread misinformation so they can further their economic or political interests. The purpose of this thesis is the development of a methodology for detecting, identifying and recording clickbaits, a tactic that is often used for the manipulation of readers and the spreading of fake news. The initial aim was the automation of the evaluation of the credibility of news. The methodology we used for finding and collecting misleading article titles resulted after studying recent research on similar topics of data science. The goal was the identification of news titles that stand out due to their linguistic characteristics. In this context, a system of analysis of written speech was implemented in an attempt to extract the meaning of linguistic data. Feedback models were then implemented to evaluate and classify the titles into categories. These models included Decision Trees, Support-Vector Machines (SVM in brief), and neural networks such as Recurrent Neural Network and Multilayer Perceptron (RNN and MLP in brief). The system was implemented entirely in Python and the data was captured from the Internet and using the Twitter application programming interface. en
heal.advisorName Ασκούνης, Δημήτριος el
heal.committeeMemberName Ασκούνης, Δημήτριος el
heal.committeeMemberName Ψαρράς, Ιωάννης el
heal.committeeMemberName Δούκας, Χρυσόστομος el
heal.academicPublisher Εθνικό Μετσόβιο Πολυτεχνείο. Σχολή Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών. Τομέας Τεχνολογίας Πληροφορικής και Υπολογιστών el
heal.academicPublisherID ntua
heal.numberOfPages 71 σ. el
heal.fullTextAvailability false


Αρχεία σε αυτό το τεκμήριο

Οι παρακάτω άδειες σχετίζονται με αυτό το τεκμήριο:

Αυτό το τεκμήριο εμφανίζεται στην ακόλουθη συλλογή(ές)

Εμφάνιση απλής εγγραφής

Αναφορά Δημιουργού - Μη Εμπορική Χρήση - Παρόμοια Διανομή 3.0 Ελλάδα Εκτός από όπου ορίζεται κάτι διαφορετικό, αυτή η άδεια περιγράφεται ως Αναφορά Δημιουργού - Μη Εμπορική Χρήση - Παρόμοια Διανομή 3.0 Ελλάδα