07/07/22 – Soutenance de thèse d’Abderrazek Azri : Approches multimodales d’apprentissage automatique pour la détection des rumeurs dans les microblogs #MachineLearning

Soutenance homme

La soutenance aura lieu le jeudi 7 Juillet 2022 à 14h30 et se déroulera dans l’amphithéâtre du bâtiment 1 de l’IUT de l’Université Lyon 2, au campus Portes des Alpes, à Bron.  La soutenance sera suivie d?un pot au niveau de la salle juste à côté de l’amphithéâtre.

Il est à noter qu’il n’y aura pas de lien visio pour assister à distance à la soutenance.

Composition du jury :
Rapporteurs :
Pascale Kuntz (Université de Nantes)
    Cédric Wemmert  (Université de Strasbourg)
Examinateurs :
Christophe Gravier (Université de Saint-Étienne)
    Guillaume Cabanac (Université de Toulouse 3)
Encadrement de thèse :
Jérôme Darmont (Université Lyon 2)
    Cécile Favre (Université Lyon 2)
    Nouria Harbi (Université Lyon 2)

Keywords: : Rumeurs, Microblog, Apprentissage multimodal, Apprentissage supervisé, Apprentissage ensembliste, Apprentissage profond, Ingénierie des caractéristiques, Métriques de qualité d?image, Analyse de sentiments, Jeux de données

Résumé : 

        La nature ubiquitaire et la popularité des plateformes de médias sociaux entraînent la génération d?une grande quantité de données multimédia. L?ouverture et la facilité de partage sur ces plateformes favorisent la diffusion de l?information sans nécessairement tenir compte de sa véracité. Sans moyen de vérification et d?analyse du contenu échangé, les rumeurs peuvent affecter sérieusement la crédibilité de ces plateformes et engendrer des conséquences désastreuses dans la vie réelle. 

       Les travaux réalisés dans cette thèse ont pour objectif de proposer des solutions automatiques pour le problème de la détection et la classification des rumeurs dans  les sites de microblogging.  En se basant sur le contenu riche et de nature diverse fourni par ces plateformes nous considérons plusieurs caractéristiques des messages, notamment le texte, le contexte social, les sentiments et les images pour analyser leur véracité.

       Nous proposons un cadre pour la fusion multimodale de caractéristiques qui s?appuie sur plusieurs modèles d?apprentissage automatique pour l?évaluation de la véracité des messages, ainsi que son implémentation dans le framework MONITOR (Multimodal Fusion Framework to Assess Message Veracity in Social Networks). L?originalité de ce travail réside notamment dans le recours à des indicateurs de qualité d?image comme caractéristiques des images pour qu?ils soient utilisés dans un contexte de détection de rumeurs.

     Afin d?améliorer les performances de MONITOR, nous exploitons également l?apprentissage ensembliste, un paradigme très peu exploré dans le domaine de la classification des rumeurs. Nous proposons plusieurs algorithmes de metalearning en utilisant les modèles individuels de MONITOR comme modèles de base. 

      Toujours avec l?idée d?améliorer la performance de la classification des rumeurs, nous proposons un modèle multimodal appelé deepMONITOR, basé sur les réseaux de neurones profonds, qui se révèlent capables d?apprendre efficacement des représentations de textes et d?images. L?apport de ce travail concerne particulièrement l?intégration des images et de l?analyse de sentiments dans l?apprentissage multimodal.

     Enfin, pour répondre au problème du peu de jeux de données disponibles pour la détection multimodale des rumeurs, nous avons construit DAT@Z21, un jeu de données multimédia volumineux issues de Twitter, avec un étiquetage qui s?appuie sur une vérité terrain collectée à partir d?un site de fact checking. Ce jeu de données est partagé en respectant la réglementation en vigueur régissant la collecte et le partage des données Twitter. 

     Les expériences que nous avons menées à l?aide de divers jeux de données, dont DAT@Z21, démontrent la pertinence de nos propositions. En effet, MONITOR et deepMONITOR réalisent les meilleures performances en les comparant avec les méthodes récentes de l?état de l?art.

Leave a Reply

Your email address will not be published.