Pheme : bientôt des algorithmes pour nous aider à débusquer les rumeurs ?

Logo du projet Pheme.

Logo du projet Pheme. Il s’inspire de la représentation de la divinité Pheme, qui personnifie la renommée mais aussi des rumeurs dans la mythologie grecque.

Facebook, Google, ou plus récemment le Décodex du Monde ; nombreux sont les projets à naître pour tenter de lutter contre la désinformation et les rumeurs. Lancé en janvier 2014 le projet Pheme réunit des chercheurs, journalistes et experts européens. Il est plus ancien mais aussi moins connu que ses concurrents. L’objectif qu’il s’est fixé est pourtant ambitieux : développer des algorithmes de détection automatique des rumeurs et des outils de traçage, d’analyse et de vérification de l’information.

Destinés aux journalistes et aux professionnels de santé, ces outils pourraient offrir un appel d’air au monde de la presse. Comme l’indique Kalina Bontcheva, qui dirige le projet, nous sommes face à une « course entre les machines et les personnes qui fabriquent de fausses informations par jeu, pour des raisons politiques ou pour de l’argent ». Une course qui laisse les journalistes à cours de souffle, à l’ère de l’information en continu et des restrictions budgétaires.

Suivre la diffusion des rumeurs en temps réel

Au terme de son développement Pheme devrait être capable de détecter les rumeurs, qu’elles soient vraies ou fausses, et de suivre leur diffusion en temps réel. En la matière, une des approches possibles est de tracer l’origine d’un texte ou d’un extrait de texte qui aurait été copié et collé, subissant éventuellement des transformations. Tracer un sujet journalistique, un récit repris par différents médias ou sous forme de discussions sur les réseaux sociaux est cependant une approche plus complexe, peu exploitée par la recherche jusque-là.

L’une des ambitions de Pheme est de proposer un outil qui permettra de révéler les liens implicites existants entre deux articles ou des posts et conversations sur Twitter qui parlent d’une même information mais avec, par exemple, des détails contradictoires. Pour cela, la technique déployée permettra d’effectuer des requêtes qui reposent non sur l’ordre précis des mots dans une phrase (comme c’est le cas d’un texte ou d’un extrait de texte copié et collé) mais sur une structure plus souple : les relations grammaticales entre les mots.

Un tweet diffusant une rumeur ne sera, par conséquent, pas analysé individuellement par Pheme. Il sera considéré au sein d’une séquence, d’un réseau relationnel. Pheme devrait ainsi être capable de proposer à ses utilisateurs une indication sur la véracité des informations analysées : le cadre spatio-temporel où elles s’expriment ou encore le degré de fiabilité de leurs auteurs (basé sur leurs statuts et publications passées) étant par ailleurs interrogés.

Des émeutes de Londres au projet Pheme

Pheme est né dans le sillage des émeutes de Londres de 2011. A l’époque, le Guardian et la London School of Economics s’associent autour du projet « Reading the Riots ». Cette étude de recherche sociale a notamment pour objectif d’étudier le rôle des médias sociaux pendant les événements.

Fausse photographie présentant le London Eye en feu durant les émeutes londoniennes de 2011

Une photo truquée présentant le London Eye en feu a été abondamment relayée durant les émeutes de Londres.

Aujourd’hui professeur au Département de Sciences Informatiques de l’Université de Warwick, Rob Procter a analysé avec ses équipes plus de 2.5 millions de tweets postés durant les émeutes. Ce travail leur a permis d’étudier la diffusion de 7 rumeurs sur Twitter. Un outil de visualisation mis en ligne sur le site du Guardian permettant au final de suivre sur une frise chronologique interactive la progression des tweets confirmant, contrecarrant, interrogeant ou commentant une de ces rumeurs.

« Le projet avec le Guardian nous a donné une idée du sens que les gens donnent à l’information qu’ils reçoivent sur des plateformes comme Twitter » indique Rob Procter. « Il nous a suggéré que nous pourrions utiliser les enseignements que l’on a tiré [de cette étude] pour apprendre à des machines à prédire, de manière automatique ou semi-automatique, la véracité des informations sur les réseaux sociaux. »

Pour parvenir aux résultats publiés dans le Guardian, il a fallu passer par une méthode manuelle de tri des données, précise t-il. Dans le cadre du projet Pheme cette procédure a été enseignée à des machines capables d’effectuer par exemple le tri entre des messages qui confirment, contrecarrent, interrogent ou commentent une information.

Une équipe pluridisciplinaire

Derrière Pheme, il y a une équipe d’universitaires, d’experts et de journalistes coordonnés par l’Université de Sheffield au Royaume-Uni. Issus de domaines comme l’apprentissage automatique, le journalisme, l’interaction homme-machine, l’exploration de données ou encore la visualisation, ils se réunissent deux fois à trois par an. Ils collaborent par ailleurs régulièrement par Skype, tout en travaillant dans une relative indépendance, chacun dans leur spécialité. Depuis ses débuts le projet est financé par la Commission Européenne.

Pour élaborer des modèles de vérification de l’information, les chercheurs se sont basés sur la collecte de données issus de cas passés de prolifération de rumeurs sur les médias sociaux, comme le crash de la Germanwings ou la tuerie d’Ottawa. « A travers ces sujets, nous étions à la recherche d’informations erronées, mal interprétées ou de canulars entourant les événements réels » explique Rob Procter.

Les équipes de swissinfo.ch ont aidé leurs partenaires à comprendre le travail et les besoins des journalistes. « Notre rôle a également été de faire des analyses approfondies sur des rumeurs qui ont couru lors de certains événements comme l’attentat de Charlie Hebdo ou le crash de la Germanwings. » ajoute Géraldine Wong Sak-Hoi qui représente le média suisse dans le projet.

Avec les chercheurs, les journalistes ont élaboré des protocoles de vérification et de tri de l’information. Une fois les données triées, analysées et vérifiées par des experts humains, des algorithmes d’apprentissage automatique ont été entraînés à reproduire le travail des experts. Le but étant que ces algorithmes parviennent aux résultats que les équipes de Pheme savaient être vrais avant de s’attaquer à des données nouvelles.

 

La plateforme élaborée par Pheme à destination des journalistes est actuellement en phase de test, et plusieurs technologies composantes de l’outil, ainsi que les données concernant les rumeurs étudiées par le consortium, devraient être mises à disposition en open source. Si ce projet semble prometteur et à l’avant-garde, il n’en est toutefois qu’à sa phase initiale. C’est du moins ce qui ressort d’un article de Geraldine Wong Sak Hoi publié en juin dernier sur swissinfo.ch. Du temps est encore nécessaire pour apprendre parfaitement aux machines à donner une indication claire sur la véracité d’un contenu. « Un travail difficile à effectuer avec précision » observe t-elle.

Par ailleurs, si demain des algorithmes pourraient bien aider les humains à démêler le vrai du faux sur internet, des approches autres que technologiques devront de toute façon être mobilisées pour lutter contre les fausses informations. De simples outils comme le badge « compte vérifié » de Twitter ou la mention « lien sponsorisé » de certains médias en ligne constituent déjà un moyen clair d’identifier des faux-comptes ou de l’information publicitaire. Ils sont pourtant difficilement maîtrisés par les jeunes, comme le montre une étude récente du Stanford History Education Group. Preuve que l’éducation à l’information et aux médias a plus que jamais besoin d’une réelle place, notamment dans les programmes scolaires.

Sources

Le site du projet Pheme et de swissinfo.ch.

Svitlana Vakulenko et al. Visualising the propagation of News on the Web, 2016.

Leon Derczynski et Kalina Bontcheva. Pheme : Veracity in Digital Social Networks, 2014.

Mădălina Ciobanu. A team of researchers from 7 countries is building an open-source tool to help verify claims on Twitter. Journalist.co.uk, juin 2016.

Jo Fahy. True or false ? Sorting rumours and sifting data [podcast]. swissinfo.ch, mai 2016.

Kurt Wagner. Researchers are building a lie detector for Twitter. Mashable, février 2014.

Geraldine Wong Sak-Hoi. Longue bataille en vue pour freiner les infos bidons. swissinfo.ch, décembre 2016.

 

Pour un autre regard sur le sujet, vous pouvez également consulter le dernier numéro de Pour la Science, qui présente un dossier sur la désinformation et les réseaux sociaux.

 

Vous aimerez aussi...

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *