Nouvelle méthode de détection de la propagande : les chercheurs de Bochum au centre de l'attention !

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

L'Université de la Ruhr à Bochum présente une méthode efficace de détection de la propagande dans Telegram, récompensée lors du symposium USENIX.

Die Ruhr-Universität Bochum präsentiert eine effiziente Methode zur Erkennung von Propaganda in Telegram, ausgezeichnet auf dem USENIX Symposium.
L'Université de la Ruhr à Bochum présente une méthode efficace de détection de la propagande dans Telegram, récompensée lors du symposium USENIX.

Nouvelle méthode de détection de la propagande : les chercheurs de Bochum au centre de l'attention !

Les campagnes de désinformation constituent un problème croissant qui touche non seulement les médias traditionnels, mais qui est également répandu dans les services de messagerie tels que WhatsApp, Telegram et Signal. Le 13 août 2025, une équipe de chercheurs de l'Université de la Ruhr à Bochum et de l'Université de Lausanne a présenté une méthode nouvellement développée pour détecter les comptes de propagande sur Telegram lors du USENIX Security Symposium à Seattle. Cette méthode a le potentiel de soutenir efficacement la lutte contre la désinformation.

La présentation dirigée par le professeur Rebekah Overdorf s'est démarquée car l'équipe d'auteurs a reçu le prestigieux Distinguished Paper Award. La méthodologie est non seulement plus rapide et moins coûteuse que la modération humaine précédente, mais elle la dépasse également largement en termes d'efficacité. En analysant 13,7 millions de commentaires provenant de 13 chaînes Telegram à caractère politique ou d'actualité, les chercheurs ont identifié que 1,8 % de ces commentaires pouvaient être classés comme de la propagande, provenant principalement d'un réseau pro-russe.

Efficacité du nouveau mécanisme de détection

Le mécanisme de détection nouvellement développé a pu détecter la propagande avec un taux de réussite de 97,6 pour cent, soit 11,6 pour cent de mieux que l'efficacité moyenne de la modération humaine. Cela varie considérablement, car certains canaux n'ont qu'un taux de détection de 20 pour cent, tandis que d'autres peuvent atteindre plus de 95 pour cent. Ces différences illustrent à quel point la modération humaine peut s’avérer inefficace dans la lutte contre la désinformation.

Dans le cadre de cette modération, le niveau élevé d’effort manuel constitue également un problème. Les modérateurs de contenu sont souvent exposés à un stress psychologique, surtout lorsqu’ils doivent gérer des contenus problématiques 24 heures sur 24. Le nouvel algorithme pourrait contribuer à réduire cet effort et à améliorer les conditions de travail des modérateurs.

Le contexte de la désinformation

La lutte contre la désinformation est particulièrement pertinente en temps de crise, où les fausses nouvelles et les récits complotistes se propagent rapidement sur les réseaux sociaux. Les experts estiment que la société n’est plus sensible à ces récits qu’elle ne l’était auparavant, mais la présence de tels contenus a considérablement augmenté. Cela se fait souvent dans le but stratégique d’attiser des sentiments négatifs tels que la peur ou la colère, ce qui souligne la pertinence des méthodes nouvellement développées pour identifier la propagande.

Selon une enquête du premier trimestre 2023, 48 % des internautes allemands déclarent avoir trouvé des informations fausses ou peu fiables. La désinformation est devenue un outil stratégique utilisé spécifiquement pour manipuler les opinions, notamment lors des campagnes électorales. Malgré ces défis, les spécialistes de la communication soulignent que la désinformation ne constitue pas une menace grave pour la démocratie.

Chaque utilisateur peut agir activement contre la désinformation en la remettant en question de manière critique, en comparant les sources et en vérifiant les expéditeurs de l'information. Les institutions européennes ont créé des réglementations claires pour confier la responsabilité aux plateformes telles que Facebook, YouTube et TikTok de lutter contre la désinformation. La loi sur les services numériques exige que ces plateformes évaluent les risques pour leurs utilisateurs et prennent des mesures efficaces contre la désinformation.

Les développements à l’Université de la Ruhr à Bochum pourraient constituer une étape décisive vers un meilleur paysage de l’information dans lequel la désinformation pourrait non seulement être découverte plus rapidement, mais aussi combattue plus efficacement. Une lueur d’espoir à une époque caractérisée par l’incertitude et la surcharge d’informations.