Désinformation par l’IA : des influenceurs artificiels aux réseaux transnationaux, une menace déjà active en Europe


Désinformation par l’IA : des influenceurs artificiels aux réseaux transnationaux, une menace déjà active en Europe
A l’approche des prochaines échéances électorales en Europe, la désinformation liée à l’Intelligence artificielle ne relève plus d’un scénario prospectif. Entre images virales et influenceurs entièrement générés par l’IA, elle est déjà active, structurée et circule à l’échelle du continent. Lors d’un briefing organisé, mardi 14 avril, à Londres par la Foreign Press Association, réunissant journalistes et chercheurs, la journaliste, Effie Webb, et la chercheuse, Beatriz Lopes Buarque, ont décrit un écosystème informationnel en mutation rapide, dans lequel contenus générés par IA, récits conspirationnistes et logiques de plateforme se combinent pour produire de nouvelles formes d’influence politique. L’exemple frappant est celui du rappeur, Danny Bones, qui totalise des milliers de vues, mais il n’est pas reel: il est entirement généré par l’IA…
Un exemple frappant évoqué lors de cette discussion concerne une image générée artificiellement, liée à un récit d’« invasion européenne », qui a dépassé les 11 millions de vues sur les réseaux sociaux, en ciblant explicitement la France. Pour les intervenantes, cet exemple illustre un basculement : la désinformation politique ne s’inscrit plus dans des cadres nationaux, mais dans des dynamiques européennes, voire globales.
Des influenceurs artificiels : le cas du rappeur IA « Danny Bones »
Au cœur de cette transformation figure l’émergence de personnages entièrement générés par l’Intelligence artificielle (IA), capables de se comporter comme de véritables influenceurs politiques.
Lors du briefing, la journaliste, Effie Webb, a détaillé le cas de Danny Bones, un rappeur en ligne cumulant des centaines de milliers d’écoutes sur les plateformes musicales et une audience importante sur les réseaux sociaux. Le personnage adopte les codes culturels de la scène musicale, notamment du drill, tout en diffusant des messages politiques centrés sur l’immigration, l’identité nationale ou le déclin du pays.
J’ai moi-même été trompée au départ.
Ses vidéos le montrent tour à tour comme artiste underground, commentateur politique ou figure quasi-militarisée. Mais Danny Bones n’existe pas : il s’agit d’un personnage entièrement généré par l’IA, conçu par un collectif anonyme. « J’ai moi-même été trompée au départ », reconnaît Webb.
Ce type de profil marque une rupture avec les formes classiques de désinformation. Il ne s’agit plus seulement de diffuser des contenus, mais d’incarner une identité, de construire une relation avec une audience et de s’inscrire dans des logiques culturelles existantes.
Un modèle hybride : idéologie et profit
Ces nouveaux acteurs ne sont pas uniquement motivés par des objectifs politiques. Ils s’inscrivent également dans un modèle économique.
Après avoir gagné en visibilité, les réseaux liés à ce type de contenus mettent en place abonnements payants, groupes privés sur des messageries chiffrées et dons en cryptomonnaies. Dans certains cas évoqués lors du briefing, plusieurs milliers de livres sterling ont été générés en quelques semaines. « Il y a deux motivations: une motivation idéologique, et une logique de profit », résume Webb.
Il y a deux motivations: une motivation idéologique, et une logique de profit.
Cette hybridation permet à des acteurs très différents — militants engagés, entrepreneurs opportunistes ou créateurs de contenu — d’exploiter les mêmes dynamiques.
Des réseaux sur X qui traversent les frontières
Au-delà de ces figures visibles, la diffusion repose sur un réseau plus discret de comptes anonymes, notamment sur la plateforme X (ex-Twitter).
Parmi les exemples évoqués figure le compte Europe Invasion, identifié comme participant à des campagnes de désinformation à l’échelle européenne. Ces comptes diffusent des images générées par l’IA et des récits conspirationnistes, souvent centrés sur l’immigration.
Un contenu qui fonctionne dans un pays est repris et adapté ailleurs.
Leur fonctionnement repose sur une logique en cascade : un compte publie un contenu initial, d’autres le reprennent, puis il est amplifié de manière organique. « Il existe une forme de contre-internationale. Un contenu qui fonctionne dans un pays est repris et adapté ailleurs », explique Beatriz Lopes Buarque.
L’origine de ces comptes reste souvent inconnue. Certains semblent liés à des réseaux structurés, d’autres relèvent d’initiatives opportunistes. Mais leur effet est le même : accélérer la circulation de récits émotionnels à travers plusieurs pays.
De la désinformation à la radicalisation
Les intervenantes insistent sur un point central : la désinformation actuelle ne peut plus être réduite à la diffusion de simples « fake news ».
En analysant des contenus liés à des épisodes récents de violence au Royaume-Uni, les chercheurs ont observé une interaction entre fausses informations et récits conspirationnistes préexistants, notamment autour de l’immigration et de l’identité. « Ce n’est pas seulement de la désinformation. C’est un processus de radicalisation de masse », explique la chercheuse, Lopes Buarque.
Ces récits reposent sur des oppositions simplifiées — entre « peuple » et « élites », entre « nationaux » et « étrangers » — et offrent des explications immédiates à des situations complexes. Ils peuvent ainsi favoriser une mobilisation émotionnelle, voire inciter à l’action.
Ce n’est pas seulement de la désinformation. C’est un processus de radicalisation de masse.
Les images générées par l’IA jouent ici un rôle clé. Plus percutantes, elles génèrent davantage d’engagement — jusqu’à 30% de plus selon les données présentées — tout en échappant souvent aux mécanismes de modération.
Le dilemme des médias
Face à ces dynamiques, les médias traditionnels se trouvent dans une position délicate. En enquêtant sur ces réseaux, ils contribuent à les exposer, mais ils risquent aussi d’en amplifier la portée. La journaliste Effie Webb évoque ainsi un cas où une enquête journalistique a été suivie d’une augmentation des dons et de l’audience du groupe étudié.
Certaines approches consistent à limiter la visibilité donnée à ces acteurs, notamment en évitant de les nommer publiquement. Une stratégie qui vise à ne pas transformer l’exposition en levier de croissance.
Un défi pour la Belgique et l’Europe
Si la France apparaît déjà comme une cible explicite, la Belgique et d’autres pays européens sont directement concernés.
Dans un espace informationnel largement partagé, les récits circulent rapidement d’un pays à l’autre, s’adaptant aux contextes locaux tout en conservant leur structure narrative. Les dynamiques observées au Royaume-Uni ou en France peuvent ainsi se reproduire ailleurs.
L’objectif n’est pas seulement d’influencer un vote, mais de fragiliser la confiance dans les institutions, les médias et la démocratie elle-même.
Pour les intervenantes, l’enjeu dépasse largement les échéances électorales. « L’objectif n’est pas seulement d’influencer un vote, mais de fragiliser la confiance dans les institutions, les médias et la démocratie elle-même », conclut Lopes Buarque.
Dans ce contexte, la question n’est plus de savoir si ces campagnes existent, mais si les démocraties européennes sont prêtes à y répondre.
Alexander Seale (à Londres)
L’article Désinformation par l’IA : des influenceurs artificiels aux réseaux transnationaux, une menace déjà active en Europe est apparu en premier sur L-Post.
Source: LPOST

Check Also

Les arts martiaux comme moteur de lien social, une expo à Anvers, un débat et un symposium à la VUB

Les arts martiaux comme moteur de lien social, une expo à Anvers, un débat …

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.