Nottingham Guardian - Les crises humanitaires, un nouveau filon de fausses vidéos créées par l'IA sur TikTok

Euronext
AEX 1.33% 1010.05
BEL20 1.03% 5357.17
PX1 -0.19% 8314.79
ISEQ 0.1% 13007.47
OSEBX -0.07% 1727.97 kr
PSI20 -0.02% 8566.12
ENTEC -0.41% 1416.23
BIOTK 0.02% 4045.64
N150 0.35% 3922.3
Les crises humanitaires, un nouveau filon de fausses vidéos créées par l'IA sur TikTok
Les crises humanitaires, un nouveau filon de fausses vidéos créées par l'IA sur TikTok / Photo: Kirill KUDRYAVTSEV - AFP/Archives

Les crises humanitaires, un nouveau filon de fausses vidéos créées par l'IA sur TikTok

Des petites filles prises dans une tempête de neige à Gaza, des bébés en pleurs au Soudan... Sur TikTok, des vidéos générées par l'intelligence artificielle engrangent des millions de vues en mettant en scène la détresse de victimes de conflits, à des fins lucratives.

Taille du texte:

Partagées par des comptes anglophones aux titres évocateurs, comme "Gaza_Sodan" ou "palestine66533", ces séquences de dix secondes montrent le plus souvent des enfants, des personnes âgées et des femmes.

Leur désespoir apparent, face aux catastrophes auxquelles ils sont confrontés, suscite l'empathie de nombreux internautes, qui l'expriment dans leurs nombreux commentaires postés sur le réseau social.

"Ce genre de contenu est assez réaliste, et l'utilisateur moyen de TikTok n'est pas en mesure de réaliser qu'il s'agit d'un faux généré par IA", relève Salvatore Romano, directeur de la recherche au sein de l'ONG d'audit algorithmique AI Forensics.

D'autant plus que les comptes qui diffusent ces vidéos ne mentionnent pas spontanément qu'elles ont été créées artificiellement, alors que TikTok demande aux créateurs de le faire.

Sur un sujet comme la guerre à Gaza, ce manque de transparence nourrit le clivage entre les pro-Israël et les propalestiniens sur un autre réseau social, X, où chaque camp accuse l'autre de produire ces images trompeuses pour faire basculer l'opinion en sa faveur.

Pour Tal Hagin, spécialiste de la vérification d'images créées via l'intelligence artificielle, chaque crise d'ampleur, telle qu'une tempête, une frappe de missiles, ou une étape majeure dans un conflit militaire, s'accompagne désormais d'une "poussée de ce type de comptes spécialisés dans l'IA" qui diffusent des images censées incarner les événements en cours.

- Monétisation -

Et la difficulté à discerner images authentiques et créations artificielles ne concerne pas que les internautes ordinaires: fin octobre 2025, des responsables politiques français avaient ainsi relayé la prétendue photo d'une femme protégeant son enfant face à des assaillants armés au Soudan, alors qu'il s'agissait d'une image générée par l'IA, devenue virale.

Comme le souligne Salvatore Romano, les "sujets sensationnalistes et polarisants" au cœur des comptes TikTok identifiés par l'AFP n'enfreignent pas à proprement parler les règles de la plateforme, mais ils flirtent avec leurs limites.

Ces vidéos générées en masse par l'IA réunissent surtout les caractéristiques requises pour y devenir virales grâce à leur durée très courte, "le format dominant" sur TikTok, et parce que "ce type de contenu est celui qui suscite le plus d'engagement sur les réseaux sociaux".

Les vidéos de tempêtes de neige à Gaza comptabilisent ainsi, pour chaque séquence, de 2 à 7 millions de vues.

Si, d'après un outil de géolocalisation utilisé par l'AFP, la majorité de ces comptes opèrent depuis le Pakistan, pays non éligible au système de monétisation de TikTok, leurs créateurs peuvent malgré tout gagner de l'argent de manière détournée.

"Quand un compte génère beaucoup d'engagement et attire de nombreux utilisateurs, il peut ensuite être revendu à quelqu'un qui l'utilisera pour y partager des publicités", explique Salvatore Romano, pour qui la monétisation de ce type de contenu "ne provient pas directement des vues engrangées mais plutôt de la vente du profil".

De quoi encourager la prolifération de ces contenus sensationnalistes sur la plateforme.

Une tendance jugée problématique par le spécialiste, car ces comptes cherchent à maximiser leur nombre de vues "en manipulant les algorithmes et en générant de l'engagement sans produire véritablement de contenu, ni se montrer honnêtes sur sa nature."

Ces fausses images ont aussi un impact concret sur l'opinion publique, alerte Tal Hagin. "Certaines personnes se focalisent sur le contenu IA et rejettent les images réelles de personnes en situation de souffrance", déplore l'expert.

R.Ryan--NG