Une vidéo d'à peine dix secondes, créée par intelligence artificielle, a enflammé les réseaux sociaux récemment. Partagée près de 4 millions de fois, cette séquence montre des missiles frappant le cœur de Tel-Aviv. Gérard Araud, ancien ambassadeur de France en Israël, fait partie des personnalités ayant relayé cette information fallacieuse.
La vidéo, devenue virale, a pu désinformer de nombreux utilisateurs. Selon i24 News, un journaliste basé à Gaza a été le premier à partager la séquence, suivie par des personnalités comme Suleiman Ahmed. Bien que le journaliste ait reconnu l'authenticité douteuse de la vidéo, il a décidé de ne pas la supprimer, arguant qu'elle représentait la réalité vécue à Gaza en raison du conflit entre le Hamas et Israël qui perdure.
Tel Aviv, stripped of illusion, as you have never witnessed it. pic.twitter.com/HE3ckjBMti
— Abdulruhman Ismail (@a_abdulruhman) March 3, 2026
L’IA de X authentifie la vidéo, les utilisateurs corrigent le tir
Le réseau social X utilise sa propre intelligence artificielle, nommée Grok. Cette technologie, déjà critiquée pour sa capacité à générer des deepfakes, a, dans ce cas, qualifié la vidéo de fake. Cependant, des utilisateurs ont rapidement rectifié l'information, soulignant qu'il s'agissait bien d'une création d’IA, affichant des caractéristiques typiques de telles vidéos, y compris des distorsions visuelles.
La diffusion de cette vidéo a conduit plusieurs personnalités françaises à tomber dans le piège, mais les mises en garde des lecteurs ont permis de corriger certains récits. Le réseau affiche désormais un message avertissant des altérations, ajoutant contexte et précisions essentielles pour éviter de nouvelles méprises.
L'incident soulève des questions importantes sur la désinformation en ligne, particulièrement dans le contexte d'un conflit aussi complexe et nuancé.







