Une vidéo circule depuis plusieurs jours sur YouTube, Facebook et TikTok, dans laquelle on entend Kylian Mbappé annoncer qu’il ne jouera pas la Coupe du monde 2026 aux États-Unis pour des raisons liées aux droits humains. Le problème ? Cette vidéo est entièrement fabriquée. L’audio a été généré par intelligence artificielle, et Mbappé n’a jamais tenu ces propos. Voilà comment ce faux s’est propagé à grande vitesse.
Ce que la vidéo prétend montrer
La séquence accumule plus d’un million de vues sur YouTube. On y voit Mbappé en conférence de presse, avec le maillot de l’équipe de France, prononcer des mots qui n’ont jamais été les siens : « Je ne jouerai pas dans un pays qui traite les gens comme des animaux. » Les publications qui diffusent la vidéo ajoutent des titres du type « Mbappé refuse le Mondial aux États-Unis » ou « il n’irait pas là-bas pour tout l’or du monde ».
C’est accrocheur. C’est aussi complètement faux.
D’où viennent ces images ?
Une recherche par image inversée sur les frames de la vidéo conduit directement à une source originale : une conférence de presse publiée par le journal AS le 7 juin 2025. Dans ce document authentique, Mbappé porte le même équipement, devant le même panneau de sponsors. Il est alors interrogé avant le match contre l’Allemagne pour la troisième place de la Ligue des Nations UEFA.
Ce jour-là, il a uniquement parlé de la Ligue des champions remportée par le PSG, qu’il a qualifiée de « 100% méritée ». Aucune mention du Mondial 2026, aucune déclaration sur la politique migratoire américaine, aucune prise de position sur les droits humains aux États-Unis. Rien.
Les indices qui trahissent le deepfake
Pour qui prend le temps de regarder la vidéo attentivement, plusieurs anomalies sautent aux yeux. La synchronisation labiale ne colle pas : les lèvres de Mbappé bougent de façon décalée par rapport au son. La voix présente des caractéristiques typiques d’une synthèse vocale — un débit légèrement robotique, des intonations trop régulières.
Ce type de manipulation s’appelle un deepfake audio. Des outils accessibles en ligne permettent aujourd’hui de générer une voix synthétique à partir d’extraits sonores existants, puis de la plaquer sur une vidéo réelle. Le résultat est souvent imparfait, mais suffisant pour tromper quelqu’un qui scrolle rapidement sur son fil d’actualité.
Pourquoi ce faux fonctionne si bien
Le contexte joue en faveur du mensonge. Les tensions autour de la politique migratoire de l’administration Trump, les inquiétudes des supporters étrangers sur les contrôles aux frontières américaines, les débats sur un éventuel boycott du tournoi : tout cela crée un terrain fertile pour qu’une telle rumeur paraisse plausible.
Mbappé a déjà pris position publiquement sur des sujets politiques en France, notamment lors des élections législatives de 2024. Il est donc crédible, dans l’imaginaire collectif, qu’il puisse s’exprimer sur ce type de sujet. C’est exactement ce que les créateurs du faux ont exploité.
Mbappé sera bien au Mondial 2026
Pour dissiper tout doute : Kylian Mbappé sera l’un des leaders de l’équipe de France lors de la Coupe du monde 2026. Aucune déclaration officielle, aucun communiqué de la Fédération française de football, aucun média sérieux n’a rapporté la moindre volonté du joueur de se retirer de la compétition. L’AFP, qui surveille ce type de désinformation, n’a trouvé aucune trace d’une telle déclaration dans les archives de presse.
À 27 ans au moment du tournoi, Mbappé sera au sommet de sa carrière internationale. La question de sa participation ne se pose tout simplement pas.
Réflexe à adopter face à ces vidéos
Avant de partager ce genre de contenu, trois secondes suffisent : regarder si les lèvres correspondent à l’audio, chercher la source originale de la vidéo, vérifier que des médias reconnus ont relayé l’information. Le fact-checking n’est pas réservé aux journalistes. Face à la prolifération des deepfakes à l’approche du Mondial, ce réflexe devient indispensable.
