Deepfakes: quand l'IA enfile votre blouse blanche...
Début février, le Pr Serge Hercberg, père du Nutri-Score et figure majeure en santé publique en France, alerte sur le réseau LinkedIn : des vidéos générées par IA usurpent son identité pour diffuser des conseils nutritionnels pseudo-scientifiques, voire carrément farfelus, visant notamment les plus de 60 ans...
Et si c'était vous, la prochaine fois ? Après les Drs Michel Cymes, Marine Lorphelin ou encore Jean-Michel Cohen, ce nouvel épisode, qui frappe cette fois le Pr Serge Hercberg, montre que le deepfake ne cible plus seulement des médecins ultra médiatiques dont l'image circule à gogo et est facile à dupliquer, mais également des scientifiques pur jus à l'ombre de leur bureau. Objectif ? Toujours le même : conférer une crédibilité pseudo-scientifique à de faux (et dangereux) messages en santé, notamment pour vendre des traitements.
Par ailleurs, il aura fallu plusieurs jours et de nombreux efforts au “père” du Nutri-Score pour arriver à s'extirper de cette situation affolante : « Ouf ! Les plaintes et signalements auprès de YouTube et la mobilisation de très nombreux acteurs ont permis d'aboutir à la suppression de la chaîne Santé Sage », soufflait, enfin, le professeur émérite de la Sorbonne, il y a quelques jours.
Ce compte frauduleux, créé le 31 décembre dernier, ciblait tout particulièrement les 60+ ans, avec des conseils nutritionnels autour, notamment, de la santé cérébrale et osseuse. Il a finalement été clôturé par YouTube (sans savoir qui était en coulisses, ni dans quel but précis). C'est via un collègue tombé par hasard sur une vidéo que Serge Hercberg avait découvert le pot aux roses...
Discours inventé dans un décor réaliste
L'épidémiologiste et nutritionniste a fait l'objet de pas moins de 32 deepfakes. Avec un mécanisme bien rodé : blouse blanche (allant jusqu'à afficher son nom brodé), faux cabinet médical et propos fabriqués de toutes pièces. Le Pr Hercberg décrit des vidéos le mettant en scène assis à un bureau inexistant, tenant des discours ésotériques sur l’effet d’aliments (style: "manger une pomme avec la peau nettoierait le cerveau"), nutriments ou comportements sur la santé osseuse et cérébrale des sujets âgés... Des propos qu’il affirme n’avoir « jamais tenus ».
« Cette épisode nous montre à quel point il faut être vigilant sur ce nouveau mode de désinformation en santé s'appuyant sur l'intelligence artificielle, réfléchir comment s'en prémunir, protéger les scientifiques et acteurs de santé et ne rien laisser passer », conclut-il avec bonhommie, après plusieurs jours de réel effroi. Et de plaider pour « une réponse juridique à de tels comportements malhonnêtes ». Les messages n'étaient certes pas réellement dangereux dans son cas, mais suffisamment troublants pour brouiller les recommandations nutritionnelles officielles.
Si les signaux d’alerte restent utiles - désynchronisation lèvres/voix, clignements d'yeux pas naturels -, les progrès rapides de la technologie compliquent l’identification du fake...
La notoriété médicale comme arme commerciale
Le phénomène n’est pas neuf. Cela fait plusieurs années que des deepfakes exploitent sur les réseaux sociaux la confiance accordée à des médecins connus et respectés pour promouvoir des cures « miracle », qui vont parfois jusqu'à inciter à abandonner de vrais traitements. De précédentes victimes ont publiquement dénoncé ces montages, à l’instar du Dr Michel Cymes (qui a assigné Meta en justice), de la Dre Marine Lorphelin (sur TikTok et Instagram en juillet 2024) ou du médecin urgentiste François-Xavier Moronval (septembre 2025, via sa chaîne de pédagogie médicale ‘Doc FX’).
Si les signaux d’alerte maintes fois décrits demeurent utiles - désynchronisation lèvres/voix, clignements anormaux, variations d’éclairage -, les progrès rapides de la technologie compliquent de plus en plus l’identification du fake...
De son côté, YouTube rappelle que l’usurpation d’identité est interdite par son règlement et met en avant des outils de protection comme « Likeness ID », destiné à repérer des vidéos où un visage est généré/modifié par IA (avec possibilité de demander un retrait, mais YT a quand même mis plusieurs jours à réagir au cas Hercberg...). Les experts en cybercriminalité décrivent toutefois un rapport de force inégal et un 'jeu du chat et de la souris' entre fraudeurs et victimes, les premiers revenant très vite à la charge notamment grâce aux progrès du deep learning pour construire les algorithmes. L'outil idéal serait plutôt un système de certification du contenu, une signature numérique attestant de la non-altération d'une vidéo.