Les « deepfakes » de médecins connus, un phénomène qui s’emballe au service d’arnaques commerciales

Publié le 16/09/2024

Des médecins stars, comme le Dr Michel Cymes, sont victimes de trucages utilisant leur image à l’aide de l’IA générative pour des publicités mensongères. Des experts s’en alarment alors que ces arnaques pullulent sans réel contrôle possible.

Crédit photo : GARO/PHANIE

Des médecins connus et respectés faisant la promotion de cures « miracle » contre le diabète ou l'hypertension ? Des publicités mensongères utilisant l'image de figures d'autorité dans le domaine de la santé, manipulée par l'intelligence artificielle (IA), inondent les réseaux sociaux, un déferlement très difficile à contenir selon des experts.

Sur Facebook et Instagram, ils promettent de guérir du diabète sans metformine, un médicament prescrit en première intention, incitant même les patients à abandonner leur traitement qui « va les tuer », au profit d'obscurs sirops soi-disant « naturels ». Ces arnaques frisent la mise en danger de la vie d'autrui et sont d'autant plus pernicieuses qu'elles reposent sur l'image de médecins stars, comme le Dr Michel Cymes en France ou le Dr Michael Mosley au Royaume-Uni, victimes de ces deepfakes, des contenus en ligne générés ou modifiés grâce à l'IA.

« Les gens ont confiance en ces vidéos car ces médecins ont passé du temps à se construire une image de crédibilité, donc on les croit, même quand ils formulent des allégations totalement farfelues », déplore le Dr John Cormack, un généraliste britannique qui collabore avec le British Medical Journal (BMJ) sur ce sujet. Ces deepfakes ont « vraiment décollé cette année », observe Henry Adjer, spécialiste de l'IA, notant que les publicités visent surtout un public « un peu âgé », en détournant l'image de « médecins de télévision ». Contacté par l'AFP en mai, Michel Cymes avait dit avoir déjà assigné en justice Meta pour dénoncer ces « arnaques ».

Le Britannique Hilary Jones, qui apparaît sur des vidéos générées par IA en train de vendre un faux remède contre l'hypertension, mais aussi des gommes au chanvre, a employé un expert pour traquer ces publicités. « Mais même quand elles sont enlevées, elles réapparaissent le lendemain sous un autre nom » se désespère-t-il dans le BMJ.

Comment garantir le contenu ?

Ces arnaques « ont pris de l'ampleur en raison des progrès du deep learning (technologie destinée à permettre à une machine d'apprendre par elle-même, NDLR) », explique Frédéric Jurie, enseignant-chercheur en informatique de l'Université de Caen. La qualité des deepfakes en images, audio et vidéo a fait des progrès énormes, note le spécialiste : « Aujourd'hui, on accède à des dizaines de milliards d'images et on est capable de construire des algorithmes qui peuvent modéliser tout ce qui peut apparaître dans les images et régénérer les images. C'est ce qu'on appelle l'IA générative. »

Plus récemment, ce sont des figures controversées, comme le Pr Didier Raoult en France, qui ont été utilisées pour des deepfakes. Barbara O'Neill, une naturopathe australienne considérée comme « présentant un danger pour la santé » par les autorités de son pays après avoir notamment promu le bicarbonate de soude contre le cancer, est ainsi devenue une star de TikTok sur la base de deepfakes lui faisant vendre des pilules pour « nettoyer les vaisseaux sanguins ». Joint par l'AFP, son époux, qui codirige la O'Neill Company, déplore que « beaucoup de monde utilise la réputation de Barbara pour vendre des produits qu'elle ne recommande pas ». Ce phénomène ne surprend pas Henry Adjer pour qui « ces personnes sont des modèles pour certains cercles conspirationnistes ». Parmi les fausses vidéos utilisant Barbara O'Neill, certaines d'ailleurs versent dans les théories du complot, assurant que la naturopathe est décédée - ce qui est faux - après avoir mis au jour une huile miraculeuse, vendue sur Amazon.

Face à ces deepfakes, les experts ne sont pas très optimistes quant au succès des outils de détection : « C'est le jeu du chat et de la souris, explique Frédéric Jurie. Par principe, la détection ne peut pas trop s'améliorer, parce que si quelqu'un trouvait quelque chose pour améliorer la détection, à ce moment-là, celui qui veut fabriquer des fausses images utiliserait ce moyen pour le contourner ». Le chercheur met plutôt en avant « des techniques qui permettent de garantir qu'un contenu n'a pas été altéré, comme pour les messageries, grâce à des logiciels qui produisent des signatures numériques, comme un certificat ».

Avec AFP

Source : lequotidiendumedecin.fr