Sami Barrit, interne et lauréat du prix de la Fondation d’Avenir : « L’Europe ne doit pas perdre la bataille de l’IA médicale »

Par
Publié le 17/01/2024
Article réservé aux abonnés

Le 8 octobre dernier à l'occasion du congrès Chirurgie 4.0 organisé par l'Académie nationale de chirurgie, Sami Barrit, interne en neurochirurgie à l’Université libre de Bruxelles, recevait le prix de la Fondation d’Avenir, assorti d'une bourse pour mener à bien le projet « Neura » qui vise à développer une solution d’intelligence artificielle souple et adaptable, appliquée à l’aide à la décision médicale. Pour ce jeune neurochirurgien, qui a longtemps hésité à faire des études dans l'informatique, ces outils doivent rester sous contrôle européen.

Crédit photo : DR

LE QUOTIDIEN : Pouvez-vous nous détailler le projet que vous défendez et qui vous a valu le prix de la Fondation de l’Avenir ?

SAMI BARRIT : Neura est un projet d'intelligence artificielle (IA) spécifique pour une utilisation par les chercheurs et les professionnels de santé. Les grands modèles de langage actuels comme Open AI ou les différentes versions de GPT, dont le Chat GPT, sont entraînés sur une base de connaissances textuelles généralistes : cela les rend pertinents pour le grand public et compétents pour accomplir des tâches généralistes comme du résumé de texte.

Il existe bien de nombreux modèles spécialisés, mais peu le sont dans le domaine médical, où les contraintes, notamment éthiques, sont très importantes. Ce que nous proposons, c’est une solution pour rendre les grands modèles de langages aussi accessibles au chercheur universitaire qu’au médecin novice en informatique. Par exemple, un médecin qui souhaite prescrire une antibiothérapie doit pouvoir lui demander des conseils, et notre modèle doit pouvoir lui répondre en fonction des recommandations les plus récentes, de la littérature et des données de surveillance de l’antibiorésistance dans sa région, voire des dernières informations relatives aux pénuries d’antibiotiques.

Nous finalisons en ce moment une démonstration avec des neurologues qui sera prépubliée prochainement. Nous avons une étude en cours dans le domaine de l’infectiologie sur une IA alimentée avec les données du centre belge d’information thérapeutique. J’ai aussi testé notre solution dans un domaine qui touche à ma pratique clinique : l’implantation d’un stimulateur du nerf vague. Ce dispositif doit en général être placé à gauche pour des raisons anatomiques, mais il existe des situations où l’implantation à droite se justifie. J’ai donc nourri l’IA avec tous les documents validés sur le sujet pour qu’elle puisse m’aider à prendre une décision de façon très simple et itérative.

Outre la clinique et la recherche, notre projet a une troisième dimension : l’éducation, y compris celle des patients. Nous aimerions que ces derniers aient accès à des agents conversationnels afin de les renseigner sur la poursuite du traitement et les effets indésirables.

Par exemple, nous testons en ce moment l’apprentissage par une IA de la documentation de dispositifs médicaux. Un patient porteur d’un stimulateur pour lombalgie chronique pourra la questionner pour savoir à quoi correspond un signal d’erreur et connaître la conduite à tenir.

Notre solution se greffe sur les grands modèles conversationnels open source et offre une traçabilité de toutes les informations fournies. À terme, il sera même possible pour un médecin de rentrer ses propres sources de données.

Qu’en est-il du risque de biais de confirmation si vous proposez à un médecin un outil qui répond à ses questions avec les données qu’il a lui-même fournies ?

C’est un risque qu’il faudra évaluer. Il est possible que nous proposions un système avec des données de bases validées, par exemple, par des sociétés savantes auxquelles il sera possible d’ajouter ses propres sources de données. Il est important de laisser à l’utilisateur une part de liberté pour déployer des modules avec ses propres ressources, même s’il faut être extrêmement prudent pour éviter que cela ne serve à justifier des mauvaises pratiques.

Peut-être aussi que ceux qui auront le plus intérêt à disposer d’un modèle d’IA vierge seront les laboratoires de recherche qui pourront le nourrir avec leurs protocoles de gestion, parfois longs de centaines de pages. L’IA pourra alors aider les nouveaux internes ou chercheurs à intégrer les équipes en place.

Des grands acteurs comme Google Gemini ou Intel investissent l’IA médicale. Ne sont-ils pas capables de rendre des solutions accessibles et pertinentes ?

Ils en sont bien évidemment capables. Mais les grands modèles de langage, développés par des entreprises américaines ou chinoises, ne sont pas transparents sur le fonctionnement de leurs algorithmes. La question de l’IA est éminemment politique : si l’on abandonne le monopole de la technologie des IA et de leurs applications médicales à ces grands acteurs étrangers, qui sont proches de leurs gouvernements, cela peut être très dangereux.

Il faut que l’Europe s’oriente vers des solutions souveraines, et la France n’a d’ailleurs pas d’excuses sur ce dossier : votre pays est à l’avant-garde dans le domaine de recherche sur l’IA avec une véritable école de pensée dans le domaine (Sami Barrit est belge, NDLR). Vous avez par exemple le projet d’IA en science ouverte Bloom, piloté par la start-up Hugging Face et soutenu par le CNRS (avec des partenariats d’entreprises comme Thalès, Airbus ou Orange), qui s'entraîne sur le supercalculateur Jean Zay, le plus puissant d'Europe. On peut aussi citer le projet de la start-up Mistral IA qui m’a impressionné. Ils sont capables de faire tourner un modèle de langage sur un modeste ordinateur. C’est très intéressant d’un point de vue des ressources et de la sécurité.

L’AI Act (Artificial Intelligence Act, NDLR), ce règlement qui est en cours de négociation en Europe, impose que les solutions d’IA respectent le droit et les valeurs de l’Union ; cela devrait inciter les entités comme l'Inserm à s'orienter vers des entreprises françaises.

Plus personne n'a un téléphone ou un ordinateur européen, nous sommes aussi à la traîne pour ce qui est du software ou des grandes infrastructures du web. Nous ne pouvons pas nous permettre de perdre aussi la bataille de l’IA.

La mise au point de technologies d’IA suppose d’énormes moyens humains et financiers que vous n’avez pas. Comment passer outre ?

Je ne viens pas du monde des start-up et nous n’avons pas la prétention de révolutionner l’ingénierie. En revanche nous estimons être compétitifs dans notre compréhension des enjeux cliniques et de recherche. Notre culture est plus proche de celle des médecins que peut l’être celle des grands ingénieurs qui ont le nez dans le guidon de l’IA.

Nous prônons une utilisation intelligente des modèles et nous passons beaucoup de temps sur les enjeux de l’interface et de l’application. À titre personnel, j’ai une double culture puisque je fais du code depuis que je suis jeune, j’ai étudié les mathématiques et j’ai longtemps hésité entre la médecine et les sciences de l’ingénieur. Par la suite, j’ai fait de la recherche computationnelle sur l’analyse de signaux intracrâniens et ma thèse porte sur la spécialisation des grands modèles de langage. Les autres membres du groupe ont le même genre de profil. Nous sommes tous impliqués dans la science ouverte.

Notre collectif Neuroscope, qui ne dépend pas de l'université, est un groupe atypique de chercheurs. Nous sommes en train de constituer une spin-off appelée Sciense. Pour le moment, nous sommes à la recherche de partenariats académiques

Propos recueillis par Damien Coulomb

Source : lequotidiendumedecin.fr