L'intelligence artificielle peut nous aider à synthétiser des connaissances pour répondre à une question clinique ou pour monter un cours ou une présentation.
Tous les éléments discutés antérieurement, comme la manière de faire une requête correctement, la possibilité d'erreurs générées (hallucinations, bullshitting), de biais, doivent être pris en compte, car le clinicien demeure toujours responsable de l'emploi qu'il fera des résultats de sa requête.
Le principal problème en médecine avec les outils d'IA, c'est qu'ils peuvent être dans l'erreur avec confidence! Ce sont d'excellents politiciens!
Une étude récente de mars 2025: AI Search Has A Citation Problem, démontre le taux alarmant de fausses réponses. de pages 404, ... Au lieu d'admettre qu'elle ignore la réponse, l'IA a tendance à inventer une réponse avec confidence.
Avec ou sans l'IA, lorsque le clinicien doit répondre à une question clinique, il peut utiliser plusieurs sources d'information à sa disposition. Ci-dessous, un exemple de sources d'information possibles:
Il n'existe malheureusement pas UN seul outil d'IA qui va à la fois couvrir toutes ces sources d'information et donner dans sa réponse le poids qui devrait convenir à chacune de ces sources.
Il n'est pas évident de regrouper les divers outils d'IA, chacun ayant des caractéristiques propres, ses forces et ses faiblesses, mais pour simplifier, nous avons divisé en 3 catégories d'IA qui peuvent aider à trouver de l'information clinique, soit:
Les LLM d'IA généraux comme ChatGPT qui a propulsé les LLM fin 2022. Initialement des LLM purs, ils offrent en général maintenant une recherche en temps réel sur le web.
Les LLM qui vont se concentrer sur des bases d'articles scientifiques. L'Université Laval offre actuellement des licences à Elicit Plus et Consensus Entreprise aux membres de la communauté.
Les LLM entrainés spécifiquement sur des bases de données médicales.
Dans la section Académisme, nous avons également mis NotebookLM qui permet de limiter sa recherche à ses propres notes (RAG privé). Cette fonction peut également s'effectuer avec des LLM généraux auxquels l'on fournit des documents spécifiques.
À ces 3 catégories, il s'ajoute une 4e catégorie qui elle vise à poser des hypothèses diagnostiques à partir du tableau clinique du patient.
Avant de se servir des données, il faut valider les sources, il y a souvent des erreurs, même dans les outils plus ciblés, ne serait-ce que sur l'interprétation que l'IA aura fait de l'information provenant de sa source. Une autre erreur plus difficile à vérifier est le risque d'omission d'une ou plusieurs références dans la réponse générée par l'IA. Cette omission peut modifier profondément l'interprétation qu'elle donnera de la littérature. Donc, le résultat produit peut être en accord avec les références produites, tout en ne réflétant pas totalement la littérature sur le sujet.
Le type de données que l'on utiliserait pour répondre à notre question clinique va influencer le type d'outil IA que l'on va utiliser.
Le type d'entrainement, les garde-fous mis en place vont également influencer notre choix.
1) Outils d'IA(LLM) généraux
Les LLM généraux peuvent s'avérer pratiques pour nous orienter vers des pistes de solution à une question clinique si celle-ci est bien formulée (voir L'art de la requête), car leur emploi est convivial et rapide.
Cependant:
De part leur entrainement sur l'Internet général et leur structure, ils ont l'avantage de la multiplicité des sources de données, mais cela augmente le risque de réponses moins pertinentes, biaisées ou basées sur des inférences (Hallucinations)
Un LLM pur ne peut pas véritablement citer ses références de manière fiable, et c'est l'une de ses limitations majeures.
Quand un LLM pur semble "citer" des sources, il :
Reproduit des patterns vus durant l'entraînement (format de citation, noms d'auteurs fréquents)
Génère des références plausibles basées sur des associations statistiques
"Hallucine" souvent des citations qui semblent réalistes mais sont inventées.
Pourquoi c'est problématique:
Pas de traçabilité : Le LLM ne "sait" pas d'où vient une information spécifique.
Mélange d'informations : Une "réponse" peut combiner des éléments de milliers de sources différentes.
Fausses citations : Le modèle peut inventer des DOI, des noms d'auteurs, ou des titres d'articles qui n'existent pas.
De plus en plus, les grands LLM ajoutent des récherches sur Internet, et donc peuvent fournir certaines références vérifiables.. Mais il peut encore arriver que le LLM soit trop confiant et invente sa référence provenant du mode LLM au lieu de ses références Internet, surtout si vous lui demandez ses références.
Même avec la recherche sur Internet, il arrive que la référence n'existe plus ou ne corresponde pas exactement avec l'objet de la recherche. Revoir l'article: AI Search Has A Citation Problem
Ce que vous devriez faire:
Vérifiez que la référence existe.
Soyez critique pour les faits spécifiques importants.
Croisez les informations pour les décisions importantes.
Tout en demeurant prudent et vigilant, certaines études dont celle-ci tendent à démontrer que le clinicien assisté d'un LLM a de meilleures performances que s'il n'utilise que des moyens de recherche traditionnels.
Le 27 mars 2025, Anthropic, développeurs de Claude AI, ont publié leurs études sur "Tracing the thoughts of a large language model". Les résultats peuvent parfois être perturbants! Malheureusent, l'on constate que les LLM peuvent fournir une réponse exacte mais inventer totalement un pseudo-raisonnement qui semble logique mais n'est pas valide pour arriver à cette réponse! Il faut donc demeurer prudent et critique face aux réponses fournies. Il y a également un article "On the Biology of a Large Language Model" avec une partie sur Medical Diagnosis.
Il faut noter également qu'une simple recherche Google standard nous donne désormais un résumé généré également par Gemini.
Selon une étude de février 2026 de Perplexity, il semble que les utilisateurs utilisent de plus en plus des LLM différents plus spécifiquement en fonction de leurs besoins, plutôt que de recourir toujours au même LLM pour tous leurs besoins. Dans ce lien, des statistiques d'utilisation des divers LLM.
Notez que de vous inscrire gratuitement et vous connecter au LLM que vous souhaitez explorer et utiliser (par courriel, compte Apple, Microsoft ou Google) vous permettra non seulement de conserver un historique de vos conversations, mais également de débarrer des outils comme de joindre des fichiers (sans avoir à aller chercher la version payante).
Nous avons tenté de ressortir les principales forces et faiblesses des LLM généraux suivants que vous verrez en tapant sur les liens.
2) Outils basés sur la recherche d'articles scientifiques avec un LLM pour la question et l'interprétation
L'époque des mots clés est révolue et grâce aux LLM, vous pouvez maintenant questionner des moteurs de recherche en langage courant. Ceux qui voudront en comprendre un peu plus sur le sujet pourront voir les pages suivantes: Vector Embeddings Explained et RAG.
Il existe plusieurs outils d'IA spécialisés dans la recherche et l’analyse d’articles scientifiques.
Parmi ceux-ci, nous avons donnés plus d'explications sur Consensus et Elicit puisque la bibliothèque de l'Université Laval offre une licence à des versions pro pour les membres de la communauté. Suivre ce lien.
Nous avons également mis dans cette catégorie Perplexity . C'est un moteur de recherche mixte, qui peut être configuré pour rechercher le web en général et/ou une base d'articles scientifiques. Il insiste sur la fiabilité et le référencement de ses résultats.
Puisque les recommendations de ces moteurs de recherche modernes sont directement en lien avec des articles scientifiques, il est plus facile de valider les sources de l'analyse et le risque d'erreurs est donc moindre... mais pas totalement absent. Elicit par exemple considère avoir un taux de précision d'environ 90%. L'on constate parfois également que le lien entre l'interprétation de l'IA et le contenu de l'article est pour le moins ténu!
Cependant, comme pour les LLM généraux, ces moteurs de recherche vont avoir accès aux abstract et au contenu "open source" des revues médicales, mais de manière générale, pas au contenu payant des grandes revues médicales, ce qui peut limiter dans une certaine mesure leurs réponses. Début avril 2025, Elicit annonçait être passé de 30 à 40% dans la proportion de ses articles complets, le reste étant des "abstracts" au niveau de ses recherches.
Concentrer ses recherches uniquement sur des articles médicaux scientifiques limite ces risques, mais néglige le fait qu'une grande partie du savoir médical utilisé pour nos décisions cliniques ne provient pas d'articles scientifiques récents, mais de livres médicaux, de guides de pratique comme ceux de l'INESSS ou d'autres sources d'organismes scientifiques et gouvernementaux qui ne sont pas publiés sous forme d'articles scientifiques. Se priver de ce savoir peut éclipser la meilleure réponse à nos questions cliniques.
3) IA avec bases de données médicales spécialisées
Certains outils vont se concentrer sur leur propre base de données médicales déjà structurées.
Ces outils comportent moins de risque "d'hallucinations" reliées à des interprétations de données non médicales ramassées sur Internet. Elles ne sont toutefois pas totalement à l'abri d'erreurs d'interprétation de leurs données.
Ces outils peuvent cependant être limités par le contenu de leur base de données. Il y a un risque d'omission de données de données non disponibles dans leur base d'entrainement qui donnerait une interprétation différente. On pense par exemple à l'antibiorésistance qui peut varier considérablement d'une région à l'autre.
Nous vous avons mis quelques exemples ci-dessous d'outil d'IA qui sont basés sur des bases de données médicales.
L'Université Laval offre une licence à Dynamed aux membres de sa communauté.
Autres outils d'IA pour la réponse à une question clinique:
Une autre catégorie qui va certainement aller en croissant, est celle des LLM qui visent spécifiquement à vous suggérer des diagnostics différentiels et des plans de traitement à partir d'un tableau clinique. Il y a bien entendu des recoupements entre les catégories, mais ici, on va retrouver des LLM qui ont été entrainés sur des données de patient et des diagnostics et conduites au lieu d'être entrainés sur l'Internet ou des articles scientifiques.
Il n'en reste pas moins qu'en 2026, les IA génératives demeurent des outils complémentaires au clinicien et ne sont pas encore en mesure de le remplacer.
La page suivante présente les principales différences entre le raisonnement de l'IA générative par rapport à l'être humain.
Il y a également les applications d'IA qui visent à interpréter des examens diagnostics, que ce soit au niveau radiologique ou des ECG.
Au niveau des ECG, un outil québécois en investigation, DeepECG semble très prometteur. Un article scientifique sur cet outil.
Autres références: