Protection de la vie privée, sécurité des données (normes LRPDE ou PIPEDA [en anglais] pour le Canada)
Responsabilité professionnelle
Chaque outil d'IA présente un profil de risque qui lui est propre (p. ex: LLM, imagerie médicale).
Les données étant essentielles à l'IA, l'utilisation et la conservation potentielle de données confidentielle pose des enjeux.
L'IA est complexe, opaque et peut halluciner. Les outils et méthodes d'évaluation des systèmes d'IA ne sont pas encore au point.
Plus un système est autonome et plus les répercussions potentielles sur les usagers sont importants (risque plus élevé).
Mesures de mitigation: réduire le degré d'autonomie, superviser activement, demander information et transparence de la part des développeurs
Types de risques et préjudices potentiels en lien avec les soins de santé selon l'ACPM:
responsabilité civile
protection des renseignements personnels, consentement
droits de la personne (en raison des biais potentiels)
propriété intellectuelle (risque de plagiat très élevé)
Importantes lacunes au niveau réglementaire
Projet de loi 64 au Québec
les organisations doivent informer autrui des décisions rendues par IA
à la demande du concerné, les renseignements personnels et les facteurs doivent être rendus disponibles
la personne concernée a le droit de faire réviser la décision par un être humain
Santé Canada a élargi son pouvoir d'homologation aux logiciels à titre d'instruments médicaux
L'ACPM suggère des responsabilités pour diverses parties prenantes:
Développeurs et fournisseurs
Organismes réglementaires
Prestateurs de soins:
utiliser les systèmes d'IA afin d'améliorer la prise de décision clinique tout en préservant le jugement
formation et éducation
intégration des systèmes dans le flux de travail
prioriser la sécurité des patients et signaler les incidents
utilisateurs éthique (transparence, autonomie, vie privée, consentement)
se conformer aux règlements
consigner l'utilisation de l'IA dans les dossiers
fournir de la rétroaction aux développeurs, fournisseurs et organismes
Gestionnaires
Associations médicales
En résumé: peu de réglementations et d'importants risques ...
Au minimum, le consentement éclairé du patient doit être recueilli avant l'utilisation du scribe IA et colligé au dossier. Il doit informer le patient que:
l'intégralité de l'entrevue réalisée avec le patient est enregistrée
la transcription est anonymisée, chiffrée et déposée sur des serveurs sécurisés au Québec
les données recueillies sont détruites après un maximum de 48 heures
la transcription de l'entrevue est immédiatement transformée en note clinique par l'IA
le professionnel de la santé relit la note et la rectifie au besoin avant de la signer et de la déposer au dossier médical électronique du patient
L'idéal pour se protéger médico-légalement et bien informer le patient est de combiner:
de l'information au patient (bulletin d'information, écran salle d'attente, affiche dans la salle d'attente et les bureaux)
un consentement général écrit, qui peut être signé en même temps que l'inscription des patients en GMF
un consentement verbal recueilli par le médecin lors de la rencontre d'un patient et colligé au dossier
Le consentement du patient est essentiel. Il est fortement recommandé d'utiliser un produit québécois. Les avantages potentiels des logiciels québécois sont l'hébergement sur des serveurs au Québec et le respect des normes et lois en vigueur au Québec. Il faut cependant le valider avant de signer un contrat avec le fournisseur.
Ressources:
Principe 1: Primauté de la relation humaine: la relation humaine doit rester au coeur de la relation pédagogique
tous doivent pouvoir exercer leur agentivité et exprimer leurs sensibilité par rapport à l'IA
Principe 2: Ouverture, exploration et formation
l'exploration des enjeux et possibilités de l'IA est encouragée
la décision de le faire relève des membres du corps professoral
le développement d'habilités critiques est essentiel
Principe 3: Prudence et utilisation éclairée
l'utilisation de l'IA se fait de manière prudente et réfléchie
les inégalités et termes de littératie numérique doivent être pris en compte
la responsabilité des contenus générés par l'IA revient systématiquement à la personne qui l'utilise
protection de la vie privée, des données pesonnelles et de la propriété intellectuelle doivent être assurés
tenir compte des biais de l'IA
utilisation responsable de l'IA pour minimiser son empreinte écologique
Principe 4: Intégrité et transparence
l'intégrité académique prévaut toujours
l'utilisation de l'IA est citée et mentionnée
les attentes en termes de l'utilisation de l'IA pour chaque cours sont claires
le respect de la propriété intellectuelle et du droit d'auteur est obligatoire
Principe 5: Intelligence collective et collaboration
collaboration et interdisciplinarité pour développer des usages bénéfiques et responsables de l'IA
Directives du Bureau du droit d'auteur de l'UL
Les contenus générés par l'IA ne sont pas des oeuvres et les IA ne sont pas des auteurs
Tous les résultats de l'IA sont dans le domaine public
Ne pas oublier que tout ce qui est fournit à une IA est irréversible et que ce contenu servira pour toujours à l'alimenter
Faire preuve de transparence en divulguant l'utilisation des outils d'IA
Les auteurs sont entièrement responsables de leurs contenus, incluant ceux générés par l'IA
Plagiat
Les IA peuvent reprendre intégralement le texte d'un autre auteur -> plagiat !
Ne pas citer l'utilisation de l'IA -> plagiat !
Copier-coller un texte d'un autre auteur pour le faire résumer sans le citer -> plagiat !
Diffuser les contenus d'un cours
Fournir à une IA du matériel utilisé ou produit dans un cours -> violation du droit d'auteur
Utiliser l'IA lorsqu'elle n'est pas autorisée -> infraction
Inventer des données ou inclure de la désinformation -> infraction
Traduit et adapté de When is it safe to use ChatGPT? par A. Tiulkanov (UNESCO) / licence CC-BY 4.0
M Gordon, Medical teacher 2024, https://pubmed.ncbi.nlm.nih.gov/38423127/