JSAI2024 企画セッション 

医療AIにおける薬事と倫理

 セッション概要

会場:アクティ浜松

日時: 2024年5月29日 17:30〜19:10

セッション趣旨

 機械学習・AI技術の医療分野における活用が期待されていますが,多くの工学・情報系の研究者,エンジニアは,主にAIモデルの開発のみ注力しています.そのため,開発したAIを医療者や患者が実際にどのように使うかの明確なイメージが欠落している,実用化において不可欠である薬事を見通した開発プロセスを辿れていないといった例もしばしば見受けられます.また,医療AIの実用化には,データ収集を含めた研究段階から医学研究としての倫理面も含めた適切な開発プロセスが求められます.

 本企画セッションでは,PMDAの審査官や法学の専門家を招いて,工学・情報系の研究者,エンジニアに向けた医療AIにまつわる薬事や,倫理,法律などについて解説いただきます.本セッションが,みなさまの医療AIの研究を,実用化ステップへと進める一助となれば,幸いです.

 講演1:プログラム医療機器の薬事規制について

医薬品,医療機器等の品質,有効性及び安全性の確保等に関する法律(以下「薬機法」という)における医療機器とは「人若しくは動物の疾病の診断,治療若しくは予防に使用されること,又は人若しくは動物の身体の構造若しくは機能に影響を及ぼすことが目的とされている機械器具等であって、政令で定めるもの」(第2条第4項)に該当するものであり,その製品が医療機器の定義に該当する場合,薬機法の規制を受けることになる.現在は,上述の定義に該当するソフトウェアも医療機器(プログラム医療機器)として規制対象とされている.

プログラム医療機器は,近年企業のみならずアカデミアにおいても活発に開発が行われている.プログラム医療機器の薬事規制について,規制や審査の基本的な考え方は、従来の医療機器と同一であるが,昨今のプログラム医療機器に対する期待の高さなどから様々な施策が行われている.新たな通知も頻繁に発出されており,どのような方針で開発を進めるか悩ましく思われる場面が多いように感じる.

本講演では,PMDAの業務の紹介を行った上で薬事規制の概要を説明するとともに,プログラム医療機器の開発におけるPMDAの考え方を紹介する.


盛山真奈美(独立行政法人医薬品医療機器総合機構 プログラム医療機器審査室 審査専門員)

【略歴】2019年岐阜薬科大学薬学部薬学科 卒業.2019年東北大学病院 臨床研究推進センター 開発推進部門 助手.2023年独立行政法人医薬品医療機器総合機構 プログラム医療機器審査室(出向).


 講演2:医療機器分野におけるAIの規制の整合化及び国際標準化の動向

人工知能(AI)/機械学習(ML)技術の研究開発・社会実装が積極的に検討され,医療分野においても許認可を取得したAI/MLを活用した医療機器が臨床現場へ導入されている.医療イノベーションの推進も踏まえ,有効で安全な医療機器を各国、各地域に円滑に導入するには規制の整合が重要となる.

医療機器規制の国際調和を促進するための枠組みである国際医療機器規制当局フォーラム(IMDRF)は,AIに関するガイダンス文書の作成に着手している.これまでに用語に関するガイダンス文書を発行し,AI/MLを活用した医療機器を開発するうえで考慮すべき指針文書の作成に取り組んでいる.

一方,AIの国際標準化は,特有の領域に特化しないISO,IEC規格の開発が先行しており,順次規格が発行されている.AI/MLを活用した医療機器の国際標準化では,患者安全の観点から特有の領域に特化しない規格を引用することの妥当性,従前の規格の枠組みも踏まえた開発方針を検討するとともに,具体的な規格の開発に着手している.ISO,IEC規格等の規格は,規制の整合を図るうえで重要な要素の一つとなり,規制当局も積極的に規格の開発に参加している.

本講演では,IMDRF,ISO及びIEC規格の最近の動向について概説する.

今川邦樹(独立行政法人医薬品医療機器総合機構・医療機器調査・基準部 医療機器基準課 課長補佐)

2012年より独立行政法人医薬品医療機器総合機構 医療機器基準課に在籍しており,医療機器規制の基準策定に従事するとともに,ISO,IEC及びJIS規格の制定に携わっている.2021年よりプログラム医療機器審査室の併任業務として医療機器ソフトウェア,人工知能等に関するIMDRF WGメンバーとして医療機器規制の国際整合化業務に取り組んでいる.博士(工学).

 講演3医療AIをめぐるELSI

AIをめぐるガバナンスや法規制のあり方に関する議論は,相当程度成熟してきているように思われる.たとえば,昨年のG7における広島プロセスや,同デジタルテック大臣会合におけるDFFT 及びアジャイル・ガバナンスに関する承認など,大まかなガバナンスシステムの方向性や,そこで参照されるべき価値基準などについては,国際的にも相当程度議論の一致が見られるようになってきている.

また,EUのAI法(案)のような国際的にも大きなインパクトを持つであろう法規制の枠組みも具体化しようとしている.一方で,未だに議論の方向性が定まらない領域も依然として存在し,そのような領域においては価値観の対立も徐々に顕在化しようとしているように思われる.本報告では,AIガバナンスの枠組みとして注目される「アジャイル・ガバナンス」を一つの補助線として,EUのAI法(案)における議論を踏まえながら,望ましい医療領域でのAI規制の方向性について,その倫理的示唆とともに論じる.

稲谷龍彦( 京都大学大学院法学研究科教授)

企業犯罪及び,科学技術と刑事司法が交錯する領域を中心に研究を進めており,近時は科学技術法ガバナンス一般について研究領域を拡大している.京大法政策共同研究センターPI、理研AIP客員研究員などを兼務.デジタル庁デジタル関係制度改革検討会委員等を務めている.