美國衛生及公共服務部(HHS)下設主責提供人類受試者研究倫理與保護指導建議的人類研究保護秘書諮詢委員會(Secretary's Advisory Committee on Human Research Protections, 簡稱SACHRP),在2022年7月25日與10月19日批准了十個「IRB 關於在人類受試者研究中使用人工智慧的注意事項」(IRB Considerations on the Use of Artificial Intelligence in Human Subjects Research),以下列出比較相關的八項。
Q:SACHRP 如何定義「AI」在以人作為研究參與者的研究範疇?
A:
廣義 AI:AI 泛指電腦系統或演算法在模擬人類學習、推理與判斷的功能,例如機器學習(Machine Learning)、深度學習(Deep Learning)、自然語言處理(NLP)等。
研究中常見之應用:在臨床影像判讀、個案篩選、遠距監測、預後分析、行為追蹤或預測等領域,AI 扮演越來越重要的角色。
與人類受試者相關性:若研究使用 AI 來蒐集、分析或預測與特定個體或群體相關的資料,並可能影響研究對象的風險或隱私,即屬於 IRB 所須審查之範疇。
Q:IRB 在面對 AI 研究時,應如何調整審查的焦點與流程?
A:
風險評估:由於 AI 演算法可能產生資料偏誤(bias),或存在不易解釋性(black box),IRB 需更著重於辨識潛在風險的來源。
人類受試者保護:AI 研究可能牽涉大規模資料收集(含可識別個資)、自動化決策,IRB 應確保受試者的權益與隱私不被侵害。
多學科整合:審查流程可考量邀請具 AI 專業或資料科學背景的成員參與,以便充分掌握技術面與風險評估。
Q:AI 研究存在哪些主要風險?IRB 又該如何協助降低風險?
A:
(1) 風險類型
個資洩漏:若在研究中蒐集大量個人資料,或資料去識別化機制不完善,可能導致隱私洩漏。
演算法偏誤(bias):模型訓練資料若不具代表性或含有歷史歧視因素,演算法可能對特定族群產生不公平結果。
自動化決策風險:AI 分析結果若直接應用於臨床判斷或其他重大決策,可能導致誤判或擴大不平等。
(2) 風險最小化建議
審慎規劃與測試:在正式研究前進行小規模測試,以確定演算法可靠度、效度。
去識別化與最小化收集:盡可能採用去識別化機制並只收集研究必要之資料量。
持續監控:研究過程中應建立偏誤偵測機制,如定期審查模型輸出;若發現系統性偏誤,需即時調整或修正。
Q:AI 在人體研究中可能產生哪些偏誤?該如何因應?
A:
訓練資料偏誤:若訓練資料不平衡(如種族、性別、年齡分布失衡),AI 演算法的預測或分類結果可能不公平。
模型應用範圍不當:在未經驗證或外部效度不足的情況下,直接將 AI 模型套用於不同族群,可能導致誤差擴大。
因應策略
多元代表性:確保收集之訓練資料能充分反映人口多樣性。
偏誤檢測機制:在研究流程中定期檢驗演算法對不同受試者族群的效能與誤差。
透明化說明:向受試者與 IRB 清楚解釋演算法用於研究的邏輯與限制,避免誤用或誤解。
Q:在 AI 研究中,應如何處理人類受試者的個人資料與隱私?
A:
資料最小化原則:只收集研究目的所需的最少量個資,並採取必要的去識別化或假名化處理。
安全防護措施:AI 研究中常使用高容量的運算平台或雲端系統,應確保有完善的資料加密機制、存取權限控制與安全監控。
第三方合作:若研究涉及外部廠商或雲端服務供應商,必須確定雙方對資料安全的義務與責任有明確契約約束,並接受 IRB 審核。
Q:AI 相關研究在設計告知同意時,有哪些應特別注意的事項?
A:
技術複雜度:AI 技術不易解釋,研究者必須用易懂的方式告知受試者研究運作原理、可能的風險與效益。
個資使用範圍:需明確說明將收集哪些資料、如何保存、是否有後續用途(如二次分析或商業應用),並取得受試者同意。
動態同意機制:若 AI 系統在研究過程中不斷學習與更新,研究者應在同意書中揭示演算法可能的變動情況,並在必要時提醒受試者其權利與後續選擇。
Q:研究結束後,AI 工具與資料應如何處理?是否仍需持續監控?
A:
研究結束的處置:若 AI 工具將在研究後繼續使用於臨床或其他領域,IRB 與研究者需確保後續使用情境符合最初設計之目的與倫理規範。
演算法「生命週期」管理:AI 演算法可能繼續學習或更新,若後續應用仍涉及人類受試者,或將來用於新研究,可能需要新的 IRB 審查。
再識別風險:去識別化資料的再識別風險在技術演進下可能提高,SACHRP 建議持續評估並採取更嚴謹的保護措施。
Q:若研究者委託第三方公司開發或部署 AI 系統,IRB 審查應注意哪些額外責任分配?
A:
共同責任:研究機構與第三方廠商應共同承擔資料安全、倫理合規責任,確保外包方遵守人類受試者保護法規。
合約規範:在合約或協議中明確界定資料使用範圍、安全措施,以及在產生偏誤或不良後果時的責任歸屬。
審查範疇:IRB 需要審查第三方廠商的合規性,包括其資安防護能力與 AI 工具開發流程是否符合倫理原則。