以下參考Seong Ho Park等人(2019)在〈從科學編輯與同儕審查角度看AI醫學研究中之倫理挑戰〉一文中的表二,有關可提升註8AI相關研究的倫理透明度之問題集,借助ChatGPT修改成可能適合人社研究的問題集:
1.資料的來源與描述
研究者是否詳細說明AI所使用的資料來源,包括參與者的背景(如年齡、性別、種族、文化)和技術特徵(如資料格式或結構)?
研究者是否解釋資料的選擇標準,並說明這些標準是否可能導致某些群體被排除或邊緣化?
2.資料的偏誤與影響:
研究者是否揭示資料中可能存在的偏誤(如樣本偏差或歷史偏見),並討論這些偏誤可能對AI系統的結果產生哪些倫理或社會影響?
是否考慮並採取措施緩解資料中的潛在偏見,特別是針對多元文化或弱勢群體的代表性?
3.資料處理的透明性:
研究者是否清楚描述資料處理過程(如清理、篩選、標註)以及這些過程可能引入的偏誤或限制?
是否提供AI算法的詳細描述(如模型類型、訓練過程),並闡明其表現的限制與適用場景(如與性別、種族或社會不平等相關的研究)?
是否說明模型的可解釋性和透明性,以及這如何影響對結果的解釋與應用(特別是在敏感情境中)?
1.知情同意與AI透明性:
研究者是否向參與者充分說明AI在研究中的具體應用方式(如資料分析、預測)以及可能的影響?
是否獲得參與者的知情同意,並特別針對資料的蒐集、處理及可能的後續使用進行說明?
2.隱私保護:
研究者是否採取保護參與者隱私(如資料匿名化或假名化)的措施,並防止潛在的再識別風險?
研究者是否明確說明參與者可以選擇撤回其資料,以及如果不可能撤回的原因?
研究者是否在報告中說明資料的蒐集程序與分析方法,以提高研究的透明性和可複現性?
若研究者願意共享資料或工具,是否明確說明其隱私保護機制及數位安全措施,並提供具體的存取方式(如下載網址或平台指引)?
註8:Park, S. H., Kim, Y. H., Lee, J. Y., Yoo, S., & Kim, C. J. (2019). Ethical challenges regarding artificial intelligence in medicine from the perspective of scientific editing and peer review. Science Editing, 6(2), 91-98.