淺析ChatGPT帶來的學術倫理挑戰

崑巖醫學圖書分館 陳威宇

應用ChatGPT於學術研究

ChatGPT是一種可運用1750億個參數進行運算的大型語言模型(Large Language Model, LLM)。其運算原理是透過Seq2Seq模型,可理解為不斷進行編碼(encode)與解碼(decode)的過程,將輸入文字編碼、轉化為一串序列後進行解碼,並透過反覆的訓練以得出最適當的回應。而ChatGPT訓練上的成功,是因為他導入基於人類回饋的強化學習(Reinforcement Learning from Human Feedback, RLHF)技術,使用者能夠給予反饋,讓ChatGPT知道本次回覆是否適當,以及該如何修正。所謂的「反饋」不僅是針對回覆給予評分,亦可針對前次回覆進行追問或對話,幫助ChatGPT學習。除此之外,當提問越具體、精準時(如提供更多脈絡與細節將一個複雜的問題切成多個小問題;給予回答方向的引導/限制、舉例等),將有助於ChatGPT理解,並提供更有效用、更貼近人類的答覆。

基本上,ChatGPT可適度地參與研究週期的不同階段。首先,由於ChatGPT已經內化各領域的思維模式與基礎知識,因此很適合用於腦力激盪、發想研究問題。但在初始提問時,應該給予足夠清晰的脈絡,讓系統理解提問者的背景再進行提問;並且除了提供明確需求外,也可透過追問、補述等形式聚焦於更精細的研究問題。另外由於ChatGPT接受的訓練模式,能在系統中建立特定領域文獻的知識圖譜(knowledge graph),因此使用者也能夠運用ChatGPT於文獻搜尋。研究者可根據研究問題設計檢索演算法、提供明確檢索需求(具體要搜尋的概念、使用的資料庫),利用ChatGPT蒐集檢索同義詞,並改寫成切截、片語檢索或鄰近檢索等語法。演算法設計完成後,可逐步訓練文獻篩選標準,請ChatGPT協助篩選文獻;甚至能利用資料庫提供的文獻標題與摘要,由系統進行摘要。然而研究者須謹記,受限於ChatGPT的資料集與系統特性,其提供的文獻清單未必正確、文本摘要也可能產生偏誤,因此務必再次確認正確性

ChatGPT的第三種用途即撰寫文稿。縱使ChatGPT產生的文本可能存在零星邏輯錯誤,但不可否認已能產生足夠通順、便於閱讀的文稿。因此為了避免研究者將其濫用於學術寫作中,學術界(學校倫理中心、期刊出版社等)已開始對ChatGPT的學術使用行為提出規範。例如機器學習領域的ICML研討會,並嚴格禁止利用LLM(大型語言模型,如ChatGPT)直接生成文章,但允許用於文章編輯或潤飾。

實務上ChatGPT可應用於以下4種寫作情境:

然而,無論是上述何種情境,研究者皆應提供足夠明確的寫作指引,以免ChatGPT出現詞不達意或不知所云的情形。另外也可針對文本,要求ChatGPT提供資料來源,並人為進行檢核、確認真實性,才能在確保文章正確性的同時,確保不會產生違反學術倫理的疑慮。

ChatGPT與學術倫理

學術倫理(academic ethics)或研究倫理(research ethics)、研究誠信(research integrity),是研究人員在進行研究工作時應依循的行為基礎。任何參與學術研究的人,無論其身分地位、或是從事的學術活動性質,都有共同遵循、維護學術倫理的義務與責任。台灣聯合大學系統於2020年出版的《臺灣研究誠信守則》認為學術倫理的內涵包含嚴謹地蒐集與分析資料、確保完整研究紀錄、分享與公開研究資料與結果、註明他人與自己的貢獻、遵守作者列名原則及擔負責任、揭露與迴避利益衝突,以及接受與尊重倫理審查等7項。

當一份研究能滿足學術倫理的大多數內涵時,即可稱之好的研究行為或「負責任的研究行為」(responsible conduct of research)。而所謂「有問題的研究行為」(questionable research practice, QRP),則指涉那些不夠嚴謹的研究:例如進行大數據分析時反覆擷取不同的資料,直至達統計顯著差異;或是選擇性地、只呈現好(或與研究假設一致)的研究結果。更甚者則稱為研究不端(research misconduct):根據麻省理工學院的研究副院長辦公室之定義,即變造(falsification)、造假(fabrication)、抄襲(plagiarism)以及蓄意干擾(deliberate interference),前3項同時合稱科學詐欺(scientific fraud),屬於嚴重違反學術倫理的情形。

若從學術倫理的觀點切入討論生成式AI(即ChatGPT),相關議題包含對學術研究的助益對研究倫理的挑戰,以及目前學術界有哪些規範。ChatGPT的優勢在於,在輸入問題後能夠快速搜尋相關文本並自動摘要能力,因此如同先前所言,ChatGPT能協助整理現有知識,俾利研究者發想研究問題、文句潤飾、電腦程式除錯等,這些都能輔助加速寫作過程,讓研究者的寫作更具效率。然而ChatGPT也有其侷限,除了內容無法即時更新以外,對於事實的準確度不足,造成會產生看似通順、合理,卻不一定正確的文字。另外ChatGPT是根據既有資料,以統計法計算而生成文字內容,並無法提出新的創見。但對於學術研究工作而言,不僅著重研究結果的正確性,更重要的是研究者根據自身經驗與洞見進行發想、並透過研究設計加以實踐,以及整個過程所呈現的創新性與獨創性。這些是ChatGPT較難企及的目標,因此若全然仰賴ChatGPT進行學術寫作,並不符合正規的學術研究模式。

國立陽明交通大學周倩副校長認為,研究者可以在研究過程中使用ChatGPT,但在人(研究者)與機(ChatGPT)協作的過程中,仍應以人為主體並進行最終檢核與產出好的協作行為如:

以上行為,都是以ChatGPT作為媒介,但經過研究者驗證或是由研究者負責產出文本的核心內容。相對地,若是直接將ChatGPT進行改寫(而未查證)或拼貼,甚至直接利用ChatGPT產生數據、圖表甚至代寫,便是違反學術倫理的行為。

ChatGPT能否列為共同作者?

在研究中應用AI工具所衍生的另一個問題是「是否應(可)將AI工具列為作者」。原則上,一篇論文的作者是對該研究「具顯著知識貢獻」的人,例如我國《國家科學及技術委員會對研究人員學術倫理規範》中即敘明必須參與主題構思、理論推導、實驗設計或執行、資料分析與詮釋、文稿撰寫或審閱初稿之其中一項,才符合作者的定義。另外在社會科學與護理學常使用的APA格式第七版中,也憑同樣的觀點定義作者的定義持同樣的觀點。

然而在國外普遍不允許將AI工具列為文章作者則是基於作者責任的角度:例如國際醫學期刊編輯委員會(International Committee of Medical Journal Editors)定義文章作者必須能對各部分的研究完全負責(包括確保內容正確性與完整性)國際出版倫理委員會(Committee on Publication Ethics)也持相同立場。在此定義下,縱使AI工具能夠產出上千字的文稿,因為其無法擔負責任,不能滿足文章作者須對文稿負責的要求,因此不能被列作者。這也是許多期刊出版社明文限制之理由。以下附上期刊與出版社截圖與連結,供各位讀者參考。

Nature期刊

nature portfolio > editorial policies > artificial intelligence (ai)

Science期刊

AUTHOR PORTAL > SCIENCE JOURNALS: EDITORIAL POLICIES
> General policies - Authorship

Elsevier出版社

About > Policies > Publishing Ethics > Duties of Authors - The Use of Generative AI and AI-assisted Technologies in Scientific Writing ; FAQ

Wiley出版社

BMC出版社

Editorial Policies > Artificial Intelligence (AI)

然而期刊網頁中也同時提到,研究者仍然能在學術研究中使用生成式AI,只是須明確地揭露給讀者。無論應用AI工具撰寫文稿、產生圖表甚至分析資料,皆必須於研究方法或致謝等處揭露該文章所使用工具與用途。總結而言,ChatGPT等生成式AI確實有助於提升寫作品質,研究者應抱持的態度是與之充分協作,卻不誤用或過度依賴。研究中的核心部分(問題意識、結果詮釋、歸納結論等)仍應由文章作者完成,才是正確的使用方式。

註:本文改寫自112年中華民國圖書館學會「Library hacks! 新科技應用於圖書館研習班」投影片與課堂筆記。相關講題為國立陽明交通大學周倩副校長兼倫理長「數位時代的學術研究倫理挑戰」與資訊工程學系謝秉均教授「使用ChatGPT提升研究效率」。