淺析ChatGPT帶來的學術倫理挑戰
崑巖醫學圖書分館 陳威宇
應用ChatGPT於學術研究
ChatGPT是一種可運用1750億個參數進行運算的大型語言模型(Large Language Model, LLM)。其運算原理是透過Seq2Seq模型,可理解為不斷進行編碼(encode)與解碼(decode)的過程,將輸入文字編碼、轉化為一串序列後進行解碼,並透過反覆的訓練以得出最適當的回應。而ChatGPT訓練上的成功,是因為他導入基於人類回饋的強化學習(Reinforcement Learning from Human Feedback, RLHF)技術,使用者能夠給予反饋,讓ChatGPT知道本次回覆是否適當,以及該如何修正。所謂的「反饋」不僅是針對回覆給予評分,亦可針對前次回覆進行追問或對話,幫助ChatGPT學習。除此之外,當提問越具體、精準時(如提供更多脈絡與細節;將一個複雜的問題切成多個小問題;給予回答方向的引導/限制、舉例等),將有助於ChatGPT理解,並提供更有效用、更貼近人類的答覆。
基本上,ChatGPT可適度地參與研究週期的不同階段。首先,由於ChatGPT已經內化各領域的思維模式與基礎知識,因此很適合用於腦力激盪、發想研究問題。但在初始提問時,應該給予足夠清晰的脈絡,讓系統理解提問者的背景再進行提問;並且除了提供明確需求外,也可透過追問、補述等形式聚焦於更精細的研究問題。另外由於ChatGPT接受的訓練模式,能在系統中建立特定領域文獻的知識圖譜(knowledge graph),因此使用者也能夠運用ChatGPT於文獻搜尋。研究者可根據研究問題設計檢索演算法、提供明確檢索需求(具體要搜尋的概念、使用的資料庫),利用ChatGPT蒐集檢索同義詞,並改寫成切截、片語檢索或鄰近檢索等語法。演算法設計完成後,可逐步訓練文獻篩選標準,請ChatGPT協助篩選文獻;甚至能利用資料庫提供的文獻標題與摘要,由系統進行摘要。然而研究者須謹記,受限於ChatGPT的資料集與系統特性,其提供的文獻清單未必正確、文本摘要也可能產生偏誤,因此務必再次確認正確性。
ChatGPT的第三種用途即撰寫文稿。縱使ChatGPT產生的文本可能存在零星邏輯錯誤,但不可否認已能產生足夠通順、便於閱讀的文稿。因此為了避免研究者將其濫用於學術寫作中,學術界(學校倫理中心、期刊出版社等)已開始對ChatGPT的學術使用行為提出規範。例如機器學習領域的ICML研討會,並嚴格禁止利用LLM(大型語言模型,如ChatGPT)直接生成文章,但允許用於文章編輯或潤飾。
實務上ChatGPT可應用於以下4種寫作情境:
提供既有文句,由ChatGPT協助潤飾。尤其當使用者提供英文文本時,ChatGPT不僅能糾正文法謬誤,還可在不偏離文意的情況下用更精煉的詞彙表達。
在摘要、緒論等章節,以ChatGPT產生架構與初稿,再進行人工檢核與修改。研究者在摘要、緒論等章節,條列出重要觀點並給予寫作指引後,ChatGPT便能以有邏輯的方式產生具可讀性的文章。
配合ChatGPT產生有趣或吸睛的標題。研究者可提供一段完整的段落,並告知希望產生的標題風格,即可利用ChatGPT的摘要能力生成標題。
除此之外,進行投稿時亦能應用ChatGPT來輔助回覆審稿意見。如期刊對回覆審稿有篇幅限制時,可要求ChatGPT在有限字數內進行改寫。
然而,無論是上述何種情境,研究者皆應提供足夠明確的寫作指引,以免ChatGPT出現詞不達意或不知所云的情形。另外也可針對文本,要求ChatGPT提供資料來源,並人為進行檢核、確認真實性,才能在確保文章正確性的同時,確保不會產生違反學術倫理的疑慮。
ChatGPT與學術倫理
學術倫理(academic ethics)或研究倫理(research ethics)、研究誠信(research integrity),是研究人員在進行研究工作時應依循的行為基礎。任何參與學術研究的人,無論其身分地位、或是從事的學術活動性質,都有共同遵循、維護學術倫理的義務與責任。台灣聯合大學系統於2020年出版的《臺灣研究誠信守則》認為學術倫理的內涵包含嚴謹地蒐集與分析資料、確保完整研究紀錄、分享與公開研究資料與結果、註明他人與自己的貢獻、遵守作者列名原則及擔負責任、揭露與迴避利益衝突,以及接受與尊重倫理審查等7項。
當一份研究能滿足學術倫理的大多數內涵時,即可稱之好的研究行為或「負責任的研究行為」(responsible conduct of research)。而所謂「有問題的研究行為」(questionable research practice, QRP),則指涉那些不夠嚴謹的研究:例如進行大數據分析時反覆擷取不同的資料,直至達統計顯著差異;或是選擇性地、只呈現好(或與研究假設一致)的研究結果。更甚者則稱為研究不端(research misconduct):根據麻省理工學院的研究副院長辦公室之定義,即變造(falsification)、造假(fabrication)、抄襲(plagiarism)以及蓄意干擾(deliberate interference),前3項同時合稱科學詐欺(scientific fraud),屬於嚴重違反學術倫理的情形。
若從學術倫理的觀點切入討論生成式AI(即ChatGPT),相關議題包含對學術研究的助益、對研究倫理的挑戰,以及目前學術界有哪些規範。ChatGPT的優勢在於,在輸入問題後能夠快速搜尋相關文本並自動摘要能力,因此如同先前所言,ChatGPT能協助整理現有知識,俾利研究者發想研究問題、文句潤飾、電腦程式除錯等,這些都能輔助加速寫作過程,讓研究者的寫作更具效率。然而ChatGPT也有其侷限,除了內容無法即時更新以外,對於事實的準確度不足,造成會產生看似通順、合理,卻不一定正確的文字。另外ChatGPT是根據既有資料,以統計法計算而生成文字內容,並無法提出新的創見。但對於學術研究工作而言,不僅著重研究結果的正確性,更重要的是研究者根據自身經驗與洞見進行發想、並透過研究設計加以實踐,以及整個過程所呈現的創新性與獨創性。這些是ChatGPT較難企及的目標,因此若全然仰賴ChatGPT進行學術寫作,並不符合正規的學術研究模式。
國立陽明交通大學周倩副校長認為,研究者可以在研究過程中使用ChatGPT,但在人(研究者)與機(ChatGPT)協作的過程中,仍應以人為主體並進行最終檢核與產出。好的協作行為如:
應用ChatGPT協助了解議題的發展趨勢
以ChatGPT提供的重要文獻為起點,研究者驗證書目資訊的真偽後自行延伸相關文獻
參考系統生成的文字內容並重新編輯
寫完文稿後,由系統協助編修
以上行為,都是以ChatGPT作為媒介,但經過研究者驗證或是由研究者負責產出文本的核心內容。相對地,若是直接將ChatGPT進行改寫(而未查證)或拼貼,甚至直接利用ChatGPT產生數據、圖表甚至代寫,便是違反學術倫理的行為。
ChatGPT能否列為共同作者?
在研究中應用AI工具所衍生的另一個問題是「是否應(可)將AI工具列為作者」。原則上,一篇論文的作者是對該研究「具顯著知識貢獻」的人,例如我國《國家科學及技術委員會對研究人員學術倫理規範》中即敘明必須參與主題構思、理論推導、實驗設計或執行、資料分析與詮釋、文稿撰寫或審閱初稿之其中一項,才符合作者的定義。另外在社會科學與護理學常使用的APA格式第七版中,也憑同樣的觀點定義作者的定義持同樣的觀點。
然而在國外普遍不允許將AI工具列為文章作者,則是基於作者責任的角度:例如國際醫學期刊編輯委員會(International Committee of Medical Journal Editors)定義文章作者必須能對各部分的研究完全負責(包括確保內容正確性與完整性),國際出版倫理委員會(Committee on Publication Ethics)也持相同立場。在此定義下,縱使AI工具能夠產出上千字的文稿,因為其無法擔負責任,不能滿足文章作者須對文稿負責的要求,因此不能被列為作者。這也是許多期刊出版社明文限制之理由。以下附上期刊與出版社截圖與連結,供各位讀者參考。
Elsevier出版社
About > Policies > Publishing Ethics > Duties of Authors - The Use of Generative AI and AI-assisted Technologies in Scientific Writing ; FAQ
Taylor & Francis出版社
然而期刊網頁中也同時提到,研究者仍然能在學術研究中使用生成式AI,只是須明確地揭露給讀者。無論應用AI工具撰寫文稿、產生圖表甚至分析資料,皆必須於研究方法或致謝等處揭露該文章所使用工具與用途。總結而言,ChatGPT等生成式AI確實有助於提升寫作品質,研究者應抱持的態度是與之充分協作,卻不誤用或過度依賴。研究中的核心部分(問題意識、結果詮釋、歸納結論等)仍應由文章作者完成,才是正確的使用方式。
註:本文改寫自112年中華民國圖書館學會「Library hacks! 新科技應用於圖書館研習班」投影片與課堂筆記。相關講題為國立陽明交通大學周倩副校長兼倫理長「數位時代的學術研究倫理挑戰」與資訊工程學系謝秉均教授「使用ChatGPT提升研究效率」。