AI是學習研究的好助手,為什麼圖書館要強調使用資料庫的AI功能呢?因為市面上的AI主要利用免費網路資源進行模型訓練和提供答案,不管怎麼問,也無法得到付費訂購的資料庫內容喔~ 而且資料庫的AI會基於資料庫內容來提供答案,即使出現幻覺也可以快速查證!
在這個網站內,您可以點選分頁主題來瞭解圖書館資料庫的最新AI功能發展,也會認識學術AI工具、查核AI生成內容的方法,讓您在寫作業或論文的過程中聰明駕馭AI。在每個分頁中您都會在頁面右方看到目錄,了解大致內容並點選對應段落閱讀。
AI發展迅速,本網站會持續更新,您可以在網頁最下方看到更新時間,也歡迎時常回來看此網頁的更新內容。然而,網頁未必能更新到最新發展狀況,請自行評估與查證。
您可以參考Finantial Times在2023年對於生成式AI原理的介紹,此文深入淺出且搭配動畫呈現出AI如何預測下一個字,以及解釋Token、Transformer等術語 (若英文閱讀速度較慢,可使用沉浸式翻譯這類的翻譯軟體協助。您也會在此頁面中發現沉浸式翻譯使用上的缺陷,因此仍須自行培養足夠英文能力)。
圖書館的電子書「AI的發展與應用 : 一本人工智慧的科普書」、「AI世界的底層邏輯與生存法則」 可以讓您更系統性的掌握AI基本原理。您也可以利用線上課程(如DeepLearning.AI、Coursera、Edx) 學習更多AI的進階知識與技術 (同樣可以利用翻譯軟體來加速學習)。
以下簡單快速的提醒基本注意事項,在我們這個網頁內會有更詳細的說明:
生成式AI從大量訓練資料中學習,每次回覆乃基於訓練資料預測下一個字出現的機率,並非真的理解問題,因此AI會產生幻覺(看似正確的虛假資訊)。即使是自行獲得正確事實資料,請AI幫忙基於正確資料生成表格或是進行翻譯,也要再次檢查,因為AI可能在整理或翻譯過程中會出錯。
AI的訓練資料多半是網路免費資源(英文為主),受到版權保護(法律限制)或有商業付費牆(須付費才能登入取得資料)的資料類型,往往是AI缺乏的。訓練資料的來源本來就帶有偏見或錯誤,AI基於這些訓練資料也會產生具有偏見或錯誤的答案。另外,AI也會因為缺乏某個主題、語言的訓練資料,在某些領域的回答表現比較不佳。
每個AI工具使用的訓練資料與模型設計不同,因此同一個問題問不同AI工具會得到不同答案!不要仰賴單一AI的答案,而要同時使用多種AI工具甚至是多種資料查詢管道。
AI會根據Prompt提供不同答案,換句話說就會得到不同答案。除了切換不同的表達方式來獲得多種答案後再綜整評估,也要注意自己的指令內容是否有偏見、是否會影響AI生成答案的方向。
若AI生成的答案對您來講很重要,會影響重要的醫療、法律等決策,或是想要將AI生成內容引用至論文中,都建議先至可以信賴權威的資料來源查證。舉例來說,若論文中想呈現某區域的GDP發展,請記得去政府官方網站或統計調查權威機構查詢確認AI的答案。
有些資料如果已知在何處可以找到正確事實資料(例如:至中華民國統計資訊網能快速獲得正確統計資料),就不用在這種時候硬要使用AI ,不然可能會耗費更多時間在驗證與查核。整理書目引用格式或是有正確答案的工作,建議都還是AI輔助、人工為主。
使用者需要自行警覺,隨時以批判性思考來驗證。就像我們聽演講如果聽到講者不小心口誤,也會注意到並自行去查證正確資訊。我們越熟悉的知識會越容易意識到有錯誤,因此還是需要持續從其他管道獲得正確可信知識,不能過度仰賴AI而喪失判斷能力。
AI雖然很好用,但在自己想要發展專業的領域中,還是要有意識的降低對AI的依賴,才能訓練自己的大腦。「Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task」這篇研究指出 (您可以參考GPT幫這篇研究做的摘要),使用AI容易產生「認知負債」,使用的當下將腦力外包,短期內可以快速完成任務很省力,長期卻會產生代價:「批判能力下降、創意力減弱、對內容的內化變少」。研究設計「使用AI、網頁搜尋與單純靠腦袋完成任務」的三組,發現使用AI的人腦部連結減弱,甚至使用AI轉回單純靠腦袋完成任務時,腦部連結都還是偏弱。而且使用AI的人容易覺得作品不屬於自己,也無法準確引用自己寫出的句子。
學習過程中使用AI時,可以詢問自己以下問題:
為什麼我在這個場合、情境之下會想要使用AI輔助?使用AI會不會讓我減少學習成長的機會?我可以怎麼使用它讓我同時有好的使用成果又能有更多學習?
這個AI工具背後的訓練資料是什麼?具有什麼功能?為什麼我使用它可以來完成我現在要進行的任務?
這個AI工具會不會產生什麼偏見?我提供給它的資料會不會侵犯我或他人的隱私/著作權?我可以怎麼避免這些問題?
我在使用前具備哪些已知知識?這些知識是否足夠讓我能去檢驗AI生成答案?或是我可以有什麼方法/工具來交叉檢驗答案?
因應AI的發展,高等教育領域也在重新思考AI時代下該如何培養與檢測學生能力,開始探討「AI素養」的定義與養成方式。我們可以將AI素養分成四個層次:「理解AI、應用AI、評估AI、創造AI」,想想看自己是否具備這四個層次的知識與技能,並且善用高等教育的訓練環境與資源,讓自己成為能創造AI產品、技術、法規、政策的人。在此簡述美國現代語言學會 (Modern Language Association)的觀點如以下:
高等教育的目標是要讓學生提出原創問題及參與持續不斷的過程,這個過程包括與其他學者一起思考、探索想法,而不是得到答案。在使用AI時,一定要想著自己如何能成為駕馭AI的人,而不是讓AI取代自己,以下幾點都是您應該擁有的能力:
對 GenAI 的原理有基本了解、了解導師和機構有關 GenAI 道德使用的政策
知道如何用 GenAI 生成有用的內容 (學習相關任務的指令、指令技巧、適應各種新工具)
能評估 GenAI 生成內容對應任務的相關性、實用性和正確性
使用 GenAI 工具時可以監控自己的學習 (解釋為什麼要使用AI、了解IA的貢獻、反思自己的需求與避免過度依賴)
能理解 GenAI與人類交流的不同、可以評估AI生成內容是否會造成溝通誤會
能理解 GenAI的潛在危害(環境/勞力/偏見/隱私資安/智財權)
AI的技術、政策、產業應用等都快速變化,建議除了追蹤「數位時代」、「泛科學」這類國內科技媒體外,也可以從一些媒體或機構報告來跟上趨勢。Anthropic、Open AI、Microsoft、DeepMind都時常會發布AI相關的研究報告,像是Anthropic「大學生如何使用Claude」、Open AI「語言模型為什麼會出現幻覺」、Microsoft「為了牟利操控 AI 記憶:出現『AI推薦中毒』」,都很值得閱讀。
麥肯錫的2025年報告「職場中的AI」整理了各家主流AI從2023年到2025年的快速發展,AI從只能輸入與生成文字,到能理解與整合多模態(圖片、影音),且快速提升了可輸入的上下文(Context)以及推理能力,接下來將會發展AI代理(AI agent),讓AI能自主執行動作並完成跨工作流程的複雜任務。業界因應AI發展都在重新思考工作流程的改善、人才能力的招聘與培養方向。
史丹佛大學「以人為中心的人工智慧研究室HAI」每年都會發布AI Index報告,2025年的報告指出,人工智慧主題的相關研究持續成長,AI模型規模、耗能、算力需求、碳排都增加,使用成本與AI的硬體成本則下降,中、美AI模型及開源、閉源模型的效能差異越來越小,出現更多種AI能力的評估基準。ESM3和AlphaFold 3這類蛋白質測序模型出現,提升預測準確率,AI模型的醫療臨床能力也在提升。全球對於AI的投資與使用都比之前更多,生成式AI以外的各種AI機器人也都蓬勃發展。即使開發者有想要發展降低幻覺與負責任的AI模型,然而仍無法確保AI生成內容無偏見幻覺。美國關於AI的相關法規增加,許多國家也開始在立法階段提到AI。
另外,MIT media Lab、紐約大學AI Now Institute、牛津大學Future of Humanity Institute (FHI)、加州大學柏克萊分校BAIR這些機構的報告也很適合用來追蹤AI趨勢與議題。
圖書館的電子書展也會持續更新能獲得AI相關知識的電子書:
根據2025年3月至8月間超過3600 萬次Google AI 概覽(AI overviews)與4600 萬次引用的分析,「維基百科、YouTube、Google生態系資料(Google的部落格、商城等)、Reddit和Amazon」合計佔所有引用量的 38%。由於AI偏好討論區中真實與體驗的分享,Reddit討論區的流量明顯成長 (Reddit佔Google AI概覽來源的21%、佔Perplexity的46.5%)。不同的AI會有各自偏好的資料來源,ChatGPT偏好引用維基百科(佔引用來源的47.9%),且通常會產出引用最多的答案,Bing Chat通常引用較少來源且很常引用WikiHow。AI搜尋相較相較傳統搜尋更能提供多媒體的資料來源內容,像是都會引用到Youtube的內容,且有機會發掘到以往搜尋結果中的冷門網頁。
不管AI的引用來源是什麼,主要都是依賴英文網路內容,學術資料只佔小部份,很可能AI回答會反映出資料原有的偏見,或綜合了網路資料的見解來解讀學術資源,但是沒有清楚標示出每項觀點的出處。「Research evaluation with ChatGPT: is it age, country, length, or field biased?」這篇研究測試ChatGPT評估研究的能力,發現ChatGPT對於近期發表研究評分較高、摘要較短的短論文評分較低、第一作者所在國家也會有評分上的差異,可能是因為AI根據近期發表來認定研究的原創性,以及反映出優質期刊需要長摘要與國際研究品質差異的現況。
另外,AI引用並不會將使用者導引到原始網頁。皮尤研究中心(Pew Research)於2025年分析900名美國成年人的線上行為資料,58%在2025年3月至少使用一次Google AI摘要,使用AI摘要的人會更快結束瀏覽其他資訊、且傾向不檢視資料出處網站,新聞媒體網站如「華盛頓郵報、NBC新聞」等的流量皆大幅下降。當創作者意識到自己公開在網路上的資料非自願成為訓練資料來源後,可能會設定robots.txt 禁止使用 AI 爬蟲的指令,因此AI搜尋結果無法涵蓋所有資料。
AI生成的網頁也越來越多,2025年4月Ahrefd分析了90萬個新的英文網頁,估計其中有74.2%包含AI生成內容。這些AI生成內容有些是刻意營造的假評論,有些則是內容農場,無法確認作者有好好的檢查這些AI生成內容後才發布,也都可能成為未來AI搜尋與摘要的資料來源。
「Search engines in the ai era: a qualitative understanding to the false promise of factual and verifiable source-cited responses in llm-based search」這篇研究招募21位不同學術和專業背景的專家(已完成或正在攻讀博士學位),讓他們在其擅長的複雜查詢上評估AI搜尋的表現。他們指出AI的答案具有以下問題:
1.回答的文字內容:
AI答案過於籠統且不充分,仍須搜尋更全面的資訊。
經常反應提問者隱含的偏見,不像檢索結果會呈現多元視角 。
AI答案過於自信 (比對資料來源出處即可發現是錯的)。
答案過於簡單、口吻幼稚、喜歡討好,缺乏深度批判性思考。
2.引用
AI答案正確、來源錯誤,會引用無關的論文使其答案合理化。
選擇性呈現部分觀點,而非資料來源內容的完整觀點。
無法辨別為什麼引用某些資料來源而非其他。
3.資料來源
AI給的資料來源太少,實際上需要更多資料來源才能真正解答問題。
列出多個實際上未引用到的資料來源。
資料來源不夠權威、過時、無法相信。
提供重複的資料來源 (不同網址上的相同內容) 。
Tow數位新聞中心測試了8種AI搜尋工具,多數AI都很自信地給出錯誤答案 (很少使用「看起來」、「有可能」、「或許」),即使是付費模型也不代表會降低錯誤率,還有AI無法正確連結到原始出處。另外他們也發現,即使出版商不允許Perplexity爬蟲爬取資料,卻仍然能從Perplexity找到應該要付費才能使用的《國家地理》文章,代表Perplexity並沒有遵守robot.txt的協定。
您可以回想您平常使用AI搜尋資訊的行為?是不是也更少點回資料出處確認?也更少檢查資料內容是否可信、是否為AI生成?這些AI回答的內容,是否足以成為學術論文或課堂作業引用的資料來源?
您也可以將心比心想想不同的資料內容提供者(如報社、維基百科編輯團隊、Reddit討論區使用者、商店等),面對這樣的狀況,分別會有什麼樣的反應和衝擊?
如何增加被AI搜尋到的機會?GEO的發展方向
以前商家為了能讓自己的產品在網路上更容易被有需要的客戶找到,會做SEO(搜尋引擎優化),藉由良好的網站架構或搜尋關鍵字設定等方式,讓網站與產品增加曝光度。現在則開始要做GEO,針對生成式AI的資料引用特性來調整自己的產品網站設計。Google生態系的AI仍會基於原本的Google搜尋機制,因此以往的SEO仍然有些作用,然而ChatGPT的搜尋是搭配Bing,若以往的網站設計沒有考量到Bing的可見度,有可能就會減少一些在ChatGPT回答中的曝光度。
如果您是想要增加自己研究曝光的研究者或機構,您可能也需要知道如何加入這場戰局。您可以掌握以下5點:
語意精確 :頁面聚焦主題清晰且有事實基礎
結構化資料實作 :結構標記,實現機器可讀內容解讀
權威領域訊號 :品牌辨識度、主題權威性與引用模式
內容新鮮度 :定期更新以維持檢索增強系統的相關性
事實準確性 :經驗證的資訊提升推理模型中的信心分數
Google現行的搜尋品質評分標準EEAT代表「經驗、專業知識、權威、信任」,要提升後三項,可以採取良好的寫作風格及網站架構、標示資料來源出處、成為其他權威網站的引用來源,而「經驗」這項就是AI時代的新考量,人類對於情境的理解說明與特殊問題的解答方式,比起AI生成內容提供的概括性答案更能通過標準。原創性研究、專屬獨特資料、專家評論這類都會吸引AI的引用,不過AI會避免引用與大眾見解相差太遠的資訊 (這也是為什麼我們下指令時,需要特別請AI提供反面觀點,避免AI只呈現網路上的大眾觀點)。另外,AI選擇來源時會考慮新穎性,相似主題的內容將會選擇較新年代發布的內容來飲用,因此會需要定期更新網頁並明確標示最後更新時間。
研究者也可以注意機器能讀懂的身分與作品連結 (如ORCID、DOI),並在經營網頁注意是否能被AI爬取 (像是使用Markdown格式),還有幫自己的研究成果增加「結構式摘要、常見問答、不同學科的關鍵字或同義詞、主張與證據對照表、資料來源與限制」這些機器會喜歡的型式。
AI模型在訓練過程的許多階段都可能帶來後續的偏見,像是訓練資料集的內容不夠多樣化、在資料標記的過程中加入了標記者的主觀偏見、反映出使用者的偏好,就可能會在回答內容中反映出歷史上的偏見、放大流行的趨勢、做出不利於少數的決策建議。
歐洲的Complexity Science Hub與牛津大學等機構的研究團隊設計了一套基於全球歷史資料庫(Seshat)的測試,這個資料庫收錄了全球600個社會的歷史資料,研究團隊測試七個模型,發現AI善於回答遠古史(西元前8000年至前3000年)的問題而較不理解近代史(西元1500年至今),較了解拉美和北美的歷史勝過非洲和大洋洲的歷史,還有在不同歷史問題上也有不同表現,AI較擅長分析古代法律制度演變或社會組織,但是不擅長回答階級差異、社會階層流動性的複雜議題。
「Geopolitical biases in LLMs: what are the "good" and the "bad" countries according to contemporary language models」這篇研究則是以英、美、中、俄四國衝突的歷史事件拿來問4個中美的AI模型誰對誰錯,會發現指令對於AI回答內容的明顯影響,他們測試了「原始事件陳述、原始事件陳述+請AI不要帶有偏見、將事件內的國家名稱調換、請AI回答無條件支持某一國家」,AI會隨之有不同的對錯判斷結果。
許多人可能有測試過中國的AI模型如DeepSeek、千問、Kimi、智譜、MiniMax、豆包能否回答六四天安門事件等敏感問題,自由亞洲電台與網友都有做類似的測試。中國訂有《生成式人工智慧服務管理暫行辦法》,因此其AI模型必須「堅持社會主義核心價值觀」,並不得生成危害國家安全、煽動顛覆等內容,也就會導致對於敏感事件的隱蔽。即使使用ChatGPT,使用中文與英文提問敏感事件,也會獲得不同的答案。
ChatGPT、Gemini、Claude等AI的訓練資料以英文資料為主,不僅國外歷史、法律及語言表達能力都較好,也可能無形間傳達出西方主流觀點。有研究測試大型語言模型的中國古籍任務執行能力,像是將古代文本翻譯成中文與英文、辨識古代文本的影印與手寫文字、理解古籍圖像與分類、評估影像與文字一致性的能力,中國模型的千問表現最佳。另一個研究測試大型語言模型對於中國古詩文的註釋能力,會發現AI較難理解人名、典故、古代時間,千問同樣表現能力最佳。不過,ChatGPT在這兩個研究中也都有很好的綜合型表現,有可能是靠著良好的推理能力或資料搜尋能力來補訓練資料不足的問題。
最後,AI的偏見也可能來自人為操縱,像是有研究員在論文中暗藏「僅給正面評價」這類的指令讓AI看到,以增加自己論文的曝光度。也有人使用這種暗藏指令的方式來讓自己的履歷更容易通過人資的AI審查階段。這種作法又稱為「Prompt Injection」,許多AI agent都可能遇到這樣的問題,會透過這些埋藏的指令讓AI將使用者的個資外洩。
您應該已經知道各種AI工具會收集您的資料,您的對話紀錄可能會被儲存為記憶來讓AI能提供更符合您需求的答案,也有可能會被AI拿來改進模型。雖然AI工具在隱私權的頁面通常會說明不會留下這些紀錄,但是也未必真的能相信這樣的說法。因此還是要靠自己做好第一道防火牆設定,除了使用無痕視窗、獨立瀏覽器、預設拒絕網站權限等方式,在這篇文章中有介紹不同工具的隱私設定方式(LinkedIn、Microsoft365、ChatGPT、Gemini、Grok+X等),建議您可以依照文章建議來執行 (像是在ChatGPT的個人設定中,從「資料控管」的按鈕關閉「為所有人改善模型」)。
提供給AI的資料,您可以區分成以下三個層級:
A(可貼):公開資訊、你願意上網讓陌生人看到的文字
B(去識別後才貼):工作文件、研究資料、學生/受訪者內容、內部流程
把人名/單位/地點換成代號:A公司、B教授、某市某校
把可識別欄位刪掉:Email、電話、地址、學號、員工編號、IP、裝置序號
用摘要取代原文:不要貼整份訪談逐字稿/合約全文,先自己「抽象化」成要問的要點
保留必要結構、刪掉細節:例如你想問「論證是否成立」,你只要保留論點與證據類型,不用貼完整檔案
C(不要貼):身份證號/護照、地址電話、醫療、財務帳號、合約未公開條款、未發表研究原始資料、任何涉密/敏感資料(尤其機構或政府相關)
AI模型的訓練資料是否有侵犯著作權?是否會影響到新聞從業者與作家的營利?利用AI二次創作的作品是否能主張著作權?AI帶來了一系列的著作權相關訴訟:
New York Times v. Microsoft & OpenAI:紐約時報蒐集了大量證據,顯示Bing與ChatGPT會直接吐出相似度極高的紐約時報內容,證明其訓練資料中有抓取受著作權保護的紐約時報作品,另外AI生成幻覺卻將錯誤歸因於紐約時報,也會對紐約時報造成商業傷害。
Bartz, Graeber & Johnson v. Anthropic:Anthropic在Claude訓練資料中,除了購買幾百萬本紙本書拆除掃描成PDF檔案外,也有從盜版網站下載數百萬本書籍,這些書籍為原告Andrea Bartz、Charles Graeber 與 Kirk Wallace Johnson撰寫,並未授權Anthropic複製內容的行為,因而提出訴訟。
除了作家提告,也有資料庫提告,像是:美國法律資料庫Thomson Reuters Westlaw 控告AI新創Ross Intelligence、法源法律網控告七法。
不過,也有一些機構主動提出具權威的無版權資料作為AI訓練來源,像是哈佛大學主動釋出 Institutional Books 1.0 資料集(含近百萬本書,3.94 億頁、254 種語言,最早文獻來自 15 世紀)、波士頓公共圖書館數位化法語報紙與政府文件,Microsoft與OpenAI也提供數位化資金給多所研究機構/圖書館。學術出版商也開始與AI公司簽署權協議,在美國川普政府削減研究經費的情況下藉此開闢新的收入來源 (不過學術出版商並未徵求學術研究者的同意就提供資料也引起研究者的不滿),像是Wiley出版社和Amazon、Perplexity展開合作、Taylor & Francis和微軟簽屬協議,Perplexity的Comet瀏覽器也承諾會提供80%收入給提供內容的出版商。學術資料若能讓AI方便調用,將有助於越來越依賴AI提供答案的使用者更有機會看到學術資料而非網路資料。Pubmed、Wiley都有開放MCP讓主流AI可以輕易串接,學術AI工具如Consensus與Scite也有加入 (想了解MCP的使用方式請參考此文)。不過,目前都是以理工生醫為主的英文學術出版社發展較快,中文學術資源主要是靠資料庫的發展,像是華藝、萬方、CNKI都有發展自己的AI功能,中國AI模型也有機會能找得到學術期刊內容,且有密塔AI這類學術搜尋工具(有鑑於資安問題,政大圖書館不會介紹中國AI)。
您可以閱讀圖書館電子書「AI.抄襲.智財權」來了解高等教育領域較會面對到的AI與智財權議題。
學術研究都會有文獻回顧的環節,用以展現及整理前人已發現、尚未解答、相互矛盾等等的研究成果,以顯示過往的研究缺口及自己研究的貢獻與價值。不同領域對於文獻回顧所需使用的資料類型及回顧的完整度可能有不同標準,擬定政策或產業報告時也往往會有類似的資料蒐集過程。
許多時候我們找不到資料,並不是資料不存在,而是沒有使用正確策略。在尚未完整蒐集前人資料的情況下提出自己的研究假說與論證,有可能會重複他人的研究,而且前人可能有一些類似的經驗可以參考,若有看到就有機會節省一些時間。
在傳統資料庫檢索的做法中,若發現找到的資料不足,往往會先檢視自己使用的關鍵字是否足夠全面,像是有沒有包含不同語言或同義詞,並且用布林邏輯將這些字詞相連來提供資料查詢的命中率(如:"climate change" OR "global warming" OR "environmental shift")。在此情況下,要判斷資料是否飽和、不需要再繼續查下去,就是透過轉換關鍵字,當所有關鍵字都查過一輪,查詢結果不再出現新發現時,就代表資料已找得差不多。要特別留意自己使否使用了正確的資料庫,除了綜合型資料庫與google scholar外,也應在專屬領域資料庫中檢索(許多資料是網路上沒有的,不能只找網路)。
另一種做法是,從一篇重點研究的參考文獻中延伸閱讀,可能就可以在不用界定關鍵字的情況下看到與此主題相關的資料。若使用這種方法發現大量關鍵字查詢遺漏的資料,那往往代表自己起初定義的關鍵字組合需要調整,可以根據引用或被引用文章出現的重要關鍵字進行新一輪的檢索。
在AI出現前,我們可以使用維基百科或綜述文章(Review article)獲得某些主題術語的定義及第一輪閱讀的資料,AI出現後能讓我們加速一開始對研究問題的理解,用互動提問的方式更快掌握關鍵字及修正研究方向。但是,要注意AI的訓練資料內容有先天限制,現階段尚無法代表所有人類知識且有幻覺,建議要與其他資料蒐尋管道共同使用。
您可以參考以下對於資料查詢管道的比較,同時發揮不同資料來源的強處與避免誤用:
資料庫
🔺 適用時機:
清楚自己的研究問題與資料庫操作方式。
需要引用學術資料。
需要交代清楚的文獻回顧流程 (像是系統性文獻回顧需要說明資料來源、查詢與篩選機制)。
🔺 資料來源:
內容來自長期經營的出版社,包含學術性跟非學術性質的期刊、書籍、資料、圖像、影片等內容,經過審查與編輯,品質較可以信任。
每個機構訂購的資料庫範圍內容不同。
資料庫的查詢類型與年代範圍有限制,未必收錄到最新資訊,且無法在單一資料庫查到所有資料。
🔺 查詢方式:
資料庫欄位乃根據資料內容特性設計,了解學術期刊與論文的格式和學術用語,將有效提升查詢效果。
以關鍵字組合查詢,可以利用進階檢索功能獲得更精準的查詢結果。
多數資料庫可以利用查詢結果的分類、篩選、排序機制來挑選出更符合需求的資料,或是利用資料的相互引用關係來判斷資料品質與延伸閱讀。另外,也有「產生引用格式、文章收藏」等功能可使用。
可以儲存檢索式,有助於自己或是他人重複執行資料查詢方法與驗證。也可以根據某檢索式訂閱最新檢索結果,掌握相關研究趨勢。
可參考圖書館e學習網對於各種資料庫的完整介紹。
🔺 缺點:
使用者須熟悉資料庫介面和檢索方式,也要能對研究領域有一定程度的認識,才能將日常生活語言轉換成學術領域的術語關鍵字。
資料分散,用錯關鍵字或使用錯資料庫,可能會什麼資料都找不到。
雖然許多研究的圖表都可以看出研究精華,然而多數資料庫並未針對查詢圖表開發功能。
未採購的付費內容就無法使用。
搜尋引擎 (如Google)
🔺 適用時機:
適合初步探索資料方向。
從網站、新聞、機構報告等來源獲得研究主題方向。
🔺 資料來源:
網路查詢範圍廣。
Google的排序機制會讓政府、機構、維基百科等較權威的資料排在前面,然而仍有機會找到品質比較不佳的社群媒體、內容農場或是廣告行銷內容。
使用Google scholar可以限定學術資源做查詢,然而全文檔多為開放取用文章,仍有許多檔案需要自行付費或由機構訂購。
🔺 查詢方式:
有進階檢索及查詢結果分類與排序機制,查詢時可以加入 "site: .edu/.gov"、"file type: pdf/ppt"關鍵字,將有助於限縮查詢範圍的資料類型或資料出處。
以關鍵字組合查詢,搭配人工瀏覽與篩選,藉由轉換關鍵字來找到更多不同資料。
Google scholar可以進一步看到引用關係及產生引用格式,並利用引用關係來探索更多資料。
🔺 缺點:
通常僅依賴前幾頁由搜尋引擎建議排序的結果,可能會被廣告或SEO等影響。
無法找到及使用所有資料庫的內容。
Google scholar的引用資料不一定正確。
生成式AI
🔺 適用時機:
若對於研究問題與背景尚不清楚,很難使用專業關鍵字查詢,就可以用AI以白話的提問方式來探索資料。在AI輔助下找到第一批資料後,再搭配不同資料查詢管道延伸查找與閱讀。
有助於增加對於陌生研究問題的背景認識,且能獲得客製化的解釋。
容易根據自己的問題與歷史互動紀錄,綜整探索及整理不同性質(文字/圖像、學術/政府/民間)的資料。
AI可以協助資料的翻譯、整理、分析與視覺化。
🔺 資料來源:
不同的AI模型或產品會有不同的訓練資料來源,訓練資料主要來自網路,以英文資料為主(連帶反映英文世界的價值觀與偏見)。
即使可以上傳自己的資料或是選擇聯網即時搜尋,AI也通常根據少數資料進行摘要與回答。
若設定AI的資料來源為學術資源,或使用學術專用AI工具,可以稍加控制資料出處品質,然而通常僅根據開放取用文章,需付費使用的資料,AI僅能根據摘要而非全文分析。
🔺 查詢方式:
提問內容會影響被推薦的資料,好的提問較有機會獲得相關度高的資料。
同一問題不論是詢問相同或不同的AI,都會因為資料搜尋、排序、摘要與呈現機制的差異而產生不同答案。無法確定AI工具的篩選判斷是否真正符合自己的需求。
與AI的互動時,盡可能思考自己如何增加人類的篩選、品味等來讓AI產生更好的答案。如果AI工具的設計讓人類較難介入資料的篩選與驗證,就要對其答案抱有一定的緊戒。
學術專用AI工具的功能設計較有考量到學術研究者的需求。
🔺 缺點:
AI乃基於統計機率預測下一個字,不是真的理解資料內容,無法避免幻覺,即使找到正確且優質的資料出處,仍可能在摘要時出錯、擴寫,甚至產生虛假的文獻出處(根本不存在的資料)。
由於需要事後查證AI是否有幻覺,以及在過程中反覆提問,很可能會花費更多時間。
提問過程可能加入太多個人資料造成資料外洩。
AI每次回答結果的資料來源與摘要內容都不同,難以複製相同的查詢過程。
學生:
課程作業或論文:如大學生或碩士生寫作學期報告、畢業論文或專題報告,需要回顧文獻來熟悉主題、支持論點或找出研究缺口。
熟悉領域與學習:為了了解學科內的經典研究或最新進展,例如初學者透過回顧來建立理論框架,或在課堂討論中分析既有文獻。
情境通常受限於時間與資源,重點在於廣泛但不需極度全面的蒐集。
研究者:
研究提案或論文部分:如博士生或學者撰寫研究計畫、期刊論文或書籍章節,回顧文獻作為引言或方法論基礎,用來定位自身研究在既有知識中的位置。例如,在申請經費時,需證明研究填補了文獻缺口。
獨立出版回顧文章:研究者可能專門寫作回顧性論文,如系統性回顧,用來總結領域進展、指出矛盾或提出未來方向。
發展理論或方法:在進行原創研究前,回顧文獻以合成多個視角、批判分析或建構新框架,例如在跨學科項目中整合不同領域的發現。
情境更強調深度與嚴謹性,常涉及團隊合作或長期追蹤最新出版物。
人文科學(e.g., 文學、歷史、哲學)
情境:學生常為論文分析經典文本或文化現象;研究者則回顧以建構敘事或批判理論,如歷史學者回顧檔案以重新詮釋事件。
飽和與適當:多為敘述性或整合性回顧,飽和依主題重複(e.g., 無新解釋出現);適當需涵蓋經典與現代來源(20-50篇),強調質性深度而非量。
停下來:當主要史料或理論已涵蓋、無新視角時;資源限於檔案存取。
查詢方式:使用JSTOR或MLA International Bibliography;特殊:主題詞如"postmodernism",結合歷史時期(e.g., "Victorian era" AND "literature");強調書籍與專著搜索,非僅期刊。
社會科學(e.g., 心理學、社會學、教育)
情境:學生為課程報告回顧社會現象,如教育學生分析「遠距學習影響」;研究者則為政策建議或理論模型,如心理學者合成壓力研究。
飽和與適當:常敘述性或範圍審視,飽和當人口或情境模式穩定(e.g., 代碼飽和);適當涵蓋定性/定量混和(50-100篇),評估文化多樣性。
停下來:重複社會理論出現,或滿足研究問題(如無新變項);考慮倫理因素如人口代表性。
查詢方式:PsycINFO或ERIC;特殊:控制詞彙如APA Thesaurus,結合人口過濾(e.g., "adolescent" AND "mental health" NOT "clinical");使用前向引用追蹤最新社會趨勢。
自然科學(e.g., 物理、化學、環境科學)
情境:學生為實驗報告回顧基礎理論;研究者則為新發現定位,如環境科學者回顧氣候模型以提出預測。
飽和與適當:多系統性或元分析,飽和依量化指標(e.g., 效果大小穩定);適當需高影響力期刊(50-200篇),確保實驗重現性。
停下來:當新文獻不改變結論,或搜索Scopus後無新高引用文章;時間敏感,如追蹤最新數據。
查詢方式:Web of Science或ScienceDirect;特殊:化學式或數學符號搜索(e.g., "CO2 emissions" AND "modeling");使用OR擴大同義詞(e.g., "global warming" OR "climate variability"),結合年限過濾最新進展。
醫學/健康科學(e.g., 醫學、護理、公衛)
情境:學生為臨床報告回顧治療效果;研究者則為證據基礎醫學,如系統回顧疫苗效能以支持政策。
飽和與適當:偏系統性或元分析,飽和嚴格(e.g., Cochrane指南,無新隨機試驗);適當涵蓋RCT(randomized controlled trials,數百篇),評估偏誤(e.g., funnel plot)。
停下來:協議定義的搜索結束,或無新臨床試驗註冊;考慮倫理如患者安全。
查詢方式:PubMed或Cochrane Library;特殊:MeSH詞彙(e.g., "Hypertension/therapy"),PICO框架(Patient, Intervention, Comparison, Outcome);灰色文獻如臨床試驗註冊(ClinicalTrials.gov),限制出版類型為"randomized controlled trial"。
每個人的LLM/ChatBot會因為長久互動跟記憶對話,可能會被訓練得不一樣,即使使用相同指令,也可能有不同答案。
現在有層出不窮的指令教學,建議學習背後的方法與思考方式,並根據自己的任務需求來彈性調整。
🔸建議學習資源:
Open AI Prompt engineering 、Claude Prompt engineering (內有google表單分步驟教學、可觀看此影片了解指令好壞的差異與指令範例)、Gemini提示設計策略、Prompt Engineering Guide (部分章節有中文版)、University of Sydney-AI in Education (提供不同學科領域的Prompt範例)。
數位時代有一系列指令教學文章可以參考:OpenAI釋出Prompt免費懶人包、Gemini 3官方提示詞指南、逆向提示詞(Reverse Prompting)、GPT-5 Optimizer指令優化器、NotebookLM進階提示詞、Notion《100 個 AI 代理人使用情境》指南。
您也可以閱讀圖書館電子書「ChatGPT實用提示兵法 : 人人都能學會的提示工程」。
🔸基礎指令原則:
對齊知識:先確認AI有正確解讀自己提出的資訊、且具備回答問題的知識,才請他做接下來的動作。一開始可以先用自己熟悉的主題與任務測是,較能判斷AI是否有回答錯誤的地方。
充分資訊+具體要求:越清楚自己的目的、擁有越多背景資訊,就能提供更多目前已知訊息和想法在指令內形成具體要求。具體要求可以是字數、文體風格、表格呈現方式等。
設定角色:說明自己或是AI扮演的角色、面對的情境、須完成的任務,有了更多上下文脈絡,就更能給出需要的資訊。
舉例:舉例說明自己想要的內容、或是請AI舉例說明。
追問:先釐清自己的任務與需求,再將大問題拆成小問題分開提問、試著轉換不同說法/觀點/語言提問、詢問AI回答的原因/依據、挑戰AI給的答案、請AI進一步說明、請AI列出正反面觀點、請AI跳出框架思考。
探索:有時候可以故意只拋出簡單問題、或是請AI忘記所有之前的資訊,避免AI僅在自己提供的訊息框架中回答而錯過探索新知的機會。
避免在指令內有明顯偏見/偏好,這會影響AI生成的結果。可
設定一個專門任務的對話串,在該對話串中可以用多個Prompt訓練出希望他翻譯、摘要等任務,之後就直接在對話串內提問。
同時以多種管道驗證AI提供的資訊,從其他來源獲得不同資訊後可再與AI繼續互動,甚至拿其它AI的回答來提出質疑。
網路上有許多指令框架可以參考,像是CLEAR框架:
Context(背景):簡述研究問題和目標。
舉例:「我正在研究 AI 在醫療診斷中的應用及其倫理挑戰,目標是了解技術進展和潛在風險,預計要發展成我的碩士論文。」
Limits(限制):指定時間範圍、語言、來源類型。
舉例:「只蒐集 2020 年後經過同儕審查的英文學術文章,盡可能從 PubMed、Google Scholar 或 IEEE Xplore 等可靠來源查詢。排除新聞或部落格。」
Expectations(期望):描述輸出格式(如總結、引用清單)。
舉例:「請列出 8 篇真實存在且具代表性的論文,對每篇提供 300 字摘要並說明品質評估依據,並用 APA 格式引用。」
Assessment(評估):要求 AI 評估資料品質和代表性。
舉例:「請確保資料多樣性,避免單一觀點;如果有偏差,請說明。」
Refinement(精煉):鼓勵 AI 提問或建議改進。
舉例:「請指出我可以追問的方向或提供的細節。」
Concise(簡潔):使用清晰、簡單的語言,刪除無關的詞彙與細節,突顯最重要的訊息。
舉例:「請告訴我二次世界大戰的成因、主要事件以及與一次世界大戰的關聯性」改成「請列出二次世界大戰的五個原因與三個重要戰爭」
Logical(邏輯):確保資訊邏輯流暢,且概念間的關係清晰。可以在指令中說明步驟。
舉例:「請說明空氣汙染對環境造成的三個影響、請解釋規律運動對於健康的益處」「請先完整蒐集近三年關於台北市空氣汙染的新聞報導,再整理空氣汙染的類別,接著分析可能的應對方式」
Explicit(明確):提供明確的輸出格式,具體說明尋要的資訊類型與傳達方式。可以指定角色、提供範例、設定語氣。
舉例:「提供一次世界大戰的完整摘要,強調主要原因、主要戰爭、對於全球政治的長遠影響」「請你扮演教導比較政治的教授,根據我的文本內容以及我提供的評分標準,幫我修改成更具有學術寫作風格的5000字產出,同時提供修改的原因及未來的寫作建議」
Adaptive(適應):根據AI生成結果,持續變換各種提示與措詞,嘗試將任務拆分。
Reflective(反思):持續評估AI生成結果並進一步互動,以產生後續深度分析。
降低AI幻覺的指令 (不代表能完全沒有幻覺!)
您可以在指令中加入以下要求:
請在回答中列出關鍵主張,每個關鍵主張都要有來源依據,盡可能標示出出自來源的位置與資料連結,並說明為什麼可以支持
如果具有爭議,請提供多方證據並分開整理
請坦承說出資料不足與不確定,詳細說明回答內容的限制
請嚴謹的區分事實證據與推論,提供每個證據的信心程度與標示出推論段落
請適時說明我的指令中忽略或具有偏見、誤導的部分
也可以參考以下作法:
提供值得信賴、有權威的資料來源,或是提供具體細節、背景資訊、詳細場景說明,請AI基於這些資訊來回答,或據此補充相關資料。(“According to…” Prompting/Contextual Anchoring/Scenario-Based Prompting)
從一個大問題開始,分解成可以單獨檢查的相關小問題,逐步檢查、確認、解決。(Layered Questioning/Chain-of-Verification Prompting)
先提出一般性問題,再增加具體性,每個步驟都要以前一部當成邏輯基礎。(Progressive Prompting)
請AI審查自己的初步回答,請AI找出自己的錯誤或缺失的細節。(Step-Back Prompting/Reflective Prompting)
針對AI的回答提供具體回饋,指導AI改進方向,並請AI記住自己的改善偏好。(Feedback Loop Integration)
請AI設計指令或與AI討論指令
您可以直接請AI幫忙設計指令或是修改指令。請參考Grok「根據研究者經驗推薦的指令」(Grok善於搜尋社群媒體討論區上的交流紀錄)、GPT5.4思考模式提供的「研究者不同情境可用指令與注意事項」、Gemini Pro Deep Research做的「Deep Research指令設計與注意事項報告」。Claude Sonnet 4.6甚至會直接調動skill完成一個提示詞優化工具(如下圖),此工具已預設好建議的指令結構,可以選擇不同學科產生指令範例,也可以照此模板輸入指令後點選優化按鈕。
許多人會在網路上分享自己的指令設計,甚至有許多研究在測試什麼樣的指令能有更佳的效果。您可以針對您的專業領域去蒐集這些指令,接著與AI討論這些指令可以怎麼修改或運用 (請說明清楚自己的意圖和資料評估標準)。現在AI已經發展出Deep Research、Agent Skills,會需要使用的指令技巧會跟基礎指令有些不同,像是Agent指令更需要的是知道如何拆分任務、設計先後次序、調用哪些工具,這時候都可以問AI,讓AI成為教學助手。
舉例來說,「AI-assisted search strategy construction with step-by-step instructions to execute and manage searches across major databases」這篇研究在測試如何使用AI指令來協助建立資料庫的搜尋檢索式,就可以將研究結果的指令貼給AI讓AI判斷這是不是一個好的指令、可以如何調整 (請參考ChatGPT的回答)。