假訊息傳播防制
假訊息傳播防制
計畫主持人:許志明 副教授
🔺計畫執行重點🔺
「假新聞與訊息查核」教學實作任務,設計置入世新大學新聞學系大學部《AI與媒體產業》第九至十四週實作課程。該課程主要由新聞系副教授許志明進行教授,新聞系數據視覺化專長之助理教授康力平協同教學。
本課程設計的主要目標為:
1. 提升媒體素養與批判性思維:幫助學生掌握假新聞的特徵及其生成邏輯。
2. 熟練應用AI查核工具:學習使用ChatGPT、Gemini、Copilot等生成式AI,進行假新聞的比對與查核。
3. 強化實務操作能力:通過案例分析和交叉查核,培養學生綜合應對假新聞的技能。
課程安排包括:
1. 理論教學:介紹假新聞的來源、特徵及影響。
2. 技術應用:學生使用不同AI工具對指定假新聞進行分析與驗證。
3. 實作學習:透過比較AI工具結果,討論假新聞判別的最佳實踐。
4. 作品呈現與反思:學生撰寫分析報告,分享心得與改進建議。
5. 專家演講:為提升學生及社區在新聞實務中的批判性思維及假新聞辨識能力,本課程邀請新聞業界資深媒體工作者進行專題演講,分享其在新聞報導、假新聞辨識及相關檢測工具應用上的實務經驗。此活動將結合業界專家的真實案例與學生互動,幫助學生及社區掌握假新聞辨識的專業技能。
2024.12.25 世新大學管理學院
業界資深媒體工作者假新聞辨識專題演講
講者:李瀅瀅、游皓婷、高瑞麟、鄭清元
🔺計畫內容🔺
課程中,學生選取了三則假新聞案例,使用ChatGPT、Gemini與Copilot進行辨識,並總結其結果與優劣勢。以下為具體案例與分析:
(一)案例分析
案例一:解放軍殲-10擊落美國F-22戰機
學生利用AI進行分析,發現此假新聞的圖片來源、技術可能性及媒體報導等多方面均不符合真實情況。
ChatGPT詳細指出圖片來源是2004年的美國空軍墜機事故,並以邏輯推理解釋技術層面不可能性。
Gemini則通過結構化分析提供簡潔清晰的闢謠。
Copilot的分析相對簡短,但結論與前兩者一致。7
收穫:學生理解了假新聞如何利用誇張敘述、圖片錯用及缺乏多方佐證來誤導公眾,並學會從多角度進行分析。
案例二:少糖少油少鹽導致健康問題
此案例涉及醫療類假新聞,學生發現傳言錯誤連結鹽、油與健康問題,並利用AI工具查核醫療專家意見和科學研究的可靠性。
ChatGPT與Gemini對傳言逐項拆解,並引用具權威性的醫學資料進行反駁。
Copilot雖提供較少細節,但仍能辨別其為假新聞。
收穫:學生認識到醫療類假新聞的社會危害性,並學會檢查內容是否符合醫學邏輯與專業權威。
案例三:銀行匯款備註影響信用評分
學生通過AI查核,了解到此傳言誇大了備註對個人信用評分的影響。
Gemini提供了詳細的金融機構查核結果。
ChatGPT解釋信用評分的原理。
Copilot則以簡要方式否定傳言。
收穫:學生學會透過多方求證,避免被具有專業術語的假新聞誤導,並加深對金融資訊的理解。
(二) 學生實作報告~ AI生成内容實作課後作業分享
A1120100XXX 歐陽oo 新聞二乙
假新聞(取自台灣事實查核中心-2020年8月21日):
網傳「解放軍殲-10在福建上空擊落美全球最先進戰機F-22...駐日美軍司令兼第五航空隊司令菲爾德/布魯斯.懷特...接受美聯社獨家採訪時,對中國人民解放軍最新裝備羨慕不已」
問:請你幫我辨識此新聞為假新聞與否
ChatGPT
這則新聞關於「解放軍殲-10在福建上空擊落美國F-22戰機,駐日美軍司令對中國最新裝備羨慕」的消息,其實是一則虛假新聞,根據以下幾個原因可以清楚辨別出來:
(1). **來源與真實性**:
- 該事件最早可以追溯到2007年,當時在中國網路上廣泛流傳,但並沒有具備可靠性來源的新聞報導。這類消息通常在一些論壇或社交媒體平台上被轉載,但缺乏國際主流媒體的報導。
- 美國主流媒體如《美聯社》並未報導過類似事件。通常,美國或中國之間發生如此重大的軍事事件,不僅會引起雙方的官方回應,還會成為全球新聞關注的焦點,但在這個案例中,沒有任何可信的報導來支持這一說法。
(2). **圖片與事件的不符**:
- 根據查證,所附圖片其實是來自於2004年美國F-22在內華達州奈利斯空軍基地的一次訓練墜毀事故,而不是所謂的「殲-10擊落F-22」事件。圖片被斷章取義,並錯誤地應用於虛構的情節中。
(3). **官方澄清**:
- 中國媒體如《央視網》在2015年就已經對這種傳言進行了澄清,表示這是網絡上的謠言,並且沒有任何事實根據來證明「解放軍殲-10擊落F-22」的事件。
(4). **技術與現實的矛盾**:
- 從技術角度來看,F-22是全球最先進的隱形戰機之一,其電子戰和隱身性能極其強大,而殲-10是一種第四代戰鬥機,雖然先進,但在技術上無法輕易擊落F-22這樣的第五代戰機。這樣的軍事推測也不符合現實。
(5). **假新聞的模式**:
- 假新聞經常利用情緒煽動、誇大不實的說法來吸引注意力。這類故事利用了中美兩國之間的地緣政治敏感性,企圖誤導讀者。
總結來說,這則新聞從圖片來源、媒體報導、技術分析到官方回應等多方面來看,都是虛假的。它是一個長期流傳的謠言,並沒有任何真實的軍事事件支持。
Gemini
關於「殲-10擊落F-22」傳聞的闢謠
結論:這是一個長期流傳的假新聞。
為什麼說是假新聞?
(1). 缺乏可靠證據:
• 沒有主流媒體報導: 國際通訊社、美國主流媒體都沒有報導過此事件。
• 官方否認: 中國《央視網》曾明確指出此為網路謠言。
• 專家意見: 專業軍事分析人士也未曾聽聞此類事件。
(2). 細節漏洞百出:
• 人物虛構: 美聯社並無「菲爾德」、「布魯斯.懷特」的相關專訪。
• 圖片造假: 部分傳言搭配的圖片多為挪用自其他事件。
(3). 動機分析:
• 挑撥中美關係: 此類不實消息通常用於製造恐慌、挑起國家間的對立。
• 博取關注: 在網路時代,聳動的假新聞更容易吸引眼球,達到傳播的目的。
為何此類傳聞屢禁不絕?
• 心理因素: 人們對未知事物的好奇心,以及對強大力量的崇拜,都容易使人相信誇張的傳言。
• 資訊不對稱: 在資訊爆炸的時代,人們難以快速分辨訊息的真偽,容易被誤導。
• 社交媒體的推波助瀾: 社交媒體的快速傳播特性,使得假新聞能夠迅速擴散。
如何辨別假新聞?
• 查閱多方來源: 不要輕信單一來源的資訊,應從多個可靠的媒體渠道進行核實。
• 核對事實: 仔細比對事件細節,查看是否有邏輯上的矛盾。
• 留意情感色彩: 煽動情緒、誇大其詞的訊息往往不可信。
• 提高媒體素養: 培養批判性思維,對網路資訊保持警惕。
總結:「殲-10擊落F-22」這一傳聞之所以能夠長期流傳,是因為它迎合了人們對軍事衝突的好奇心,以及對本國軍隊強大的期待。然而,事實勝於雄辯,沒有任何可靠的證據能夠支持這一說法。我們應該保持理性的態度,不輕信謠言,共同維護網絡空間的清朗。
建議:
• 遇到類似訊息時,請多方求證。
• 不要隨意傳播未經證實的訊息。
• 提高對假新聞的警惕性。
希望這份解答能幫助您更好地辨別網絡訊息的真偽。
如果您還有其他問題,歡迎隨時提出。
關鍵字: 殲-10, F-22, 假新聞, 闢謠, 媒體素養
備註:此回答僅供參考,並非專業軍事分析。
Copilot
根據我的搜索結果,目前並沒有任何可靠的新聞來源或證據證實這一消息。這個新聞似乎是沒有根據的,可能是虛假的。你有沒有注意到這樣的新聞在其他媒體上有報導嗎?如果沒有,那這個消息的可信度就更低了。
問:再更詳細地幫我解釋爲什麽是假新聞
當然可以!假新聞是指故意傳播的虛假或誤導性信息,目的是欺騙或誤導公眾。以下是幾個辨識假新聞的方法:
檢查來源:
(1). 確認新聞來源是否可靠。可信的新聞來源通常是知名的媒體機構,如BBC、CNN等。
(2). 查看作者:了解作者的背景和專業資格。如果作者沒有明確的背景或經驗,可能是假新聞。
(3). 檢查日期:確認新聞的發佈日期。有些假新聞會使用過時的照片或資訊,以迷惑讀者。
(4). 檢查內容:留意新聞內容是否合理和一致。假新聞常常包含誇張的語言或不合邏輯的敘述。
(5). 檢查照片和視頻:使用搜索引擎檢查照片和視頻是否被其他媒體使用過。如果發現照片或視頻被其他媒體使用,可能是假新聞。
(6). 檢查其他來源:查看其他媒體是否也報導了這個新聞。如果只有一個來源報導,可能是假新聞。
希望這些方法能幫助你更好地辨識假新聞!如果你有其他問題,隨時告訴我哦!
總結:相比Gemini和Copilot,ChatGPT的解釋與分析辨識更爲直接,而其他兩者問爲何此新聞為假新聞時回答則客套,因此三個生成式AI的辨識中我會選擇ChatGPT來分析假新聞。
🔺計畫亮點及成效 🔺
本次《AI與媒體產業》課程結合生成式AI技術與實務操作,不僅有效提升了學生的假新聞辨識能力,還幫助他們建立了媒體素養與批判性思維。課程結果顯示,利用AI工具進行多角度分析是應對假新聞挑戰的有效方法。為進一步完善教學效果,建議未來增加對AI工具的數據介紹、擴展案例範疇,並強化學生的實務應用能力與倫理教育。
在這門課程中,學生和社區公眾通過實際操作和案例分析,深入了解假新聞的特徵和辨別方法。他們學會了如何使用各種工具來驗證信息的真實性,例如反向圖片搜索、檢查來源的可信度以及分析文章的語言和結構,這對於增進他們生活、資訊安全和福祉極為重要。