籃婕云
一般大眾:關心 AI 對日常生活影響的人。
學生:任何想了解 AI 能力與其社會責任的大學生或研究生。
Al 使用者:已經在使用 ChatGPT 等語言模型,想更深入了解其限制與偏見。
決策者 / 管理層:考慮在工作或組織中應用 AI,需要了解相關風險與倫理。
第一單元|語言模型的限制:它們「能」與「不能」做什麼?
第二單元|潛藏的陰影:語言模型中的偏見與歧視。
第三單元|從模型到現實:應對語言模型的風險與責任。
辨識語言模型的核心限制。
分析語言模型中偏見的來源及其對社會的影響。
理解並評估應對語言模型風險的技術與倫理策略。
單元目標:
識別語言模型在即時性、事實準確性及複雜語氣理解上的主要限制。
解釋語言模型產生「幻覺」(Hallucination)現象的原理。
辨識語言模型在常識判斷與真實世界理解上的不足。
單元目標:
了解科技並非絕對中立,並認識其可能內含的偏見。
分析語言模型如何從訓練數據中學習並放大社會偏見(如性別、種族刻板印象)。
說明語言模型偏見對社會(如社會邊緣化、刻板印象強化)可能造成的影響。
單元目標:
列舉並簡述降低語言模型偏見與錯誤的常見技術方法(如去偏資料、對抗性訓練)。
認識倫理框架導入在 AI 發展中的重要性。
理解人為與倫理對策(如模型審查、使用者回饋、素養教育)在應對 AI 風險中的關鍵作用。
學術文獻
Brown, T., Mann, B., Ryder, N., Subbiah, M., Kaplan, J. D., Dhariwal, P., ... & Amodei, D. (2020). Language models are few-shot learners. Advances in neural information processing systems, 33, 1877-1901.
影片 / 紀錄片
《Coded Bias》紀錄片|www.youtube.com/watch?v=rf68wQDVEho
Tay 微軟 AI 事件相關影片|www.youtube.com/watch?v=nEA8JviB_-g
軟體 / 工具
ChatGPT|chat.openai.com/