講者:吳俊雄 教授(中正大學語言所所長)
時間:2023/5/11, 2:10 ~ 3:00
地點:理學院 SC4009-0
講題:大語言模型?小語言模型?一個語言學家的心得
大綱:
在這個大數據時代,在自然語言處理(Natural Language Processing, NLP)領域中,許許多多的模型,都稱為:大語言模型(Large Language Model,LLM)。這些模型的訓練,都需要非常大的語料,特別是近幾年興趣的Transformers家族(其實,今年莫名其妙紅起來的ChatGPT也是這個家族成員之一)。ChatGPT用了約570GB (1GB = 1024MB、1MB=1024KB、1KB=1024B、一個中文字=2B、一個英文字母=1B)。人類學習語言,需要這大的語料量嗎?
這個演講,先介紹深度學習(deep learning)神經網路(neural network)的基本概念,再延伸至Transformers家族。有了這些基於數學的NLP模型最基本的概念後,再談NLP的研究跟語言學(至少是理論語言學)在研究目的上的基本差別。然後,來談談普遍語法(Universal Grammar)的概念是如何讓人類可以基於小量語料就學會母語的。之後,介紹一個展現語言學研究應用於NLP的工具:基於理論句法、語意研究的一個自然語言理解引擎(Natural Language Understanding Engine) − LOKI (由卓騰語言科技公司開發),如何能藉由一個句子就學會一個句型,進而可以辨識許許多多的句子。最後是一個基於LOKI的聊天機器人的示範,我們示範如何可以用很少量的語料,讓我們的機器人可以了解自然語言查詢,並成功地回答問題。
非常希望,這個演講可以讓語言學的同學發現,語言學不是一個只能躲在象牙塔的學問,而是有實實在在的、可以應用在語言科技上的「有用」的學問!
講者:石晴方(緯創資通資料科學家)
時間:2023/4/27, 2:10 ~ 3:00
地點:理學院 SC4009-0
講題:與 ChatGPT 對話:自然語言處理如何改變我們與世界的互動
大綱:
1. 自然語言處理簡介
2. ChatGPT 基礎原理與訓練方法
3. ChatGPT 創新應用
4. ChatGPT 實用技巧與工具
5. ChatGPT 未來發展