解決問題的創客
設計思考(以人為本),經典超夢幻皮夾
Empathy 同理心 =知道問題在哪裡?
核心=很重要,很有趣,更細微,更值得討論...
想要vs需要
Define 需求定義 =
洞見 Insight
Ideate 創意動腦
Prototype 製作原型
Test 實際測試
解決問題的創客
設計思考(以人為本),經典超夢幻皮夾
Empathy 同理心 =知道問題在哪裡?
核心=很重要,很有趣,更細微,更值得討論...
想要vs需要
Define 需求定義 =
洞見 Insight
Ideate 創意動腦
Prototype 製作原型
Test 實際測試
自然領域教學:
POE
5E教學法
清華STEAM學校-DDMT
學習遷移:學到,用所學來應用
【問題解決】
多涉略:大腦學習的書
大腦發育,主管衝動(前額葉)的能力18歲完成
IPD長短期記憶概念
多久,記在那裡,什麼時候會記起來,
寧可睡飽再做
刺激產生連結
MSSR-大量閱讀=刺激=
Transformer模型
Transformer 模型是一種深度學習架構,它在 2017 年由 Google 團隊提出,徹底革新了自然語言處理 (NLP) 領域,並逐漸擴展到電腦視覺等其他領域。
它的核心特點是完全基於注意力機制 (Attention Mechanism),尤其是自注意力機制 (Self-Attention),而拋棄了傳統的循環神經網路 (RNN) 或卷積神經網路 (CNN) 結構來處理序列資料。
自注意力機制 (Self-Attention):
這是 Transformer 的靈魂。它允許模型在處理序列中的一個元素(例如句子中的一個單詞)時,同時權衡序列中所有其他元素的重要性,以捕捉它們之間的關係和上下文資訊。
舉例來說,在翻譯一個句子時,模型會判斷句子中哪些詞對於理解當前詞語的意義最重要。
多頭注意力機制 (Multi-Head Attention):
模型不是只做一次注意力計算,而是同時進行多次並行的注意力計算(稱為「頭」),每個頭專注於不同的子空間或關係類型。這使得模型能夠獲得更豐富的資訊。
編碼器-解碼器 (Encoder-Decoder) 架構:
經典的 Transformer 模型由堆疊的編碼器 (Encoder) 和解碼器 (Decoder) 組成。
編碼器:負責將輸入序列(如原始語言句子)轉換成一個高維的上下文表示。
解碼器:根據編碼器的輸出和已經生成的序列,逐步生成輸出序列(如翻譯後的句子)。
位置編碼 (Positional Encoding):
由於 Transformer 模型的設計允許平行處理所有輸入元素,它本身不具備處理順序的能力。
因此,需要加入位置編碼來告訴模型每個元素在序列中的絕對或相對位置資訊。
平行計算 (Parallelization):
與 RNN 必須按順序處理序列不同,Transformer 可以同時處理整個序列,這大大提高了訓練速度和效率。
Transformer 架構的提出是人工智慧領域的一個里程碑,它成為了許多當前領先的 AI 模型(如 BERT、GPT 系列、T5 等)的基礎架構,被稱為「基礎模型」。
自然語言處理 (NLP):機器翻譯、文本生成、情感分析、問答系統、文本摘要等。
其他領域:如電腦視覺(例如 Vision Transformer, ViT)、語音識別等。
簡而言之,Transformer 模型是一種基於自注意力機制、可以高效且平行處理序列資料的強大神經網路架構。
Do Your Bit / Web Bit
SDGs 3 健康照顧議題
老人
遲緩動態
跌倒