我們的專題名稱為「失業率預測分析-以臺灣民國 113 年為例」,將透過 random tree regression 及 SVR 兩種方式,並以失業率、央行利率、人均 GDP 等因素當作變數,將臺灣民國 90 年一月到112年十二月的數據進行分析,並利用民國113年的數據進行比對驗證。
本專題名稱為「奇異值分解於影像處理與數字辨識之多層次應用」。我們利用背景消除將影片中持續變動的物體去除,並以奇異值分解(SVD)分析影像矩陣,探討其在背景重建中的效果。接著針對手寫數字資料建立各數字的特徵子空間,將新影像投影至子空間並以最小投影誤差進行分類。
本研究從線性代數角度出發,說明當「奇異值分解 (SVD)」被應用於高維度的「詞彙-新聞報導矩陣」時,系統如何透過降維來捕捉資料中最強的語義結構。此技術(亦稱為潛在語義分析,LSA)被應用於大量的新聞文本時,能將原始稀疏的字詞空間,映射到一個更精簡的「潛在主題空間」。同時,該現象也展現於SVD分解後的U 矩陣(詞彙-新聞報導矩陣)中,當我們檢視特定主題(即奇異向量)時,權重最高的對應字詞,即構成了該潛在主題的「關鍵字詞」。此模型亦說明,新聞文章中的「主題」分類或「關鍵字」的浮現,並非僅是字面上的隨機堆疊,而是源自詞彙間內部隱藏的「潛在語義結構」。
台灣總人口受少子化與 COVID-19等因素影響,近年趨勢變化明顯,使預測具有挑戰性。本研究以 1998 年開始的人口資料為基礎,採用差分化的隨機森林與 LightGBM 模型,結合出生、死亡及遷移等特徵,透過多重時間窗口與特徵調整進行短期預測,並與基準模型比較以評估成效。同時,也探索統計模型方法以捕捉趨勢與季節性變化,並保留未來延伸的可能性。
我們探討辛普森積分法的實作過程與誤差分析,從數值分析角度出發,系統性推導辛普 森積分法的數學原理。實驗以多種函數(如三角函數)為測試對象,利用 MATLAB 撰寫 程式進行模擬,結果顯示,辛普森法是實務數值分析中常用的方法之一。最後我們選取 「大鬼湖」,結合等深線圖結計算其湖面面積和湖水體積的近似值。
本研究從數學角度出發,說明當「固定點定理」的收斂條件不再成立時,系統會由穩定平衡轉為分岔乃至混沌狀態。同時,該現象也出現於經濟學的 Cobweb 模型其中,當價格與供需的非線性交互作用過強(例如預期差異過大或調整速度過快),市場價格會從穩定變成波動,最終導致混沌。此模型亦說明價格泡沫化或價格崩盤等現象並非完全隨機,而是源自經濟體系本身內部的「決定性混沌」。
影像拼接是將多張具有重疊區域的影像融合成一張高解析度全景影像的技術。其成功的關鍵在於準確地識別出兩張影像之間的對應點,用以作為多張圖片的比對,再利用特徵點以及投影變換的技巧,將多張圖片拼接。
簽證政策反映國際間的信任與合作關係,以及國家的開放程度,是觀察國際間外交互動的重要指標,需要有比單純加總更好的排名方式。基於PageRank 能有效捕捉網絡中節點的相互影響力與結構重要性,以免簽與落地簽政策為基礎,建立國家關係網,計算其在全球網絡中的影響力與國家間的合作關係。
Graph Laplacian 可用以分析節點間的關係並進行分群,現今常用於資料降維、半監督學習、醫學影像分割等。
本研究旨在透過將三維數據點建立點雲圖,並運用 Graph Laplacian 方法對其進行分群,以兔子為例,目標為區分耳朵、頭部、身體與尾巴等部位。然而,在區分過程中,我們發現不同部位的連接處時常會出現分群錯誤的問題。所以我們透過改變各節點之間的權重,使分群更加的準確且平滑。
我們是「ETF 投資策略與分析」,主要透過台灣市面上各個股票歷年成長率,假設投資者將分配的股息直接返還購買股票,去分析哪種股票的選擇最適合投資者的策略,蒐集了例如 0050、0052 等股票,時間從 2016 年到 2025 年,我們透過最適指數成長曲線方程式P = P0 × ert來分析,其中P為最終金額,P0為初始金額,r為複合成長率。
SEIR模型是流行病學中的分區微分方程模型,用來描述傳染病在人群中的傳播過程。我們將總人口(N)分為四個群體:易感染者(S)、潛伏者(E)、感染者(I)、康復者(R),並各以一組常微分方程表示各群體隨時間的變化。透過估計潛伏期轉換率與恢復率等參數,利用Rt 值分析政策有效性。
在手指抬舉的動作中,我們透過MEG(Magnetoencephalography)量測大腦皮質的神經訊號。實驗結果顯示,MEG 的時間序列呈現明顯的週期性。因此,我們選擇使用Rössler系統作為模型,並透過調整參數,使其能夠重建並描述 MEG 訊號的主要週期行為。此方法讓我們能以非線性動態系統的觀點分析腦神經活動。
在醫療背景持續攀升的時代,保險公司亟需更精準地識別高理賠風險族群;同時,公共衛生領域亦重視掌握高健康風險者,以有效降低可預防的疾病負擔。我們使用一份涵蓋多項健康決定因子的資料庫,包含BMI、血壓、吸菸、糖尿病狀態,以及人口特徵如年齡、性別、子女數與生活地區。我們將利用此資料庫建模,進行關鍵變數篩選、交互作用檢驗與異常值診斷,以建立能有效預測個案保險理賠金額的線性迴歸模型。
我們以「檢索增強生成(Retrieval-Augmented Generation, RAG)」為核心做了一個電子郵件助理專案。RAG 的重點在於讓模型不再僅依賴參數記憶,而能動態查詢真實資料,兼顧準確性與可解釋性。報告內容將專注於介紹RAG及其背後的數學原理,應用部分會較為簡單的帶過,若有時間也會介紹MCP(模型上下文協定)。
本專題旨在透過實作深入探索大型語言模型(LLM)的內部機制,特別是其「拒絕行為」的成因。為理解 LLM 如何處理有害輸入,本研究將載入一個開源模型gemma-2b-it,並建立「有害」與「無害」的對照資料集。核心方法是擷取模型在不同層級的激活向量,藉由計算兩組提示的平均激活差異,來分離出「拒絕方向」(refusal direction)。接著,本專題將採用「激活消融」(Activation Ablation)技術,逐層干預模型的運算過程,並定義「拒絕率」作為評估指標,以量化比較各層對最終拒絕決策的貢獻,最終將結果可視化。
本專題探討大型語言模型如何在中間層 MLP 儲存實體與關係的事實關聯,並精確修改單一知識三元組。方法先用因果中介分析與 Causal Tracing 量化各層隱狀態對預測的因果影響,定位負責檢索特定詞與事實的關鍵模組。再以 Rank-One Model Editing(ROME)對選定 MLP 權重做秩一更新,插入或覆寫反事實,並用 CounterFact 資料集與多種提示評估編輯後的準確度、特異性與泛化能力。
The gambler's ruin problem is a classical entry point into the random walk theory. For the simple symmetric random walk, explicit expressions for hitting probabilities can be derived. For more general step distributions, however, the analysis is challenging. This study explores the problem in three settings: the simple symmetric random walk, the spread-out (bounded-step) model, and the mean-zero finite-variance case.
This talk shares the challenges I faced when formalizing set theory axioms from lecture notes in Lean. In such a rigorous proof assistant, every step must be explicit: for example, if you prove ∃ x, P(x) is true, how do you actually use the x? How should notations be defined, and which lemmas must come first to state other definitions correctly? Concepts that seem “clear” on paper can become unclear in Lean, highlighting the interest and value of formalization. I hope the audience gains insight into the motivation behind Mathlib definitions and learns how to address these issues when writing their own definitions in Lean.
本專題應用主成分分析 (PCA) 技術,整合氣象與污染物因子,建立高精度的 PM2.5 濃度預測模型。模型透過多元迴歸進行驗證,並將風速等關鍵共變數納入分析,以確保模型的穩健性與可靠度。最終模型展現出極高的解釋能力,R-squared 穩定維持於 0.85 以上。此研究證實了經統計優化後的複合因子,是準確預測 PM2.5 變動的核心基礎,為環境監測提供了高精度且高度穩健的預測方案。
We propose a constructive, geometry-based method for approximating indicator functions of planar regions using two-layer sigmoidal neural networks. Unlike ReLU or tropical constructions that yield piecewise-linear boundaries, our approach produces smooth and interpretable decision regions within the standard multi-layer perceptron (MLP) format with sigmoidal activations. The networks approximate compact subsets and their unions, forming prescribed planar boundaries at initialization while remaining compatible with standard training. This framework offers a practical geometric realization of the Universal Approximation Theorem within the classical sigmoidal MLP format.
本實驗將以馬達轉速-900到+900的控制情形作為實驗結果。使用State depnedent algorithm,以SDRE方法解出最佳observer 和 controller。在FPGA(Ultra 96)中使用structure preserving doubling algorithm加速運算SDA。使用VITIS HLS以C++編譯的硬體程式語言合成Riccati solver的IP,並以VITIS結合其他周邊IP完成一個閉回路控制器。Controller的state包括轉速和iqs,ids,而observer則額外計算出力矩。本實驗將以扭力計測量力矩核對理論值,看是否有達到有效的觀測和是否有被成功控制。
本研究旨在探討運用赫伯特-黃轉換(HHT)解析 fMRI 動態訊號,以提升阿茲海默症(AD)相關臨床分類之可解釋性。方法上,我們首先以 HHT 對每個腦區的非線性 fMRI 訊號進行分解,取得 IMF 成分後計算動態相關係數矩陣,並進一步萃取五大功能性網路之相關係數矩陣。同時亦建立「原始訊號未轉換」之比較流程。結果部分將呈現 NC、MCI、AD 在兩種方法下的功能性連結矩陣熱圖差異,並展示五個功能網路的環形腦圖。結論認為,此類視覺化結果可協助辨識群組間網路特徵差異,並提供進行簡易分類的可行性。
我們證明為-正多項式,其中為的排列中,最長遞增子數列長度為且最長遞增子數列長度為的排列的個數。
本研究以宜蘭大學蔡孟利教授所開發之蝦類生理訊號量測系統為基礎,針對蝦類之呼吸與心跳訊號進行自動化的辨識與統計分析。實驗資料包含左、右側呼吸及心跳三通道訊號,每秒取樣 4000 次,單次紀錄長達 12 小時。研究首先針對訊號進行正規化與下採樣處理,並以物件偵測模型(YOLOv7)自動偵測與分割出週期性波形。接著,針對各段週期計算峰值、振幅、週期長度等統計特徵,進行假設檢定與群間比較,分析不同生理狀態(如休眠、蛻殼)下之差異。此外,利用非監督式學習方法進行分群,以探索不同類型的呼吸與心跳模式。研究結果顯示,物件偵測結合統計分析能有效提升蝦類生理訊號辨識之效率與精確度,為建立水產生物生理監測之自動化分析流程提供可行架構。未來可應用於養殖環境健康監測及生理行為變化的長期觀察。
本報告以 Max-Plus Linear 模型重構 TCP 的數學結構。傳統 TCP 在高延遲與行動網路中誤判壅塞,導致效率下降。透過最大加代數可將封包傳輸建模為線性系統,揭示吞吐量與 Lyapunov 指數的對應關係,說明 TCP 行為具線性結構。進一步以範疇論觀點分析,將 ACK 視為自然變換,使可靠性成為結構不變的條件,達到數學上可證的傳輸穩定性。