盧 慧敏
(ロ ケイビン)
(ロ ケイビン)
生成AI / 自然言語処理 / 大規模言語モデル
D1学生 @ 東京大学 大学院工学系研究科 TMI 坂田研究室
最近の研究テーマ:大規模言語モデルの有害性除去、倫理課題、安全性
趣味:ラテン語、西洋占星術、中国古代の占星術
国際学会
(査読あり) Huimin LU, Masaru Isonuma, Junichiro Mori, Ichiro Sakata. UniDetox: Universal Detoxification of Large Language Models via Dataset Distillation. The Thirteenth International Conference on Learning Representations (ICLR), 2025. [paper] [code]
プレプリント
Huimin LU, Masaru Isonuma, Junichiro Mori, Ichiro Sakata. Towards Transfer Unlearning: Empirical Evidence of Cross-Domain Bias Mitigation. arXiv:2407.16951, 2024. [paper]
国内学会
Huimin LU, Masaru Isonuma, Junichiro Mori, Ichiro Sakata. Unlearning Bias and Toxicity in Large Language Models (大規模言語モデルにおける有害コンテンツの逆学習). Proceedings of the Annual Conference of JSAI, 2024. [paper]
Huimin LU, Masaru Isonuma, Junichiro Mori, Ichiro Sakata. Reverse Distillation of Corpus (コーパスの逆蒸留). The 31st Annual Meeting of the Association for Natural Language Processing (ANLP), 2025. [paper] [code]
優秀賞, 言語処理学会第31回年次大会, 2025. (主著, 15/765件)
スポンサー賞(SB Intuitions社), 言語処理学会第31回年次大会, 2025. (主著, 1/765件)
スポンサー賞(ELYZA社), 言語処理学会第31回年次大会, 2025. (主著, 1/765件)
大規模言語モデルによる学習を防止する技術の開発. 東京大学大学院 工学系研究科, 博士課程学生特別リサーチ・アシスタント(SEUT-RA), 2025.
大規模言語モデルによる学習を防止する技術の開発. 東京大学大学院, 博士後期課程学生支援 グリーントランスフォーメーション(GX)を先導する高度人材育成」プロジェクト (SPRING GX), 2025.
AIによる次世代海賊版の阻止. 国立研究開発法人 新エネルギー・産業技術総合開発機構(NEDO), 研究開発型スタートアップの起業・経営人材確保等支援事業/ディープテック分野での人材発掘・起業家育成事業 (NEP) 開拓コース, 2025.
大規模言語モデルによる学習を防止する技術の開発. 東京大学大学院 工学系研究科, 「リーダー博士人材育成基金」特別助成プログラム(LDPP), 2025.
大規模言語モデルによる学習を防止する技術の開発. 日本学術振興会, 特別研究員(DC2), 2026