Working Group
MLSEは2019年9月より、特定の目的のため年間を通じて活動するWG(Working Group、作業部会)を設置することにしました。
現在では以下のWGが活動しています。各WGの活動に興味がおありの方は、MLSE Discordにある各WGのチャンネルにお越しください。
(チャンネル名は下記の各WG紹介に明記)
機械学習オペレーションWG
MLOps という名のもとに、機械学習の本番環境での運用について、さまざまなプラクティスが大手クラウドベンダーやメガベンチャーを中心として発表されている。一方、機械学習の適用するための環境は非常に多様であり、すべてのプラクティスを画一的に適用することは困難である。たとえば、メガベンチャー以外では機械学習を扱うチームは数名のみであることも珍しくない。また、利用フェーズも実験的な取り組みから本格的な利用までさまざまに広がっている。
現在、それぞれの現場では自分たちの状況に合わせた MLOps のカスタマイズが必要となっているものの、どのようなフェーズが存在し、それぞれのフェーズでどのようなプラクティスの導入を検討すべきか明らかにはなっていない。このため、このワーキンググループでは機械学習の活用におけるそれぞれのフェーズと、それぞれのフェーズで検討すべき事項を明らかにし、標準として提案することを目指す。
幹事
杉山阿聖(Citadel AI)
久井裕貴(マネーフォワード)
太田満久(Ubie)
Discord チャンネル
AI倫理と公平性WG
近年、MLを活用したシステムの判断に関して、倫理に関するガイドライン(AI倫理)が整理されつつあり、その中でも特に公平性について基礎研究が活発に行われている。しかしながら、AI倫理に関するガイドラインは抽象度が高く、公平性の基礎研究は詳細すぎて、機械学習システムがどのような要求を満たすべきかといったシステム開発における要件との関係が明らかになっていない。
本WGでは、AI倫理や公平性の研究成果とシステム開発の要件との関係を明らかにし、機械学習システム開発者のためのガイドラインをまとめることを最終目標とする。
以下に扱うトピックの例を挙げるが、これらのトピックに限らず議論し適宜ガイドラインに含める。
AI倫理とソフトウェア工学
AI倫理や公平性のための要求分析・リスク分析
公平性を保つための設計・実装
公平性のためのデザインパターン
公平性のモニタリングとMLOps
幹事
吉岡信和(早稲田大学)
江澤美保(クレスコ)
久連石圭(東芝)
八幡晃一郎(日立製作所)
Discordチャンネル
機械学習システムセキュリティWG
機械学習の判断を意図的に誤らせたり、モデルや訓練データを窃取したりする攻撃の存在が報告され、学会等で盛んに議論されている。これらの攻撃により、金銭的・人的な被害を受ける恐れがあり、機械学習工学の観点で大きな課題となっている。
しかし、これらに対してAI開発者が取るべき対応についてはあまり議論されていない。本WGでは、機械学習システムのAI開発者が安全なシステムを開発時するために考慮すべきセキュリティ事項を整理し、セキュリティガイドラインとして整理する。特に、AIセキュリティの専門知識を持っていない可能性のあるAI開発者でも、安全な機械学習システムを開発するための方法も検討する。さらに、海外のAI開発者向けに英語版の作成も進める。
幹事
矢嶋純(富士通株式会社)
久連石圭(東芝)
林昌純(帝京平成大学)
Discordチャンネル