Working Group

MLSEは2019年9月より、特定の目的のため年間を通じて活動するWG(Working Group、作業部会)を設置することにしました。

現在では以下のWGが活動しています。各WGの活動に興味がおありの方は、MLSE Discordにある各WGのチャンネルにお越しください。

(チャンネル名は下記の各WG紹介に明記)


機械学習オペレーションWG

MLOps という名のもとに、機械学習の本番環境での運用について、さまざまなプラクティスが大手クラウドベンダーやメガベンチャーを中心として発表されている。一方、機械学習の適用するための環境は非常に多様であり、すべてのプラクティスを画一的に適用することは困難である。たとえば、メガベンチャー以外では機械学習を扱うチームは数名のみであることも珍しくない。また、利用フェーズも実験的な取り組みから本格的な利用までさまざまに広がっている。

現在、それぞれの現場では自分たちの状況に合わせた MLOps のカスタマイズが必要となっているものの、どのようなフェーズが存在し、それぞれのフェーズでどのようなプラクティスの導入を検討すべきか明らかにはなっていない。このため、このワーキンググループでは機械学習の活用におけるそれぞれのフェーズと、それぞれのフェーズで検討すべき事項を明らかにし、標準として提案することを目指す。

幹事

Discord チャンネル

#wg_機械学習オペレーション


AI倫理と公平性WG

近年、MLを活用したシステムの判断に関して、倫理に関するガイドライン(AI倫理)が整理されつつあり、その中でも特に公平性について基礎研究が活発に行われている。しかしながら、AI倫理に関するガイドラインは抽象度が高く、公平性の基礎研究は詳細すぎて、機械学習システムがどのような要求を満たすべきかといったシステム開発における要件との関係が明らかになっていない。

本WGでは、AI倫理や公平性の研究成果とシステム開発の要件との関係を明らかにし、機械学習システム開発者のためのガイドラインをまとめることを最終目標とする。

以下に扱うトピックの例を挙げるが、これらのトピックに限らず議論し適宜ガイドラインに含める。

幹事

Discordチャンネル

#wg_fairness


機械学習システムセキュリティWG

機械学習の判断を意図的に誤らせたり、モデルや訓練データを窃取したりする攻撃の存在が報告され、学会等で盛んに議論されている。これらの攻撃により、金銭的・人的な被害を受ける恐れがあり、機械学習工学の観点で大きな課題となっている。

しかし、これらに対してAI開発者が取るべき対応についてはあまり議論されていない。本WGでは、機械学習システムのAI開発者が安全なシステムを開発時するために考慮すべきセキュリティ事項を整理し、セキュリティガイドラインとして整理する。特に、AIセキュリティの専門知識を持っていない可能性のあるAI開発者でも、安全な機械学習システムを開発するための方法も検討する。さらに、海外のAI開発者向けに英語版の作成も進める。

幹事

Discordチャンネル

#wg_セキュリティ

活動を終了したWG