AIはとても賢くなったけど、「人にとって本当に使いやすいか」は、まだ課題が多くある
私たちは、AIと人が無理なく協力できる仕組みを研究している
研究が目指していること
AIの判断を、人が理解・納得できるようにする
人の意見や気持ちを、AIが無視しないようにする
AIが人の代わりに決めすぎない仕組みを作る
社会で安心して使えるAIを実現する
― 高齢者の「声」を、ちゃんと拾うために
高齢者の中には、自分の気持ちや希望をうまく言葉にできない人も多い。私たちは、そうした「言葉になりにくい考え」をAIがわかりやすく整理する方法を研究している。
AIが「代わりに決める」のではなく、「考えを引き出す」ことを目指す。
カナダの研究所と連携中
National Research Council Canada
高齢者の発言や会話を、AIが整理・要約する
迷いや本音を、わかりやすい形に変換する
医療や介護の現場で、意思決定を助ける
声を出しにくい人の意見を守るAI
― 話し合いを支える技術
紛争が続く国や地域では、話し合いの場があっても、本音を言えない人が多く存在する。
意見をまとめる「調整役」はとても重要ですが、人だけに任せるのは難しい場面もある。
AIが結論を決めるのではなく、「話し合いが成り立つ環境」を作るAIの実現を目指す
京都大学と連携中
話し合いの流れを整理する
強い意見だけが支配しないように調整する
意見を言い出せない人の考えを拾い上げる
― 学びを支える技術
AIは正しい答えを出せても、「なぜそうなったのか」を説明できないことがある。教育の場では、それでは十分ではない。
私たちは、AIの説明内容が人に理解できるように伝える方法を研究している
東北大学、電気通信大学などと連携中
なぜその答えになったのか
どこで間違えやすいのか
別の考え方はなかったのか
その他:LLMを用いた研究や自動交渉など
人間とコンピュータ・人間同士の交渉を支援・代行し、個人効用・社会的効用を最大化する研究になる。自動交渉の研究では政策決定などの論点が非常に多いケースを想定している。それぞれの論点が相互関係を持つ(非線形効用関数)ような複雑な交渉問題、もしくは交渉参加エージェント数が多い場合のための自動交渉機構、プロトコルの研究などが対象になっている。