人間以外に関する倫理について、工学(自然言語処理)と倫理学の双方から研究しています。
現在行っている研究トピックは以下のとおりです。
AIが社会に参画していくにあたって、AIが引き起こす様々な問題があります。
例えば、AIが私達の価値体系を理解せず、悪質な振る舞いをしてしまうことがあります(有害な文生成など)。
解決策の一つとして考えられるのは、AI自身に倫理を組み込み、AIが私達の価値体系や規範的な道徳を理解することです。
そこで私は、自然言語処理と倫理学を通じて、AIに倫理を組み込むことを試みています。方法としては、AIに道徳に関するデータを学習させること、またAIから差別的バイアスを取り除くことなどです。
規範倫理学では基本的に人間が道徳的主体として想定されて議論されていますが、動物倫理やロボット倫理、AI倫理などの応用倫理では、人間以外の存在の道徳的地位や、そのような存在との関係のあり方について検討されています。
私は、特定の規範理論に依拠しない仕方と、功利主義という立場に依拠する仕方の両方から、動物倫理やロボット倫理、AI倫理のトピックについて検討しています。
2のテーマとも関わりますが、功利主義という理論に関して、理論的研究、および功利主義を現実の問題にどのように応用できるかを検討しています。功利主義は、帰結主義、厚生主義、単純加算主義などによって特徴づけられるものであり、私はその一部について検討しています。
また功利主義を現実の具体的な問題に応用することを試みています。例えば、2のテーマのように人間以外の存在とのあるべき関係、グローバル規模の貧困問題に関する問題に対する効果的利他主義というアプローチなどを検討しています。