『絵と図でわかるAIと社会-未来をひらく技術とのかかわり方』
技術評論社
2021/05/21
【江間有沙氏・特別インタビュー】AIを考えるとは、住みたい社会を考えること -AIと社会のこれから
# 記事
UTokyo BiblioPlaza
# 紹介文
UTokyo BiblioPlaza
# Book overview English
『日本科学未来館「きみとロボットニンゲンッテ、ナンダ?」展公式ブック解説』
日本科学未来館
2022
ロボットとのかかわりで考える「新しい命」のカタチ(pp.74)
きみとロボット ニンゲンッテ、ナンダ?
# サイト
『WIRED』vo.43
コンデナスト・ジャパン
2021/12/13
「AI倫理」を実装するのは誰?(いかにして?)(pp.20-21)
「AI倫理」を実装するのは誰?(いかにして?):江間有沙──「THE WORLD IN 2022」 AI GOVERNANCE
# 記事
『まるわかり!AI開発2019人材戦略』
日経BP
2018/10/17
AI兵器開発を巡り揺れた韓国名門大、KAISTスキャンダルの教訓(pp.150-153)
AIと倫理に一石、シンガポールの戦略(pp.154-159)
AIを排除や差別の増幅器にしないブラジルの国際会議で議論白熱(pp. 160-164)
“Superhumanity: post-labor, psychopathology, plasticity”
Actar Publishers, MMCA (Museum of Modern & Contemporary Art, Korea) & e-flux English
2018/03
Tasks and values(pp.48-53)
Tasks and Values
# 記事 English
『日経コンピュータ』2018年2月15日号
日経BP
2018/02/15
AIを排除や差別の増幅器にしない:ブラジルのAIシンポジウムで議論白熱(pp.68-71)
『日経ビッグデータ』11月号
日経BP
2017/11/15
AIの恩恵を最大化し、価値を再定義する:世界で加速する倫理に関するガイド作り(pp.12-13)
The Role of Education and Science in the Digital Age
# Panel discussion English
2025/03/17
Paris-Saclay Summit
Surveillance, sovereignty, work: can artificial intelligence be ethical?
# Panel discussion French
2025/02/12
東大教授たちと考えるELSI/RRI
2024/07
AI and Creativity (Tokyo College Roundtable)
2024/06
【オンデマンド配信】東京大学ホームカミングデイ 「QuizKnockと探る!未来ビジョン」#2
2022/10
AIの活用が広がりその影響力が増す中で、組織や個人はAIの誤作動やバイアス、規制の不一致や誤情報といったさまざまなリスクに直面しています。こうした課題に対応するには、単なる技術知識だけでは不十分です。
このコースではAIのリスク、ガバナンスモデル、そして責任ある活用について解説します。実例をもとにAIの失敗パターンの見極め方や、説明可能性の課題とデータプライバシーのリスクの評価方法、重要な意思決定における人間の関与の保ち方を説明します。またAIを使うべきでない場面を見極める力や、国際的なガバナンス基準に照らしてAIシステムを評価する視点も学びます。(「コース詳細」より引用)
As AI systems become widely deployed and increasingly influential, organizations and individuals face growing risks—from model failures and bias to regulatory conflicts and misinformation. Understanding how to navigate these challenges requires more than technical knowledge.
In this course, get a practical, globally informed overview in AI risks, governance models, and responsible use. Using real examples, you'll learn to recognize failure patterns, assess explainability gaps and data privacy risks, and maintain human oversight in high-stakes decisions. Along the way, develop the literacy to know when not to use AI tools and how to evaluate AI systems against global governance standards. (From “Course Details”)