日本哲学会第73回大会でのワークショップ

2014年6月28‐29日に北海道大学で開催される、日本哲学会第73回大会で下記のとおりにワークショップを行いました。

  • 題目:「戦争とロボットについての応用哲学的考察」
  • 司会:神崎宣次
  • 提題者:
    • 岡本慎平「本当にプレデターは道徳的か?――無人戦闘機の道徳性から自律兵器の道徳性へ」
    • 本田康二郎「『アイアンマン』スーツと 軍隊の徳の変容」
    • 久木田水生「ロボット兵器と道徳的行為者性」
    • 佐々木拓「ロボットにはなぜ責任が帰属できないのか」
  • 要旨

ロボットは人間の抽象化されたモデルであり、私たちはロボットについて、あるいはロボットと人間との関わりについて考察することを通じて、人間性や社会的関係の特定の側面に効果的に焦点を当てて探求することが可能である。この方法論に基づいて私たちは現在「ロボットの応用哲学」というプロジェクトを推進している。本ワークショップではそのプロジェクトの一環として、戦争という倫理的に極めて重大な営為におけるロボットの使用についての考察を通じて、道徳性・行為者性・責任・公正性などについて新たな視点を提供することを目指す。また戦争におけるロボットの使用は現在、ロボット倫理においても戦争倫理においても、最も急を要する現実的な問題の一つである。私たちはこのワークショップを通じて、現在進行中のこの議論に貢献すると同時に、より多くの哲学者たちの関心をそこへと引き付け、議論への参加を促すことも期待している。

完全に自動化されたロボットが人間に代わって戦争を戦う。そんなSFのような話が現実になろうとしている。アメリカ国防総省は2015年までに軍の地上車両の三分の一を無人化することを議会から要求された。それを受けて国防高等研究計画局(Defense Advanced Research Project Agency; DARPA)は2004年に「グランドチャレンジ」というロボット自動車レースを開催した。これはカリフォルニアの砂漠に設けられた200キロ超えるコースを、完全に自律的なロボット自動車によって走破させるレースである。2007年には「アーバンチャレンジ」という、都市の中の交通がある環境でのロボット自動車レースが行われ、出場した自動車には速くコースを走るだけではなく、車線の変更、駐車、合流などの課題をこなすこと、そしてカリフォルニア州の交通法規を守ることも要求された。2012年4月にアナウンスされた「ロボティックスチャレンジ」では災害時の救助活動支援のためのロボット技術、2013年10月にアナウンスされた「サイバーグランドチャレンジ」では、ソフトウェアの問題を自動的に探知し解決する「完全に自動化されたネットワークディフェンス」(http://www.darpa.mil/NewsEvents/Releases/2013/10/22.aspx)の技術に関して、同様のコンペティションが行われることになっている。このように民間企業や大学の多くを巻き込むことによってDARPAは、軍事利用できるロボット技術を集約しようとしている。

こういった試みは戦場から人間を取り除き、ロボットに置き換える大きな試みの一部である。アメリカはすでに遠隔操作されるロボットによる爆発物の除去、無人飛行機(UAV)による偵察、情報の収集、爆撃などをイラクやアフガニスタンで行っている。もはやこういったロボットやUAVなしでの作戦はありえないと評価する軍関係者もいる。その一方で軍関係者とロボットメーカー関係者の多くは、人間の監督と命令なしに致死的行動をとるようなロボット兵器が作られることは将来も決してない、と断言する。「人間をループの中にman-in-the-loop」の原則を順守することが決定的に重要だ、と彼らは言うのである。しかしながら逆の意見を同じくらい強く主張する人々もいる。遠隔操作ロボットは人間からの命令を待たなければ致死的行動が取れない。しかし人間の命令を待っていては手遅れになる場合も多くあるだろう。その手遅れによって味方の兵士や市民の命を失うことを防ぐ技術があるのであれば、その使用を控えることの方がむしろ道徳的に問題である。従って自律的殺人ロボットは必然的な次の一歩だ、と。

実際、アメリカ国防総省は2006年、ジョージア工科大学のロボット工学者、ロナルド・C・アーキンに、戦争法規を守り良心的な行動をとることができる軍事ロボットの研究を委託している。その目的は明らかであろう。物資や人員の運搬、爆発物の除去、偵察をするだけのロボットに戦争法規の順守と良心を要求する理由はない。アメリカは自律的に人間を殺傷する兵器の開発に向かっている。そしてそれはアメリカに限ったことではない。イスラエル、韓国、イギリスなどの国々も同様に自律的ロボット兵器の開発に取り組んでいる。

自律型兵器は常に完全に人間と独立に行動するわけではなく、多くの場合、人間とチームを組んで作戦を遂行することになるだろうと予測される(Cf. P. W. シンガー『ロボット兵士の戦争』、第6章)。しかし遠隔操作機や自律型兵器を使った作戦においては人間の認知能力や行動能力がボトルネックになりうる。機械は人間よりも長時間、休むことも疲労することもなく行動することができる。また機械は人間よりも大量の情報を高速に処理することができる。なおかつ機械のこれらの能力は凄まじい速さで進歩するが、人間はそうではない。この問題を解決するための手段が薬物や義肢、外骨格などで人間の能力を増強するエンハンスメントの技術である。さらに兵士と機械の間の円滑な情報のやりとりをするためのインターフェースも重要である。兵士たちは神経インプラントなどのより直接的なインターフェースで遠隔操作機や自律型兵器と結び付けられる。

このままいけば将来の戦争は遠隔操作機と自律型ロボット、そしてエンハンスメントを施された兵士たちからなるサイボーグ部隊によって戦われることになるだろう。アメリカ空軍のテレビコマーシャルのキャッチフレーズを借りれば、ロボットによる戦争が「サイエンス・フィクションではない、私たちが毎日やっていること」になる日が来る。この動きに対しては現在すでに多くの研究者、NGO、市民たちが反対の声を挙げている(Cf. Human Rights Watch, ``Losing humanity: The case against killer robots’’)。しかし上述のように自国の被害を最小限にとどめるという目的のために、これらの技術の軍事利用は積極的に推進するべきであるという意見もある。ここには非常に現実的な道徳的ジレンマがある。このワークショップで私たちは、戦争に利用される無人機、ロボット、エンハンスメントの技術に焦点を当て、そこから道徳性・行為者性・責任・公正性などについて哲学的に考察し、これらの技術の問題点をより明らかにすることを目指したい。

各提題者の発表の内容は以下のとおりである。岡本発表では、無人戦闘機の開発や使用を積極的に推進するべきだと主張する主要論者の一人であるブラッドリー・ストローサーの「不必要なリスク原理(Principle of Unnecessary Risk)」に基づく議論を批判的に検討することで、ロボット兵器の軍事利用の正不正をめぐる哲学的議論の諸相を考察する。久木田発表ではロボット兵器に対する賛否両論を概観し、ロボット兵器を使用するべきであるという主張に前提されている道徳性についての理解がどのようなものであり、それがどのような問題を含んでいるかを論じる。そしてそのことを通じて道徳的行為者性の概念を再検討することを試みる。佐々木発表では、「戦争でのロボット使用に対しては人間のみが負い、ロボットは負わない」という常識的な見解を、「なぜロボットには責任が帰属されないのか」という観点から改めて問い直す。フィッシャー&ラヴィッツァとS・ウルフの間でなされた、理由反応性をめぐる議論をロボットに適用することで、ロボットへの原理的な責任帰属性を否定するのではなく、「責任の免除」という観点からロボットへの責任帰属を考察する。本田発表では兵士のエンハンスメントが戦争のあり方に与える影響を考察する。兵士の力を増強させるには二つの方向が考えられる。一つはロボットの認知能力を身体そのものに取り込むというもの。もう一つはロボットの外骨格を装着した身体能力の増強である。これらはトレーニングなしで屈強な兵士を誕生させる道を拓くことにつながるであろう。そのとき、国民国家における軍人という職業の位置づけは大きく変わる。ここでは兵士のエンハンスメントが引き起こす直接的・間接的な影響を分析してみたい。