各研究内容の詳細は、上記パンフレットにてご確認いただけます。
人工知能(AI)、特に生成AIの利用は、社会に変化をもたらしていることは確かである。しかし、その変化は、人間社会から、確認や監督、検証といった慎重さを保つための視点を減らすものとなるのではないのか、ということが問題となる。様々な手続を、人間社会において、AIに代替させることのリスクについて、しっかりと検証したうえで、導入すべきではないのだろうか。そういった視点を、私たちの研究グループでは「AIの悪」を検討するときに、共有してきた。
とくに、AIの利用が利便性を人間社会にもたらす一方、バイアスや監視、誤判定、不透明性、差別、濫用といった「悪」やリスクが増大していることは、よく指摘されている。
そのなかでも、特に行政・司法・立法の各領域において、AI活用がどのような課題や影響をもたらすかについては、慎重な検討が必要ではないだろうか。
AIのリスクとしてまず指摘されるのがバイアス(偏り)による差別的な判断である。また、AIの誤判定や悪用による被害も現実化している。生成AI技術の発達により、ディープフェイクと呼ばれる偽造画像・動画が容易に作成され、他人の名誉やプライバシーを侵害する事件が相次いでいる。こうした事態を受け、日本政府もディープフェイクポルノを含む有害な生成物への厳正な対処と対策の強化を打ち出している。このように、AIの「悪」は多岐にわたり、その社会的影響は無視できない規模に拡大しつつある。
日本のAIガバナンスは、これまで個人情報保護法や著作権法の部分的改正、各府省庁によるガイドライン整備など、ソフトロー中心の枠組みに依拠してきた。このソフトロー偏重を補完するため、2025年には日本政府として初めて包括的なAI政策法である「AI推進法」が閣議決定され、研究開発・利用促進およびリスク対策の基本理念が法定化された。しかし、同法はEUAI法のような詳細かつ拘束的な遵守義務を民間企業に課すものではなく、依然として事業者の自主的取組に大きく依拠する構造が維持されている。
本研究グループは、2023–2025年にかけて実施した社会調査・比較法研究・政策分析に基づき、日本のAIガバナンスが抱える課題を明確化し、その克服に資する自主規制基準案を提示することを目的とする。
自律的AIエージェントと、それが代理している本人とは1対1の関係にある。自律的AIエージェントが本人に代わってタスクを処理したり、購買などの契約を自律的に行ってくれると、本人の情報処理の負担が軽減される。
しかし、本人の能力強化のために1人が複数の自律的AIエージェントを操る場合には、本人が全自律的AIエージェントを常時監督することは実質的にかなり難しい。以上のように考えると、自律的AIエージェントの自律性が必要となる場合が多い。よって、以下では自律性のある自律的AIエージェントについて考察する。
筆者は、企業法務弁護士としてAI実務に従事すると共に、「サイバーフィジカル空間に顕在する「悪」とAIの「悪」に関する立法課題と対応するガバナンスシステムの研究」( AIの悪研究 (略称))の研究参加者として研究に従事している。筆者は、実務書として『生成AIの法律実務』(注:松尾剛行『生成AIの法律実務』(弘文堂、2025年))や、『ChatGPTと法律実務』(注:松尾剛行『ChatGPTと法律実務』(弘文堂、補訂版、2025年))等を執筆し、その中で、この問題意識に関する筆者の検討の一端を示してはいるものの、以下では、筆者のAIの悪研究の一部を簡単にご紹介したい。
本稿では、人工知能(AI)が普及することによって生じるリスクに対する一般市民の認知に関する調査の結果を紹介する。新技術を利用した製品やサービスを、エンドユーザーとなる市民が安心して使えることは、その技術が実際に社会の中で活用されるために必要な条件である。技術的な発展によって安全性を高めることはもちろん重要だが、一方で市民の安心は技術的な観点での安全性と完全に対応するとは限らない。市民がどのようなリスクを認識しているかを明らかにすることで、AIの社会的受容を促進する方策を検討しやすくなると期待できる。
そこで筆者らは2024年12月、日本在住の成人男女(n = 1,000)を対象としてウェブ調査を行った。
近年のAIの発達は、私たちの生活を大きく変えつつある。自動運転や画像診断など、これまで人間による作業や判断がなされてきた領域でもAIが活用されるようになっている。必ずしも利用者に自覚されない形で実用化されている技術も多いが、AIの利用に関するリスクとベネフィット、そして責任を、一般のユーザはどのように認識しているのだろうか。現時点において、一般のユーザはAIについてどの程度理解しているのだろうか。また、そうしたリスク・ベネフィットの評価は、AIに関する知識とどのように関係しているのだろうか。
AIに関する人々の認識は、AIに関する法制度とそれに対する理解を考えるうえで重要である。本報告では、2023年12月および2024年12月に実施したウェブモニタ調査によって、AIに関する世論の現状を把握することを目的とする。2024年12月には、AIとのかかわりが予想される職種(ITエンジニア、プログラマ、IT関連企業勤務、一般企業のIT関連部門勤務、クリエイター)を、
なお、本報告は、2025年5月に開催された人工知能学会でのポスター報告原稿に加筆修正したものである。また、本研究プロジェクトでは、2025年11月末にも共通の項目を含むウェブモニタ調査を継続的に実施しており、この調査結果については後日報告したい。
AIによってもたらされている「悪」は、非常に広範にわたる。特に、サイバー空間におけるさまざまな情報と現実空間における人々の行動とが融合するサイバーフィジカル空間が本格的に構築されようとしている現代においては、そのような「悪」が発現しやすい状況が発生している。
一般的な道徳的主体は、道徳的原理に反応して選択や行為を行い、責任を負う存在である。しかし、現在のAIは精神や意識を持たない「弱いAI(weak AI)」であり、単に利用者の指示に反応しているにすぎない。例えば、自動運転車が乗客を守るために歩行者を撥ねたとしても、その「悪さ」は技術的な巧拙に関するものであり、道徳的な善悪とは関係ない。したがって、AIは道徳的な悪であり得ず、倫理的な問題を指摘するならば、その対象はAIを設計した製造者になるべきだろう。
匿名・流動型犯罪グループ(トクリュウ)等によるSNS型詐欺(SNS型投資詐欺及びSNS型ロマンス詐欺)が,深刻な被害を引き起こしている。警察庁によれば令和6年の被害額は1200億円を超え,令和7年上半期の被害額も600億円に迫り,対策は急務である。警察庁の整理によると,SNS型投資詐欺は,「SNS等を通じて対面することなく,交信を重ねるなどして関係を深めて信用させ,投資金名目やその利益の出金手数料名目等で金銭等をだまし取る詐欺(SNS型ロマンス詐欺に該当するものを除く。)」とされている。
AIは、さまざまな良い効果をもたらすとともに、さまざまな悪い効果を社会にもたらしている。AIは個人に最適化された便利なサービスを提供するとともに、業務の効率性を高めてもいる。また、AIには、適切な判断や回答をすることにより、人々が悪い選択肢を選ばないようにすることも期待されている。一方、AIは、個人のプライバシーを侵害したり、差別的な判断をしたり、利用者の心理を操作するといった悪をもたらしている面があることも否めない。
AIによってもたらされる「悪」は、著作権法に関わるものが多い。
特に、著作権で保護されているコンテンツについて、無断AI学習や生成AIによる出力が著作権侵害に当たらないのか、という点をめぐって議論が絶えず、それはときに激しい反発や炎上を引き起こしている。
2022年頃から顕在化した生成AIをめぐる議論は、当初、1~2年で沈静化して時代遅れのテーマになるかと思いきや、2026年になっても衰えを知らず、むしろさらに新しいAIサービスの発展を受けて、対立は先鋭化する一方のようにさえ見える。我々は、AIの「悪」と言われるものが一体いかなる意味で問題であり、これにどのように対処すべきなのか、長期的・国際的・巨視的な観点で不断の考察を続ける必要がある。当研究グループの活動は現在そのまっただ中にいるが、以下では、2025年11月現在のスナップショットとして、著作権法上の課題のうち特に重要なものについて最新状況を記しておこう。
近年、大規模言語モデル(Large Language Models: LLMs)の発展に伴い、ChatGPTをはじめとする生成AIの活用が急速に拡大している。キーワード検索中心の利用から自然言語による対話へと移行するなかで、ユーザが入力する文章(プロンプト)は、生成される回答の品質を左右する重要な要素として認識されつつある。ユーザは、こうした対話的なプロンプトのやり取りを通じて、説明文や要約文の生成、英文の校正、さまざまな提案など、最終的に求める生成結果を得ている。このように得られた回答がさまざまな状況で利用されることを踏まえると、自由記述式のアンケートやレポートもLLMによって生成された可能性があり、提出された文章が必ずしもユーザ自身の記述であるとは限らない。すなわち、ユーザが実際に入力しているのはプロンプトであり、最終的に得られる生成文に至るまでのプロンプトとの相互作用こそが、ユーザの実質的な記述行為とみなされる。したがって、LLMに入力されたプロンプトを分析することは、ユーザが実際に行っている記述や生成過程を適切に捉える上で重要である。
そこで、本研究では、ユーザがLLMに入力するプロンプトに焦点を当て「ChatGPTのリンク共有」機能を活用することで、ChatGPTに対するユーザのプロンプトおよび出力結果の分析を行う。具体的には、プロンプトの特徴(文字数、入力回数、記述方法など)を明らかにするとともに、ユーザがChatGPTの結果をどの程度信頼しているのかについても明らかにする。