2025年1月23日に、「第4回メタサイエンス勉強会:生成AIと研究のこれから」と題したオンライン勉強会を開催しました。
開催趣旨(参加者募集時の文面):メタサイエンス勉強会の第4回のテーマは「生成AIと研究のこれから」です。話題提供者として、信州大学医学部助教の樋笠知恵(ひかさ・ちえ)さんをお迎えします。樋笠さんは、医事法・生命倫理学・研究倫理・研究公正を専門とし、近年は生成AIをめぐる研究公正の問題を研究テーマの一つにされています。2024年5月には、自身が主要メンバーとして制作した、(一財)公正研究推進協会(APRIN)のオンライン教材「研究等で適切にAIを活用するために」が公開されました。大規模言語モデルに代表される生成AIは、研究者にとって便利な道具であるとともに、研究という営みに倫理的・法的問題をもたらしうる正負両側面を持つ技術として日々多くの議論がなされています。本勉強会では、改めて生成AIの研究利用をめぐる研究公正・研究倫理・法的課題等の論点を概観したうえで、生成AIが研究コミュニティにどのような問いを突き付けているのか、そして、「メタサイエンス」の諸学問にとって何が関心事になりうるのかといった観点から、幅広く議論できればと思います。後半では、参加者の皆様が従事する研究領域において、どのように生成AIを活用しているか/今後活用できると考えられるか/感じている課題は何か等を共有いただき、分野間の違いに焦点を当てた検討をする予定です。一歩引いた視点から「生成AIと研究のこれから」について考えてみたい方のご参加をお待ちしています。
開催日時:2025年1月23日(木)15:00~17:00
開催方法:オンライン(Zoom)・無料
プログラム:
企画者から開催趣旨説明
樋笠知恵 氏(信州大学医学部公正研究推進講座 助教(特定雇用))話題提供 「研究における生成AI利用に関する法的課題と研究公正」
野内玲 氏(広島大学 高等教育研究開発センター准教授、メタサイエンス研究会主催者)「生成AIは研究という営みに何を問いかけているのか」
一般議論
主催:広島大学高等教育研究開発センター
共催:メタサイエンス研究会、広島大学共創科学基盤センター
参加人数:20数名(オンライン)
第4回メタサイエンス勉強会では、「生成AIと研究のこれから」をテーマに、有識者による講演と参加者を交えたディスカッションを行った。
樋笠知恵氏(信州大学)の話題提供では、研究における生成AIの利用に関して「法的課題」と「研究公正」の観点からの俯瞰的な論点整理が行われた。
「生成AIの法的課題」については、(1)プライバシー権の侵害、(2)差別・不平等の問題、(3)盗用・著作権侵害、(4)信頼性(誤りのリスク)を中心に取り上げ、憲法に定められた人権や、著作権法上の権利と関連する生成AIのリスク、とりわけ研究での利用におけるリスクについての整理がなされた。著作権侵害のリスクに関しては、生成AIを用いた文章においても、これまで通り、著作権法における「引用」の要件(引用箇所の明瞭区別性、主従関係、出所の明示)をみたすことが求められ、盗用のリスクについては著作物のみならず「アイディア」も対象となることに注意が必要であると付け加えた。仮に生成AIの利用によってこれらの要件をみたせないケースがでてくるのならば、引用を伴う文章生成を生成AIに完全にゆだねることは当然できない。そして、このようなケースに限らず、「人間がやればできていたことが、生成AIを使うことでできなくなる」ことは望ましくなく、生成AIは人間ができることを拡大するために使われるべきだと樋笠氏は強調した。
後半では、「研究者、あるいは研究者コミュニティとAIの関係」について、樋笠氏の専門である医療関連の法との類比が行われた。医師法17条では「医行為をすることができるのは医師のみ」であるとされており、AIによる画像診断支援との関係については、現時点ではAIはあくまでも補助ツールであり、診断(最終的な判断)は医師のみが行い、またその責任も医師が負うと考えられている。また医療過誤訴訟において主な争点となる「過失」は、医療水準から逸脱したかどうかで判断がなされるが、このようないわゆる専門家としての「水準」が研究者にも求められるのではないかとの指摘がなされた。具体的には、研究者には文部科学省によるガイドラインで規定されている通り「研究者としてわきまえるべき基本的注意義務」を著しく怠らないこと(=重過失のないこと)が求められており、「重過失」の有無は、その時代における「研究に関する常識」と関係するはずだとし、現段階では「生成AIはあくまで補助ツール」であるというのがここでの規範だろうと見立てる。
そのうえで、研究者が論文発表や外部資金獲得へのプレッシャーを感じ、かつ研究時間の確保が難しい状況が研究不正の動機となっている現状で、効率よく論文執筆を助けてくれる生成AIは「研究者に親和性が高いツール」になっていると指摘。こうした状況が、研究者に不合理な行為(不正行為)を選ばせることにつながりうるという認識が重要である。
最後に樋笠氏は、将来的に(生成)AIが研究のすべての工程を行うことも想定できるが、そのような場合に、「研究とは誰のものなのか」、また研究に伴う「探究心やロマン、課題解決・社会貢献の喜び」といった、人間しか持ち得ない感情の部分を、どのように「研究」という概念の中に組み入れていくのか、という問いを投げかけた。
続く野内玲 氏(広島大学)からの話題提供では、ChatGPTが普及した2023年に起こった様々な生成AIの研究利用のインシデントが紹介された。野内氏は生成AIの不適切な利用によりのちに論文が撤回(retract)された事例を「生成AIによる烙印」と呼び、生成AIを使った痕跡を消し忘れている事例、データにAIが使われた事例、参考文献の調整ミス、実験画像の改ざん等の実例が紹介された。
各学術雑誌の規定は、細部には違いがあっても、基本は「人間の著者が責任をとるべき」というもの。そこで野内氏は、生成AI以前からも論文の責任の問題、とくに「オーサーシップの透明性」の問題はあり、特段新しい問題ではないと指摘する。たとえば、伝統的に単著執筆が多い人文系の分野では、論文執筆に関わったにもかかわらず著者とされない「隠れた貢献者」問題があるという。生成AIの研究利用はこうした旧来の問題に改めて光を当てるとともに、さらに未来には人間が介在しなくても行える研究のプロセスが増えたときにどのように学術研究が変わっていくのかという点もメタサイエンスの重要な論点になると指摘した。
総合討論の時間ではまず、参加者から事前に集めた「研究活動等における生成AIの利用状況や問題意識」に関するアンケート結果の共有がなされた。生成AIを毎日利用する人から、ほとんど使わない人までおり、分野や業種によっても有用性が異なるだろうことが確認された。
ディスカッションのなかでは、以下のような多彩なコメントが聞かれた。
【今後も「論文」というフォーマットは続くのか】
もはや、共同研究者とZoomで議論した動画のアーカイブがあれば、AIが一本の論文に仕上げてくれそうな感覚もあるなかで、研究の「プロセス」だけが保存され「アウトプット」は二次的なものになっていくのかもしれない。
研究工程のどの部分が「好きか」も人による。論文を書くのが好きな人もいれば、そうでない人もいるだろう。
【生成AIの問題に誰が、どう対応するか】
AIの開発側の責任も重要。とりわけ、生成AIに対する正しい理解を促す役割は開発した企業側にあるだろう。
研究不正に常習性のある人はおり、必ず悪用されるという前提で考える必要がある。
【シチズンサイエンスへの影響】
AIは職業研究者以外が研究に参入するハードルを下げる。そのため、それをチェックする側の研究者コミュニティと、参入したい市民科学者の間で緊張が生まれるかもしれない。
研究者の役割は、研究者の役割は質を担保する「ゲートキーパー」に近くなっていくのかもしれないという意見に対しては、「しかしそれでは夢がない」というコメントも聞かれた。この議論から垣間見られたように、生成AIは「研究とは何か」「何のための研究なのか」「誰が研究者なのか」という、研究公正の議論の前提を流動化させる作用を発揮しているように思われる。樋笠氏は、研究コミュニティが学会等の単位で主体的にこうした議論を行うこと、一方で「研究コミュニティ」に閉じて議論を行わないことの重要性を指摘した。