2024年9月26日
東京大学大学院新領域創成科学研究科 情報システム委員会
生成AIの活用を推進するために、全学において規則やポリシーの整備が進んでおり、生成AIに関するノウハウが共有できる環境の整備や、より高度な生成AIサービスを導入の検討も進められている。一方で、クラウドサービスとして提供されている生成AIの活用が進むとともに、知識不足等により意図しない情報漏洩が発生するなどのリスクが想定される。このため、研究科構成員が適切に生成AIを利用する上で配慮するべき事項をまとめる。
1. 基本的な考え方
生成AIは新しいサービスであり、個々のサービスで定められた注意事項をよく確認すること。
秘密情報、個人情報等を生成AIサービスに入力する場合は、提供したデータを学習に使用しない生成AIサービスを利用すること。
生成AIの出力結果には誤りが含まれている前提で利用すること。
本資料の参考のリンク先の情報をよく理解したうえで、生成AIを利用すること。
2. 注意を要する使用例
(情報の保護が不十分な例)
投稿前の論文をオンラインの文法チェックサービスにより校正する。
論文執筆や学会発表のために、未発表の研究資料を翻訳する。
ゼミにおける研究室メンバーの発表の理解を深めるため、発表を録画・アップロードして字幕を付ける、翻訳する、レジュメを作るなどの操作を行う。
学生のレポートの形式チェックを行う。
データが学習に利用されるサービスに未発表の情報を入力する。
(不適切な利用例)
生成AIによる生成物をそのまま講義におけるレポートや論文として提出する。
当該特定の個人又は集団に対して通知することなく、生成AI等による個人や集団の評価を行う。
3. 参考
東京大学における生成AI利用に係るセキュリティガイドライン(2024年3月12日)
※閲覧にはUTokyo Accountでのサインインが必要です