生成型AI利用に関する研究室ポリシー

卒業研究・修士研究・博士研究 共通

基本方針

本研究室では、生成型AI(ChatGPT、Claude、Gemini、Copilot 等)を研究活動の補助ツールとして積極的に活用することを推奨する。

生成型AIは研究効率を高める有用な道具である。ただし、それは研究者の思考や判断を代行するものではなく、研究の主体と責任は常に研究者本人にある。

利用を認める範囲

生成型AIは、以下の補助的用途において利用できる。

  • プログラミング補助(文法確認、雛形生成、デバッグ支援等)
  • 文章表現の改善、英文校正の補助
  • 文献探索や要点整理の補助
  • 図表作成やデータ整理の補助
  • アイデア整理のための対話的利用

不適切な利用

以下の行為は研究として認めない。

  • 理解していないコード・理論・文章をそのまま提出すること
  • 実験設計や考察を生成型AIに丸投げすること
  • 出典確認を行わずにAI生成内容を引用・転用すること

研究成果として認める条件(最重要)

生成型AIを利用した場合でも、次を満たすこと。

  • 研究の主要部分(手法・理論・評価指標)を自分の言葉で説明できること
  • コードの重要部分を自ら修正・拡張できること
  • 実験結果を再現し、妥当性を説明できること

説明・修正・再現ができない成果物は研究成果として認めない。

オープンサイエンス方針との関係

本研究室は成果物の公開(OSS化、arXiv投稿等)を推奨する。生成型AIへの入力については、原則として公開可能な情報を対象とする。ただし、以下に該当する内容は例外である。

  • 共同研究契約(NDA等)に関わる情報
  • 個人情報や未匿名化データ
  • 査読過程にある原稿やコメント
  • 外部組織から提供された非公開資料

公開前の資料を外部の生成型AIサービスへ入力する場合は、必要に応じて指導教員と確認すること。

利用の透明性

生成型AIを利用した場合は、進捗報告等に簡潔に記録すること。

  • 使用したツール名
  • 利用目的
  • 採用した範囲

論文・国際会議・論文誌等において生成型AI利用の開示が投稿規定や倫理規定として求められる場合は、その要件に従う。

責任の所在

生成型AIの利用有無にかかわらず、研究成果の内容については著者が責任を負う。

学生は、自らの成果物について正確性・再現性・引用の適切性を説明可能でなければならない。

また、指導教員は研究指導および監督の立場として、研究の妥当性・再現性・倫理性を確認し、必要な指導を行う責任を負う。

本ポリシーは、研究の質と健全性を維持しつつ、生成型AIを健全かつ効果的に活用するために定める。