JDLA(日本ディープラーニング協会)が、「生成AI利用のガイドライン」を発表しました。
企業など組織がChatGPTなどの生成AIを利用する際のガイドライン作成に役立つ内容です。
【目次】
- 「生成AIの利用ガイドライン」の目的
- 以下、ガイドラインのポイント
- ① 禁止用途を決めましょう
- ② データ入力の注意事項を決めましょう
- 第三者が著作権を有しているデータについて
- 個人情報の入力について
- ③ 生成物の利用における注意事項を決めましょう
- 虚偽情報を生成する可能性
- 生成物の利用によって誰かの権利を侵害する可能性
- その他 注意点
- 最小限のガイドラインであること
- ガイドラインはバージョン1.0であり、今後のアップデートも想定していること
- 生成AIツールごとの利用規約やポリシーを遵守する
- おわりに
「生成AIの利用ガイドライン」の目的
今回発表されたガイドラインは、民間企業やその他の組織が生成AIを利用する際に、組織内で決めておくべき項目を紹介しているものです。
それぞれの組織がガイドライン作成するにあたって、このガイドラインをひな型として活用することを想定して作成されました。
以下、ガイドラインのポイント
① 禁止用途を決めましょう
利用を禁止したい用途がある場合に記述しましょう。
たとえば、大学などの教育機関においては、生成AIで生成した文章をそのまま論文やレポートとして提出することを禁止することが想定されます。
② データ入力の注意事項を決めましょう
以下の項目について注意し、理解しましょう。
第三者が著作権を有しているデータについて
他人の著作物を生成AIに入力すること自体は著作権侵害には該当しません。
ただし、入力ではなく、出力(つまり生成)されたものが、既存の著作権物に類似している場合にはリスクがある点に注意すべきです。
個人情報の入力について
たとえばChatGPTにおいては、入力したデータがAI学習に利用されることになっており、ChatGPTに入力することは原則として禁止すべきです。同意の上ならば良いでしょうが、その同意を得ることは難しいでしょう。
同じ意味において、自社の機密事項および他社から秘密保持契約を締結した上で取得した情報を入力することも禁止すべきでしょう。
③ 生成物の利用における注意事項を決めましょう
虚偽情報を生成する可能性
LLM(大規模言語モデル)が生成する情報は正確性を担保しません。明確な根拠も教えてくれません。
そのため、生成された文章には虚偽の情報が含まれる可能性があることに注意し、適宜ファクトチェック等をおこなうべきです。
生成物の利用によって誰かの権利を侵害する可能性
生成物が他社の著作権侵害、商標権・意匠権侵害になってしまう可能性があることに注意して利用しましょう。
その他 注意点
最小限のガイドラインであること
JDLAは、このガイドラインはあくまで最小限の項目を並べたのみであり、それぞれの組織や業務、生成AIツールによって策定すべきガイドラインは異なるため、その点はしっかりと熟考すべきです。
ガイドラインはバージョン1.0であり、今後のアップデートも想定していること
本ガイドラインはバージョン1.0であり、今後のフィードバックをもとに改善を予定しているとのことです。
生成AIツールごとの利用規約やポリシーを遵守する
以上では一般的な内容について記述しましたが、各種生成AIツールによってお異なるポリシーが策定されていることが多いです。
そのため、利用するツールのポリシーをよく理解し遵守することが重要です。
おわりに
以上、生成AIガイドラインの要点を紹介しました。
社内・学内等でガイドラインを作成する際にご活用ください。
ガイドラインの資料のダウンロードはこちらで可能です。
また、総務省や文部科学省もそれぞれ生成AI利用のガイドライン作成を検討しているようですので、要ウォッチですね。
参考↓