【社内版】「生成AI出力利用ガイドライン」を作ろう。
ChatGPTなどを社内業務に使う場合、以下のような「利用ガイドライン(利用ルール)」を定めてから使う、ということをしないと、社内が混乱してしまうだろう。ということで「AI利用組織ガイドライン版」も作って見ました。時々更新しています。
生成物を生じるAI等を使ったシステムの出力(文脈や構図等の生成物の主要な部分がシステムの発案に依らないものは該当しないとする)は可能な限りにおいて「なぜその出力になったか」を利用者が説明責任を負うこと。
生成物を生じるAI等を使ったシステムの出力(同上)の真偽等について、組織内外の常識、社会常識や学術の一般的知見の成果と一致することを保証すること。保証できない場合、あるいはその保証ができない可能性があると考えられる場合、保証ができるかどうかを判断できない場合は、その旨を必ず表示する文言を当該生成物に付帯表示すること。
生成物を生じるAI等を使ったシステムの出力(文言や画像や音楽等・同上)を組織外に公にする場合は、必ずそれはシステムが作ったもの、あるいはシステムの手が加えられたものであることを付帯して表示しなければならない。また、当該生成物の引用においても、同様の表示がされることとする。ただし、当該生成物の文脈、アイデアや構図等の要素の主要な部分をシステムに頼らない場合は、この限りではない。
生成物を生じるAI等を使ったシステムの出力(同上)は、特殊な場合を除きその著作権はAIを利用した人、あるいは組織に帰するものとする。また、それによって生じたいかなる結果も、組織内・外におけるAI利用者の責任とする。
と、こんな感じになるだろう、と、私は考えているが、どうだろうか。
●なお、最近話題の「社外秘の生成AIへのアップロード」案件は、生成AIでなくとも、組織外部との接触で起きるかもしれない問題の一つであって、おそらく生成AIについてだけの問題ではない。これまでの社外秘情報の扱い規則で十分対応可能と思われる。
この記事が気に入ったらサポートをしてみませんか?