見出し画像

“International Draft Guiding Principles for Organizations Developing Advanced AI systems”に関する意見

AI広島プロセスに関する原則ドラフトについて、科学技術・イノベーション推進事務局殿から意見募集がなされた。

10月30日には、外務省から「広島AIプロセスに関するG7首脳声明」が公表され、ドラフトではなくなっているが、原則11については10/30声明にも言及しつつ、意見を提出した。

https://www.mofa.go.jp/mofaj/ecm/ec/page5_000483.html

導入文

安全、安心、信頼できるAIを世界に普及させることに賛成。
安全、安心な製品のものづくりは日本企業の得意とするところであり、AIを組み込んだ多様な製品開発がなされることを期待している。デジタル化ということではなく、対面の会話について自動翻訳や、共感し合えたことや合意したことを自動記録するなど、電卓のような気軽なデバイスの開発により、アナログの知能化も推進できる。

人間中心主義に賛成する。すべての判断において、人間を中心としているかどうか検証すべきである。例えば、人間中心の安心、安全な社会では、AIは人間の仕事を奪うのでは無く、人間一人ひとりに最適な仕事を提案するような存在にならなければならない。

3 透明性

・学習対象や学習プロセスに関する透明性の確保は、生成AIが社会に受け入れられる(ソーシャルライセンスを受ける)ためにも重要である。
・透明性報告書では、次の開示事項を含めるべきである。

3-1 コンテンツ利用の価格形成に関する現状やポリシー(コンテンツ学習・利用ポリシー)を取締役会で定め、公開すべきである。社外取締役の付帯意見をつけることが望ましい。

 このコンテンツ学習・利用ポリシーでは、次の項目についてポリシーを定めるべきである。
(1)学習への対価(イニシャルペイ)の有無、
(2)生成AI出力に応じたランニングロイヤリティの有無、
(3)海賊版を学習するかどうかの原則、
(4)学習版を学習してしまった場合の対応方法のポリシー、
(5)海賊版を学習したことの指摘を受ける窓口の有無や対応方法、
(6)ユーザーが追加学習する方法や範囲、
(7)基盤モデルのための学習、および、追加学習について、著作権者や著作者の「学習されない権利」の尊重状況やオプトアウトの方法
(8)次に該当する場合、その理由。8-1海賊版を学習している、8-2スクレイピングやストックサービスから学習する際にオプトアウトを認めていない
(9)国連が定める安全保障に関する対応方針
(10)知的財産権に関する警告書の宛先、訴訟対応窓口
(11)ユーザーが著作権侵害やディープフェイク拡散等をした際にAIシステム企業として法的責任の問合せを受ける窓口

3-2 AIシステムの情報処理の総量

(1)電力消費量
(2)標準的なGPU | CPU換算での処理総時間
(3)ユーザーへ出力した文字数、画像数

3-3 価格形成の現状

(1)コンテンツ所有者(著作者、著作権者)への学習に対する支払額(イニシャルペイ)の金額分布
(2)コンテンツ所有者へのランニングロイヤリティの支払額の金額分布
(3)AIシステム利用者から支払いを受けている利用料
(4)電気代
(5)サーバー使用料、購入費を含む管理料
(6)支払った税額
  

5 AIシステムを強力に推進していくための高性能なブレーキとして、プライバシーに関する研究や制度化を深めるべきである。

 人間中心の安心、安全な社会では、AIによって根拠なく人間にとって重要なことを決定されてはならない。これもプライバシーであり個人情報保護である。
 各国で保護水準や制度化が異なるが、リスクベースのフレームワークを並行して開発し、一律の規制と、リスクアペタイトな経営や開示を促す開示ルールとの少なくとも2つの柱があると良い。
 プライバシーとAIに関する開示では、統合思考による価値創造を中心においた開示が望ましい。現在IFRS財団の所有となっている<IR>フレームワークの活用である。

7 電子透かし

 賛成する。AIシステム企業のみならず、生成AI出力を販売する事業者AI生成物販売事業者の登録制度を設置できると良い。
 電子透かしで生成AI出力であることを特定できても、その販売事業者を特定できなければ、安全保障上も、訴訟提起にも、生成AI出力に関する権利帰属主体としても不明確となり、社会的な生産性が低くなってしまう。自動車のナンバーやドローンの登録制度に類似する登録制度や、一定期間で更新する資格制度に関連した登録制度としても良い。

9 開発対象

 高度なAIシステムの開発対象を例示することは、人間中心で安心、安全な未来を創り出していくために有用であり、賛成する。
 各国や各地域によって、社会課題は異なるため、国連から家庭まで様々な集まりでの対話が望ましい。
 内閣府が開発した経営デザインシートは、現状の分析との関係で未来像を描く際に有用であるため、安心、安全にAIを活用する未来の社会を構想(デザイン)する際に、幅広い人々や組織に活用いただくことが望ましい。

11 著作権


・ドラフト案は大変に素晴らしい。3つの文に分解して仮訳すると、次のことを述べている。

11 データ入力に対する適切なコントロールと監査の実施
組織は、AIのライフサイクルすべてにわたって、適切な予防策の実施を約束(コミット)すべきだ。
特に(機械)学習の前を含む全過程において、個人データの使用や、著作権で保護されるコンテンツを含む知的財産権の保護がある素材の使用に関して、予防策の実施を約束すべきだ。
さらに、(生成AI)モデルに有害な能力をもたらす可能性のあるその他のデータについても、予防策の実施を約束すべきだ。
学習対象のデータセットの適切な透明性も要求されるべきであり、組織は適用可能な法的枠組みを遵守すべきだ。

ドラフトの原則11について、文章を3文に分解して鈴木健治仮訳

 特に、「学習の前を含む全過程において、著作権で保護されるコンテンツを含む知的財産権の保護がある素材の使用に関して、予防策の実施を約束すべきだ」という原則は大変に素晴らしい。
 日本が議長国として、このような内容の原則を国際社会に向けて発信できることは、大変に誇らしい。関係各社には深く感謝申し上げます。
 しかし、ご承知の通り、広島AIプロセスに関するG7首脳声明は、10月30日付けで、(AIシステム)「組織は、著作権で保護されたコンテンツを含め、プライバシーや知的財産に関する権利を尊重す るために、適切なセーフガードを導入することが奨励される。」という文章で確定した。
 重要なことの1つは、「学習の前を含む全過程において、」という条件が削除されたことである。学習がなにより重要であり、学習との関係で著作権が保護されるよう、奨励をきっかけに、予防策の実施への約束など、より実効性の高い仕組みの導入を目指して国際的なリーダーシップを発揮いただきたく、願っております。

 特に、日本がこの点の国際的リーダーシップを発揮するために、国内法の法改正が必要であれば(例えば、著作権法30条の4)、法改正すべきで、現行法を変えないことにこだわる必要は無い。現行法よりも、国際的な制度の調和や、日本のリーダーシップが重要と考えます。

この記事が気に入ったらサポートをしてみませんか?