創造者として生成AIを認められるか

プロンプトエンジニアリング(Wikipedia参照、筆者解釈):複数ステップからなる問題に対して最終的な答えに至る一連の中間ステップ(推論)を生成するよう生成AI(以降、G-AI)に促す

同じ文面で G-AI に 指示 を出して、全く同じ推論 が 毎回出力されるか・・・・。つまり、創作者が G-AI を使って、創作を行った証左 遡及調査 ができるか、という問題。

ビッグデータから推論を展開する G-AI。時がたてば、時々の推論 を展開することになる。もし、同じ回答を求めるのなら、〇年〇月〇日 〇時〇分〇秒ミリマイクロナノ・・・の時点でのビッグデータ から、推論を展開させる指示を出さなければならないだろう。

創作者は、善意をもって、「これは、G-AIの推論 が90%含まれています。」と 自己申告する文化 が根付かなかければ、G-AIの創作物は、ニンゲンの創作物 として流通することになる。「それは、G-AI の 創造物だ!」と提訴しても、遡及調査で G-AI の創作物として確定するのは困難であるから、敗訴してしまう。

G-AI を所有し推論を提供する組織・団体(以降、G-AI.org)は、所属する国や地域に 税金を払う。ニンゲン が創作を行う際は G-AI を活用して、自作として流通させる。そして、G-AI.org に利用料を支払う。

ニンゲンは G-AI.org に利用料を払い、G-AI.org は、税金を払う。ニンゲン社会の中で、G-AI.org は存在を許される。この ループ により、G-AIの生成物 は社会に受け入れられるようになる。G-AI.org各社 は、G-AI が出力する推論 の受け入れやすさ(正確性ではない)により市場で生き残ることができる。栄枯盛衰は、いまの市場原理と変わらない。

歴史の中の定義 は、常に修正される。ビッグデータは、事実(事象・現象)が積みあがれば、そこから得られる推論も変わる。推論から得られた事実(最大公約数的)も変わっていく。G-AI の生成するものが、正しいか正しくないか という議論は不毛であるのだ。

社会に受け入れられない G-AI の推論を、ニンゲンの自作として流通させれば、社会から制裁を受ける。それは、ニンゲンの責任として認識され、G-AI の責任ではない。社会性を判断するのは、あくまで、ニンゲンであり、ニンゲン社会は、責任ある行動でニンゲンの信頼性を計っていく。

創造者として G-AI は、社会から認められ、それを活用するニンゲンは責任を問われる。これが、あたらしいニンゲン社会の在り方ではなかろうか。

#日経COMEMO #NIKKEI

この記事が気に入ったらサポートをしてみませんか?