ChatGPT教?~生成系AIは人間に何を見せてくれているのか?~
こんにちは、NFI研究主監の加藤です。noteでの投稿は久しぶりとなります。
2022年度はnoteでの発信をあまりすることが出来ませんでした。2022年度のNFIの活動はどちらかと言えば情報収集・分析といったインプットに力を入れました。2023年度は昨年度のインプットも活用しながら、アウトプットにも力を入れていきたいと考えています。シンポジウムやセミナーの開催など、NFIの活動にご期待ください。
さて、アウトプットといえば、昨今、ChatGPT(いわゆる生成系AI)が大変注目されています。個人的にも、人工知能に関しては特に政策の観点から大変興味を持っています。個人情報保護や知的財産法、いわば情報法の観点からも、整理しなければならない論点があると感じていました。そのような中でChatGPTが社会的にも大きく取り上げられるようになりました。このChatGPTに関しては、欧米で規制が検討されているのもご承知のことかと思います。
ChatGPTにはどのような(本質的な)論点があるのかについてはしっかりと議論を行う必要があると思っていますが、まずは、どのような観点があるかについて個人的に考えてみました。そしてふと、ChatGPTのような生成系AIが出力することを鵜呑みには出来ないが、仮にそれを信じ込んでしまう人が出てきたらどうなるのか、ということに思いが至りました。まるで、白雪姫に登場する魔女が鏡の言うことを信じるように、生成系AIの回答を鵜呑みにしてしまったら何が起こるのか、興味がわきました。そこで、安直にも、生成系AI(ChatGPTとBing AI)に聞いてみました。
ChatGPTからは以下のような回答が返ってきました。
そして、Bing AIからは以下のような回答が返ってきました。こちらは個人的にはかなり驚きの内容でした。
いかがでしょうか。偶然の産物とはいえ、「やがてChatGPTの本当の目的に気づくことになる。」というあたりは正直ゾッとしました。ハヤカワ文庫のSF小説でも学習用データに使ったのでしょうか。(個人的にはフィリップ・K・ディックの「変種第二号」を連想しました。)
もしかしてこれは、何か起こってしまうしれないなと思ったところ(この入力を試したのは2023年4月12日)、既に起こっていました・・・。
これは、人工知能との単に付き合い方を考えれば良いのか、それとも規制をしっかりと設けれる必要があるのか、今一度考え直す必要があるのではないかと思い直したところです。
なお、このような問題について、技術的にどのように考えられるかについては人工知能学会から「人工知能学会としての大規模生成モデルに対してのメッセージ」のような整理も公表されています。
ChatGPTで一気に注目される人工知能について、NFIでも次世代基盤政策の観点から検討を進めていたいきたいと考えています。NFIでは今年度、人工知能政策WGを新たに設置し、特に欧米で議論されている政策の理解を足がかりに、今後の政策的な議論に向けた基礎的な検討を進めていきます。手始めとして、EUで提案されているAI act、AILDの分析を行います。NFI会員の皆様と一緒に、定期的なWGの中で、作成した関連文書の仮訳に基づいて分析を行う予定です。
是非、この機会に、NFIへのご入会もご検討いただけますと幸いです。
NFIの入会についてはこちら。