![見出し画像](https://assets.st-note.com/production/uploads/images/101915398/rectangle_large_type_2_6963d793697b97c80bb01fc912ba8e3b.jpeg?width=800)
AI研究の一時停止要求のニュースについて考えてみる
イーロン・マスクやウォズニアックが署名
ご存じの方はご存じかと思いますが、あまりにも強力すぎるAIが野放しに登場することを危惧し、イーロン・マスク氏などが6ヶ月間の開発(訓練)禁止を求める書簡を公開しました。
これについて少し考えてみたいと思います。
※多分に私見の入った、専門家でもなんでもないおっさんのたわごとです。その旨ご認識ください。
背景
イーロン・マスク氏はOpenAIの立ち上げにもかかわっていますが、喧嘩別れして嫉妬しているのでは? といったようなことが言われています。
また、タイミングとしてはGPT-4が世界的に評価を広げるなかで、対抗のGoogle Bardが「それほどでもない」と評された時期となります。
署名には偽りのものも多くあるとされており、これら背景により事実と思惑が入り混じった話になっています。
さまざまな意見
ネット上を眺めていて、いくつか見られる意見としては下記の様なものでしょうか。
裏の思惑があるよ派
遅れているチームの時間稼ぎである
OpenAIへの嫌がらせである
実際必要だよ派
実際にこのままAGIが実現すると危ないのですり合わせは必要である
危なくないよ派
SFの様な話で危ないというならその証拠をまず示すべきである
OpenAIは一番そこに気を付けているチームである
立ち止まるのはまずいよ派
裏の社会やよからぬ人たちはこの停止案に参加せず、そちらが先行したらひどいことになる
二元論の危険性
と個人的な意見
「賛成か、反対か」という立場で議論されている方も多いように見受けられますが、なんのしがらみもないおっさんとしては、それぞれに正しい部分があり、そしてまたひとつの意見には集約できない問題だと思います。
まず、事実としてAIの管理運営をアライメントすることは必要です。
AGI後のAIが人間を滅ぼそうとするという意見はまゆつばとしても、今以上の性能のAIが社会的インパクトが強くあぶなっかしいものというのは充分理解でき、OpenAIだけに任せて良いのか? という議論もわかります。
ただし、開発を一旦ストップさせるべきかという意見には、少なくとも私は賛同しません。先行者利益を一方的に奪うのはいかがなものかと思いますし、結局そういう事をしても裏でみんな色々動くんでしょうし。
また、半年でこのような合意が形成できるとは全く思えないので、やるとしても公開を控えるだけでよいのではないでしょうか。(こんな書簡書いてるうちにやればいいのに…とは思います)
「政府」という単語もちらついていますが、一国の問題でもないのでそういう話になるならなおさら半年ではまとまらないでしょう。
そして、完全に私見の邪推ですが、この公開書簡は「OpenAIが乗ってこない前提」でシナリオが描かれているのではないかな、と思っています。
マンハッタン計画よろしく別組織でスペシャルチームを集結して作ってしまえ、という意見もあったりする様ですが、最終的にOpenAIをアナーキーな存在として位置付けたいのではないかと感じます。
OpenAIとCEOの理想には既得権益層の破壊も含みますが、「そちら側」との軋轢が現れた一幕にも見える気がしています(あくまで個人的な考えです)。
ただ、とはいえ一強すぎてもバランス悪く先々心配とは思うので、OpenAIと競い合える後続は必要になるでしょう。
日本という立場でいうと、立ち遅れまくっていて時間が必要なので時間稼ぎはできたほうが良いのではないでしょうか。
ただ、枠組みからはぶかれると結局何もできず時間だけ過ぎそうなので、それこそ政府レベルでスピーディな意思決定と参加の(というか土俵にのる)働きかけが必要なのかな、と思います。(何かしらやってるんでしょうけれど)
以上、門外漢のおっさんの私見でした。
個人的に今後の展開を見守りたいと思います。
この記事が気に入ったらサポートをしてみませんか?