見出し画像

AI - 人類の救済か終焉か?サム・アルトマンの揺れ動く予測

筆者は日本中がChatGPTに沸いていた頃来日したサム・アルトマンが、記者の「AIは人を殺す可能性があるのか?」の質問に「その可能性はぬぐいきれない」と言った事がずっと気になっていました。彼の発言の意図を理解する助けになる記事を見つけたので紹介します。

AIの未来とOpenAI CEOの見解

地球上の種としての私たちの運命に関して言えば、アルトマンはAGI(Artificial General Intelligence:人工知能)の技術が強力になりすぎることに対して、本人自身も複雑な思いを持っていた事が上記の記事でわかりました。

AIの進化と議論

同社の画期的なチャットボットツール「ChatGPT」の登場により、このコンセプトはかつてないほど重要な意味を持つようになりました。実際、SpaceX社のCEOイーロン・マスクを含む1,100人以上の専門家、CEO、研究者が最近、OpenAIが最近リリースした大規模言語モデルGPT-4を超える技術を用いた「AI実験」の6ヶ月間のモラトリアムを求める書簡に署名しました。

AIの潜在的な危険性

一部の人々は、先進的なAIを禁止し、さらには超人的なAGIの拡散を止めるために「反抗的なデータセンターを空爆で破壊すべきだ」と主張するほどまでになっています。アルトマンにとって、これらの懸念は合理的でありながら、同時に大げさでもあります。

CEOの疑問と対立

アルトマンは、興味深いことに、これらの懸念は合理的であると同時に、完全に誇張されたものであるとしています。実際、アルトマンはその時々に都合のいいことを予測しているように聞こえることがあります。誇大広告を打つ必要がある時は危険、それを抑える必要がある時は安全という具合に。

私は何か良い事をしているのだろうか?

"私は率直に言おうとしている "と、彼は2019年にThe New York Timesに語った。"私は何か良いことをしているのだろうか?それとも本当は悪いことなのか?"その答えは、CEOにとってはまだ出ていない様です。

マンハッタン計画に例える

その時、彼はOpenAIの仕事をマンハッタン計画、つまり第二次世界大戦中のアメリカの原子爆弾開発への努力に例えました。彼は新聞に対して、AGIが人々に莫大な富をもたらすと考えている一方で、それが結局は世界の終末を招く可能性もあると認めました。

長期的に正しいとしても、短期的には完全に制御不能

今、OpenAIに多大な富をもたらしたアルトマンは、明らかに違うことを言い始めています。たとえ私たちが望むすべてが長期的に正しいとしても、短期的には完全に制御不能です。"CEOはより最近のインタビューでNYTに語り、私たちにはこれらの問題に先んじる十分な時間があると付け加えました。

CEOとAIについての二面性

「一つの会話で、彼はディベートクラブの両方の側面を持っている」と、OpenAIのボードアドバイザーであるKelly Simsは言いました。そして、AltmanがOpenAIの金融的成功に直接的な利益を持っていないとThe Wall Street Journalが報じている一方で、彼はAGIが文明を崩壊させることはないと投資家を安心させることから明らかに多くを得ています。

世界を変えたい

結局のところ、アルトマンは世界を変えたいと考えているようです、それが彼の技術がどのようにそれを再構築するかはまだ確定していないようです。彼が比喩的に人類を絶滅させる可能性のある原子爆弾に取り組んでいるのか、それともそれを救う技術に取り組んでいるのかは、彼にとってはそれほど重要ではないようです。

サム・アルトマンがマンハッタン計画に言及したのは、恐らく彼が自身の仕事が持つ可能性的な大きな影響について認識しているからだと思われます。アインシュタインは、彼の理論が核兵器開発に利用されることを予期していませんでした。そしてその結果、彼は深い悔いを抱くこととなりました。

この経験を踏まえて、アルトマンは自分の行動の結果を慎重に考え、その影響を最大限に理解しようとしているのかもしれません。彼がAGIの潜在的な危険性について語ることで、彼は自分の行動がもたらす可能性のある結果について、他人にも警鐘を鳴らしているとも解釈できます。これは、自身の知識と技術がどのように使われ、それがどのような影響を及ぼすかについて、開発者自身が考え、責任を持つべきだという重要なメッセージです。

筆者感想


この記事が気に入ったらサポートをしてみませんか?