見出し画像

AGIがSFではなく、現実的な問題として考えられ始めている。

OpenAIが超知能について言及

OpenAIが
”超知能のガバナンス
今こそ、AGIを凌駕する性能を持つ未来のAIシステムである超知能のガバナンスについて考え始めるべき時である。”

というタイトルで、記事を公開しました。

超知能とは何か?

超知能(Superintelligence)とは、人間の知能をはるかに超える知能を持つシステムやエンティティのことを指します。これは、人間が持つ全ての知的活動、科学的創造性、一般的な知識、社会的スキル、感情的知能などを含む可能性があります。
超知能は、人間が解決できない問題を解決したり、人間が理解できない複雑なシステムを理解したりする能力を持つと考えられています。また、超知能は自己改善や自己複製の能力を持つ可能性もあり、これにより知能爆発(intelligence explosion)が起こるという考え方もあります。
超知能の概念は、科学者や哲学者、AI研究者などによって広く議論されています。超知能が実現した場合の社会的、倫理的な影響や、そのようなシステムをどのように制御すべきかについては、まだ明確な答えが出ていない問題です。

この超知能に対して、考えるときが来ているというものです。
具体的に記事の内容に映ります。

超知能のガバナンス

記事の主な内容は以下の通りです:

  1. 超知能の可能性とリスク:記事は、次の10年以内にAIシステムがほとんどの領域で専門家のスキルレベルを超え、今日の大企業と同等の生産活動を行う可能性があると述べています。超知能は、人類が過去に直面した他の技術よりも強力であり、その潜在的な利点とリスクは大きいと指摘しています。

  2. 超知能のガバナンス:超知能の開発には、安全性を維持し、これらのシステムを社会にスムーズに統合するための調整が必要だと述べています。また、超知能の開発努力は、IAEA(国際原子力機関)のような国際機関による監督を必要とする可能性があると指摘しています。

  3. 超知能の安全性:超知能を安全にするための技術的能力が必要であり、これはOpenAIなどが多大な努力を注いでいる未解決の研究課題であると述べています。

  4. 公衆の参加と可能性:最も強力なシステムのガバナンスとその展開に関する決定は、強力な公衆監督を必要とすると主張しています。AIシステムの境界とデフォルトについては、世界中の人々が民主的に決定すべきだと述べています。

  5. 超知能の創造の理由:OpenAIがこの技術を開発している理由は二つあります。一つ目は、この技術が今日私たちが想像できるものよりもずっと良い世界を生み出すと信じているからです。二つ目は、超知能の創造を停止することが直感的にはリスキーで困難であると考えているからです。

にわかに信じがたいAGIの到達

一方でこのようにも述べています。

重要な能力閾値以下のモデルを開発する企業やオープンソースプロジェクトに対して、ここで述べられているような規制(例えば、ライセンスや監査などの負担の重いメカニズムを含む)を適用することは適切でないと述べています。「閾値以下」とは、ある特定のレベルまたは基準を下回ることを意味します。この場合、それはAIが人間の専門家のスキルレベルを超える、または大企業の生産活動を行うなどの能力を持つレベルを指していると思われます。
”閾値以下”の開発に規制を書けるべきではないのは、現在のシステムが世界に大きな価値をもたらし、それらがリスクを持つ一方で、そのリスクレベルは他のインターネット技術と比較して適切であると感じられるからです。

他のトップAI企業は、どのような意見なのか?

DeepMindのCEO、デミス・ハサビス氏は、人工知能(AI)が人間並みの認知能力に到達するのはおそらく10年以内だと予測しました。彼のキャリアはゲーム業界から始まり、その後Google DeepMind(旧DeepMind Technologies)を共同設立しました。同社は、世界トップの囲碁プレーヤーを打ち負かしたAIシステム「アルファ碁」の開発で知られています。

ハサビス氏は、人間並みの認知能力を持つ機械の到来は近いと述べました。彼は「過去数年の進歩は驚くべきものだ。その進歩が鈍化する理由はない。むしろ加速するだろう。数年か、10年以内に到達するかもしれない」と語りました。この発言は、Googleが「Google AI」と「DeepMind」を統合し、「Google DeepMind」として再編すると発表したわずか2週間後のことでした。

人工汎用知能(AGI)について問われたハサビス氏は、「人間レベルの認知」と答えました。しかし、現在、AGIの標準化された定義、テスト、基準は存在せず、科学者や技術者の間でも統一された見解がないことを指摘しました。

一部の著名人、例えばロジャー・ペンローズ氏(スティーブン・ホーキング氏の長年の研究パートナー)は、AGIは達成不可能だと考えています。一方で、イーロン・マスク氏やOpenAIのCEO、サム・アルトマン氏などは、人間レベルのAIが近い将来実現するとの見解を示しています。

ChatGPTやその他の類似AI製品・サービスの登場により、AGIは注目を集めています。人間レベルのAIが実現すれば、仮想通貨業界にも大きな変化がもたらされる可能性があります。自律的な機械が起業家や経営陣、アドバイザー、トレーダーとして活躍し、人間並みの知性とコンピュータシステムの情報保持能力・実行能力を兼ね備えることが可能になるかもしれません。

まとめ

私が集めた情報を基に色々と考えてみましたが、結論としては、未来に何が起こるかは誰にもわからないということです。それぞれの課題に対して適切な技術が使われ、より良い社会が実現できることを願っています。そのためにも、情報を集め、学び続けることが重要だと感じています。

この記事が気に入ったらサポートをしてみませんか?