「超知性AI」は危機?OpenAI警告
OpenAIの首脳陣が警告を発している。「超知性AI」、すなわち、人間の知識や技術を凌駕する可能性を持つAIの出現に備えるべきだというのだ。OpenAIのCEO、サム・アルトマン氏、CTOのグレッグ・ブロックマン氏、そして主任研究員のイリヤ・スツキバー氏は最近のTwitterで、その視点を明らかにした。
OpenAIは生成型AIの先駆けであり、人間を超えるAIの開発が、逆にリスクを孕んでいるという見解を示している。「次の10年で、AIが専門家のスキルを上回る可能性がある」と彼らは言う。
人工汎用知能(AGI)とも呼ばれるこのAIが、専門家以上の能力を持つ可能性は広く論じられている。しかし、OpenAIの首脳陣は、そうした超知性AIの発展に対して慎重な立場をとっている。
彼らの提案は、「AI開発に対する政府の監督強化、民間人の参加促進、そして企業との連携強化」だ。しかし、超知性AIの制作を完全に止めることは逆効果だとも主張する。必要なのは、AIの創造を上手く行うための世界的な監視体制だという。
AIは今や全てのテクノロジーセクターに広がっており、OpenAIのアプローチや規制策は、暗号資産業界を含む多くの分野に影響を与える可能性がある。人類が超知性AIから保護されるためには、OpenAIが持っているような視点が重要となるだろう。
web3情報サイト「BITBIT」もチェックしてみてください🙆♀️
👉https://bitbit.tokyo/
コラムを書いてくださるライターの方も募集しています🙇
お問い合わせはこちらです。
👉https://bitbit.tokyo/contact/