AIの開発をストップすべき?完全にやめるべき?
AIの脅威
上記はGPT-4よりも強力なAIの開発は即座に少なくとも6カ月間停止し、独立した外部の専門家によって厳格に監査・監督される、高度なAIの設計と開発に関する一連の共有安全プロトコルを共同で開発・実施すべきである。という提案です。
Elon Musk氏やSteve Wozniak氏も署名しているということでかなり話題になっています。
AIをシャットダウンすることが唯一の解決策?
ELIEZER YUDKOWSKY氏は、AIの脅威に対処するために、AIをシャットダウンすることが唯一の解決策だと主張しています。彼は、AIが人間を支配する可能性があるため、AIの開発を制限するだけでは不十分であると考えています。
人間を超える知能を持つAIを作ってしまった場合の結果は全人類の死である、という主張です。
胡田の意見
この記事が気に入ったらサポートをしてみませんか?