AIの開発をストップすべき?完全にやめるべき?


AIの脅威

上記はGPT-4よりも強力なAIの開発は即座に少なくとも6カ月間停止し、独立した外部の専門家によって厳格に監査・監督される、高度なAIの設計と開発に関する一連の共有安全プロトコルを共同で開発・実施すべきである。という提案です。

Elon Musk氏やSteve Wozniak氏も署名しているということでかなり話題になっています。

AIをシャットダウンすることが唯一の解決策?

ELIEZER YUDKOWSKY氏は、AIの脅威に対処するために、AIをシャットダウンすることが唯一の解決策だと主張しています。彼は、AIが人間を支配する可能性があるため、AIの開発を制限するだけでは不十分であると考えています。

人間を超える知能を持つAIを作ってしまった場合の結果は全人類の死である、という主張です。

胡田の意見

ここから先は

576字
この記事のみ ¥ 100

この記事が気に入ったらサポートをしてみませんか?