AI界の“ゴッドファーザー” ヒントン博士の警告
AIの短期的な危険とは何だと考えるか?
フェイク動画やフェイク画像、偽の音声が世の中にまん延してしまい、いったい何が真実なのか分からなくなってしまうことです。これはとても深刻な問題になるでしょう。何が真実か知ることが不可能になるんですから。
AIの長期的な危険とは?
AIが私たち人間より賢くなった場合に、人間を支配しようとしてくる可能性があります。
AIによる支配とは?何が起きるのか?
いまは、とてつもなく不確実な時で、我々には何が起きるのか分かりません。たとえるなら霧の中を運転するような感じです。
AIが人間より賢くなったら?
もし、AIが人間より賢くなり、私たちを支配できるようになったら、それは人類の終わりを意味する可能性があります。
核戦争と同じく人類が直面する最大の脅威の1つでしょう。それは避けなければいけません。防げないのかもしれませんが、防げるのだとしたらそうすべきです。
今後のプランは?
人間を超越するAIは、もうすぐそこまでやってきているかもしれません。どう対処していくべきか、解決策を見つけなければなりません。世界中の若い研究者たちの背中を押し、連携して対応していきたいと思っています。
以上