GPT-4より上等なAIは作らないでww。
2023年3月30日 宍戸健
AI開発に関して世界の著名人1300名以上が公開書簡に署名して「いろいろ問題があり人類が破滅するかも知れないんで、世界のAI開発してる皆様とりあえずGPT-4より上等なAIは6ヶ月はつくらないで〜。」と頼んでますww。
そしてこのニュースをNHK生活・防災アカウントでも報道。(笑
「高度なAIの出現で人類が文明を制御できなくなるおそれがある」そんなことになるかよ、ば〜か。(笑
署名してる人たちは、Elon Musk, Steve Wozniak(Apple共同創業者), Yuval Noah Harari, Chris Larsen (Ripple)等の方々です。(察し)これみんなOpenAIの非上場株式とか貰ってるのかな。
ようは物凄い勢いで競合他社が開発してて、OpenAIが直ぐに追いつかれるのにビビって「ちょっと待ってよ〜。」て言ってるんじゃないですかね。
アレ、これってこないだのWBC決勝トーナメントの組み合わせが、突然変更になり、日本vs米国戦は準決勝で対戦するはずが決勝まで対戦しなくなった件に似てませんか。主催のWBCI(World Baseball Classic International=MLB=米国勢)が「すいません、こちらの手違いで組み合わせ間違えました〜。」と苦しい言い訳してましたねww。
というわけで、OpenAIが言い訳しながら、いろんな人巻き込んで時間稼ぎをしてるようですが、参考までに当該Open Letter(公開書簡)を以下翻訳しました。
巨大なAI実験を一時停止せよ: 公開書簡
我々は、すべてのAI研究所に対し、GPT-4より強力なAIシステムの訓練を少なくとも6ヶ月間、直ちに一時停止することを求める。
広く支持されているAsilomar AI Principlesにあるように、高度なAIは地球上の生命の歴史に大きな変化をもたらす可能性があり、相応の配慮とリソースをもって計画・管理されるべきものである。しかし、残念ながら、このような計画や管理は行われていません。ここ数カ月、AI研究所は、誰も(その作成者でさえも)理解できず、予測できず、確実に制御できない、より強力なデジタルマインドを開発し展開するための制御不能な競争に陥っています。
現代のAIシステムは、一般的なタスクにおいて人間並みの能力を発揮するようになりつつあり[3]、私たちは自問自答しなければなりません: 私たちは、機械が私たちの情報チャネルをプロパガンダや真実でないもので溢れさせるべきでしょうか?充実した仕事も含めて、すべての仕事を自動化すべきなのか?私たちは、やがて私たちよりも数が多く、賢く、時代遅れで、私たちに取って代わるかもしれない非人間的な精神を開発すべきなのか?私たちは、文明のコントロールを失うリスクを冒すべきなのでしょうか?そのような決定を、選挙で選ばれたわけでもない技術指導者に委ねてはならない。強力なAIシステムは、その効果が肯定的であり、リスクが管理可能であると確信した場合にのみ開発されるべきです。この自信は十分に正当化されなければならず、システムの潜在的な影響の大きさに応じて増大するものでなければならない。OpenAIの人工一般知能に関する最近の声明では、"ある時点で、将来のシステムの訓練を開始する前に独立したレビューを受けること、そして最も進んだ取り組みでは、新しいモデルの作成に使用する計算機の成長速度を制限することに合意することが重要になるかもしれない "と述べています。私たちは同意します。そのポイントは今です。
したがって、私たちはすべてのAI研究所に対して、GPT-4より強力なAIシステムの訓練を少なくとも6ヶ月間、直ちに一時停止することを求めます。この一時停止は、公開され、検証可能であり、すべての主要な関係者を含むものでなければならない。このような一時停止が迅速に実施できない場合は、政府が介入してモラトリアムを実施する必要があります。
AI研究所と独立した専門家は、この休止期間を利用して、独立した外部の専門家によって厳格に監査・監督される、高度なAIの設計・開発に関する一連の共有安全プロトコルを共同で開発・実施すべきである。これらのプロトコルは、それを遵守するシステムが合理的な疑いを超えて安全であることを保証するものでなければならない[4]。これは、AI開発全般の休止を意味するものではなく、出現する能力を持つ予測不可能なブラックボックスモデルをますます大きくする危険な競争から一歩後退することを意味している。
AIの研究開発は、今日の強力な最先端システムを、より正確で安全、解釈可能、透明、堅牢、連携、信頼、忠実なものにすることに再重点を置くべきである。
これと並行して、AI開発者は政策立案者と協力して、強固なAIガバナンスシステムの開発を劇的に加速させなければならない。これには少なくとも、AIに特化した新しく有能な規制当局、高度な能力を持つAIシステムと大規模な計算能力の監視と追跡、本物と合成を区別しモデルの流出を追跡するための証明と電子透かしシステム、堅牢な監査と認証エコシステム、AIによる被害に対する責任、AI安全技術研究に対する強固な公的資金、AIが引き起こす経済的・政治的混乱(特に民主主義の)に対処するための十分にリソースを確保した制度、などが必要です。
人類は、AIによって豊かな未来を享受できる。強力なAIシステムの創造に成功した今、私たちは「AIの夏」を楽しむことができます。この夏、私たちは報酬を受け取り、すべての人の明確な利益のためにこれらのシステムを設計し、社会に適応する機会を与えることができます。社会は、社会に壊滅的な影響を与える可能性のある他の技術に対して一時停止を行った[5]。 私たちは、ここでそうすることができる。長いAIの夏を楽しみ、準備不足のまま秋に突入しないようにしましょう。
ココまで。
確かにOpenAIが去年の12月11日にローンチされてから、わずか5日間で登録者100万人を突破し(ちなみにネトフリは3.5年)、その後の登録者増加と各種関連サービスと競争環境の変化は物凄いわけです。また実際使ってみると人類の新たな時代を切り拓くんだと思います。
だけど、「人類の危機が迫るので6が月待って〜。」て何それ?この理由は競争他社との時間稼ぎ以外では、ひょっとしたらこれまで隠してた事実が元データのインプットと質問の仕方によっては、都合の悪いことがいろいろバレちゃうんじゃないかなと思いました。
(例;アポロ11号はほんとは月には行ってない。地球は平面だった。ニコラ・テスラはフリーエネルギー技術を開発していた。かぐや姫は月に住む宇宙人だった。JAL123便は米軍機にミサイルを打たれて墜落したのか。Bitcoin Protocolは早くからCIAに目を付けられていて、2012年に乗っ取られた。クレイグ博士への攻撃のほんとの理由などなど。)
それでは最後にOpenAI/ChatGPTについて僕が使ってみてとりあえず思った問題点は以下です。
1. OpenAI/ChatGPTが勉強してる内容、書籍、記事など一体何をインプットされてるのか、されていないのかが完全にブラックボックスでわからない。
2. OpenAI/ChatGPTが回答する内容は、どのような文献を元に生成されたのかがわからない。
これらの思いつきの解決方法については以下です。
1. インプットした文献のタイトル(又は文献全文のHash値)を全てBitcoin Networkに記録する。これが明らかでないと、一方的な意見のみがインプットされたり、又は恣意的に特定の意見、見方を無視することにより真実でないこと、特定の意見を広める意図があってもユーザーにはわからない。
2. ChatGPTの回答の注釈には参照した文献を全て記載する。こうしないと回答を商業的に利用する場合には著作権侵害等違法行為をする可能性があるので怖くて使えない。
それでは今日はこの辺で。
この記事が気に入ったらサポートをしてみませんか?