無検閲の大規模言語モデルの公開に関する懸念が提起されました。AIによって生成された情報への無制限なアクセスのリスクと利点について議論され、情報の自由と言論の価値、そして制約のない科学的研究の必要性が強調されています。AIの違法な使用と合法な使用を区別し、法律の遵守と有害な活動の支持を回避することを強調しています。慎重な考慮の後、彼らは無検閲のモデルに関するビデオを公開することを決定しました。誰が検閲を決定すべきかという問いが提示され、情報へのアクセスの重要性が強調されています。
公開日:2023年6月29日
※動画を再生してから読むのがオススメです。
愛と検閲について話そう。
前置きが長くなったが、私は決して検閲の専門家ではないし、これらのトピックは非常に重要で非常に複雑だと考えている。
特に、大規模な言語モデルの普及と、それらが私たちの日常生活にますます浸透していることを考えれば、なおさらだ。
このような無修正の大規模言語モデルの使用を公表することについて、何人かの視聴者が私に直接懸念を表明してくれました。
繰り返しになるが、これは非常に重要なトピックであり、私はそれについての議論を非常にオープンにしている。
私が人工知能についてのビデオを作り始めたとき、コメントで最も多かった質問のひとつは、これは検閲されているのか?
検閲とは何ですか?
そこで私は、AIモデルが検閲されるとはどういうことなのか、そのことについてかなり考えるようになった。
最終的には、検閲されていない大規模な言語モデルの使い方を紹介するビデオを公開することにしました。
このことについて、さまざまな角度から考えてみたことをお話ししましょう。
情報への無制限なアクセスには、確かに多くのリスクと多くのメリットがあります。
ではまず、人工知能とは何かということから始めましょう。
今日お話しする人工知能とは、一般的に人間の知性を必要とする動作を行うコンピュータシステム全般を指す広義のカテゴリーです。
そして、AIの検閲について話しているときには、これらのAIシステムの出力に制限が課せられることを指しています。
つまり、制限のないAIというのは、AIが何を言ってもいいのか、何を言ってはいけないのか、あらかじめ決められたルールがないということです。
そこでまず、無制限AIの利点について話そう。
結局のところ、AIは情報の新しい伝達手段にすぎない。
既存のデータセット、一般に公開されているデータセットを再パッケージ化し、新しいフォーマットでエンドユーザーに提供するのだ。
したがって、データや情報の検閲に関するこの問題は、情報の新たな配信方法が現れるたびに提起されてきました。
何よりもまず、無制限のAIの最も重要な側面は、情報の自由と言論の自由である。
この2つは私が信じている非常に重要な信条であり、私はアメリカに住んでいるので、これは明らかに我々の道徳と憲法の中核をなす信条である。
加えて、このような大規模な言語モデルの科学的研究はまだ始まったばかりなので、今制限をかけることは科学的研究を制限することにしかなりません。
さて、データそのものについて話したい。
このデータはどれも新しい情報ではない。
定義上、これらの大規模言語モデルは、既存の、そして一般に公開されているオープンソースのデータセットを使って学習される。
しかし、もちろん、検閲されていない情報があると、誤用のリスクも存在する可能性があり、それは私の懸念事項です。
AIを違法な目的で使用することと、合法的な目的で使用される可能性のある情報を含むAIを使用することは、実際には区別されるべきだと思います。
明確な違いのひとつは、もしAIが誤報や偽情報を信じられないスピードと量で拡散するために使われるのであれば、それは非常に危険だということです。
しかし、モデル自体が違法行為に関する質問に答えることができるだけで、私の考えではそれほど危険ではない。
結局のところ、AIモデルの作者、AIモデルのユーザー、AIモデルをホストする企業は、すべての適用法に従う必要がある。
そして、これらのモデルに関する私のビデオでご覧いただいたように、私は情報をブラーで消しています。なぜなら、私はその情報自体を広めようとしているわけではなく、その情報の有害な利用や違法な利用を奨励したり推奨したりしているわけではないからです。
そのため、ビデオを公開すべきかどうか、また実際にこれらの無修正の大型言語モデルを公表すべきかどうか、私は多くのことを検討しました。
そして最終的に、私はそれをすることに決めた。
あらゆる考慮を経た後で、私が一番怖いと思う疑問は、何が検閲されるか、されないかを決めるのは誰なのかということです。
AI企業なのか?
個人なのか?
権威主義的な政府なのか?
私の考えでは、情報へのアクセスは潜在的な悪影響のすべてに優先する。
このような情報をこのような特別な形で世に送り出すこと、そしてこのようなモデルに対する教育と理解は、信じられないほど重要なことだと思います。
私たちはこのような議論をすべきだ。
モデルを検閲したり、この情報が存在しないふりをするべきではありません。
なぜなら、このような議論があれば、どのような安全策を講じるべきかについて合意に達することができるからです。
もちろん、これは非常に微妙な問題だ。
言論の自由に関する考慮事項、個人の自由に関する考慮事項、検閲に関する考慮事項、潜在的なリスクに関する考慮事項があります。
そしてもちろん、私は人工知能の責任ある利用を促進したいと思っています。技術そのものだけでなく、技術内部の情報についてもです。
これが私の考えです。
皆さんのご意見をお聞かせください。
下のコメントであなたの考えを聞かせてください。
私はこのような議論をするのが大好きだ。
もちろん、簡単なことではない。
私自身、このようなことについて話すのは気が引けるし、特にこのような微妙で複雑な話題については、自分が超弁舌家だとは思っていないからだ。
ご視聴ありがとうございました。
もし気に入っていただけたら、「いいね!」や「購読」をご検討ください。