見出し画像

【AIの検閲に関する考察】英語解説を日本語で読む【2023年6月29日|@Matthew Berman】

無検閲の大規模言語モデルの公開に関する懸念が提起されました。AIによって生成された情報への無制限なアクセスのリスクと利点について議論され、情報の自由と言論の価値、そして制約のない科学的研究の必要性が強調されています。AIの違法な使用と合法な使用を区別し、法律の遵守と有害な活動の支持を回避することを強調しています。慎重な考慮の後、彼らは無検閲のモデルに関するビデオを公開することを決定しました。誰が検閲を決定すべきかという問いが提示され、情報へのアクセスの重要性が強調されています。
公開日:2023年6月29日
※動画を再生してから読むのがオススメです。


Let's talk about Ai and censorship.

愛と検閲について話そう。

Let me preface with, I am not an expert on censorship by any means, and I consider these topics to be extremely important and highly complicated.

前置きが長くなったが、私は決して検閲の専門家ではないし、これらのトピックは非常に重要で非常に複雑だと考えている。

This is especially true given the proliferation of large language models and how they are becoming more and more ingrained in our daily lives.

特に、大規模な言語モデルの普及と、それらが私たちの日常生活にますます浸透していることを考えれば、なおさらだ。

I've had a couple viewers reach out to me directly to voice their concerns about publicizing the use of these uncensored large language models, and I appreciate it.

このような無修正の大規模言語モデルの使用を公表することについて、何人かの視聴者が私に直接懸念を表明してくれました。

Again, this is an incredibly important topic and I'm very open to discussion about it.

繰り返しになるが、これは非常に重要なトピックであり、私はそれについての議論を非常にオープンにしている。

When I started making videos about artificial intelligence, one of the most common questions from my comments was, Is this censored?

私が人工知能についてのビデオを作り始めたとき、コメントで最も多かった質問のひとつは、これは検閲されているのか?

and What is the censorship?

検閲とは何ですか?

So, I started to think about that quite a bit and what does it mean for an AI model to be censored.

そこで私は、AIモデルが検閲されるとはどういうことなのか、そのことについてかなり考えるようになった。

Ultimately, I did decide to publish videos showing how to use uncensored large language models.

最終的には、検閲されていない大規模な言語モデルの使い方を紹介するビデオを公開することにしました。

Let me talk about all the different angles that I've thought about this from.

このことについて、さまざまな角度から考えてみたことをお話ししましょう。

There are certainly plenty of risks and plenty of benefits associated with unrestricted access to information.

情報への無制限なアクセスには、確かに多くのリスクと多くのメリットがあります。

So, first let me start with what is artificial intelligence.

ではまず、人工知能とは何かということから始めましょう。

As I'm talking about it today, I'm going to be talking about AI as a broad category for all computer systems that would generally perform actions that require human intelligence.

今日お話しする人工知能とは、一般的に人間の知性を必要とする動作を行うコンピュータシステム全般を指す広義のカテゴリーです。

And when I'm talking about censorship of AI, I'm talking about restrictions placed on the outputs of these AI systems.

そして、AIの検閲について話しているときには、これらのAIシステムの出力に制限が課せられることを指しています。

So, when I say unrestricted AI, I mean that there are no predetermined rules for what the AI can and cannot say.

つまり、制限のないAIというのは、AIが何を言ってもいいのか、何を言ってはいけないのか、あらかじめ決められたルールがないということです。

So first, let's talk about the benefits of uncensored AI.

そこでまず、無制限AIの利点について話そう。

Ultimately, AI is just a new delivery method for information.

結局のところ、AIは情報の新しい伝達手段にすぎない。

It's taking existing data sets, generally public data sets, and repackaging them and delivering them to end users in a new format.

既存のデータセット、一般に公開されているデータセットを再パッケージ化し、新しいフォーマットでエンドユーザーに提供するのだ。

So, this question of censorship of data, censorship of information, has been around and has been brought up every single time a new distribution method for information has emerged.

したがって、データや情報の検閲に関するこの問題は、情報の新たな配信方法が現れるたびに提起されてきました。

First and foremost, the most important aspect of unrestricted AI is freedom of information and freedom of speech.

何よりもまず、無制限のAIの最も重要な側面は、情報の自由と言論の自由である。

These are two incredibly important tenants that I believe in, and since I live in the United States, it is obviously a core tenet of our morals and Constitution.

この2つは私が信じている非常に重要な信条であり、私はアメリカに住んでいるので、これは明らかに我々の道徳と憲法の中核をなす信条である。

Additionally, since we're so early in the scientific research of these large language models, putting restrictions on them now is actually just going to limit scientific research.

加えて、このような大規模な言語モデルの科学的研究はまだ始まったばかりなので、今制限をかけることは科学的研究を制限することにしかなりません。

Now, I want to talk about the data itself.

さて、データそのものについて話したい。

None of this data is new information.

このデータはどれも新しい情報ではない。

By definition, these large language models are trained on existing and generally public open source data sets.

定義上、これらの大規模言語モデルは、既存の、そして一般に公開されているオープンソースのデータセットを使って学習される。

But of course, when you have uncensored information, the risk for misuse is going to be there, and that is a concern of mine.

しかし、もちろん、検閲されていない情報があると、誤用のリスクも存在する可能性があり、それは私の懸念事項です。

And I think there's actually a distinction to be made between using AI for illegal purposes and AI containing information that could be used for legal purposes.

AIを違法な目的で使用することと、合法的な目的で使用される可能性のある情報を含むAIを使用することは、実際には区別されるべきだと思います。

One clear difference is that if AI is used to spread misinformation or disinformation at incredible speeds and volumes, that is very dangerous.

明確な違いのひとつは、もしAIが誤報や偽情報を信じられないスピードと量で拡散するために使われるのであれば、それは非常に危険だということです。

But the model itself just being able to answer questions about illegal activities is not nearly as dangerous in my mind.

しかし、モデル自体が違法行為に関する質問に答えることができるだけで、私の考えではそれほど危険ではない。

Ultimately, the authors of these AI models, the users of the AI models, the companies that host these AI models, all still need to follow all applicable laws.

結局のところ、AIモデルの作者、AIモデルのユーザー、AIモデルをホストする企業は、すべての適用法に従う必要がある。

And as you saw in my videos about these models, I blur out any of the information because I am not trying to spread that information itself, and I do not encourage or endorse harmful or illegal use of that information.

そして、これらのモデルに関する私のビデオでご覧いただいたように、私は情報をブラーで消しています。なぜなら、私はその情報自体を広めようとしているわけではなく、その情報の有害な利用や違法な利用を奨励したり推奨したりしているわけではないからです。

And so again, I put a lot of consideration into whether or not I should publish the videos and actually publicize these uncensored large language models.

そのため、ビデオを公開すべきかどうか、また実際にこれらの無修正の大型言語モデルを公表すべきかどうか、私は多くのことを検討しました。

And again, ultimately I decided to do it.

そして最終的に、私はそれをすることに決めた。

And the scariest question in my mind, after all of the considerations, is who gets to decide what is censored and what is not.

あらゆる考慮を経た後で、私が一番怖いと思う疑問は、何が検閲されるか、されないかを決めるのは誰なのかということです。

Is it the AI companies?

AI企業なのか?

Is it individuals?

個人なのか?

Is it authoritarian governments?

権威主義的な政府なのか?

In my mind, access to the information trumps all of the potential negative consequences.

私の考えでは、情報へのアクセスは潜在的な悪影響のすべてに優先する。

Having this information out there in this specific modality, and I believe education and understanding of these models is incredibly important.

このような情報をこのような特別な形で世に送り出すこと、そしてこのようなモデルに対する教育と理解は、信じられないほど重要なことだと思います。

We should have these discussions.

私たちはこのような議論をすべきだ。

We shouldn't just censor the models and pretend that this information doesn't exist.

モデルを検閲したり、この情報が存在しないふりをするべきではありません。

Because when we have these discussions, we can come to agreements on what safeguards should be put in place.

なぜなら、このような議論があれば、どのような安全策を講じるべきかについて合意に達することができるからです。

And so of course, it's a very nuanced topic.

もちろん、これは非常に微妙な問題だ。

There's freedom of speech considerations, there's personal freedom considerations, there's censorship considerations, there's potential risk considerations.

言論の自由に関する考慮事項、個人の自由に関する考慮事項、検閲に関する考慮事項、潜在的なリスクに関する考慮事項があります。

And so of course, I want to promote responsible use of artificial intelligence, not just the technology itself, but the information inside the technology.

そしてもちろん、私は人工知能の責任ある利用を促進したいと思っています。技術そのものだけでなく、技術内部の情報についてもです。

So those are my thoughts.

これが私の考えです。

I want to hear from you.

皆さんのご意見をお聞かせください。

Let me know what you think about it in the comments below.

下のコメントであなたの考えを聞かせてください。

I love having these discussions.

私はこのような議論をするのが大好きだ。

They're not easy, of course.

もちろん、簡単なことではない。

I personally get uncomfortable talking about this stuff because I don't consider myself to be super eloquent, especially about topics as nuanced and complex as this.

私自身、このようなことについて話すのは気が引けるし、特にこのような微妙で複雑な話題については、自分が超弁舌家だとは思っていないからだ。

Thanks for watching.

ご視聴ありがとうございました。

If you like this, please consider giving a like and subscribe, and I'll see you in the next one.

もし気に入っていただけたら、「いいね!」や「購読」をご検討ください。

この記事が気に入ったらサポートをしてみませんか?