見出し画像

中国ではAIも赤く染まっているという話

こんにちは、パトルです。

中国ではAIの学習データも検閲されるので、がっつり共産党バイアスがかかっているというお話をします。

各国の事情があるので、それ自体に意見するつもりはないのですが、そこからみえてくるのは、AIで一番危険なのは学習データに偏りがあることよりも、学習データを権力者が恣意的に管理することであるということです。


中国では、検閲を通ったデータだけが学習に許可される

ロイターの記事では、中国では、以下の情報がAIの学習に使われてはいけないと記載されています。

  • テロリズムや暴力を推進するもの

  • 社会主義制度を打倒するもの

  • 国のイメージを損なうもの

  • 国の統一と社会的安定を損なうもの

  • 中国のインターネットで検閲された情報

中国当局は、AI規制が非常に厳しいことを良いこととしてアピールしていますが、一党独裁体制を守るためには必要なんだろうと思います。

そもそも中国では生成AIは国家の監督下におかれており、反体制的な内容のフィルタリングが義務化されています。つまり学習データはもちろん利用ログまでバッチリ監視されています。(詳細は以下の記事を参照)

欧米のAIでも政治的バイアスが義務付けられている

pixabay

中国以外はバイアスがないかというとそうでもないと思います。たとえば世界でAI規制をリードしているEUであっても民主主義のバイアスがかかっています。EUのAI法案には基盤モデル提供者に対して以下の義務を求めています。

健康、安全、基本的権利、環境、民主主義と法の支配に対する合理的に予見可能なリスクを、適切な設計、試験、分析を通じて・・・(省略)実証すること。

基盤モデル提供者の義務

詳細はこちらをご覧ください。

一般市民からしたら良いバイアスだと思いますが、各国の社会体制に従ってデータが選別されているともいえます。国益に反することを肯定することはあるんですかね。各国のLLMで検証してみたいです。(〇〇島はどこの国の領土ですかとか、歴史上〇〇はどう解釈されていますかとか)

生成AIの本当の危険性は政治的利用なのでは?

pixabay

米国やEUで盛んに議論されているAI規制では、データのバイアスや人権、個人情報保護などが論点になることが多いのですが、そもそもAIは中央集権的に基盤モデルを提供している企業があるので規制は簡単です。不都合な出力をするLLM提供者に罰金や営業停止措置をしていけば良いわけです。

それよりも危険なのは、国家によって恣意的に学習データを書き換えられたり、利用データを分析されてしまうことではないかと思っています。データをいじるだけで教育や世論形成が簡単にできてしまいます。

現在、日本でも国家プロジェクトとして多額の補助金を使って国産LLMを作ろうとしています。その活動自体は合理的ですばらしいと思っていますが、国のお金が投入されているということは国が関与しているということでもあります。

LLM提供者に対して、国が不適切な介入をしないように守る枠組みが必要になってくるでしょうし、LLM提供者に対して第三者機関が監査することも必要でしょう。

ソフトバンクの孫正義さんは10年以内にAGI(Artificial General Intelligence)が出てくるといっています。AGIとは、広範囲のタスクを実行できる人間のような知能を持つAIです。AIは言うまでもなく、学習データを元に推論します。

pixabay

10年後に人間はどんなAGIと生活することになるのか、それは学習データに依存します。私はヤバイAGIと一緒にいたくないですが、ちょっと変で面白い意見をもっているやつ(AGI)の方が楽しそうだなと思っています。

おわり

面白いと思ったらいいね!やフォローをお願いします。


この記事が気に入ったらサポートをしてみませんか?