見出し画像

AIと倫理 フェイクニュースとの向き合い方

こんにちは。シンラボ共同代表の草場です。

ディープラーニングを実践する上で最高のコンテンツ、FASTAIをやってます。まずはプロジェクトを組んでやってみることがおススメです。読んでいるだけで楽しいです。引き続き、AI倫理に関してです。

データ倫理のトピックスをまとめていきます。

リコースとアカウンタビリティの必要性
フィードバックループ
バイアス
偽情報

さて、バイアスに関して、防ぐ方法を見てきました。そこで問題になるのが、フェイクニュース、偽情報です。で、この偽情報に関しては、捉え方を少し変える必要がありそうです。


偽情報
偽情報は、必ずしも誰かに何かを信じさせるためのものではなく、むしろ、不調和や不確実性をもたらし、人々が真実を追求することをあきらめさせるために用いられることが多いです。矛盾した情報を受け取ることで、誰を、何を信じていいのかわからなくなってしまうのです。

これは本当にそう思います。不信を生みます。で、フェイクニュースに関して厄介なのは、完全な嘘ではない、ということです。

偽情報とは、主に嘘の情報やフェイクニュースのことだと思っている人がいますが、実際には、偽情報には真実の種が含まれていたり、文脈を無視した半分の真実が含まれていたりします。

本当に厄介。

「事実、半真実、誇張、そして意図的な嘘を慎重に混ぜ合わせて作られている」

この偽情報を使って、うまく情報操作をしていくわけです。

例えば、不正なアカウントは、特定の見解を持つ人が多いように見せかけることができる。私たちは、自分が独立した考えを持っていると思いたがっていますが、実際には、内集団の人に影響されたり、外集団の人と対立したりすることがあります。オンラインでの議論は、私たちの視点に影響を与えたり、私たちが許容できる視点の範囲を変えたりします。人間は社会的な動物であり、社会的な動物として、周囲の人々から大きな影響を受けます。最近では、過激化はオンライン環境で起こることが多くなっています。オンラインフォーラムやソーシャルネットワークの仮想空間にいる人々から影響を受けるのです。

情報を正確に捉えることが出来る、と思いがちですが、人間の思考は多数決の法則的な部分があり、特定の意見が多いように思わせられるだけで、考えが変わってしまいます。最近の自然言語処理分野の発展は、この点を不安にさせます。

ではどのように防ぐのでしょうか?デジタル署名が提案されいます。

そこで提案されているのが、何らかのデジタル署名を開発し、それをシームレスに実装して、検証されたコンテンツだけを信用するという規範を作ることです。AIは、忠実度の高い偽造を安価に自動化し、民主主義、安全保障、社会に悲惨な結果をもたらす可能性を秘めています。AIによる偽造の脅威は、私たちがデジタルコンテンツの認証手段としてデジタル署名を進める必要があることを意味しています。

ディープラーニングやアルゴリズムがもたらす倫理的な問題が、様々見えてきました。

それではまた明日。

草場壽一
https://sinlab.future-tech-association.org/


この記事が気に入ったらサポートをしてみませんか?