見出し画像

未来のAI社会に向けてプライバシーバイデザインが実現すること

※このインタビューは2024年3月18日に収録されました

テクノロジーによる自動化がより発展していく過程で、倫理的な議論がより重要になりつつあります。

今回はイタリアのローマに本部がある国際開発法機構 (IDLO) で専門家として活動されているマキシムさんに、法や哲学の観点から見るべき倫理的な視点についてお伺いしました。

未来のAI社会に向けてプライバシーバイデザインが実現すること

Maksim: おっしゃる通りプライバシーは我々の尊厳や人々の自律性を尊重する上で本質的な要素の一つであると考えています。現在AIは膨大なデータ処理を前提とした方法論で設計されています。

AIシステムを開発する上で、対象となる利用者への影響を考慮していくとデータ保護はより重要な問題の一つになると思います。こう言った背景から、データ保護についての議論を進めて行くことが必要になります。

私はAIを推進して行くことによって、何かしらのトレードオフが実装段階で出てくることになると考えています。先程社会での技術実装が進む過程においてのバイアス問題を紹介したかと思います。このバイアス問題を解決するための方法としては、より多くのデータを読み込む方法があります。

機械学習のアルゴリズムを設計する際に、正確で関連性のあるデータを読み込むことが重要であることは間違いありません。もし入力データが正確で拡張性があるものであるとすれば、バイアスを逓減させることに繋がって行くはずです。

ただ、より多くのデータを読み込むことは個人のデータ保護と相反する形になります。AIバイアスを縮小させるために個人を特定するデータセットに近づけば近づくほど、プライバシー問題に近づいて行くことになるからです。

画像:AIの正確性と引き換えにプライバシーリスクが大きな課題に

これにより、ポリシーに反するようなことが起きないかどうかを注意深く検討することが必要になるでしょう。さらに、大規模な監視に繋がりうる点についても議論が必要です。大規模なデータ処理をAIで実施することになれば、監視につながる可能性も発生します。

実際に我々がまとめた推薦書の中でも、AI技術をソーシャルスコアリングや大規模監視については利用を控えるように記載しています。

先程紹介した推薦書内ではデータ保護やプライバシーについて強調する文面も含めて記載しています。プライバシー権やデータ保護についての定義は別の政策とも重なる部分があるため、データ保護への対応を整理するために取りまとめを行っています。

データ保護に取り組むためには、プライバシー影響評価をアルゴリズムを導入したシステムに対しても実施し、社会的、倫理的側面に加えて、プライバシーバイデザインを追加したAIシステムのアカウンタビリティに言及しています。

対象機関の救済方法を整備することで、個人の権利を保護することにも繋がります。個人が自身のデータに対する権利を保持するために、AIシステム全体のライフサイクルについて整理することも必要です。私が冒頭で話をしたように、AIシステムが現在どのようなステージにあるかを把握し、開発段階から技術導入までをデザインし、実装することが求められます。

まさにプライバシーは全てのステージにおいて重要な検討要素になります。

Kohei: そうですね。私もマキシムさんがお話し頂いたことに同意致します。私たちの社会ではAIがより身近になって行くと思います。プライバシーを保護する重要性はより高まって行くと思いますし、法律家だけでなく開発者やビジネス、組織のリーダーを始めとして社会とテクノロジーの連携を推進して行く人にとっては欠かせないテーマです。

ここからは未来に向けてのお話をお伺いしたいのですが、先日マキシムさんのLinkedInで興味深い内容を拝見いたしました。投稿ではPoliticoというメディアが主催で開催したフォーラムでの内容が紹介されていたのですが、投稿の続きについてお伺いできればと思います。

デジタルが当たり前になりつつある社会で求められるルールづくりの形とは

これからのデジタル社会においてルール作りを進めて行くにあたってどういったことが必要になるのでしょうか?

Maksim: 勿論です。頂いた質問は非常に広いテーマを含んでいると思うのですが、私からは本質的に重要だと思うポイントをいくつか紹介したいと思います。ここで紹介するポイントが上手く設計されていないと、デジタル社会でのルールづくりが上手く機能しないのではないかと考えています。

まず始めにお伝えしたいことは、デジタル空間で設計するルールは物理的な空間と切り離さず、私たちがリアルで体験していることと同様なものとして扱うべきであるということです。ただ、現在の議論に触れてみるとこのような考え方で設計されていることは非常に稀であると感じています。

これまでの数年間で法の世界における議論が停滞していた時期がありました。デジタルのことをデジタルだけで考えることでは不十分な世界が来ています。

これが一つの論点です。そして二つ目に、デジタル空間で取り交わされる契約はリアルのものと大きく異なるため、それぞれに異なった対応を検討する必要があるということです。まずこの二つのポイントについて覚えておいてほしいと思います。

二つ目の重要なポイントは中立性を前提とした強く共通の理解を整理することが重要になります。価値の中立性という理論がありますが、技術そのものは良いも悪いもなく、モラル的にも政治的にも中立であるとの理解が必要です。

画像:中立なルールをどのように設計するか

技術を組み合わせて行くことによって、利用目的の善悪に限らず我々が技術を利用できるようになります。実際には様々な大学の倫理学者やテクノロジー理論学者の間で、規範的、政治的にテクノロジーは中立ではないとも考えられています。

私たちが人工知能について考える場合は、この中立性の問題がより顕著になります。我々はAI開発のために日々選択を行い、特定のイデオロギーがAIの発展によって排除されることになります。

よりシンプルに考えると、あなたが何かを決定する場に居合わせないことによって、あなたの考えが世の中に影響を与えることがなくなって行くということです。

私の母親のAIシステムにデータの問題でバイアスがかかっているかどうかについては、どういったデータをシステムが処理しているか否かに大きく依存することになります。

時にデータは完璧ではありません。データ自体に社会のバイアスやステレオタイプ、異なる分類を組み込んでしまうこともあるため、本来求めるべき結果からは大きく外れてしまうこともあります。現在のAI技術に応用されるデータについては、一定数の推定を原則とし、より早い速度で成長を遂げているからです。

ここまで話をしてきたことを越えて、AIシステムは私たちの外の世界から情報を学び、開発者が予想もしなかったような動きやを実現するようになると思います。

こういった非常に複雑なタスクを決定し、責任を持って決定を下し、問題の予測を行い、法的な責任は求められない形で独立して活動するようなことが実現されて行くと思います。こういった未来の予測を考えた上でも、適切なルールづくりについての重要性への認識は非常に限られるところです。

この長い話を短くまとめるとすれば、既にテクノロジーの発展に対しては我々が大幅に遅れをとってしまっているため、テクノロジー利用を評価したり、規制したりすることだけを目的にすることでは事が足りません。

先程お話しさせて頂いたように、全てのステージにおいてのライフサイクルの視点でテクノロジーの調査やデザイン開発、利用促進を行って行くことが求められるようになります。

そして、サブステージと呼ばれる管理や運用取引、ファイナンス、モニタリング等の組み立て停止についての重要性をライフサイクルにおける全てのステージで考慮することが必要です。

特定の技術を利用する際のステージだけでなく、ライフサイクル全体での利益を考えた上での改善活動を設計することが必要になります。

ここまでお話ししてきたことが二つ目の基本的なポイントになります。特に基本的な知識や中立的な価値というものは存在しないということです。技術とは、モラルや政治に反して中立的ではないということが重要です。

新しい技術の発展と私たちに求められるモラルの在り方

三つ目のポイントが最後になります。この考え方は最近私が考え続けていることなので、私によってはいつもの思考で整理したものになります。

現在の法律は私たちが共有の考え方として備えているものを前提に設計されています。例えば、人間が自立して自由であることが新しい技術に対しても同様に適応されることになります。ただ、我々は日々自らをデジタル社会に依存させ日々の様々な意思決定をデジタルシステムに置き換えていっていると思います。

これは私たちの日々の生活とモラルの変化にもつながって行くことになります。一方で、法的な介入というのは我々がテクノロジー利用を進めていく速度とは大幅に異なり時間がかかるものです。同じ技術であったとしても、我々の自律や自由を制限するようなものに対する評価が十分ではないケースも起きています。

画像:デジタル空間で求められる私たちのモラル

法や規制による介入と呼ばれるものが我々人間が依存するものに対して公正に判断を下すことができるものかというと、非常に難しい一面もあります。

そこで少し類推をしてみたいとおもいます。一つ目に重要な点として紹介した、誤った予測を、我々が組み立てようとしている規制の中で考えてみたいと思います。

私は、現在の規制がリードするフレームワークの中で取り扱う新領域の技術においては、まだ不明瞭な点が多く残っていると思います。ただ、これらのフレームワークは同時に、基本的な考え方の中で整理したテクノロジーと対立することになります。

そうですね。ここまでお話ししてきた内容をいつも考えています。まだ具体的な解決策にたどり着いたわけではありませんが、何か手助けになるような形では取り組んでいきたいと思います。最終的には効果的な規制のフレームワークを整え、新しい技術の問題について効果的に言及できるようになると良いかと思います。

Kohei: ありがとうございます。ここまでとても興味深いお話をお伺いすることができました。本日のお話を通して、異なるモデルを統合することの重要性とテクノロジーだけに限らず、政治や法の設計等も混ぜ合わせて社会への実装を考える重要性についても学びました。

最後に、マキシムさんから視聴者の方へメッセージをお願いしたいと思います。これまでのマキシムさんの経験から非常に多くの示唆をお伺いすることができるのではないかと楽しみにしております。

Maksim: わかりました。お伝えしたいことはたくさんありますが、長期的な視野を持って物事に取り組んでいくことが非常に重要であるということです。私がこれまで話をしてきたことや、異なる地域で活動してきた経験から長い目で見て物事に取り組む重要性をお伝えしたいと思います。

我々が心理学で本能的に持っているものなので仕方ない部分はありますが、私たちが生きる現代では短期間で結果を出すことが当たり前だと考えることが増えてきています。短い期間で結果を考えることは、長期間何かに取り組むよりも容易くできることであるとの考え方が浸透してきています。

我々のリスクに対する考え方も長期で見た時のリスクよりも、目の前にある利益を追求する傾向が広く重要視されつつある気がしています。こういった社会の雰囲気は、何が良くて何が悪いのかを分別を持って選択する機会を失わせてしまっている側面もあるのではないかと思います。

選択した結果が具体的になったときに、選択した誤りがより大きくなっていくのです。そうなってしまえば、未来に対して取り返しがつかないことになります。

これは新しい技術にだけ当てはまる話ではなく、世界中で広く指摘され始めていることだと思います。私は改めて長い目線を持って物事に取り組み、長期的なリスクと便益について考えてみることが必要であると思います。

これまでに長期的な視野を持って活動している方々ともお会いしてきました。既に短期目線になってしまっている部分もありますが、本日お話しさせて頂いたように長い目で見て物事を判断することが必要になると思います。私からのメッセージは以上です。

Kohei: 素晴らしいメッセージをありがとうございます。私たちのインターネット業界には長期的なビジョンが必要であることがわかりました。マキシムさんから教えて頂いた文脈のお話は非常に重要な内容です。 改めて、本日はインタビューに参加頂きありがとうございました。

Maksim: 本日はありがとうございました。

Kohei: ありがとうございます。

データプライバシーに関するトレンドや今後の動きが気になる方は、Facebookで気軽にメッセージ頂ければお答えさせて頂きます!
プライバシーについて語るコミュニティを運営しています。
ご興味ある方はぜひご参加ください。

Interviewer, Translation and Edit 栗原宏平
Headline Image template author  山下夏姫

この記事が気に入ったらサポートをしてみませんか?