見出し画像

テクノロジーと倫理が共存する世界に向けて今できること

データの持つリスクを把握するためには、多面的な評価の仕組みを事前に検討しておく必要があります。

今回はTrilateral Researchでシニアプラクティスマネージャーを務め、データ保護影響評価を推進しているレイチェルさんに、データ保護影響評価の現状と今後に関して、お伺いしていきたいと思います。

画像1

社会科学とテクノロジーで生み出す新たな価値

Kohei: なるほど。その視点を私は持っていないと感じたので、とても勉強になりました。プライバシー専門家にとっても、なぜプライバシーの視点が必要であるかを語る上で、とてもわかりやすい話だと思いました。次に、これからの構想に関してお伺いしたいと思います。

既に数多くのプロジェクトをTrilateral Researchでは実施していると思います。その中で、ソーシャルテックフォーグッドと呼ばれるプロジェクトがあると思うのですが、このプロジェクトはとても気になっています。

拝見したプロジェクトの中でも、革新的な取り組みの一つであると思うのですが、今後どのようにプロジェクトを推進していこうと考えているのでしょうか?

Rachel: ソーシャルテックフォーグッドはシステム開発のプロジェクトです。複雑な社会問題を抱えている公共性の高いプロジェクト使用するシステムにプライバシーバイデザインや倫理的な視点を導入するお手伝いをします。

これまでに取り組んだプロジェクト例を挙げると、児童労働搾取や人身売買から市民を守るために実施されたプロジェクトで開発が必要なシステムが該当します。

社会科学とテクノロジーそれぞれの考察方法を組み合わせ、クライアントが公共的な目的で実施するデータ活用をお手伝いするので、ソーシャルという言葉を加えました。

ドローン関連のプロジェクトでは、利用するドローンの仕様がそれぞれ異なる設計になっているため、利用目的に合わせて統一した仕様にするように伝えるようなお手伝いもしています。

人工知能に必要な多面的な視点

こういった問題は人工知能でも見られるようになってきています。もし、人工知能を倫理的な視点も含めて開発したいと考えているとすれば、単にAIシステムを開発するのではなく、多様な視点と文脈を加える必要があります。

開発を行う際にはAIがデータによって導き出す回答内容を事前に理解しておく必要があります。AIが導き出す文脈を理解して、解釈できるようにしないといけません。

図:AIが導き出す答えを理解し、最適な判断を行う

画像2

そして、全てのAIシステムには社会科学的と技術の視点を組み込む必要があり、クライアントが効果的に意味のあるインサイトをデータから読み解くためには多様な視点でサポートが必要になるのです。

Kohei: なるほど。AIを採用したことで起こりうる影響を事前に評価することは、事後対応ではとても難しいと思っています。AIを採用したことによって負の影響が生み出されてしまってからでは、取り返しがつかないことが起きる可能性があります。

一方、AIを開発する段階で、どういった影響がデータ提供者に起こりうるのか予測することはとても難しいと思います。

AIを採用した後に起こりうる影響をどのように測れば良いか教えてもらえますか?現実的に予測することは容易ではないと思うのですが、もしアイデアがあればお伺いしたいです。

Rachel: 頂いた質問はプライバシー影響評価に加えて(プライバシー影響評価は参考になる)、私たちが現在取り組んでいる新しい領域の話ですね。

私たちは、社会的な問題と法的な問題、加えて倫理的な問題も研究しています。最近EYと協力してAIを導入する際のリスク評価ライブラリーを開発しました。開発の際には、AIシステムを異なる手法で検証し評価しました。

この取り組みはアルゴリズムの透明性と説明できるAIの考え方から着想し、AIを導入する際に再検討が必要な場合は評価結果をもとに変更を行い、データ提供者が十分にデータ処理状況を理解した上で保護されるシステムが実装されているかを検証するものです。

データ提供者が、AIの仕組みとデータ処理環境を理解することで、双方が仕組みを理解した上で、適切なデータの取り扱いが実現できる環境に繋げていきたいと思っています。

Kohei: ありがとうございます。とても興味深い取り組みですね。最後に視聴者の皆様へレイチェルさんからのメッセージを届けたいと思っています。レイチェルさんのこれまでのご経験やプライバシー影響評価の取り組み、研究内容はとても参考になりました。最後にメッセージをお願いできますか?

テクノロジーと倫理が共存する世界に向けて今できること

Rachel: 未来に向けて、新たに何に取り組むのかがより重要になっていくと思います。これまでは、私たちの生活を便利にするためにテクノロジーの開発を進めてきたと思います。

これから未来に向けてテクノロジーの導入を進めていく際に、テクノロジーによってもたらされるプライバシー問題や持続可能性問題を十分に考慮した上で、導入を進めていく必要があると考えています。

AIが生み出す新しい価値を、AIと倫理を考えることによって制限するべきではないと思います。公共機関は限られたリソースで運営していることもあり、システムを利用して効率化していくことが必要になると思います。

図:AIと倫理が共存する未来

画像3

勿論、公共機関のシステムで人に関するデータを取り扱う際には、十分にデータ保護を検討する必要があります、欧州ではAI法案が発表され、既に検討が始まっており、今後欧州委員会内で様々な検討部会が立ち上がり、何を変えて、何を残すべきなのか議論が進んでいくと思います。

欧州はデータ保護を積極的に推進しているので、引き続き様々な議論が進んでいくと考えています。AI規制に関しても、テクノロジーの発展と、市民生活向上の視点からより議論が活発化していくと考えています。

Kohei:素晴らしいメッセージをありがとうございます。レイチェルさん会社で展開しているプライバシーバイデザインサービスは一ファンとして、参考にしています。

皆さんの専門性はプライバシー対策を検討する事業者にとって、非常に有益なサポートになると思います。社会全体でプライバシーを大切にできるように、未来に向けて連携していきましょう。

Rachel: ありがとうございます。今日はお話しできてよかったです。

Kohei:ありがとうございます。

データプライバシーに関するトレンドや今後の動きが気になる方は、Facebookで気軽にメッセージ頂ければお答えさせて頂きます!
プライバシーについて語るコミュニティを運営しています。
ご興味ある方はぜひご参加ください。

Interviewer, Translation and Edit 栗原宏平
Headline Image template author  山下夏姫

この記事が気に入ったらサポートをしてみませんか?