見出し画像

プライバシーを保護するためにテクノロジーができること

※このインタビューは2022年5月19日に収録されました

テクノロジーを導入していく中で、機械による自動化のリスクも合わせて考えていく必要があります。

今回はアイルランドの市民団体アイルランド市民自由協議会(ICCL)でテクノロジーフェローを務めるクリスさんに、AI法案とプライバシー、そしてプライバシーテクノロジーに関してお伺いしていきたいと思います。

前回の記事から

次にクリスさんにお伺いしたい質問は、プライバシー技術に関する内容です。プライバシー技術とは一体何かという質問と、クリスさんがプライバシー技術要素の中で関心を持っている領域があれば教えて頂いてもよろしいでしょうか?

プライバシーを保護するためにテクノロジーができること

Kris:わかりました。プライバシー強化技術(以下PETs)は既にいくつかの技術要素の開発が進んでいます。採用する技術要素によって、PETsでできることが変わります。例えば、質問で準同型暗号技術を例に出してくださいましたよね。準同型暗号技術に近い技術要素で、マルチパーティコンピューテーションと呼ばれる要素もあります。

こういった技術要素はインプット型PETsと呼ばれています。例を紹介しましょう。情報をコンピューターで処理したとします。これは、コンピューターで何かを処理したいと考えて行ったことですよね。

図:インプット型のプライバシー強化技術

給与情報を漏らすことなく、金額の平均を理解する

従業員10人の給与情報をコンピューターで分析して、10人の平均給与の金額が知りたいと仮定しましょう。分析する際に、あなたは10人それぞれの給与情報を誰かに漏らさないように守りたいと考えています。

誰にも給与情報を漏らすことなく、皆が従業員10人の平均給与額を理解している状態が望ましいですよね。この状態であれば、従業員一人一人のプライバシー情報を保護できており、インプットプライバシーを実現できている状態にあります。

次にアウトプットプライバシーとは何かを紹介します。例えば、誰も個人を特定しない形で分析した統計情報を公表したい場合を想定します。

国の調査でも期待されるプライバシーテクノロジー

この場合は差分プライバシーという手法を用いて、個人を特定できない形でデータを公表します。米国の国勢調査でも用いられた手法です。

図:アウトプット型のプライバシー強化技術

個人を特定しない形でデータを公開

具体的な例をもとにPETsの紹介をしてきました。一つ目がインプットのプライバシーで、二つ目がアウトプットのプライバシーです。

PETsと一言で言っても、どのように対象となる個人のプライバシーを守りたいかによって、採用する技術とその組み合わせが異なります。インプットとアウトプット双方のプライバシーを守りたい場合は、どちらの技術も組み合わせて対応することが望ましいと思います。

PETsはとても面白い分野だと思っています。私が博士課程を取得する際に、PETsに関連したテーマで研究を行なっていました。ただ、先程紹介した準同型暗号や秘密計算技術を実装するためには課題が多く残っています。その一つに大規模な分析での実用課題があります。

大規模なデータをコンピューターで処理する際には大きな負荷がかかるため十分にデータを処理することができない、もしくは処理速度が落ちてしまいます。

技術的に乗り越えないといけない課題は様々ありますが、GDPR施行後にPETsの開発に注目が集まるようになってきています。

私はデータ保護法対策のために技術を採用する場合、技術を採用して利益を最大化するための発想ではなく、どんな課題を技術によって解決できるのか明確にした上で最適なPETsを採用することが必要だと思います。

Kohei: まさにそうですね。PETsを導入したソリューションもいくつか誕生してきていると思います。現在は研究開発レベルのものが多いと思いますが、将来的にはPETsを導入するケースがより広がっていくと考えています。

クリスさんの目から見て、次の10年でPETsを導入すべき有望な市場はどこになると思いますか?

プライバシーテクノロジーが生み出す新たなビジネス機会

Kris:特定の企業名は思いつきませんが、既に秘密計算技術のプロトコル開発を行っている企業もあると聞いています。他にはしきい値署名を採用したブロックチェーンソリューションを検討しているケースもあるそうです。

私も過去に関わっていたことがありますが、特定のサービスへ登録する際にブロックチェーン技術を利用するようなケースもあるそうです。

他には、複数の組織で画像データ等を共有する際に利用するケースが考えられます。個人を特定できてしまうプライバシー性の高い情報を、誰かわからない組織や人に勝手に広めてほしくないですよね?

具体的には、病院間で患者の症状や履歴データを共有するケースなどが考えられますね。

病院内で取り扱う患者の情報は非常にプライベートな情報であり、病院内で管理されている患者情報を分析したい人たちも、患者個人のデータを取得し分析するよりは、複数の患者の個人データを分析して見えてくる特定のパターンを知りたいはずです。

(動画:NVIDIAが取り組む連合学習と医療データ例)

複数の患者の傾向から見えてくるいくつかのパターンが理解できるようになれば、データの分析結果を有効活用できると思います。

他にもいくつか活用ケースが想定されますが、どのケースもプライバシー強化技術を利用することで、これまでにプライベートな情報を扱うために実現が難しかった新たな利益を生み出すことにつながると思います。

Kohei: ありがとうございます。プライバシー強化の要素技術を組み合わせて、新たな価値を生み出す動きはこれからも広がっていくと思います。他にも、個人データの処理する際に、誰かわからない第三者に自分のデータを渡さなくても、データによる分析結果で恩恵を受けることができる選択が必要になると思います。

本日はとても勉強になるお話をいただきありがとうございました。最後に視聴者の皆さんへメッセージをお願いしても良いでしょうか?

テクノロジーを実運用するために気をつけておくポイント

顔認識AIとプライバシー強化技術は、これからより重要なテーマになっていくと思います。視聴者の皆さんにとっても関心あるテーマかと思いますので、メッセージをお願いできると嬉しいです。

Kris:そうですね。いくつかお伝えしたいことがあります。一つ目はプライバシー強化技術に関してのメッセージです。プライバシー強化技術を採用する際に特定の技術を利用することによって、利用者のプライバシー保護にどういった影響があるのかを事前に理解することが必要です。

法律対策のためだけに技術を導入するのでは上手くいかないからです。欧州のAI規制案が他国の政策にも影響し広がっていくとすると、欧州域内に限らず顔認識AIの導入を検討しているシステム事業者は、事前に対策を検討する必要があります。

そして、これからAI規制案に関してどういった議論が進んでいくかは注目しておく方が良いと思います。欧州ではCCTVカメラを含めて、顔認識AIを導入するための条件に関する議論が多方面で行われているので、現在欧州で行われている議論は参考になるかと思います。

最後に私がいつも強調していることがあるのでお伝えしたいと思います。CCTVカメラの顔認識AI技術だけに限らず、顔認識AI技術によって取得された画像データをサーバー上で管理するのか、それともコンピューター(デバイス)上で管理するべきであるのかを事前に考えるべきだということです。これは非常に重要なテーマですので、覚えておいてください。

実際に、企業が開発したCCTVカメラを通じて取得した画像データを、データサーバーを通じて第三者へ送っているにも関わらず、“このカメラは顔認識技術を利用していない” とデータ提供者に説明していた場合に、取得した画像データがサーバー上に保存されていたかどうかは、争いが起きた際に重要なポイントになると思います。

Kohei: ありがとうございます。

Kris:先程紹介した3つのポイントが非常に重要なので、覚えておいてほしいと思います。

Kohei: ありがとうございます。今日のインタビュー内容は、視聴者の方に知ってもらいたい内容が多く、とてもわかりやすかったですご経験やご知見を共有いただきありがとうございました。

今日お話ししたテーマは、プライバシー強化技術とプライバシー政策の双方から明確にしていくべき課題がたくさんあるので、クリスさんの活動は特にデータを提供する側の人たちの視点で政策を考えていくために決定とても重要な役割を担っていると思います。

より多くの関係者と連携して、前に進んでいけると良いですね。本日はお時間いただきありがとうございました。

Kris:ありがとうございました。

Kohei: ありがとうございました。

〈最後までご覧いただき、ありがとうございました。〉

データプライバシーに関するトレンドや今後の動きが気になる方は、Facebookで気軽にメッセージ頂ければお答えさせて頂きます!
プライバシーについて語るコミュニティを運営しています。
ご興味ある方はぜひご参加ください。

Interviewer, Translation and Edit 栗原宏平
Headline Image template author  山下夏姫

この記事が気に入ったらサポートをしてみませんか?