見出し画像

スマートデバイスは、エッジで処理するプライバシー技術を欲している

AI技術の開発は進む一方で、機械で処理するデータに関する議論が徐々に加熱してきています。機械で処理するユーザーデータのプライバシーを保護するために新しい技術の開発も進んでいます。

インタビュー前半は、AIとプライバシー技術の発展、そしてデバイスでデータ処理を実現する未来の話を聞いていきたいと思います。

画像1

Kohei: Privacy Talkにお越し頂きありがとうございます。今回はトロントからPatriciaさんにゲストとして参加頂いています。今回はプライバシーとテクノロジーをテーマに話を伺いたいと思います。

プライバシーを前提としたデータ活用を進めていく上で将来的にテクノロジーの発展はとても重要なポイントです。本日はお越し頂きありがとうございます、Patriciaさん。

Patricia: ありがとうございます、Koheiさん。参加できて光栄です。

Patricia氏の経歴

Kohei: ありがとうございます。まず、Patriciaさんのバックグラウンドを紹介したいと思います。現在はトロント大学コンピューターサイエンス学部の博士課程に在学中で、ベクター・インスティテュートでは大学院生として自然言語処理技術における暗号技術を応用したプライバシー保護の研究をしています。それ以外にもコンピューター技術を活用した死語解読も研究しています。

様々なプライバシーツールを顧客企業に該当するデータ保護規制に準じて導入支援するスタートアップ企業 Private AIの設立者です。会社はトロントとベルリンを拠点に、サイバーセキィリティリスクの削減と顧客保護の観点から期待が寄せられています。

研究を通じて、カナダ自然科学・工学研究会議から大学院奨学金プログラムに採択され、カナダロイヤル銀行のフェローシップへの参画、ベアトリスワースレイ、オンタリオ奨学金を受賞しています。

研究は過去8年間にわたりソフトウェア開発の研究に取り組み、マックギル言語開発ラボ、トロント大学コンピュータ言語ラボ、トロント大学言語学部、カナダ公衆衛生庁で実施してきました。

Private AIの活動の他にも、カナダの非営利チャリティ組織Equity Showcaseのボードディレクターも務めています。

Patriciaさん、本日は改めてお越し頂きありがとうございました。早速本日のインタビューアジェンダに移っていきたいと思っています。今経営しているスタートアップ企業 Private AI に関してお伺いできればと思います。Private AI でプライバイーツール導入支援ので取り扱うAI領域のプライバシー技術は先進的な分野だと思います。この分野に取り組むきっかけはなんでしたか?

プライバシー技術開発の構想には苦労した

Patricia: そうですね。経緯をお話しします。博士課程に入ったのは会社を立ち上げるためでした。博士に入って研究して行くうちに、論文のアドバイザーと一緒に聴覚に関する捜査に必要な科学的な分析を事業にする会社を立ち上げようと考えるようになりました。音声記録を分析して話し手が誰かを特定することで捜査に役立てようとする事業です。

方法としては、人がそれまで受けてきた教育や経済環境などの情報を分析し、どういう情報が捜査に役立つのか判断していきます。この分野で取り組みたいと思ったのは、自動音声認識システムでの部分集団向けの情報処理技術が分析に役に立つと思ったからです。自動音声認識は技術的に批判されることも多かったですが。

私たちの研究を知り、興味を持った人たちは話を聞きに来ました。特に人権に配慮して被験者記録を集められていない国からは関心が高かったですね。そのため、私たちは増えるデータ量とデータプライバシーのバランスを考えながら技術的な要素を考えました。

図 データとプライバシーのバランス

名称未設定.001

プライバシーに配慮した設計にするために、準同型暗号を自然言語処理のプロセスに組み込む設計を始めました。分析事業として活用できる技術の有用性に関する発表をいくつか実施しました。準同型暗号技術を活用した自然言語処理プロダクトの開発にも取り組みましたが、最終的には想定よりもスケールが難しいことがわかりましたね。

そこで、一度立ち返ってマーケットに何が足りないかを考えました。プライバシーに配慮した技術をエッジに簡単に組み込めるツールがないことがわかり、自分たちの事業構想とマーケットに大きな溝を見つけました。ブラウザーのエクステンションを通じてIoT、オンプレミス、プライベートクラウドなどに組み込める要素をアプリ化して組み込めると良さそうという気づきからの変化ですね。

そこからプロダクト開発に移り、匿名化のツールキットを簡単に組み込める3つのラインのコードで開発しました。そのコードを利用してテキストや画像、動画、音声を認識します。

プライバシー技術の導入は、人材確保から始まる

Kohei: なるほど。そういった経験から、実際に企業が新しい技術を導入して開発を進めるには何が最も大きな課題だと思いますか?

Patricia: 最も大きな課題ですか。企業の予算に余裕があれば人を雇って対応することできます。組み込み作業などもそうです。多くの企業が抱えている問題だと思うのは、十分に人材を確保するのがとても難しいことです。私たちが代わりに探すことが多いです。企業が求める内容を解決するために、私たちがツールを作成することも多いですね。

Kohei: なるほど。十分に対策できるようにするためには、各企業内での育成も必要になってくると思います。プライバシー対策などを考慮した上で教育的なお手伝いもされるのですか?

Patricia: そうですね。教育を社内でやるかどうかはとても良い質問だと思います。

より多くのプライバシー技術に関する教育コンテンツが活用できるようになっているので、そういったリソースから学び続けないといけないと思います。プライバシー技術を活用した機械学習のカンファレンスや大学の授業など機会が増えていくことは大切ですね。プライバシー技術といっても人によって理解度に差があるので、学部の授業からプライバシー技術に関する基本的な理解を広めていく必要があると思っています。

プライバシー技術を利用できる環境は増え、使いやすくなり始めています。私たちも発表や登壇により教育機会を増やしているところです。

Kohei: なるほど、ありがとうございます。ここからは次のテーマに移っていきたいと思います。

プライバシーバイデザインはコンセプトから企業戦略に変化している

Kohei: 最近、私たちはPrivacy by Design Labという組織を立ち上げ、プライバシーを前提にしたデザインを広げていきたいと思っています。

これまでエンジニアとして活動されてきたご経験を踏まえてお聞きしたいです。アンカブキアン氏が構想したPrivacy by Designというコンセプトは、2000年代後半に発表されてからエンジニアコミュニティで実装まで進んでいるのでしょうか?特に、トロントなど先端研究が進む地域での状況が気になります。

Patricia: いい質問ですね。エンジニアの間では徐々にコンセプトの理解が進んでいますが、まだ浸透しているとは言えないですね。平たく言えば、聞いたことがある程度の人もいれば、研究している人もいるといった状況です。やっと共通言語になり始めたというのが本音ですね。

カブキアン先生と2017年にこの話をして、開発者は採用した技術がどんな影響を及ぼすかを事前に判断し、倫理的に考える必要があると理解しました。過去の教育機会で聞いた話の中でもとても印象的だったのを覚えています。

2009年にPrivacy by Designのコンセプトが発表されてから新しく画期的なものが誕生しています。ハーバード大学のサイエンティストのシンシア・ドゥワーク氏は2008年から2009年にかけて、差分プライバシーの構想をペーパーで発表しています。このペーパーは2009年に準同型暗号を応用した形でPrivacy by Designを体現した構想として発表されています。

当時はそういったコンセプトバブルが起きていました。実利用までは程遠かったですね。今では2013年のスノーデン氏の暴露の話やFacebookのケンブリッジアナリティカの問題もあって、プライバシーに注力する考えが広がっています。GDPRも大きな要因の一つですね。

人々が徐々に関心を持ち、エンジニアも新しい分野を学びアウトプットを試行錯誤している段階ですね。現場では、開発者が倫理的にプロダクトを生むことが求められ始めています。それは開発者だけでなく、企業のマネジメント層からも要求されていて、企業にとっても生き残り戦略として考える必要性が出ています

スマートデバイスの孕むプライバシー問題は、同意の有無ではない

Kohei: そうなんですね。Patriciaさんが公開されているmediumの内容を拝見すると、エンジニアの視点でそういった背景がわかりやすく整理されていました。私はエンジニアではなく、主にビジネスや政策を見ていますが、プライバシー技術に関する解説が参考になりました。

ブログの内容で自然言語処理とプライバシー保護の話が気になったので、お伺いできればと思います。スマートスピーカーを初め音声認識技術を応用するプロダクトが増えています。AmazonのAlexaやGoogleのGoogle Homeなど日本でも広がっています。

プライバシー保護技術という視点では、自然言語処理ではどういう点が問題になるのでしょうか?

Patricia: 面白い質問ですね。自然言語にはセンシティブな情報も含まれていて、機械で処理する情報も自然言語に含まれますし、私たちが言葉で発する情報も自然言語の一つです。私たちが言葉を発することができる能力は、私たちが教育を受ける過程で社会経済性を身につけることで習得した物ですね。

Alexaのようなスマートデバイスが抱える問題は、私たちの会話の内容を開発者が実際に聞いて、システムのバグの修正をしている点です。開発側は、ユーザーは録音内容を削除でき、開発者が利用している教育データをオプトアウトできると主張していますが、問題はこうした機能についてではありません。

図 スマートデバイスを通じてプライバシーが漏れている

名称未設定.001

サービス利用開始から勝手に聞き耳を立てられているということを開発者が理解していないのが問題です。これは、同意をしているかどうかの問題ではなく、そもそもデータを確認しても良いかをユーザーに確認する術を持っていないことです。

Kohei: それは問題ですね。ビジネスを考える上ではユーザーに確認を行うことが必要になると思います。ユーザーから明確に同意を取得する必要があるというのがポイントになります。たとえば、プライバシーポリシーがグチャグチャで分かりづらいのも問題になりそうですね。 企業がなにをプライバシーと考えて、社内でどのようにデータを活用するかなどはユーザーとしては事前に知っておきたい内容です。

インタビューは後編に続きます。

データプライバシーに関するトレンドや今後の動きが気になる方は、Facebookで気軽にメッセージ頂ければお答えさせて頂きます!
プライバシーについて語るコミュニティを運営しています。
ご興味ある方はぜひご参加ください。


Interviewer, Translator 栗原宏平
Editor 今村桃子
Headline Image template author  山下夏姫

この記事が気に入ったら、サポートをしてみませんか?
気軽にクリエイターの支援と、記事のオススメができます!
一緒に考えていきましょう!
6
Privacy by Designとは、技術的・組織的な側面から議論される、人間中心のデータ循環をデザインするための概念です。Privacy by Design Labは様々な専門家がプライバシーに取り組むための社会的機能をリリースしていきます。