見出し画像

フェアネスと個人情報


日本の国会で、先日chatGPTが話題に上ったという。

アメリカ在住のnoterさんは、すでにアメリカではchatGPTの一大ブームは去ったと書かれていたけれど、どうやら日本では少し遅れてこれから本格的なブームが到来するのかもしれない。

そこでよく取り上げられるのが個人情報問題。

今日は一冊の本を頼りにその個人情報について考えてみたい。



なぜ個人データを欲しがるのか

ここで参考にしたいのがこちらの一冊。

筆者、尾原和啓氏によれば、たとえばわたしたちは、グーグルを無料で使う代わりに個人データを差し出す、これがプラットホームとそのユーザーとの関係。

で、わたしが大坂なおみと検索すると、わたしのデータにはテニス好きと記録される。そこからグーグルは、広告を出す企業とわたしとをマッチングさせ、わたしがその企業の広告をクリックするたび、グーグルはその企業から広告料をもらう。

たしかにこの流れで、すでに個人情報が使われている。

こうしたことを繰り返し、GAFAは世界的大企業になった。だから個人情報は企業にとって資産なのだ。


GAFAの権力

そして、たとえばグーグルは誰と誰を出会わせて、誰と誰を出会わせないかを自在に設定できるという。これがアルゴリズム。その内訳は外からは伺いしれない。だからこうした企業は出会いの機会を作り、反対にその機会を奪うことが自在にできる企業だ。

だからこそグーグルは大きな権力を握っていると恐れられている。

わたしたちは、こうしたプラットホームを使って出会いを謳歌している。

けれどこの関係は国家との関係にも似ているという。

自由を保障してもらう代わりに、わたしたちは個人データという税金を徴収されている、ということ。


フェアであるために

もはや国家ほどの力を持つといわれるこうしたプラットホーム。

わたしたちに国家は選べない。けれどプラットホーム国家は選ぶことが出来る

そして、その国家並みの力を持つプラットホームにゆがみが出ないよう、GAFAとその社員は常にフェアでありたいと動いているという。

けれど、さらにフェアであるために、ユーザーであるわたしたちがプラットホームを監視する必要があるという。わたしたちはサービスを使うだけでなくアンフェアであると思うことがある時は声を上げる必要がある。たとえその声が小さくても、アンフェアであるなら、同じ意見を持つユーザ―がきっといるという。

つまり、こうした力を持つプラットホームがフェアに機能していくためには、社員の監視と同じく、ユーザーの監視も必要なのだ。


個人情報の捉え方の違い

EU

そして個人情報の捉え方、これは国によってかなり違うらしい。

EUはそもそもGAFAに厳しい。ここでよく出てくるのが税金問題。

たとえばフランスでは、フランス人の個人情報を掬い上げていくのであれば税を納めろと主張する。そうしなければ国家としてのフェアネスが成り立たない。豊かな人から税金を徴収し、豊かでない人に再分配し、格差を埋めるのが国家だ。

さらに、欧州には個人データを悪用された歴史がある。ナチスドイツがユダヤ人を虐殺した際、その背後で稼働していたのがIBMのパンチカード式コンピューター。これは国税調査結果を入力して国力を素早く計算するために開発されたけれど、ナチスはこれをユダヤ人をあぶりだすためにつかった。その国税調査のデータから、3代前までさかのぼりユダヤ人の血が混ざっていないかを調べ上げたのだという。

こうした苦い経験から、欧州では電子的に個人データを集めることに対して恐怖心と警戒心があるという。


日本

けれど、日本はEUとは違う。そうした個人情報に対する警戒心がそもそも薄い。そこにもまたこの国ならではの特徴がある。

日本ではインターネット上の権利を監視しようという意識は薄く、その代わり、国家やIT企業から個人が監視されたくないという警戒感が強いという。

EUとは全く異なる。けれどこれもまたこの国の歴史が人々に刷り込んだ意識だといえるのかもしれない。


おわりに

chatGPTの話題から、個人情報について考えてみた。

わたしたちは既にこうした企業に個人情報を与えないという選択は限りなく無くなってきている。ただこうした膨大な情報を持つ企業が暴走しないためにも、各人が企業を監視していくことは、わたしたちの責任でもある。

まあ、色々と不安はあるけれど、そしてかなりな後発だけれど、そろそろわたしもchatGPTを使ってみようと思う。


※最後までお読みいただきありがとうございました。


※スタエフでもお話ししています。

この記事が気に入ったらサポートをしてみませんか?