見出し画像

データサイエンスニュース(23/12/11) : "デジタル時代のセキュリティと倫理”

この週末、AIやデータ周りでは、信頼度を考えなければいけないニュースが複数出ていました。
EUはいつも、良くも悪くも先行しますね。

欧州連合(EU)が大筋合意した人工知能(AI)法の最終案は、AIのリスクが高くなるほど規制を厳しくする内容だ。一部の加盟国は自主的な規制にとどめるように主張して協議は難航したが、AIを厳しく規制する骨格は維持した。

様々な歴史的経緯から、決して欧州の諸国が行っていることが常に正しいなんて思ってもいませんし、SDGsやらGDPRやらも、結局は欧州の利権だよなぁと思っているので、AIについても同じような部分は大いにあるでしょう。

ただ、こういう1つの複数の国をまたいで基準が出来るというのは大事ですよね。
日本が「AIの基準を作るぞ」と独りでいっても、あんまり効果はないですしね。

日本は、やっとTPPやRCEPのように物理的な貿易についての協定を結んでいくことができるレベルには来ているので、(EUをモデルにはしなくていいですが)やっぱり、近隣の国同士で、諸々対立はあるけども、連携しながらルール作りをしていけるといいんですがね。


遺伝子情報が盗まれるとどうなるのか?

しかし、TechCrunchの報道では、自分の祖先や遠い親戚が判明するDNA Relativesという機能を使っていた約690万人分のDNA情報を含むデータが流出しているとのことです。

690万人という数の多さは別として、盗まれたとしても変更できるクレジットカードやパスワードとは違って、修正できないDNA。これを盗まれるとどうなるのでしょうか。
現時点では妄想ですが、DNA特有の課題(特定の病気になりやすいとか)がわかってしまうことになるので、犯罪ではなく人を害することも可能になるかもしれません。
将来的には、それをつかったテロ活動なども生まれてくるのではないでしょうか。


などなど、DNAとかは良く分からないですが、最低限でも「病歴」を知られるのと同程度のリスクだと考えると、とても危険なことがわかりますね。


こちらは位置情報です。

200万人以上のユーザーの位置情報やチャット履歴が外部から閲覧できた可能性がある

とのことですが、記事中の「アクセス可能だった時期と情報、影響囲の推定値」はもっと酷いですね。
位置情報がリアルタイムで見えてしまうと、いくらでも犯罪に使われるでしょう(ストーカーや、空き巣など)。チャット内容なども、他から見えない前提で書いているものなので、どういう情報があるかはわかったものではないですね。
クラウドサービスのセキュリティ設定にミスがあったということですが、初歩的なミスだからこそ危険ですね。(そもそも、クラウドサービス側に、その状況を簡単にわかるようにしてくれということもありますが)
私もビッグデータを扱う仕事をしているので、もちろんこういうリスクがあることは重々承知しています。

ただ、こういうトラブルが起きてしまうと、世の中の信頼を失っていって、技術の進化も妨げられてしまいます。もちろん、技術の進化 <(超えられない壁)< 人々の安全なので、安全を脅かす技術の進化を推奨しているわけではないです。
まずは個社や業界がデータを扱う決まりをつくって、それを守る。
その決まりを定期的にチェックする。(これはPマークとかで既にやっていそうだけど)

もし漏洩した場合、その決まりが守られていなかった場合はオペレーション側に重い罰、決まりを守っていたのに発生した場合は、決まりを作った側や評価した側にも是正を促すなど、何が悪かったのか・どうリカバリするのかを分かり易く進めていく必要があるのではないでしょうか。

この記事が気に入ったらサポートをしてみませんか?