見出し画像

AIのダークサイド: 個人情報と感情分析技術

 AIによる感情分析は、テキスト解析や音声・画像解析、ジェスチャー解析などのAI技術と併用され、顧客対応、マーケティング、広告といった民間ビジネスで頻繁に活用されている技術です。ビジネス以外の分野でも、犯罪捜査、諜報活動、軍事活動などの分野でも積極的に活用されており、倫理的課題に直面しています。
 
 GAFAMが提供している商品やサービスは多岐にわたりますが、これらの企業が大量の個人情報を利用して精度の高い感情分析を行い、効率的なプロモーションや製品開発に成功してきたことは、感情分析技術を活用した広告収入による収益が占める割合が高いことからも明らかです。
 
 これらの企業は感情分析が極めて収益性の高い技術であることを証明すると同時に、個人情報の収集や管理に関して重大な懸念が生じています。更には、感情分析技術の導入に伴う企業間の競争力格差の拡大により、デジタルデバイドが発生して、廃業を余儀なくされた企業や、労働市場への影響やジョブ・ディスプレースメントなどに伴うAI倫理問題も深刻化しています。
 
 一方でChatGPTが大ブームを巻き起こしている中、世界中で感情分析に起因するプライバシー侵害問題が焦点となって、AI禁止運動が広がっています。一部の国や地域では、感情分析技術を用いた広告やマーケティング活動によって個人情報が不適切に収集されることに対する懸念が高まっており、感情分析技術の利用が厳しく規制されつつあります。
 
 感情分析技術の持つ潜在的な価値とリスクが両面存在していることは、もはや常識の範疇ですが、個人情報の保護と効果的なマーケティングの両立が求められる中、企業や政府は適切な規制やガイドラインの策定が喫緊の課題として浮上しています。しかし、『広島AIプロセス』の結果を見ても解る取り、国際的なコンセンサスが得られる目処すら立っていないのが現実です。
 
 また、民間企業だけでなく、政府機関による感情分析技術の悪用も世界中の専門家や人権団体などから指摘されており、人権侵害や個人の自由を脅かす事例が報告されています。国際的にはWindows自体がスパイウェアとして認識されて人権問題となっています。 

  こうした状況を受けて、感情分析技術に関連するAI倫理問題が喫緊の対策課題として取り上げられ、一部の国や地域でAI禁止運動が広がっていることに加え、EUではAI規則案が議論されています。
 
 2021年4月21日に公表されたEUのAI規則案では、リスクベースアプローチを四段階に分けていますが、『許容できないAIリスク』は禁止措置とし、最大で3,000万ユーロ(約40億円)もしくは、全世界売上高の6%の高い金額の制裁金を科すことで調整中です。
 
 容認できないAIリスクには、『明確な人権侵害:(1)意識や行動の操作による害、(2)公的機関による社会的スコアの誤用、(3)法執行機関による生体識別など』が、類型(5条1項)として取り上げられており、具体的には、以下の四点が禁止措置になる可能性が極めて高い状態です。
 
1.精神的・身体的な害を生じさせる形態で対象者の行動に著しく干渉するため、対象者の意識を超えたサブリミナルな手法を展開するAIシステム
 
2.精神的・身体的な害を生じさせる形態で当該グループに関する人の行動に著しく干渉するため、その年齢、身体的障害又は精神的障害によるある特定のグループの人の脆弱性を利用するAIシステム
 
3.一定の害をなし又は不利な取扱いを招くソーシャルスコアにより、自然人の社会的行動・個人的特性・人格特性に基づいて、一定の期間にわたって自然人の信頼性を評価・分類するために、公的機関が用いるAIシステム
 
4,法執行を目的とした公にアクセスできる場所での『リアルタイム』遠隔生体識別システム
 
 これらの動きは、感情分析技術を活用しながらも、個人情報やプライバシー問題に対処するための取り組みとして重要視されています。更に各国政府や企業、個人がAI技術のポジティブな側面だけでなく、潜在的な問題点を考慮することが求められています。
 
 一方で、日本国内では、政治家や官僚、経団連、経済同友会、情報通信やAI関連分野の大学教授などがAI技術に対して、AI倫理問題に対する配慮が欠如した軽率な行動を取ってしまう傾向が顕著であり、その原因は日本政府が制定したSociety 5.0によるAIの積極活用の方針にあると筆者は分析しています。

 Society 5.0では『膨大なビッグデータを人間の能力を超えたAIが解析し、その結果がロボットなどを通して人間にフィードバックされることで、これまでには出来なかった新たな価値が産業や社会にもたらされる』ことを想定しています。
 
 このブログを頻繁にご覧いただいている皆様には、Society 5.0が想定している『人間の能力を超えたAI』が、AGIのことであり、Society 5.0ではシンギュラリティのポジティブな側面しか見ていないということが理解できると思います。
 
 こういったポジティブな側面のバイアスがかかった情報は、日本政府のみならず、様々な事業者などが盛んに宣伝していますが、政策立案者、開発者、販売者、ユーザの全てがポジティブな側面だけでなく、潜在的な問題点を考慮することが極めて重要です。

この記事が気に入ったらサポートをしてみませんか?