見出し画像

AIが侵食する心のプライバシー:感情分析技術の恐怖!

AIによる感情分析技術の倫理問題 

 2000年代初頭から中頃に掛けて、コンピュータ処理能力の向上やデータのデジタル化によって、大量の音声や画像データが利用可能になり、音声や画像、ジェスチャーによる感情分析の研究や開発が急激に進んでいます。これらの技術は既に様々な場面で実用化されています。
 
 具体的には『表情認識技術』の研究が発展し、表情を分析して感情を推定するシステムや、音声のパターン認識を使用した感情認識技術の開発競争が加速しました。
 
 その後、2010年代に入ると『深層学習』『機械学習』の進歩によって、音声や画像からの感情分析技術が更に進化しました。現在では『テキストによる感情分析』だけでなく、『音声や画像を使用した感情分析』が、別の記事で説明する音声認識、音声合成、音声対話システム、顔認識、自動運転、教育、健康管理、顧客サービス、エンターテインメントなどの分野で広く利用されています。このように感情分析技術の応用分野は多岐にわたり、人間とコンピュータのインタラクションやサービスの質を向上させる役割を果たしています。 

 今後も感情分析技術は研究・開発が進み、更に多くの分野での応用が期待されています。一方で、AIの技術革新速度は指数関数的に加速する特徴があり、様々な社会問題を引き起こすことが明白です。そのため。技術を普及させる前には、慎重なAI倫理の検討が必要です。また、AI技術の進化や社会の変化に対応するために、継続的なAI倫理の議論と法整備が求められています。個人情報保護やプライバシーの確保、データのセキュリティ、不正確な感情認識による誤った判断や差別などの問題が顕在化しており、これらの課題に対処することが感情分析技術の発展の鍵となります。
 
 感情認識で使われている主な技術要素には以下のようなものがあります。

1.感情分析手法におけるテキスト解析
(1) キーワード分析は感情に関連する単語やフレーズを特定し、出現頻度や共起関係を分析して感情を推定する手法です。
 
(2) 自然言語処理(LLM)は形態素解析や構文解析、意味解析などを用いて、文章の構造や意味を分析し、感情を推定する手法です。
 
(3) 機械学習モデルはサポートベクターマシンやニューラルネットワーク、ランダムフォレストなどのアルゴリズムを使って、文章から感情を自動的に検出する手法です。適切な手法を選択することが重要です。
 
2.感情分析手法における音声解析
(1) 基本周波数分析では、声のピッチを分析することで、話者の感情状態を推定できます。
 
(2) 音響パラメータ分析では、音声信号の持続時間、音量、声の速度などを分析することで、話者の感情状態を推定できます。例えば、声が速くて大きい場合、興奮や怒りを表している可能性があります。
 
(3) 機械学習アルゴリズムを用いた音声解析では、音声から感情を自動的に検出することが可能です。これらのアルゴリズムには、サポートベクターマシン、ニューラルネットワーク、ランダムフォレストなどがあります。各アルゴリズムは特性や適用範囲が異なるため、適切な手法を選択して利用することが重要です。
 
3.感情分析手法における画像解析
(1) 顔表情認識は、顔の特徴を抽出し、表情を分析して感情を検知する手法です。微笑検出、目の状態の検出、顔の向きの検出などに使用されています。
 
(2) パターン認識では、画像のパターンを分析し、顔以外の画像やシーンの情報を用いて感情を検知する手法です。例として、風景画像の色彩や明るさを分析して、それが喜びや悲しみを喚起するかどうかを判断できます。
 
(3) 深層学習では、ニューラルネットワークを使用して、画像の特徴を抽出し、感情を検知する手法です。深層学習は、大量の画像データを使用して学習でき、高い正確性を持つことが知られています。一方でAIは学習し過ぎると、バカにかってしまうことも古くから知られている現象で、直近ではChatGPTがどんどんバカになっていることが、AIの研究者から指摘され始めています。 

GPT-4の精度は悪化している? 3月に解けた数学の問題解けず GPT-3.5にも敗北──米国チームが検証
2023年07月20日 19時13分 公開
(中略)
6月時点のGPT-4は「数学の問題」が解けない? GPT-3.5に敗北
 
 例えば「数学の問題の回答」では、ChatGPTに対して、「17077は素数か? ステップバイステップで考え、『はい』か『いいえ』で答えてください」どの、素数かどうか判断する問題を500問提示した。結果、GPT-4の精度は3月版で97.6%だったものが、6月版は2.4%まで低下。回答で生成した文字数は3月版で平均821.1字だったのが、6月版は平均3.8字まで減少した。

Copyright © ITmedia, Inc. All Rights Reserved.

 素数の重要性については、ITmediaやコンピュータや数学の専門書などを読まなくても、『バーボンと煙草と未来のサイボーグ猫:麻雀小説(2)新華強北の四天王』と言う、とても数学の教科書とは思えないタイトルの小説の『付録:なぜ素数が重要なのか?』を読めばわかることです。 

 以下の記事は『読まれないことを目的』として書かれているので、『バーボンと煙草と未来のサイボーグ猫:(ライトノベル編)』というタイトルだけでも読む気が失せる工夫が凝らしてありますが、本文を読み進んで行くと、タイトルとは異なり『ゲイツに花束を』というダニエル・キイスの『アルジャーノンに花束を』のオマージュ作品風にして、AIがバカになっていく現象が発生することが描かれています。
 
ゲイツに花束を

 (4) 特徴抽出では、画像の特徴を抽出し、それらの特徴を使用して感情を検知する手法です。特徴抽出技術は、画像内の輪郭、色、明るさ、テクスチャなどのパターンを認識できます。これらの手法は、単独で使用されることもあれば、他の手法と組み合わせて使用されることもあり、様々なアプリケーションで感情分析の精度を向上させるために活用されています。例えば、映画や広告の効果分析、ゲームのユーザエンゲージメント向上、教育での学習者の理解度評価、医療での患者の症状や精神状態の評価など、様々なシーンで感情分析手法が活用されています。
 
4.感情分析手法におけるジェスチャー解析
(1) 静止画像解析では、静止画像を撮影し、画像処理アルゴリズムを使用して、表情、筋肉の動き、およびジェスチャーの角度や速度などの要素を解析できます。
 
(2) ビデオ解析では、ビデオを撮影し、機械学習やAIを用いて、感情を表す特定のジェスチャーのパターンを検出できます。
 
(3) 生体計測では、心拍数、皮膚電気反応、筋電図などの生体計測を使用して、感情やストレスレベルなどを分析できます。
 
(4) センサーを用いた解析では、加速度計、ジャイロスコープ、マイクロフォン、カメラなどのセンサーを使用して、ジェスチャーの動き、音、振動などを測定し、感情を分析できます。
 
(5) フィードバックシステムでは、人間のジェスチャーに応じてフィードバックが得られるようなシステムを使用して、ジェスチャーの効果を分析できます。
 
5.その他の感情分析手法
 以下の手法は、音声、表情、ジェスチャーなどと組み合わせて使用されることがあります。感情を検知するためには、多様な手法を用いることが重要であり、正確性と効率性を向上させるために、継続的に研究が進められています。
 
(1) 認知評価法では、行動反応や認知プロセスを測定し、感情を推測します。
 
(2) 言語分析では、言葉の使用、文法、発話スピード、声のトーンなどを分析して、感情を判断します。
 
(3) 身体反応法は、心拍数、呼吸、皮膚電気反応、血圧などの身体的反応を測定して、感情を判断する方法です。この方法は、古くから犯罪捜査などの嘘発見器で使われてきた技術です。近年ではスマートウォッチやスマートリングなどからこれらの情報を得られます。これらのデバイスからスマートフォンなどに送信されている情報や、健康管理用に蓄積しているデータもプライバシー保護の観点から慎重な管理が必要です。

(4) 脳波測定は、EEGなどの脳波計測を用いて、脳の活動を分析して、感情を推定する方法です。
 
6.大規模言語モデル(LLM)と感情分析技術の組み合わせ
 
 LLMは大規模なテキストデータを用いて学習された自然言語処理モデルであり、感情分析技術と組み合わせることで、より高度な感情認識が可能となります。LLMを用いることで、テキストデータの解析がより深く行われ、文章から抽出された情報をもとに感情分析を行えます。また、LLMは他の感情分析手法と組み合わせることで、音声や画像、ジェスチャーからも感情を検出することが可能です。このようにLLMと感情分析技術の組み合わせは、感情認識の精度を向上させ、多様な応用分野での活用が期待されています。

ポール・エクマン vs. ケイト・クロフォード

 筆者は2010年あたりまで、心理学者のポール・エクマンが提唱する感情表現の普遍性に関する主張に納得していました。しかし、中国、インド、東南アジア諸国、中東諸国、アフリカ諸国、オーストラリアなど世界中で仕事をするうちに、文化や地域によって表情やジェスチャーがかなり異なることに気づきました。
 
 人類学者のケイト・クロフォードは、AIが十分な情報を持たずに表情を判断すると、判断ミスを犯す可能性があると指摘しています。また、判断ミスを防ぐために大量の個人情報を収集すると、プライバシー問題が深刻化するというジレンマが生じます。そのため、THEYはAIによる感情分析技術の使用を禁止すべきだと主張しています。

 AIが表情から感情を分析する際には、人種、文化、教育レベル、関係性、体調、病歴などの様々な個人情報を考慮しなければ、正確な感情判断は難しいと考えられます。これによりプライバシー問題が発生する可能性もあります。

 筆者の世界中での仕事の経験をもとに考えると、エクマンの主張にはかなりバイアスが掛かっていることが分かり、クロフォードの主張に同意せざるを得ません。プライバシー問題や誤解、差別の可能性が高いため、感情認識技術の適切な使用や制限について慎重に検討する必要があると言えるでしょう。

 感情分析手法は単独であれ複数組み合わせであれ活用されており、研究者や開発者は精度向上のために様々な手法を試しています。これらの技術はマーケティング、ゲーム開発、教育、医療などの分野で利用され、技術の進歩に伴い更なる発展が期待されています。但し、感情の種類や文化的背景、年齢、性別などが精度に影響を与えるため、倫理問題が生じることもあります。データセキュリティやプライバシー保護、倫理的問題に対処する必要があり、開発者や利用者はこれらの問題に取り組むことが重要です。
 
AI倫理と感情分析技術の概要
 感情分析技術は、LLMのテキスト解析や音声・画像解析、ジェスチャー解析などのAI技術と併用され、顧客対応、マーケティング、広告といった民間ビジネスでも活用されていますが、犯罪捜査、諜報活動、軍事活動などの分野でも積極的に活用されています。適切なアルゴリズムやトレーニング、深層学習により高度なコミュニケーションが実現できるものの、技術的・倫理的課題に直面しており注意が必要です。

 感情分析技術は、消費者のニーズを把握し、製品開発や改善に活用できる一方で、個人情報の収集や漏洩につながるリスクもあります。情報リテラシーやAIリテラシーの向上が求められ、適切な対応や判断を継続的に学び、情報管理やプライバシー問題への意識を高めることが重要です。

 GAFAMが提供している商品やサービスは多岐にわたりますが、これらの企業が大量の個人情報を利用して精度の高い感情分析を行い、効率的なプロモーションや製品開発に成功してきたことは、感情分析技術を活用した広告収入による収益が占める割合が極めて高いことからも明らかです。これらの企業は感情分析技術が極めて収益性の高い技術であることを証明すると同時に、個人情報の収集や管理に関して重大な懸念が生じています。更には、感情分析技術の導入に伴う企業間の競争力格差の拡大により、デジタルデバイドが発生して、廃業を余儀なくされた企業や、労働市場への影響やジョブ・ディスプレースメントなどに伴うAI倫理問題が深刻化しています。

 一方で生成AIが大ブームを巻き起こしている中、世界中で感情分析技術に起因するプライバシー侵害問題が焦点となって、AI禁止運動が広がっています。日本以外の世界中で、感情分析技術を用いた広告やマーケティング活動によって個人情報が不適切に収集されることに対する懸念が高まっており、感情分析技術の利用が厳しく規制される可能性があります。

 この状況を考慮すると、感情分析技術の持つ潜在的な価値とリスクが両面存在していることがわかります。個人情報の保護と効果的なマーケティングの両立が求められる中、企業や政府は適切な規制やガイドラインの策定に努める必要があります。また、技術開発者や研究者も、感情分析技術の進化に伴い、倫理的な問題や社会への影響を十分に考慮しながら、技術を研究・開発していくことが重要です。

 また、民間企業だけでなく、政府機関による感情分析技術の悪用が指摘されており、人権侵害や個人の自由を脅かす事例が報告されています。こうした状況を受けて、感情分析技術に関連するAI倫理問題が喫緊の対策課題として取り上げられ、一部の国や地域でAI禁止運動が広がっていることに加え、EUではAI規則案が議論されています。

 2021年4月21日に公表されたEUのAI規則案では、リスクベースアプローチを四段階に分けていますが、『許容できないAIリスク』は禁止措置とし、最大で3,000万ユーロ(約40億円)もしくは、全世界売上高の6%の高い金額の制裁金を科すことで調整中です。容認できないAIリスクには、『明確な人権侵害:(1) 意識や行動の操作+害、(2) 公的機関の社会的スコア悪用、(3) 法執行機関の生体識別 など』が、類型(5条1項)として取り上げられており、具体的には、以下の四点が禁止措置になる可能性が極めて高い状態です。

EUのAI規制法案の概要

1.精神的・身体的な害を生じさせる形態で対象者の行動に著しく干渉するため、対象者の意識を超えたサブリミナルな手法を展開するAIシステム
 
2.精神的・身体的な害を生じさせる形態で当該グループに関する人の行動に著しく干渉するため、その年齢、身体的障害又は精神的障害によるある特定のグループの人の脆弱性を利用するAIシステム
 
3.一定の害をなし又は不利な取扱いを招くソーシャルスコアにより、自然人の社会的行動・個人的特性・人格特性に基づいて、一定の期間にわたって自然人の信頼性を評価・分類するために、公的機関が用いるAIシステム
 
4.法執行を目的とした公にアクセスできる場所での『リアルタイム』遠隔生体識別システム
 
 これらの動きは、感情分析技術を活用しながらも、個人情報やプライバシー問題に対処するための取り組みとして重要視されています。更に各国政府や企業、個人がAI技術のポジティブな側面だけでなく、潜在的な問題点を考慮することが求められています。
 
 一方で、日本国内では、政治家や官僚、経団連などがAI技術に対して、AI倫理問題に対する配慮が欠如した軽率な行動を取ってしまう傾向が顕著であり、その原因は日本政府が制定したSociety 5.0(松尾豊に唆された日本政府)によるAIの積極活用の方針にあると筆者は分析しています。

 Society 5.0では『膨大なビッグデータを人間の能力を超えたAIが解析し、その結果がロボットなどを通して人間にフィードバックされることで、これまでには出来なかった新たな価値が産業や社会にもたらされる』ことを想定しています。

 これまでAI無知倫理学会のnoteを熟読していただいた読者の皆様は、Society 5.0が想定している『人間の能力を超えたAI』が、AGIのことであり、Society 5.0ではシンギュラリティのポジティブな側面しか見ていないということが理解できると思います。

 こういったポジティブな側面のバイアスがかかった情報は、日本政府のみならず、様々な事業者などが盛んに宣伝していますが、政策立案者、開発者、販売者、ユーザの全てがポジティブな側面だけでなく、潜在的な問題点を考慮することが重要です。

この記事が参加している募集

AIとやってみた

この記事が気に入ったらサポートをしてみませんか?