見出し画像

ChatGPTが乗り越える必要がある壁 ~Googleから学ぶ~

【ChatGPTが乗り越える必要がある壁 - Googleから学ぶ】
ChatGPTの元となるGPT-3が登場したのが2020年。その頃はまだ一部の技術者たちの間でのみ話題となり、競合各社も危機感を顕にはしなかった。
ChatGPTが登場したのが2022年末。1ヶ月後には1億ユーザーを突破したと発表された。

2023年初頭にはGPT-3への独占アクセス契約を持つMicrosoftがBingに搭載。APIも公開され様々なサードパーティアプリがその技術を生かして新しいサービスを開発できるのではと考え始め、歴史的な転換が始まるとさえ言われている。
医療専用ChatGPT、精神科ChatGPT、法曹ChatGPTなども期待されている。

まず、ChatGPTとMicrosoft Bingの連合に最も危機感を持ち始めたのは、一般市民ではなくGoogleであった。
世界中で圧倒的な検索シェアを誇っていたGoogleは、いち早くAI、特に機械学習(またはディープラーニング)の分野の重要性を見出しており、第一人者という自負があったはずだった。

Googleは2011年にGoogle Brainと呼ばれるAI専門チームを立ち上げ、13年に深層学習の第一人者であるジェフリー・ヒントン教授とその部下をトロント大学の研究室ごと吸収し、わざわざトロントオフィスまで立ち上げた。
14年には英国のAI企業で、Alpha Goシリーズを開発で有名なDeepMind社を買収する。

2017年には囲碁世界1位の柯潔を3連勝で破り、人類最強の棋士・柯潔選手は対局後に涙を流した。
1997年にIBMがチェスで当時の世界王者ガルリ・カスパロフを破ってから20年。
囲碁の複雑性は将棋よりも高いので、藤井聡太選手がどんなに歴史的な将棋棋士であっても、もう人間がAIに勝つことはできない。

Googleにも足かせができつつあった。
AIで世界のトップを走るも、AIの倫理性などを重視し始めた。
2018年にはクラウド部門が米国防総省から請け負っていたAI画像解析プロジェクト「Maven」から撤退。
社員たちがAIが武器に転用されることを猛烈に反対し、社内にAI倫理委員会なるものが設立された。

AIの倫理(AI Ethics)は、AIの発展とともに重視されてきた分野で、いくつかの問題をはらみ、私達の生活にも関わるので3つ記載する。

(1)差別問題

AIは提供された様々なデータや文献を学習して学んでいく。
学習に使ったデータに差別的な要素が含まれていれば当然AIも差別的な学習をしてしまうし、

差別的な要素を取り除いて学習させたとしても、その中から差別的な思想を導き出してしまう場合もある。
例えば2018年にアマゾンが人材採用AIを開発したところ、エンジニアは男性ばかりを採用せよという判断を下しプロジェクトは解散した。これは学習データに問題があったと言われた。

Microsoftも2016年に投入した”Tay”というAIを開発するも、「ナチスは正しかった」などと発言するようになり、プロジェクトは停止した。
GoogleもGoogle Photoの写真自動タグ付け機能において、黒人を「ゴリラ」と同一視し自動タグづけしてしまうなどの問題を引き起こした。

(2)責任の問題

AIを利用して何らかの事故が起きた場合の話。
例えば自動運転車が人身事故を起こした場合や、不良品自動検出AIが作動せず不良品を大量出荷してしまった場合、不純物検出AIが本来食品に入っていてはいけないものを見逃してしまった場合に、さてAIを”利用”するほうが責任を取るのか、

”作成”したほうが責任を取るのか、そのAIを”保有”している会社が別にいるならそこが責任を取るのか、明確ではない状態が起きる。
普通、自動車事故であれば通常は運転手が基本的には責任を取る。
しかしAIの場合は、自動車メーカーか、AI作成者か、車の所有者か、運転手か、という曖昧性が残る。

この責任のあいまい性は保険会社側にも波及し保険提供がしにくくなる。
無保険車を運転はしたい人は少ないので、自動運転の普及にも倫理性の議論はかかせない。

(3)個人情報の問題
AIは物事を学習し、ChatGPTのようなLLM(大規模言語モデル)の場合は結果の出力を行う。

このとき、2つの問題が起きる。

(a)AIにはどこまで個人情報を提供し分析させるべきか
(b)出力する時に個人情報が漏出せずに、かつ必要な情報を提示するにはどうしたらよいか

AIが学習する内容を全て人間が目を通すことはできないし、出力時の結果も人間が全てを監視することは出来ず、むしろ自動化されていることにメリットがある。

例えば、前者(a)で言えば、中国アリババグループのアント社が提供している「芝麻信用」(ゴマ信用・セサミクレジット)では、アリババ社の様々なWebサービスの利用データ、SNSでの発言内容、様々な信用情報(学歴、勤務先、資産状況、SNSの繋がりなど)をコンピューターに学習させ、信用スコアを生成する。

信用スコアにより、ローン金利優遇、様々な割引、公共サービスや就職活動の待遇の差が生まれる。
信用スコアが高い人を厚遇するメリットは企業側にも公共サービス提供側にもあるからだが、AIが作る信用スコアが本人に非がないのに何らかの理由で急落し劣悪な扱いを受ける場合、どう感じるだろうか。

また、後者(2)・AIによる結果出力時の個人情報問題を考えてみる。

横浜市に住む山田太郎さんには変態的な趣味があってそれに関する何らかのデータを、何かの手違いでうっかりAIに学習されてしまったとする。
人間なら情報が断片的すぎて山田さんの趣味には気づかないが、AIは学習できてしまうとする。

ここから先は

7,554字

¥ 498

この記事が気に入ったらサポートをしてみませんか?