大規模言語モデル「LLM」の課題を検証するオープンソース・プロジェクト始動。

画像1

MITテクノロジーレビュー(MIT Technology Review)は2021年05月26日に、人間の会話を模倣する優れた能力で注目を集めているLLM(Large Language Models/大規模言語モデル)には大きな課題があることから、 GoogleのCEO(Chief Executive Officer/最高経営責任者)サンダー・ピチャイ(Sundar Pichai)は、新たな優れたツールを発表したと報告した。

画像2

「LaMDA(ラムダ)」と呼ばれるAI(Artificial Intelligence/人工知能)システムは、あらゆるテーマについてユーザーとチャットができる。

Googleは手始めに、メインの検索ポータルや音声アシスタント、さらにはGメール、ドキュメント、ドライブといったクラウドベースの業務ソフトウェアを集めたワークスペースに、「LaMDA」で統合することを計画しているという。

画像3

しかし、CEOピチャイによると、最終的な目標は、テキスト、ビジュアル、オーディオなど、すべてのGoogle製品にわたって、人が問いかけるだけで、あらゆる種類の情報を取得できる会話型インターフェイスを作り上げることだと言われている。

画像4

「LaMDA」の投入は、自然言語処理テクノロジーが人々の日常生活になお一層絡むようになっていることを示唆する。しかし、Googleの華々しいプレゼンテーションは、こうした最先端システムを現在取り巻いている倫理面での論争に目を背けていた。

https://time-az.com/main/detail/74474

「LaMDA」は、LLMと呼ばれる、膨大な量のテキストデータを使って訓練された深層学習アルゴリズムである。

画像5

大規模言語モデルには人種差別的、性差別的、虐待的な思想が組み込まれることが、いくつかの研究ですでに示されている。

こうしたモデルは、例えば医師といえば男性、看護師といえば女性、あるいは上品な言葉といえば白人、下品な言葉といえば黒人といった具合に、カテゴリーの関連付けをしている。

適当にカマをかけながらこれらモデルを探っていくと、虐殺、自傷行為、児童性的虐待といったことを奨励し始める。また、規模の大きさゆえに、モデルを構築する際に排出する二酸化炭素の量は驚くほど多い。
さらに、生成するテキストの流暢さゆえに、モデルが作成した文章を人間が書いたものと思わせ、人々を容易に混乱に陥れる。

これについて、専門家は誤った情報の大量生産が可能になると警告している。

つまり、現代が構築してきた倫理面を無視する。

いかにも泥棒を合法化するGoogleらしい。

2020年12月に、GoogleのAI倫理チームの共同リーダーであったティムニット・ゲブル(Timnit Gebru)が、大規模言語モデルがはらむ多くの問題を指摘した論文の撤回を拒否すると、Googleはゲブルを追放した。

画像6

それから数か月、Google社員からの公開書簡で、Googleによる「研究に対する前例のない検閲」と呼ばれる出来事の大規模な告発があると、ティムニット・ゲブルの共著者で、同じくAI倫理を率いていたマーガレット・ミッチェル(Margaret Mitchell)も解雇された。

画像7

最近、少し変なことが起こっている。
「Quora」で、言語に関する質問が増えた。これも一種のLLM課題検証かも知れない。

しかし、次世代はインドかも知れない。
どからでも、インド英語が聞こえてくる。

2020-12-15---Googleを辞めた著名AI研究者の衝撃!

この記事が気に入ったらサポートをしてみませんか?