ブライアン・シルハヴィー
ヘルスインパクトニュース編集部
2022年11月、OpenAIが開発したマイクロソフトのChatGPTがリリースされ、最初のLarge Language Model(LLM)AIアプリが一般に紹介されてから1年半が経過した。
グーグル、イーロン・マスク、その他多くの企業も、これらのAIプログラムの独自バージョンを開発、あるいは開発中である。しかし、1年半が経過した現在でも、これらのLLM AIプログラムの1番の問題は、答えるのが難しすぎる質問をされると、嘘をついたり、でっち上げをしたりするという事実である。
マイクロソフトが2022年にこのクラスのAIの最初のバージョンを発表したときには、すぐに正確な結果を出してくれるだろうと大きな期待が寄せられたが、彼らが "幻覚 "を見続けているため、その正確さは依然として見えてこない。
以下は、本日2024年5月6日に発表されたばかりのレポートである:
多くの人が、LLM AIにおけるこの限界を理解し始めており、この問題に対する真の解決策がないことに気づきつつある。なぜなら、これは人工的なコンピューターベースの "知性 "の本質的な限界だからだ。
"artificial "という言葉の対義語は、"fake"、つまり "not real "である。このようなコンピューター言語をAIと呼ぶのではなく、FI(Fake Intelligence)と呼んだ方が正確かもしれない。
Tech Crunchに寄稿しているKyle Wiggersは、数日前、LLM AIの幻覚を治そうとする最近の試みの失敗について報告している。
同じくTech Crunchに寄稿しているデビン・コールドウェイは先月、AIのLLMに内在する幻覚という大きな問題について述べた素晴らしい記事を発表した:
「AI」は 2023 年の新しい流行語であり、投資家が文字通りこの「新しい」テクノロジーに数十億ドルを投じたため、コンピューター コードに関連するあらゆるものは「AI」と呼ばれるようになりました。
しかし、実際に調べてみると、それほど新しいものではありません。
話し言葉に反応して応答を返す、Apple の女性の声「Siri」や Amazon.com の女性の声「Alexa」は多くの人が知っているでしょう。それが「AI」であり、10年以上前から存在しています。
新しい LLM アプリケーションのような「生成 AI」の「新しい」点は、応答を計算する能力とエネルギーが大幅に拡張され、コンピューターがテキストを迅速に生成しながら、あたかもユーザーに話しかけているかのように見えることです。
しかし、これらの LLM は実際には何も新しいものを生み出しません。彼らは、供給された既存のデータを取得し、そのデータを非常に速い速度で迅速に計算できるようになりました。そのため、Siri や Alexa などのプログラムを動かしている古いテクノロジーが、大人のように話す方法をまだ学んでいない赤ちゃんのように見えます。
ただし、トレーニングに使用されるデータの量と精度には依然として制限があります。データを操作することで新しい言語構造を「作成」できるかもしれませんが、データ自体を作成することはできません。
別の見方としては、核となるデータを正確に表現していないため、現実世界でそれが人間をより嘘つきにしていることを観察することもできます。
最近、新しい Google Phone のコマーシャルを見たときに、この強化された嘘をつく能力に本当に衝撃を受けました。
ここでGoogleは、人々を騙し、Google携帯が「AI」を使って撮影した写真などの実際のデータについて嘘をつく方法を明らかに教えている。
人々の嘘や欺きは売れるが、真実は売れないことがほとんどであり、Google の最新携帯電話のこのようなコマーシャルを公衆が見ると、私たちの社会がそうしているように、これは本当に素晴らしいものだという反応が大半を占めるはずだ。今では、ほとんどの状況で嘘をついたり人を騙したりしても大丈夫だと信じるように私たちに条件づけられています。
今日のビッグテックの世界では、「データ」が新しい通貨であり、「データ主義」が新しい宗教です。
このすべてがどこへ向かうのか、少なくともテクノクラートがどこへ行こうとしているのかを鋭敏に観察しているゼカリア・リンチが私が昨年公開した記事をまだ読んでいない場合は、これを読んで勉強してください。
最近の記事で述べたように、これらの LLM モデルをトレーニングしている人々は、「データが不足している」ためにパニックになり始めています。
これは、新しい LLM AI モデルにもう 1 つの重大な欠陥をもたらします。既存のデータから生成されるものはすべて、誰かによって作成され、インターネット上にカタログ化されたデータです。つまり、この AI によって生成されたものは、それが正確であるかどうかに関係なく、盗難です!
このテクノロジーは急速に進歩しているため、法的影響についてはまだ完全には訴訟されていませんが、私は泥棒になって他人のものを盗む気はないので、テキストやグラフィックの生成に AI を使用しないと昨年初めに決めました。仕事。
私が今日記事を書くときは、何十年もそうしてきたように、記事内で使用するすべてのものの元の出典を引用し、クレジットされるべきところにはクレジットを記載するよう最善を尽くしています。
LLM AI は通常、これを行いません。 AIには魂がなく、善悪の概念もありません。それは単にスクリプト、つまりアルゴリズムと呼ばれる人間によってプログラムされたコンピュータースクリプトに従っているだけです。
現在、コンピュータにデータを入力できる方法は、テキスト、マイクによる音声、カメラによる画像や動画など限られています。
この制限だけでも、コンピューターや AI プログラムが人間に取って代わることは決してないことが保証されます。人間は、これら 3 つの方法以外の方法でもデータを入力でき、現時点ではまだ使用できない嗅覚や味覚などの感覚も含めることができます。デジタルデータに変換されます。
しかし、人間が持つ最大のデータ収集能力は、非物理的なもの、つまり「形而上学的」なものです。
何百年にもわたるダーウィンの生物進化理論は、ほとんどの西洋人に脳が意識の中心であることを教えてきましたが、古代人は何千年もの間、心臓が意識の中心であると常に信じてきました。
これは聖書の古代文書やその他の文書の見解です。見る:
そして、「現代科学」にはこの信念を反証するものは何もありません。
私が昨年このテーマについて書いたように、どちらかといえば、 私たちの人生における心の中心的な位置を裏付ける科学的証拠があります。
この証拠は、心臓移植を受け、新しい心臓を移植された人がドナーのことを全く知らなかったにもかかわらず、心臓を提供した人が死ぬ前に経験したことを考えたり思い出したりする人々の話から来ています。
他人の脳の移植を受けた人は誰もいません。
Medical Hypotheses に 掲載された2020 年の 研究では 、実際にこの問題に取り組んでいます。
関連項目:
抜粋:
これは、ABCニュースが8年前に公開した、事実上脳を持たずに生まれた赤ちゃんと、脳を持たずに生きる可能性はなかったため、医師が両親にその赤ちゃんを中絶するよう告げた様子についてのビデオです。
しかし両親は医師のアドバイスを受け入れず、赤ちゃんのジャクソン君は脳を持たないまま約6年間生き続けた。彼が医師や医学を無視してそうすることができたのは、彼の意識が脳ではなく心臓にあり、それは問題なかったからだ。
電気で動く AI やコンピューターは、心臓から送られる血液で動く人間に取って代わることは決してありません。
AI に関するその他の資料:
コンピュータが利用できない「データ」: