見出し画像

新しいAIは人類にもっと上手に嘘をつく方法を教え、決して人間に取って代わることはないだろう

ブライアン・シルハヴィー
ヘルスインパクトニュース編集部

2022年11月、OpenAIが開発したマイクロソフトのChatGPTがリリースされ、最初のLarge Language Model(LLM)AIアプリが一般に紹介されてから1年半が経過した。

グーグル、イーロン・マスク、その他多くの企業も、これらのAIプログラムの独自バージョンを開発、あるいは開発中である。しかし、1年半が経過した現在でも、これらのLLM AIプログラムの1番の問題は、答えるのが難しすぎる質問をされると、嘘をついたり、でっち上げをしたりするという事実である。

マイクロソフトが2022年にこのクラスのAIの最初のバージョンを発表したときには、すぐに正確な結果を出してくれるだろうと大きな期待が寄せられたが、彼らが "幻覚 "を見続けているため、その正確さは依然として見えてこない。

以下は、本日2024年5月6日に発表されたばかりのレポートである:

大規模言語モデル(LLM)の採用が2024年に新たなレベルに達する。Valuatesのレポートによると、LLM市場は2022年に105億米ドルと評価され、2029年には408億米ドルに達すると予測され、年間平均成長率(CAGR)は21.4%という驚異的な伸びを示しています。

詩を書き、言語を翻訳し、あなたの質問に魅力的な詳細で答えることができる、言語ネイティブのマシンを想像してみてください。LLMはまさにそれを実現し、コミュニケーション、教育、創造的表現などの分野を急速に変革している。しかし、その輝きの中に隠された脆弱性、幻覚のささやきがある。

これらのAIモデルは時に事実を捏造したり、ストーリーをでっち上げたり、単に物事を間違えたりすることがある。

このような幻覚は、一見すると無害に見えるかもしれない。詩の中にフィクションが散りばめられていたり、誤訳されたフレーズがあったりするのだ。しかし、その結果、誤解を招く情報や偏ったアウトプット、さらにはテクノロジーへの信頼が損なわれるなど、現実のものとなる可能性がある。

そこで、LLMが空想的な捏造ではなく、権力に対して真実を語ることを保証するために、どのようにしてこのような幻覚を検出し、軽減できるかを問うことが極めて重要になる。(記事全文)

多くの人が、LLM AIにおけるこの限界を理解し始めており、この問題に対する真の解決策がないことに気づきつつある。なぜなら、これは人工的なコンピューターベースの "知性 "の本質的な限界だからだ。

"artificial "という言葉の対義語は、"fake"、つまり "not real "である。このようなコンピューター言語をAIと呼ぶのではなく、FI(Fake Intelligence)と呼んだ方が正確かもしれない。

Tech Crunchに寄稿しているKyle Wiggersは、数日前、LLM AIの幻覚を治そうとする最近の試みの失敗について報告している。

RAGが生成AIの幻覚問題を解決できない理由

幻覚、つまり基本的にジェネレーティブAIのモデルがつく嘘は、このテクノロジーを業務に統合しようとしている企業にとって大きな問題である。

モデルには本当のインテリジェンスがなく、私的なスキーマに従って単語、画像、音声、音楽、その他のデータを予測するだけなので、時々間違ってしまうのだ。非常に間違っている。ウォール・ストリート・ジャーナル』紙に掲載された最近の記事で、ある情報筋は、マイクロソフトのジェネレーティブAIが会議の出席者を想定し、実際にその場で話し合われていないテーマについて電話会議を行ったとほのめかした例を語っている。

少し前に書いたように、幻覚は今日の変換器ベースのモデル・アーキテクチャでは解決不可能な問題かもしれない。(記事全文)

同じくTech Crunchに寄稿しているデビン・コールドウェイは先月、AIのLLMに内在する幻覚という大きな問題について述べた素晴らしい記事を発表した:

グレート・プリテンダー

AIは答えを知らないし、気にする方法も学んでいない。

それは、知性や人間性の根本的な性質や、ウィトゲンシュタイン的な言語表現の概念、あるいはデータセットに含まれる偽情報とは何の関係もない。

重要なのは、これらのシステムが正しいものと正しく見えるものを区別していないということだけだ。

AIがこれらのものを多かれ少なかれ交換可能なものとみなしていることを理解すれば、すべてがもっと理解できるようになる。

さて、この件に関して、あらゆるメディアや会話で絶え間なく行われている魅力的で広範な議論を短絡的に終わらせるつもりはない。哲学者や言語学者からエンジニアやハッカー、バーテンダーや消防士に至るまで、「知性」や「言語」とは何か、そしてChatGPTのようなものがそれらを持つかどうかについて、疑問を投げかけ、議論している。

これはすごいことだ!そして、私はすでに多くのことを学びました。このスペースで最も賢い人たちが日の目を浴びる瞬間を楽しんでいる一方で、比較される赤ん坊の口からは新鮮な新しい視点が生まれます。

しかし同時に、ビールやコーヒーを飲みながら「このGPTのようなものはどうなんだろう?アリストテレス、機械仕掛けのトルコ人、パーセプトロン、それとも「注意力がすべて」?

このような雑談の中で、私はあるシンプルなアプローチを思いついた。それは、なぜこれらのシステムが本当にクールであると同時に全く信用できないものにもなり得るのか、人々が理解するのに役立つものである。ベクトルや行列の話を聞きたくない、好奇心旺盛で懐疑的な人たちとこの話をするときに、この視点が役に立つかもしれないと思い、シェアしようと思った。

理解すべきことは 3 つだけであり、自然な結論につながります。

1.これらのモデルは、テキストの膨大なデータセット内の単語や文などの間の関係を観察させ、これらの何百万もの単語や概念がどのように関連付けられ、相関しているかを示す独自の内部統計マップを構築することによって作成されます。これは名詞であり、これは動詞であり、これはレシピであり、これは修辞法であるとは誰も言っていません。しかし、これらは使用パターンに自然に現れるものです。

2.過去 10 年間にわたって Google や Apple などのよく知られたソフトウェア企業が AI と呼んできたのとは対照的に、これらのモデルは質問に答える方法を特に教えられていません。 これらは 基本的に、API につながる空白を含む Mad Lib です。すべての質問が説明されるか、一般的な応答が生成されます。大規模な言語モデルでは、質問は他の質問と同様に単なる一連の単語になります。

3.これらのモデルは、応答に「自信」という基本的な表現特性を持っています。猫認識 AI の簡単な例では、それが猫ではないことを完全に確信することを意味する 0 から、それが猫であることを完全に確信することを意味する 100 まで変化します。信頼度が 85 または 90 のいずれかであれば、好みの応答指標を生成するものであれば、「はい、猫です」と言うように伝えることができます。

モデルがどのように機能するかについて私たちが知っていることを考えると、ここで重要な疑問が生じます。それは何を確信している のでしょうか?猫や質問が何であるかはわかりません。トレーニング セット内のデータ ノード間に統計的関係が見つかるだけです。わずかな調整により、猫検出器はその写真が牛、空、静物画を示していると同様に確信するでしょう。モデルは、トレーニングされたデータの内容を実際に評価する方法がないため、自身の「知識」に自信を持つことができません。

AI は、 ユーザーにとってその答えが正しいとどの程度確信できるかを表現しています。

これは猫検出器にも当てはまり、GPT-4 にも当てはまります。違いは出力の長さと複雑さの問題です。 AI は正解と不正解を区別できません。できるのは 、一連の単語が正解として受け入れられる可能性を予測することだけです 。だからこそ、この組織はあらゆるテーマの権威ではなく、世界で最も包括的な情報に精通したデタラメな存在だと考えられるのです。それは、自分がでたらめであることさえ知りません。 統計的に正しい答えに似た応答を生成するように訓練されており 、その類似性を改善するためには何でも言います 。

AI は質問を理解できないため、質問に対する答えがわかりません。それは質問が何であるかを知りません。

それは何も「知らない」のです!統計分析から推定すると、その一連の単語が前の一連の単語に続く可能性が最も高いため、質問の後に答えが続きます。それらの言葉が現実の場所、人、場所などを指しているかどうかは重要ではなく、ただそれらが 現実のものに似ているというだけです 。

AI がモネではないモネのような絵画を生み出すことができる理由は同じです。重要なのは、人々がその作品をモネのものだと認識させるすべての特徴を AI が備えているということだけです。 (記事全文)

「AI」は 2023 年の新しい流行語であり、投資家が文字通りこの「新しい」テクノロジーに数十億ドルを投じたため、コンピューター コードに関連するあらゆるものは「AI」と呼ばれるようになりました。

しかし、実際に調べてみると、それほど新しいものではありません。

話し言葉に反応して応答を返す、Apple の女性の声「Siri」や Amazon.com の女性の声「Alexa」は多くの人が知っているでしょう。それが「AI」であり、10年以上前から存在しています。

新しい LLM アプリケーションのような「生成 AI」の「新しい」点は、応答を計算する能力とエネルギーが大幅に拡張され、コンピューターがテキストを迅速に生成しながら、あたかもユーザーに話しかけているかのように見えることです。

しかし、これらの LLM は実際には何も新しいものを生み出しません。彼らは、供給された既存のデータを取得し、そのデータを非常に速い速度で迅速に計算できるようになりました。そのため、Siri や Alexa などのプログラムを動かしている古いテクノロジーが、大人のように話す方法をまだ学んでいない赤ちゃんのように見えます。

ただし、トレーニングに使用されるデータの量と精度には依然として制限があります。データを操作することで新しい言語構造を「作成」できるかもしれませんが、データ自体を作成することはできません。

別の見方としては、核となるデータを正確に表現していないため、現実世界でそれが人間をより嘘つきにしていることを観察することもできます。

最近、新しい Google Phone のコマーシャルを見たときに、この強化された嘘をつく能力に本当に衝撃を受けました。

ここでGoogleは、人々を騙し、Google携帯が「AI」を使って撮影した写真などの実際のデータについて嘘をつく方法を明らかに教えている。

人々の嘘や欺きは売れるが、真実は売れないことがほとんどであり、Google の最新携帯電話のこのようなコマーシャルを公衆が見ると、私たちの社会がそうしているように、これは本当に素晴らしいものだという反応が大半を占めるはずだ。今では、ほとんどの状況で嘘をついたり人を騙したりしても大丈夫だと信じるように私たちに条件づけられています。

今日のビッグテックの世界では、「データ」が新しい通貨であり、「データ主義」が新しい宗教です。

このすべてがどこへ向かうのか、少なくともテクノクラートがどこへ行こうとしているのかを鋭敏に観察しているゼカリア・リンチが私が昨年公開した記事をまだ読んでいない場合は、これを読んで勉強してください。

「データ主義」はAIとトランスヒューマニズムの新宗教:データを所有し、コントロールする人々が人生をコントロールする

最近の記事で述べたように、これらの LLM モデルをトレーニングしている人々は、「データが不足している」ためにパニックになり始めています。

これは、新しい LLM AI モデルにもう 1 つの重大な欠陥をもたらします。既存のデータから生成されるものはすべて、誰かによって作成され、インターネット上にカタログ化されたデータです。つまり、この AI によって生成されたものは、それが正確であるかどうかに関係なく、盗難です!

このテクノロジーは急速に進歩しているため、法的影響についてはまだ完全には訴訟されていませんが、私は泥棒になって他人のものを盗む気はないので、テキストやグラフィックの生成に AI を使用しないと昨年初めに決めました。仕事。

私が今日記事を書くときは、何十年もそうしてきたように、記事内で使用するすべてのものの元の出典を引用し、クレジットされるべきところにはクレジットを記載するよう最善を尽くしています。

LLM AI は通常、これを行いません。 AIには魂がなく、善悪の概念もありません。それは単にスクリプト、つまりアルゴリズムと呼ばれる人間によってプログラムされたコンピュータースクリプトに従っているだけです。

現在、コンピュータにデータを入力できる方法は、テキスト、マイクによる音声、カメラによる画像や動画など限られています。

この制限だけでも、コンピューターや AI プログラムが人間に取って代わることは決してないことが保証されます。人間は、これら 3 つの方法以外の方法でもデータを入力でき、現時点ではまだ使用できない嗅覚や味覚などの感覚も含めることができます。デジタルデータに変換されます。

しかし、人間が持つ最大のデータ収集能力は、非物理的なもの、つまり「形而上学的」なものです。

何百年にもわたるダーウィンの生物進化理論は、ほとんどの西洋人に脳が意識の中心であることを教えてきましたが、古代人は何千年もの間、心臓が意識の中心であると常に信じてきました。

これは聖書の古代文書やその他の文書の見解です。見る:

脳の神話: 知性や思考は脳ではなくハートから生まれる

そして、「現代科学」にはこの信念を反証するものは何もありません。

私が昨年このテーマについて書いたように、どちらかといえば、 私たちの人生における心の中心的な位置を裏付ける科学的証拠があります。

この証拠は、心臓移植を受け、新しい心臓を移植された人がドナーのことを全く知らなかったにもかかわらず、心臓を提供した人が死ぬ前に経験したことを考えたり思い出したりする人々の話から来ています。

他人の脳の移植を受けた人は誰もいません。

Medical Hypotheses に 掲載された2020 年の 研究では 、実際にこの問題に取り組んでいます。

抽象的な

心臓移植後の性格の変化は数十年にわたって報告されており、その中にはレシピエントがドナーの性格特性を獲得したという報告も含まれています。この記事では、性格変化の 4 つのカテゴリーについて説明します: (1) 好みの変化、(2) 感情/気質の変化、(3) アイデンティティの変更、および (4) ドナーの人生の記憶。心臓移植後のレシピエントによるドナーの性格特性の獲得は、細胞記憶の伝達を介して起こると仮説が立てられており、4 種類の細胞記憶が提示されています:(1)エピジェネティック記憶、(2)DNA 記憶、(3)RNA 記憶、 (4) タンパク質の記憶。心臓内の神経学的記憶やエネルギー的記憶を介した記憶の伝達など、他の可能性についても議論されています。現在の死の定義を再検討することの重要性、記憶の移転が提供された心臓の統合にどのような影響を与える可能性があるかについての研究、他の臓器の移植によって記憶が移転できるかどうかの決定、および調査の重要性など、心臓移植の将来への影響が検討されています。心臓移植によってどのような種類の情報を転送できるか。さらに調査することをお勧めします。 (ソース。)

関連項目:

臓器移植レシピエントの記憶転移

ドナーの特徴を引き継いだ10人の臓器移植者

抜粋:

クレア・シルビアには奇妙な渇望と夢がある – ニューイングランド

47歳のクレア・シルビアさんが受けた心臓と肺の移植は、彼女の命を救っただけでなく 、彼女をニューイングランドで初めて移植手術を受けた人にした。彼女はまた、重要な臓器に加えて、あたかもドナーの記憶が心臓と肺に閉じ込められているかのように、ドナーの味の一部を受け取り、その結果、今彼女の体内に流れ込んでいると確信している。

彼女は記者に対し、手術後最初に何をしたいかと尋ねられたとき、「今、ビールが飲みたくてたまらない」と答えたと語った。これまでビールを少しも楽しんだことがなかったクレアにとって、これは奇妙でした。その後数日間、彼女はまた、ピーマン、スニッカーズのチョコレートバー、そして奇妙なことにマクドナルドのチキンマックナゲットなど、これまで好きでも食べたこともなかった食べ物への渇望を感じていることに気づきました。食べたいという欲求。

彼女はまた、奇妙な夢を見るようになりました。彼女は、ティムという名前だと信じていた痩せた若い男を見ることになる。具体的には、夢を見たとき、彼女の頭の中に「ティム・L」という言葉が浮かんでいました。移植当日までの地元の死亡記事を調べていたところ、彼女はティモシー・ラミランドに出会った。

ティモシー・ラミランドは、クレアの移植と同じ日にバイク事故で亡くなったとき、18歳でした。彼は地元のマクドナルドレストランから帰宅途中だった。医師らが彼の命を救おうと必死に服を脱がせたところ、上着のポケットからチキンマックナゲットの袋が見つかった。

彼女はこれまで会ったことのなかったティムの家族をなんとか追跡し、彼らは彼女に、彼女が抱いていた渇望は確かにビールなど、ティムがとても楽しんでいた食べ物に対するものであることを確認した。それ以来、彼女はティムの家族と連絡を取り続けています。 (記事全文)

これは、ABCニュースが8年前に公開した、事実上脳を持たずに生まれた赤ちゃんと、脳を持たずに生きる可能性はなかったため、医師が両親にその赤ちゃんを中絶するよう告げた様子についてのビデオです。

しかし両親は医師のアドバイスを受け入れず、赤ちゃんのジャクソン君は脳を持たないまま約6年間生き続けた。彼が医師や医学を無視してそうすることができたのは、彼の意識が脳ではなく心臓にあり、それは問題なかったからだ。

電気で動く AI やコンピューターは、心臓から送られる血液で動く人間に取って代わることは決してありません。

AI に関するその他の資料:

「人工知能」の失敗と数十億ドルの損失の 75 年の歴史 現実世界のための SF への投資

コンピュータが利用できない「データ」:

いいえ、私たちは神の秘密の知恵、隠された知恵、そして神が時が始まる前に私たちの栄光を得るように運命づけられていたことについて話します。この時代の支配者は誰もそれを理解していませんでした。もし理解していれば、栄光の主を十字架につけることはなかっただろうからです。

しかし、次のように書かれているように、「神を愛する者たちのために神が何を備えておられたのか、目も見たことも、耳も聞いたことも、心も思いつきませんでした。」しかし、神は御霊によってそれを私たちに明らかにしてくださいました。

御霊はあらゆるものを、神の奥深いものさえも探究します。

なぜなら、人の中にある人の精神以外に、人の考えを知る人がいるでしょうか?

同様に、神の御霊以外には神の思いを知る人はいません

私たちは世の霊ではなく、神が私たちに無償で与えてくださったものを理解するために神から出た御霊を受けました。 (コリント第一 2:7-12)


この記事が気に入ったらサポートをしてみませんか?