Appleの研究者グループは何を見たのか? いいことは何もなかった。
Mediumの会員専用サイトでイグナシオ・デ・グレゴリオ(Ignacio de Gregorio)は、「Apple は何を見たのか? いいことは何もなかった。(Apple Speaks the Truth About AI. It’s Not Good.)」を会員に紹介した。
Appleは何を見たのか? いいことは何もなかった。
Appleの研究者グループが、ChatGPTやLlamaなど、現在最も人気のあるAI製品のバックボーンであるLLM(large language models/大規模言語モデル) は真の推論ができないと主張する論文を発表した。つまり、その知能の主張は誇張されている(あるいは皮肉な見方をすれば、私たちは騙されている)。
一連のテストを通じて、彼らは、推論能力はほとんどの場合(あるいは完全に)記憶の要素であり、本当の知能ではないことを証明した。
これは、LLMに対する幻滅の傾向の高まりに拍車をかけ、投資の大幅なシフトを引き起こし、多くの数十億ドル規模の新興企業の将来に直接影響を与える可能性がある。当然、これは、この正確なビジョンが真実であることに依存している大手テクノロジー企業の数十億ドル規模のAI支出と最先端の AIラボの将来にも深刻な疑問を投げかける。
では、LLMに対するこれらの強力な敵対的主張の根拠は何だろうか?
この記事はイグナシオ・デ・グレゴリオのニュースレターからの抜粋です。イグナシオ・デ・グレゴリオのニュースレターは、AIアナリスト、戦略家、意思決定者がAIに関する最も差し迫った質問に対する答えを見つけるために使用する場所です。
ここから先は
244字
/
1画像
この記事が気に入ったらチップで応援してみませんか?