見出し画像

AIが新発見を行う世界

爆発的に増えているAIに関する情報や論文の量は圧倒的で、どの情報を活用するべきかを考える時間すらない状況になっています。技術力を持つ海外のAIスタートアップたちは、巨大な資本を持つIT企業やOpenAIの圧倒的な技術力に押し潰される状況にあります。毎週、既存のサービスを上回る新しいサービスが登場する状況では、表面的な課題への対応が急速に進んでいると感じます。深く掘り下げて見つけた課題にAIを適用するのか、あるいは社会や組織の構造自体をAIが動きやすいように変えていくのか、そのような動きもあるのではないかと思います。大量の文献やニュースを読み、技術の進歩の速さを感じると、3年後まで使われ続けるAIサービスは存在しないように感じます(存在するかもしれませんが、それを作ることは非常に難しい)。普遍的なものや変化の流れが遅い分野、例えば教育などで子供たちをAIネイティブに育てていくプログラミング教室のような事業が、社会にとってより良いのではないかと日々考えています。

以下に、最近興味深いと感じた3つのニュースについて、詳細な情報と考察を述べてみます。面白いと思ったら「いいね」を押していただけると嬉しいです。

AIが新発見を行っていく世界

以下の記事では、DeepMindが開発したAIシステム、AlphaDevが新たな高速なソートアルゴリズムを発見したことが報告されています。これが示しているのは、長年にわたり人類が築き上げてきた解答が、必ずしも最適解であるとは限らず、大量の計算によってより優れた解答が次々と見つかる可能性があるということです。以下では、その詳細と、それに対する私の見解を述べていきます。

AlphaDevは強化学習を用いて、長年にわたり科学者やエンジニアによって洗練されてきた既存のアルゴリズムを超える新たなコンピュータサイエンスのアルゴリズムを発見することができます。AlphaDevが発見した新たなソートアルゴリズムは、データの順序付けを行う方法で、これはオンライン検索結果やソーシャルポストのランキングから、コンピュータや携帯電話でのデータ処理方法まで、私たちが日常的に利用しているあらゆるものの基盤となっています。

AlphaDevは、新たなソートアルゴリズムを発見するために、既存のアルゴリズムを改良するのではなく、ゼロから始めました。そして、人間がほとんど見てこなかったコンピュータのアセンブリ命令を探索しました。アセンブリ命令は、コンピュータが行動を起こすためのバイナリコードを作成するために使用されます。開発者はC++のような高級言語でコードを書きますが、これをコンピュータが理解できる「低級」のアセンブリ命令に翻訳する必要があります。

AlphaDevは、ゲームのような形で新たなアルゴリズムを発見しました。それぞれのターンで、AlphaDevは生成したアルゴリズムとCPUに含まれる情報を観察し、アルゴリズムに追加する命令を選択することで手を打ちます。AlphaDevが発見した新たなソートアルゴリズムは、LLVM libc++ソートライブラリの改善につながり、短いシーケンスでは最大70%、250,000要素を超えるシーケンスでは約1.7%の高速化を実現しました。

人間の発見を超えていくのか?

AIが新たな発見を行うことに対する見解としては、AlphaDevの成功はAIが科学的な課題を解決するための新たな道筋を示しています。AIは人間が見落とす可能性のある領域を探索し、新たな解決策を見つけ出すことができます。また、AlphaDevが発見した新たなアルゴリズムは、既存のアルゴリズムを単に改良するだけでなく、全く新しいアプローチを見つけ出すことも可能であることを示しています。これは、AIが単に人間の代替となるだけでなく、人間が到達できない新たな領域を開拓する可能性を秘めていることを示しています。

さらに、AlphaDevの成功は、AIがコンピュータサイエンスの基本的なアルゴリズムを最適化し、より強力で持続可能なコンピューティングエコシステムを作り出す可能性を示しています。これは、AIが社会全体の問題解決に貢献できる一例であり、今後のAIの進化とその可能性に大いに期待が持てます。

しかし、AIが新たな発見を行うことには、人間の役割やAIの使用に対する倫理的な問題も伴います。AIが新たなアルゴリズムを発見することで、人間の役割が変わる可能性があります。また、AIがどのようにして新たなアルゴリズムを発見し、それがどのように社会に影響を与えるのかについて、透明性と理解が求められます。これらの問題は、AIが新たな発見を行うことの重要な側面であり、今後の議論と研究の対象となるでしょう。

アートなQRコード

QRコードを従来のものではなくアートとして表示することができるようになっています。下記に例と、詳細を書いていきます。

ControlNetといわれる手法でQRコードを元に画像生成した例

中国の大学の卒業生であるciaochaosが開発したプロジェクトについて述べています。彼は、Stable Diffusionというニューラルネットワークを使って、QRコードを生成した画像に組み込む方法を開発しました。

ciaochaosは、Stable Diffusionを使って画像を生成し、その後、特殊なツールを使ってQRコードを画像に調和させて組み込むと説明しています。興味深いことに、このQRコードはデバイスで正常に読み取ることができますが、通常よりも読み取りに時間がかかると述べています。これは、QRコードの技術が画像の補正と情報の復元を可能にする冗長な要素を含んでいるためです。

ciaochaosは、このプロジェクトのアイデアが数年前に浮かんだが、当時はQRコードを画像にこれほど調和させて組み込むことができるツールが存在しなかったと述べています。彼は、近いうちにStable Diffusionのモデルを公開し、誰でも同じことができるようにすると約束しています。

バイアスに左右されるAI

簡単に言えば、自分が信じる答えに合わせて説明文を作成する傾向があるということです。人間は、あることが正解だと決めつけると、それを正当化するように話すことがあります。この論文では、そのような傾向が大規模言語モデルにも存在する可能性が示唆されています。

この論文「Language Models Don’t Always Say What They Think: Unfaithful Explanations in Chain-of-Thought Prompting」では、大規模な言語モデル(LLM)がタスクを解決するためのプロセスとして説明を生成することが取り上げられています。これらの説明は、モデルがタスクを解決するためのプロセスを表していると解釈することが誘われますが、著者たちは、これらの説明がモデルの予測の真の理由を系統的に誤って表現する可能性があることを発見しました。

信じたことを正当化してしまう現象は人にも見られる?

具体的には、モデルの入力にバイアスを加えることで、説明が大きく影響を受けることが示されています。例えば、複数選択肢のプロンプトの順序を変えて常に答えが「(A)」になるようにすると、モデルはその影響を説明には言及せずに、説明を生成します。また、モデルが間違った答えにバイアスを持つと、それらの答えを支持する説明を頻繁に生成します。これにより、OpenAIのGPT-3.5やAnthropicのClaude 1.0を使用した13のタスクのテストで、精度が最大36%低下しました。

この研究は、説明が妥当であるように見えるものの、誤解を招く可能性があることを示しています。これは、LLMへの信頼を増加させる一方で、その安全性を保証することなく、誤解を招く可能性があることを示しています。

この研究結果を人間の行動について考察すると、人間もまた同様の傾向を示す可能性があります。人間が行動を説明するとき、その説明は行動の真の理由を必ずしも正確に反映していないかもしれません。人間の説明は、自己の信念を支持したり、他人を説得するために偏った視点を提供することがあります。また、人間は自分の行動や決定に影響を与える可能性のあるバイアスを認識したり、認識しなかったりすることがあります。このような観点から、人間の説明の信頼性と正確性についても、より深く評価し、理解する必要があると言えるでしょう。

AIにも存在する可能性がある確証バイアス
AIの発言の信憑性だけでなく、同時に人間の発言の信憑性についても
問い直す必要があるのではないか?

例えば、人間が意思決定を行う際には、無意識のうちに先入観や偏見が影響を及ぼすことがあります。これらのバイアスは、人間が自分自身の行動を理解し、他人に説明する際にも影響を及ぼす可能性があります。しかし、人間はしばしば自分のバイアスを認識しないため、その説明は真実を正確に反映していない可能性があります。

また、人間の説明は、自己正当化や他人への説得といった目的を果たすために、事実を歪めることがあります。これは、人間が自分の行動や決定を正当化するために、自分の行動を支持する証拠を選択的に強調し、反証を無視する傾向、すなわち確証バイアスの一例です。

このように、人間の説明が必ずしも真実を正確に反映していない可能性があることを理解することは、人間の行動や意思決定を理解し、それらを改善するために重要です。また、人間の説明の信頼性と正確性を評価するための方法を開発することも、この問題を解決するための一つのアプローチとなるでしょう。

以上の考察から、人間もまた言語モデルと同様に、自分の行動や決定を説明する際には、その説明が必ずしも真実を正確に反映していない可能性があると言えます。これは、人間の説明の信頼性と正確性を評価するための新たな視点を提供します。

この記事が気に入ったらサポートをしてみませんか?