見出し画像

AIの歴史を復習してみたら、ChatGPTのヒントになった。

この内容まとめです
マンガでわかる人工知能 (池田書店のマンガでわかるシリーズ) | 三宅陽一郎, 備前やすのり |本 | 通販 | Amazon


人工知能の歴史の説明

人工知能の歴史には、
第一次ブームと第二次ブーム、第三次ブームがあります。

人工知能における3つのブームの概要

第一次ブーム

第一次ブームは
推論、探索という手法を用いて始まりました。この手法は、場合分けを通じて答えを探し出すものであり、ミニマックス法などが開発されました。

たとえば、将棋や囲碁などのボードゲームでは、相手の手を予測して最大限の利益を得ることを目指しているといえます。
こうしたアルゴリズムはのちに、プロの棋士をも超える人工知能の強さを実現する種になることができました。

第二次ブーム

第二次ブームは、
知識を重要な要素として扱うことに焦点を当てました。
当時は、知識を詰め込めばどのようなタスクにも対応できるという考え方が広まりました。
しかしながら、その知識を効率的に管理する方法については未だ課題が残されていました。
その背景には、人間が誰でも知っているような常識レベルの知識もすべて技術する必要があるため、取り扱いに苦慮することが多かったのです。

第二次ブームにおいては、
シンボルグラウンディング問題も浮上しました。
これは、記号や文字を教えることはできても、それがどのようなものと結びつくかということを教えることができないという問題です。
例えば、シマウマの特徴を言葉で説明することは可能ですが、AIはそれがシマウマであることを理解することは困難です。このような課題を解決するためには、より高度な技術が必要であることが示唆されました。

第二次ブームが終息した背景には、人間が入力した知識の範囲を超えることができず、必要な知識が膨大すぎて管理することができないという問題がありました。
しかし、現在の第三次ブームでは、インターネットの普及により、膨大な情報が容易に入手できるようになりました。こうした情報を活用することで、人工知能がより高度なタスクに対応することができるようになっています。

心の声
そう考えるとGPT-4のマルチモーダルってえぐいんよな。。


第三次ブーム


第三次ブームにおいては、
ディープラーニングや機械学習などの技術が登場し、人工知能の発展を大きく後押ししています。
これらの技術は、膨大なデータを学習することで、より高度なタスクに対応することができます。
例えば、自然言語処理や画像認識などの分野で、人工知能が人間と同等以上の精度を実現しています。
現在の人工知能は、日々進化を遂げており、その応用範囲もますます広がっています。今後も、人工知能が世界を変える可能性を秘めていることは間違いありません。

第三次ブーム以降、ディープラーニングや機械学習が発展し、人工知能はより高度なタスクに取り組むようになりました。
機械学習の基本的な仕組みは、
確率の高いものを選択するというものです。
たとえば、翻訳の場合、文法構造や意味構造を考慮せずに、機械的に訳される確率の高いものを当てはめていきます。
機械学習における学習とは、大量のデータを処理しながら、分類やパターン認識などの処理方法を自動的に習得することを指します。

これには(主に)教師あり学習と教師なし学習の2つの方法があります。

教師あり学習

教師あり学習は、あらかじめ用意された訓練データに基づいて、入力とそれに対応する正しい出力を学習する方法です。
たとえば、花の画像にラベルを付けた訓練データを用いて、花の特徴を学習させます。

心の声
この考え方ってChatGPTで言うところの One Shot Learningとかと通づるよなぁ
結局論文とかで見るのって、機会学習とかの手法の応用やねんなぁ。機械学習強い人は
当たり前にChatGPTの扱いがうまい。


教師なし学習

一方、教師なし学習は、
入力のデータのみを大量に与えて、一定のパターンやルールを学習させる方法です。
例えばクラスタリングは、教師なし学習の代表的な手法であり、お店で一緒に購入される商品を分析して、商品の特性を把握することができます。

現在の人工知能は、深層学習などの技術を用いて、自然言語処理や画像認識などの分野で驚異的な精度を実現しています。
これらの技術の発展により、人工知能はますます多様なタスクに対応していくことが期待されています。
以上のように、第三次ブーム以降の人工知能の進化には、機械学習やディープラーニングの技術が大きく貢献しています。これらの技術を用いた人工知能は、ますます高度化していくことが予想され、社会や産業に大きな変革をもたらす可能性があります。
人工知能の発展において、重要な発明の一つであるニューラルネットワークは、人間の脳神経回路を模倣することによって、分類を実現するものです。

将棋や囲碁などのボードゲームにおいて、人工知能が強くなった理由の一つは、機械学習の適用と、より適切な特徴量の発見にあります。

特徴量とは、データの中で注目する要素のことであり、例えば予定の有無などがその一例です。

心の声
この考え方ってChatGPTに大事よな。自分の好きな 歌詞の フレーズを大量に読み込ませて
特徴点を考えさせる。
AIに個性を付けるのって、いい例をたくさん集めることから始まるんよなぁ






モンテカルロ法は、ある一定の場所からランダムな手を繰り返して終局までシミュレーションを行い、勝率を評価する手法です。(この手法はすべてのゲームに適用できるわけではありません。)
例えば、チェスのように勝敗が決まるまでに多くの手番が必要なゲームでは、計算コストが高くなってしまいます。将棋や囲碁のAIが強くなったのは、モンテカルロ法だけでなく、機械学習や特徴量の改善など様々な要因が絡んでいます。

心の声
このモンテカルロ法ってChatGPTに応用できるよな。。
ある一定までは人間のルールで導いて、最後までやってみてもコストがかかり過ぎない場所まで来たら
再帰的にある特徴を強化した回答を複数出させて、そこから選ぶみたいな。
やからこそ、やっぱり、初めの仕組み作りが大事なんやなぁ





最近のブレイクスルー

実は革命は画像認識の分野からおきました。

手書き文字認識はその代表的な例の一つで、郵便番号の自動読み取り以外にも多様な分野で利用されています。
AIに読み込ませるために、さまざまな形の0から9までの数字を含めて、その正解と対応させます。
このデータが入力層に読み込まれると、様々なアルゴリズムに基づく計算が施され、隠れ層を経て最終的に出力層に渡されます。出力層には、数字に相当する10個のニューロンがあることがありますが、この数は認識タスクによって異なります。

重み付けとは、つなぐ線の太さによるものだけでなく、他の方法でも実現されますが、重みの調整によって、認識の精度を向上させます。
重み付けを上司と部下の関係に例えると、ニューロンはたくさんの部下になります。間違った情報を伝える部下の重みは低くし、優秀な部下の重みは強くすることで、認識の精度を向上させます。

ただし、機械学習には弱点があります。
特徴量の設計は人間に依存しています。

そのため特徴量を自動的に学習することができるディープラーニングが注目されています。

心の声
この考え方ってChatGPTに大事よな。。

ディープラーニング


ディープラーニングの最大の利点は、
自ら特徴点を作り出すことができる点です。
これは、これまでの人類が望んでも実現できなかったことであり、非常に革新的な発展です。過去には、同様の研究がいくつか行われていましたが、精度向上には成功していませんでした。

ディープラーニングは、音声認識や画像認識などの技術を大幅に改善しました。そして、近年注目を集めている技術の1つである「畳み込みニューラルネットワーク」(CNN)があります。
CNNは、主に画像分類に利用され、人間と同等またはそれ以上の精度を発揮するようになりました。2012年には、Googleの研究者が発表した研究成果があり、これは「Googleの猫認識」として有名になりました。
この研究では、1,000万枚以上の画像が使用され、100億のニューロン同士が接続された巨大なニューラルネットワークが使用されました。この研究には、1,000台以上のコンピューターが3日間稼働する必要がありました。つまり、特徴点を取り出すことは非常に困難な作業であったことがうかがえます。

心の声
ほとんどの人がこの辺から嫌になるよな・・

そして現代のLLMに続きます。。


下記参照
マンガでわかる人工知能 (池田書店のマンガでわかるシリーズ) | 三宅陽一郎, 備前やすのり |本 | 通販 | Amazon

Tiktok 頑張ってます。

オープンチャット「日本ChatGPT研究所ノーベル」
めちゃ本音で話してます。

お仕事依頼はTiktokDMからお願いします。

この記事が気に入ったらサポートをしてみませんか?