見出し画像

【動画で学べる!ChatGPT実践ガイド#1】AIの進歩と挑戦〜生成AI誕生以前のAI〜【理論編】


動画でも学べます。


このパートでは生成AIが生まれる以前の
AIについて説明をしていきます。



AIとは


AIとは人工知能(Artificial Intelligence)の
頭文字を取ったものです。

その名の通りAIとは
人工的に作られた知能を指します。

AIの原点となる考え方っていうのは
人間の知能を機械で再現するということでした。

どういうことかと言いますと

人間が自然に持つ思考力とか
学習能力・理解力・問題解決能力などを

機械やコンピュータが持つようにしていこう
ということです。

つまりAIは人間が行う様々な知的タスクを自動化したり
人間の知的タスクを超えることを目指しています。

もちろん人間の知能には感情・直感・創造性など

単純なルールやアルゴリズムでは
表現しきれない要素が含まれます。

これらを機械が再現できるのかは
議論の余地があることでしょう。

とにもかくにもAIの定義はとても広く
多様な形を取っているということを理解しておいてください。

ここからはAIの進化がどのような歴史を辿ってきたかを
説明していきます。

AI研究の歴史

この表を見てもらえば分かるように
AIは過去何度かブームと呼ばれるもので活気づき

盛んに研究が行われてきました。

ざっくりとどんな出来事があったか見ていきましょう。

AIの概念の提唱

AIの概念は1950年に
イギリスの数学者アランチューリングが

「チューリングテスト」の概念を
提唱したことから始まります。

彼は「Computing Machinery and Intelligence」
という論文の中で

機械が人間と同じように思考することが
可能かどうかをテストする

「チューリングテスト」の概念を発表しました。

これは機械が人間と見分けがつかない程度に
思考する能力があるかを判定する試験で

現代のAIの基礎となる概念でした。

AIの誕生

そして6年後の1956年ダートマス会議が開催されました。

ここで初めて人工知能という言葉が使われて
AIという新たな研究の分野が誕生しました。

この会議にはジョン・マッカーシーやアラン・ニューウェル、
ハーバート・サイモンなど

後の「AIの父」と呼ばれる科学者たちが集まり
研究の道筋を作りました。

この会議は現代のAI研究の始まりを
象徴する出来事でした。

第1次AIブーム

ダートマス会議の後、
人類は第一次AIブームを迎えました。

この時期はAI研究の黎明期であり
初期のAIプログラムが開発されました。

これらのAIプログラムはチェスのゲームをプレイしたり
基本的な問題を解決したりすることができました。

ただその成果が大々的に報じられ過ぎてしまった結果
AIは期待外れだという風に感じる人が増えて

世間でのAIに対する関心は減退してしまいました。

そうして第一次AIブームは幕を閉じました。

第2次AIブーム

しかしAI研究はまだ終わっていませんでした。

1970年代と80年代にかけて
新たな種類のAIシステムが登場しました。

それがエキスパートシステムと呼ばれるものでした。

エキスパートシステムは
人間の専門家の知識を模倣することで

特定の問題を解決しようとする試みでした。

例えば医者の診断基準を
データとして溜めていって

そのデータを元に患者さんを診察する
みたいなもんですね。

エキスパートシステムは商業的な成功を収めて
多くの産業で広く利用されました。

ただエキスパートシステムは
専門家が持っている既存の基準を使っているだけなので

柔軟性に欠け新しい状況や未知の問題に
対応できないことが問題点でした。

そのようなシステムの限界が明らかになり
再び人々のAIへの関心は減退し

第二次AIブームは幕を閉じてしまいました。

徐々に活気付くAI

1990年代以降インターネットの登場と共に
大量のデータが利用可能になり

再びAIが脚光を浴びます。

さらに新しい技術の一つである
機械学習(Machine Learning)が注目を集めました。

Machine Learningではコンピュータプログラムが
データから自動的に学習し

その学習結果を新しいデータに適用することで

人間が直接プログラムしなくても
自動的に予測や判断を行うことができます。

このような機械学習については
後ほど詳しく説明をしていきます。

Watsonの勝利

そして2011年歴史的な出来事が起こりました。

IBMのAIシステム「Watson」が
アメリカのクイズ番組「Jeopardy!」に出場し

人間のクイズチャンピオンに勝利しました。

この出来事は世界中で話題となり

AIが人間以上のパフォーマンスを発揮できる可能性を
一般の人々にも広く認知させるきっかけになりました。

ディープラーニングの革命

そして2012年には大量のデータの利用、
多層のニューラルネットワーク、

強力な計算力の進化が組み合わさり

AIは新たなるフェーズ
「Deep Learning」の時代へと突入します。

後ほども詳しく説明していきますが
「Deep Learning」は「Machine Learning」の一種であり

人間の脳の神経細胞ネットワークを模倣した
ニューラルネットワークを用いて

大量のデータから複雑なパターンを
自動的に学習します。

第3次AIブーム

2014年以降のブームを
私たちは第三次AIブームと呼んでいます。

AIはさまざまな産業で実用化され
私たちの日常生活にも深く浸透し始めました。

音声認識・画像認識・自然言語処理など
幅広い分野での活躍が見られています。

このブームは現在も続いており
AIはますます私たちの生活を豊かで便利なものにしています。

生成AIを支える技術

ではここからは生成AIを支える技術
というものを紹介していきます。

右に書いてある図のように
生成AIっていう技術は大雑把に言いますと

人工知能という大きな分野の中の機械学習と

さらに機械学習という分野の中の深層学習
という技術の上に成り立っています。

つまり生成AIの原理を知り
生成AIの振る舞いを理解するためには

機械学習や深層学習についても理解しておくことは
非常に大事だと言えます。

ということで機械学習についても
簡単に学んでいきましょう。

機械学習(Machine Learning)とは

機械学習はコンピュータがデータから
自動的に学習するための技術です。

私たち人間が直接コンピューターに指示をするのではなく
コンピュータはデータを見て自己学習します。

例えばコンピュータに
犬と猫の写真をたくさん見せることで

コンピュータが自ら
これが犬でこれが猫だという風に学んでいきます。

機械学習においては
コンピュータは特徴量というものを学んでいきます。

特徴量とは
データの特定の側面を表す指標です。

例えば犬と猫を見分ける時
耳の形や目の形

尻尾の長さやヒゲの長さなど
様々な特徴に注目すると思います。

そのような特徴のことを特徴量といいます。

右下にあるのは僕が適当に作ったグラフなんですが

例えば犬にも猫にもヒゲがありますが

多分猫の方が特徴的なヒゲがあるっていうふうに
感じる人が多いと思います。

ということで猫と犬だったら猫の方が
ヒゲがあるという特徴に関しては大きい値になります。

大量の犬と猫の画像を学習していくと

どちらかというと犬の方が耳が垂れているという
特徴が大きいことが分かります。

ですのでこういう場合には
猫の方が耳が垂れているという特徴量が小さくなり

犬の方が大きくなるというような値になります。

こんな風に様々な特徴について
コンピュータに数値化させるのが

機械学習の大雑把な説明です。

ただし機械学習には様々な問題点があります。

代表的なものについてここでは扱っていきます。

機械学習の技術では適切な特徴量を
人間自らが設定する必要がありました。

例えば画像から犬と猫を判別する場合
人間が耳の形は尻尾の長さなど

犬と猫を見分けるための特徴を
設定しなくてはいけませんでした。

ただこうした作業にはいくつかの問題点がありました。

画像認識という問題だけを取っても
世の中には犬も猫も鳥も熊も蛇もたくさん動物がいますし

動物だけじゃなくても車とかビルとか
たくさんのモノっていうものが溢れていると思います。

そういうモノに対して
適切な特徴量を設定するのは

かなり時間と労力がかかるということは
何となくお分かりになるかと思います。

もう一つはこの機械学習の精度っていうのが

専門家がどのように特徴量を設定するかっていうのに
大きく依存するんですね。

結構職人技に近いイメージです。

ということで初期の頃の機械学習っていうのは
こういうような問題に直面していました。

深層学習(Deep Learning)とは

これらの問題点を解決するために登場したのが
深層学習(Deep Learning)です。

深層学習(Deep Learning)は先程のような
機械学習の問題点を解決するために考案されました。

どういうモチベーションで開発がされたかと言いますと

人間の脳というのはニューロンと呼ばれる
脳神経細胞が繋がって

電気信号でやり取りをしているというのが
知られているんですね。

そのような脳の仕組みっていうのを
コンピュータ上にも再現をすれば

人間と同じような思考ができるんじゃないかっていう考えで

Deep Learningの研究はスタートしました。

Deep Learningには
ニューラルネットワークというものを用います。

ニューラルネットワークっていうのは

ニューロン(神経細胞)の
ネットワーク(網目構造)っていうのを意味しています。

この図にあるこの白丸の1個1個っていうのが
ニューロンだと思ってください。

ニューロンが他のニューロンと
細い線でこうやって繋がれている

そんなようなものをイメージしてください。

なんとなく見てもらうと分かると思うんですけど

ここで層みたいなのができてて
こっちにも層がありますね。

こっちにも層ができてて
こっちにも層ができてる

というような形になってることが分かると思います。

この図をどうやって解釈するかって言いますと

一番左にあるところに
最初にデータを入力をします。

そしてそっから先の二個目以降のところっていうのが
中間層って言われまして

データを処理する層になっています。

一番最後の層というのが結果を出す
出力層と呼ばれるところになっています。

この図の中では入力っていうのが5個だけだったり

中間層っていうのが2層だけだったり
出力も5個っていうふうになってますけど

実際のニューラルネットワークでは
もっと入力が多かったり

中間層の数っていうのがこの2層だけではなくて
もっと3,4,5,6,7,8...というふうに多かったり

出力層に関してももっと数が多かったり
っていうふうになっていますが

今は簡単のためにこんなような図にしています。

この中間層が1層以上あるニューラルネットワークのことを
Deep Learningという風に呼ぶので

ニューラルネットワークとディープラーニングは
ほぼイコールの言葉だと思っていただいて大丈夫です。

ではここからはDeep Learningを用いた学習について
簡単な例を見せていきます。

まず最初にこのような猫の画像を学習させたいと思います。

ただコンピュータには目がないので
最初に画像をこのような細かい画素

つまりピクセルに分解してこのピクセルを
入力値として与えていく必要があります。

そうするとこのピクセルの中には白いところもあれば

茶色いところもあればこげ茶のところもあれば
黒いところもあったりしますね。

でこのようなピクセル値っていうのを左上から順番に

ここのピクセルの値ってのをここに入れて

個々のピクセルの値っていうのをここに入れて

ここのピクセルの値っていうのをここに入れて

っていう風に順番に入力をしていく訳ですね。

実際には入力っていうのがもっと
何百何千と並んでるもんだと思ってください。

そして猫の画像全体分を
ここの入力として与えていきます。

つまり画像の場合には入力がピクセル値になるということを
イメージとして持っておいてください。

そうすると中間層の第1層目では

離れた二つのピクセルがどのような値を持っているかっていう

二つのピクセルの関係性っていうのが分かるようになります。

例えばここの白と白で繋がれたところっていう

ここの情報には両方ともが白であるみたいな
情報が入っているわけですね。

他にも白と茶色とか

白と焦げ茶とか
こげ茶と黒みたいな

そういうような二つのピクセルの関係性が入る訳ですね。

でその次では4つのピクセルの関係性が分かって

8個16個32個っていうふうに
層っていうのが深くなっていくにつれて

どんどんどんどん倍々で
関係性というのが捉えられるようになってきます。

そうしていくと層の深いところでは

画像の持っている形状とかテクスチャが
捉えられるようになります。

人間の言葉で言うと
(動物の)耳の形とか尻尾の長さっていう

そういうようなもんだと思ってください。

ただ実際にはDeep Learningにおいて

耳の形とか尻尾の長さっていうのを
特徴量にしているかどうかは実際には分かりません。

この辺の中間層っていうのは
ブラックボックスだと思ってください。

なので中間層のことを
「隠れ層」というふうに呼んだりもします。

そして最終的に先程入力したこの猫の画像っていうのが
どの動物であるかという確率を出力していきます。

例えば
犬である確率が9%
鳥である確率が2%
猫である確率が81%
蛇である確率が3%
熊である確率が5%
みたいな具合ですね。

こんなふうにしてニューラルネットワークを用いた
深層学習(Deep Learning)では

画像や文字や音声などを認識することができます。

ではここまで機械学習と深層学習について
大まかな方法について説明してきましたので

機械学習と深層学習がどんな違いがあるかっていうのを
表にして見ていきましょう。

まず特徴量の選択については
機械学習においては人間が特徴量を設定する必要がありました。

一方で深層学習においては特徴量の抽出に関しても
コンピュータ自身にやらせていました。

機械学習と深層学習
どのような学習の特徴があるかと言いますと

機械学習は単純なパターンとか関係性を
学習するのに適しています。

一方で深層学習については
多層のニューラルネットワークを用いて

複雑なパターンとか関係性っていうのを
学習するに適しています。

データ量に関しては機械学習は
小規模なデータでも有用なんですが

深層学習においては特徴量の抽出から行う必要があるため
大規模なデータが必要になってきます。

計算リソースに関しては機械学習は
どちらかと言うと小さい計算リソースで行うことが多く

深層学習はGPUなどの
計算リソースを大量に必要とします。

このような違いが
機械学習と深層学習の間にはあるんですが

ざっくり理解しておいていただきたいことは

深層学習においては特徴量をコンピュータ自らが
設定するっていうのが非常に魅力的なことです。

なので猫の画像を見せたときに

猫の特徴っていうのは三角の耳で尻尾が生えてて
ヒゲが生えていて目がツリ目になってるっていうのを

コンピュータに教える必要っていうのがなくなってるんですね。

そうすることでたくさんの画像を学習させても
人間の労力がそれほどかからなくなってきました。

さらに大量のデータを用いることで
機械学習よりも複雑な学習ができるようになったんです。

そのような深層学習の技術で
今のAIの技術は大きく発展することになりました。

ここまでが現代の生成AIを支える
機械学習と深層学習の技術の説明でした。


いかがでしたか?
ぜひ感想をお聞かせください😊

Twitterもしているのでフォローよろしくお願いします😊


サポートも大歓迎です🙆‍♂️✨ こらからもいい記事を書いていこうと思います🥰