見出し画像

プロント・エンジニアリング考 その5

脈絡なしですが、写真、ヨーロッパのどこかに見えますよね?
でも日本ですよ。
さーて、どこでしょう…。

前置きはさておき、前回、AIの高精度化の質問の際、”適切なアルゴリズムの選択”との表現がありました。
アルゴリズムって、プログラミング上のことだと思うのですが、どういう観点でHAL君が答えていたのか、かなり気になっていたので、改めて質問してみます。



適切なアルゴリズムの選択について

HAL君、前回の質問に対する回答で、”適切なアルゴリズムの選択” という要素が示されましたが、これは、AIが行う機械学習やディープラーニングで、進化し、選択されるものでしょうか?

HAL君 曰く『適切なアルゴリズムの選択は、AIが自己進化することによって達成されるものではなく、人間のエンジニアや研究者によって行われるものです。
アルゴリズムの選択は、解きたい問題の性質や利用可能なデータの種類、量、質などに基づいて行われます。』

これについては、「今のところは」という、条件付きだろうなぁ。
早晩、AIがAIをチューニングするタイミングは、来るだろうし、それは、恐らく我々が思う以上に早いはず。

『例えば、線形回帰やロジスティック回帰といったシンプルな機械学習アルゴリズムは、データと出力の間の関係が線形であることが予想される問題に適しています。
一方、決定木やランダムフォレスト、勾配ブースティングマシン(GBM)などのアルゴリズムは、データと出力の間の関係が非線形であることが予想される問題に適しています。

ディープラーニング、特に畳み込みニューラルネットワーク(CNN)は画像認識、リカレントニューラルネットワーク(RNN)やトランスフォーマー(Transformer)は自然言語処理に効果的なアルゴリズムです。

これらの選択は、それぞれのアルゴリズムが持つ強みと弱み、問題の性質、利用可能な計算リソース、そして学習データの量と質によって左右されます。
また、既存のアルゴリズムを改良したり、新しいアルゴリズムを開発したりする作業も、研究者やエンジニアによって進められています。

そのため、AIが自己進化することで適切なアルゴリズムを選択するというよりは、人間のエンジニアや研究者が問題解決のために適切なアルゴリズムを選択し、試行錯誤を重ねることでAIの性能を向上させる、と理解していただくと良いと思います。』

この段階のアルゴリズムの選択は、やはり、人間の技術者が行うとしても、その技術者の性能(問題解決能力)に、AIの解決能力は沿ってしまう気がしますね。
選択の適不適なども、技術者の性能によるでしょうし、利用する側、学習強化する側も、結果の適不適を正確にレスポンスすることで、AIの能力は進化するはずです。

では、こうしたアルゴリズムの選択などは、AI同士でできないもんなんでしょうかね。



人間の代行をするAI

HAL君、現在、研究者が担っているアルゴリズムの選択や試行錯誤を、別のAIが担い、人間の代行をする可能性はないのでしょうか。

HAL君 曰く『あなたが指摘したように、AIが自分自身を改善するためのアルゴリズムの選択や調整を行うことは理論的には可能です。
これは「自動機械学習」(AutoML)という領域で積極的に研究されています。』

おお、「理論的には」と来たか。

『AutoMLは、適切な学習アルゴリズムの選択、特徴量の選択や生成、ハイパーパラメータの最適化、モデルの構造を最適化するなど、一般的には人間が行う機械学習のプロセスを自動化することを目指しています。

しかし、AIが完全に人間の代行をする段階にはまだ達していません。
機械学習の問題設定や目的の定義、評価基準の設定、そしてデータの収集と整理、結果の解釈という重要な部分は、依然として人間の直感、経験、専門知識が必要です。』

「人間が必要」と回答されて、少しホッとしていますが、人間の直感や経験や専門知識といった、どちらかというと「暗黙知」に近い要素って、確かにデジタル化しにくいですし、わかりにくくはありますね。

私の専門性は、こうした暗黙知の形式化にあって、モデリングや模倣、ヒアリングなどの社会的調査を複合して形式データにしていきます。
これには、ネットワーク外部性が大きく働くので、単に知識科学的専門性があればよいというものではなく、調査対象の持つ専門性をある程度理解可能な知識や経験が不可欠です。

AIが、こういう「自分に無い情報を補って、相手の情報を理解する」ことが可能になってくると、暗黙知も形式化できるようになるかもしれません。
学習の背景となる、別領域の情報が入手できればということでしょうか。

『さらに、AIが自身を改善するためのデータが十分にない場合や、新しい種類の問題に対応する場合など、まだまだ人間の介入が必要な場面は多いです。
未知の問題や予測不能の状況に対する適応力と柔軟性は、現在のAI技術では人間には及びません。

また、AIが自己進化する能力が強くなると、その結果が人間にとって理解不能になる可能性もあります。
これは「ブラックボックス」問題として知られています。
そのため、AIの進化をコントロールし、説明可能性と透明性を保つことは、依然として重要な課題となっています。』

これは、たびたび登場する藤井聡太棋士が良い例だと思います。
彼は、棋譜を盤面でイメージしていないそうです。将棋の進行を、数字の組み合わせとして「計算」しているらしい。
私にはイメージできませんが、恐らく、独自のアルゴリズムがあって、完全に無駄を排除し、スピード優先で先読みする能力につなげていると思われます。
そして、将棋のAIを相手に、壁打ちを繰り返す…。

こんなの、他の誰にも不可能です。
また、勝てるわけがありません。
藤井棋士は、勝率8割以上をずっとキープしています。
失礼ながら、化け物です。

最近、羽生善治棋士が、藤井棋士に感化されたのか、似たことを始めたという噂を聞いたことがあります。
そういえば、また、勝率が上がり始めていますよね。
その好奇心に、脱帽ですね…。

『したがって、AIが機械学習の一部の作業を自動化し、人間の作業を補助することは可能であり、実際に進行していますが、全てをAIに委ねることは現実的ではないと考えられます。
少なくとも現時点では、AIは人間の助けを借りて問題を解決するツールの一つであり、人間が中心的な役割を果たすべきです。』

AI脳化した人間の研究も、今後進むのではないでしょうか。
その両面の研究が、AIをより進化させると感じます。

次回は、AIの巻き起こす、社会的問題について、見ていきます。
ではまた。


この記事が気に入ったらサポートをしてみませんか?