AIの可能性と限界
日経電子版に限らず、AIに関する記事、ニュースは途切れることがなく、紙面のタイトルにAIの文字を見ない日はほぼない、と言ってよいくらいです。
AIは、5Gの普及に伴って加速するIoTによって収集される膨大なビッグデータを解析するのに不可欠な、第4次産業革命のアクセラレータですが、その可能性、ポテンシャルの一方で、AI警戒論、AI脅威論もまた盛んに論じられています。そのようなAIの限界について、最近の日経電子版の記事3本が大変参考になるので、そのポイントをピックアップしてみることにしました。
▶AIの限界
(1)『ラベリング』・・・(教師付き学習の場合)人間が大量のデータを
識別してラベル付けする際にミスが起きやすい。
(2)『データ』・・・AIのトレーニングのためには、大量のデータを収集
しなくてはならない。
(3)『ブラックボックス』・・・AIの判断の根拠が不明。
(4)『汎用性』・・・AIは、特定のタスクのために開発され、汎用性が
ない。
(5)『バイアス』・・・データの収集・選択の過程で意図せぬ偏見、
バイアスがかかってしまう。
(6)『計算』・・・AIのやることは基本的に計算であり、ルールが
不明確で、情報の範囲が限られていないような領域は、
計算に置き換えられないので、そもそもAIには向いて
いない。そのような領域は、まさに人間の得意分野で
ある。
(7)『人命に関わる領域・センシティブな領域』・・・説明責任・信頼性
などの観点からAIの使用には慎重にならざるを得ない
(特にブラックボックスの場合)。
(8)『人間の能力を低減させるリスク』・・・人間の得意な領域にまで
AIを使ってしまうと、考えることを止めた人間は、その
分野における能力が低減し、技能を伝承できなくなる
リスクを背負うことになる。
AIの進化は著しく、XAI(ホワイトボックスなAI)などの開発でその限界をクリアしようとしていますが、その人間との違い、限界を明確にした上で活用する必要がある事は明らかです。興味本位ではなくとも何でもかんでもAIにやらせようとしたり、DX(デジタルトランスフォーメーション)で何かAIを導入してみようなどといった中途半端な姿勢に疑問符が付くことは否めません。
この記事が気に入ったらサポートをしてみませんか?