AI、AIと騒ぎ立てる風潮が

ChatGPTをマスコミが取り上げたら、「AI生成は善か、悪か」とうるさくなって来た。1980年代にAI(人工知能)ブームがあり、私は上司の命令で人工知能(当時はエキスパートシステムと称していたが)を工場の運転員の削減に寄与するシステムを開発する業務を始めた。上司(部長、工場長)は運転員の数の削減ありきで、労組への言い訳のために「人工知能を導入し、労働負荷軽減をする」と決めた。労組の責任者は会社の言いなりで、根拠の薄い対策を唯々諾々と受け入れる傾向にあった。
エキスパートシステムとは優れた判断基準を持ち、的確な作業指示を出せる人(その道のエキスパート)に代わるシステムで、それを構築すれば、要員数を減らしても問題なしを実現するものと誤解されていた。
問題の一つは素人がエキスパートと呼ばれる人の知識を聞き出し、それを整理してソフトに落とし込むことでした。素人が聞き出せる知識の底も浅く、網羅的でなかったので知識ベースは中途半端なものになった。高校生レベルの知識ベースのはずが小学校高学年レベルの知識ベースで終わった。エキスパートの人には暗黙知と言う領域があり、私に伝えてくれなかった。特に運転員は自分の首がかかっているのでなお更でした。
さらに当時のコンピューター能力は処理能力が人工知能が要求するレベルとかけ離れていたいたことも一因でした。現在は画像データを数限りなく読み込み、処理する能力を有している。当時のコンピューターは一部屋の面積を占有する大きさで、現在はWS(パソコン)に取って代わられてしまった。

人間に害を与えるのか?

AI生成機能は簡単な質問を入力すると膨大なデータベースから文字や文字列や短文を抽出して、あたかも優れた人が正しい文書(答)を導くように見える。普通の人は大多数の人が「正しい、まともだ」と言うと、疑いもなく信じる傾向がある。信じた人は周囲の人にそのことを話す傾向にあり、伝言ゲームのように拡散させてしまう。SNSの中でやみバイトと言う犯罪情報がその種の情報が欲しい人の手に流れてしまう。
トヨタ自動車がグループ企業に内部通報窓口を設けて、不審な情報をトヨタ本体に通報するようにしたのは不正情報の流れによどみがあると感じたからでしょう。
私は日鉄の子会社で気付いた不正行為を日鉄に申告したが無視された。仕方がないので経済産業省がらみの組織に通報を繰り返して、受理された。
情報ルートを整備しても常に詰まりがないか点検していないと内水氾濫のような状況になる。三菱自動車やVWのような事例がありながら、日野自動車、ダイハツ工業、豊田自動織機が同じ過ちを繰り返した。



この記事が気に入ったらサポートをしてみませんか?