見出し画像

GPT-4に感動して社内業務を人工知能に置き換えようとしている取引先への報告にGPT-4を使って15分で終えた話

 人工知能はものすごく進化しているけどジェネレーティブAIって割と嘘を書いてくるよなあって話は文春で書きました。ジェネリックひろゆきというニュアンスのことを書いたのですが、西村博之のほうが酷いという反響が寄せられたのは印象的でした。そんなもんですかね。

 で、コロナ明けというのもあって最近は対面での打ち合わせも増えているところ、足を向けた取引先の社長がGPT-4を試しているとかでやけに感動して「これなら社内業務の足らないところを人工知能が補完するだけじゃなくて、ほぼすべてのジョブフローが人工知能に置き換えられるのでは」などと言い始め、やけに買ってるなあと思うわけですよ。

 さすがにそれはちょっとなと思って「それができるなら御社が数年前に導入したサイボウズはもっとうまく稼働しているはずですし、私らみたいなサポート役のベンダーも本来は要らないのでは」という話をしたんですが、社長的にはもう一年後にはスタッフ職は半分にするぐらいの勢いで構想を語り始めたので、これはそろそろ取引先としておしまいに近づいているのだろうなあと感じました。

 というのも、業務システムもそうですが、基本的にはすべてのジョブフローを置き換えるにあたっては、かなり厳密に仕事の中身を定義したり、情報の流れを漏れのないよう忠実に構築しておく必要があります。気になる人は、細川義洋さんの『システムを外注するときに読む本』を隅々まで読みましょう。

 また、GPT-4が凄いよと言ってもなんだかんだ所詮はLLMですし、プライベートで運用するにせよ教師データは過去のものとその組み合わせに過ぎませんから、優先順位を判断する仕事やイレギュラーな処理は当然人力になります。そして何より、人工知能はやらかしても責任は取ってくれません。ミスに対する報告も「おまえ、これおかしいやろ」とフィードバックしなければ同じミスを何度でも繰り返すことになります。

 さらに、人工知能を駆使したシステム運用は企業経営に必要な絶え間ない改善による業務効率の向上とか、メリハリの効いた業務コスト削減とか、業界内・組織内のコンセンサスを取りながら戦略や作戦を構築するなどと言ったことは向いていません。人間がやらなければなりません。

 そして、その人間が「あ、これはいまの業界環境ではこれが優先されるべきだな」と判断したり、人工知能から上がってくる膨大なアウトプットに対して「おっ、ここが間違っているようだな。修正せねば」と対応する必要があるわけですけれども、ここで人工知能による合理化で人間をガーッと切ってしまうと人工知能が流してくる嘘んこをいちいち修正するだけの労力と業務知識を持った人材の育成がむつかしくなってしまうジレンマが発生します。

 人工知能と人間の協働と言えば聞こえはいいのですが、置き換えることができるのはイラストやテキスト類などのパーツから始まってアウトプットが業務の品質に決定的でない分野までが最適解なのであって、重要なことを人工知能に触らせようとするとかなりの細かい部分に至るまで既存事業のジョブフローや各種判断の優先順位をしっかり人工知能に教え込んだり、適宜修正をかけて練り込まないといけないことになります。

 そういう人工知能に大事な業務上の判断まで任せてスタッフ部門を削減するぞと息巻いている経営者こそが、人工知能活用において極めて危険な意志決定をする人物であることは間違いないし、そもそもその経営者は上場しているにもかかわらずスタッフ部門が抱えているタスクに対する解像度がクッソ低いだろという結論にならざるを得ません。あくまで大方針として業務改善や効率化のためにGPT-4を使うんだという号令をかけるところまでは理解するとしても、それでいきなり人員削減だぞとか組織運営は人工知能に任せられる時代になったのだからそれで頑張ろうというのは非常に残念な結果しか生まないのだろうなと思うわけですね。

 もちろんハイプサイクルの考え方から言えば、ジェネレーティブAIが人間に分かりやすくその技術革新の程度を見せることができたという点で非常に期待感が強く万能であると捉えられやすいという側面はあるのでしょう。

 しかしながら、何度も書くようにこれは線形代数やベクトル、フィールドの問題なのであって、それは確かに革命的ではあるけれども置き換え得る分野は割と限られており、使いこなしたり精度を上げたり安定した品質を実現させたりするには相応の知見と投資が必要なのだ、そして何より取り組む人たちの仕事も含めたしたいことの解像度を極限まで高めない限り使いこなすことは困難だよという話になるわけです。

 試しにその会社で起きたある問題に関して調査して報告しろという話になったので、他の調査報告の過去データをごっそり流し込んで喰わせた人工知能で今回出た調査内容のアウトプットを整形して提出したら、その程度の納品物をすんなり受理され検収されてしまうという「事件」が発生しました。

 より突っ込んで話をするならば、柿沼さんの「(1) 大規模言語モデルを自ら開発してコードやAPIの形式で公開・提供するビジネス」におけるこの赤い枠で囲われた部分は相応にハイエンドな仕事をしている層においても品質を見抜かれづらいことを意味します。もちろん、最初にアセットとして喰わせているデータ群の品質がきちんとクレンジングされて良いからアウトプットのクオリティも高いのだという側面はあるかもしれませんが、私らからすれば今回の調査業務における特殊性も加味しないで通り一遍の分析結果だけ提出して「ですよねー」と受理されてしまうと大変なことだなと思ったりもするのです。

 報告会で、ちゃんと「受理されたものの、これはGPT-4で構築して出てきた結果をサマライズしたもので、私たちからすると充分な品質の報告とは言えないものです」的なことは言ったりしたのですが、私がどのような含意でそのようなことをお伝えしたのかあまりご理解いただけなかったようで、普通に「おお、それはすごいですね。次回もこんな感じでお願いします」などと言われてしまったので、良く分かりませんが、相応に業界の中でも最先端で強烈な競争に晒されているはずの組織においても意外と雑なものでも許容されてしまうものなのかもしれません。

 私としては、まだ改善の余地がおおいにある人工知能を過信した結果、長年培ってきた仕事から放逐されかねない人たちの将来を憂慮するだけではなく、流行りものを過信して流されていく経営者の危うさなんてのも改めて感じるところなのですが。

 なんというか運転の荒いタクシーに乗った気分になりました。画像は『トラックを酔っ払い運転して、やらかしていることに気づいていない能天気な経営者』です。


本当にこういう経営者いそう。身につまされるだけに困ったもんだ…

いいなと思ったら応援しよう!

山本一郎(やまもといちろう)
神から「お前もそろそろnoteぐらい駄文練習用に使え使え使え使え使え」と言われた気がしたので、のろのろと再始動する感じのアカウント