見出し画像

『ドラえもん』から学ぶAIとの付き合い方

テクノロジーの進展は、人間の欲を満たし、どんどん社会をよくしていきます。しかし適切にテクノロジーを人間社会に活用し、生態系にとって良い形にしていくためには、何を計測し、何を変えていくかを誤っては本末転倒です。今回は主に、組織開発という視点に立ち、テクノロジーのあり方、計測、定量化のあり方について議論していきたいと思います。

この記事は三人の登場人物の対話形式で進めていきます。
りお:若手人事担当
持続的に繁栄できる強い組織にするべく、あらゆることを探求し、人事活動に活かしていきたい若手人事。少し捻くれている。
としぞう:精神科医
個人の行動変容や組織全体の行動に詳しい精神科医
わたるん:仙人
複雑な事象を整理し正確に言語化してくれる。たまにしか出てこない。

りお>
としぞうさんは、適材適所という決められた正解を目指してしまうと、柔軟性が失われて、組織がうまくいかなくなるとおっしゃいました。
しかし、その適材適所の精度が柔軟性も含めて完璧であったらどうでしょうか?


具体的には、AIはまず、内部環境分析において、プロジェクト遂行のために必要な能力の細分化をし、個人の能力や状況ごとのメンタル変化(感情の揺れ動き可能性)を適切に分析し、個人同士の足りない要素をチームで補完する編成を完璧にすることができます。加えて、外部環境分析において、外部環境とそのプロジェクトの位置付けを分析し、外部環境の変化に応じて柔軟に役割分担の組み合わせを組み替え、新たに必要な人材を市場環境から見つけてくることができるというサービスがあった場合、それは最高のサービスだと思いますか?つまり、AIが人間の対話の柔軟性に勝った瞬間、心理的安全性の持つ意味はなくなるのではないか?という問いかけとも考えられる気がしています。

としぞう>
AIマッチングによる正解の理想、人間とは合理的であって欲しいという期待、どうしてもしてしまいますよね。もし人間が合理的な存在であるならば、正解を与えることで最大の生産性を発揮します。ただ、残念ながら人間は合理的な存在ではないのです。めちゃめちゃ正しいことを嫌いな奴から言われると、失敗するとわかっていてもその方法は取りたくないし、自分が尊敬する人の方法が仮に効率が悪くても好きな人から言われたことであれば頑張っちゃうんですよね。嫌いな人だけど言ってることは正しい、尊敬する人が言ってることだけど非効率だ、そこにたとえ気付いていたとしても、『気乗りせずに正しいことをやっている結果』と、『尊敬する人が非効率なのはもしかしたら嘘かもしれないから全力でやろうとしている結果』を比較すると、生産性という観点からは容易に逆転してしまうんですよね。ここまでイメージできますか?

りお>
はい、嫌いな人から言われたらやりたくないし、好きな人から言われたら全力でやります。そこは理解できるのですが、でも、人間、AIのことが嫌いなわけじゃないですよね。実際に、それが適切であるならば、よし、信じてやろう!となるはずです。しかも、こと人材配置について言えば、AIと直感はかなりの確率で整合性がとれてくると思います。AIから最適なことを言われて、それに従い、うまくいくことでモチベーションも上がり、関係性もどんどんよくなっていくのではないでしょうか?

としぞう>
そうですそうです。まずは、ここで何が問題かというと、そこの「適切であるならば、よし、信じてやろう!」と思ってしまうことで、適切ではないかも?というちょいモヤを押さえ込んでしまうとうまくいきません。「適切であること(真実であること)」は誰にとっても魅力的なので、真実に忖度することで自分の感情を抑え込んでしまい、結果的に心理的安全性が下がり、生産性も下がってしまうんですよね。あとは、仕事場の情報だけが配置換えに必要な情報でもない。例えばある人がリーダーにふさわしいとAIが決めたとして、その人が自分の子供の受験が成功するか失敗するかが気になっているとしたら、リーダーとしてのパフォーマンスが出せないかもしれないですよね。そして、不安のあまりに本人も自分の子供は受験には受かるから大丈夫と納得しようとしていたら、調査をしたとしてもこのデータは出てこないということになります。この時に、本人がAIのデータが正しいと忖度してしまうと、リーダーとしての配置に納得してしまって、心理的安全性は下がってしまいます。なので、適切だから信じてやろう、と思ってしまうよりは、間違いだらけだから気付いたことがあれば言おうという方が、自分の子供の受験が自分のパフォーマンスに影響していることに気づきやすくなるので、結果的に心理的安全性は高まり組織全体のパフォーマンスも上がるんです。

としぞう>
ここまで、正解を目指してはいけないという話をしてきたのですが、実は正解には2種類あるんです。いつでも誰でも成り立つ普遍的な物理法則のような正解である「静的な正解」と、その時その場所でうまくいくけど、他の組織でも同じように正しいとは限らない「動的な正解」。この2つが混ざってしまうことを、いわゆる『成功体験に縛られる』と言うのですが成功することが悪いのではなく、動的な正解を静的な正解と勘違いしてしまうことが問題なんですよね。その意味だと、実はテクノロジー自体が悪いわけではなく、テクノロジーやビッグデータを人間が勝手にこれは適切な判断だと勘違いしてしまうことが問題になるんです。その意味だと大事なのは情報の出し方で、AIとビッグデータを「静的な正解」として捉えない工夫が重要かもしれません。イメージで言うと全知全能のAIマッチング様に適正な配置をご指示頂くのではなく「人材配置に関してたまに役に立つポンコツロボットのドラえもん」から、人材配置に関してちょっと意外な立場からアイディアをもらう、という使い方です。ただ、結局は自分たちで考えて決める必要があるというところは同じなので、このAIがめちゃくちゃ役に立つ!というよりは、柔軟性を高めるために広く情報を集めるきっかけの一つみたいな位置づけですが。

りお>
ドラえもんの下り、秀逸な例えですねw
いずれにせよ、心理的安全性のある関係性による柔軟性あってこそである、心理的安全性の基盤あってこそAIは機能するということですね。

としぞう>
ドラえもん:「僕はポンコツだけど、今あるデータあつめると、りおさんは営業のリーダーに向いてなくはない気がするよ、知らんけど」みたいにAIを使う。藤子不二雄先生のスタンスは人間とロボットとの付き合い方のお手本ですね(笑

りお>
なるほど、ドラえもんが今でも残り続けているのは、その関係性が心地良いと無意識で感じているからなのかもしれませんね

としぞう>
ですね。そのあたりみんなの感覚が具現化されたものなのかもしれません。その意味だと、テクノロジー側の問題ではなく、テクノロジーに正解を求めたくなる、我々の柔軟性を高めておかないとせっかくのテクノロジーも生産性を下げる方向に使われてしまう、というイメージでしょうか?
我々の柔軟性が高まっていないうちは、AI適性マッチングのドラえもんには、しばらく「知らんけど、知らんけど」と言ってもらいながら、意見を出してもらわないと我々がダメなのかもしれないです(笑


この記事が気に入ったらサポートをしてみませんか?