![見出し画像](https://assets.st-note.com/production/uploads/images/134414988/rectangle_large_type_2_9aa20e580146f60596f74f00fb6e3f75.png?width=1200)
ChatGPT ができない、人間に勝機がある「管理職としての仕事」の領域を考えてみる
自分は過去に何冊の本を読んだだろうか。
ChatGPTは世界中の誰よりも本を読んでいる。その学習データ量は、書籍で例えると、数十億冊に相当すると言われている。これは、世界中の図書館にある書籍の総数よりもはるかに多い量だ。
大規模言語モデル(LLM)のトレーニングデータセット(ChatGPTに限らず)は膨大な量であり、どんな速読者であっても一生の間にインプットできる量は追いつかない。この時点で「学習データ量」の点では、人間の圧倒的な敗北なわけであるが、ChatGPTの情報処理と人間の理解力には明確な違いがある。
ChatGPTなどのLLMは、人間と同じ意味でコンテンツを「理解」しているわけではなく、その強みは「パターン分析」にある。膨大なデータセットを統計的に評価し、次に続く可能性の高い単語や文章を予測するのが本質だ。
一つ例を出そう。フランスの首都は?と聞いたときに「パリ」という答えが返ってくるのは、それまでインプットしてきた情報の99%以上 (おそらく) において、フランスの首都がパリであるというデータがあり、統計学的に間違っていないという確証があるからである。
![](https://assets.st-note.com/img/1710826540193-n4amUoZu59.png?width=1200)
一方で、統計学的にバリエーションがあると思われる質問については、異なる答えが出てくる可能性が高くなる。以下は同じ形のプロンプトを入力した際に出てきたアウトプットである。パリの例と異なり、複数の提示があることがわかる。
![](https://assets.st-note.com/img/1710827017328-P43ea67HrM.png?width=1200)
より多くのデータに触れることで、生成AIの予測能力、そして統計学的なアウトプットの質は向上する。ただしそれは必ずしも「より深いレベルの理解」を意味するわけではない。統計的な判断力が高くなっているだけである。
このnoteは「中間管理職」をテーマにしている。ChatGPTは人間の中間管理職業務を駆逐するのか、という命題については、
ChatGPTが人間に変わって中間管理職の業務を遂行する場合、どのような情報をデータ化してインプットすると有用なのか。
とも言いかえることができる。
ここから考察を進める上では、データ量の多いChatGPTに聞いてみようと思う。
![](https://assets.st-note.com/img/1710828284761-2naKezUn9x.png?width=1200)
なかなかの自己分析である。ちなみにChatGPTに入力された情報はデータベースに蓄積され、学習データとして使われてしまうため、企業の機密情報や個人情報を扱うときには注意が必要だ。一つの対策としては、履歴OFFにすることによって、チャット内容がサーバーに保存されないような設定ができる。詳細はこちらを参照。
https://openai.com/blog/new-ways-to-manage-your-data-in-chatgpt
率直に言って、会社に蓄積されているデータというデータはひたすら教えて!というような貪欲さがLLMsにはあるわけだが、ここに記載されていないものの中で、自分自身はどのような情報を、意思決定の際に使っているかを考えてみるとヒントが見つかる。
いくつか例を挙げてみよう。
ある新しいプロジェクトを誰かにアサインするとき。「このプロジェクト、〇〇さんが担当してみませんか?」と投げかけた瞬間のリアクションは、重要な判断材料となる情報だ。チームメンバーの目は輝くのか、それとも面倒だなというサインを発するのか。前者の反応であれば問題ないが、後者の反応であれば、別のメンバーに変更するか、自分が請け負うか、あるいはサポートを提供するうえでそのメンバーに担当してもらうかといった意思決定が求められる。
雑談をしているときにも、ヒントが隠れている。プライベートは充実しているか。仕事以外で困っていることはないか。小さな赤ちゃんがいたり、親の介護をしていたりなどするチームメンバーに対しては、事情を理解し、職場でできるサポートを考えることもあるだろう。
月曜日、朝一番で挨拶するときの声のトーンは、その週のそのメンバーとの接し方のヒントになる。電車が混雑して通勤にストレスを感じていることもあるし、職場の空調が寒すぎると仕事にならない、というのもLLMがキャッチしないデータである。
ということで、ChatGPT ができない、人間に勝機がある「管理職としての仕事」として、5つの領域を考えてみた。
1,非言語的情報:表情、ボディランージ、声のトーンなどから、チームメンバーの感情のステータス、プロジェクトへの関心度、クリエイティビティが高まっているのか落ちているのかなどを察知する。
2,個人的事情: 家族との関係、個人的な課題、趣味興味などを理解すること。勤務スタイルの好みはなにか。モチベーションの源泉はなにか。職場でできるサポートでなにか必要なことはあるかなど。
3,「データがない」という事実:いわゆる、行間を読む能力。会議室の中で生まれる沈黙にはどういう意味があるのか。休暇でもないのに、メールの返信が3日間滞っているのは、どんな背景があるのか。何気ない会話から、沈黙には、チームメンバーが主体的に伝えてこないメッセージが含まれている。
4,感情の揺らぎ:ストレス、燃え尽き症候群、またはフラストレーションの兆候を意識的に認識すること。これらは本人が一番気づいていない、ということもある。潜在的なパフォーマンスの低下リスクを防ぐために、時には介入が必要になってくる。
5,グループダイナミクス:なんか最近チームの雰囲気が明るい。チームミーティングで主体的な発言がある。あるいは逆の意味だと、メンバー間や部署間でのパワーバランスの理解。LLMには正確に解釈することが難しい領域です。
これからの人間のマネージャーには、大規模「言語」モデルがキャッチできない、「非言語コミュニケーション」の中で気づいたニュアンスを理解することが重要になってくるのだと思う。
同じようにChatGPTに非言語領域のデータの可能性を聞いてみた。
![](https://assets.st-note.com/img/1710828530799-a53cUNB8PA.png?width=1200)
最後、センサーデータですか・・スマート温度計を導入するとなにか変わるのかな。
人間のマネージャーは、もう少し生き残れそうな気がしている。LLMが手を出せない領域というのは、消去法にはなるが、まだまだたくさんありそうだ。
少なくとも今のところは。
この記事が参加している募集
この記事が気に入ったらサポートをしてみませんか?