見出し画像

#047 「職場を腐らす人の撃退法」から学ぶ処世術

結構前ですが、プレジデントが攻めすぎていて思わず目について購入してみました。「職場を腐らす人の撃退法」という強いワードが使われており、心理的な安全性に一定のダメージです。正直なところ、「職場にこういう人いるな〜」という共感より、「自分に思い当たる節がないか怖い」というのが先に来てしまって、不安で仕方ありません。自分を棚に上げて批判する姿は、きっとそれこそ「職場を腐らせる」何かだと思いますので、一概に褒められる行為ではありません。

負の表現はなるべく使わない方がいいに決まっている


「腐らせる」とか「溶ける」とか「脳死」という日本語には嫌悪感があります。美しい日本語ではないですし、文字通りの言葉の意味と実際に表現したい内容とに乖離がありすぎて、表現力の乏しさを感じてしまうからです。少し嫌なことがあったらすぐに「死ね」と言ってしまう悲しい人間にはなりたくありません。大抵の場合「本当に死んでほしい」わけではなく「少し傷ついた、少し腹がたった」程度のことであり、アンガーマネジメントを学べば済む話だったりするからです。


また、「バカ」「無能な上司」という表現にも違和感を感じます。人間は、「無能」「有能」と綺麗に分かれているわけではありません。当たり前ですが側面によって得意不得意があり、総合的に考えるとかなり均衡しているはずです。極端な話、陸上でオリンピックのチャンピオンになった人物にエクセルの処理能力で判断するのはおかしな話ですし、松本人志に家事の側面を求めるのも変な話です。「仕事」に絞ってもさまざまな側面があり、それぞれ得意不得意があります。物事を一面だけで判断するようになると、「無能」「有能」という言葉を使いがちですが、一度「無能」と自分の中で決めつけてしまうとその人から吸収できるポジティブな機会が失われてしまうリスクもあります。


とはいえ・・・


ポジティブに考えると、社会人として「こういう人は職場にマイナスだよ」というのを教えてもらう機会は珍しいので、一読の価値はありそうです。「あの上司は〜」という悪口大会の飲み会ではよく見かけますが、結局特定の人物に関する具体の一例なので、一般化はされにくいのではないのでしょうか。他人の悪口を言ってはいけないというのは当たり前ですが、愚痴は世界共通の酒のつまみです。

上司の愚痴をいう部下の飲み会を風刺したイラスト, ChatGPT作


さて、目次です。

プレジデント2024年8/2号より引用

ここら辺は公開されている目次の情報です。これらの項目に何が書かれているかは雑誌を直接購入された方が確認しやすいかと思います。

私が着目したのは、「何でもAIタイプ」です。これからの時代、増えると思います。AIは賢くなってきており、エンジニア視点だとプロ顔負けのプログラムをものの数秒で書いてくれたりします。これこれについてブログを書けと指示すれば、ちゃんと筋道の通ったブログも書いてくれます。

雑誌にも書いてありましたが、AIを多用する場合のリスクは、「どこまでAIに任せるか」だと思います。

上司から宿題を出されたとします。その時の反応としては以下が考えられます。

  1. まず考えてみて、AIに頼らず自分なりの回答を作成する

  2. まず考えてみて、自分がわからないところだけをAIに質問する

  3. 考える前にまずAIに質問してみて、回答を見てから考える

  4. 考える前にまずAIに質問してみて、そのまま上司に提出する

危険なのは4番でしょう。自分の思考というものを一切介在させずに何かを作る場合、「自分って存在する必要あるんでしたっけ?」となります。この問いは哲学的な問答に発展しそうなのでこれ以上は書きません。

ChatGPTは、自分の思考の支援ツールであり、思考の完全代替ツールではないと肝に銘じる必要があるのかなと思いました。ChatGPTは、知識量で勝てる代物ではもちろんありませんが、間違える可能性はあるのです。もし、自分の思考を完全にAIに任せているとしたら、AIが間違えているかもしれないという事実にすら気づきません。あくまで、「私はA案かな、と思っていますがAIはどう考えますか、そうですかやはりA案が良いですよね」のように自分の思考を強化するための使い方が良いのだと思います。



対人関係では論理よりも感情が重要なシーンがある


ChatGPTは、論理に基づいた返答をしてくれます。しかし、対人関係となれば必ずしも論理が重要ではないシーンはいくらでもあります。

夫婦喧嘩している時に、正論が喧嘩を止めるかというと、そうではありません。「最近家事を全然手伝ってくれないね」に対して、「掃除に時間がかかっているならルンバを買ったほうが効率的だよ」とChatGPT的な正論を持って返答しても、喧嘩は収束しません。むしろ怒りを増幅させる可能性もあります。

人間は感情を元に行動します。上司にChatGPTが作成したプログラムをレビューしてもらうのも注意が必要です。上司も人間です。「ChatGPTが作成したプログラムで製品の動作を保証できるのか?」と一抹の不安を抱えることになります。「誰も理解できないが動くプログラム」は書かない方が良いと思います。



まとめ


一概に、何でもAI人間が良い悪いか判断するのは難しいですが、ChatGPTの使い方はこれから世界中の課題となってきそうですね。小学生が読書感想文をAIに書かせて提出した場合、その小学生の思考力は失われてしまいます。代わりに得られるのは、浮いた時間で行うゲームくらいでしょう。これからAIとどう対峙していくか。人類の課題だと思います。

おしまい。


この記事が気に入ったらサポートをしてみませんか?