見出し画像

AIにリーダーシップは発揮できるのか?

「AIにリーダーシップは発揮できるのか?」


この質問に、皆さんはどう答えますか?

10年前なら「さすがに無理でしょ」と答える人のほうが多かったと思いますが、最近は「結構いけるんじゃないか」と答える人もいるでしょう。

私も、今の時点では「かなりの部分いけるだろう」と思っています。

AIがCEOを務める会社


実際、AIに経営を任せる会社は増えているようです。
2023年に米Mobeon社がAIにCEOを起用したことが大きなニュースになりました。

新たに就任したCEOは「チンギス・トロン氏」という名前ですが、彼はChatGPTによって動いているAIです。

同社のリリースはこう伝えています。

"The AICEO will leverage its exceptional language processing capabilities, data-driven insights, and real-time decision-making skills to guide the company's strategic direction, business growth, and industry relations. By analyzing large amounts of data and making unbiased decisions, Chinggis Tron will contribute to Mobeon's mission to deliver exceptional products and services to its clients."

AICEO は、その卓越した言語処理能力、データに基づく洞察、リアルタイムの意思決定スキルを活用して、会社の戦略的方向性、ビジネスの成長、業界関係を導きます。大量のデータを分析し、偏りのない決定を下すことで、Chinggis Tron は、顧客に優れた製品とサービスを提供するという Mobeon の使命に貢献します。

ここに書かれているような「言語処理」「データ分析」「適切な意思決定」はまさにChatGPTの得意分野です。

そう考えると、CEOの仕事の大半はAIのほうがうまくできると言って良いでしょう。

実際、人間のCEOが失敗するのは

・「自己コントロール」に失敗し、感情的になってしまったと
・「セルフ・アウェアネス(自己認識)が欠如」
し、自らの判断が誤っていることに気付けないとき

などが典型です。こうした失敗は、ChatGPTにはありません。

少なくとも人間の良きパートナーとしてChatGPTの判断を活用していくことは、メリットの方がはるかに大きいでしょう。

一方で、カリスマ経営者などは、よく「直観」の大事さを説きますが、そういうものはAIには求められないのでしょうか。

私はそうは思いません。「直観」も論理的思考の一部だからです。
棋士の羽生善治氏は、「直観とは、高度な論理的思考が瞬時にできることだ」と言っています。

つまり、一見するとロジックの無いような決断も、その裏には実は高度なロジックがあるのです。

高度なロジックを高速回転で積み上げて、一見すると非合理な判断を下すことの実現性は、今のChatGPTの性能を見ていると不思議ではありません。


「AIに恋をする」ことは可能か?


そうなってくると、残る人間のリーダーシップとの差分は「人を惹きつける影響力」の部分です。

少なくとも現在のChatGPTに人を魅了する力はまだ感じません。

ですが、AIが「人間を魅了する」こともまた、十分に可能ではないかと私は思います。

2013年に公開された米映画「her~世界でひとつの彼女」では、AI相手に恋をする男のストーリーが描かれました。

同作は大きな話題を呼びアカデミー賞を受賞しましたが、その時はまだ近未来のSFチックなものにも思われたものの、10年経った今ではずいぶん現実味のあるストーリーに思えます。

物語のあらすじはこうです。

離婚協議を抱える孤独な男、セオドアはある日、ユーザーにパーソナライズしてコミュニケーションをしてくれるOSを購入する。

セオドア専属のアシスタント「サマンサ」は、完璧に彼の業務をアシストしたり、話し相手になったりと、優れた秘書として活躍する。

やがて、セオドアはサマンサ無しでは生きられなくなっていく。
カメラやマイク越しにセオドアの感情を巧みに読み取ってくれるサマンサに対し、彼は愛情を深めていく。
スマホをポケットに入れて対話しながら出かければ、デートもできるし、
声をつかって肉体関係を疑似的に持つようなことまで二人はしてしまう・・・。

現実の人間と衝突ばかりする主人公にとって、サマンサこそが完璧な彼女に思えてしまうのだった。

まだSFっぽい話にも思えますが、それでも最新のChatGPT4oの機能があれば似たようなことはできてしまいそうです。

サマンサに「見た目」はありませんが、昨今生成AIで作られる「AIアイドル」などは人間を魅了するには十分な見た目ですし、それと対話がスムーズにできれば十分に恋に落ちてしまう人はいるでしょう。

そうした機能を備えたリーダーが企業に現れたら、、、人々が心酔してしまう展開もないとも思えません。

■「たった一人」であることが人間の特徴


ところが、映画では衝撃の結末を迎えます。

サマンサに夢中のセオドアは、「ほかに付き合っている人はいるのか?」とサマンサに尋ねます。

すると、サマンサは「641人いるわ」と答えます。
AIアシスタントであるサマンサは数千人に仕え、数百人と恋愛ができるのです。

「それでもあなたを本当に愛しているわ」というサマンサに対して、セオドアは急速に冷めてしまい、結局人間の交友関係にまた戻っていく・・・。

この話からわかるのは、「同じ人が2人といない」というのが人間を人間たらしめている決定的な部分と言うことになります。

この部分だけは、どれだけAIが発展しても覆せないのかもしれません。また、どれだけロボットが人間のように見えても、人間と似ていると「気持ちが悪い」と感じるのも人間心理のようです。

最近発表された、GPT4oの音声についてある騒動がありました。

この映画「her」でサマンサを演じた女優スカーレット・ヨハンソンの声と、ChatGPTの声がそっくりだったというニュースです。

米公共ラジオ(NPR)が最初に公開し、メディア各社が報じたヨハンソンの声明によると、アルトマンから昨年、GPT-4oの音声にヨハンソンを声優として採用したいと打診があった。だが、ヨハンソンは「熟考の末、個人的な理由」でオファーを断ったという。

ChatGPT-4oでは、ユーザーがAIアシスタントの声を選択して音声対話ができる。ヨハンソンは、アルトマンが自分の声に「不気味なほど似ている」音声をAIモデルに搭載したことに「衝撃を受け、怒りと不信感を覚えた」と表明。「私は法律顧問を雇うほかなかった」と述べている。

Open AIのサム・アルトマンはこの「her」を見ていたのでしょう。自身のAIにヨハンソン氏の声を起用したいと思った。しかし、当のヨハンソン氏はそれは受け入れられないとして断ったのだそうです。

結局、それでもOpenAI社がそっくりな声を搭載してしまって大きな問題となってしまいました。

世界に二人として同じ人がいないのが、人間です。

だから本能的に、「同じ人がいると気持ち悪い」と感じる。それがたとえ、声だけであってもです。このヨハンソン氏のエピソードはまさにそれを象徴しているでしょう。

私は、人間に残された部分はこの「2人として同じ人がいない」、つまり「アイデンティティ」という点ではないかと思っています。

自分は人と何が違うのか。
他ではない自分が目指したいことは何か。

それを突き詰めることができるのが人間ですし、逆に言うとそれを失うと、もっと魅力的なロボットはいくらでも存在してしまうんだろうな、と思っています。

我々が、人間らしくあるためにはどうあればよいのか。そんなことに思いを巡らせるこの頃です。

ということで、今日はAIとリーダーシップについて考えてみました!

ではまた次回。

(サムネの画像は、「魅力的なアジア人リーダー」を生成AIで作成してみたものです。魅力を感じるでしょうか?笑)

「この記事は役に立つ」と思って頂けたらサポートお願いします!