見出し画像

生成AIを使わない企業の言い訳とあるべき活用方法に関する考察

こんにちは、米田 @ 富士通にてマーケティング変革実行中です。ChatGPTをはじめとする生成AIが世の中で一般的に聞かれるようになってから約1年が過ぎました。ニュースでも引き続き連日のように生成AIの話題が放送され、一般の人々の知名度も高い状況ですが、日本企業が仕事で活用しているかどうかというと、また話は別の様です。この記事では、生成AIを活用していない企業の状況と理由、そしてあるべき状況について技術の詳細に踏み込まない視点から考察します。


ChatGPTの話題と裏腹に企業は75%が生成AIは利用禁止!

生成AIの代表的なラージランゲージモデルであるChatGPTは、この1年でバージョンが3.5、Plus、4、4 Turboと改良が重ねられたり、機能を拡張するプラグインやストアの概念が導入されるなど、進化が止まりません。

また、ChatGPTの開発元であるOpenAIの体制もCEOであるサム・アルトマン氏を11月17日に突然解任したかと思えばマイクロソフトが同氏の獲得に乗り出したかと思えば、OpenAIの社員の9割が同氏がCEOに復帰しなければ退社すると宣言、結局21日には同氏のOpen AI CEO復帰が決まる等、ドラマのような展開が数日のうちに起こりました。まさに生成AIの世界は1年経っても世界中に話題を提供し続けています。

Googleトレンドを見ても、ChatGPTという単語は全世界では今年5月頃をピークにダウントレンドとなっていましたが、8月を底に最近は再びトレンドが持ち直しています。

Googleトレンドにおける様々な国の「ChatGPT」のトレンド

一方、日本は初期こそChatGPTの人口当たりの使用割合が世界1位と言われましたが、全世界より少し早く今年4月頃にピークを迎えた後に8月頃までダウントレンドになった後に、トレンドが持ち直していません。日本は息切れしてしまったのか!?これは少し気になるトレンドです。(ちなみに、全世界の2つ目のピークはインドやインドネシアがけん引しているようです。)

また、BlackBerryが独自調査として今年9月に発表した情報によると、日本の組織の72%が、業務用デバイス上でのChatGPTおよび生成AIアプリの使用を禁止する方針であることが明らかになりました。

ただし、この調査は日本だけでなく、アメリカ、カナダ、イギリス、フランス、ドイツ、オランダ、オーストラリア地域でも行われ、傾向は日本とほぼ同じで75%の組織が生成AIアプリケーションの禁止または禁止を検討、61%が長期的または恒久的な禁止措置を検討ということのようです。

生成AIを活用する企業、禁止する企業

具体的な企業・団体の例としては、鳥取県、NTTドコモ、アップル、アマゾン、JPモルガン・チェース、ウォルマート、サムスン電子、ベライゾン等がChatGPTの社内利用を認めていない (発表時点) 一方、マイクロソフト、パナソニック、大和証券、ベネッセ、三井化学、農林水産省、鹿島建設、サイバーエージェント、三井住友ファイナンシャルグループ等がChatGPTの活用を進めています。帝国データバンクによると今年6月時点での生成AI業務活用企業は9.1%とのことです。

このリストを見ると、驚くべきことに世界的な大手のIT関連企業でも生成AIの利用を禁止しているところが結構あることです。私が所属している富士通はというと、基本から独自技術までいくつかの安全対策を施したChatGPTを自社活用しつつ、みずほFG、ほくほくFG、スーパーマーケットアルク (丸久) 等とも業務での安全な生成AI活用を推進しており、9.1%の「生成AI業務活用企業」に含まれます。

生成AIの使用を禁止する企業の主な言い訳

生成AIは安心、安全な利用にあたり、まだいくつかの課題があるのは事実です。以下に、企業で挙げられる生成AIの主な課題を紹介します。

使う側のリテラシー

  • 機密情報が漏洩してしまう危険性がある

  • 個人情報の流出の心配がある

  • 得られたアウトプットを顧客向け業務で使ってもいい品質なのかが分からない

信頼性とセキュリティ

  • 誤った回答が拡散してしまう

  • 回答に偏見やバイアスが掛かっている可能性がある

  • 回答が倫理的に問題のある内容になっていることがある

  • 他人の著作権を侵害してしまうリスクがある

  • 回答がどのような論理で導かれたのか説明できない

投資対効果と環境負荷

  • 生成AIの本番運用には大きな費用がかかり、それに見合うだけのメリットが回収できるか分からない

  • 生成AIの利用には大きな電力を要し、環境への負荷が心配

私の前の記事でも紹介しましたが、生成AIを「人格化」すると、「インターネット上の情報を学習した、うまく質問すれば回答や作業結果をくれる気は利かない無邪気で常識のない外部人材」ということになり、この "人材" を御すには、それなりの準備と訓練が必要になります。

過去の破壊的テクノロジー導入の経緯を思い出してみよう

ここで少し立ち止まって考えてみましょう。長く社会人をやっている人であれば、生成AIのような議論は昔にもあったよな、と思うはずです。インターネット、メール、携帯電話やスマホ、ゲームやマンガ等、いまではビジネスの中に浸透してきているテクノロジーも、昔はビジネスの世界では禁止、もしくは虐げられていたことを覚えていますか?

たとえば、インターネットは言うまでもなく、全世界の集合知を自分の業務に生かすことができ、今ではこれなしには業務は遂行できないでしょう。しかし、昔は変なサイトばっかり見たり、検索サイトやインターネットサービスに組織の機密情報を投稿してしまう従業員が問題になり、組織によっては職場からの利用が禁止されたり、イントラネットとインターネットが完全に遮断されていた時代がありました。今では従業員のインターネットリテラシーが向上して、問題行動を起こす従業員は激減しています。これは社会や組織によるリテラシー向上の教育の賜物です。

同じように考えてみると、生成AIも、たとえば、主な課題の最初のカテゴリ「使う側のリテラシー」は、やっていいこと、わるいことを「生成AI利用ガイドライン」を策定して従業員に徹底するという方法で乗り越えることができます。

怖がることはありません、今からでも生成AIの導入を推進しよう

生成AIもこれがあるのとないのとでは業務の生産性に劇的な差が生まれます。インターネットに匹敵するといわれる破壊的テクノロジーである生成AIは、将来的には確実に社会に浸透して使われていくと考えられ、そして将来から2023年を振り返ったときに「昔は生成AIを怖がって使わなかったこともあったな、どうしてもっと早く使わなかったんだろう」と思うことは確実です。それであれば、いまから安心安全で効果的な利用方法を模索して業務上の差別化につなげた方が良いでしょう。

富士通では、私も編纂にかかわった、技術に詳しくない人向けの生成AI導入の際の手順概要を公開しています!参考にしてみて下さい。

日本語版:

英語版:

あわせてこちらの記事もご参考まで。

最後までお読みいただきありがとうございました。それでは、また!

この記事が気に入ったらサポートをしてみませんか?