見出し画像

時事深層 FRONTLINE シリコンバレー 嘘つくAI、ChatGPTは使えるか 日経ビジネス 2023.02.06

最近よく目にする用語の1つは、ChatGPT です。 
ChatGPT は、一例として「様々な質問に臨機応変に答える対話型AI(人工知能)」(『日経ビジネス』 時事深層 p.090)と定義されます。

OpenAI という企業が立ち上げた一種のAIです。
ChatGPT の有用性に目をつけた Microsoft がいち早く数十億ドル(数千億円)の投資を決めました。

そこで、ChatGPT は使えるのか、課題はないのかというテーマで取り上げたのが、『日経ビジネス』の時事深層です。

時事深層 FRONTLINE シリコンバレー 嘘つくAI、ChatGPTは使えるか 『日経ビジネス』 2023.02.06

見開きわずか2ページの記事ですが、注目すべき記述がありましたので、ご紹介します。

ちなみに、この記事が掲載されている『日経ビジネス』は2023年2月5日現在の最新号です。

✅マイクロソフトが オープンAIに 巨額投資

ChatGPTが世界で話題をさらっている。米国時間1月23日には、米マイクロソフトがオープンAIに数十億ドル(数千億円)の追加投資を発表。米ブルームバーグは投資額が最大で100億ドルになると報じた。マイクロソフトは、オープンAIが開発したモデルを自社製品に展開。ChatGPTもマイクロソフトのクラウドサービス「Azure(アジュール)」で使えるようにする。 

時事深層 FRONTLINE シリコンバレー 嘘つくAI、ChatGPTは使えるか     
『日経ビジネス』 2023.02.06  p.090   


✅ChatGPTは大量のテキストデータから文章を生成

ChatGPTは、大量のテキストデータをAIに与えて学習させる「大規模言語モデル」を採用する。インターネット上の膨大なデータから学習し、人間の質問に適切に回答できるようにトレーニングされている

時事深層 FRONTLINE シリコンバレー 嘘つくAI、ChatGPTは使えるか     
     『日経ビジネス』 2023.02.06  p.090   


✅問題点(1)嘘をつく、間違う

注目を集めるChatGPTだが、その利用には懸念も残る。嘘をついたり間違ったりする可能性があるためだ。

      時事深層 FRONTLINE シリコンバレー 嘘つくAI、ChatGPTは使えるか           『日経ビジネス』 2023.02.06  p.090   


✅問題点(2)真偽の未確認、学習が不十分な質問に対する適切な回答はできない

嘘や誤答の理由はChatGPTのトレーニング手法にある。大量のテキストを与えて学習させるが、それらデータは真偽が確認されていない。また、十分な学習ができていない質問には適切に回答できないのだ。

      時事深層 FRONTLINE シリコンバレー 嘘つくAI、ChatGPTは使えるか           『日経ビジネス』 2023.02.06  p.090   


✅問題点(3)倫理面での問題

倫理面での問題もある。米メタが2022年に公開した大規模言語モデル「Galactica(ギャラクティカ)」は、誤った内容を答えたり人種差別的な表現を含む回答をしたりしてSNS(交流サイト)で批判を浴び、公開中止に追い込まれた。

      時事深層 FRONTLINE シリコンバレー 嘘つくAI、ChatGPTは使えるか           『日経ビジネス』 2023.02.06  p.091   


✅問題点(4)悪用の恐れ

フィンランドのサイバーセキュリティー企業ウィズセキュアはChatGPTがフィッシング攻撃に適したメール文面や、特定の人物の文章を模倣した「ディープフェイク(説得力のある偽の記事の作成)」が可能であると証明。

      時事深層 FRONTLINE シリコンバレー 嘘つくAI、ChatGPTは使えるか           『日経ビジネス』 2023.02.06  p.091   


✅ChatGPT を禁止する動き

懸念すべき点が多いことからChatGPTを禁止する動きも相次いでいる。機械学習に関する国際会議ICML(International Conference on Machine Learning)は1月、ChatGPTなどの大規模言語モデルが生成した文章を含む論文を禁止した。ICMLは「その文章が新規なのか模倣なのか疑問であり、文章や画像の所有権も問題だ。我々はこれらの議論に対する答えを持っていない」とコメントしている。

      時事深層 FRONTLINE シリコンバレー 嘘つくAI、ChatGPTは使えるか           『日経ビジネス』 2023.02.06  p.091   


✅オープンAIは対策を講じている

ChatGPTは強化学習によって不適切な発言をしないようモデルを鍛えている。また、ユーザーが利用時に不適切な回答をした場合には、その回答を「悪い」と評価することもできる。ただ、原理的に不適切回答の可能性は、まだ残っている。

      時事深層 FRONTLINE シリコンバレー 嘘つくAI、ChatGPTは使えるか           『日経ビジネス』 2023.02.06  p.091   


✅ChatGPTへの期待は高い

課題は多いものの、ChatGPTへの期待は高い。精度が高まればプログラミングコード添削やテキスト要約など、多くの業務で時間を短縮できる。SNSでは「Google検索が不要になる時代が来る」との意見も飛び交っている。“話せるAI”を使った新しいサービスも生まれそうだ。

      時事深層 FRONTLINE シリコンバレー 嘘つくAI、ChatGPTは使えるか           『日経ビジネス』 2023.02.06  p.091   


新しいAIの活用に期待と懸念が入り交じる
●ChatGPT を巡る最近の動き
      時事深層 FRONTLINE シリコンバレー 嘘つくAI、ChatGPTは使えるか             『日経ビジネス』 2023.02.06  p.091
   


オープンAIの社員が出演している YouTube のトーク番組がありましたので、ご紹介します。

ChatGPT は単なる『トレンド』ではない News Picks
"【落合陽一】「ChatGPT」強化学習リーダーは、日本生まれで6カ国渡った元Google Brainの研究者。OpenAIのシェイン・グウが語る、”生成AI時代”の日本の「強みと新たな可能性」とは?"


⭐ChatGPT に関する過去の投稿


グーグルの創業者の一人、セルゲイ・ブリン氏が現場に復帰したのは、ChatGPT にマイクロソフトが多額の投資をしたことで、グーグルが危機感を抱いたからです。

極論を言えば、ChatGPT が Google Search を駆逐してしまうかもしれないと感じたからです。

グーグルには LaMDA というAIがあります。

つまり、マイクロソフト vs. グーグルという構図が出来上がります。
今まではGAFAMでビジネス領域の棲み分けが行われてきましたが、さらなる成長のためにはGAFAM間で戦わざるを得なくなってきたという経緯があります。



✍ 編集後記

🔶 『日経ビジネス』の最新号(2023.0206)をパラパラとめくっていたら目に止まったのが今回の記事でした。

今最も注目されている ChatGPT について簡潔に記述されていたので、完読した上で、すぐに note に投稿しようと思い立ちました。


🔷「課題は多いものの、ChatGPTへの期待は高い」

この一節がすべてを語っていると思います。

世の中の変化が急激になり、3カ月前どころか1週間前あるいは3日前の情報が陳腐化してしまうかもしれない可能性があります。

物知り顔で語っていたら、「もう過去の話だよ」の一言で片付けられてしまうかもしれません。

これからは情報は配信されるのを待っているだけでなく、自ら情報を取りにいく姿勢がますます重要性を持ち始めていると感じています。

地位にあぐらをかいていたら根底から覆されてしまうことが、日常茶飯事になるかもしれません。



⭐回想録


⭐マガジン (2023.02.05現在)





























サポートしていただけると嬉しいです。 サポートしていただいたお金は、投稿のための資料購入代金に充てさせていただきます。