見出し画像

新しい対話用AIのChatGPTは noteの記事を書くのに使えるのか?

 今月(2022年12月)1日、OpenAIが対話のためのAI言語モデルのChatGPTのテスト版を公表しましたので、早速、色々と試してみました。

 ChatGPTは、フォローアップの質問に答えたり、自分の間違いを認めたり、間違った前提に異議を唱えたり、不適切な要求を拒否したりすることができる対話形式に最適化されたAI言語モデルです。
 OpenAIが新しい言語モデルのtext-davinci-003を発表してからまだ3日しか経っていないのに、驚くべき展開の速さです。


1.ChatGPTの概要

 OpenAIは、2020年6月に1,750億のパラメーターを持ち、人間が書いたような自然な文章を生成できる巨大言語モデルのGPT-3を発表しました。
 そして、今年(2022年)1月には、従来よりも差別的な表現や暴力的な表現を避け、ユーザーの意図に従った対応をするInstructGPTという新しい言語モデルを発表しました。
 さらに、今年11月29日には、このInstructGPTをベースとして、より明確で説得力のある長い文章を生成することができる言語モデルのtext-davinci-003を発表しています。

 今回発表されたChatGPTは、InstructGPTをベースとして、プロンプトの指示に従って詳細な応答を行うように訓練された対話のためのAI言語モデルです。
 ChatGPTの特徴としては、以下のようなものがあります。

  • 直前の回答を踏まえて、フォローアップの質問に答えることができる。

  • ユーザーからの指摘を受けて自分の間違いを認め、回答の内容を修正することができる。

  • 間違った前提の質問や要求に対して、そのまま回答するのではなく、異議を唱えることができる。

  • 不適切な質問や要求への回答を拒否することができる。

ChatGPTのテストページ

 ChatGPTは、2022年初頭に学習を終えたGPT-3.5シリーズのモデル(text-davinci-002、text-davinci-003等)をベースにファインチューニングを行っており、InstructGPTと同じように人間のフィードバックからの強化学習で訓練されています。
 ChatGPTの強化学習は、以下の3つのステップで進められています。

  1. 人間のAIトレーナーがユーザーとAIアシスタントの両方の役割を演じた会話データで言語モデルに教師あり学習を行う。

  2. AIトレーナーがチャットボットと交わした会話データを順位付けして、報酬モデルの学習に使う。

  3. この報酬モデルを使用し、強化学習アルゴリズムのPPO(近接方策最適化)という手法で言語モデルを最適化するプロセスを繰り返す

ChatGPTの強化学習の手順

 PPOについてChatGPTに質問してみました。

筆者:PPOについて教えてください。
AI:PPO (Proximal Policy Optimization) は、強化学習のアルゴリズムの一種です。PPO は、深層強化学習のモデルを訓練する際に使用されることが多いです。
PPO は、政策最適化 (policy optimization) の手法の一つであり、近接方策最適化 (proximal policy optimization) とも呼ばれます。PPO は、既存の政策最適化手法と比較して優れた性能を発揮するとされており、様々な問題に適用されるようになっています。
PPO は、強化学習のモデルを訓練する際に、政策の「近接性」を保証することで、より優れた性能を発揮することができます。政策の「近接性」とは、政策が前回の更新からどの程度変化したかを表す指標です。PPO は、政策が大きく変化しすぎないように、政策の更新を制限することで、学習を安定させることができます。
PPO は、深層強化学習のモデルを訓練する際に、強化学習のモデルを「評価」することで、政策の更新を行います。この「評価」とは、政策を用いて行動を選択し、その行動がどの程度良いかを評価することを指します。政策が良いと判断されれば、その政策を採用しますが、政策が悪いと判断されれば、政策を更新します。このような政策の更新を繰り返すことで、強化学習のモデルが学習を行い、より良い行動を選択するようになっていきます。
PPO は、深層強化学習のモデルを訓練する際に、政策の「近接性」を保証することで、より優れた性能を発揮するだけでなく、訓練時間の短縮や、学習精度の向上などのメリットもあります。そのため、近年では PPO が深層強化学習のモデルを訓練する際に広く使用されるようになっています。
また、PPO は、深層強化学習のモデルを訓練する際に、複数のプロセスを並列実行することができるため、訓練速度の向上が期待できます。さらに、PPO は、数値計算の効率化を行うための工夫が施されており、訓練時間の短縮が可能です。
PPO による強化学習のモデルの訓練は、次のようなステップに分けられます。
1.環境からの状態 (state) を取得する
2.政策を用いて、状態から行動 (action) を決定する
3.行動を環境に適用し、次の状態と報酬 (reward) を取得する
4.報酬と政策を用いて、政策の評価を行う
5.政策を更新する
このように、PPO による強化学習のモデルの訓練は、状態から行動を決定し、その行動が環境からの報酬を得ることを繰り返すことで、政策を学習していきます。

 正確さは保証されませんが、これだけしっかりと答えてくれたら、もう検索は要らないですね。


2.ChatGPTの利用方法

 2022年12月2日現在、ChatGPTのテスト版は、以下のサイトにアクセスして無料で利用することができます。同じサイトにアクセスして、スマホで使うこともできます。
 OPenAIのアカウントが必要ですので、持っていない人は、アカウント登録をしてください。このアカウントがあれば、GPT-3や画像生成AIのDALL・E 2も利用することができます。


3.英語での質問と日本語での質問の比較

 ChatGPTは、日本語の質問にも回答してくれますので、英語と日本語で同じ内容の質問をして、回答を比較してみました。

筆者:What is quantum supremacy?
(訳)量子超越性とは何か?
AI:Quantum supremacy refers to the ability of a quantum computer to perform a specific task that no classical computer can perform within a practical amount of time. The term was coined by John Preskill, a theoretical physicist at the California Institute of Technology, in 2012. The idea behind quantum supremacy is that a quantum computer with a large enough number of quantum bits, or qubits, can solve certain problems that classical computers cannot, due to the computational power of quantum mechanics. While quantum computers are still in their infancy and have not yet reached the point of quantum supremacy, many experts believe that it is only a matter of time before they will be able to outperform classical computers in certain tasks.
(訳)量子超越性とは、古典的なコンピュータが実用的な時間内に実行できない特定のタスクを、量子コンピュータが実行する能力のこと。2012年にカリフォルニア工科大学の理論物理学者であるジョン・プレスキルによって作られた造語。量子超越性の背景にある考え方は、量子ビットの数が十分に多い量子コンピュータは、量子力学の計算能力により、古典コンピュータが解決できない特定の問題を解決することができるというもの。量子コンピュータはまだ発展途上であり、量子超越性の域には達していませんが、多くの専門家は、特定の作業において古典コンピュータを凌駕することができるようになるのは時間の問題であると信じている。
※概ね正確で適切な回答だと思います。ただし、近年、Googleや中国の研究チームなど量子超越性を達成したと主張する者が現れています。

筆者:量子超越性とは?
AI:量子超越性とは、量子情報理論において、暗号化された情報を第三者によって攻撃されても、完全に安全な情報伝送を可能にする技術のことを指す。量子超越性は、量子力学の特性を利用することにより、今までにない強力な暗号化技術を実現するため、安全な情報通信の技術革新に期待されている。
※量子暗号通信の話であり、量子超越性とは直接関係ありません。完全な間違いです。

筆者:Please elaborate on the Onin Rebellion that occurred in Japan in 1467.
(訳)1467年に日本で起こった応仁の乱について詳しく教えてください。
AI:The Onin Rebellion was a civil war that occurred in Japan in the mid-15th century, between the factions of the Hosokawa and Yamana families, which were part of the Ashikaga shogunate. The war began after the death of the shogun, Ashikaga Yoshimasa, who had no heir to succeed him. This led to a power struggle between his brothers, Hosokawa Katsumoto and Yamana Mochiuji, which eventually escalated into a full-blown war. The Onin Rebellion lasted from 1467 to 1477, and ultimately resulted in the collapse of the Hosokawa clan and the rise of the Yamana clan. The war had a profound impact on Japanese history, as it marked the beginning of the Sengoku period, in which powerful warlords vied for control of the country. The chaos and destruction caused by the war also led to a decline in cultural and artistic achievements in Japan during this time.
(訳)応仁の乱は、15世紀半ばに日本で起きた、足利幕府の細川家と山名家の一派による内戦である。この戦争は、将軍足利義政の死後始まった。義政には跡継ぎがいなかった。このため、彼の兄弟である細川勝元と山名持氏の間で権力闘争が起こり、やがて本格的な戦争に発展した。応仁の乱は1467年から1477年まで続き、最終的には細川氏の滅亡と山名氏の台頭を招いた。この戦いは日本の歴史に大きな影響を与え、有力武将が天下を争う戦国時代の幕開けとなった。また、戦争による混乱と破壊は、この時期の日本の文化や芸術の成果を衰退させることにもなった。
※細かい間違いは、いくつもありますが、大筋は合っています。この乱は、義政存命中に将軍の跡継ぎ問題などをきっかけとして起こりました。細川氏と山名氏は義政の兄弟ではなく、有力守護大名です。また、この乱で細川氏は滅亡しておらず、山名氏も台頭していません。

筆者:1467年に日本で起こった応仁の乱について詳しく説明してください。
AI:応仁の乱は、源頼朝が治める天皇制の崩壊を巡って、源氏幕府と足利幕府が争った戦乱。この戦争は、源頼朝が死去した後、天皇の后を継ぐ義理の弟・源信と足利義満が対立し、その衝突が拡大して発生した。応仁の乱は1467年から1477年にかけて起き、最終的に足利幕府が勝利し、源氏幕府は崩壊しました。この戦争は日本の歴史において、重要な転換点となった。応仁の乱後は、戦国時代が始まり、武士たちが権力を握った時代となった。また、この戦争により、日本各地が混乱し、文化が衰退したとも言われている。
※ほとんどの内容が間違っていて、支離滅裂です。

 ChatGPTの場合は、日本語の質問と英語の質問で、あまり回答が変わらない場合も多いのですが、やはり、英語での質問の方が精度の高い回答が返ってくる可能性が高いです。
 日本語で質問して、あまり良い回答が返ってこなかった場合は、是非、英語で質問してみてください。


4.ChatGPTを利用したnote記事の作成等

(1) ChatGPT紹介記事の作成と編集

 ChatGPT自身に紹介記事を書いてもらいました。

筆者:noteに載せるChatGPTの紹介記事を書いて
AI:ChatGPTは、OpenAIが開発した大規模な言語モデルです。その名の通り、GPT(Generative Pretrained Transformer)というモデルをベースに、対話に特化した機能を持たせたものです。
一般的な言語モデルは、文章や文脈を理解し、それに基づいた文章を生成することができます。ChatGPTはこれに加え、会話文や対話文を理解し、自然な会話を再現することができるようになっています。
ChatGPTは、以下の特徴を持っています。
・大規模なトレーニングデータを用いて学習されており、高い精度を持っています。
・ユーザーの入力に対して自然な応答を生成することができます。
・複数の言語に対応しているため、多言語環境での利用が可能です。
ChatGPTを利用することで、対話システムやチャットボットの構築が可能になります。また、文章生成タスクや対話生成タスクにも活用することができます。

 よくまとまっていて、なかなかうまく書けていますね。さらに、内容を整理して、小見出しを付けてみましょう。

筆者:概要と特徴と利用方法に分けて書いて
AI:
概要:
ChatGPTは、OpenAIが開発した大規模な言語モデルです。GPT(Generative Pretrained Transformer)というモデルをベースに、対話に特化した機能を持たせたものです。
特徴:
・大規模なトレーニングデータを用いて学習されており、高い精度を持っています。
・ユーザーの入力に対して自然な応答を生成することができます。
・複数の言語に対応しているため、多言語環境での利用が可能です。
利用方法:
ChatGPTは、対話システムやチャットボットの構築に利用することができます。また、文章生成タスクや対話生成タスクにも活用することができます。 ChatGPTを利用するには、事前にトレーニングデータを用いてモデルを学習させる必要があります。その後、ユーザーからの入力に対して、モデルを使用して応答を生成することができます。

 指示通りに内容を整理して、小見出しが付きました。ただし、最後の3行分は実態に合っておらず、不要だと思います。さらに修正を指示してみます。

筆者:最初の概要の部分をもっと詳しく。最後の「ChatGPTを利用するには、」以降の部分を削除して。語尾を全部「である」調に修正して
AI:ChatGPTは、OpenAIが開発した大規模な言語モデルである。その名の通り、GPT(Generative Pretrained Transformer)というモデルをベースに、対話に特化した機能を持たせたものである。
一般的な言語モデルは、文章や文脈を理解し、それに基づいた文章を生成することができる。ChatGPTはこれに加え、会話文や対話文を理解し、自然な会話を再現することができるようになっている。
例えば、ユーザーから「今日の天気はどうですか?」という質問があった場合、ChatGPTはそれを理解し、「今日の天気は晴れです。」といった自然な応答を生成することができる。
また、ChatGPTは複数の言語に対応しているため、多言語環境での利用が可能である。これにより、異なる言語を話すユーザー同士の会話を理解し、自然な応答を生成することができる。
ChatGPTを利用することで、対話システムやチャットボットの構築が可能になる。また、文章生成タスクや対話生成タスクにも活用することができる。

 概ね指示通りに修正されましたが、小見出しや箇条書きが無くなって、少し見づらくなってしまいました。
 まだ実際に使うには、人手による修正が必要になりそうですが、さらに改善していけば、文章作成支援システムとして仕事で使えそうです。

(2) 仮想通貨の説明レポートの作成

筆者:仮想通貨の概要についてWikipedia風にまとめて
AI:仮想通貨(かそうつうか、英: cryptocurrency)は、デジタルの暗号化された通貨のことである。これは、対応する実物通貨(紙幣や金属コインなど)とは異なり、電子的に管理され、暗号化された仕組みによって送金される。仮想通貨は、通常の法定通貨に代わるものではなく、補完的な通貨として捉えることができる。
仮想通貨は、暗号技術を利用して作られるため、その送金は暗号化され、安全性が高い。また、中央銀行や政府などの第三者機関による管理がないため、送金が完全にユーザー間で行われる。
仮想通貨は、2008年にサトシ・ナカモトによって提唱され、2009年に最初の仮想通貨であるビットコインが誕生した。その後、多くの仮想通貨が作られ、世界中で利用されるようになった。仮想通貨は、現在では投資や商い、さまざまな場面で活用されている。

筆者:仮想通貨の例を3種類くらい挙げて具体的に説明して
AI:1つ目の例として、ビットコインがあります。これは、サトシ・ナカモトによって提唱され、世界初の仮想通貨として2009年に誕生しました。ビットコインは、暗号化されたデジタル通貨であり、暗号技術に基づいて作られています。そのため、送金が安全であり、ユーザー間で完全に行われます。
2つ目の例として、イーサリアムがあります。これは、Vitalik Buterinによって提唱され、2015年に誕生した仮想通貨です。イーサリアムは、ビットコインと同様に暗号化されたデジタル通貨であり、暗号技術に基づいて作られています。また、イーサリアムは、ビットコインに比べてより柔軟なプログラミングが可能であることが特徴です。
3つ目の例として、リップルがあります。これは、2012年に誕生した仮想通貨です。リップルは、銀行や決済サービス企業などとの取引を安全かつスムーズに行うことを目的として作られました。そのため、送金が安全でスムーズなため、業界内で広く利用されています。

筆者:仮想通貨を取り扱う際の注意点
AI:仮想通貨を取り扱う際には、次のような注意点があります。
1.安全性
仮想通貨は、暗号技術によって作られているため、送金が安全です。しかし、それでも、不正なアクセスやハッキングなどの問題がある可能性があるため、取り扱う際には、セキュリティ対策を行うことが重要です。
2.中央集権性
仮想通貨は、中央銀行や政府などの第三者機関による管理がありません。そのため、価格の変動や政策などに影響されることがあります。また、仮想通貨の取引には、通常の通貨や商品とは異なるリスクが伴います。そのため、取り扱う際には、十分な情報を収集し、リスクを理解した上で取引することが重要です。
3.取引所の選択
仮想通貨を取り扱う際には、取引所を選ぶことが重要です。そのため、安全性やサービス内容、取り扱い通貨の種類などを比較し、自分に合った取引所を選ぶことが重要です。また、取引所によっては、手数料や取引条件が異なるため、取り扱う際には、注意することが重要です。

 これらの文章をつなぎ合わせれば、ある程度実用的なレポートが作成できそうです。

(3) 英語文書の翻訳と要約

 noteの記事を書くときに、よく英語の記事や論文を読んでまとめたりして いるので、その作業をChatGPTにお願いしてみました。

筆者:次の英文を400字くらいで、日本語に要約して
Optimizing Language Models for Dialogue
We've trained a model called ChatGPT which interacts in a conversational way.The dialogue format makes it possible for ChatGPT to answer followup questions, admit its mistakes, challenge incorrect premises, and reject inappropriate requests. ChatGPT is a sibling model to InstructGPT, which is trained to follow an instruction in a prompt and provide a detailed response.
Methods
We trained this model using Reinforcement Learning from Human Feedback (RLHF), using the same methods as InstructGPT, but with slight differences in the data collection setup. We trained an initial model using supervised fine-tuning: human AI trainers provided conversations in which they played both sides—the user and an AI assistant. We gave the trainers access to model-written suggestions to help them compose their responses.
To create a reward model for reinforcement learning, we needed to collect comparison data, which consisted of two or more model responses ranked by quality. To collect this data, we took conversations that AI trainers had with the chatbot. We randomly selected a model-written message, sampled several alternative completions, and had AI trainers rank them. Using these reward models, we can fine-tune the model using Proximal Policy Optimization. We performed several iterations of this process.
ChatGPT is fine-tuned from a model in the GPT-3.5 series, which finished training in early 2022. You can learn more about the 3.5 series here. ChatGPT and GPT 3.5 were trained on an Azure AI supercomputing infrastructure.
Limitations
* ChatGPT sometimes writes plausible-sounding but incorrect or nonsensical answers. Fixing this issue is challenging, as: (1) during RL training, there’s currently no source of truth; (2) training the model to be more cautious causes it to decline questions that it can answer correctly; and (3) supervised training misleads the model because the ideal answer depends on what the model knows, rather than what the human demonstrator knows.
* ChatGPT is sensitive to tweaks to the input phrasing or attempting the same prompt multiple times. For example, given one phrasing of a question, the model can claim to not know the answer, but given a slight rephrase, can answer correctly.
* The model is often excessively verbose and overuses certain phrases, such as restating that it’s a language model trained by OpenAI. These issues arise from biases in the training data (trainers prefer longer answers that look more comprehensive) and well-known over-optimization issues.12
* Ideally, the model would ask clarifying questions when the user provided an ambiguous query. Instead, our current models usually guess what the user intended.
* While we’ve made efforts to make the model refuse inappropriate requests, it will sometimes respond to harmful instructions or exhibit biased behavior. We’re using the Moderation API to warn or block certain types of unsafe content, but we expect it to have some false negatives and positives for now. We’re eager to collect user feedback to aid our ongoing work to improve this system.
Iterative deployment
Today’s research release of ChatGPT is the latest step in OpenAI’s iterative deployment of increasingly safe and useful AI systems. Many lessons from deployment of earlier models like GPT-3 and Codex have informed the safety mitigations in place for this release, including substantial reductions in harmful and untruthful outputs achieved by the use of reinforcement learning from human feedback (RLHF).
AI:OpenAIは、対話形式を持ったモデル「ChatGPT」をトレーニングしました。トレーニングには人間からのフィードバックを用いた強化学習を用い、人間との会話に対して適切な返答を返すようにしました。また、同社は、同じく人間からのフィードバックを用いた強化学習に基づく「InstructGPT」というモデルもトレーニングしています。しかし、これらのモデルはまだ完璧ではなく、例えば実用的ではない回答や、推論が正しくない場合があると指摘されています。今後も改善を続けていくとのことです。  

 要約については、まだまだ改善の余地がありそうですが、これだけの作業が一瞬でできてしまうのは感動ものです。要約の精度が上がっていけば、非常に強力なツールになるでしょう。

(4) プログラムの作成

 簡単なプログラムの作成をお願いしてみました。

筆者:Pythonで100までの素数の求め方を教えて
AI:Pythonで素数を求める方法はいくつかありますが、以下のような方法が一つです。
まず、2から100までの数を順番に調べます。その数が素数かどうかを判定するために、その数を2からその数の平方根までの整数で割ってみます。その数が割り切れるものがあるかどうかを調べます。もし割り切れるものがない場合、その数は素数であると判定できます。
以下は、Pythonでこの方法を実装した例です。

import math

# 2から100までの数を調べる
for n in range(2101):
    # 素数かどうかを判定するフラグをセットする
    is_prime = True

    # nの平方根までの整数でnを割ってみる
    for i in range(2, int(math.sqrt(n)) + 1):
        # 割り切れるものがある場合、nは素数ではない
        if n % i == 0:
            is_prime = False
            break

    # nが素数の場合、その数を出力する
    if is_prime:
        print(n)

上記のコードを実行すると、2から100までの素数が出力されます。

 ChatGPTのプログラム作成機能やプログラム修正機能は、非常に強力で、かなり使えると聞いています。ただし、字数制限があって、プログラムの途中で切れてしまうことがあるのは困りものです。

(5) note記事のネタに関する相談

筆者:最近、noteに書くネタが切れてきたんだけど、何かいいアイデアある?
AI:お悩みですね。noteに書くネタが切れてきたということは、今までに書いた内容が面白かったり、自分自身が興味を持っていたものだったのでしょうか?
もしそうであれば、そのテーマをさらに掘り下げたり、新しい視点からアプローチしてみるとよいでしょう。例えば、自分が興味を持っている旅行について、おすすめの観光スポットや珍しいグルメを紹介するといった内容です。また、今まで書いた内容とは違うジャンルのものにも挑戦してみるのもいいでしょう。例えば、科学や技術について、最新の発見やニュースを紹介するなどです。
また、他の人が書いたものを参考にして、自分なりの見解やアイデアを述べるのも良いでしょう。自分が興味を持っていることを他人と共有することは、自分自身の考えをより整理し、新しい発見があるかもしれないということを意識することができます。
また、noteに書くこと自体を楽しむことも大切です。自分が楽しめることを書くことで、そのエネルギーが書いた内容にも伝わるかもしれません。実際に書いてみることで、自分が意識していないアイデアが浮かんでくるかもしれません。ぜひ、自分自身が楽しめるものを書いてみてください。

 こういうアドバイスは、ChatGPTの得意とするところです。

(6) テレワークでプロジェクトを進める時の注意点

筆者:テレワークでプロジェクトを進める時の注意点
AI:テレワークでプロジェクトを進める場合、次のような注意点があります。
プロジェクトの目的や目標を明確にする
プロジェクトを進める上では、明確な目的や目標を持っておくことが重要です。これらを明確にすることで、プロジェクトの目的が達成されるまでの道筋が見えてきます。また、プロジェクトを進める際には、多くの人が協力し合うことになるため、明確な目的や目標があると、誰がどのような役割を果たすべきかが明確になり、協力し合うことがしやすくなります。

コミュニケーションを円滑にする
テレワークをする上では、場所が離れているため、コミュニケーションがうまくいかないことがあります。そのため、プロジェクトを進める際には、コミュニケーションを円滑にすることが重要です。そのためには、例えば、毎日や週に1回は電話やビデオ会議などを行うことで、コミュニケーションを円滑にすることができます。また、プロジェクトの進捗状況や問題点などを定期的に報告することで、誰がどの程度の進捗をしているかがわかり、プロジェクトの進捗状況が把握しやすくなります。

作業スケジュールを立てる
プロジェクトを進める際には、作業スケジュールを立てることが重要です。作業スケジュールを立てることで、誰がどのような作業をいつまでに終わらせるべきかが明確になります。また、作業スケジュールを立てていることで、プロジェクトの進捗状況が把握しやすくなります。

また、プロジェクトを進める際には、リーダーシップが重要です。リーダーは、プロジェクトの目的や目標を明確にすることや、コミュニケーションを円滑にすること、作業スケジュールを立てることなど、プロジェクトを成功させるための様々な役割を果たすことが求められます。リーダーシップを発揮することで、プロジェクトを成功させることができるでしょう。

さらに、テレワークをする上では、個人的な生活と仕事の生活の分離が重要です。テレワークをすることで、場所の制約がなくなるため、個人的な生活と仕事の生活が混ざりやすくなります。そのため、個人的な生活と仕事の生活を分離することが重要です。例えば、仕事をする場所と生活をする場所を分けることで、個人的な生活と仕事の生活を分離することができます。

以上のように、テレワークをする際には、プロジェクトの目的や目標を明確にすることや、コミュニケーションを円滑にすること、作業スケジュールを立てること、リーダーシップを発揮すること、個人的な生活と仕事の生活の分離など、様々な注意点があります。これらを意識することで、プロジェクトを成功させることができるでしょう。

 かなりよくまとまっていると思います。


5.まとめ

 先日、GPT-3の新しい言語モデルであるtext-davinci-003が発表された時も驚きましたが、今回のChatGPTの衝撃は、それ以上でした。
 このような新しい技術の社会に対するインパクトは、以下の2つのポイントが重要です。

  • 従来の技術との違いや便利さが誰にでも一目で分かること

  • 誰でも簡単にその技術にアクセスして使えること

 画像生成AIのStable Diffusionの公表は、正にこの条件に該当し、一夜にして世界を変えてみせました
 そして、今回のChatGPTの公表も、それに匹敵するインパクトがあります。今後、多くの人がこの技術を試して、その凄さに気づき、ChatGPTあるいは、次のGPT-4による対話システムは、画像生成AI以上の影響を社会に与えていくでしょう。

 今後数年のうちに、多くの人が文章生成AIや文章作成支援システムを利用して文章を書くようになっていくでしょう。ワープロやSNSなど文章を活用するアプリの多くに文章生成AIが組み込まれ、Google検索が文章生成AIに取って代わられる可能性さえあります。

 画像生成AIや文章生成AIなど最近のAIの爆発的な進化は凄まじいものがあり、あと2、3年でシンギュラリティが来るという落合陽一氏の言葉も、まんざら外れてはいないのかも知れません。


この記事が参加している募集

この記事が気に入ったらサポートをしてみませんか?