xAI開発のGrokとは?使い方やChatGPTとの違い
2024年5月初旬、X(有料プレミアムプラン~)でGrokが実装されました。
※こちらの内容は、2024年5月8日現在のものです
Grokとは
Grokとは、イーロン・マスク氏のxAI社が開発した対話型AI/AIチャットモデルで、日本語でのチャット質疑応答が可能です。
ものすごく簡単に言ってしまえば、GrokはXで使えるChatGPTのようなものです。(この例えはイーロン・マスク氏は不本意でしょうがw)
Grokの使い方
Grokの利用方法ですが、Xの左側メニューの中にある「Grok」から利用可能です。
左側メニューの中にある「Grok」から、↓こんな感じになっています。
Grokには、「ユーモアモード」と「標準モード」があります。
「Grokに質問する」の下には、幾つか質疑応答例があります。例えば一番上は、
これは、”OpenAIのLightcap氏、1年後にはChatGPTが「笑っちゃうほどひどい」と予測”という内容です。
ChatGPTは現在、非常に高性能なチャットボットとして知られていますが、Lightcap氏は、1年後にはさらに強力なAIが開発され、ChatGPTは時代遅れになってしまうと考えている、といった真意でしょうか。
実際にGrokを使ってみた
百聞は一見に如かずではありませんが、実際にGrokを使ってみたその結果を紹介します。
Grokに、「Grokとは?」と質問してみると
「OpenAIが開発したChatGPTに対抗する目的で作られました。」と、ChatGPTをライバル視しているのが汲み取れます。
ですがここで注目したいのは、「インターネット上の最新情報にアクセスできるという特徴があり、Twitter(現在の名称X)のリアルタイム情報を利用することで、他のLLMよりも最新の情報を提供できる」という点でしょう。
試しに、タイムリーな内容で質問してみます。
↑の質問は2024年5月8日に行ったものです。こちらの回答は事実確認したところ、合っていました。
基本的にGrokは、回答と一緒に↑のように関連ポストが幾つか表示されます。
ちなみに、Grokの「ユーモアモード」と「標準モード」についてですが、
このようになっています。「ユーモアモード」と「標準モード」、それぞれ文言通りといったところでしょうか。
タスク処理や翻訳はどうか?
例えば、ChatGPTでは、対話・質疑応答以外にも、タスク処理や翻訳も可能ではあります。
Grokはというと、…結論的には現状まだタスク処理や翻訳は出来ないと捉えたほうが良さそうです。
タスク処理に関しては少し省きますが、”使える”とはとても言えないレベルでした。以下は、翻訳についてです。
単純に英文ページを日本語に翻訳してほしい、と。そのやり取りの一部始終になります↓
このように、現状Grokは、「対話と質疑応答機能を提供しています」「翻訳やタスク処理についての情報は提供されていません」ということがわかりました。
これを更に掘り下げるというか、以下のように聞いてみました。
ChatGPT、Gemini、Claudeとの違いは?
代表的なLLM(大規模言語モデル)である、ChatGPT、Gemini、Claude、それぞれとの違いについてです。
このように、Grokは”ユーモア”をなかなかプッシュしてきますが、やはり前述したように、「インターネット上の最新情報にアクセスできるという特徴があります」と、現状、Grokの特徴としてはこれに尽きるといったところでしょうか。
ただ、厳密にはインターネット上の最新情報=Xのポストのようです。
と、後日談でGrokに回答されました。
ちなみに、ChatGPTのように画像生成も現状は出来ないので、
画像生成に関してはこのように回答されました。
まとめ
Grokについて、ひとまず気になる事など概要から触れてみました。
現時点、対話と質疑応答が可能なGrokですが、インターネット上の最新情報にアクセスできるという特徴があります。=Xのポストからの情報
しかしながら、「OpenAIが開発したChatGPTに対抗する目的で作られました。」と、ChatGPTをライバル視している面からも、翻訳やタスク処理~マルチタスク実行等、順次アプデというか実装されていくのか、また、その辺りのスピード(いつ)だったり、引き続き注目したいところです。
注目しつつ、現状の注意点としては、ChatGPTにしてもそうですが、回答の整合性、事実確認は大事なアウトプットの場合は必ず行うようにしましょう。
【追記】RT的な使い方も
Grokは、「リンクをポスト」という機能があり、↑のようにポスト可能です。
【追記】Grokでも見られたハルシネーション
AIの幻覚(ハルシネーション/Hallucination)は、GrokやChatGPT、GeminiやClaudeのような大規模言語モデルが生成する、一見すると辻褄が合っているように見えて実は内容が間違っている、または虚偽の情報を含んでいる回答のことを言います。
AIの幻覚が発生する主な原因としては、学習データの偏り・モデルの複雑さ・評価指標の限界、などが挙げられており、様々な問題を引き起こす可能性もあるため、注意しましょう。
様々な問題とは具体的に、誤った情報(誤情報)や差別(差別的内容)、犯罪(犯罪助長)です。
AIのハルシネーションは、現状まだ解決すべき課題の1つだといえます。
この記事が気に入ったらサポートをしてみませんか?