見出し画像

ゲームメディアでChatGPTはどこまで活用できるのか。現役ゲームライターが考えてみる

『Atomic Heart』『ホグワーツレガシー』など、2月はすばらしいゲームが多数発売され、SNSでも大いに盛り上がっていた。しかし筆者がそれら以上に夢中になっていた「ゲーム」は、実のところ、こちらも社会をにぎわせたChatGPTというAIチャットボットだ。

ChatGPTについて説明は不要だろう。OpenAIが同サービスを2022年11月に公開すると、その自然かつ柔軟な応対からSNSですぐ話題となり、今も様々な「おもしろ解答」でにぎわせている。

筆者も「AIにろくな文章など書けまい、ロボットやーい」と高を括っていたのだが、実際に振れるとその精度の高さに驚愕した。こいつはマジですごい。自分の想像よりも何倍も賢く、人間らしい文章を数秒のうちに完成させてくれるではないか。既に多くのウェブメディアでも論じられているように、ChatGPTは確かにウェブメディアの未来を変え、場合によって、ライターたちの職を奪うかもしれない。一方、こうしたAIには様々な欠陥が指摘されているのも周知の事実だろう。

では、ゲームを扱うゲームメディアの場合は、どうだろうか。既に様々なウェブメディアでAIの研究は進められているが、現状、ゲームメディアでこの話題を扱った媒体はほとんどないようだ。そこで、4つのゲームメディアに掲載実績を持つ現役のゲームライターであり、また編集や企画も行う筆者なりに、果たしてAIはゲームライターの職を奪うのかどうか検討したい。


ChatGPTには何ができて、何ができないのか?

では実際に、ChatGPTにできること・できないことから説明していこう。

結論から言うと、後述するようにChatGPTに似たチャットボットや言語モデルはずっと前から存在していたし、今後も同様のモデルがテックジャイアント各社により公開されることを考えると、厳密にはChatGPTというより(近い将来テックジャイアント各社により発表されるであろう)大規模言語モデルそのものが、ゲームライター業をどこまで代替できるのか、と問いを改める必要がある。

(なお白状しておくと、筆者はチャットボットや言語モデルの素人である。そこで本稿を執筆するにあたり、清水亮氏との記事を多分に参考にしている。歴史上のチャットボットから現在のChatGPTフィーバーまでの流れが丁寧に説明されており、非常に興味深いのでご一読いただきたい。また以下の内容はかなり基礎的な内容に留めているが、それでも誤謬が含まれるかもしれない。ごめんなさいね。)

よって仕組みも根本的に既存のチャットボットと変わるわけではない。公式のgithubによると、ChatGPTはOpenAIが開発する大規模言語モデルのInstructGPTをベースにしており、このInstructGPTは圧倒的質量のデータ(OpenAIによれば「ウェブ12年分のペタバイト」)をクロールさせ、それに基づいた回答を40人のラベラーによって会話パターンを作り、それに対する応答を評価、さらにOpenAIの強化学習アルゴリズムProximal Policy Optimizationによって最適化する……という流れで構築されているとある。

つまり、ChatGPTの解答は膨大なデータから統計的に生成しているもので、別に機械に魂が宿っているわけではない(InstructGPTやPPOが既存の言語モデルや学習方法よりも優れているといえ)。そのため、ChatGPTは従来の言語モデルが持っていた、致命的な欠点を覆せたわけでない点は留意したい。


ChatGPTの問題

ではChatGPTの欠点とは何かと言えば、「無知・誤謬」と「つまらなさ」である。

まず、ChatGPTの無知・誤謬について。既に述べたように、言語モデルは既にあるデータ(特にネットから)を収集、学習することで成立している。よってChatGPTに質問して何か答えが返ってきたとしても、それは既にどこかの誰かが論じた内容を、さも自分で思いついたように話しているだけである。そのため、そもそも元のデータが間違っていたり、知らないことをAIは答えることができない。

具体的な例を挙げよう。まず、『Escape from Tarkov』というゲームのレビューを書いてみよとChatGPTに尋ねてみた。すると以下のような文章が返ってきた。

一見するとまっとうなようだが、実は大いに誤謬がある。仮に筆者がこの文章を添削するとしたら、細かなミスを置いておくとしてもこれぐらい赤を入れる。

①オンラインサバイバルFPSゲーム→公称・内実ともにMMORPG。
②プレイヤーが避難所からの脱出を試みる→「避難所」とは?それに該当する概念は存在しない。
③キャラクターをカスタマイズすることもできます。→「キャラクター」に該当し、カスタマイズできるのは「声」「服」程度で、一般的に「カスタマイズすることもできる」には該当しない。むしろカスタマイズするのはキャラクターが所有する装備、特に銃。
④かなり高難易度のゲーム→抽象的かつ主観的。そもそもプレイヤー同士が対立する対戦ゲームにて「難易度」を定義すること自体が不可能。(じゃんけんは「簡単なゲーム」か?)

特に厄介なのが、③や④のような抽象的な表現によって批判を免れようとする性質である。そもそもChatGPTは無数の応答の間で、人間やアルゴリズムによって誤謬を修正する機能がある。それはいいのだが結局「間違えない」ことを目的にした場合、どうとでも解釈できる抽象的な表現や、ダラダラと冗長な割に主観的な主張を行ってしまう傾向にある。特にChatGPTの場合、対話ベースなのでこうした慇懃無礼で無味無臭な答えをするようになってしまったのではないか、と識者も指摘している。

また当然だが、AIが知りえない情報、つまりネット上に公開されていない情報をChatGPTは答えることができない。つまり一般に公開されない情報は当然として、書籍や論文に掲載されている知識すら持っていない。例えば、Netflixが行う「キーパーテスト」とは何かと訊く。これはNetflixを取材した書籍『NO RULES』で紹介された有名な概念で、「上司は自身を含め一緒に働きたいと思えるかどうか、部下を定期的に評価せよ」という一種の人事なのだが、ChatGPTに訊くと、以下のような頓珍漢な答えを出してくる。

これも厄介に思ったのは、ChatGPTがなまじ対話型モデルとして進化したために、単に「知らない」とだけ言えばいいものの、なんだかそれっぽいことを並べ立てて「知ったかぶり」をすることだ。その結果、ユーザーは単に正しい答えを得られなかったばかりか、間違った知識を植え付けられ、むしろChatGPTを使うよりも「頭が悪くなる」という「有害」極まりない影響を与えかねず、しかもChatGPTの最適化もより困難になってしまう。そもそも、AIは人間の資料やレビューによって最適化するので、この段階で異物混入は避けられないのだ。

なおファミコンの色について聞くと、田尻聡が明るく元気のよさそうな色として選んだせいらしい。フィリップ・K・ディックのSF小説か何か?

つまりイラストや動画のようにある程度「良い・悪い」「美しい・醜い」で評価するクリエイティブと異なり、テキストのように「正しい・間違っている」のクリエイティブにAIは現状使い物にならないと言っていいだろう。

またここまで2つ事例を紹介してお気づきの通り、正しいとか無知だとか以前に、ChatGPTの出力する文章は根本的につまらない。これもやはり、ChatGPTが無数のユーザー評価と自身のアルゴリズムで最適化し続けた結果、「誰が読んでも不快にならないが、かといって笑いもしない」文章の出力に特化してしまった結果だろう。そもそもChatGPTはあくまで1人のユーザーと「対話」を演ずるのが目的であり、不特定多数に向けて読ませる文章を考えることが得意ではない。


具体的にゲームメディアでどこまでChatGPTを活用できるのか

と、実際に使って分かったのはChatGPTは思った以上にポンコツというか、まぁデータクロールありきのチャットボットなんてこんなもんよなぁ、という感じだ。

確かに受け答えは割とちゃんとしてるし、柔軟性もあるんだけど、それらはナレッジやロジックではなくレトリック(修飾)全ぶりでユーザーをいかに誤魔化すかという方向ばかり活かされている。そしてユーザーを誤魔化すと正しいナレッジやロジックはますます手に入らず、むしろ間違った方向ばかりに「最適化」してしまうので、技術が進歩するほど本質的に退化するというジレンマに陥っているっぽい。


では前置きが長くなったが、ゲームメディアでどこまでChatGPTを活用することができるだろうか?結論から言うと、ある程度は使えそうだというのが筆者の考えだ。え?散々批判しておいて?と思うかもしれないが、ここからちょっと有料記事らしく、表向けにできないゲームメディアの事情を鑑みて論じていく。

ここから先は

1,841字
この記事のみ ¥ 500

「スキ」を押すと私の推しゲームがランダムで出ます。シェアやマガジン購読も日々ありがとうございます。おかげでゲームを遊んで蒙古タンメンが食べられます。