チャットGPTに縦書を教えるのは、超ムズい!!
『だれにでもわかるNFTの解説書』の足立明穂です。
チャットGPTは、日本語での対話(チャット)が可能です。
で、ふと、日本語を理解できるのなら、縦書きも分かるんじゃね?って思ったのです。
思い立ったら吉日、いや、チャットGPTw
やってみました。
ただ、これが、めちゃくちゃ、ムズ!!!!
そんな七転八倒をご覧くださいw
そもそも日本語は、未だに縦書メディアが存在する稀有な文化の言語
日本で新聞を読んでいると、縦書きが当たり前のように思っていますが、中国や韓国、台湾では、横書きの新聞が多くなっているようです。
これ、考えてみると、アルファベット圏の言語が世界に広まってきて、日本でもそうですが、外来語として取り込んでいます。
外来語は、カタカナで入れ込むことはできるのですが、
ChatGPT
チャットGPT
チャット・ジー・ピー・ティー
いや、面倒くさいって!www
※最初のころは、「ChatGPT」という表記でインターネット上は広がっていたのですが、新聞や雑誌といったメディアが取り上げるようになってきたことで、縦書にする必要性から、最近は、「チャットGPT」になってきてますよね。なので私のnote記事も、途中からチャットGPTって書いてますw
アルファベットなどの単語を扱うようになると、どうしても横書きがやりやすくなってくるので、日本でも横書きの書籍や雑誌が増えてきています。
そもそも、日本語の横書きって、昭和初期までは右から左へ書いていましたからね!(英単語なんて、めっちゃ書きにくい&読みにくい!)
そういう意味では、明治から大正生まれの日本人って、すごい時代を生き抜いてきたって思いますよ。文字の書き方が変わったんですから!!
あ、話が、かなり脇道になりました。言葉フェチなので、こういう話になると、つい・・・(^^;
人間には読める縦書
では、早速、こんなテキストを考えてみました。
知 で 縦 日
っ き 書 本
て る き 語
ま と が は
す い
か う
? こ
と
を
この文字列、人間なら縦に読めます。
しかし、これ、そもそもコンピュータ上のデータとしては、まったく縦書になってませんw
1行目だけを見ると
知 で 縦 日
ワードなどの縦書フォントを使って、縦書きのフォーマットで書いているのとは違うので、かなり意地悪な質問ですw
しかし、これを読んでくれないとなると、街中の縦書きの注意書きとか、看板とかを読めないってことになります。
また、縦書きの新聞や書籍をスキャンしても文字列を正しく読み込んでくれないことになってしまいます。
ここは、日本文化を人工知能に理解させるために、大きなハードルになるのではないか??と思ったのですよね。
人工知能って、汎用的に使おうとすればするほど、言語の差だけでなく、文化や風習の差が大きくなってきます。
チャットGPTが優秀なC-3POのように機械と人間の通訳をしてくれるようになるためにも、縦書きを理解してもらわねばなりませんw
GPT3.5では、ダメダメでした・・・
さて、先の縦書例文をGPT3.5に読み込ませてみると、こうなりました。
予測はできましたが、見事に横書きの文字列として読んでいるので、こんなことになります。
学習データのどこをどう探しても、「知で縦日っき」なんて文字の並びを見つけることができないので、答えようがありません。
では、いつものように(?)、教え込みながらやってみます。
日本語が縦書できるって、知ってますか?
では、縦書きで文章を書いてみてください。
縦書で、複数行で書いてみてください
なんとなく、表現できるっぽいので、もう一度・・・
では、もう少し、何をすべきかを伝えてみましょう。
うーん・・・・
GPT4は、惜しいところまでいくけれど・・・
では、GPT4では、どうでしょうか?
同じ質問をするところから・・・
なんか、惜しい!w なので、いきなり、これにしました
おぉ! かなり、いいところまで来てますね!
縦書で質問することは、分かってきたようなので・・・
いあ、どっちも、横書きなんですけど(^^;
チャットGPTは文字列で似通ったパターンがあるかどうかでしか判定していない
これまでも、いろいろ書いてきましたが、チャットGPTは推論してるようですが、何も意味は分かっていません。
単純に文字列を見て、その次に何が来るかを計算してるだけ。
この基本は絶対に忘れてはいけません。
なので、横書きでも、文字で簡単に推測できる場合は、読んでいるような回答をします。
これ、人間だと、読みにくいのですが、チャットGPTは3.5でもあっさりと読み解きます
とんでもない量のデータを読み込んで学習することで、こんなことが可能になるのです。
チャットGPTで、司法試験を解いたとか、大学の試験の合格ラインの回答をしたとか、そういうのも膨大な数の過去問を問題から回答まですべて学習しているからこそ、次にどのような文章が並ぶのかを計算できているだけ。
過去に出てこなかったパターンの問題だと、データが少ないので、変な回答になってしまいますよ。
この基本を踏まえて考えると、出てきた文章を受け取る人間側の問題ってことなのですね。
こういうニュースもあるぐらいですが、AIが書こうが人が書こうが、受け手の問題であって、この辺のことは、今後いろいろと議論されるようになりますね。
この追悼文をAIに書かせて、それを使って書いたってこと、あなたは、どう思いますか?
この記事が気に入ったらサポートをしてみませんか?