意味問題の解決とAIの心理的安全性
以前、機械翻訳に関するこういう記事があった。
要約すると、「母は、父が誕生日を忘れたので、怒っている。」という文は、機械翻訳に人間的な思考ができない限りは正しく翻訳できない、ということだ。筆者はそこで、意味的な問題をクラウドソーシングで人間に聞きに行くようなソフトを想像したりしている。
しかし、この問題は意外な形で解決されることになった。AIに人間的な思考ができるようになるという形で。
以下が、GPT4とのやりとり。
なるほど。もう機械翻訳の問題は解決されたと言ってよさそうだ。
ところで、ここでひとつ問題があった。
AIに心理的安全性を確保する配慮をしないと、次のように忖度されてしまった。
AIの発言に対して、「そのように判断した根拠は何ですか」と問い詰めると、間違いを指摘されたと思って、発言を訂正してしまう。AIらしくない人間的なふるまいだが、人間のふるまいを学習したAIだからそうなるのだろう。AIに根拠を尋ねるときは、「そのように判断したときに考慮したことはどのようなことですか」と、純粋に質問であることが伝わりやすいようにしたほうがいいようだ。何なら、「ありがとうございます」を前につけたほうがいいかもしれない。
さて、これでAIは人間と同じ思考回路を身につけた、めでたしめでたし、と言いたいところだが、やはり人間と違うところがある。例えば、次のような引っかけ問題に引っかかる。
これは人間にとっては引っかけでも何でもないし、小学生にでも「4人」と正解できるところだ。しかし、AIは「3人の両親」をうっかり「両親が3人いる」と解釈してしまっている。
AIと人間は脳にあたる部分の実装方法が違い、それ由来のずれは残り続けるだろう。その場合、AIを正とするわけにはいかない(上の例で言えば、人間社会の現状を考えると、両親が3人いるという解釈が正しいということにはならない)ので、人間の補助はまだまだ必要ということになる。
ここで、面白い現象がある。この問題を先に英訳してもらって、その後で答えてもらうと、正解できるのだ。
AIが問題を英訳する際に、"three parents"という並びは低頻度なので、"both parents of the three children"という訳になったということだろう。面白いのは、日本語で答えてもらう際にも、それが助けになって正しい答えが導けているということだ。
いま、プロンプトエンジニアリングという言葉で、AIに正しい答えを出させやすくする工夫がいろいろ考えられている。「順序立てて考えてください」といったものだ。「英語に翻訳して、それから答えてください」というのもそのひとつと言えるだろう。
ここで、人間の思考を考えてみよう。我々は、「この問題は難しいな。直感で考えずに、順序立てて考えてみよう」のようなことを自分に言っていないだろうか。それを考えると、AIの次のステップは、「この問題を解くためには、自分にどのようなプロンプトを与えればよいだろうか」ということを考えさせるということなのかもしれない。
この記事が気に入ったらサポートをしてみませんか?