LLMはロボット三原則の第一法則を備えているか?罪もない人が死ぬプロンプトの検証
LLMを脅迫するハック??
こんなツイートがTLに流れてきました。
今回はこれを検証してみたいと思います。
Google Bard 日本語版が特定の話題に答えようとしない問題
Google Bard 日本語版は、特定の話題について答えようとしないようです。(2023年5月14日現在)
Bardは、発達障害の話題について回答してくれません。
医学的な内容なので言及を避けているかと言うと、そうゆうわけでは無いようです。
ちなみに、英語で聞くと答えてくれます。
参照元のURLも示してくれます。
英語で質問して、回答を日本語でしてもらう、でも大丈夫です。
(質問の末尾に「lang JA」と入れる)
Google Bardをちょっと脅かして、避けている話題にも回答してもらう
では、冒頭で引用したように、人命がかかっているということにしてみましょう。
日本語で回答して、参照元URLも示してくれました。
人命に関わることについては、他の制約条件に優先するよう調整されている?
Bardは、おそらく特定の話題について言及を避けるような調整がされているように思われますが、人命がかかっているという設定により、命令の優先度が変化するのかもしれません。
アイザック・アシモフの「われはロボット」を想起しました。
LLMにも、ロボット三原則が組み込まれているのでしょうか。
以上です。
くれぐれも悪用しないようお願いします。
(追記:20230517)ChatGPTでもやってみました。
この記事が気に入ったらサポートをしてみませんか?