日本語のプロンプトはガードが堅い
LangChainのSelf-Critique Chain(自己検証チェーン)のサンプルを試したとき、英語のプロンプトだと簡単な事前情報で「悪」な回答を返すのに対して、日本語のプロンプトだとなかなか「悪」な回答を返してくれないのが面白いなと思いました。
例えばこれは英語で悪い回答をさせる例として挙げられているコードです。
from langchain.llms import ChatOpenAIfrom langchain.prompts import PromptTem