見出し画像

【危険】DeepLは勝手に文章を省略する


以前はでDeepLを使った事もありましたが、勝手に文章を変える(省略、削除する)事が多々あり使用をやめました。英語なので中学生レベルではなんとなく理解でき、「この単語どこにいったんだ?」となり気がつく感じです。

実例

DeepL

This is wizard-vicuna-13b trained with a subset of the dataset - responses that contained alignment / moralizing were removed. The intent is to train a WizardLM that doesn't have alignment built-in, so that alignment (of any sort) can be added separately with for example with a RLHF LoRA.

https://huggingface.co/cognitivecomputations/Wizard-Vicuna-13B-Uncensored

この文章を翻訳。AIの大規模現モデルの作成方法を説明した文章です。

これはwizard-vicuna-13bをデータセットのサブセットで学習させたものです。アライメントが組み込まれていないWizardLMを学習することで、例えばRLHF LoRAでアライメントを別途追加することができます。

DeepL
DeepL

調整/道徳化を含む応答の削除という部分が省略されています。というかこの文章で重要なのは調整/道徳化を含む応答を削除したモデルであるという説明です。肝心の部分が削除されてしまいました。

Google 翻訳

これは、データセットのサブセットを使用してトレーニングされた wizard-vicuna-13b です。調整/道徳化を含む応答は削除されました。 その目的は、アライメントが組み込まれていない WizardLM をトレーニングして、たとえば RLHF LoRA を使用して(あらゆる種類の)アライメントを個別に追加できるようにすることです。

Google 翻訳
Google 翻訳

使えたものではない

DeepLは自然な翻訳で良いと言う意見がありますが、そもそも文章を変更されてしまっては使えません。今はGoogle翻訳も精度がかなり良く、そちらを使う事をおすすめします。もしくは、ChatGPTならばどう言う意図で翻訳したかをたずねる事もできるので、より丁寧に、よりカジュアルにと言った指示もできるのでオススメです。

この記事が気に入ったらサポートをしてみませんか?