見出し画像

AI自動翻訳の限界を感じた件(今日時点)

生成AIの翻訳ソフトなどが発達してきたけれども、ディレイや欠落や誤字があって、英語わかんないと現段階では平場での英語の議論にはついてけなかった。リアルタイムのディスカッションには支障があるので語学の能力は未だ大事かなと思った話をまとめてみました。以下は今日の段階での個人の感想です。調べていないので、もっとできるよ、と思ってる方はいらっしゃると思います。また、以下は聞き取り専門の話です。質問を出すときに、日本語→英語では翻訳ソフトはめっちゃ役に立ちます、が、そのときでも相手の返事の意味がわからなくて話が続かなかったという。


生成AIソフトの翻訳に感動

生成AIが一昨年から登場して、それに伴って翻訳の精度がむちゃくちゃ上がっているように思います。スマホのソフトでも同時翻訳のものが出てきていて、実際に海外出張の時に使いました。ChatGPTやリートン、copilotといったGPTベースのもの以外でも最近使っているClaudeとか、なめらかな英文を書いてくれて、実際にあなたの英語はきれいだと言われた(実際はそのままコピペしただけ)こともあって、もう英語話せる必要ないんちゃうとひところ思っていました。実際に国際業務が業務であるので、使いまくっています。なお、私はTOEICは700くらいで英語はあんまり話せません。

いくつかの問題

先週、今週と立て続けに海外の方と会議に陪席する機会がありました。全部英語なんですけど、特にインドの方の英語は訛りがきつくて早口でほとんどわかりませんでした。大学の先生の専門的な話でしたのでそもそも単語がわからないというのもありましたが。。そこでAIに頼ってみたところ、以下のような問題があって、結論として全く使えなかったわけではないけれど、今の自分のレベルで頑張って何もなしで聞いた方がましでした。

感度が鈍くて表示されないことがあった

ZoomやWebex MT、Googlemeetといったweb会議をするとき、トランスクリプションがないやつでやると、別でスマホを用意してDeepLみたいなソフトを立ち上げて音声入力したら半分以上入らなかったです。陪席だったのですが、十分に声は拾えているはずなのに半分以上入らなかった。やり方の問題かもしれない。
英文での聞き取りの精度も100%ではなく、僕でも間違いだろというのがわかる誤植がたびたびありまして、混乱しました。

連続して記録されるので意味を理解しようとすると先に進んでしまい流れがわからなくなった

これはタイトルのとおり、話者が切り替わってもテキストには連続表示されるので、文章の切れ目どこだっけとなって、意味がわからないまま進んでしまい、数秒の空白が生まれ、議論の流れを理解するのに時間がかかりました。

訛りへ対応できなくて表示されなかった

実際にお会いしてお話した方はインドの方々でして、めっちゃ訛っている+早口ということで、聞いていてもほとんどわからなくて苦労しました。ソフトもほぼ反応してくれてなくて。英語話者って米加英豪以外のところですとアクセント強くて 英語←→日本語 みたいなソフトだとちょっと反応してくれなかったです。。マイクはふわふわしていたので何か聞いているんだとは思うのですが・・。

リアルタイムな書きおこしができるweb会議だと有効かも(試してない)

Web会議で、Teamsのトランスクリプション機能やGoogleなどの同様の機能を利用すれば、英語表示を選択することで、画面の右側にリアルタイムで表示される英文を利用して、日本語に翻訳できます。これにより、数秒の遅延をもって内容を理解することができ、効果的だと考えられます。
ただし、実際にお会いしてお話しする場合ですと、手持ちの翻訳ソフト、とかになるので、上記の3つの問題は出てきてしまいます。自分が話さないといけないシーンがある場合はなおさらです。

結論:現段階では、会話の流れを切らずにスマートにやろうと思うとやっぱ語学能力は必要






この記事が気に入ったらサポートをしてみませんか?