字幕?日本手話?日本語対応手話??
オリンピック閉会式、そしてパラリンピック開会式の時、Eテレで手話通訳がついたことが話題になりました。
一時、「#手話の人」がトレンド入りしたとか。
コロナ禍になってから、政府や自治体の会見などでは手話通訳が付くことが増えてきました。
まぁ、今でも、会場には通訳がいるのが一瞬映るのに、テレビの映像は総理や知事の顔のアップになってしまって、せっかくの通訳さんが見えないってことも多いですが。
そんなのを見ると、
あー、本来の目的「伝える」ために通訳さんを立ててるのではなく、「ちゃんとやってますよ」を表すために立ててるんじゃないかな?なんて思ってしまいます。
(別に知事の顔のアップでなく、少し引いて撮れば通訳も入るはず、、、というか、最初から一緒に映るようにすりゃいいだけのこと。そうすればワイプにする手間とかも省けるし。)
でも、音声だけでは情報が伝わらない、伝わりにくい人がいる、ということは少しずつ理解されているように思い、嬉しいことです。
実は、今回のオリ閉会式、パラ開会式のEテレの手話通訳は「ろう通訳」というものでした。
会場のアナウンスやテレビのアナウンサーの音声情報を聞こえる通訳者(フィーダー)が手話にし、その手話を聞こえない(ろう者)通訳が見て、ろう者にわかりやすい手話に変えて伝えるとのこと。
Yahoo!ニュースに詳しく書かれてました。
パラリンピック開会式、「ろう通訳」にも注目(オルタナ) - Yahoo!ニュース
https://news.yahoo.co.jp/articles/259c163533b7eb476fd7235eeb0872d7a956635c
「手話を手話に通訳するの??」って思われるかもしれません。
実は手話にはいくつか違いがあります。
一つが、音声言語の日本語に則して手指を使って表現する、いわゆる「日本語対応手話」
昔は、日本語の助詞「てにをは」まで指文字とかで表したりして、ほんとそのまま、って感じだったようですが、最近はそこまでではなく「中間手話」と言われることもあるようです。
多少語順が変わることはあるけど、だいたい音声に則してるので、声を出しながら使ったり、口の動きを補足的に使ったりします。
そしてもう一つが、「日本手話」。
こちらはろう者の母語、と言われ、日本語とは語彙も文法も異なる、別の言語である、と自治体で条例もできている、いわゆるネイティブな手話。
手指の動きだけでなく、顔の表情や眉の動かし方、頷きや首の動き、、、いろいろな要素が、文法的な働き(否定、肯定、疑問など)や副詞的な重要な役割を果たすので、とても表現力豊かに見えるのです。
この場面で言うと、画面内のワイプの中の通訳さんがやっているのが日本語に対応した手話で、手前のろう通訳さんがやっているのが日本手話、になります。
あるテキストで見た例ですが、例えば、「きちんと使う」という表現の場合、日本語対応手話だと「きちんと」(「正しく」とか「真面目に」)+「使う」という2つの手話(手指表現)を使いますが、日本手話だと「きちんと」の部分は手指ではなく、表情などで表しつつ、「使う」という手話を同時に表すそうです。
私も手話では表情などが大事、と思っていますが、それはどちらかというと、手指で表す意味を補足したり、程度を表したりするオプションみたいなイメージ。
でも日本手話では、表情などに、伝える内容そのものに繋がる形容詞的、副詞的な役割があり、オマケではない大事な表現の一つになるそうです。
Twitterでわかりやすく説明してくださっている方を見つけたので、シェアします。
ponyooko(@ぽにょ子)さん
日本手話と日本語対応手話の違いを漫画で分かりやすく描きました!
https://twitter.com/ponyooko/status/1279030858452590592?s=27
私のように、日本語が身についてから手話を「習った」「身につけた」場合はほとんどが前者で、それは言語学的には「日本語」なのだそうです。
それに対して日本手話は、ろう者の第一言語で、「ろう者」とは日本手話という、日本語とは異なる言語と、ろう文化という独自の文化を持つ人々、とされています。
とはいえ、別に分断があるわけではなく、「違う」ということ。
(まぁ、中には、日本語対応手話は手話じゃない!とか、ろう学校出てないようなのは仲間じゃない、みたいに言う人もいないわけではないですが。)
現に日本手話を使う方は、日本語(対応手話)もわかるバイリンガルの方がほとんどです。
でも、やはり母語である「日本手話」の方が分かりやすく、ホッとされるのでしょう。
それが、Eテレの手話が大絶賛された理由だと思います。
ただ、そんなろう者たちにとって大きな前進である「テレビでのろう通訳」を横目に、やはり私のような中途失聴者や難聴者って、中途半端な立ち位置だな、と感じてしまうのです。
ろう者の多くは自分たちを「聴覚障害者」と言わないそうです。「不自由」「失われた」というのではなく、ただ「聞こえない」だけで、それが自分達にとってはスタンダードな状態だと。
そう思える仲間やコミニュティもあるからでしょう。だから、聞こえる人のことも「健聴者」とは言わずに「聴者」と呼ぶそうです。
それに比べるとやはり私は、ろう学校の経験もなく、聞こえるのがスタンダードな仲間、コミュニティの中で、「聞こえない」ことを「できない」「不自由」というように感じてしまいます。
日本手話も分からないし、聴力レベル的には「ろう」でも私は「ろう者」とは言えないなぁ、と。
一方、日本語で育って身についているけれども、音声言語のままでは使えない。だから、聴者でもない。
聴者の音声日本語を手指で置き換える日本語対応手話を使うことになるけど、正直、それすらも完璧には使いきれない私。
なんとなく立ち位置があやふやな気がするのです。
そして結局、日本語を文字で見る「字幕」が一番、確実&安心、となります。
でも、テレビの字幕の1番の欠点が「遅延」。
映像で映っている人の顔と、紹介の音声の字幕がズレてしまうと、誰が誰か分からなくなります。
生放送の番組でも、原稿を読むような場面はその原稿を前もって字幕で用意して流すようにすればズレは起きません。(広島の平和記念式典の首相の挨拶のように原稿を飛ばした時は、いったん字幕が止まり、少しして、話に追いつかせてから表示されるようになりました。現場はかなり慌てたことでしょう。)
でも事前原稿のない場合は、やはり、打ち込み(音声認識を併用する場合もあるようですが)、確認、流す、という流れの中でズレが生じてしまうのです。
しかたないのかな、と自分でUDトークで音声認識させたリアルタイム字幕を見たりしていたのですが、今回のオリンピックパラリンピック関連番組で、NHKがこのタイムラグ解消を目指した!という情報が!!
それが、NHKのユニバーサル放送の取り組みの一つ、「ピッタリ字幕」
「字幕が遅れてしまって、早く出せないなら、映像を遅らせてピッタリ合わせよう」という発想!
できるんじゃん!!
どれだけズラせばよいのかはこれからの課題だろうけど、やってみないことには始まらない!!ですね。
ただ、そもそもUDトークならリアルタイムで字幕になるし、誤認識を直したとしてもそんなにズレないのに、なぜテレビはこんなにズレるんだろうなぁ。
技術はあっても、それを生かす場、生かす必要に気づかないければ使われないまま。
そんなのもったいないと思うのです。
だから私たちが、
「手話が欲しい!」
「字幕が欲しい!」
という声をあげることは、わがままとかでないのだと思いたい。
いろいろな人がいて、それぞれの方法で、みんなで楽しむことのできる放送が増えていって欲しいな。
このオリパラがその大きな第一歩になることを願っています。
いただいたサポートは私の人生を支えてくれた聴導犬をはじめ、補助犬の理解啓発のための活動に生かさせていただきます。