見出し画像

誰に何をどこまで

プレゼンテーションを構成するのが、なんだか最近とみに苦手だと思っている。所属機関に言語学者はほぼいないので、言語学の細かい話はしない。畢竟、政策系の話になる。特に、所属部を移って以降、言語政策っぽい話とか、発達支援の話とかのほうが、「わかりやすい話」になるのだろうと思っている。聞き手が誰かによって話すことが変わる。当然といえば当然だけど、これがかなり難しい。そういうわけで、去年の10月末の日本語学会のシンポジウムでの発表を最近ふいに褒めてもらったのを、暗闇の中の灯として、気合いをいれなおしたのであった。

今回の言語学会の発表では、調査対象者をネイティブサイナー×24人にしていて、正直、24人もネイティブサイナーが協力してくれたものなんてこれまで日本になかったんじゃないの? しかも半数以上の人がウェブ公開までしていいと言ってくださっているので、正直「これはやばいものを預かってしまった」と思いながらやっている。苦節10年。調査法についていろいろ悩んだ結果やろうとしてたことが、さらにコロナ禍でオンライン化してしまい、苦肉の策だったにも関わらず、なんとか結実した。あーもう、本当に、がんばった。

しかし、である。実は「ネイティブのデータだけ見る」は言語学ではデフォルトなのだった。ありがたみがわからないよね、きっと。それに、今時はコーパス言語学もたくさんあるので、24人「も」なんていうのもちゃんちゃらおかしい。

そもそも世界の手話コーパスでも、やっぱり24人は別に多くない。まあもちろん、予算規模が違うんだけど。そして手話コーパスの新しい本では、それでもバランスド・コーパスを作るべき、つまり手話話者の属性が、実際の手話コミュニティの組成を反映するような、ネイティブは10分の1なら10分の1だけネイティブで、それ以外の9割は非ネイティブのデータを入れるべき(ちなみに、結局、現存する手話コーパスのデータはネイティブが過半数と書いてあった)、という論考が載っていて、まあそうだよね、と思いつつも、そうかなあ? というのが一方にある。(もちろん、バランスドコーパスにしても、話者の属性をしっかり書いてくれれば、文法研究にも使えるコーパスになる)

そのバランスいいほうがいいの、「そうかなあ」がストンとわかるためには、言語発達とその障害の話を理解しないといけない。語用論の話は、言語発達の非定型が明らかである非ネイティブサイナーと、定型相当だといわれているネイティブサイナーを分けるべき部分なのだ。このことは、前の所属先で本の原稿を書いたり今の所属機関でウェブ記事を書いたり、とにかく需要があるネタにほかならない。一方で、語彙や文法と違うので、「生え抜きの話者同士」みたいなことはしなくてもよろしいかなと思って、地域は限定せずにオンラインで参加できる若い人にお願いした。相手によってコードスイッチしまくる人たちだから、どの部分を切り取ってくるか。何のために何をサンプリングするのか、意識的でなければならない。

ひとりを対象にした言語調査もありうるだろう。ICLCで危機言語セッションがあった。そのときに、最後の1人の調査だって言語学者はしなきゃなんあいのに、なんで手話研究者は、1人はダメ、実例希望みたいな話になるのかと、うまく説明できなくて、メンターとあとで議論した。そもそも1人、あるいは2人を対象にしたろう者との共同研究で、いろいろ大変だった。ジャッジメントは揺れるし、実例も見つからない。そもそも当たり前に使っていて教えやすい要素を研究したいとろう者はいわない。しかも私の下手な表出で、さらに混乱する。日本語が混じる。バイリンガルのコードスイッチもコードの混線状態も、そして、我々聴者の「権威性」も、あらゆることで、こんがらがる。日本語交じりの手話でも〝通じる”し、彼らはそうやって教育を受けてきた。彼らが日本手話の通訳を養成するのは難しい。自然に発生した手話の教え方では、日本語対応手話の通訳ばかりが育ってきた。そして、日本語を話す聴者に慣れている。というか普段日本語に囲まれている。さらに、通訳を挟むと、日本手話が出てこなくなるのが体に染みついている人もいる。聴者を前にすると、日本手話をピタリと止めてしまう人もいる。だから1対1で採収したデータは、「特別な」インフォーマントを除いては、あまり信憑性がない。そうした社会言語学的な状況で、通じることと文法性判断の境目を「引ける」という確信を持つこと自体に、確信が持てない。人によって世代によって相手によって、判断がぶれる。他の人の承認を得ないと、発表するのも怖いよねという話にもなる。だから、実例がすでにある手話ニュースの翻訳データを出発点にしてみたりもした(去年の語用論学会)。エリシテーションタスクをしたときは、ネイティブの3人と、非ネイティブの9人のデータのバラツキ度合いが違った。ネイティブのほうが、収束しているように見えた。ただし3人しかいなかった。なかなかまとめられず、自分の音韻論の確立がまだで、塩漬けにしてるデータがある。そのうえ、相槌の研究をしたいと言われ、「それはもう、自然なビデオを分析するしかないね」という話になったりなんだり…。紆余曲折を経て、ある程度現象の収束が見えるくらいの本数のネイティブのビデオを撮ろう、と決意したのだった。

発表のときには、「非手指要素」とかいきなりいっても仕方ないので、その説明最初にせねばと思い立って、一番特徴的な画像を切り出して貼ったのだけど、「静止画にすると、こういう顔の人に見える」問題が発生する。動画と静止画って本当に違う。視線がズレました、というのも、オンライン実験で、カメラを送って自力で撮ってもらっているので、デフォルトがカメラ目線じゃないから、「視線がズレたことを示すために画像は2枚使う」とか、突然やったことのないパラパラ漫画を作ることになった。多分、手話の動画だけさらっと流しても見落とす人がいるだろう。そして、非手指要素、これも「ただの超分節的要素あるいはジェスチャー」では?といわれそうだ。まあそういう見方もある。というかその議論を始めるとその議論を結構しっかりしなきゃいけなくなるし、質疑で出る程度に言及しながら、だなーとかなんとか考えながら、「相手に伝わるようにある程度背景情報を埋めながら20分に収めるってなんて難しいんだ」と頭を抱えながら準備していた。

異言語であっても、ある程度のフレームワークが共有されているものは、ある程度わかる。しかし、非手指要素は、「ジェスチャーなの? プロソディ相当なの? 言語要素なの?」……ものによるし、機能による。そもそも非手指要素が文法化してトピックマーカーになってるやつとか、手指要素ナシで否定を表せる言語とかあるから、命題内容に関わる非手指要素もある。それだけでも、音声言語しか知らない人には「え?」ってなると思われる。非手指要素は、ろう者にとっても、多分意図的にコントロールしにくい部分だ。なぜならHockett(1960)が言語の設計特性(音声言語の、という注釈が現代では必要だ)で、即時的なフィードバックがあると書いたその「特性」とちょっと違うものがあるからだ。顔の筋肉を動かしてどんな顔をしているか、本人には「見えない」。もちろん、筋肉の反応はあるが。「声」のフィードバックじゃなくて、舌の動きを感知しているようなものだ。そして、今回分析しているのは、発見したばかりなので、どれとして主張するか決めてないときた(そうだ、それが問題だ)。

なんか、発表するのが難しい発表をしてしまったものだ、と思った。誰に何をどこまで、で悩みまくった。あれで質問がしっかり出たんだから、よかったことにしよう。質問して下さった方に感謝。

他の方達の発表動画を見て、「うわー自分と全く違うことをやっているのにわかるぞ、わかるように話せる技術素晴らしい」と思って、感心してしまうのだった。

この記事が気に入ったらサポートをしてみませんか?