RSGT2023_Day1_初登壇&うきうきテーブルでの知見
こんばんは。ふじえもんです。
RSGT2023に参加して(チームで)登壇してきました。
あと、登壇以外は他のセッション見たり、うきうきテーブルでお喋りしてました。
とにかく楽しかったです。
一方で、コミュニケーションについてはちょっと思うことがあったので書いてみます。
目次。
RSGT2023_聴覚障害のある大学生チームによる臆さない発言環境の形成
Proposalです。↓
https://confengine.com/conferences/regional-scrum-gathering-tokyo-2023/proposal/17568
登壇者のTwitterです。2名のみアカウントを公開していますので、プロフなど読んでご興味あれば、ぜひぜひフォローください。
ふじえもん@fujiengineer
発表資料の共有です。
一般的なスライド。一般的に公開されている形の原稿の無いものになります。
字幕付き版。字幕を付けたものです。より伝わるように。(コメントに関する回答、アドリブ部分は字幕にしていません。当日聴講頂いた方だけが得られる情報です。)
上記資料に関して、質問、確認があればふじえもん@fujiengineerのDMまで。
もしくは、RSGT2023のコミュニティにいらっしゃる方は、Discordのチャンネル等でメンションしていただければすぐに伺います。「ふじえもん」で検索ください。アイコンも同じものです。
発表内容としては、以前↓の経験備忘録_チーム開発_2022年の「Agile開発」で少し書いたんですけど、昨年夏に受講した講義で得た知見についてお話させていただきました。(長いですが、目次つけてるので気になるとこだけ読めます。ぜひ。)
まず、聴覚障害について紹介して、聴こえ方を体験してもらったり、クイズ大会やって正解したらバンザイしたり。
自分達で工夫したことをやる前と後で何がどう変わったのか寸劇で表現したり。(作業状況と誰がやってるかをMiroの付箋と矢印を使うことでで可視化)
とにかく、自分たちの発表ではワイワイしてもらいたい、自分たちが経験したあの雰囲気を再現しながら伝えたいっていう意図がありました。
途中というか、最初からハプニングがあって3分くらい発表開始が遅れたり(さっきまで動いてたはずのスライドが動かなくなった…説明してなかったけど。)してたんですが、まあなんだかんだでわいわい楽しんでいただけたのかなーという感触はありました。
クイズ大会。みんなで同じ時に同じことをやるのにオススメ。
皆に知ってほしい内容をあえて、それが明らかに正解だとわかるように問題と選択肢を作ることで、「クイズとして出題しながら説明するみたいなことができる。」ことに気が付きました。(ただ、ずっとやると飽きるし面白くなくなる)
とにかく体験してもらうようなセッションになりました。ちょっとでも理解が深まりやすい様に。私たちが得た知見を少しでも伝えられるように。
登壇はあまりしたことがなかったけど、始まる直前まであんまり心配も緊張もしてなかったです。ずっと時間かけて準備してたし、運営さんに迅速かつ丁寧にご対応いただいたおかげで、不安要素が逐次すぐに吹き飛んだので。ありがとうございます。
聴覚障害のことを説明するのは、学内でも何度もあるし、学外でも説明する機会を何度かいただきプレゼン、コミュニケーション体験をしたので慣れたものです。
今回の試みとしては、実際に「聴覚障害がある方の音の聴こえ方を体験してもらう」ことをやりました。
↓こちら(Starkey)で音を聴くことができます。Conversation以外にも、MeetingやShopping、Crowdなど様々な状況がありますのでお試しください。
以下、ふじえもんの個人的な意見です。ざっくりこんな感じかなと。
Normalは「普通」の聴こえ方
Mildは伝音性難聴の特徴である「音が小さく聴こえる」のがわかる
Moderateは、感音性難聴の特徴である「音の識別が曖昧になる」のがわかる
Severeだとほとんど聴こえない。音が全く入らない聴こえ。
Normal,Mild,Moderate,Severeと4種類あるので変えてみながら、英文のスクリプトの様子を確認してみてください。聴こえる方は音を聴きながらどうぞ。
(↓Page Not Foundと表記されてますが、正常に動作していることを確認済みです。)
セッションでは、一回だけしか流さなかったんですけど、↑の解説を踏まえ、再度流しても良かったなあって書きながら思いました。
なので、もっかい聴いて見て確認してみてください。↑
いかがでしたか?
このシミュレーターを使って聴いてみると、普段当たり前のように耳に入っている音だけど、違う聴こえ方で受け取っている人もいるってことがわかっていただけるんじゃないかなー
これを踏まえたうえで、例えばModerateの聴こえ方で、会話する自信ありますか?ちゃんと相手の発言を受け取れますか?
もし、相手がその聴こえ方だったら口頭だけで相手に伝えられる、或いは自分がその聴こえ方だったら、自分に伝わると思いますか?
いかがでしょう。
セッションでは、この辺り解説が足りなかったかなーと思ったので紹介するついでに補足してみました。
次!
※下記について、予め書いておきますが、少しキツイ表現があり、人によっては読んで嫌な気分になる方もいらっしゃるかもしれませんがポジティブに読んでください。ネガティブに読んで良いこと無いし今後に繋がる学びは得られません。(何なら、当事者はネガティブな思いを何度も何度も経験してるはずです。)
次何ができるか、どうしたら良さそうか「一緒」に考える材料にしていただければ幸いです。
うきうきテーブルでの会話でやっぱりなあ…って思ったこと
うきうきテーブルについてはこちらをご覧ください。
「うきうきなっとう」という名前でチームを組んで、受講して登壇したので、それが由来になってます。
聴覚障害のある方とお話するとき、どんな困りごとがあるか、どうすればそれが解決の方向に向かいそうか色々試行錯誤する場です。
予想以上に多くの方が興味持って来てくださって色々お話できたのが嬉しい。
その一方で、「コミュニケーション面でうまくいったんですか?」って聞かれるとNoでした…
「コミュニケーション=双方向の情報共有」だと考えてるんですけど、もう一方通行に近かったです。
なんというか、事前の説明、セッションでの説明で不足していた内容があったのか、やっぱり立場が違うとその視点で物事を見るのは難しいのか、色々帰途で悩みました。
聴覚障害って言っても、いろんな聴こえがあるし、コミュニケーション方法も違う。
そんな中で、様々な聴こえを持つ人が参加するコミュニケーションではどのようにすれば、お互いにお互いの意見を受け取って返せるのか。
この課題は、企業での会議の場面で音声認識を使って情報保障をする状況でも言えると思います。
音声認識を使わなかったとしても、耳からの情報が掴みにくい相手にどう伝えるのか、口頭で伝えて問題無くやり取りできるのか、それだと認識のズレが起きやすかったり或いはそもそも伝わってないから別の手段を模索することが求められるのか。
で、今日は、長机の上に、音声認識アプリYYProbeの結果を表示した透明なディスプレイを置いて、ピンマイクを複数用意して喋ってもらいました。
上の様子については、手元に共有できる画像、イメージが無いので読者の想像に委ねるか、Day2、Day3に来ていただくしかないのですが…
(ぜひお喋りしましょう。聴覚障害のことをもっと知っていただきたいし、一緒に考えていただきたいし、読者さんの取り組みのことも良ければお伺いしたいです。)
音声認識精度についてはいつも通り高く、速く概ね満足度の高い結果でした。来ていただいた方にも好評で宣伝させていただきました。
話者の滑舌や周囲の状況、ピンマイクとの距離などによって認識の様子が変わっていて、その様子も体験していただけました。
今日のコミュニケーションのやり方としては、ピンマイクで音を拾い、音声認識アプリで認識を行い、その結果をディスプレイに表示させて我々が確認
する形でした。何か間違いがあれば、都度言い直して貰ったり、また自分が手話で表現したり、口形を見せたりしていました。
こちらからの表出手段は、「口話、手話」で、手話がわからない方もいらっしゃるので口話と合わせて表現していました。
(※ふじえもんの聴こえとしては、予想以上に聴き取りやすい環境で今日お話した方の声はほぼ聴き取れていました。所々、聴き取れなかった部分、単語があり、その場ですぐに確認しましたが。詳細は↓)
帰途につくなかで、参加していたメンバーと色々話していたのですが、会話についていけなかったり(話者が、脱字、誤字に気が付かない、直さないため一部内容が変だったり、文脈から意味を読みとることが難しい状況がずっとだった。)、何かリアクションや質問をしようと思っても、なんとか読みとった内容を踏まえた上で見当違いのことを言ってしまったら「何言ってんの??」って思われるかも..などなど見ての通り一方通行ですよね。。
相手の反応が無かったら、何かしら問題というかなんでリアクションしないんだろう??って疑問に思うんじゃないかなーって思ったんですけど、ここら辺、あまり意識されていなかったようで。
逆に、相手から反応無かったら「なんで喋んないの?」って気になりませんか?ずっと喋りっぱなしで他の人が喋りたいけど、喋ってもいい雰囲気じゃなさそうだなーって思ったとしたらどうでしょう。
「心理的安全性」という言葉があり、多分この記事を読む方はご存知だとは思いますが、これが保証されていない(と感じた)状況で、まさに我々の発表タイトルである臆さない発言環境が形成できていなかったんですよね。
なにか喋りたいけど、喋るための材料が不完全な状態が続いて、そのことに言及したいけど、相手の話を遮る勇気が中々無くて、相手に申し訳ないと考え遠慮してしまってそのまま黙ってしまう。聴覚障害者あるあるです。
いや、もしかしたら障害関係なく、環境、立場によってはあるかも。
だから、多くの(と勝手に主語を大きくしますが、強ち間違ってはいないはず)聴覚障害者・ろう者は飲み会にも参加しないし、会議でも黙ってるんです。(ボソッ)
どうせわからないのは自分だけだから。自分が我慢すればいいから。
本当なら、その場にその人がいる意味をチーム全員が考え、共有するべきなのに。
(周りから見れば)勝手に自分に負い目を感じてしまって、何もできない。
こう当事者が考えてしまっていたとしたらどうでしょう。
果たして発言しようとなるでしょうか。
実は、この状況、先日参加したハッカソンでも同じ状況、いえ、今回はある程度聴覚障害について知って貰っていた上で起きたことなので、(自分達視点だと)だいぶタチが悪い状況でした。
とはいえ、ネガティブにあれこれぶつぶつ言っても仕方がありません。文句ばっかり言ってても状況は好転しません。
なので、自分達の説明が足りなかったんだなあ。何が足りなかったんだろ。と電車に揺られながら、チャットしながら考えてました。
共通認識として、音声認識の使用目的、意図は双方一致してた?
認識結果をみてから反応するから、その認識が終わるまでの時間、タイムラグがあって反応にワンテンポ遅れるよってことは知ってたのかな。
そもそも、認識結果に不足がある場合、日本語として読みにくい文章で前後の文脈を読んでも合ってるのかわからないことがほとんど。ってことは知ってる?認識結果確認してる?したつもりになってない?
その場にいる全員が発言内容を理解できてから(そういう様子が確認できてから)次の発話をしてる?どんどん、自分勝手に進めてない?
思えば、事前に自分達の聴こえ方を共有していなかったような。
→Day2では共有してみる。その結果は(→Day2の記事に続く。)
とりあえず今日はここまで。
Day2では、Day1のことを踏まえ色々試してみます。お時間あればぜひ、うきうきテーブルに遊びに来てください。コーヒーがあるところです。
出来れば、この記事を読んでから来て欲しいです。質問どんどん受け付けるし、気になったことは些細な事でも確認して欲しいです。(あえて「いつでも確認して!」とは言いません。意味ないもん。)
眠くなってきたし、楽しみなセッションもたーくさんあるのでこの辺でバイバイ。
あ、聴者目線も読んでみてください。
あ、ここまで読んで他の人に広めたいなって思ったら遠慮なくリツイート、共有してください。
多くの方に読まれることを望みます。
以上。
ふじえもん。
Day2
Day3
もしよかったらサポートお願いします! いただいたサポートは読書費用に充てます!