見出し画像

RSGT2023_Day3_耳栓つけてお喋りして得た知見と聴覚障害者向けの情報保障と目指しているゴールについて

ふじえもんです。

今日はRSGT2023_Day3に参加した振り返りと今考えていることについて書きます。
OSTで耳栓ワークショップやってきました。たっくさん知見がありました。

本記事の概要です。主に3つ。
①耳栓をつけてお喋りして意見交換したよ
②音の代わりの情報伝達手段を試したよ
③ふじえもんが目指すゴールについて書いたよ

3日間(Day0も含めれば4日間)分の総まとめとして、あれこれ思うがままに書きたいだけ書いたら長くなりました。目次など活用してご覧ください。


Day1,2のnoteはこちらをご覧ください。



前置き_「うきうきなっとう」って?

筑波技術大学の学生6名(2年次~4年次)で構成されたチームです。
講義でAgileについてmiholovesqさんより教わりました。
「うきうきなっとう」ふざけた名前かもだけど、小学生が考えそうなネーミングだけど、遊び心満載で、どこから来たのかすぐわかるし、我々チームの雰囲気そのまんま(Day1の発表、うきうきテーブルに来ていただいた方には伝わったはず!)なので、お気に入りです。名付け親天才。仕事してる。
「またこのチームで開発したい」まさに。(登壇資料スライドのどっかにあるので探してみてね。ヒント:Miro)

ちなみに作ろうとしたプロダクトは「大学の空き教室の予約をスマホで。」プロダクト名は「アイトル」。なんてわかりやすい。(自画自賛)
友達と集まって学びたいけど、いつどこの教室が空いてるかわからない…教室まで行く必要がある…こんな悩みを自分たちで持ってたので、自分たちのためのプロダクトを自分たちで作ることに。

前置きはこのぐらいにして、本題に入ります。ボリューミーです。いつもより知見たっぷりです。4、5本分のボリュームです。
ぜひ、お腹いっぱいになって帰ってください。

感想お待ちしてます。
多くの方に読まれることを望みます。(とくに後輩、運営に関わる方など)
なので、遠慮なく拡散、共有してください。
Twitterなら、「@fujiengineer」をつけてくれると気が付きやすいです。



耳栓ワークショップ(OST)で得た知見_うきうきテーブル

OSTで何かやりたいな~ということで、うきうきテーブルに来ていただいた方に、耳栓をつけてもらいお話ししてみました。なお、前日同様、レルクリアにYYProbeの音声認識結果を投影しています。(話す人はピンマイク使用)
また、参加者が発言した内容は、付箋にまとめて大きめの紙(A1ぐらい?)に貼っていました。まとめてくれた方ありがとうございます。

そこで得た知見として、聴者と聴覚障害者視点での気づきについてまとめてみます。

OSTでは、最初、自己紹介から始め、耳栓を付けた状態の聴こえ方をリスニングしたあとに、タメになった、面白かったセッションについてお話してもらいました。

聴者(聴こえる人)目線

聴者目線の意見です。(付箋の内容を原文そのまま起こしました。)

・音から認識まで時間かかる
・目を使わないと誰が話してるわからん
・字と顔両方見ないと
・ボディランゲージ必要
・情報量が常に多い
・目が合うと安心する
・文のなかで意識的に落とす文字(形容詞など)を落とせない
・目を話している間に話者が交替すると誰が話してるかわからない
・人の話に興味持てなくなる
・人の話に集中しないといけなくて疲れる
・雑音と人の話が混ざる
・きこえないと何言ってるかわからん
・感情の揺れがわからなくなる
・どれぐらい伝わってるか不安
・表情が伝わってこない
・文字には起こされているけど理解できない
・目と画面どっちを見るか迷う
・日本語以外の言語を使う方と同じ問題を抱えているのでは?

視覚のみで情報を得ることって日常生活でも仕事でもないですよね。
わざわざ耳栓付けて聴こえにくい状態でお喋りすることはないはず。
↑の意見をざっくりまとめると「視線移動が大変だった、疲れる。

そうですよね。よくわかります。

このときは、30分?もっと?OSTフルでやってた気がするから90分ぐらい?だけだったので、自分はそんなに疲れたって感じは無かった。
日ごろから、耳からの情報も入ってはいるけど、相手の表情見たり、口形見たりしてるからかも。(読唇術)

セッションが続くと、ずっと認識結果画面見て登壇者見ての繰り返しなので、どっと疲れます。というか、内容がまず難しい。頭の中、「???」状態でした。

なので、少しでも目の負担を軽減させるために、音声認識アプリでは、黒背景に白文字の配色のようにシンプルに、明度差を離して文字を読みやすく、長時間見ていても疲れにくいようなUIが採用されることが多いです。
我々の登壇でも、字幕付きスライドを見ていただければわかりますが、そのように配慮していました。字幕付きのスライドを見ること、まあ無いと思うので。

ちなみに、字幕部分の設定は↓の通り。
フォント:UD デジタル 教科書体 NK-B
(すべての文字が同じ大きさ。見やすさのため太字。B=Bold)
配色:白文字(#FFFFFF)&黒背景(#000000)(明度差を最大限離した。)
サイズ:32px
行数:2~3行(スライドを合わせて表示している関係、一度のスライドで話す内容などの兼ね合いで。)
※スライド、会場で投影してみたら小さかったので、もう少し調整が必要。
通訳さんに渡すときは、4スライド(横)、単純白黒でPDF化しました。
(紙に印刷することを想定して。)


聴覚障害者(聴覚障害がある人)目線

次に、聴覚障害者目線について。こちらはふじえもん(自分)含め2名です。
二人とも、補聴器を外してみました。さらに、もう一人は耳栓してました。(ふじえもんは、耳の形状上、耳栓しようがないのでしてないです。詳細はこちらのnoteを。)

その前に、色々ブログ見てて気になったので一応ここで補足を。
↓(ふじえもんの個人的な意見です。当事者全員がそう考えているとは限らないです。)

あ、ちなみに、聴覚障害者とか聴覚障害がある人(方)って表記してくれると嬉しいです。聴覚障害を「持っている」人ではないのでご注意を。
「持っている」=我々自身に問題があるという医学モデルの見方
ある」=社会モデルの考え方で、社会側に問題があるという見方
近年、社会モデルの考え方が広まっています。
例としてはユニバーサルデザインがありますね。
ついでに、「障害」なのか「障がい」なのか。正直「害」を使おうが使うまいが意味は変わらないし「聴こえの状況が変わる」わけではないので、変にあれこれ考えず「障害」で。
また「聴障者」と、我々自身が、説明で頻出する場合、文字数の都合でそのように示すことがありますが、基本的にはやはり「聴覚障害者」です。
「聴覚障害」この言葉を使う際、外部に発信する際には以上のことを尊重いただければ幸いです。(これからそのようにしていただければ結構です。)
他に考えるべき優先順位が高いものがあります。以上補足でした。


同様に、付箋に書いたものを↓に起こしました。(聴者の方と混ざっていて、どれが我々の発言か思い出せなかったので、わかる範囲で。)

・よく話している人ほど慣れてくる
・話者のことを知っていれば、発言内容、話し方のおおよその検討がつく
・なので、多少認識が間違ってても推測には問題ない
・初めての内容、専門的な内容だとわからない
・口の形読めん(キャンチョメマスク改め透明マスクがどんどんずれてくる)
・頷く/首を傾げるなど表情のみではなく、顔の動きもいつもより意識した
・「うんうん」「なるほど」って手話表現して「話を聴いてるよ」アピール
↑ふじえもん。↓やまもん
・耳からの不明確な/不完全な情報が完全に遮断されるため、視線での情報収集に集中できた
誰が話してるのかの見分けはしにくくなった(普段は、聞こえてくる音をふんわりとした音の方向把握に使っている。後ろから聞こえる音なのか前から聞こえる音なのかは曖昧)
・マスクがズレて口元が完全に見えなくなると読めない

目で見てて疲れるというよりは、内容について触れていたのかな。既にある程度意見が出ていたから、わざわざ視線移動が大変ということは言わなかったのかも。

「話者のことを~」は、音声認識関係なく聴者でもあるあるではないでしょうか。
その↓の「なので、」は、ふじえもんは、普段から、話を聴いているときは頭の中で字幕として思い浮かべているイメージです。自分が話したことも、そんな気がする。あんまりこのことは説明できないんだけど、言語化するとしたらそんな感じ。

マスクがズレる問題は、気づいてよっぽど読みとりにくかったら指摘してました。本当は、他にも気になる方いたけど、会話を止めたくなかったのであまり指摘しなかった。(透明マスク使うことないもんね。ズレにくいマスクだと有難いよねえ。お互いに。)

ふじえもん、補聴器外してどうだった?

多人数がいる会話で、公の場で補聴器外したの初めてです。
なんで外したかというと、より聴こえにくい状態になりたかったから。会話についていけなかったらどうしようって不安もあったけど、こんな機会滅多にないからやってみよう!の気持ちが強かった。[不安:好奇心=1:9]ぐらい。

音声認識結果が高精度だったのである程度信頼できたのと、どういうときにどこがどう誤変換されやすいか工学的にわかってたから音に頼らず参加できました。
場のコントロール権はあった(耳栓ワークショップ企画者)から、わからなければもっかい話してもらうとか別の表現とか、具体例とか、認識結果を確認してもらうとか、どうにでもできたし。

どうしてもだめならすぐ補聴器つけようって思ってたけど、結局最後まで、OST終わるまで、ずっと外したままでした。(時間計測忘れてて話し込んでしまったw)
外したらよっぽど大きい声で話しかけられないとなんか喋ってるのはわかったとしても言葉として認識できません。音声認識結果と、表情と、口の形と。とにかく「見る」ことに集中しました。ジッと見てたので見られた側はびっくりしたかもw


認識結果見てて、ほぼ全部内容はわかったつもり。すぐ質問できたほど。発言内容を整理するための情報を十分に受け取れて、思考できた。
ある程度認識が正しく、表示が速かったのもあるけど、推測なんて、人との会話で毎日のようにやってるからそれもあるのかな。
ただ、文字としては読めても、内容を理解できるかといったらそうでもないね。内容によるけど、日常会話ならこれまでの経験とかで思い当たることがありすぐわかるんだけど、専門的な話になったらば、例えばAgileに関する話になったらば、基礎知識が無いとまず議論にならない。専門的な内容の例として、「聞いたセッションで印象に残った話ありますか?」って聞いてみたんだけど、文字としては読めても内容はなんのこっちゃ。って感じだった。ちなみに、内容は森さんのふりかえりの話だったような。


共通点

視線移動疲れる
あちこち見て疲れること、長時間見ると疲れることは↑に書いたので、この解説はこれ以上はとくになし。

似て非なる点

・感想の内容
聴者と聴覚障害者とで、見ているポイント、思ったポイントが違うなーって思いました。
普段、耳から情報を得ているのか、目から情報を得ているのか違うからかなあ?あとは、音声認識初めて使ったという人もいたので、慣れの問題もあるかも。耳栓使って話すのも初めてだろうし。

・「日本語以外の言語を使う方と同じ問題を抱えているのでは?」
これはーどうなんだろう。同意しかねる。音として聞こえてはいるので例えば、相手がどんな感情なのかは伝わるのでは?
音声認識結果が間違うことがある、
表示されるまでにラグがあるという点では同意だけど。

こう思われたのは、会話の中で一切手話を使っていないからかな。聴者に対して手話を使ってもわからない方がほとんどだったので、わからないなら仕方ないねー口話のみでやるかーって感じでした。(初めての試みということもあって、うきうきテーブルに来ていただきやすいよう聴者側のハードルはできるだけ下げたつもり。)

自分たちの間では、口話+手話ともに使ってたけどね。Day1では、手話のみでやり取りしてるときもあったし。自分は、認識結果の誤りの補足のために指文字、手話表現使ってたし。基本、1on1で喋る時は、口話+手話。グループだと、どちらかというと口話に集中してた。(認識結果は逐次確認しながら、前後の文脈から意味が分かる程度の誤りならそのまま話してた)
発表でも、一部の内容は担当者本人の意思を尊重して手話のみだったのでその間の内容は手話だけでなく字幕も合わせて参考にするようアナウンスしました。(一応、声は出ていたけど。)

ただ、それが周りから見ると静かだなーと思った人もいたみたい。会話に入ってこないなーって思ったかもしれないけど、会話に入れるだけの情報を受け取れていないから入れないんですよ。「入らないじゃなくて入れない。」
そのことに理解が無いと、障害のこと、0から説明する必要があるので、ハードルがグンと上がる。なので、もういいや。ポイッーってなったんだろうなあ。

・「誰が話しているかわからない」ってあったけど、ふじえもんは、その場をコントロールしていたこともあって、誰か手を挙げていたら「○○さんどうぞ~」とか、なんか言いたそうだな~って思ったら発言を促したりしてたからかそれは感じなかったなあ。主導権あったから、そういう意味ではやりやすかった。

話すときは挙手するとか、そんな感じのルール決めても良かったかも。

全体的に、聴者は思った以上に認識結果を見ない。直さない。と感じました。何度も言ったつもりなんだけどなあ…「何も言われないからそのままでいいんだ」って思われたのかも?もうちょっとアピールすべきだったか、と反省。(何度も言うの面倒なんだよ。他にも指摘したいことあるけど、あんまり注意されて「やりにくい」と思わせたくなかったし。)


次どんな体験したい?

・今回は音声認識アプリを使ったけど、全く使わずにやってみるとか。
e.g.手話。筆談。グラレコ。etc…
(聴者が手話を使うとき、日本手話か日本語対応手話どっちをやったらいい?という質問ありそう。→目的によるけど、聴者、聴こえにくい人に声を使いながら手話するなら、日本語と語順が同じ日本語対応手話かな。)

他言語の方ともお話できたらなあ。想定外の事態でうまく対応できなかった。そもそも、元の日本語文章が正しく入力できてないと、翻訳もうまくいかない…チャットでもいいからとにかく「伝える」というゴールを達成すべきだった。「音声認識という手段に固執してた」というかそれ以外がパッと思い浮かばなかった。その場にたままた付箋あったんで、それ使ったりはしたけど。まだまだお話したかったなあ。また会えるかなあ。

・一方的に話しててもあまり面白くないのと、双方が知見を得るためにセッションで聴講者巻き込んで議論できないかな。もっと対話型に。アドリブマシマシ。アドリブのときは、そのときの発話内容を別手段で伝えるために、口話+片手手話+手持ちのスマホで音声認識かな(左手でマイク持っているから利き手の右手のみで手話する。)
互いの言語プロトコル合わせないと、片手手話は(ふじえもんは)まだまだ実用段階じゃないけど情報を増やすという意味ではやる意味があると思ってる。

・ラジオに参加して、リアルタイムでワイワイしたい。ここは人の手が要るかな。ふじえもんは、音が小さく聴こえる特性なので、聴き取りやすい音量(会場ではあの音量で大丈夫だった。)ならそれで言葉として聴き取れてコミュニケーションできます。機械オンリー(音声認識アプリのみ)はちょっと考えにくい。まさか、ふじえもんがきこえたことそのままその場で手話通訳するわけにもいくまい。(一応できるけど対象の相手に「伝わる」かは別。)
ここら辺は、もっともっと話したくてうずうずしてるメンバーが自分含め2人は確定しているので、どう音声を別の情報として変えるかとか色々相談したい。受講、登壇のときの裏話とかしたい。聴覚障害のこととかAgileのこととか。うきうきテーブルのこととか。最近の学びのこととか。グラレコとかでまとめてくれる方いたらもっと楽しそうじゃない?うきうきしない?


・コーディングしながらコミュニケーションしてみる。モブプロで。なんなら、セッションでライブコーディングやってみたい。nagaさんのセッション見てるだけでも楽しかった。実際にやってみるのって、実演するのってよりその雰囲気が伝わるのが良い。
そういう意味では寸劇も面白かった。オープニングの守破離(事前に台本いただけたの優しさに溢れてる。)とか、OST説明のハチ、チョウ、キリンの話(演者は無音。ナレーターが解説。これはめちゃくちゃ良かった。音も一人の声だから誰が話してるかってのを気にする必要ないし、認識もうまくいきやすいし。実際ほぼ綺麗だった。「すぐ笑えた。」)
演劇とかって、セリフに意味が込められてて、認識がうまくいかないとその臨場感が伝わらないんですよ…だから、演劇での手話通訳、音楽の手話通訳なんかは需要がある。まだ見に行ったことないから興味ある方いれば誘って行きたいなー(なんか見つけたら呼びかけまーす)

OST延長戦

その後、昼ご飯をいただいてからえいみさんとかRyoさんとかと話してました。(keynoteの時間帯)まあ、いろんな方が遊びに来ていろんなこと話してたんですが、名前は割愛します。
Ryoさんからシステムコーチングについて教えていただきました。今後、何かやる予定なのでそちらも動きたい。
色々話してて、「なんでそれをやってほしいのか、説明するといいよ。」って言われたとき、「あ、自分、目的伝え忘れがちだな。」って気が付きました。

それをやると「どんなメリットがあるよ」、「こういう風にやってね。」って理由と手段は伝えてるけど、「何のために」っていう目的はあんまり意識してなかった。これはふじえもんにとって大きな知見。これはもう少し詳細を聴きたかったけど、時間の都合で解散…
こんな話をたくさん聞けるのがこの場なのか。もっと話したい。

折角だから、ロジャーマイク使って話してみた。そういえばその場で説明してなかった。(何回も説明してると誰に喋ったっけ?ってなって…)
ここでかるーく説明しておきまーす。

ロジャーマイク(正確な商品名はロジャーオン)とは、
簡単に言うと、「マイクを向けた先の音が直接補聴器に入るシステム。」つまり、その範囲外の音が入りにくく、また聴きたい音をよりはっきりと聴きやすくできます。(これ欲しい。誰か買って。)
ちなみに、ロジャーマイク一式(ロジャーマイク、受信機等)は大学から借りました。うまい使い方を試行錯誤中で、就活なんかでも使ってます。
静かな環境だとその分声も絞って話すことが多い様で、それだと補聴器で補聴しきれないことが。
ロジャーマイクを使うことで完璧に十分な音量で入ります。
このシステムを使うための機材を揃えると2桁万円と高いけどね。
今後、余裕できたら買うけど、優先順位は低いかなあ。
それより本買いたい。2000~3000円だとすれば100冊弱買えるでしょ。1つの分野の本、大体買えるのでは。最近買ったIKEAの本棚2段くらいは埋まる?読みたい本いっぱいあるけど全部は買えない…

で、輪になって話してた↑ときに、azamiさんがいらしたのでAgilePBL祭りのことで、ロジャーオンを使いながら話してたんだけど、輪の方の会話一切入ってこなくて、会話に集中できた。はっきり聴きとれた。初め、使わずに補聴器のみで聴いてたけど、輪の方からの声と混ざって混乱したので、使った。これも自分にとって意味のある知見。

聴覚障害者向けの情報保障として準備いただいたこと&試したこと※RSGT2023の場合

諸々、運営に確認したいことがあり打ち合わせの際に、確認してみました。
RSGT2023で何を準備したか備忘録として書いときます。(他でもできるとは限らない)

ZoomのCC機能をオンに。YYProbe使ったよ。

ZoomのCC機能入れて貰ったのはいいものの、リアルタイムで修正できないので、CC見ながら言い直しして喋るならまだしも、セッションだとそれはやりにくいのと、主たる目的ではないので使わなかった。

ここら辺の情報保障については、一緒に参加したやまもんの記事にて細かく書かれていますのでご覧ください。

YYProbeでZoomの音声取得して、うまいことアレコレやって認識させてた。
これだと、音がそのまま入るのでZoomに入った音がバッチリなら入力環境としてbestになる。

それから、認識結果については、ふじえもんは、逐次キーワード、その場での盛り上がりの様子を加筆修正するようにしてた。100%ではないけど。やれる範囲で必要な分やった。だって、折角の良い内容を分かち合いたいもん。その場を楽しみたいもん。その上で議論したいもん。じゃなきゃ一緒に来た意味がない。なので勝手にやりたいようにやってた
次々話しているから、全部が全部直せたわけではなかったし、Discordにも顔を出したかったからほんのちょっとだけだけど。この辺は複数人で同じ場に参加して、会議に入って直してくれると修正する負担が分散されるかな。「同じセッション聴くついでに認識結果確認して修正してもいいよ~」って方、募集したらいいのかな。



透明マスク

通常のマスクより、口の形が見えるので

  • 読唇しやすい

  • 表情が伝わりやすい

けど、

  • 光の反射次第では見えない

  • 息で曇る

  • 声がこもる

  • 話してるとズレてきて、口元が見えなくなる

などのデメリットもある。完全ではない。この対策はあまり思いついてないなあ。(息で曇るについては、眼鏡の曇り止めシートとか?)
そういえば、用意してもらってたけど自分は使ってなかったなあ。自分のマスク(外して)見ることないから、曇ってても何も言われなければ気が付かないかも。


情報保障として音声認識を使う上で認識精度UPのために出来そうなこと

大学で、音声認識に関して勉強、プチ研究しているのでそこで得た知見を使って、開発者の立場として何か工夫出来ないかなーと考えてみました。
・参加者氏名、発表資料中の単語を辞書登録。(趣旨、意図を伝えて許可をいただけた範囲で。使い終わった後は辞書を消すとかも場合によっては必要なのかな。)
・参加コミュニティでよく使われる単語、頻出の単語を辞書登録。スクレイピングなんか使えばすぐできそう。
名前の認識は事前に登録しないと難しい。漢字の変換とか。あまり使わないような単語とか(辞書登録では拾っていないような単語)

・長文の修正、5,6行ぐらいに及んでずーっと認識させているとすぐに修正が出来ない点→ここは話者が一旦(1秒ぐらい)間を置けばそれでいいかな。長いと、その分理解に時間かかり、次の発話内容の理解までにラグが大きくなる。これは文字だけ読むっていう体験していただければわかるんじゃないかな。耳栓ワークショップに参加いただいた方はよく実感したはず。

・声のトーン、話す速度によって、文字の装飾を変えるとか?

全体の振り返り

全体の振り返りとして、思ったこと書いときまーす。

寸劇の台本の事前提供_Day1

やはり、演劇や音楽の情報ってよりリアルタイム性が求められる、すぐに情報を出さないとついていけない。通常、周りがワッと笑ったころにやっと認識結果が表示されて…だから、この台本提供めちゃくちゃ嬉しかった。何ができるかな、ってのを考えてくれた、まずその事実が嬉しくて。事前に説明していたとしても、そのことに気づいて行動に移す、までは中々やれる人いません。尊敬してます。
あ、見出しとは関係ないけど、質問者の声小さくて聴きとりにくかったような。Zoomの音声をそのまま使っていたのですが、ほぼ認識できておらず、何か話しているのにもかかわらず空白の時間がありました。(周囲で追記、手話通訳してすぐに対応しました。)↓

弁当美味しかった!

弁当美味しかったです。需要あるかわかりませんが、一応何食べたか書いときます。

Day1:すき焼き弁当(人形町 今半)
Day2:フレンチのり弁,サーモンの西京みそグラタン,トリュフ風味のおかかご飯(サーモン美味しかった。出来るなら自分で作って毎晩食べたい。)
Day3:サンドイッチ弁当
ちなみに、Day3の帰りはやまもんと書店に寄って、その後日本酒(国稀)いただきながらジンギスカン食べた。美味しかった~


OSTの寸劇

↓そのまんま。ナレーターのみが声で説明してて、その他の演者はジェスチャー、身ぶりのみ。見てて楽しかった。RSGT2023で一番笑ってた。
(そういえばOSTの宣伝は緊張してて何喋っていいかわからなくあまりうまく喋れなくて廊下出て落ち込んだの思い出した。その場ですぐにフォローしてくださったスタッフさんありがとうございます。名前失念したのが大変申し訳ないですが…なんだかんだでOST盛り上がったので良し。勇気出して喋って良かった。)


他のセッションも生で見たかった

うきうきテーブルに集中しててセッションを生で聞けなかったのが心残りっちゃ心残り。でも録画あるようなのでとりあえずいいかな。時間とってゆっくりみる。
うきうきテーブルはリアルタイムで参加してこそ意味のある場だったし。
いついるかわからないから行きにくいって人もいたかも。
次は、「いついつからいついつはいるよ~。今いるよ~」って発信しよう。

聴覚障害以外の話もしたかった

もっといろんな方と話したかった。聴覚障害のことを知ってもらう、意見交換の場もいいんだけど、いろんな事やられてる方がいるならその話もききたいよね~
うきうきテーブルにいると、聴覚障害の話題が続いて、他の話聞きにくいので、その辺は今後の運用で検討するべき内容かな。

話すのが、学びを得るのが楽しかった。
じゃなきゃ3日間フルで現地参加(+Day0)してません。

思ったこと

ただ、参加に至る迄とRSGT2023に参加してる最中、ずっと気を張っていたので次はちょっと休みたい。
というか、他の事(例えばセッション聴くとか)に意識を配りたい。
打ち合わせとか、場のファシリテーションとか、音声認識の追記修正、通訳とか(この2つは自分で必要だと感じて、勝手にやったからいいんだけど。)

参加したメンバーが楽しめたなら、それでいいんだけど。(観測している範囲だと、まだ不十分。Day1で様子が気になってた後輩に「存分に楽しめたのか」って聞いたらNoだったみたいだし。)

出来れば、自分がやる必要のない、他の人でも出来そうなことは極力やりたくないかな。(No属人化)

自分が関わる以上、常に高品質のモノを。以前経験した失敗は繰り返さないがモットーなんだけど、それを下手に持ち込むと、自分が過度に疲れるだけだと最近学習しているところ。あとジッとできないのも性分。状況みてこれ足りないなって思ったら(一応相談はするけど)すぐ動くのがここ数年の傾向としてあって、自分でもどうしたらいいかわからない。
とりあえず次は、人に投げられるものは投げることにする。

ふじえもんが目指すゴール_聴覚障害の有無に関わらず互いに伝え合い伝わる環境づくり

自分が目指すゴールとして、ハッカソン、就活等色々経験して考えていたことは「聴覚障害の有無に関わらず互いに伝え合い伝わる環境づくり」です。

目指す理由をざっくりまとめると、「議論の場が整備されないことには、まともな議論が成立しない全員がその場にいる意味、目的が尊重されるために。そのための試行錯誤です。」

最終的に、noteに知見としてまとめ、議論の材料として情報共有できればと思います。結果、結論だけでなくそこに至るまでの過程も出来る限り出します。(自分のための備忘録でもある。だから時間かかってもガッツリ書きたいだけ書いた。)

学外のイベント、就活、企業に勤める、様々な場に応用することを目指して。

聴こえる聴こえない、話せる話せない関係なく、誰もが誰とでも伝え合えあい伝わる環境、場を。

大層な事言ってるようにきこえるかもですが、自分が楽しいと思った場を他人とくに後輩、同期に紹介して行ってほしい、参加しやすい場をつくりたい。一緒に行きたい。前例をつくって、知見を共有しておきたい。今後できることの可能性を広げておきたい。


一緒に学びたい。議論したい。

学内に限らず、学外に学びがあるなら、気軽にふらっと参加して学びにいきたい。

これだけです。
学ぶこと以外は考えたくない。
そのために懸念材料はできるだけ取っ払う必要があります。

だから、あれこれ試行錯誤してみよう!ってだけです。

難しい話じゃありません。

聴覚障害関連のことを知ってもらうためには、自分達がその場に参加する必要があります。さらにコミュニケーションして、気になることはどんどんきいてもらう、互いに話す、あれこれ体験してもらう、一緒に議論していく

これをやってるんです。

と、語り始めると長くなるので今回はここまで。

また進捗があれば試行錯誤結果の続き書きます。(イベント参加しましたnote用のマガジン作ろうかな)

やれるだけやります。ちょっとずつ進めます。

ご賛同、ご協力いただける方は砂場をお貸しください。実験、体験する場が欲しいです。「こんな砂場あるよ。来ない?」って声かけてください。

ご紹介、提供いただくことで、参加者が期待できる知見はここまで読んでいただいたならばお分かりいただけたと思います。


最後に_スクフェス福岡&AgilePBL祭りで登壇したい

参加して良かった。楽しかった。また来年。

その前に関連イベントを紹介いただいたんだった。

直近のものだと、スクフェス福岡AgilePBL祭り
(参加する上で必要なものについては、メンバーに交渉を任せる。)

また登壇考えてます。

折角学びに行くなら登壇したいよね。わいわいしたいよね。

このnote記事を出す頃にはProposal作成に着手してます。

「次どんな体験したい?」↑で言ってた、聴者と交ざってモブプロ。

プロポーザル出しました。
プロポーザル読んで聴きたいな、見たいなと思ったらlikeしてください。

https://confengine.com/conferences/scrum-fest-fukuoka-2023/proposal/18047



AgilePBL祭りは、これから。出したら追記、報告します。


あとがきと謝辞

ここまで読んで、共有したいなー、他の人にも知って欲しいって人はぜひ遠慮なく共有してください。(Twitterなら@fujiengineerでメンションしてもらえると通知来るので嬉しいです。)感想もお待ちしてます。
あ、noteのスキ💛もしてくれると他の方の目に留まりやすくなるようなので、良ければぜひ!(noteアカウントが無くてもスキ出来るはずです。)


Day1のnoteでも書きましたが、たくさんの人に読まれることを望みます

なぜなら、聴覚障害がある方のイベント参加のハードルを下げたいから、また運営に携わる方へ情報提供をすることで、必要な準備、求められた情報保障等を提供しやすいように。

あ、うきうきテーブルに来てくれた方、お話してくれた方ありがとうございました。またお話しましょう。顔と名前がまだ覚えられていない方もいらっしゃるのでこれから覚えていきます。

また、今回、登壇やうきうきテーブルなどチャレンジングでしたが、快く受け入れてくださった運営の方々、携わっていただいた方々には感謝です。尊敬してます。遊び場として最高の砂場です。


次はもっと議論を活性化できるように。誰が参加しても楽しめるように。誰もが誰とでも話せるように。その場に参加した目的が尊重されるように。


以上。ふじえもん。


p.s.話したい事、音声入力させたら2万字越えになったけど、編集して1.3万字まで落としたのGood Jobだと思う。久々に大きなアウトプットが出来て嬉しい。まだ書いてないことあるような気がしてならない。いや、あるけど、今回はいいかな。



もしよかったらサポートお願いします! いただいたサポートは読書費用に充てます!