見出し画像

AgilePBL祭りに参加したよ

こんにちは、ふじえもんです。
AgilePBL祭りというイベントに参加してきました。


登壇したよ

そこで、「発言を全て可視化したらワイワイ開発できた件」というタイトルで10分お話させていただきました。


内容は以前にもRSGT2023やスクフェス福岡でもお話ししたものから一部抜粋しました。

https://confengine.com/conferences/agile-pbl-2023/proposal/18059

お話した内容

  1. 聴覚障害とは?うきうきなっとうってどんなチーム?

  2. 発見したフレームワーク

    1. おーててつないでさあわたろ

    2. このゆびとーまれ

  3. デモ展示について(うきうきテーブル)

色々と共有したい内容はあったのですが、10分ということで、内容を絞ってお伝えしました。
詳細は過去のnoteやプロポーザルなどから、資料にアクセスできますので、そちらをご覧ください。

今年に入ってから毎月登壇していますが、しばらくは登壇するネタが無いのでお休みします。(2023/3/24時点)
毎回プロポーザルを出すたびにご採択いただいているため、非常に貴重な経験、学びを得ることができています。
スキして下さった方、関係者の皆様、ありがとうございます。


4月から、また色々と試行錯誤、実践する機会に恵まれそうなので、来年度も何件か登壇したい。

最近、イベントに参加する度に後輩を巻き込んでいるのですが、次は発表したい!今ある材料で登壇イケる?って言ってくれたのでホクホクしてます。

とは言え、情報保障についてはまだまだ足りないのでどんどん仮説検証したい。


気になっていた発表

学生の成果発表が多く、enPiT修了生による講演もいくつかありました。

どれも面白いプロダクト、学びでした。

なかでも気になっていたのは、2つ。

notch_manさんの「最高の開発手法、アジャイルを捨てよう!!」

寝るころによくツイートを見かけるのでずっとどんな人なのか気になっていました。
なんでアジャイルをやるのか。開発手法ってなんで生まれたのか。

改めて振り返ることができたのと、いろんなフレームワークあるけど、そもそもなんでそれをやるのか、それを取り入れることでどんな嬉しいことがあるのか見つめ直した時間でした。

noteは以前一通り拝見したのですが、これまでの体験とか今やっていることについてもっともっとプレゼン聞きたいなぁ…と思った時間でした。

あざみさんの「enPiT修了生は、大学卒業後の一歩をどう選んだか」

就活でどう振る舞ったか。

既に、第一志望先から内々定をいただき、就活は終えていたので、やっぱりそうだよなあ。それ大事だよねえ。となった時間でした。

就活していたときは、

  • 自分がどんなことをやってきたか

  • どういう考えで行動しているか

  • どんなことをしたいか

  • これから目指すもの

  • 企業に求める条件、環境は?

とか、色々考えていて、選択肢もたくさんあったのですが、

就活担当の教員とか院の先輩とかいろんな方にお話を伺って、院進か就職かの二択で迷い、どの分野のどんな仕事をするかでも迷っていました。

就活の期間で、自分を見つめ直すとともに、自分だけで問題を抱えずに他人に相談してみたり、インターンや企業説明会のときに人事の方に、気になることを率直に聞いてみたりするようにしていました。

自分の見えている視野、持っている情報が正しいのか、どうギャップがあるのかを早めに確認しておいた方が良いと思ったからです。


「一人で抱えない」

インターンシップの報告会でも、なんで「一人で抱えない」と考えて行動できていたのか、質問をいただきましたが、チーム開発とかグループワークとか、自分だけでなく何人かと作業をする場面で培われた価値観の一つで、「その場で何をしたら、自分の力やメンバーの力、経験が生きるのか」をずっと考えた結果なんじゃないかな。

  • 属人化を防ぐ・必要最低限に収める

  • 何も進まないを防ぐ・小さな一歩でも前に進めるようにする

  • 他人目線の情報を取り入れて、状況を見直す

以上の効果があるので、プロジェクトを円滑に前に進めることに必要不可欠だと思っています。

で、発表を聞いての学びは

悩んだら、まず仮説を検証してみる。やってみる。

です。変化を恐れて、悪くなることを恐れて手が進まないことがあるんですが、変化を恐れていたらそのままだよなあ。。

大概、何かやるときは、思い切って何にも考えずに行動してうまく行くことが多いので、しばらく楽観的になってみる。

先日、技育祭でとあるセッションを見た後の感想です。


セッション後の語らい

すべてのセッションが終わった後にaki.mさんときょんさんにお話を伺いにいきました。
最近、読書、「学び」と「自分が何を楽しいと感じているのか」について考えています。

Goodnotesにまとめてみたり、Scrapboxにまとめてみたりと色々と試行錯誤しているのですが、そろそろ「学び方」をアップデートしたいと何となく思い始めています。

というのも、確かにたくさん本を借りたり調べてはいるんだけど、なーんか物足りない。今一度、読み方を見直したい。

ということで、

お二人のブログやこれまでの講演を拝見して、直接お伺いしたい!と考え、お話に伺った次第です。

色々お話を伺ったのですが、次からやってみたいことは

  • 本の内容をリーンキャンバスにまとめてみる

  • 聞きながら感想を書く

  • ある本とある本との差分を探す

  • どういうコンテキストでその言葉が扱われているのか比べる

実は前々からお話に伺いたかったものの、中々タイミングが合わず…やっとお会いできて嬉しかったし楽しかったです。
ありがとうございました。

また新たに学びがあったら報告しに行きます。

聴覚障害向けの情報保障

また、今回はUDトークという音声認識アプリを用いて、ピンマイクを登壇者に使っていただき、文字起こしを行いました。

音声認識アプリはいくつかありますが、今回の選定の基準としては、

  • 共有しやすい

  • 時間制限が無い(無料で使える範囲で)

この2点です。

音声認識エンジンはAmiVoiceの高精度です。

AmiVoice編集用、AmiVoice高精度、OS組み込みの音声認識エンジンから選ぶことができますが、高精度を選んだ理由としては、

  • 一方的に長く喋る

  • 編集者が少ない

以上の2点です。
1セッション10分で、10組の登壇及びオープニング・スポンサートーク・クロージングがあり、どれも長く一方的に話すシーンが続きました。

また、編集者が少ないことも想定していました。
そもそも音声認識を使わない、知らないという人もいるだろうし、あまり馴染みがないという人がほとんどでしょう。
自分も大学に入るまでは、そこまで深くは知らなかったし。今も、話す立場のときに使うことが多く、聞く立場で使うことは滅多にありません。

音声認識は、文字を打つ手間を省くことができるため大変便利です。
電車内とか室外とか声を出しにくい空間だと使いにくいですが…

室内にいるときは、音声入力でブログを書いたりチャットしたりと便利に使えます。


気を抜くとすぐ脱線するので話を戻しますが。

で、情報保障については、オープニングにて軽く聴覚障害と聴覚障害向けの情報保障について全体に説明するお時間をいただき、UDトークのトーク情報の案内をしました。

各講演中、ピンマイクを使ってお話いただき、各々の端末から音声認識結果を確認していました。

今回は、とくに聴き取りにくいといった場面もありませんでしたし、ピンマイクもうまく着けられていたためか、音声認識はすこぶる順調でした。

だから、2人でもなんとか修正が間に合ったのかもしれない。

とはいえ、講演を聞きながら、Discordでワイワイしながら、認識結果を確認するのはまあまあ大変なので、

無償でやるなら、運営やボランティアの方にご協力いただく。

予算をかけられるなら、外部に委託をする。(理想)

ちなみに、私は、修正は「UDトーク for Windows」を使っていました。
端末でも、直接直せるのですが、PCでやった方が打ちやすいです。


情報保障、まだまだ足りないんだけど、どうしたものか…

地道に広めてくしかないなあ。。

そういえば、最後のクロージングのとき、聴衆にマイクが渡ったシーンがあったけど、ピンマイクを渡していなかった(ような)ので音が入っておらず、その間音声認識がされていませんでした。。

ピンマイク他にもあったし、運営に預けた方が、すぐに対応してもらいやすそうだなー(気が付いてたけどチャットとかで知らせるの日和ってしまった..)


あとは、デモ展示のときの情報保障はほぼできてなかったなあ。

ピンマイクをいくつ用意できるかだな。メンバー分用意して、音声認識を使う端末と繋げて、それぞれの展示でそれぞれのトークで認識できるようにした方が良さげ。

色んな声が混じっている環境だけど、ピンマイクを使えば、十分意味が理解できるほどの認識精度は得られる。

或いは、展示の説明者にマイク付きイヤホンとかを使ってもらって、「話す人に音声認識を行いながら説明をしてもらう」のもありかも。寧ろ、こっちの方が音声認識の使い方としては自然。

実際行ってみると、いろんなことがわかるので、やはり仮説を立てて検証するのは大事。

おまけ-NrealAirと音声認識

同席していた同期が、NrealAirを用いて音声認識結果を見ながら発表を聞いていましたが、中々面白い使い方でした。
端から見れば黒いサングラスかけてて、いかついなーって感じですが。(偏見)

  • 視線移動が少ないので、会話しながら音声認識結果を見るには楽。

  • 音声認識の結果の出し方に工夫が必要。

一瞬だけ体験させてもらいました。やはり、↑の2点を感想として抱きました。

ARグラスはいくつか体験したことがあるのですが、透明な方が、目が見えるのでコミュニケーションしやすそうだなーと思っています。(目の動きが見えにくいのに何か不安を感じる..なんでかはわからない)

動かないで作業するなら今のままでもいいですが、透明な方が使い勝手が良く普及しそう。
値段は中々安い!とは言えないですが…

そのうちAppleからARグラスが出るみたいなので体験できたら体験したいなあ…

普段メガネをかけているので、レンズの度さえすぐに調整できれば購入を検討するのですが、今のところ、そこまで惹かれるほどの機能性は感じていないし、しばらくは購入することはなさそう。

詳細はその内、彼がnote記事を出すでしょう。(と煽っておく。)

おまけ-名古屋のメシと観光

名古屋に行くなら、名古屋メシ食べたい!名古屋城見たい!ということで行ってきました。良き体験でした。

  • 名古屋城行った

城を見たのは二条城以来?だから5年ぶりとかそのぐらい。きしめん食べた。うどんときしめんだときしめん派。
歴史はしばらく触れてなかったので、展示を見てもあまりピンと来なかったなあ。。名古屋は三英傑の出身だけど、名古屋城に関わった大名の名前とかは知らなかったから、へぇーーとしか思わなかった。。(徳川家の人物の名前は歴代将軍ぐらいしか知らない。)
時代行列を見て、なぜか盛り上がった。

しかし、名古屋城というアトラクションをどう楽しんでいいものかわからず、ずっと謎のボケを連れとしていた。子ども心を思い出す必要があったかもしれない。

  • 名古屋市立科学館行った

最近、所用でつくばエキスポセンターに行ったので、あまり科学に関する新たな感動はほぼ無かったけど、小学生向けの展示がいっぱいあったので、週末とかに遊びに行ける名古屋民羨ましい。

  • 鶏食べた

鳥刺しとか馬刺しとかも食べました。
↑の写真にあるのも食べました。色々な部位を食べられて良い体験だった。

地鶏坊主は、日本酒豊富でした。名古屋ということで、醸し人九平次をいただきました。味はよく覚えていないけど美味しかったです。(そろそろ酒のレポがうまくできるようになりたい)
焼き鳥とどて煮旨かったです。どて煮は連れには不評でしたが…

東京に戻ってからは、神座に行きました。連れがお気に入りなので、彼に忖度してラーメン食べに行きました。彼と東京に行く度に連れていかれます。美味しいのでおすすめです。

あ、ひつまぶし食べてなかった。台湾ラーメンも。どっかで、再ちゃれんじ。誰か連れてってください。

ということで、久しぶりにがっつり書いた。

今後は、5千字も書かなくていいから、500字程度でさくっと参加記を書いてみると、継続できるという面で良いかも。

以上。ふじえもん。

もしよかったらサポートお願いします! いただいたサポートは読書費用に充てます!