見出し画像

de:code2019に行ってきました! 1日目

5/29・30に行われたMicrosoft主催のイベント、
de:code2019に行ってきました。

de:codeってなんだよって方はこちら

せっかく行ったのに何も書かないのはあれだ!ということで、当日受講したセッションなど思い出しながらピックアップして振り返っていきます。


仏像の表情分析@基調講演

阿修羅像は23歳!!若い!!
奈良大学とMSのプロジェクトで、AIを活用して仏像の表情や年齢を分析し、時代ごとの特色などを調べているようです。
特設サイトにはほかの仏像のデータもありました
眺めた感じだと悲しみ軽蔑が多めな感じ、、、
空也上人は怒りが多い
利用されている「Emotion API」はそのうち使ってみたいです。
リアルタイムに確認できればカウンセリングとかにも使えそうですよね。
ツールを使ってる時のユーザの表情分析して使いづらいポイント見つけるとかもできそう。


リアルタイム翻訳@基調講演

文字起こしすごかった。英語勉強しなくていいのでは。
音声翻訳もすごいんですが、感情とか抑揚がなくて内容が頭に入って来ず、、、
すぐにイヤモニ外して英語で聞いていました。
他にも入力した文字が9か国語にリアルタイムで翻訳されるデモがあり、
言語という壁が取り払われつつあるんだなと思いました。


Microsoft365@基調講演

メールとカレンダーの連携による、
ユーザ操作の導線予測とシームレス化のお話でした。
UI改善とUX推進です。

アプリ作る時って
ユーザがこの画面で何をしたいのか
何ができれば嬉しいか、
など、当然色々考えるんですが、
極論何でもできるようにしておくのが楽なんですよね、本当は。
ここでいう何でもは本当に「なんでも」です

ただそうするとシステムがいつまで経っても完成しないというか、完成像が定まらないし、UIが雑多になりがちでユーザビリティが良くない
なのでユーザ像(ペルソナとか言われるやつ)を作って予測して機能を絞る、もしくは分ける。
ここで間引かれた機能やら何やらは、また別のアプリとなりユーザ像を作って予測して…となっていると思います(大体は)。

そうして作成したアプリたちをリリースすると、間引かれた機能を使いたいとか、Bの機能の一部をAで使えるようにしてほしいなどの要望がまま出てきます。
一つのアプリでなんでもできるようにするってことですね。

ありがちな解決方法はその機能をそのアプリに実装してしまうものです。
これ、結局使われなくなる(ことが多い)し、大抵短期間でリリースすることになるので、内部のアーキテクチャは大体壊れます。
壊れなくてもヒビくらい入ると思うので繰り返してるうちに壊れます。
そしてそのうち誰もメンテできなくなって作り直しになります。
筆者の技術力では、まあ崩壊すると思います
稀に実装が大成功して大躍進を遂げるアプリもあります、
が、最初のユーザ予測ができてないことになるので詰みです

それに一つのアプリに機能を付け過ぎるのはリスクヘッジの観点からしてもよろしくないです。

じゃあどうすればいいのか、ということで連携です。
最近のアプリには大体API(干渉できるところ)があって、
もちろんお作法はあるものの、案外簡単に連携できたりします。
どんどんマイクロサービス化していこうってことですね。
こっちはわりとうまくいきますし、その後も継続してスケールできます。
もちろんちゃんと設計していれば

ただ、連携は繋ぐ先のアプリが増えると肥大化しそうですよね。
そこらへんの解決方法ってどうなんでしょう。
最終的にはHUB的なプラットフォームを作って、そこ経由で連携、って感じになるのでしょうか。
この辺りの知見はないのですが、今の自分ならそうすると思います。


HoloLens@基調講演 & HoloLens系セッション (CM01/CM05)

発音、ホ↑ロレンズなんですね、ホロ↑レンズだと思ってました。

事例としては、現場で働くファーストラインワーカーの働き方改革、ということでしたが、正直革命だと思っています、これ。

筆者は以前で割と大きめなNWの保守オペレータをやっていたことがあるんですが、機器故障が発生した時は筆者が直接現場に行くわけではなく、契約している保守作業員の方を現場に派遣して、こちらが遠隔で統制して実作業をやっていただく、という業務フローだったんですね。
遠隔での統制は電話で行うため、現場の状況説明や実作業の進行は口頭での伝達となり、認識の違いによって作業が滞ったり、ミスをしてかえって障害が大きくなってしまう、、、ということがままありました(幸いなことに筆者は経験しませんでしたが)。

そこでHoloLens(実際のアプリはDynamics 365 GuidesRemote Assist)、革命です。

似たようなものは過去にもありましたが、
書き込みが2Dのみだったり、ガイドが文字で出るだけだったりしたので、実際の装置に被せられる手順書ってだけでもすごいです。

今の働き方改革ってオフィスワーカー向けなものばかりで、現場で働いている方々向けなものがあまり見当たらなかったので、、、
どんどん導入されていってほしいです。


VUI(CM13)

かなり注目している技術のセッションだったので受講しました!!
ちょまどさん目当てではありません!!(受講前は確かにそうだった)
後ほど懇親会にて限界オタクムーブを行いステッカーいただきました、ありがとうございました。

さておき、VUIです。
セッション中の誤発砲の多さにVUI技術(音声アシスタント)はまだまだ発展途上なものだと改めて感じました。
文脈判断くらいはやっぱりほしいですね。
Amazonがウェイクワードより前の発声を分析できる可能性のある技術の特許をとったとか

あと音声返答は一度発火した後の停止がUI的に難しいです。
話している言葉を遮らなければいけないので、大きな声を出しがちになり、結果としてユーザの幸福度が下がることが予想されます。
口調が荒くなったりして何となく後味が悪くなったこと、お持ちの方は少なからず経験あるのではないでしょうか。
指を弾いたら止まるとか、別のアプローチでも止まるべきですよね、現状は話し始めたら物理か声で止めるしかないですし。。。

VUIは時間があるときにもっと突っ込んで学習したいです。


懇親会

たくさん飲みました。
ケイスケホンダがいました。

おわり

以上、1日目終了です。
2日目はもう少し濃いです。

2日目へ

散財します。