見出し画像

楽天テックカンファ2019イベントレポート

Rakuten Technology Conference 2019に参加するために、転職後はじめて二子玉川の楽天クリムゾンハウスに行きました。

GitOps, Jenkins X & the Future of CI/CD

所用で、聞きたかった川口さんのセッションは聞けず。あとで資料か動画が公開されないかなと期待してますが、時期的にこれに近い話かもしれない。

KeyNote

KeyNoteは平井さん、三木谷さん、平野さんの順番。前者2人は一般的な話や楽天の紹介だったので割愛。

平野さんは、CinammonのCEO兼創業者で、画像認識・音声認識を用いてビジネス上の業務効率化をはかるプロダクトを提供しているようです。

どちらかというと技術的な話というよりも、AI研究者には People Management と Business Understanding が重要といった人や組織の話が多かった印象です。分野的に競争が激しいので、技術のみで勝負するのは難しいけれど、顧客のニーズに寄り添って、カスタマイズできれば十分勝機がある、といった趣旨の話もされていました。

また、組織管理の一環として、メンバーを3つのソーシャルタイプと3つの興味範囲で9つのタイプに分類しているという話がありました。

一匹狼型
・内なるパッション
・知識、分析
・自分のペース
協調型
・調整・調和
・他者のサポート
・懸念の排除
リーダーシップ型
・達成
・楽しむこと
・コントロールすること

この手の分類って、例えば16種類の性格テストとかいくつかあって、個人的にも実際に組織を作る上で活用したいと思っていた時期もありました。ただ、生来アナログ値である個人の性格や性質を、ある種無理やり型に当てはめるわけで、レッテル貼りによる弊害も起こるのではないか、という気はしています。血液型診断によるブラハラの例なんかもありますしね。

Lunch

3種類から選べたので、一番ヘルシーな感じのやつを選びました。偶然、寺田さんにお会いして、近況報告をしました。

画像1

楽天は、2018年くらいから社内の会議をすべてZoomで統一しているのですが、その関係でZoomがスポンサーブースを出していました。話を聞いてみると、シリコンバレーでは既にSkype/Web EXはほぼ使われなくなっており、Google HangoutもZoomに置きかわりつつあるとのこと。

今後のロードマップについて聞いたところ、会話の即時テキスト起こしを予定しているとのこと。GoogleのSpeech to Textを裏側で使っているらしく、現時点では英語だけだそうですが、日本語の文字起こしを提供してくれるような会社と組めれば日本語も対応できると言ってました。

既に録音済みに動画に自動的にテキストを付与する機能はあって、楽天時代にも一度使った記憶がありますが、これが即時で行われるようになるのは聞き逃しが少なくなるという意味も良さそうです。

以前、Googleのカンファレンスで即時の自動文字起こしを見ましたが、将来のプレゼンや電話会議では文字起こしをしやすいように喋るスキルが要求されてくるかもしれないですね。

Fight back against Endless Phishing and Fake sites

最後にSVC(Support Vector Classifier)を使ってフェイクサイトを検知する方法について説明するセッションを聞きました。本日最後にして唯一の技術系セッションです。

最初にフィッシングサイトとフェイクサイトの違いについて、検知の難しさなどを絡めた簡単な説明がありました。

フィッシングサイト
誰でも知っているような本物のサイトを真似して、そっくりに作られているサイト。元となる本物のサイトが存在するため、その違いを分析するなどの検知の手法が取れる。

フェイクサイト
現実的にありそうな偽物のサイト。元となる本物のサイトが存在しないため、偽サイト同士の特徴などを比較する必要があり検知が難しい。

今までは、ブラック・ホワイトリスト方式や、URLの機械学習などをの手法で検知の主流であったが、前者は0デイアタック、後者は簡単にバイパスされてしまうという問題があったそうです。

その結果たどり着いたのがフェイクサイトのエコロジーの分析です。県警と協力してフェイクサイトの観察を行ったところ、大きく以下のようなライフサイクルが見つかったとのこと。

新規サイトを開発する
→ サービス(犯罪)開始
→ ユーザに気づかれて通報される
→ サイトへのアクセスがブロックされる
→ サイトをクローズし、また新規サイトを開発する

そこから、フェイクサイトのライフサイクルは短く、同時に似たようなサイトをたくさん作る必要があるため、ページの構造自体(DOM Tree)は似通っているはずという仮説を立てたそうです。

実際には、DOM Treeからサブパス(木構造の枝部分、X-pathの一部)を抽出し、頻度をカウントしてSVCを使って比較したとのこと。データ数がそれほど多くなくても高精度の結果が出せるためにSVCを採用したとのことでした。SVCについては以下が比較的分かりやすかったです。

結果として、1,000程度の学習データ(フェイクサイト)で、30ms程度で99.8%の精度で検知が可能な仕組みができたそうです。

まとめ

ゲストとして改めて行くと、セッション会場の環境(Wi-Fi完備、部屋によっては電源の完備)や食事、キッズスペースの提供などは優れていると感じた一方、技術に特化したセッションは少ない印象でした(これは、割と年によって左右される)。サテライトロケーションは逆に技術的なセッションが多かったような気がするので、あとで資料を読みたいです。

ただ、スタッフはほぼNon Japanese、セッションも大半が英語だったので、海外のカンファレンスに行くのはハードルが高いと思う人でも、国内で気軽に参加できるチャンスなのではないかと思いました。

この記事が気に入ったらサポートをしてみませんか?