Web3キーパーソンが語るデータ分析の重要性
こんにちは、りょーです。
今回はWeb3のキーパーソンが語るデータ分析の重要性を、最近の自分の取り組みをベースにまとめていければと思います。
最近はSpotify独占配信になったPodcastの運営をしつつ、データサイエンティストとして次のキャリアを開拓しようと"Web3×データサイエンス"をテーマにした「Fungible Analyst」に記事をしたためています。
そんな中noteで、Aster Networkの渡辺創太さんが書いた「Web3の「日本人的」な戦い方 情報収集とデータ分析」という記事を見つけました。
僕が今データサイエンティストとして情報を整理している部分と非常に近く、かつ実務に重きが置かれていておもしろいなと思ったので、今回はその記事を軸にWeb3におけるデータ分析の重要性を見ていこうと思います。
実務でどのように利用されているのか?
記事の中では、以下の指標に注目していると記載されていました。
ここでTLVとは「Total value locked」の略で、プロトコルに預けられた暗号資産の価値と解釈されます。プロジェクトのTVLは、ユーザーが暗号資産を新たに預けたり、引き出したときだけ変化するわけではない。暗号資産市場の中で変動する暗号資産の価値に合わせて、常に変化していることになります。
ブルマーケット(上昇相場)でTVLを、ベアマーケット(下降相場)でアクティブアドレスを見ていくということは、
相場がいい時はどう流通が活発化していくのかを見ることができ、相場が悪い時にでも動くトランザクションを見ることでサービスの最低限の取引頻度及びその底力を確認できるという意味なのではないかと推測しています。
他にも興味深い記述がありました。
Web3では、他サービス内でのトランザクションを分析できる特徴があります。例えばNFTマーケットで有名なOpenSeaの中で行われるトランザクション(取引)などを誰でも確認できます。
このように、Web3業界におけるデータ分析は、自身のサービス内を深掘りしていくことだけが重要なのではなく、他サービスまでカバーして分析し、そこにビジネス視点をしっかり持って解釈していくことで戦っていく必要があるということです。
これまで業界特化での分析スキルを培ってきたデータサイエンティストは、これからより包括的な分析スキルとビジネス的な知見を蓄積していく必要があることになりそうです。
利用されているデータプラットフォーム
ここで紹介されていたのは大きく4点でした。
DeFi Llama : https://defillama.com/
DappRader: https://dappradar.com
Dune Analytics:https://dune.com/browse/dashboards
Messari:https://messari.io
この中でもDune AnalyticsはSQLのクエリを用いて比較的容易にデータ分析をできるプラットフォームとして知られており、資金調達も順調な企業です。
私が運営している「Fungible Analyst」でもスターターマニュアルを作成し、中身をいろいろ見ていたります。
DeFi Llamaは、非中央集権型の分析ダッシュボードで、EthereumやTerra, BinanceなどのDeFi TVLを追跡できるサービスとなっています。
記事の執筆者である渡辺創太さんのAsterのデータも確認することができました!
Messariは、これまで注目したことがなかったので、どういったデータが取れるのか確認しつつ、Fungible Analystの中でも取り上げていこうかなと思います。
まとめ
実務でデータを見ている方が、どういったプラットフォームで、どういった指標を参考にしているのかがわかっただけでも僕としてはかなり収穫の大きい記事でした。
これまで国内3,000万人超のデータを見てきたり、国際宇宙ステーションにある観測器の10年以上の宇宙全体の画像データの処理と分析をずっとやってきたり、Podcastのデータを見てきた僕の知見は、きっと包括的にデータを見ていく必要のあるWeb3でのデータ分析では活かせそうと感じました。
(転職期間中で、次はもっとスピーディーかつリアルタイム性のあるデータ分析に身を置く予定)
もし渡辺さんにこの記事をチラッとでも見てもらえたら嬉しいなと思いつつ、データ分析で台頭して行こうと改めて思った記事書きでした。
もしよかったらFungible Analystもよろしくお願いします。
よければサポートをお願いします!いただいたサポートはより良い記事を配信するための活動費に使わせていただきます。