Maxwell
Profile:
http://bit.ly/2NP2dhQ
記事一覧
固定された記事
![](https://assets.st-note.com/production/uploads/images/29300547/rectangle_large_type_2_ea6ec4e776e6d4f8c8a2c1532f77f314.jpg?width=800)
SpecAugment: A Simple Data Augmentation Method for Automatic Speech Recognition
Daniel S. Park, William Chan, Yu Zhang, Chung-Cheng Chiu, Barret Zoph, Ekin D. Cubuk, Quoc V. Le Google Brain SpecAugment は Google Brain チームから提案された speech recognition における spectrogram の data augmentation の手法.約 1 年前に(本記事を書いている現在は Jul. 2020)
![](https://assets.st-note.com/production/uploads/images/28116179/rectangle_large_type_2_4f9d0e29c0bff77dee4332976e02bfe5.jpg?width=800)
Validity and Efficiency of Approximation Methods for Tied Survival Times in Cox Regression
Irva Hertz-Picciotto and Beverly Rockhill BIOMETRICS 53, 1151-1156 Sep. 1997 1. Abstract セミパラメトリックなCox 比例ハザードモデルは,生存時間の確率分布を仮定していないため,サンプルのイベント発生順をもとに尤度の式を決定するモデルである.分析に使用するサンプルを常にモニタリングすることができていれば,生存時間 および イベント発生時点 を正確に計測できるが,現実問題としてそれ
![](https://assets.st-note.com/production/uploads/images/25478549/rectangle_large_type_2_fc16c13865f5eddc57aac0d24f906f1c.jpg?width=800)
The Lovasz-Softmax loss: A tractable surrogate for the optimization of the intersection-over-union measure in neural networks
Arxiv Tensorflow / Pytorch implementation Demo 1. Abstract 1-1. Loss function for direct optimization w.r.t Jaccard index 1-2. Optimizing the Jaccard index in a continuous optimization framework 1-3. Lovasz hinge loss: binary im