記事一覧
物体検知・セグメンテーション
・広義の物体認識タスク:
一例:
・代表的なデータセット:
・PrecisionとRecall:
適合度(Precision)
“りんご”と予測したもののうち、実際にあたっていた割合
再現度(Recall)
“りんご”の真値のうち、ただしく予測された割合
・IoU(Intersection over Union):
・Precision/Recallの計算例(人のクラス):
・
Transformer
・機械翻訳の歩み:Encoder-Decoder Model ⇒ Transformer (Encoder-Decoder x Attention) ⇒ BERT
・TransformerーAttention is all you need:RNNを使わないで高い翻訳精度を達成した。Transformer主要モジュール
・Attention:二種類ある
AttentionとはQuery Q
Attention Mechanism
・Attention Mechanism:seq2seq だけでは長い文章への対応が難しかった。なぜなら、長い文をRNNの最後の層まで伝達してその中間層結果であるcontext vectorは先頭の文の情報を失ってしまう。文章が長くなるほどそのシーケンスの内部表現の次元も大きくなっていく仕組みが必要になる。Attention Mechanismは「入力と出力のどの単語が関連しているのか」の関連度を
もっとみる再帰型ニューラルネットワーク(RNN)
・RNN:
時系列データ(株価、音声データなど)に対応可能な、ニューラルネットワークである。
・RNNの数学的記述:
u[:,t+1] = np.dot(X, W_in) + np.dot(z[:,t].reshape(1, -1), W)z[:,t+1] = functions.sigmoid(u[:,t+1])np.dot(z[:,t+1].reshape(1, -1), W_out)y
畳み込みニューラルネットワーク(CNN)
・畳み込み演算:
上の図のように画像は結局0~255の二次元の行列である。この二次元行列に以下の演算を行うことが畳み込み演算である。
左の行列が画像に相当する。真ん中の行列は畳み込みの重みw(フィルター)で、右の行列が畳み込み結果である。
・畳み込み層:画像など高次元データを処理する際に用いられる特殊なネットワーク構造。上記のフィルターの値を最適化することが畳み込みニューラルネットワークの学