最近の記事

統計検定準一級受験記録⑤ 6章

検定準一級受験時に重要だと思った点を、統計学実践ワークブックをもとに僕なりにまとめていきます。専門的、厳密な解説はできませんが、誤りなどのご指摘があれば加筆修正を行っていきます。 6. 連続型分布と標本分布まずは出てくる分布のまとめ。 赤枠は頻出です! 個別のコメントは下の方で書いていきます。 6-1 連続一様分布 0から1の範囲の乱数を得るために$${U(0,1)}$$が使われる。 この分布自体が主題になるようなことはほぼない。 6-2 正規分布 必須中の必須。

    • 統計検定準一級受験記録④ 5章

      検定準一級受験時に重要だと思った点を、統計学実践ワークブックをもとに僕なりにまとめていきます。専門的、厳密な解説はできませんが、誤りなどのご指摘があれば加筆修正を行っていきます。 5. 離散型分布まずは出てくる分布のまとめ。 赤枠は特に重要で今後頻出です! 分布の式は、意味を覚えて導出できるようになるのがベスト。 自信がなければ二項分布、ポアソン分布は覚えておくといいかも。 期待値と分散も、二項分布、ポアソン分布は覚えておいて損はないはず。 ベルヌーイ分布は二項分布に

      • 統計検定準一級受験記録③ 4章

        検定準一級受験時に重要だと思った点を、統計学実践ワークブックをもとに僕なりにまとめていきます。専門的、厳密な解説はできませんが、誤りなどのご指摘があれば加筆修正を行っていきます。 4. 変数変換この章ではとりあえず式を覚えてしまうことが先決だと思います。 応用として確率変数の線形結合の分布を求める方法があるので、余裕があればそちらを理解するといいかと。 この記事では4-1~4-3で覚えるべき式を列挙し、4-4で変数変換の式の導出について少し触れます。 4-1 変数変換に

        • 統計検定準一級受験記録② 1章~3章

          今回の記事から、統計検定準一級受験時に重要だと思った点を、統計学実践ワークブックをもとに僕なりにまとめていきます。専門的、厳密な解説はできませんが、誤りなどのご指摘があれば加筆修正を行っていきます。 1. 事象と確率1-1 事象と確率 ■包除原理 $${P(A \cap B) = P(A) + P(B) - P(A \cup B)}$$ 基本の式。$${P(A)}$$と$${P(B)}$$を足すと$${P(A\cap B)}$$の部分がダブるので、それを引くとちょうど$$

        統計検定準一級受験記録⑤ 6章

          統計検定準一級受験記録①

          1. はじめに1-1 自己紹介 初めまして、ゲンオオイワ(twitter : @gen_oiwa)と申します。 去る2023年3月2日、統計検定準一級を受験し、無事合格することができました。 勉強を始める前の事前情報では、 ①単純に内容が難しい ②範囲が広くて覚えることが多い とのこと。実際その通りだと思いました。 対象の範囲は一通り勉強したのですが、やはり範囲が広いため、最終的には自分なりに的を絞って本を読み返したり式を覚え込んだりすることになりました。その辺り、どう

          統計検定準一級受験記録①

          ラビットチャレンジレポート:ステージ4 深層学習 day4

          1. 強化学習1-1 要点 ■強化学習とは 教師あり学習、教師なし学習と並ぶ、機械学習の一分野。 教師あり・なし学習は、データに含まれるパターンを見つけ出すことと、そのデータから予測を得ることを目標としている。 強化学習では、行動の結果として与えられる利益(報酬)をもとに行動を決定する原理を改善していく仕組みを用いて、環境の中で長期的に報酬を最大化できるような行動を選択できるエージェントを作ることを目標としている。 ■探索と利用のトレードオフ 環境について事前に完璧な知識

          ラビットチャレンジレポート:ステージ4 深層学習 day4

          ラビットチャレンジレポート:ステージ4 深層学習 day3

          1. 再帰型ニューラルネットワークの概念1-1 要点 ■RNNとは 時系列データに対応可能なニューラルネットワーク。 時系列データとは、時間的順序を追って一定間隔ごとに観察され、相互に統計的依存関係が認められるようなデータの系列。 例)音声データ、テキストデータ等 時系列モデルを扱うために、RNNは初期の状態と過去の時間t-1の状態を保持し、そこから次の時間tでの出力を再帰的に求める再帰構造を持つ。 上記のように、RNNでは$${z^{t-1}}$$が出力$${y^{t

          ラビットチャレンジレポート:ステージ4 深層学習 day3

          ラビットチャレンジレポート:ステージ3 深層学習 day2

          1. 勾配消失問題1-1 要点 ■勾配消失問題 ニューラルネットワークが深くなっていくと、誤差逆伝播法が下位層に進んでいくに連れ微分値が掛け合わされていき、勾配が0に近づいていく。こうなるとパラメータはほとんど更新されず、訓練が最適値に収束しなくなってしまう。 活性化関数にシグモイド関数を用いた場合を考えると、$${f'(u)=f(u)(1-f(u))}$$であり、最大値は0.25である。このような小さな値が掛けられていくと、上記の勾配消失問題を引き起こすことが予想できる。

          ラビットチャレンジレポート:ステージ3 深層学習 day2

          ラビットチャレンジレポート:ステージ3 深層学習 day1

          ニューラルネットワークの全体像は下図のようになっており、それぞれの部分ごとにレポートをまとめていく。 1. 入力層~中間層1-1 要点 ■入力層 処理するべきデータを数値として受け取る層。 受け取った値は重みを掛け合わされた後、バイアス項とともに足し合わされ、中間層の各ノードに渡される。 数式上は $$ \begin{align*} u&=w_1x_1+w_2x_2+w_3x_3+w_4x_4+b\\ &=\bm{W}\bm{x}+b \end{align*} $$

          ラビットチャレンジレポート:ステージ3 深層学習 day1

          ラビットチャレンジレポート:ステージ2 機械学習

          1.線形回帰モデル1-1 要点 ある入力(説明変数)から出力(目的変数)の振る舞いを直線で予測するモデル。入力を$${\bm{x}}$$出力を$${y}$$とし、$${\bm{x}}$$は以下のように表される。 $$ \bm{x}=(x_1, x_2,\dots, x_m)^\mathsf{T} $$ 重みパラメータを$${\bm{w}}$$、モデルの予測値を$${\^{y}}$$とすると 予測値$${\^{y}}$$は入力$${\bm{x}}$$とパラメータ$${\b

          ラビットチャレンジレポート:ステージ2 機械学習

          ラビットチャレンジレポート:ステージ1 応用数学

          第一章 線形代数1-1 要点 スカラー、ベクトル、行列の違い ■スカラー  ・普通の数  ・四則演算が可能  ・ベクトルに対する係数になる ■ベクトル  ・大きさと向きを持つ  ・スカラーのセットで表示される ■行列  ・スカラーを表にしたもの、ベクトルを並べたもの  ・ベクトルの変換に使われる 行列同士の積は次のように定義される 行列は連立方程式の表現にも用いられる。 例として 上記の連立方程式は下記のように表現できる。 左辺の行列と右辺のベクトルに、左辺の行列が

          ラビットチャレンジレポート:ステージ1 応用数学