![見出し画像](https://assets.st-note.com/production/uploads/images/78509710/rectangle_large_type_2_32e2f64faa178c5134b8912dcfdf82ee.png?width=800)
【W7.5】Bayesian_Parameter_Optimization_with_SVM_02_executed
【TOC_W7_plus_Bayesian_Parameter_Opt】
前回張り切ってworkflow (WF) 編集を一から記録し始めたものの、ただでさえ遅筆な私の記事更新でこの進行はだれも耐えられない遅さになると気づきました。
そこで編集後のWFをKNIME Hubにアップロードしました。
実は昨冬のうちに作ってあったので、既に十数名がダウンロードしてくださった様ですね。興味を持っていただいて嬉しいです。ありがとうございます。
(補足: Optimidzation extensionが入っていない方へ)
もしまだextensionをインストールしてない方はWFを開いたときに出るウィンドウで「OK」を押すと下記のようにOptimidzation extensionを入れることになると思います。
![](https://assets.st-note.com/img/1652496920942-BpITA0ehFz.png?width=800)
こうやって誰かが作ったWFをインポートすることで必要なextensionsを自動検出してインストールを指示してくれる機能は便利です。前回報告したextentionの完全手作業での導入より楽ですよね。
【デモデータの格納先】
TeachOpenCADDのW7のSVMに関係する部分のみを抽出するため、デモデータとしてW2の出力データを.table形式でworkflow内に格納しています。
![](https://assets.st-note.com/img/1652496983753-seLqwYHljd.png)
![](https://assets.st-note.com/img/1652497002731-UzWZWmb84q.png?width=800)
もし.tableファイル自体を見たい場合は皆さんご自身の環境のknime-workspace内のdataフォルダを探してください。
![](https://assets.st-note.com/img/1652497083171-FRTImjYCZe.png?width=800)
【TeachOpenCADDのデータ前処理】
![](https://assets.st-note.com/img/1652497118707-AihRFVLm53.png?width=800)
フローの内容はすでに報告している通りです。
【ハイパーパラメータ最適化ループ】
![](https://assets.st-note.com/img/1652497198289-AWxHHJDKRb.png?width=800)
グレーの四角の中はすでに説明したフローです。
そこで残りの6ノードを中心に設定を示します。
【Parameter Optimization Loop Start】
![](https://assets.st-note.com/img/1652497306049-3qe1vm2si1.png?width=800)
t-kahiさんの素晴らしい記事があるのでノードの説明は省いて良さそうです。
t-kahiさんとは異なる点は、ha-te-knimeさんに倣ってベイズ最適化を試みたことと、ハイパーパラメータを2のn乗で設定するためMath Formula2つを使ったことです。
設定:
![](https://assets.st-note.com/img/1652497385106-0TfhTUS174.png?width=800)
![](https://assets.st-note.com/img/1652497404516-Y3MOZmUryZ.png?width=800)
![](https://assets.st-note.com/img/1652497422714-qi83wAb8lg.png?width=800)
機械学習の10分割交差検証部分は既に紹介済みですが、random seedをTeachOpenCADD (TOC) の他のアルゴリズム (ランダムフォレストと人工ニューラルネットワーク) と合わせました。
![](https://assets.st-note.com/img/1652497459294-v5jrmjt65c.png?width=800)
そして、最適化ループを回すための指標ですが、Scorer(JavaScript)で算出したOverall Accuracyを選びました。
![](https://assets.st-note.com/img/1652497545714-aPJg1xxdM7.png)
![](https://assets.st-note.com/img/1652497561939-SNF0y5q2Rq.png?width=800)
![](https://assets.st-note.com/img/1652497690457-zZMeVpYUMx.png?width=800)
![](https://assets.st-note.com/img/1652497711840-iePFxBrPP3.png?width=800)
マシンパワーによるのですが、上記のループは一晩位かけて回しました。
結果:
![](https://assets.st-note.com/img/1652497751150-KrBbAdP27L.png?width=800)
ノードを右クリックしてAll Parametersで今回の結果を見てみると
![](https://assets.st-note.com/img/1652497780005-WoyJd9upUX.png?width=800)
43種の検討がされた結果、Best Parameterは
![](https://assets.st-note.com/img/1652497803378-TOpfthoy2x.png?width=800)
C_powerとsigma_powerともに1なので、実際は2の1乗すなわちCとσはどちらも2の時となったようです。
このハイパーパラメータを使ってモデルを再構築したのが一番右下のパートですので割愛します。
![](https://assets.st-note.com/img/1652497837097-m3HCX8Kvzx.png?width=800)
![](https://assets.st-note.com/img/1652497846292-YoGhKKkpce.png?width=800)
![](https://assets.st-note.com/img/1652497861602-PkQbiGV84G.png?width=800)
ROC Curveノードの設定もTOCの他のアルゴリズムと一致させています。
![](https://assets.st-note.com/img/1652497928465-7OZ6vJlJiK.png?width=800)
正解率はTOCオリジナルの56.33%から84.88%まで向上したので、チューニングした効果は十分あったと思います。
このように、皆さんのお知恵を借りることでいろいろと機械学習の技術を実装して体験することができました。
あらためて感謝して機械学習パートのW7を終えたいと思います。
次回はW7全体の振り返りをします。
おまけというかお願い:
【生兵法は大怪我の基】
![](https://assets.st-note.com/img/1652498622295-yUT9tOK8be.png?width=800)
素人が見よう見まねで先人の皆さまのWF からのツギハギをして機械学習を体験しただけなので、本来のあるべき様とは異なるのではないかと不安です。
もし間違った設定をしていたり、よりよいWF構成方法があるなどの改善案がありましたら、下記twitterへのDMなどでご教示いただけないでしょうか。
https://twitter.com/Note_of_KNIME
あるいは本記事にコメントいただくと言う形でも助かります。
記事を読んでいただきありがとうございます。 先人の智慧をお借りしつつ、みなさんに役立つ情報が届けられたらと願っています。 もしサポートいただけるなら、そのお金はKNIMEの無料勉強会の開催資金に充てようと思います。