見出し画像

小学生も使える機械学習を使ってみよう!新拡張機能〈TM2Scratch〉について

皆さん、Teachable Machine ってご存じでしょうか?👀

Google が作っているサービスで、コードを書かずに独自の画像、音声、ポーズを認識するようにしちゃうスゴいサービスなんですよ。

画像1

動画引用先:Teachable Machine

このサービスは、6才児の子どもでも使えるサービスだと紹介している記事もあるくらいで[LINK]、数年前までは Python などで沢山のコードを書く必要あったのに、簡単に使えるようになるなんて良い時代ですね。

そして最近、この Teachable Machine を Scratch 3.0 で使えるようにする拡張機能が開発されました🙌

その名前は「TM2Scratch」です。

kurikit のビジュアルプログラミング環境は Scratch 3.0 互換なので、このたび導入させて貰いました🤩

TM2Scratch は様々なの方々の尽力によって作られており、以下のライセンスで公開されております。

TM2Scratchには, BSD 3-Clause Licenseが適用されます。
Copyright (c) 2020, Junya Ishihara(https://github.com/champierre) and Koji Yokokawa(https://github.com/yokobond) All rights reserved.
https://github.com/champierre/tm2scratch

では、使ってみましょう!🙋

必要なもの

・パソコン
・Web カメラ(ノートパソコン、またはUSBカメラ)
・Chrome

Teachable Machine は画像・音・ポーズを学習させることができますが、今回は「画像」を使ってみるので Web カメラを用意してください🙋

TM2Scratch を使うまでのステップ

この記事では次の4つのステップに分けて、TM2Scrach の使い方を説明します。

1.Teachable Machine でWeb カメラの画像を学習させる
2.学習させたモデルをアップロードする(Teachable Machine の機能)
3.TM2Scratch でアップロードしたモデルを読み込む
4.ビジュアルプログラミングで、学習した画像を見分ける

Teachable Machine で学習させてみる

今回は、Teachable Machine で何か2つのものを見分けるようにします。

何か2つのものはカメラに写るものなら何でもいいんです😁
例えば、
・「コーラ」と「スプライト」
・「マスクを付けた顔」「マスクを外した顔」
・「お父さん」と「お母さん」
・「自分」と「人形を持った自分」

2つのものを決めたら、下のURLの記事が学習させる方法を詳しく説明してくれているので、下の記事に従ってモデルを学習します🏃

モデルを学習できたら、この記事に帰ってきてくださいね🙋

使い方を知っている方は、Teachable Machine をこちらのリンクから開いて学習させてきてください!

僕は「スプーン」と「フォーク」を見分けられるようにしてみました。

画像2

これでモデルを学習させることは完了です🙌

学習させたモデルをアップロードする

次はこの学習させたモデルを TM2Scratch で使えるようにしましょう!

1.下の画像のオレンジの枠の部分「モデルをエクスポートする」をクリックします。

画像3

2.この青い色の画面が出てくるので、次のオレンジ色の枠の部分「モデルをアップロード」をクリックします。

画像4

3.「共有可能なリンク」という部分に新しくURLが表示されます

画像5

このURLは大事なURLなので、コピーアンドペーストして保存しておきましょう🙋

https://teachablemachine.withgoogle.com/models/NlLwR3S86/

ビジュアルプログラミングに TM2Scratch を追加する

kurikit のビジュアルプログラミングで、TM2Scratch のブロックが見えるようにします。

1.kurikit のビジュアルプログラミングを開いたら、左下の青いボタンを押します。

画像6

2.オレンジ色の枠で囲われた部分をクリックします。

画像7

こちらは開発中の画面です。TM2Scratch の場所は変わっている可能性があります🙋

3.クリックすると、元のビジュアルプログラミングの画面に戻ります。

画像8

これで TM2Scratch を追加することができました🙌

TM2Scratch 拡張機能を使ってみる

最後に、TM2Scratch で学習させたモデルを使って、2つのものを見分けみましょう!

使うブロックは、こちらの3つのブロックです。

画像9

まず、アップロードしたモデルを読み込むために「画像分類モデルURL」というブロックにコピーしておいたURLを入れます。

画像10

URLを入れたら、このブロックをクリックします。クリックすると黄色い枠が表示されて、モデルの読み込みが始まります。少し時間がかかるので黄色い枠が消えるのを待ちましょう🕺

画像11

黄色い枠が消えると、「画像ラベル(のどれか)を受け取ったとき」の中身に、先ほど学習させたものが表示されているはずです!

画像12

これで、学習させた2つのものを見分けることが、ビジュアルプログラミングの中でできるようになりました👏

例えば、こんな風にプログラミングをしてみましょう。

画像13

すると、「スプーン」と「フォーク」を見分けて、言うことを変えるプログラミングができました🙌

画像14

TM2Scratch とココロキット+を使った作例はこちらから!

随時作例を公開予定です!

TM2Scratch で物を見分ける能力をつけて、ココロキット+で動きを作ることができます!Teachable Machine の公式ホームページで紹介されている「Tiny Sorter」もココロキット+を使えば作れますので、是非試してみてくださいね😁

画像15

動画は公式ホームページより
https://experiments.withgoogle.com/tiny-sorter/






この記事が気に入ったらサポートをしてみませんか?