見出し画像

㉓(ここをクリック)

アスパラガス ⑧


アスパラガスの
収穫作業をロボットが行います。

農業AIベンチャー
『inaho』さんが開発。


キャタピラを持つロボットが
圃場(ほじょう)を自走。

畑には白いテープを敷いて、

ロボットはそのテープを、読み取って走る
シンプルなしくみ。

アスパラガス テープ


何してるの?

不規則に生えている
アスパラガスの前まで進むと止まり、

内蔵カメラが圃場に生えている
アスパラガスをとらえます。

画像3

とらえたアスパラの画像は、
赤外線センサーと
ディープラーニングによる
画像認識によって、

『収穫どきのアスパラ』か
『まだ収穫しないアスパラ』か
区別します。

また、
正確な位置や現在の長さを測定。

ロボットアームが伸び、
根元付近をつかむ.

画像4

アームについていたカッターが
アスパラガスを切断。

画像5

切られたアスパラガスは、
そのままカゴの中に収穫します。

画像6


カゴがいっぱいになると
農家の人のスマホに通知が届きます。


特徴は?

・ロボットアームは,モーターで制御。

・充電は,家庭用コンセント。

 2時間の充電→約6時間稼働。

・車体底部に,LEDライトを搭載。

 →夜間の作業もできます。

・収穫対象は,cm単位で設定可能。

キュウリにも対応してます。


Root AIさんが
リリースしている
収穫ロボットが

『Virgo』

トマト

カメラと関節付きアーム(グリッパー)
あと、
これらを制御する人工知能を搭載。


高性能の
画像解析機能を組み込み、

人工知能(AI)が

画像分析を行うための学習手法
「CNN(畳み込みニューラルネットワーク)」
を用いて、

トマトの実をリアルタイムで検知し、
熟度や大きさ、品質を分類。

果実が熟しているかどうかを判断してます。

実をキズつけることなく
グリッパーでつかみ取ります。


ざっくり言うと、

カメラがトマトを認識し、
収穫すべき個体を決定します。

収穫ロボット「Virgo」

グリッパーで、トマトを1コずつ収穫。

収穫ロボット「Virgo」 2

掴んだトマトを横にあるカゴに落とします。


メリットは?

・深夜でも動作します。

・キュウリやいちごも収穫できます。


ことばの意味は?

畳み込みニューラルネットワーク
(Convolution Neural Network)

略してCNN。

AIが画像分析を行うための
学習手法の1つ。


ざっくり言うと、

①畳み込み層

→特徴をぬき出す処理,

②プーリング層

→特徴を小さくまとめる処理,

③全結合層

→特徴ごとにまとめられた
データを使って画像認識,

という流れ。


人間の視覚をモデルに考案。

人間の視覚は、
物体の「部分」→像「全体」から
把握してます。

視覚認識に関係するニューロンは、

「単純型細胞」と「複雑型細胞」
があります。


CNNでは、

単純型細胞に対応する
①「畳み込み層」

複雑型細胞に対応する
②「プーリング層」

と呼んでます。


①畳み込みとは、
画像から特徴を抽出することです。

畳み込み層は、
元の画像にフィルタをかけて
『特徴マップ』を出力します。

畳み込みフィルタは、
「特徴を際立たせるためのフィルタ」です。

フィルタといっても種類はさまざま。

画像を鮮明にするフィルタ、ぼかすフィルタ、
エッジを際立たせるフィルタなど。

役割は、
「データの特徴を際立たせる」こと。


②画像を集約するのがプーリング層。

先ほど抽出したデータをプーリング(圧縮)。

その結果、4分の1ていどに圧縮。
圧縮することで処理が簡単になります。

プーリング層では、
重要な情報を残しながら
元の画像を縮小します。

メリットは?

1.画像内のズレやノイズに対応。

判別したい対象が
画像のどこにいても検知しやすい。
(移動不変性)

→イヌさんの画像が
ちょっとズレてもイヌ。

2.計算量を大幅にへらせる。


③全結合層では、

コンパクト化された『特徴マップ』を
すべて結合して出力します。


何ができるの?

一部が見えにくくなっている画像でも
解析できます。

→物体検出、顔認識システムで利用。


jwpさんは、
「画像認識」と「物体検出」してます。

画像10


画像11

この人も熟してますか?

読んでくださり、ありがとうございました。