見出し画像

「ユーグレナ認識AI」を開発した件について、超異分野学会で発表しました

みなさん、はじめまして。
ヒューマノーム研究所のエンジニア、落合です。

今回は、先月8/27に開催された超異分野学会2022大阪大会に参加した感想と、現地の様子についてお伝えいたします。

超異分野学会は、中高生、大学教員、ベンチャーや大企業まで、さまざまな所属や分野の研究発表が行われる、まさに異分野融合の学会です。

今回、当社は「みんなで作ろうユーグレナAI!〜Humanome Eyesで作るユーグレナ認識AI」というタイトルでポスター発表しました。ユーグレナ社様と理化学研究所様との共同で、Humanome Eyesを利用したユーグレナ認識AIを作成した経緯とその結果についてご紹介させていただきました。

今回の発表では、私達のブースへ想像以上にご来場いただきました。ポスターセッション中は、多くの方々と画像を用いたAIの活用法についてディスカッションすることができ、開発のモチベーションにも繋がりました!
当社ブースにご来場いただいた皆様、ありがとうございました。

Humanome Eyesは、数学やプログラミング無しで、誰でも簡単に「ものを見分けるAI」をWebブラウザ上から作成できるシステムです。
ものを見つける(物体検知)AIは、下の図1の流れで作成します(詳しくはnoteにまとめていますので、ぜひご覧ください)。

  1. 画像を集める

  2. アノテーション(ものの位置の情報を付与する)

  3. アノテーションを元にAIが学習

  4. AIを試す・精度を見る

図1:ものを見つける(物体検知)AIを作成する基本的な流れ

今回は、ユーグレナ社が企画し、理化学研究所が解析に協力した市民参加型研究「みんなのミドリムシプロジェクト」で得られたユーグレナの顕微鏡画像を用いて、ユーグレナを見分けるAIを開発しました。

顕微鏡画像の中には、ユーグレナあり・ユーグレナとユーグレナ以外の物体を含む・ユーグレナなし(ユーグレナ以外の物体のみ)の三種類の画像があります。今回は、ユーグレナ以外の物体を「ユーグレナではない」と学習して欲しかったので、全ての画像を用いて学習を行うことにしました。

そこで、これらの画像を一つの画像セットとし、Humanome Eyesに読み込ませ、システムの画面上から、ユーグレナの位置を指定することでアノテーション情報を作成しました(図2)。

図2:Humanome Eyes上からアノテーション情報を作成する様子

アノテーションの作成が終わったら、あとは赤丸部分の学習「開始」ボタンを押すだけです!(図3)

図3:Humanome Eyes上でAIモデルを作成する様子

これだけの作業で、以下のように「ユーグレナをみつけるAI」が完成します。

このように、気軽にAIを構築できる環境を土台にして、専門家が認識していたユーグレナが誰でも認識できる未来に向け、一歩を踏み出すことができました。

今回ご紹介したユーグレナ認識AIのような専門性が高く、現時点で世の中に存在していないような予測システムは、Humanome Eyesを使うことで簡単に自作できます。通常、AI開発に必要とされる専門知識がなくても操作できるので、普段、AIに携わらない分野の方も、予測したい分野の専門知識があれば、本件同様の手軽さで予測AIを開発し、実務への導入がが実現します。

図4:Humanome Eyes上でAIがユーグレナを検出する様子

今回は、はじめてのユーグレナ認識AIの開発だったので、画像撮影時の条件や光の当たり具合など、AIを作成しやすい条件で撮影された写真を利用してAIを作成しました。今後は他の物体が写っている画像でもユーグレナを発見できるよう、学習データとなる様々な条件下の画像を増やした、ユーグレナ認識AIを作成することを考えています。

当社は今回のような「〇〇を予測するAIが欲しいのだけど、売ってないし自作も難しい・・・。」というお悩みを、自作することで解決できるAI開発ツールを提供しています。今回の画像を使ったAIだけでなく、表データを使ったAI開発ツール「Humanome CatData」も提供しています。ご興味をお持ちの方はお気軽にご連絡ください。

最後までお読みいただき、ありがとうございました!


AIや、AI / DX人材育成のご相談については、以下からお気軽にご連絡ください。

この記事が気に入ったらサポートをしてみませんか?