マガジン

最近の記事

Depth Pro+YOLO11でカメラと人物の距離の推定を試してみた

概要Appleが発表した単眼深度推定モデルのDepth Proを試してみました。 Depth Proはゼロショットで実際の距離の推定ができる点が特徴です。 YOLO11のセグメンテーションモデルと組み合わせて、カメラと人物の距離を推定してみました。 高速な推論を謳っていますが、あまり速くはありませんでした。 Google ColabのL4インスタンスで810×1080のサンプル画像に2秒以上かかりました。 下の2つ目のリンクはデモページです。 実施内容デモページ

    • YOLO11を試してみた

      概要YOLOv8を発表したUltralyticsが新しいYOLOシリーズのモデル YOLO11 を発表したので試してみました。 Ultralyticsのドキュメントもv8から11へ更新されています。 命名はこれまでと異なり「v」無しの YOLO11 です。 「v」付きの命名を避けたのは、既にYOLOv11という命名の悪戯リポジトリがあるためかもしれません YOLOは物体検出モデルとして有名ですが、YOLO11はv8と同様にインスタンスセグメンテーションや姿勢推定など

      • Depth Anything V1とV2の結果を見比べる

        概要単眼深度推定モデルDepth Anything (以降はV1として記載します)とそのアップデート版にあたるDepth Anything V2を簡単に比較してみました。 V1に比べV2は輪郭がはっきりしており、細部も予測できるようになった印象を受けました。 推論の速度はほぼ同等で、GPU使用量と重みのファイルサイズは同じでした。 Depth Anything V2のSサイズモデルはApache-2.0ライセンスですが、Mサイズ(Base)以上は非商用のCC-BY-N

        • SAM2をUltralyticsで試してみた

          概要YOLOv8等が利用できる Ultralytics がSAM2をサポートしたので試してみました。 SAM2の tiny ~ large サイズの重みを利用できます。 画像や動画のセグメンテーションが可能です。 YOLOv8等の物体検出モデルを組み合わせたセグメンテーションの自動アノテーション関数が利用できます。 タイトルの通り本記事はUltralytics上のSAM2を利用しています。 Meta公式のSAM2の利用方法はnpakaさんが記事を投稿されております

        マガジン

        • Data
          55本
        • Image Generation
          157本
        • LLM
          336本
        • CV
          146本
        • 3DCG / Motion
          24本
        • Robo / Mecha / Elec / IoT
          20本

        記事

          Google ColabでSakana AIのEvo-Ukiyoeを試してみた

          概要Google Colab (Pro)でSakana AIの浮世絵生成AI Evo-Ukiyoeを試してみました。 入力プロンプトには有名な俳句の紹介記事を参考に10句使用しました。 必要なGPUメモリは約33.4GBでした。 実施内容必要となるもの Google Colabへの課金 (GPUメモリの問題で、A100が必要でした) Hugging Faceのアカウントとトークン Japanese Stable Diffusion XLへのアクセス許可 準備

          Google ColabでSakana AIのEvo-Ukiyoeを試してみた

          CVPR論文をリストアップしているGitHubリポジトリのメモ

          CVPR 2024awesome-cvpr-2024 カテゴリ分けをしてリストアップしているリポジトリ。 top-cvpr-2024-papers 物体検出関連のCVツール Supervision 開発者のリポジトリ。 物体検出やセグメンテーション関連に注目している印象。 (他ジャンルの論文もある) リストアップされている本数は少ないが、24/06/12時点でおそらく更新中。 Awesome-CVPR2024-Low-Level-Vision 画像/動画の品質アッ

          CVPR論文をリストアップしているGitHubリポジトリのメモ

          小さな物体の検出率UPのためにSAHIを試してみた

          概要物体検出モデルが見逃しやすい小さな物体の検出力向上を目的としたライブラリSAHIを試してみました。 物体検出モデルにはYOLOv8sとYOLOv8xを使用しました。 YOLOのインスタンスセグメンテーションは未対応なようです。 SAHI (Slicing Aided Hyper Inference)入力画像を分割して物体検出モデルに入力し、その結果をマージしてくれるライブラリです。 GitHubのGIFが視覚的にもわかりやすいです。 日本語での解説だと以下の記事

          小さな物体の検出率UPのためにSAHIを試してみた

          Ultralyticsの自動アノテーションを試してみた

          概要ultralyticsライブラリのセグメンテーション向け自動アノテーション関数auto_annotateを試してみました。 YOLO形式での出力時に塞がれてしまう🍩の穴を復活させる方法を調査して試してみました。 実施内容Google ColabのCPU環境で試しました。 準備 ライブラリインストールとリポジトリのクローンします。 !pip install ultralytics!git clone https://github.com/ryouchinsa/d

          Ultralyticsの自動アノテーションを試してみた