Skip to main content

Roboflow の使い方

note

この文書は AI によって翻訳されています。内容に不正確な点や改善すべき点がございましたら、文書下部のコメント欄または以下の Issue ページにてご報告ください。
https://github.com/Seeed-Studio/wiki-documents/issues

NVIDIA® Jetson デバイスでの Roboflow 推論の使い方

このウィキガイドでは、NVIDIA Jetson デバイス上で動作する Roboflow 推論サーバーを使用して AI モデルを簡単にデプロイする方法を説明します。ここでは、Roboflow Universe を使用して既にトレーニングされたモデルを選択し、そのモデルを Jetson デバイスにデプロイし、ライブウェブカメラストリームで推論を実行します。

Roboflow Inference は、コンピュータビジョンモデルを使用およびデプロイする最も簡単な方法であり、推論を実行するための HTTP Roboflow API を提供します。Roboflow 推論は以下をサポートしています:

  • オブジェクト検出
  • 画像セグメンテーション
  • 画像分類

および CLIP や SAM のような基盤モデル。

前提条件

  • Ubuntu ホスト PC(ネイティブまたは VMware Workstation Player を使用した VM)
  • reComputer Jetson またはその他の NVIDIA Jetson デバイス
note

このウィキは、NVIDIA Jetson Orin NX 16GB モジュールを搭載した reComputer J4012 および reComputer Industrial J4012 でテストおよび検証されています。

Jetson に JetPack をフラッシュする

まず、Jetson デバイスに JetPack システムがフラッシュされていることを確認する必要があります。JetPack をデバイスにフラッシュするには、NVIDIA SDK Manager またはコマンドラインを使用できます。

Seeed の Jetson 搭載デバイスのフラッシュガイドについては、以下のリンクを参照してください:

note

JetPack バージョン 5.1.1 をフラッシュしてください。このウィキで検証済みのバージョンです。

Roboflow Universeで50,000以上のモデルを活用

Roboflowは、50,000以上のすぐに使用可能なAIモデルを提供しており、誰でも最速でコンピュータビジョンのデプロイを開始できます。Roboflow Universeでこれらすべてを探索できます。また、Roboflow Universeでは200,000以上のデータセットも提供されており、これらのデータセットを使用してモデルをトレーニングしたり、自分のデータセットを持ち込んでRoboflowオンライン画像アノテーションツールを使用してトレーニングを開始することができます。

  • ステップ1: Roboflow Universeから人検出モデルを参照として使用します。

  • ステップ2: モデル名は「model_name/version」という形式に従います。この場合、people-detection-general/7です。このモデル名は、後ほど推論を開始する際に使用します。

Roboflow APIキーの取得

Roboflow推論サーバーを動作させるために、Roboflow APIキーを取得する必要があります。

  • ステップ1: 新しいRoboflowアカウントにサインアップし、資格情報を入力します。

  • ステップ2: アカウントにサインインし、Projects > Workspaces > <your_workspace_name> > Roboflow APIに移動し、「Private API Key」セクションの横にあるCopyをクリックします。

このプライベートキーを保存しておいてください。後で必要になります。

Roboflow推論サーバーの実行

NVIDIA JetsonでRoboflow推論を開始するには、以下の3つの方法があります。

  1. pipパッケージを使用 - pipパッケージを使用するのが最速の方法ですが、JetPackとともにSDKコンポーネント(CUDA、cuDNN、TensorRT)をインストールする必要があります。
  2. Docker Hubを使用 - Docker Hubを使用する方法は少し遅くなりますが、約19GBのDockerイメージを最初にプルする必要があります。ただし、DockerイメージにはすでにSDKコンポーネントが含まれているため、インストールする必要はありません。
  3. ローカルDockerビルドを使用 - ローカルDockerビルドを使用する方法は、Docker Hubの方法を拡張したもので、Dockerイメージのソースコードを希望するアプリケーション(例:INT8でTensorRT精度を有効化)に応じて変更できます。

Roboflow推論サーバーを実行する前に、推論に使用するAIモデルとRoboflow APIキーを取得する必要があります。まずそれを説明します。

pipパッケージを使用

  • ステップ1: JetsonデバイスをJetson L4Tでフラッシュした場合、最初にSDKコンポーネントをインストールする必要があります。
sudo apt update
sudo apt install nvidia-jetpack -y
  • ステップ2: 以下のコマンドをターミナルで実行して、Roboflow推論サーバーのpipパッケージをインストールします。
sudo apt update
sudo apt install python3-pip -y
pip install inference-gpu
  • ステップ3: 以下を実行し、取得したRoboflowプライベートAPIキーに置き換えます。
export ROBOFLOW_API_KEY=your_key_here
  • ステップ4: Jetsonデバイスにウェブカメラを接続し、以下のPythonスクリプトを実行して、オープンソースの人検出モデルをウェブカメラストリームで動作させます。
webcam.py
import cv2
import inference
import supervision as sv

annotator = sv.BoxAnnotator()

inference.Stream(
source="webcam",
model=" people-detection-general/7",

output_channel_order="BGR",
use_main_thread=True,

on_prediction=lambda predictions, image: (
print(predictions),

cv2.imshow(
"Prediction",
annotator.annotate(
scene=image,
detections=sv.Detections.from_roboflow(predictions)
)
),
cv2.waitKey(1)
)
)

最終的に、以下のような結果が表示されます。


詳細情報

Roboflowは非常に詳細で包括的なドキュメントを提供しています。そのため、こちらをぜひご確認ください。

技術サポートと製品に関するディスカッション

私たちの製品をお選びいただきありがとうございます!製品をご利用いただく際にスムーズな体験を提供するため、さまざまなサポートを提供しています。異なる好みやニーズに対応するため、いくつかのコミュニケーションチャネルをご用意しています。

Loading Comments...