Skip to main content

reComputer Jetson に Live VLM WebUI をデプロイする

はじめに

Live VLM WebUI は、リアルタイムの Vision Language Model インタラクションとベンチマーキングのための汎用ウェブインターフェースです。ウェブカメラを任意の VLM にストリーミングし、ライブ AI 駆動分析を取得できます - モデルのテスト、パフォーマンスのベンチマーク、複数のドメインとハードウェアプラットフォームにわたるビジョン AI 機能の探索に最適です。

この Wiki では、reComputer Super J4012 に Live VLM WebUI をデプロイする方法を説明します。

前提条件

  • reComputer Super J4012
  • USB カメラ
reComputer Super J4012 USB カメラ
info

Jetson デバイスに Jetpack 6.2 オペレーティングシステムがインストールされていることを確認してください。

info

ソフトウェアを設定する前に、USB カメラを reComputer Super J4012 の Type-A ポートに接続してください。

Live VLM WebUI のデプロイ

ステップ1. reComputer Jetson に ollama をインストールして実行します。

reComputer Jetson のターミナルウィンドウで以下のコマンドを実行します。

curl -fsSL https://ollama.com/install.sh | sh
ollama pull llama3.2-vision:11b
note

モデルのダウンロードには約10分かかります。しばらくお待ちください。

ステップ2. Live VLM WebUI をインストールします。

reComputer Jetson のターミナルウィンドウで以下のコマンドを実行します。

# Install dependencies
sudo apt install openssl python3-pip

# Install the package
python3 -m pip install --user live-vlm-webui

# Add to PATH (one-time setup)
echo 'export PATH="$HOME/.local/bin:$PATH"' >> ~/.bashrc
source ~/.bashrc

# Run it
live-vlm-webui

ステップ3. Live VLM WebUI を設定して起動します。

アプリケーションが正常に実行されると、ブラウザで https://localhost:8090 を入力して WebUI を開くことができます。

  • VLM API Configuration で、ollama 推論エンジンと先ほどダウンロードした llama3.2-vision モデルを選択します。
  • Camera and App Control で、USB Camera を選択します。
  • Run ボタンをクリックした後、バックエンドからの推論結果を待つことができます。

効果のデモンストレーション

ワークフロー全体は、16GB のメモリを持つ reComputer Super J4012 デバイスで正常に実行できます。ただし、実際のテストでは、推論速度が非常に遅いことがわかりました。

参考文献

技術サポートと製品ディスカッション

弊社製品をお選びいただき、ありがとうございます!弊社製品での体験が可能な限りスムーズになるよう、さまざまなサポートを提供しています。さまざまな好みやニーズに対応するため、複数のコミュニケーションチャンネルを提供しています。

Loading Comments...