この文書は AI によって翻訳されています。内容に不正確な点や改善すべき点がございましたら、文書下部のコメント欄または以下の Issue ページにてご報告ください。
https://github.com/Seeed-Studio/wiki-documents/issues
reTerminal での TensorFlow Lite の始め方

TensorFlow Lite は、モバイル、組み込み、IoT デバイス上でモデルを実行することで、デバイス内での機械学習を可能にするツールセットです。
TensorFlow Lite の主な特徴は、デバイス内での機械学習に最適化されており、レイテンシー、プライバシー、接続性、サイズ、消費電力に重点を置いている点です。このフレームワークは、Android や iOS デバイス、組み込み Linux、マイクロコントローラーなど、複数のプラットフォームをサポートするように設計されています。また、Java、Swift、Objective-C、C++、Python など、さまざまな言語をサポートしており、ハードウェアアクセラレーションとモデル最適化による高いパフォーマンスを提供します。さらに、画像分類、物体検出、ポーズ推定、質問応答、テキスト分類など、一般的な機械学習タスクのエンドツーエンドの例を複数のプラットフォームで提供しています。
TensorFlow Lite ランタイムパッケージのインストール
tflite_runtime
パッケージは、TensorFlow Lite を使用して推論を実行するために必要な最小限のコードを含む、より小型で簡素化された Python パッケージです。このパッケージは、.tflite モデルを実行するだけで、ディスクスペースを大きな TensorFlow ライブラリで無駄にしたくない場合に最適です。
最適なパフォーマンスを得るには、64 ビット OS と対応する TFLite パッケージを使用し、最適化された XNNPACK デリゲートを有効にすることをお勧めします。これらは自分でソースからコンパイルするか、Seeed Studio が提供する事前ビルド済みバイナリをインストールすることができます。または、pip を使用して最新の安定版をインストールすることも可能です。
最新の安定版(公式ビルド)
pip3 install --index-url https://google-coral.github.io/py-repo/ tflite_runtime
XNNPACK を有効にした 64 ビット OS 用のパフォーマンス最適化パッケージ
この記事執筆時点では、XNNPACK 最適化を備えた Python 3.7 64 ビット OS 用の公式事前ビルドホイールは利用できなかったため、独自にコンパイルして共有しました。
wget www.files.seeedstudio.com/ml/TFLite/tflite_runtime-2.6.0-cp37-cp37m-linux_aarch64.whl
pip3 install tflite_runtime-2.6.0-cp37-cp37m-linux_aarch64.whl
インストールが完了したら、tflite パッケージをインポートしてみてください:
pi@raspberrypi:~ $ python3
Python 3.7.3 (default, Jul 25 2020, 13:03:44)
[GCC 8.3.0] on linux
Type "help", "copyright", "credits" or "license" for more information.
>>> import tflite_runtime
>>> tflite_runtime.__version__
'2.6.0'
サンプル
TFLite Converter を使用すると、TensorFlow モデルを .tflite 形式に変換することが可能です。ただし、TFLite Runtime がサポートする操作のみで構成されている必要があります。以下は、現在 reTerminal でテストされているデモのリストで、今後さらに拡張および完成される予定です:
モデル | 結果 | コメント |
---|---|---|
物体検出 | デモ: 車両検出 | |
画像分類 | デモ: 工業用コンベアの裂け目識別 | |
セマンティックセグメンテーション | デモ: 肺セグメンテーション | |
顔年齢/性別認識 | デモ: マルチステージ推論: MobileNet YOLOv3 alpha 0.25 -> MobileFaceNet | |
顔表情認識 | デモ: マルチステージ推論: MobileNet YOLOv3 alpha 0.25 -> MobileFaceNet | |
顔アンチスプーフィング | デモ: マルチステージ推論: MobileNet YOLOv3 alpha 0.25 -> MobileNet v1 alpha 0.25 | |
顔認識 | デモ: マルチステージ推論: Ultra Light Face Detector with Landmark Detection -> MobileFaceNet |
さらなる最適化
例の表に示されている FPS と推論結果は、特に記載がない限り、Tensorflow Lite における INT8 量子化モデルの推論結果です。
reTerminal は Raspberry Pi 4 をベースとしているため、ニューラルネットワーク推論用の追加ハードウェアアクセラレータを持たず、CPU 推論のための標準的な最適化手法のみが適用可能です。
このトピックのビデオ概要はこちらでご覧いただけます:
以下は CPU 推論最適化手法の簡単な概要です:
- 小規模なネットワークの設計
目標が十分に単純である場合(100クラス未満の画像分類や10クラス未満の物体検出など)、小規模なネットワークで許容可能な精度を達成し、非常に高速に動作させることができます。例えば、MobileNet v1 alpha 0.25 YOLOv2 ネットワークを使用して、1クラスのオブジェクト(人間の顔)のみを検出するように訓練した場合、追加の最適化なしで 62.5 FPS を達成します。
標準 Tensorflow Lite FP32 推論:
MobileNetv1(alpha 0.25) YOLOv2 1クラス 0.89 MB 62.5 FPS
MobileNetv1(alpha 1.0) YOLOv3 20クラス 13.1 MB 7 FPS
- 量子化
量子化は、通常 FP32 から INT8 へのニューラルネットワークの重みの精度を削減するプロセスです。これにより、サイズが4倍縮小し、デフォルトの Tensorflow Lite カーネルを使用してレイテンシが約60〜80%削減されます。精度の損失は、量子化対応トレーニング(QAT)を使用することで最小限に抑えることができます。QAT は、量子化ノードを挿入してネットワークを微調整するプロセスです。
標準 Tensorflow Lite INT8 推論:
MobileNetv1(alpha 0.25) YOLOv2 1クラス 0.89 MB 77 FPS
MobileNetv1(alpha 1.0) YOLOv3 20クラス 13.1 MB 11.5 FPS
- 最適化されたカーネルの使用
推論速度は、特定の CPU 命令セット(例:ARM 用 NEON SIMD 命令)に最適化された CNN カーネルを持つフレームワークを利用することで向上します。これには、ARM NN や XNNPACK などのネットワークが含まれます。
Arm NN SDK は、低消費電力デバイスでの機械学習ワークロードを可能にするオープンソースのソフトウェアとツールのセットです。説明と提供されているベンチマークは有望に見えますが、最新の Raspberry Pi OS へのインストール手順は現時点で困難です。現在、ARM NN の最新バージョンをインストールする唯一の適切な方法は、ソースからのクロスコンパイルです。Debian Bullseye 用のバイナリは利用可能ですが、Raspberry Pi OS はまだ Debian Buster に基づいています。ベンチマークスクリプトを使用した推論テスト結果は混在しており、単一モデルでは標準 Tensorflow Lite よりもパフォーマンスが悪い結果を示しましたが、マルチモデル推論ではより効率的なマルチプロセッシングの利用により高速であることが判明しました。
ARM NN FP32 推論:
MobileNetv1(alpha 0.25) YOLOv2 1クラス 0.89 MB 83 FPS
MobileNetv1(alpha 1.0) YOLOv3 20クラス 13.1 MB 7.2 FPS
XNNPACK は、Android、iOS、Windows、Linux、macOS 環境で ARM、x86、および WebAssembly アーキテクチャ向けにニューラルネットワーク推論を高速化するためのライブラリです。Tensorflow Lite にデリゲートとして統合されており、Android ビルドではデフォルトで有効になっていますが、他の環境では手動で有効にする必要があります。そのため、Raspberry Pi 4 で XNNPACK を使用する場合は、TensorFlow Lite Interpreter パッケージをソースからビルドするか、上記で提供されているようなサードパーティのバイナリをダウンロードする必要があります。
XNNPACK デリゲート Tensorflow Lite FP32 推論:
MobileNetv1(alpha 0.25) YOLOv2 1クラス 0.89 MB 83 FPS
MobileNetv1(alpha 1.0) YOLOv3 20クラス 13.1 MB 7.2 FPS
最適化されたカーネルの主な問題は、異なるフレームワークでのアーキテクチャ/NN オペレーター/精度タイプのサポートが不均一であることです。例えば、INT8 最適化カーネルは ARM NN と XNNPACK の両方で進行中の作業です。XNNPACK における INT8 最適化カーネルのサポートは非常に最近追加され、モデルで使用されるオペレーターに応じて約30%の控えめなパフォーマンス向上をもたらすようです。
https://github.com/google/XNNPACK/issues/999#issuecomment-870791779
もう一つの有望な方向性は、動的に量子化されたモデル用の最適化カーネルです。開発者との会話はこちらをご覧ください:
https://github.com/tensorflow/tensorflow/pull/48751#issuecomment-869111116
開発者は、レイテンシが3〜4倍改善すると主張していますが、現在のところ非常に特定のモデルセットに限定されています。より便利な使用を可能にするための PR が開発中です。
- プルーニングとスパース推論
プルーニングは、正確な予測に寄与しない重みを見つけるために訓練済みニューラルネットワークを微調整するプロセスです。これにより、モデルのサイズとレイテンシの両方を削減できます。精度の低下はスパース性の設定に依存します。実験的には、精度にほとんど影響を与えずに最大80%のスパース性を達成することが可能です。詳細はこちらをご覧ください:
https://ai.googleblog.com/2021/03/accelerating-neural-networks-on-mobile.html Tensorflow を使用したプルーニングのガイドはこちら:
https://www.tensorflow.org/model_optimization/guide/pruning/pruning_for_on_device_inference 残念ながら、現在の形式では、XNNPACK を使用したプルーニングとスパース推論をサポートするモデルは非常に限られています。
F.A.Q
Q1: 私の会社のポリシーでは、サードパーティのバイナリを使用することが許可されていません
公式の TFLite インタープリターパッケージを使用するか、またはソースからコンパイルすることができます。手順については こちら を参照してください。
リソース
-
[Webページ] TensorFlow Lite 公式ウェブページ
-
[Webページ] TensorFlow Lite 公式ドキュメント