コアコンセプトとアーキテクチャ
Reachy Mini の内部動作を理解することで、堅牢なアプリケーションを構築し、問題をデバッグしやすくなります。
ソフトウェアアーキテクチャ
Reachy Mini は Client-Server アーキテクチャを採用しています:
-
Daemon(サーバー):
- ロボット(またはシミュレーション)に接続されたコンピュータ上で動作します。
- ハードウェア I/O(USB/Serial)、安全チェック、センサー読み取りを処理します。
- REST API(
localhost:8000)と WebSocket を公開します。
-
SDK(クライアント):
- あなたの Python コード(
reachy_miniパッケージ)。 - ネットワーク経由で Daemon に接続します。
- 利点: Daemon をロボットに接続された Raspberry Pi 上で動かしつつ、AI コードを高性能なサーバー上で実行できます。
- あなたの Python コード(
座標系
ロボットを動かす際には、主に 2 つの基準座標系を扱います:
1. Head フレーム
頭部の基部に配置されます。goto_target と set_target コマンドで使用されます。

2. World フレーム
ロボットのベースに対して固定されています。look_at_world コマンドで使用されます。

安全リミット ⚠️
Reachy Mini には自己干渉や損傷を防ぐための物理的およびソフトウェア上のリミットがあります。SDK は値を自動的に最も近い有効な位置にクランプします。
| 関節 / 軸 | 制限範囲 |
|---|---|
| Head Pitch/Roll | [-40°, +40°] |
| Head Yaw | [-180°, +180°] |
| Body Yaw | [-160°, +160°] |
| Yaw Delta | Head と Body の Yaw の最大差 65° |
モーターモード
モーターの動作モードを変更できます:
mini.enable_motors(): 剛体モード。位置を保持します。mini.disable_motors(): だらんとした状態。電源オフ。mini.enable_gravity_compensation(): 「ソフト」モード。頭部を手で動かすことができ、離すとその位置に留まります。(Placo kinematics backend でのみ動作します。)
次のステップ
- クイックスタートガイド: Reachy Mini で最初の振る舞いを実行する
- Python SDK: 動かす・見る・話す・聞く方法を学びます。
- AI 連携: LLM を接続し、アプリを構築して Hugging Face に公開します。