本地部署 Watcher 的 AI 功能
本文档由 AI 翻译。如您发现内容有误或有改进建议,欢迎通过页面下方的评论区,或在以下 Issue 页面中告诉我们:https://github.com/Seeed-Studio/wiki-documents/issues

SenseCAP Watcher 是一款 AI 监控设备,帮助您监控空间内的异常情况并采取相应措施。虽然 Watcher 可以利用 SenseCraft 的 AI 服务,但它也提供了在您自己的设备上本地部署 AI 功能的选项,从而为您提供更大的控制权、隐私性和灵活性。
在本综合指南中,我们将逐步引导您在本地设备上设置和部署 Watcher 的 AI 服务。无论您使用的是 Windows PC、MacOS 设备,还是 NVIDIA® Jetson AGX Orin,我们都会提供详细的操作步骤,帮助您在自己的环境中充分利用 Watcher 的 AI 功能。
在本指南中,我们将涵盖必要的软件和硬件准备工作、每个平台的部署过程,以及如何有效利用 Watcher 的本地 AI 服务来解锁新可能性并提升您的生产力。通过本指南的学习,您将全面了解如何在自己的设备上利用 Watcher 的 AI 功能,从而创建智能化、个性化的解决方案,以满足您的需求。
软件准备
要使用 Watcher 的本地部署功能,用户需要首先下载必要的软件。软件包包括 Watcher 应用程序和设备 AI 服务组件,这些组件使用户能够设置和配置本地 AI 服务。
用户可以通过以下下载链接获取 Watcher 应用程序:
- Windows 用户:
- macOS 用户:
- Linux 用户:
请根据您的操作系统选择合适的下载链接。Watcher 应用程序兼容 Windows、macOS 和主流 Linux 发行版,确保在不同平台上的无缝体验。
硬件准备
为了确保在本地部署 Watcher 的 AI 功能时获得流畅和最佳的体验,您的设备必须满足最低硬件要求。这些要求因操作系统而异。以下是每个平台的硬件要求:
Windows | Mac | Linux (arm64) | |
---|---|---|---|
显卡(推荐配置) | GeForce RTX2070 | Apple M1 16 GB | GeForce RTX2070 |
内存(最低配置) | 8 GB | 16 GB | 8 GB |
存储空间(最低配置) | 20 GB | 20 GB | 20 GB |
需要注意的是,这些是最低要求,拥有更高的硬件规格可以显著提升 Watcher AI 服务的性能和响应速度。如果您计划同时部署多个 AI 服务或处理大量数据,我们建议使用具有更高级硬件配置的设备。
性能注意事项
Watcher 本地部署的 AI 服务性能可能会因设备硬件规格而异。以下是一些通用的性能指南:
- 内存(RAM):更大的内存容量可以实现更流畅的多任务处理,并能够处理更复杂的 AI 模型和更大的数据集。
- 显卡:像 RTX2070 这样的独立显卡可以极大地加速 AI 计算,尤其是涉及计算机视觉和深度学习的任务。
- 存储空间:充足的存储空间对于存储 AI 模型、数据集和生成的输出至关重要。推荐的 20 GB 存储空间可以确保 Watcher AI 服务有足够的空间运行。
在本地部署 Watcher 的 AI 服务时,务必考虑您的具体使用场景以及您计划使用的 AI 模型的复杂性。如果您需要实时处理或计划处理资源密集型任务,建议选择更高端的硬件配置以确保最佳性能。
通过满足硬件要求并考虑上述性能因素,您可以确保在本地设备上顺利高效地部署 Watcher 的 AI 功能。
设备基准测试
以下是我们在一些设备上部署 AI 服务后的响应时间表。
设备 | Windows 10 32GB 配备 GeForce RTX4060 显卡 | Windows 10 16GB 无显卡 | Mac Mini M1 (16 GB) | NVIDIA® Jetson AGX Orin 32GB |
---|---|---|---|---|
任务分析时间 | 5秒 | 17分14秒 | 36秒 | 18秒 |
图像分析时间 | 4秒 | 4分10秒 | 8秒 | 7秒 |
在比较 NVIDIA Jetson AGX 系列产品与 RTX 4090 等消费级显卡在 AI 相关任务中的表现时,Jetson AGX 系列具有以下几个关键优势:
工业级可靠性:Jetson AGX 系列产品专为工业和商业应用设计,具有更长的平均无故障时间(MTBF)。它们能够连续 24/7 不间断运行,而不会出现问题。相比之下,像 RTX 4090 这样的消费级显卡并非为如此高强度的全天候运行设计,可能无法提供相同级别的可靠性。
紧凑的尺寸和低功耗:Jetson AGX 系列产品专为嵌入式和边缘计算应用设计,具有更小的外形尺寸和更低的功耗。与高端消费级显卡相比,这使得它们更适合部署在空间受限的环境中,并降低整体运营成本。较低的功耗还意味着更少的热量产生,这对于嵌入式系统至关重要,有助于减少冷却需求。
此外,Jetson AGX 系列提供了针对 AI 工作负载优化的全面软件栈,使开发人员能够更轻松地创建和部署 AI 应用程序。工业级可靠性、紧凑尺寸、低功耗以及优化的软件栈的结合,使得 Jetson AGX 系列在 AI 相关项目和应用中,尤其是与 RTX 4090 等消费级显卡相比,成为一个极具吸引力的选择。
在 Windows 上部署
要在 Windows 设备上部署 Watcher 的 AI 功能,请按照以下简单步骤操作。
步骤 1. 在计算机的下载文件夹或指定位置找到已下载的 .exe
文件。双击 .exe
文件以启动安装过程。安装向导将引导您完成设置过程。在安装过程中,您无需进行任何额外的选择或配置。
步骤 2. 安装完成后,启动 Watcher 应用程序。首次启动应用程序时,系统会提示您选择要使用的 AI 模型。Watcher 提供了两个选项。

Llama 3.1 + LLaVA:如果选择此选项,Watcher 将自动开始下载所需的 AI 模型和相关文件。这些额外的下载可能需要一些时间,因为文件大小可能约为 10 GB。在模型下载过程中,请确保您的互联网连接稳定且快速,以避免任何中断或下载不完整的情况。
OpenAI:如果您更倾向于使用 OpenAI 的模型,则需要提前准备好您的 OpenAI API 密钥。确保您拥有有效的 API 密钥以及足够的额度来使用 OpenAI 模型。当系统提示时,输入您的 API 密钥以配置 Watcher 使用 OpenAI 的服务。
选择最适合您需求和资源的选项。如果您有充足的存储空间和可靠的互联网连接,Llama 3.1 + LLaVA 选项提供了一个自包含的解决方案。如果您更喜欢 OpenAI 模型的灵活性和强大功能,并且已准备好 API 密钥,请选择 OpenAI 选项。

一旦模型文件下载并安装完成,Watcher 就可以在您的 Windows 设备上使用了。
在 macOS 上部署
要在 macOS 设备上部署 Watcher 的 AI 功能,请按照以下步骤操作。
步骤 1. 在计算机的下载文件夹或指定位置找到已下载的 .dmg
文件。双击 .dmg
文件以打开它。一个新窗口将出现,显示安装包的内容。
步骤 2. 在新窗口中,您将看到 Watcher 应用程序图标和一个指向 Applications 文件夹的别名。点击并拖动 Watcher 应用程序图标到窗口中的 Applications 文件夹别名上。此操作会将 Watcher 应用程序复制到计算机的 Applications 文件夹中。一旦复制过程完成,您可以关闭 .dmg
窗口。

步骤 3. 首次启动应用程序时,Watcher 将自动开始下载所需的 AI 模型和相关文件。这些额外的下载可能需要一些时间,因为文件大小可能约为 10 GB。在模型下载过程中,请确保您的互联网连接稳定且快速,以避免任何中断或下载不完整的情况。

Llama 3.1 + LLaVA:如果选择此选项,Watcher 将自动开始下载所需的 AI 模型和相关文件。这些额外的下载可能需要一些时间,因为文件大小可能约为 10 GB。在模型下载过程中,请确保您的互联网连接稳定且快速,以避免任何中断或下载不完整的情况。
OpenAI:如果您更倾向于使用 OpenAI 的模型,您需要提前准备好您的 OpenAI API 密钥。确保您拥有有效的 API 密钥以及足够的额度来使用 OpenAI 模型。当系统提示时,输入您的 API 密钥以配置 Watcher 使用 OpenAI 的服务。
选择最适合您需求和资源的选项。如果您有充足的存储空间和可靠的互联网连接,Llama 3.1 + LLaVA 选项提供了一个自包含的解决方案。如果您更喜欢 OpenAI 模型的灵活性和强大功能,并且已经准备好 API 密钥,请选择 OpenAI 选项。

一旦模型文件下载并安装完成,Watcher 就可以在您的 macOS 设备上使用了。
在 NVIDIA® Jetson AGX Orin / Linux 上部署
要在 NVIDIA® Jetson AGX Orin 或 Linux 设备上部署 Watcher 的 AI 功能,请按照以下步骤操作。
步骤 1. 在您的 Jetson AGX Orin 或 Linux 设备上打开一个终端窗口。
步骤 2. 使用 cd
命令导航到下载的 .deb
文件所在的目录。运行以下命令安装 Watcher。
sudo dpkg -i watcher_service_x.x.x_arm64.deb
将 watcher_service_x.x.x_arm64.deb
替换为实际下载的 .deb
文件的名称。安装过程将开始。系统可能会提示您输入系统密码以授权安装。等待安装完成。终端将显示进度和任何附加信息。

步骤 3. 安装完成后,您可以通过在终端中输入 watcher
或在应用程序启动器中找到它来启动 Watcher。

Llama 3.1 + LLaVA:如果您选择此选项,Watcher 将自动开始下载所需的 AI 模型和相关文件。这些额外的下载可能需要一些时间,因为它们的大小可能达到 10 GB。在模型下载过程中,请确保您拥有稳定且快速的互联网连接,以避免任何中断或下载不完整的情况。
OpenAI:如果您更倾向于使用 OpenAI 的模型,您需要提前准备好您的 OpenAI API 密钥。确保您拥有有效的 API 密钥以及足够的额度来使用 OpenAI 模型。当系统提示时,输入您的 API 密钥以配置 Watcher 使用 OpenAI 的服务。
选择最适合您需求和资源的选项。如果您有充足的存储空间和可靠的互联网连接,Llama 3.1 + LLaVA 选项提供了一个自包含的解决方案。如果您更喜欢 OpenAI 模型的灵活性和强大功能,并且已经准备好 API 密钥,请选择 OpenAI 选项。

与 Windows 和 macOS 安装类似,Watcher 将自动开始下载所需的 AI 模型和相关文件。
在 SenseCraft APP 中配置本地 AI 服务的使用
要在 SenseCraft APP 中使用 Watcher 提供的本地 AI 服务,请按照以下简要步骤操作:
步骤 1. 在您的设备上打开 Watcher APP,然后点击左中部的 CLICK TO START SERVICE 按钮。等待按钮变为 SERVICE IS STARTED。

步骤 2. 在 SenseCraft APP 中,导航到 Watcher 界面并点击右上角的设置按钮。从设置菜单中选择 Device AI Service。
步骤 3. 从 Watcher APP 的主屏幕复制 URL 和 Token。
步骤 4. 将 URL 和 Token 粘贴到 SenseCraft APP 中 Device AI Service 设置的相应字段中。

步骤 5. 您现在可以通过 SenseCraft APP 向 Watcher 分配任务,Watcher 将使用其本地部署的 AI 功能处理这些任务。

请注意,确保您的计算机符合 硬件准备 中推荐的计算机配置。如果低于推荐配置,您可能无法及时收到识别结果和警报消息,因为您的计算机可能正在全力分析某张图片,此时 Watcher 将显示为持续观察状态。
通过完成这些步骤,您可以直接在设备上利用 Watcher 的 AI 服务,确保增强的隐私性以及方便地定制您自己的集成系统。通过本地运行的 Watcher AI 功能,您可以安全高效地执行高级任务、分析和自动化操作,同时保持对数据的控制。
我们将在应用程序目录中继续添加使用 HTTP 消息块 进行消息推送的教程,敬请期待!
常见问题解答
SenseCap Watcher 服务无法工作

服务主机的 IP 应该是您的计算机 IP 地址,如果不是,SenseCAP Watcher 服务将无法工作。您需要按照以下步骤修复:
按 Win + R > 输入 "ncpa.cpl" > 回车。
右键单击“Wi-Fi”或“以太网” > 选择“属性”。
双击 IPv4 或 IPv6 > 点击“高级”。
取消勾选“自动跃点数” > 输入 1(或您期望的数字) > 点击“确定”。

技术支持与产品讨论
感谢您选择我们的产品!我们致力于为您提供多种支持,确保您使用我们的产品时能够获得顺畅的体验。我们提供了多种沟通渠道,以满足不同的偏好和需求。