Skip to main content

在本地部署 Watcher 的 AI 功能


SenseCAP Watcher 是一个 AI 监控器,帮助您监控空间内的异常情况并采取相应行动。虽然 Watcher 可以使用 SenseCraft AI 服务,但它也提供了在您自己的设备上本地部署 AI 功能的选项,为您提供更大的控制权、隐私保护和灵活性。

在这个综合指南中,我们将引导您完成在本地设备上设置和部署 Watcher AI 服务的过程。无论您使用的是 Windows PC、macOS 机器还是 NVIDIA® Jetson AGX Orin,我们都将提供逐步说明,帮助您在自己的环境中利用 Watcher AI 功能的强大能力。

在本指南中,我们将涵盖必要的软件和硬件准备、每个支持平台的部署过程,以及如何有效利用 Watcher 的本地 AI 服务来解锁新的可能性并提高您的生产力。在本指南结束时,您将对如何在自己的设备上利用 Watcher 的 AI 功能有深入的了解,使您能够创建适合您需求的智能化和个性化解决方案。

软件准备

要使用 Watcher 的本地部署功能,用户首先需要下载必要的软件。软件包包括 Watcher 应用程序和设备 AI 服务组件,这些组件使用户能够设置和配置他们的本地 AI 服务。

用户可以通过以下下载链接下载 Watcher APP:

  • 适用于 Windows
  • 适用于 macOS
  • 适用于 Linux

请根据您的操作系统选择合适的下载链接。Watcher APP 兼容 Windows、macOS 和主要的 Linux 发行版,确保在不同平台上都能获得无缝体验。

硬件准备

为了确保在本地部署 Watcher 的 AI 功能时获得流畅和最佳的体验,您的设备必须满足最低硬件要求。这些要求因操作系统而异。以下是每个支持平台的硬件要求:

WindowsMacLinux (arm64)
显卡(推荐配置)GeForece RTX2070Apple M1 16 GBGeForece RTX2070
内存(最低配置)8 GB16 GB8 GB
存储空间(最低配置)20 GB20 GB20 GB

需要注意的是,这些是最低要求,拥有更高的规格可以显著提高 Watcher AI 服务的性能和响应速度。如果您计划同时部署多个 AI 服务或处理大量数据,我们建议使用具有更先进硬件配置的设备。

性能考虑

Watcher 本地部署的 AI 服务的性能可能会根据您设备的硬件规格而有所不同。以下是一些一般性能指导原则:

  • 内存:更大的内存容量可以实现更流畅的多任务处理,并能够处理更复杂的 AI 模型和更大的数据集。
  • 显卡:像 RTX2070 这样的专用显卡可以大大加速 AI 计算,特别是涉及计算机视觉和深度学习的任务。
  • 存储空间:充足的存储空间对于存储 AI 模型、数据集和生成的输出至关重要。推荐的 20 GB 存储空间确保为 Watcher 的 AI 服务提供充足的空间。

在本地部署 Watcher 的 AI 服务时,考虑您的具体用例和打算使用的 AI 模型的复杂性至关重要。如果您需要实时处理或计划处理资源密集型任务,建议选择更高端的硬件配置以确保最佳性能。

通过满足硬件要求并考虑上述性能因素,您可以确保在本地设备上顺利高效地部署 Watcher 的 AI 功能。

设备基准测试

以下是我们在一些设备上部署 AI 服务后的响应时间线。

设备Windows 10 32GB 配 GeForce RTX4060 显卡Windows 10 16GB 无显卡Mac Mini M1 (16 GB)NVIDIA® Jetson AGX Orin 32GB
任务分析时间5s17m14s36s18s
图像分析时间4s4m10s8s7s

在将 NVIDIA Jetson AGX 系列产品与消费级显卡(如 RTX 4090)进行 AI 相关任务比较时,Jetson AGX 系列提供了几个关键优势:

  1. 工业级可靠性:Jetson AGX 系列产品专为工业和商业应用而设计,这意味着它们具有更长的平均故障间隔时间(MTBF)。它们被设计为连续运行,24/7 全天候工作而不会遇到问题。相比之下,像 RTX 4090 这样的消费级显卡并非为如此苛刻的全天候运行而设计,可能无法提供相同级别的可靠性。

  2. 紧凑尺寸和低功耗:Jetson AGX 系列产品专为嵌入式和边缘计算应用而设计。与高端消费级显卡相比,它们具有更小的外形尺寸和更低的功耗。这使得它们更适合在空间受限的环境中部署,并降低了整体运营成本。较低的功耗也意味着更少的热量产生,这对嵌入式系统至关重要,有助于最小化冷却需求。

除了这些优势之外,Jetson AGX 系列还提供了针对 AI 工作负载优化的全面软件堆栈,使开发人员更容易高效地创建和部署 AI 应用程序。工业级可靠性、紧凑尺寸、低功耗和优化软件堆栈的结合,使 Jetson AGX 系列成为 AI 相关项目和应用的引人注目的选择,特别是与像 RTX 4090 这样的消费级显卡相比。

在 Windows 上部署

要在 Windows 设备上部署 Watcher 的 AI 功能,请按照以下简单步骤操作。

步骤 1. 在计算机的下载文件夹或指定位置找到下载的 .exe 文件。双击 .exe 文件开始安装过程。安装向导将引导您完成设置过程。在安装过程中,您无需进行任何额外的选择或配置。

步骤 2. 安装完成后,启动 Watcher 应用程序。首次启动应用程序时,系统会提示您选择要使用的 AI 模型。Watcher 提供两个选项。

  1. Llama 3.1 + LLaVA:如果您选择此选项,Watcher 将自动开始下载所需的 AI 模型和相关文件。这些额外的下载可能需要一些时间,因为它们的大小约为 10 GB。确保在模型下载过程中拥有稳定且快速的互联网连接,以避免任何中断或下载不完整的情况。

  2. OpenAI:如果您更喜欢使用 OpenAI 的模型,您需要提前准备好 OpenAI API 密钥。确保您拥有有效的 API 密钥和足够的积分来使用 OpenAI 模型。在提示时,输入您的 API 密钥以配置 Watcher 使用 OpenAI 的服务。

选择最适合您需求和资源的选项。如果您有充足的存储空间和可靠的互联网连接,Llama 3.1 + LLaVA 选项提供了一个自包含的解决方案。如果您更喜欢 OpenAI 模型的灵活性和强大功能,并且已准备好 API 密钥,请选择 OpenAI 选项。

一旦模型文件下载并安装完成,Watcher 就可以在您的 Windows 设备上使用了。

在 MacOS 上部署

要在 macOS 设备上部署 Watcher 的 AI 功能,请按照以下步骤操作。

步骤 1. 在计算机的下载文件夹或指定位置找到下载的 .dmg 文件。双击 .dmg 文件打开它。将出现一个新窗口,显示安装包的内容。

步骤 2. 在新窗口中,您将看到 Watcher 应用程序图标和应用程序文件夹的别名。点击并将 Watcher 应用程序图标拖拽到窗口内的应用程序文件夹别名上。此操作将把 Watcher 应用程序复制到您计算机的应用程序文件夹中。 复制过程完成后,您可以关闭 .dmg 窗口。

步骤 3. 首次启动应用程序时,Watcher 将自动开始下载所需的 AI 模型和相关文件。这些额外的下载可能需要一些时间,因为它们的大小约为 10 GB。确保在模型下载过程中拥有稳定且快速的互联网连接,以避免任何中断或下载不完整的情况。

  1. Llama 3.1 + LLaVA:如果您选择此选项,Watcher 将自动开始下载所需的 AI 模型和相关文件。这些额外的下载可能需要一些时间,因为它们的大小约为 10 GB。确保在模型下载过程中拥有稳定且快速的互联网连接,以避免任何中断或下载不完整的情况。

  2. OpenAI:如果您更喜欢使用 OpenAI 的模型,您需要提前准备好 OpenAI API 密钥。确保您拥有有效的 API 密钥和足够的积分来使用 OpenAI 模型。在提示时,输入您的 API 密钥以配置 Watcher 使用 OpenAI 的服务。

选择最适合您需求和资源的选项。如果您有充足的存储空间和可靠的互联网连接,Llama 3.1 + LLaVA 选项提供了一个自包含的解决方案。如果您更喜欢 OpenAI 模型的灵活性和强大功能,并且已准备好 API 密钥,请选择 OpenAI 选项。

一旦模型文件下载并安装完成,Watcher 就可以在您的 macOS 设备上使用了。

在 NVIDIA® Jetson AGX Orin / Linux 上部署

要在 NVIDIA® Jetson AGX Orin 或 Linux 设备上部署 Watcher 的 AI 功能,请按照以下步骤操作。

步骤 1. 在您的 Jetson AGX Orin 或 Linux 设备上打开终端窗口。

步骤 2. 使用 cd 命令导航到下载的 .deb 文件所在的目录。运行以下命令来安装 Watcher。

sudo dpkg -i watcher_service_x.x.x_arm64.deb

watcher_service_x.x.x_arm64.deb 替换为下载的 .deb 文件的实际名称。安装过程将开始。您可能需要输入系统密码来授权安装。等待安装完成。终端将显示进度和任何其他信息。

步骤 3. 安装完成后,您可以通过在终端中输入 watcher 或在应用程序启动器中找到它来启动 Watcher。

  1. Llama 3.1 + LLaVA:如果您选择此选项,Watcher 将自动开始下载所需的 AI 模型和相关文件。这些额外的下载可能需要一些时间,因为它们的大小可能约为 10 GB。确保在模型下载过程中拥有稳定且快速的互联网连接,以避免任何中断或不完整的下载。

  2. OpenAI:如果您更喜欢使用 OpenAI 的模型,您需要提前准备您的 OpenAI API 密钥。确保您有一个有效的 API 密钥和足够的积分来使用 OpenAI 模型。当提示时,输入您的 API 密钥来配置 Watcher 使用 OpenAI 的服务。

选择最适合您需求和资源的选项。如果您有充足的存储空间和可靠的互联网连接,Llama 3.1 + LLaVA 选项提供了一个自包含的解决方案。如果您更喜欢 OpenAI 模型的灵活性和强大功能,并且已经准备好 API 密钥,请选择 OpenAI 选项。

与 Windows 和 macOS 安装类似,Watcher 将自动开始下载所需的 AI 模型和相关文件。

在 SenseCraft APP 中配置使用本地 AI 服务

要在 SenseCraft APP 中使用 Watcher 提供的本地 AI 服务,请按照以下简洁步骤操作:

步骤 1. 在您的设备上打开 Watcher APP,点击中左部分的 CLICK TO START SERVICE 按钮。等待按钮变为 SERVICE IS STARTED

步骤 2. 在 SenseCraft APP 中,导航到 Watcher 界面,点击右上角的设置按钮。从设置菜单中选择 Device AI Service

步骤 3. 从 Watcher APP 的主屏幕复制 URL 和 Token。

步骤 4. 将 URL 和 Token 粘贴到 SenseCraft APP 中 Device AI Service 设置的相应字段中。


步骤 5. 现在您可以通过 SenseCraft APP 为 Watcher 分配任务,Watcher 将使用其本地部署的 AI 功能来处理这些任务。

caution

请注意,确保您的计算机满足 硬件准备 中推荐的计算机配置是很重要的。如果低于推荐配置,那么您可能无法及时收到识别结果和报警消息,因为您的计算机可能正在全力分析您的其中一张图像,此时 Watcher 将显示为持续观察状态。

通过完成这些步骤,您可以直接在设备上利用 Watcher 的 AI 服务的强大功能,确保增强隐私并能够方便地定制您自己的集成系统。通过 Watcher 的 AI 功能在本地运行,您可以安全高效地执行高级任务、分析和自动化,同时保持数据在您的控制之下。

我们将继续在应用程序目录中添加关于在本地化部署后使用 HTTP Message Block 进行消息推送的教程,敬请关注!

常见问题

SenseCap Watcher 服务无法工作

服务主机的 IP 应该是您的计算机 IP 地址,如果不是,SenseCAP Watcher 服务将无法工作。您需要按照以下步骤进行修复。

  1. 按 Win + R > 输入 "ncpa.cpl" > 回车。

  2. 右键单击 "Wi-Fi" 或以太网 > 选择 "属性"。

  3. 双击 IPv4 或 IPv6 > 点击 "高级"。

  4. 取消选中自动跃点数 > 输入 1(或您想要的数字)> 点击确定。

技术支持与产品讨论

感谢您选择我们的产品!我们在这里为您提供不同的支持,以确保您使用我们产品的体验尽可能顺畅。我们提供多种沟通渠道,以满足不同的偏好和需求。

Loading Comments...