具延遲低 25 倍之視覺系統中的物體偵測
透過 AI 加速的處理器和符合業界標準的軟體,以高幀率即時尋找和定位特定物體與人員
應用概覽概述
許多基於視覺的系統都需要偵測攝影機視野中的物體,例如車輛、人員、人臉、故障部件和可掃描的代碼。了解物體的數量和位置,對於工廠自動化、家庭/樓宇安防、汽車安全、機器人等領域中的應用至關重要。
複雜的物體需要深度學習 AI 解決方案,才能進行可靠、準確的偵測。專家級知識可以被待偵測物體的範例影像所取代,從而簡化開發過程。 基於 AI 的物體偵測對場景變化(如光線、意外物體和感測器雜訊)也更具穩健性。
在邊緣整合 AI 可以提高系統的隱私性和安全性,並提供不受網路速度或可靠性限制的快速反應。硬體加速(如 TDA4x 和 AM62A 設備中的 C7™ NPU)和業界標準工具(如 ONNX Runtime)可讓物體偵測開源 AI 模型能夠在晶片上即時運作。
開始評估
資料收集
物件偵測訓練資料由影像和標註組成,其中標註描述了影像中哪些物件位於何處。TI 工具使用 MS COCO 格式的資料集。
用於目標偵測的影像應與終端系統運作的環境相符。在相似的光照條件、攝影機鏡頭和環境變化下擷取資料,將有助於提高訓練模型的準確率。
資料品質評估
影像品質對於訓練輸出的高準確度至關重要,資料中應該存在一定程度的變化。待偵測的物體應該以不同的方式呈現,例如旋轉物體、使其靠近或遠離攝影機,或故意遮蔽物體的一部分,使其不完全展現在攝影機前。訓練資料中增加更多變化將確保你的模型能夠處理現實世界中的此類變化,儘管這不是絕對必要的。
每種物體類型只需幾十張圖像就足以建立一個相當精確的模型。
構建並訓練模型
我們提供一組最佳化的模型,可透過 CCStudio™ Edge AI Studio 或 TI 官方 GitHub 上的類似命令列工具在自訂資料集上進行微調。 使用者只需提供資料集並配置一些訓練參數,例如訓練輪數和學習率。
訓練完成後,需要將模型編譯成目標硬體版本,以便進行部署。 命令行工具和圖形工具都會自動完成此編譯步驟。
為您的需求找出合適的模型
每款支援的設備有多種模型可供選擇。準確度和速度之間需要取得平衡,較大的模型精度更高,但運行速度較慢。為您的需求找出合適的模型。
部署模型
模型部署需要預先編譯模型,以便針對目標硬體進行最佳化。使用 Edge AI Studio 等工具,可自動完成編譯。否則,編譯模型將需要透過 TI GitHub 上的 edgeai-tidl-tools 等軟體包完成單獨的步驟。
模型偽影透過 ONNX Runtime、tensorflow-lite 和 TVM 等執行階段進行部署,並使用 TI 深度學習 (TIDL) 作為硬體後端進行加速。使用 TI 工具訓練的模型將在 PyTorch 中進行訓練,並匯出 ONNX 模型以供 ONNX Runtime 使用。
透過 edgeai-gst-apps 可以將模型部署到端對端視覺應用程式中,該應用程式除了加速 AI 模型本身之外,還透過多個階段的硬體加速來建立管線,以對影像進行預處理和後處理。
選擇適合您的裝置
TI 處理器在各種模型上進行了基準測試,這些資料可在 Edge AI Studio 中找到。雖然有多種物體偵測模型可供選擇,並且可以在有或沒有 NPU 的裝置上運行,但效能差異表明,即時處理從 NPU 中獲益匪淺。
開始使用所需的所有硬體、軟體與資源
硬體
SK-AM62A-LP
AM62A 是 AM6xA 系列中成本最低的 AI 加速裝置,最適合用於評估。可以使用通用的 USB 攝影機或網路攝影機對即時資料進行影像擷取和模型評估
軟體與開發工具
PROCESSOR-SDK-LINUX-AM62A
Edge AI 處理器 SDK 基於 Linux,且包含運行已編譯模型並進行硬體加速所需的必要軟體元件。可取代 AM62A 等其他邊緣 AI 加速處理器
CCStudio™ Edge AI Studio
該工具包含用於訓練、編譯和部署模型到 TI 邊緣 AI 處理器的工具。我們提供模型選擇工具,方便您查看預先產生的熱門模型基準測試結果。
命令列工具
適用於支援 Linux 和 TIDL 的微處理器裝置的工具。TI 的邊緣 AI 解決方案提供了一套豐富的工具和最佳化的函式庫,簡化了 DNN 開發和部署的整個產品生命週期。
TIDL 工具
尋找 TI 深度學習基礎範例並編譯自訂模型架構。
Edgeai-gst-apps
使用簡單的 YAML 配置文檔,透過 gstreamer 在邊緣 AI 加速的 MPU 上產生端對端應用程式