工廠自動化中的視覺缺陷偵測

透過機器視覺和晶片內建 AI 加速技術,以低延遲偵測生產線上的製造缺陷

video 觀看影片
工廠自動化中的視覺缺陷偵測

應用概覽概述

工廠和裝配線的自動化正在快速發展,為製造過程帶來更多智慧化。缺陷可能出現在生產過程的許多階段,缺陷檢驗是品質保證的關鍵步驟。機器視覺相機是一種常見的自動化偵測方法,有助於確保產品下線時沒有缺陷。

邊緣 AI 與神經網路模型能夠識別和分類零件中即使是很小、很細微的缺陷,而無需像傳統電腦視覺方法那樣對定位或方向有嚴格的要求。神經網路為視覺偵測提供了一種強大的、資料驅動的方法,降低了進入門檻。

搭載 C7™ NPU 的微處理器可加速用於視覺任務的神經網絡,模型以低延遲運行,從而能夠跟上攝影機 (> 60FPS) 和裝配線的幀速率。諸如視覺預處理加速器 (VPAC) 之類的其他晶片內建加速器可執行影像訊號處理器 (ISP) 功能,從而實現高品質、高吞吐量的影像預處理,以減少雜訊並為基於 AI 的分析準備資料。

開始評估

資料收集

訓練資料將採用與工廠生產線上使用的相機非常相似的相機所擷取的影像。照明應與工廠條件一致,包括任何額外的照明設備,如環形燈。攝影機鏡頭也會影響影像質量,因此它應該與最終系統中使用的鏡頭(如果有多個鏡頭可供選擇)保持一致。

資料集的真實標籤可以是缺陷部分的邊界框(更適用於螺絲等小型、簡單的零件),也可以是顯示缺陷的特定區域的像素的圖像遮罩(更適用於 PCB 等大型、複雜的物體)。在標註資料之前選擇模型類型,因為模型架構可能會影響所需的標註類型。

資料品質評估

資料集必須包含實際存在的缺陷類型以及生產線上物體的預期方向。將預期的照明變化類型,甚至包括照明器的部分故障納入訓練,可以提高模型對輕微設備故障的穩健性。


資料集中應該包含一些沒有缺陷的樣本和一些有缺陷的樣本——並非所有樣本都應該有缺陷。缺陷必須在圖像中可見。如果人眼看不到缺陷,那麼訓練過的模型也無法學會辨識缺陷。 

構建並訓練模型

可以使用 CCStudio™ Edge AI Studio 或 edgeai-modelmaker 對 TI 支援的神經網路進行模型訓練。更高階的開發人員可以使用自編碼器模型進行異常偵測來完成此任務。   

為您的需求找出合適的模型

選擇最適合您缺陷的模型類型

  • 物體偵測模型(例如 YOLOX):最適合發現明顯的、獨立的缺陷,例如裂縫、缺失零件或其他較大缺陷。
  • 語意分割模型(例如 DeepLabv3):非常適合偵測表面問題,例如變色或紋理問題。

平衡解析度和速度

選擇足夠高的解析度,以便發現重要的微小缺陷,但又不能太詳細,以免減慢檢查過程。大多數系統透過縮小原始擷取影像的尺寸來減少需要處理的資料量,從而提高效率。

考慮針對特殊情況進行異常偵測

對於無法預測或難以定義缺陷的情況,異常偵測模型(使用自編碼器)可以提供更簡單的方法。這些模型會學習"正常"產品的外觀,並將任何不同的產品標記為潛在缺陷——無需使用有缺陷的產品進行訓練。但是,Edge AI Studio 或 edgeai-modelmaker 不支援這些類型的模型,因此開發人員必須自行實作自編碼器神經網路,並將其匯出為 ONNX 等受支援的格式。 

部署模型

模型部署需要預先針對目標硬體加速器編譯模型。使用 Edge AI Studio 和 edgeai-modelmaker 等工具,可自動完成編譯。否則,編譯模型將需要透過 TI GitHub 上的 edgeai-tidl-tools 等軟體包,使用自帶模型流程完成單獨的步驟。

模型偽影透過 ONNX Runtime、LiteRT(即原先的 tensorflow-lite)和 TVM 等執行階段進行部署,並使用 TI 深度學習 (TIDL) 作為硬體加速的後端軟體。

要將模型部署到端對端視覺應用程式中,首先需要 edgeai-gst-apps。它除了加速 AI 模型本身之外,還透過多個階段的硬體加速來建立管線,以對影像進行預處理和後處理。

除了 edgeai-gst-apps 之外,我們還建立了一個演示程序,用於偵測小型物體(環形終端)上的缺陷,該演示程序使用 YOLOX-Nano 物體偵測網絡,並以 edgeai-gst-apps 為基準。此模型使用 Edge AI Studio 進行訓練,能夠識別合格零件與多種類型的缺陷。進一步的後處理和視覺化顯示了合格零件和不合格零件數量的統計數據。

選擇適合您的裝置

設備的選擇將取決於所需的 AI 性能等級和攝影機吞吐量(解析度和幀速率)。

下表中的基準測試結果皆使用 SDK 版本 10.1 產生。

產品編號
處理核心
可用的 NPU
缺陷偵測基準
YOLOX-Nano(416x416) 性能
SSD-Mobilenetv2 (512x512) 性能
DeepLabv3 分割 (512x512) 性能
AM62A7
4x Arm®
Cortex®-A53 + C7™ NPU
2 TOPS

8.69ms

115 FPS

14.51ms

68 FPS

25.3ms

39 FPS

TDA4VE-Q1
4x Arm®
Cortex®-A53 + C7™ NPU
8 TOPS

4.23ms

236 FPS

5.46ms

183 FPS

7.66ms

130 FPS

FPS(每秒幀數)

 

開始使用所需的所有硬體、軟體與資源

硬體

SK-AM62A-LP
AM62A 是 AM6xA 系列中成本最低的 AI 加速裝置,最適合用於評估。可以使用通用的 USB 攝影機或網路攝影機對即時資料進行影像擷取和模型評估

軟體與開發工具

PROCESSOR-SDK-LINUX-AM62A
Edge AI 處理器 SDK 基於 Linux,且包含運行已編譯模型並進行硬體加速所需的必要軟體元件。可取代 AM62A 等其他邊緣 AI 加速處理器

CCStudio™ Edge AI Studio
該工具包含用於訓練、編譯和部署模型到 TI 邊緣 AI 處理器的工具。我們提供模型選擇工具,方便您查看預先產生的熱門模型基準測試結果。

命令列工具
適用於支援 Linux 和 TIDL 的微處理器裝置的工具。TI 的邊緣 AI 解決方案提供了一套豐富的工具和最佳化的函式庫,簡化了 DNN 開發和部署的整個產品生命週期。 

支援資源

演示應用程式,用於建立和部署使用 Edge AI Studio 訓練的物件偵測神經網路的缺陷偵測模型。

工業 | 視覺

利用配備 C7™ NPU 的處理器,即時偵測影像中的精細障礙物和路徑