Visuelle Fehlererkennung in der Fertigungsautomatisierung

Erkennen von Fertigungsfehlern im Fertigungsbereich mit kurzer Latenzzeit mit maschinellem Sehen und On-Chip-KI-Beschleunigung

video Video ansehen
Visuelle Fehlererkennung in der Fertigungsautomatisierung

Anwendungsübersicht

Die Automatisierung in Fabriken und Montagelinien schreitet rasant voran und macht den Fertigungsprozess intelligenter. Fehler können in vielen Phasen des Prozesses auftreten, daher ist eine Inspektion ein entscheidender Schritt für die Qualitätssicherung. Kameras für maschinelles Sehen sind eine gängige automatische Methode zur Inspektion, die dazu beiträgt, dass Produkte fehlerfrei das Ende der Produktion erreichen.

Edge-KI-Modelle und Modelle basierend auf neuronalen Netzen können auch kleine, winzige Fehler in Teilen erkennen und klassifizieren, ohne strenge Positionierungs- oder Orientierungsanforderungen, die bei herkömmlichen Computer-Vision-Ansätzen üblich sind. Neuronale Netze bieten einen robusten, datengestützten Ansatz für die visuelle Inspektion und senken die Eintrittsbarriere.

Mikroprozessoren mit der C7™-NPU beschleunigen neuronale Netze für Bildverarbeitungsaufgaben, wobei Modelle mit geringen Latenzzeiten ausgeführt werden, sodass sie mit der Bildfrequenz der Kamera (> 60 FPS) und der Montagelinie Schritt halten. Zusätzliche On-Chip-Beschleuniger wie der Vision Preprocessing Accelerator (VPAC) zur Durchführung von Bildsignalprozessorfunktionen (Image Signal Processor, ISP) ermöglichen eine qualitativ hochwertige Bildvorverarbeitung mit hohem Durchsatz, um Rauschen zu reduzieren und Daten für KI-basierte Analysen vorzubereiten.

Evaluierung zum Einstieg

Datensammlung

Bei den Trainingsdaten handelt es sich um Bilder, die von einer Kamera erfasst werden, die genau mit der im Fertigungsbereich verwendeten übereinstimmt. Die Beleuchtung sollte den Werksbedingungen entsprechen, einschließlich zusätzlicher Beleuchtungskörper wie Ringlichter. Das Kameraobjektiv kann sich auch auf die Bildqualität auswirken, daher sollte es mit dem Objektiv (oder den Objektiven, wenn mehrere Optionen verfügbar sind) übereinstimmen, das im endgültigen System verwendet wird.

Bei der Ground Truth des Datensatzes kann es sich um Beschriftungen handeln, wie Rahmen um defekte Teile (besser für kleine, einfache Teile wie Schrauben) oder Bildmasken, die Pixel in bestimmten Bereichen isolieren, um Fehler anzuzeigen (besser für große, komplexe Objekte wie Leiterplatten). Wählen Sie den Modelltyp aus, bevor Sie Daten beschriften, da die Modellarchitektur die Art der erforderlichen Anmerkungen beeinflussen kann.

Bewertung der Datenqualität

Der Datensatz muss Typen realistischer Fehler und erwartete Ausrichtungen der Objekte auf den Fergigungsbereich enthalten. Erwartete Arten von Beleuchtungsschwankungen, auch bei Teilausfall von Beleuchtungskörpern, können die Stabilität der Modelle gegen kleinere Geräteausfälle verbessern.


Der Datensatz sollte sowohl Muster enthalten, die keine Fehler aufweisen, als auch einige, die Fehler aufweisen – nicht alle Muster sollten Fehler aufweisen. Die Fehler müssen im Bild sichtbar sein. Wenn das menschliche Auge den Fehler nicht sehen kann, lernt das trainierte Modell auch nicht, ihn zu sehen. 

Erstellen und trainieren Sie Ihr Modell

Modelle können mit CCStudio™ Edge AI Studio oder edgeai-modelmaker für von TI unterstützte neuronale Netze trainiert werden. Fortgeschrittenere Entwicklen können diese Aufgabe mithilfe von Autoencoder-Modellen zur Erkennung von Anomalien angehen.

Finden Sie das richtige Modell für Ihre Anforderungen

Wählen Sie den besten Modelltyp zur Fehlererkennung aus:

  • Objekterkennungsmodelle (wie YOLOX): Am besten zum Erkennen eindeutiger, separater Fehler wie Risse, fehlende Komponenten oder anderer große Fehler geeignet.
  • Semantische Segmentierungsmodelle (wie DeepLabv3): Ideal zur Erkennung von Problemen auf Oberflächenebene wie Verfärbungen oder Texturproblemen.

Stimmen Sie Auflösung und Geschwindigkeit ab:

Wählen Sie eine Auflösung, die hoch genug ist, um wichtige kleine Fehler zu erkn, aber nicht so detailliert, dass sie Ihren Inspektionsprozess verlangsamt. Die meisten Systeme verbessern den Wirkungsgrad, indem die ursprünglich erfassten Bilder herunterskaliert werden, um die zu verarbeitende Datenmenge zu reduzieren.

Erwägen Sie Anomalieerkennung für einzigartige Fälle:

In Situationen, in denen Fehler unvorhersehbar oder schwer zu definieren sind, können Anomalieerkennungsmodelle (mit Autoencodern) einen einfacheren Ansatz bieten. Diese Modelle lernen, wie "normale" Produkte aussehen und kennzeichnen alles, was anders aussieht, als potenziellen Fehler – es ist kein Training mit Fehlerbeispielen erforderlich. Diese Modelltypen werden jedoch nicht in Edge AI Studio oder edgeai-modelmaker unterstützt, sodass Entwickelnde selbst ein neuronales Autoencoder-Netz implementieren und in ein unterstütztes Format wie ONNX exportieren müssen. 

Implementierung Ihres Modells

Für die Modellbereitstellung muss das Modell im Voraus für den Ziel-Hardwarebeschleuniger kompiliert werden. Mit Tools wie Edge AI Studio und edgeai-modelmaker erfolgt die Kompilierung automatisch. Andernfalls erfordert die Kompilierung von Modellen einen separaten Schritt durch Softwarepakete wie edgeai-tidl-Tools auf GitHub von TI mithilfe eines Bring-Your-Own-Model-Work.

Modellartefakte werden durch Laufzeiten wie ONNX Runtime, LiteRT (früher tensorflow-lite) und TVM mit TI Deep Learning (TIDL) als Backend-Software zur Beschleunigung implementiert.

Die Implementierung des Modells in einer End-to-End-Vision-Anwendung wird mit edgeai-gst-apps gestartet, welches die Pipeline mit mehreren Stufen an Hardwarebeschleunigung für die Vor- und Nachverarbeitung des Bildes zusammensetzt und zusätzlich das KI-Modell selbst beschleunigt.

Neben edgeai-gst-apps haben wir eine Demo zur Fehlererkennung an kleinen Objekten und Ringterminals erstellt, die das Objekterkennungsnetzwerk YOLOX-Nano und edgeai-gst-apps als Grundlage verwendet. Das Modell wurde mit Edge AI Studio trainiert, um fehlerfreie Teile im Vergleich zu mehreren Fehlertypen zu erkennen. Zusätzliche Nachbearbeitung und Visualisierung zeigen Statistiken zur Anzahl der fehlerfreien und fehlerhaften Teile an.

Finden Sie den richtigen Baustein für Ihre Zwecke

Die Auswahl des Bausteins hängt von dem erforderlichen KI-Leistungsniveau und dem Durchsatz der Kamera (Auflösung und Bildfrequenz) ab.

Die Benchmarks in der nachstehenden Tabelle wurden mit SDK-Version 10.1 erstellt.

Produktnummer
Verarbeitungskern
NPU verfügbar
Benchmarks für Fehlererkennung
Leistung von YOLOX-Nano (416 x 416)
Leistung von SSD-Mobilenetv2 (512 x 512)
Leistung von DeepLabv3-Segmentierung (512 x 512)
AM62A7
4x Arm®
Cortex®-A53 + C7™ NPU
2 TOPS

8,69 ms

115 FPS

14,51 ms

68 FPS

25,3 ms

39 FPS

TDA4VE-Q1
4x Arm®
Cortex®-A53 + C7™ NPU
8 TOPS

4,23 ms

236 FPS

5,46 ms

183 FPS

7,66 ms

130 FPS

FPS (Frames per second, Bilder pro Sekunde)

 

Alles an Hardware, Software und Ressourcen, was Sie zum Einstieg benötigen

Hardware

SK-AM62A-LP
AM62A ist der kostengünstigste KI-beschleunigte Baustein der AM6xA-Familie und eignet sich am besten zur Evaluierung. Eine generische USB-Kamera oder Webcam kann zur Bilderfassung und Modellevaluierung anhand von Live-Daten verwendet werden

Software- und Entwicklungstools

PROZESSOR-SDK-LINUX-AM62A
Das Edge-KI-Prozessor-SDK basiert auf Linux und enthält die notwendigen Softwarekomponenten zur Ausführung eines kompilierten Modells mit Hardwarebeschleunigung. Andere Edge-KI-beschleunigte Prozessoren können statt AM62A verwendet werden

CCStudio™ Edge AI Studio
Dieses Tool enthält Tools für Training, Kompilierung und Bereitstellung eines Modells für Edge-KI-Prozessoren von TI. Ein Modellauswahltool ist verfügbar, um vorgenerierte Benchmarks gängiger Modelle anzuzeigen.

Befehlszeilen-Tools
Tools für Mikroprozessorbausteine mit Linux- und TIDL-Unterstützung. Die Edge-KI-Lösung von TI vereinfacht den gesamten Produktlebenszyklus der DNN-Entwicklung und -Implementierung durch eine Vielzahl von Tools und optimierten Bibliotheken. 

Unterstützende Ressourcen

Demoanwendung zum Erstellen und Bereitstellen eines Fehlererkennungsmodells unter Verwendung eines in Edge AI Studio trainierten neuronalen Netzes zur Objekterkennung.

Industrie | Vision

Erkennen von feinkörnigen Hindernissen und Pfaden auf Bildern in Echtzeit mit Prozessoren mit C7™-NPU