Worauf kommt es bei der Entwicklung von embedded-Vision-Systemen an?
Die Entwicklung von embedded-Vision-Systemen erfordert klare Anforderungen und optimierte Hardware. Die Komponenten Bildsensor, Optik und Processing Board sind dabei als Einheit zu betrachten. Für eine sinnvolle Systemauslegung müssen Anwendungsbereiche präzise definiert und das Zusammenspiel der Komponenten von Anfang an optimiert werden.
Komponenten von embedded-Vision-Systemen als Einheit betrachten
Anforderungen für Bildverarbeitungssysteme definieren
Vision-Ingenieure und Entwickler müssen schon zu Beginn eines Projekts die Anwendung und die Aufgaben von embedded-Vision-Systemen bis ins Detail verstehen und genau beschreiben können, um dann die Anforderungen an das Bildverarbeitungssystem möglichst konkret abzuleiten.
Wenn sich im Nachhinein, im schlimmsten Fall während der Serienproduktion, grundlegende Anforderungen ändern, ist es oft nur in Ausnahmefällen möglich, einen Teil der Komponenten auszutauschen. In den meisten Fällen muss dann die komplette Architektur der embedded Vision-Lösung neu durchdacht und entsprechend verändert werden.
Bei der Definition der Anforderungen geht es darum, Auswirkungen einzelner Komponenten auf das Gesamtsystem zu bedenken:
- Genügt die verfügbare Bandbreite für den Datentransfer?
- Reicht die Performance der Prozessorarchitektur aus, um die Datenmengen innerhalb der geforderten Zeit tatsächlich verarbeiten zu können?
- Passt das Objektiv zum Bildsensor?
Oft fehlt bei der Abstimmung der Komponenten die praktische Erfahrung, und es gibt keine Referenzwerte. Deshalb werden die technischen Parameter der Anwendungsanforderungen meist nur geschätzt. Doch um die Anforderungen optimal zu beschreiben, ist es unumgänglich, empirische Tests zu machen. Nur so lässt sich der Parameterraum vernünftig eingrenzen. Die Umsetzung einer Serienproduktion sollte man von Anfang an mitdenken, deshalb ist eine gründliche Planung unerlässlich.
Auswahlkriterien für die Optik von embedded-Vision-Systemen
Die Optik bietet viel Potenzial, um Ergebnisse von Bildverarbeitungssystemen zu verbessern. Das Objektiv sowohl auf die Pixelgröße als auch auf das optische Format des Sensors abgestimmt werden. Der Prozessor muss die Sensorschnittstelle unterstützen und dafür sorgen, dass die implementierte Imaging Pipeline bei richtiger Abstimmung die erforderliche Bildqualität mit der gewünschten Performance liefert. Dies lässt sich durch eine entsprechende Parametrisierung des Bildsignalprozessors erreichen (ISP Tuning). Hier gibt es viele weitere Stellschrauben zur Optimierung.
Bei hohen Anforderungen an die Bildqualität ist die Optik die Komponente mit der am meisten unterschätzten Komplexität. Doch oft fehlt hier die quantitative Beschreibung der Anforderungen, etwa hinsichtlich der Abbildungsleistung. Wenn die Anforderungen ungenau oder unvollständig sind, besteht für Entwickler die Gefahr, dass die embedded Vision-Lösung im Feld nicht robust funktioniert oder Qualitätsprobleme auftreten. Das ist besonders bei hochvolumigen Projekten verhängnisvoll – hier können sich systematische Defizite, die am Anfang übersehen wurden, im weiteren Verlauf schnell zu großen Problemen ausweiten.
Sie möchten das Thema vertiefen?
Auf der embedded world Exhibition&Conference 2025
haben Sie vom 11. bis 13. März 2025 die Möglichkeit,
sich mit Branchenexperten auszutauschen.
Außerdem muss das Objektiv eine kurze Brennweite haben, um denselben Bildwinkel zu erzielen, den eine längere Brennweite in Verbindung mit einem größeren Bildsensor hätte. Dies wirkt sich auf die Blendenöffnung und damit auf die Schärfentiefe und das verfügbare Licht aus.
Wenn eine geringe optische Verzeichnung von Bedeutung ist – was bei einer Betrachtung mit dem Auge fast immer der Fall ist – muss ein Objektiv mit geringer Eigenverzerrung gewählt werden. Es erfordert normalerweise mehr optische Elemente und ist somit größer und teurer. Ist dies wegen engem Bauraum oder aus Kostengründen keine Option, lässt sich die optische Verzeichnung unter Umständen durch entsprechende Nachbearbeitung in der Imaging Pipeline minimieren. Dies ist meist jedoch nur dann möglich, wenn schon während der Systemauslegung ein Grundverständnis der Anforderungen herrscht und dadurch ein passender Bildsignalprozessor ausgewählt werden kann.
Praxistipps für die Auswahl von Komponenten für embedded-Vision-Systeme
Höhere Pixelzahlen bedeuten ein höheres Datenaufkommen in der Imaging Pipeline, das sollte man bei der Entwicklung von embedded-Vision-Lösungen schon zu Beginn beachten. Das System muss diese Datenmenge übertragen und verarbeiten können. Die Bandbreite eines Vision-Systems ist aber begrenzt, deshalb ist es wichtig, einen Kompromiss zwischen der Anzahl der Sensoren, der Auflösung pro Sensor, der Pixel-Bittiefe und der Bildrate zu finden.Darüber hinaus liegen die Daten der Sensoren üblicherweise im RAW-Format vor, sodass eine Reihe mathematischer Transformationen erforderlich ist, um ein Bild zu bekommen, das dem entspricht, was unsere Augen gewohnt sind. In verschiedenen Systemen sind aber unterschiedliche Algorithmen implementiert, und je nach RAW-Datenqualität – die von den Sensor- und Objektiveigenschaften beeinflusst wird – erzielen hier einige Systeme eine bessere und andere eine schlechtere Bildqualität. Auch hier sind entsprechende Tests empfehlenswert, um empirisch herauszufinden, wie man die besten Ergebnisse für die eigene Applikation erzielt.
embedded-Vision-Systeme entwickeln: die 8 wichtigsten Schritte
Mit diesen acht Schritten schaffen Sie die Voraussetzung für die erfolgreiche Entwicklung eines embedded-Vision-Systems:
- Anforderungen, Merkmale und technischen Spezifikationen festlegen;
- Komponenten anforderungsbezogen auswählen;
- Abhängigkeiten zwischen Sensor, Objektiv (plus Filter) und Daten-Processing verstehen und beschreiben;
- Funktionsumfang des Serienprodukts ermitteln;
- Architektur definieren;Muster entwerfen und testen;
- Produktionsprozesse einrichten;
- Qualität kontrollieren.
In der embedded vision Area der embedded world 2023 und in Track 7 der Conference erfahren Sie alles rund um eingebettet Bildverarbeitungssysteme.
Quelle: Die Originalfassung des Artikels von Andreas Knoll, WEKA-Fachmedien, und Dr. Frederik Schönebeck, Framos, lesen Sie auf elektroniknet.de