Kamera-Benchmarking für Prozesssteuerungstool

Im Kooperationsprojekt PST entwickeln wir in unseren Laboren zusammen mit fünf weiteren Partnern ein Prozesssteuerungstool für den 3D-Druck. 3D-Drucken erfreut sich immer größerer Beliebtheit, wird bisher in der industriellen Fertigung jedoch aufgrund starker Qualitätsschwankungen nur selten verwendet. Das geplante Prozesssteuerungstool soll diesen Qualitätsschwankungen entgegenwirken, in dem der Druckvorgang zum einen automatisiert überwacht und abgeglichen wird, zum anderen der Druckvorgang auch vorab simuliert werden kann, um Schwachstellen in der Vorlage eines 3D-Modells zu erkennen.

Unsere Aufgaben in diesem Kooperationsprojekt sind dabei eine 3D-Visualisierung der Prozesssimulation, der Einsatz Künstlicher Intelligenz zur Bestimmung der Druckqualität, sowie die Erstellung und Entwicklung eines Testaufbaus mit 3D-Kameras.

Aktuell arbeitet Vishnu Prachandabhanu an einem Benchmark von möglichweise geeigneten Kamerasystemen, welche den 3D-Druckprozess überwachen und qualitativ bewerten sollen. Der Markt an verfügbaren Kamerasystemen ist groß, auch die Preisspanne reicht von wenigen hundert Euro bis mehreren tausend Euro. Je nach Fähigkeit der Systeme ist auch die Kombination aus mehreren Kameratypen möglich, wobei sowohl 2D- als auch 3D-Kamerasysteme zum Einsatz kommen können. Die qualitative Bewertung soll dabei nach zwei Kriterien erfolgen, der Farbe des Filaments sowie der Größe des 3D-Druckteils bezogen auf das ursprüngliche, virtuelle Druckobjekt. In unserem Labor stehen bereits diverse Kameras hardwaretechnisch zur Verfügung, welche in vergangenen Projekten bereits zum Einsatz kamen.

Für das Kamera-Benchmarking wurden die Kamerasysteme Microsoft Azure Kinect DK, Intel Realsense D455 und Nimbus 3D verwendet, die nach den definierten Kriterien bewertet werden. 

  1. 3D-Datenstabilität: Aufgrund der Art der Berechnung von Tiefendaten erzeugt eine feststehende Kamera, die auf eine statische Szene schaut, ein verrauschtes Tiefensignal zwischen aufeinanderfolgenden Bildern. Das Ziel dieses Experiments ist es, die Variation der Tiefenkarten abzuschätzen, oder mit anderen Worten, die Stabilität des Tiefenkartensignals. Dazu wird die Tiefenkamera parallel zur nicht reflektierenden Oberfläche positioniert, die Stabilität des gültigen Pixelsignals berechnet und zwischen den Kameras verglichen. 
  2. Dimensionsmessfehler: Bei diesem Verfahren werden die Abmessungen des Objekts anhand der 3D-Kameradaten berechnet und mit den tatsächlichen Abmessungen verglichen.
  3. Handhabung der Software: Hier werden die Kamerasysteme nach ihrer verfügbaren Dokumentation und der Benutzerfreundlichkeit der Software bewertet. 
  4. Qualität der Farbkamera: Mit diesem Experiment soll die Fähigkeit des 2D-Kamerasystems, die verschiedenen Farben im Farbraum zu erkennen, untersucht werden. David McAdam hat 25 Ellipsen mit unterschiedlichen Größen und Ausrichtungen definiert, in denen ein durchschnittliches menschliches Auge nicht zwischen zwei Farbtönen unterscheiden kann. Diese Ellipsen tragen wesentlich dazu bei, die Empfindlichkeit der Kamera zu verstehen. Dieses Experiment ist derzeit noch in Arbeit. Die Nimbus-Kamera wird für dieses Experiment nicht verwendet, da sie keine 2D-Farbkamera enthält.

Im Verlauf der Experimente zeigten sich die deutlichen Vorteile der Azure Kinect DK in den Bereichen der 3D-Datenstabilität sowie bei der Dimension Messfehler, bei der Handhabung der Software schnitt die Realsense D455 am besten ab. Im Bereich der Qualität der Farbkamera ist das Experiment noch nicht endgültig abgeschlossen, aber auch hier zeichnen sich die Vorteile der Azure bereits ab, sodass unsere Empfehlung sein wird, mit der Azure Kinect DK weiterzuarbeiten.

Im weiteren Verlauf des Arbeitspaketes wird ein Testaufbau entworfen und aufgebaut, bei welchem die richtige Position der Kamera bzw. Kameras für die Anforderungen an die Farb- und Größenmessung der gedruckten Teile gefunden werden muss.