Damit ich Dich besser sehen kann

Trends in der automatischen optischen Inspektion (AOI)

Wohin führt der Weg im Bereich der automatischen optischen Inspektion (AOI)? Welche Trends sind auszumachen?

Google Tango Technologie verwendet neben einem optischen Sensor auch einen Tiefensensor, der ein Infrarot-Muster auf die Umgebung projiziert und dadurch eine Tiefenkarte (Depth Map) in Echtzeit erstellt.

Beide Informationen dienen als Basis für SLAM (Simultaneous Localization and Mapping), wodurch es prinzipiell möglich wird, eine Umgebung direkt in 3D zu scannen und sich darin zu orientieren. Die Tiefenauflösung liegt in etwa im Bereich von 1cm. Ein Gesicht wird also in Klötzchen-Auflösung dargestellt. Die Microsoft Hololens arbeitet ähnlich.

Seitdem Apple Primesense übernommen hat – dem De-Facto-Standard günstiger Tiefensensoren – war klar, dass sich Apple auch im 3D-Computing engagiert. Interessanterweise hat Apple kürzlich sein ARKit vorgestellt, welches ohne zusätzliche Tiefeninformation auskommt. Und auch Googles Antwort darauf namens ARCore arbeitet rein optisch ohne Tiefensensoren, um sich im Raum zu orientieren und diesen zu scannen. KI-Komponenten führen dabei zu immer besseren Ergebnissen bei der Muster- und Objekterkennung.

Und doch würde ich es für verfrüht erachten, das Ende der Tiefen-Technologie auszurufen, denn es gibt viele Entwicklungen, die im Gegenteil sehr erfolgreich verstärkt auf Tiefeninformation setzen. Eher mag es sein, dass kurzfristig in der alleinigen Kombination Optik und Künstliche Intelligenz schneller der Massenmarkt erschlossen werden kann.

Doch schauen wir auf eine Reihe von Beispielen, die mit Tiefeninformationen erstaunliche Ergebnisse erzielen und wie dies auch bei der automatischen optischen Inspektion eingesetzt werden kann. Betrachten wir dabei folgende Aspekte: Messgenauigkeit, Geschwindigkeit, Anwendungsgebiete

Messgenauigkeit:

Während die Primesense-Sensoren der Qualitätsklasse Microsoft Kinect oder @pixabayTango Smartphones im Zentimeter-Bereich arbeiten, ist mit einer anderen Google Technologie eine deutlich höhere Auflösung im Millimeter/Sub-Millimeter-Bereich möglich. Das Projekt Google Soli kreierte einen auf Radar-Technik basierenden Chip, der durch Mikrowellen winzige Gesten und Bewegungen der Hand messen kann. Mehrere Quellen spekulieren ernstzunehmend darüber, dass eine neue Generation von Google Tango Geräten mit solchen Chips ausgestattet werden könnten, um eine deutlich höhere Präzision zu erzielen. Solche Sensoren wären dann auch günstiger in der optischen Inspektion einsetzbar.

Geschwindigkeit:

Ein aktueller Trend im Aufnahmebereich bei VR/AR nennt sich Volumetric Video. Hier wird neben dem optischen Bild auch die Bild-Tiefe aufgezeichnet. Im Frühjahr 2015 präsentierte die Firma Lytro eine Lichtfeld-Kamera für die Aufnahme von Kinofilmen. Neben der sehr großen Kamera wird dem Regisseur zugleich ein Server-System zur Verfügung gestellt, das umfangreiche Berechnungen anstellt, um daraus direkt 3D-Daten zu erzeugen. Die Kamera kann 300 Bilder pro Sekunde mit 755 Megapixeln aufnehmen. Die Präzision der Kamera liegt im Sub-Pixel-Bereich und lässt durch die zusätzliche Tiefeninformationen sehr spannende Dinge zu, wie das filmen von Greenbox-Aufnahmen ohne Greenbox, das nachträgliche Verändern der Tiefenschärfe und das Arbeiten mit Motion-Blur. Doch aufgrund der Sensor-Größe von etwa einem halben Meter und des Preises ist dies sicher nicht die Wahl, wenn es z.B. um die Echtzeit-Inspektion einer Fertigungsstraße geht.

Und – wir müssen auch nicht so weit in die Ferne schweifen.

Im Sommer 2016 habe ich die in Kiel ansässige Raytrix GmbH besucht und mich selbst mit Lichtfeld-Technologie „ablichten“ lassen. Raytrix ist ein deutscher Hersteller von Lichtfeld-Kameras mit einer Reihe von professionellen Anwendungsgebieten. Das Spektrum reicht von 3D-Mikroskopie über die Analyse von Flüssigkeitsmechanik bis zur 3D-Optical-Inspection. Die Kamera ist klein und lässt sich somit gut in Fertigungsstraßen verbauen. Damit lassen sich z.B. Elemente wie Pins auf Leiterplatten wesentlich besser prüfen, da hierdurch direkt die Tiefeninformation mit hoher Präzision erfasst wird. Es ist zwar auch möglich, separate 2D-Kameras zu verwenden und mittels Fotogrammetrie daraus 3D-Bilder zu berechnen, doch in der Praxis führen Vibrationen und Erschütterungen dazu, dass diese Kameras häufig neu kalibriert werden müssen. Außerdem ist das Timing kritisch. Sind die verschiedenen Kameras nicht vollständig synchron, werden falsche 3D-Informationen berechnet.

Mit der Lichtfeld-Kamera mit ihren fest verbauten plenoptischen Sensoren und der Geschwindigkeit einer normalen Video-Kamera, tritt dieses Problem nicht auf, was das Setup zu einer robusten Lösung für die Industrie macht. Auch, wenn der Preis einer solchen Industrie-Kamera deutlich unter dem Kino-Modell von Lytro liegt, stellt die Preis-Sensitivität in der Logistik häufig eine Hürde dar.

Anwendungsgebiete:

Die Liste der Unternehmen, die alleine oder in Kooperationen an 3D-Aufnahme-Technologien arbeiten, wird immer länger. Von Jaunt über Facebook und OTOY bis hin zu Google und Microsoft. Nicht zu vergessen, dass für autonome Fahrzeuge in der Regel ebenfalls Tiefen-Informationen zur Berechnung der Umgebung herangezogen werden, wie für das bereits erwähnte SLAM. Somit ist in den nächsten Jahren mit einer weiteren Verbreitung ebensolcher Sensoren zu rechnen. Die Kombination der eingangs erwähnten 2D-Aufnahmen mit KI-Komponenten und der Ergänzung um 3D-Informationen ermöglicht die Ausweitung heutiger Einsatzgebiete. Und so wird es erforderlich, die klassischen Enterprise-IT-Systeme um eine dreidimensionale Schicht zu erweitern.

Die Zukunft ist dreidimensional – in der echten Welt ebenso wie in der virtuellen Welt.

Links:

Bildquelle:

Das könnte Sie auch interessieren

Bleiben Sie informiert:

its-people hilft Ihnen...

Weitere Blogthemen: