Home Technology Lichtfeld-Tiefenschätzung für die Vermessung teilspiegelnder Oberflächen
Article Publicly Available

Lichtfeld-Tiefenschätzung für die Vermessung teilspiegelnder Oberflächen

  • David Uhlig EMAIL logo and Michael Heizmann
Published/Copyright: August 28, 2020

Zusammenfassung

Die Deflektometrie analysiert Messproben durch indirekte Beobachtung einer bekannten Referenzszene als Reflexion in der Oberfläche. Sie benötigt jedoch Zusatzwissen, z.B. über mindestens einen Oberflächenpunkt, um sehr präzise Oberflächengradienten zu messen. Lichtfeldkameras als optische 3D-Messgeräte erlauben es bei teilspiegelnden Oberflächen, die Entfernung sowohl zur Oberfläche als auch zur Referenzszene zu messen. In diesem Beitrag wird ein Ansatz präsentiert, bei dem diese doppelte Tiefenschätzung effektiv mit der Deflektometrie kombiniert wird. Durch Formulieren der Oberflächenrekonstruktion als Variationsproblem wird die Tiefenschätzung mit den deflektometrischen Gradienten fusioniert. Experimente bestätigen die Methode und zeigen, dass hohe Rekonstruktionsgenauigkeiten erreicht werden.

Abstract

Deflectometry analyses surfaces by indirect observation of a known reference scene via the reflection in the surface itself. But, it requires additional knowledge, e.g. about one surface point, in order to measure surface gradients very precisely. Light field cameras as optical 3D measuring devices allow to measure the distance to the surface as well as to the reference scene when observing partially reflecting surfaces. In this paper an approach is presented that effectively combines this dualdepth estimation with deflectometry. By formulating the surface reconstruction as a variation problem, the depth is fused with the deflectometric gradients. Experiments validate the method and show that high accuracy in the reconstruction is achieved.

1 Einleitung

Die Sichtprüfung spiegelnder Oberflächen gehört in der Messtechnik immer noch zu den größeren Herausforderungen. Für die Analyse solcher Oberflächen haben sich die deflektometrischen Messverfahren durchgesetzt. Sie ermöglichen es, hochpräzise Neigungsinformationen der Messprobe zu erhalten, indem sie die durch die spiegelnde Oberfläche verzerrten Bilder einer Referenzszene auswerten. Da die spiegelnde Oberfläche für den Beobachter quasi unsichtbar ist, kann die absolute Höhe mit einer herkömmlichen Kamera ohne Zusatzwissen nicht rekonstruiert werden und stattdessen erhält man eine unendliche Anzahl möglicher Oberflächen [2]. Diese Mehrdeutigkeit kann jedoch durch spezielle Messaufbauten aufgelöst werden. Mehrfachmessungen und Verschieben eines Referenzmonitors, präzise konfokale Vermessung eines einzelnen Oberflächenpunktes, telezentrische Optiken oder auch Stereo-Kamera-Ansätze können das Problem weitgehend beheben [7], benötigen jedoch aufwändige und teure Hardware, einen großen Bauraum oder zusätzlich eine sehr zuverlässige Kalibrierung.

In diesem Beitrag wird eine Lichtfeldkamera als Aufnahmegerät benutzt, da sie durch ihre sehr kompakte Bauweise leicht in einen Standard-Deflektometrieaufbau integriert werden kann. Gleichzeitig kann sie als 3D-Kamera genutzt werden, um eine effiziente Tiefenschätzung zu ermöglichen. Dabei erlauben es die speziellen Eigenschaften der Lichtfeldkamera, bei der Vermessung von teilspiegelnden Oberflächen sowohl Tiefenmerkmale auf der direkten Oberfläche zu finden als auch die Tiefe der reflektierten Szene zu bestimmen. Diese unabhängigen Messungen können als zusätzliche Informationsquelle regularisierend für die Deflektometrie genutzt werden. Da deflektometrische Messungen hochpräzise Neigungsinformationen in Form von Oberflächennormalen liefern, wird in diesem Beitrag die Oberflächenrekonstruktion als Energie-Optimierung formuliert. Minimieren des Funktionals durch einen Variationsansatz und mittels des Primal-Dual-Formalismus fusioniert die Tiefenmessungen mit den Oberflächennormalen und erhöht die Genauigkeit der 3D-Rekonstruktion.

2 Lichtfeld-Tiefenschätzung

In der geometrischen Optik kann die Strahldichte einer Szene durch das 4D-Lichtfeld L(u, v, x, y) mit zwei örtlichen Dimensionen x, y und zwei angulären Dimensionen u, v beschrieben werden. Lichtfeldkameras besitzen einen ähnlichen Aufbau wie Standard-Kameras mit dem entscheidenden Unterschied, dass vor dem Sensor ein Array von Mikrolinsen platziert ist [3]. Mit dieser Bauweise wird es möglich, das Lichtfeld der beobachteten Szene aufzunehmen. Hierbei sind x, y vergleichbar zu den Pixelkoordinaten der Standard-Kamera und u, v entsprechen dem Durchstoßpunkt des Lichtstrahls durch die Hauptlinse. Jede u, v -Koordinate repräsentiert daher eine virtuelle Subkamera, welche nur einen Teil der Hauptlinse beobachtet, weshalb eine Lichtfeldkamera auch als Multi-Kamera-Array interpretiert werden kann, siehe Abb. 1a. Die im Vergleich zur Standard-Kamera zusätzliche Information erlaubt es, nach der Aufnahme die Perspektive auf die Szene zu ändern, wodurch Tiefeninformation extrahiert werden kann, oder den Fokus im Nachhinein neu zu setzen.

Abb. 1 Im Lichtfeld einer Szene ist Tiefeninformation enthalten.
Abb. 1

Im Lichtfeld einer Szene ist Tiefeninformation enthalten.

Die Tiefe der Szene, bzw. die Entfernung eines beobachteten Objektpunktes, lässt sich im Lichtfeld über die Analyse der Epipolarebenen (engl.: epipolar plane image, EPI) bestimmen. Diese EPIs sind 2D-Schnitte durch das Lichtfeld, bei denen jeweils eine anguläre und eine örtliche Koordinate festgehalten werden. Abb. 1b zeigt ein Beispiel. Es sind Linien unterschiedlicher Steigungen zu erkennen, wobei die Orientierung der Linien die Tiefe des Objektpunktes repräsentiert [11]. Die Tiefenschätzung reduziert sich daher zu einer einfachen lokalen Orientierungsschätzung in den EPIs. Im Gegensatz zu einem Stereo-Kamera-Aufbau muss dabei kein Feature Matching durchgeführt werden. Bekannte Ansätze zur Lichtfeld-Tiefenschätzung nutzen zur Orientierungsschätzung bspw. den Strukturtensor, Hough-Transformation, oder auch neuronale Faltungsnetze [9, 11].

Untersucht man Lichtfelder, die teilspiegelnde oder transparente Objekte zeigen, so tritt ein besonderer Effekt auf. Das resultierende Lichtfeld lässt sich als Addition zweier Teillichtfelder L = Ldiffus + Lreflektiert interpretieren [14]. Für klassische Stereo-Kamera-Systeme ist diese Addition meist störend und resultiert in fehlerhaften Tiefenschätzungen. Für Lichtfelder jedoch zeigt eine Analyse der EPIs nun auch eine Überlagerung der Orientierungen, siehe Abb. 1c. Eine gleichzeitige Schätzung beider Orientierungen liefert damit sowohl eine Tiefenschätzung des teilspiegelnden Objekts als auch der reflektierten Szene. Methoden zum Schätzen der Tiefen nutzen z.B. Strukturtensoren höherer Ordnung oder optischen Fluss [12, 14].

3 Deflektometrie

Während die Lichtfeld-Tiefenschätzung für strukturierte Oberflächen gute Ergebnisse liefern kann, versagt sie an unstrukturierten Szenen, da sich jetzt keine Information mehr aus den EPIs extrahieren lässt. Noch aufwändiger wird die direkte Tiefenschätzung spiegelnd reflektierender Objekte, denn jetzt sieht die Kamera nicht die Oberfläche selbst, sondern das verzerrte Spiegelbild der Umgebung. Die spiegelnde Oberfläche ist quasi unsichtbar. Um die Struktur von Spiegeln vermessen zu können, bieten sich Verfahren mit aktiver Beleuchtung wie die Deflektometrie an. Sie erlaubt es, hochpräzise Neigungsinformationen der Oberfläche zu erhalten, welche zur 3D-Rekonstruktion oder Fehlererkennung genutzt werden können.

In der Deflektometrie wird die Oberfläche eines spiegelnden Objekts rekonstruiert, indem eine Kamera einen aktiven Mustergenerator (z.B. einen Monitor) indirekt als Reflexion in der Messprobe beobachtet. Das Messprinzip ist in Abb. 2 dargestellt. Folgt man der Ausbreitung des Lichts von der Kamera zurück zur Quelle, dann trifft hierbei ein Kamerasichtstrahl S^=ssauf die Spiegeloberfläche, wird im Punkt s reflektiert und beobachtet die Monitorebene im Punkt m.

Abb. 2 Messprinzip der Deflektometrie. Für jeden Punkt s′ kann eine hypothetische Normale n′ berechnet werden.
Abb. 2

Messprinzip der Deflektometrie. Für jeden Punkt s′ kann eine hypothetische Normale n′ berechnet werden.

Die Zuordnung von Kamerasichtstrahlen ŝ zu Monitorpunkten m kann dabei mithilfe einer zeitlichen Codierung der Monitorpixel gefunden werden. Hier bieten sich Phasenschieber-Mustersequenzen an, da sie eine subpixelgenaue Codierung in der Monitorebene erlauben, sie sogar bei Defokussierung gute Ergebnisse liefern und sie das Messrauschen durch Verlängerung der Mustersequenz kontrolliert auf die gewünschte Größe reduzieren können [6, 15]. Eine geometrische Kalibrierung der Kamera und des Kamera-Monitor-Systems [3, 13] erlaubt es anschließend, den Vektor m zu bestimmen, womit die Normale der Spiegeloberfläche berechnet werden kann: nmesss=m-sm-s-ss^.Die Integration des Normalenfeldes liefert schlussendlich die gesuchte Oberfläche. Die Unkenntnis des Punktes s führt jedoch zu mehrdeutigen Normalen n(s) und damit entlang jeden Sichtstrahls zu einer einparametrigen Lösungsmenge für die Oberfläche.

Um die Mehrdeutigkeit der deflektometrischen Messung aufzulösen, wird regularisierendes Zusatzwissen benötigt. Es reicht prinzipiell aus, nur einen Punkt der Oberfläche zu messen und ausgehend von diesem Punkt die Oberfläche aus dem Normalenfeld zu rekonstruieren [2]. Liegen jedoch mehr Messwerte vor, kann dies helfen, den Einfluss einer unsicheren und verrauschten Messung eines einzelnen Oberflächenpunktes zu reduzieren.

Die Tiefenschätzung der Lichtfeldkamera erlaubt es, Kandidaten für mögliche Oberflächenpunkte zu finden, und sie macht es damit möglich, die Mehrdeutigkeit der deflektometrischen Normalenschätzung aufzulösen. Hier ergeben sich zwei Situationen. Zunächst, wenn die Oberfläche der Messprobe diffuse Bereiche hat, kann eine Standard-Lichtfeldkamera-Tiefenschätzung benutzt werden, um direkt die Entfernung zwischen Kamera und Oberfläche für jedes Pixel bzw. für jeden Sichtstrahl zu messen. Die Menge der Tiefenwerte ddirekt schätzt dabei ║s║ und kann anschließend direkt genutzt werden, um die deflektometrische Normalenschätzung zu regularisieren. Wenn die Messprobe jedoch voll spiegelnd ist, kann die Lichtfeldkamera nicht direkt die Entfernung zur Oberfläche bestimmen. Für ebene Spiegel wird sie stattdessen die Entfernung ║s║+║r║ der reflektierten Referenzszene als Tiefe dref schätzen. Dennoch kann mithilfe des Wissens über den deflektometrischen Messaufbau und mit der Registrierung von Kamerasichtstrahlen zu Monitorpixeln aus der indirekten Lichtfeld-Tiefenmessung die direkte Entfernung zur Oberfläche berechnet werden. Mit den Messungen m = s + r und dref ≙=║s║ + ║r║ folgt:

(1)m-s2=s2+m2-2mTs,
(2)ms2=r2=(drefs)2=dref22drefs+s2.

Durch Gleichsetzen von (1) und (2) und mit S^=ssergibt sich eine Schätzung für die Distanz ║s║ zur Oberfläche:

(3)dindirekt=12m2dref2mTs^dref.

Durch die im Abschnitt 2 beschriebenen besonderen Eigenschaften der Lichtfeldkamera wird es hierbei möglich, im Gegensatz zu einem Stereokamera-Aufbau selbst bei teilspiegelnden Oberflächen sowohl die Entfernung zur Oberfläche als auch die Entfernung der Reflexion gleichzeitig sehr robust zu schätzen. Zusätzlich stehen neben der reinen Lichtfeld-Tiefenschätzung auch noch andere Möglichkeiten zur Verfügung, um auf Oberflächenpunkte zu schließen. Es kann z.B. die Lichtfeldkamera als Kamera-Array interpretiert werden, womit ein Multi-Stereo-Deflektometrie-Ansatz realisiert werden kann, bei dem die Tiefe dmulti erhalten wird [10]. Somit stehen für eine deflektometrische Messung drei unabhängige Messungen der Spiegeloberfläche zur Verfügung, welche gemeinsam zur Regularisierung der deflektometrischen Normalenschätzung genutzt werden können.

4 Rekonstruktion der Oberfläche

Prinzipiell können die Tiefenmessungen aus Abschnitt 3 direkt genutzt werden, um die Oberfläche beispielsweise durch eine Mittelwertbildung zu rekonstruieren. Da jedoch Multi-Stereo-Messsysteme wie die Lichtfeldkamera in ihrer Messgüte durch die effektive Stereo-Basisweite begrenzt sind, erreicht man mit dieser Tiefenschätzung nicht die gewünschte Genauigkeit. Dem gegenüber misst die Deflektometrie Neigungen bzw. Oberflächennormalen in einer um Größenordnungen höheren Präzision, benötigt aber Oberflächenpunkte zur Regularisierung [2]. Es ist daher sinnvoll, sich nicht nur auf die Tiefenschätzung zu verlassen. Stattdessen können die dichten deflektometrischen Messungen der Oberflächennormalen mit den verschiedenen Tiefenschätzungen, die möglicherweise auch nur spärlich vorliegen, fusioniert werden. Das Problem lässt sich durch eine Energie-Minimierung modellieren:

(4)argmins,nSnnmesss2+iwissdi2dS.

Die gesuchte Oberfläche soll minimalen Abstand zu den Regularisierungspunkten di besitzen und gleichzeitig soll der Unterschied von berechneten zu deflektometrisch gemessenen Normalen nmess minimiert werden. Dies löst die Mehrdeutigkeit der Deflektometrie auf und resultiert in einem robusteren Gesamtergebnis für die 3D-Rekonstruktion.

Da die Tiefen- und Neigungsinformationen pixelweise auf einem diskreten Gitter angeordnet sind, macht es Sinn, das Problem als diskrete Gradientenintegration zu formulieren und die gemessenen Oberflächenpunkte auf eine Tiefenkarte z(x, y) zu projizieren. Aufgrund der in der Lichtfeldkamera auftretenden perspektivischen Projektion muss hierzu eine Variablensubstitution durchgeführt werden, damit der Oberflächengradient aus den gemessenen Oberflächennormalen bestimmt werden kann [8]:

(5)ž:=logz,
(6)gn:=ž(x,y)=1xn1+yn2+fn3(n1n2),

wobei nmess = (n1, n2, n3)T, f die Fokuslänge der Kamera bezeichnet und wir den Akzent ˇ für den Rest des Abschnitts vernachlässigen. Da (4) ein schlecht gestelltes Problem ist, würde eine Minimierung kein sinnvolles Fusionsergebnis liefern. Es müssen zusätzliche regularisierende Annahmen zur Oberfläche getroffen werden. In vielen Bereichen der Bildverarbeitung wird die Totale Variation als beliebte Regularisierungmethode genutzt, da sie Unstetigkeiten in den Daten abbilden kann und gleichzeitig verrauschte Messungen glättet [5]. Sie hat jedoch den Nachteil, dass schräge Ebenen eine ungewollte, treppenförmige Struktur ausbilden können. Im Gegensatz dazu vermeidet die Totale Generalisierte Variation (TGV) diesen Effekt, indem sie Lösungen höherer Ordnung zulässt [4]. Der TGV-Term minimiert den Abstand zwischen dem Oberflächengradienten und einem Gradienten g. Zusätzlich kann g durch einen Datenterm in die Nähe des deflektometrisch gemessenen Gradienten gn gedrängt werden [1]. Gleichzeitig wird eine Abweichung der Oberfläche von den gemessenen Tiefen zi bestraft. Das diskrete Optimierungsproblem ergibt sich zu:

(7)minz,giwizzi22+wnggn22+TGVα2(z,g),

mit TGVα2z,g=α1zg1+α0Eg1,dem Gradienten ∇ und einem symmetrisierten Operator E=12+T), welche in Kombination Ableitungen 2. Ordnung repräsentieren [4], Gewichtungsfaktoren wi, wn, α0, α1 und Tiefenmessungen zi {zdirekt, zindirekt, zmulti}. Problem (7) ist konvex, aber unstetig, weshalb wir es als äquivalentes konvex-konkaves Sattelpunktproblem formulieren und mithilfe eines Primal-Dual-Algorithmus optimieren [5]:

(8)minz,gmaxp,qzg,p+Eg,p+H1(z)+H2(g)δP(p)δQ(q),
mitH1(z)=iwizzi22,H2(g)=wnggn22und
δP(p)={0,pα0,p>α0,δQ(q)={0,qα1,q>α1.

Mithilfe der zu ∇, 𝓔 adjungierten Divergenzoperatoren div, divE kann das Problem durch iterativen Gradientenabstieg in den Primal-Variablen z, g und Gradientenaufstieg in den Dual-Variablen p, q gelöst werden [4, 5]:

Primal-Dual-Optimierung:
Initialisierung: z1=z1=1Nizi,gn=g(z1),
                                            g1=g1=gn,p1=0,q1=Egn
1: fork = 1, 2, 3, . . . , kmaxdo
2:             Gradientenaufstieg in den Dual-Variablen
3:             pk+1=proxδP(pk+σp(zkgk))
4:             qk+1=proxδQqk+σqEgk
5:             Aktualisiere gemessenen Gradienten mit Glg. (6)
6:             gn=g(zk)
7:              Gradientenabstieg in den Primal-Variablen
8:             zk+1=proxH1(zkσzdivpk+1)
9:             gk+1=proxH2(gkσg(divEqk+1pk+1))
10:             Extrapolation
11:             zk+1=2zk+1zk
12:             gk+1=2gk+1gk
13: end for

Die Proximal-Operatoren lassen sich durch Lösen des separaten Problems proxF(x˜):=argxminxx˜22+F(x)auch in geschlossener Form angeben [5]:

proxδPp~=p~max1,|p~|α1,proxH1z~=z~+2σziwizi1+2σziwi,
proxδQ(q˜)=q˜max(1,|q˜|α0),proxH2(g˜)=g˜+2σzwngn1+2σzwn.

Da die deflektometrisch gemessenen Normalen von der Entfernung zur Oberfläche abhängen, wird in jeder Iteration das gemessene Gradientenfeld gn aktualisiert. Nachdem ein Minimum für Glg. (7) gefunden wurde, kann die wahre Oberfläche durch Rücksubstitution aus Glg. (5) zu z = exp(z̃) bestimmt werden.

5 Ergebnisse

Die vorgestellte Methode wurde anhand von realen Experimenten mit zwei Referenzszenen verifiziert. Zur Aufnahme der Bilder wurde die Lytro Illum Lichtfeldkamera verwendet und als Mustergenerator diente ein handelsüblicher LCD-Monitor (BenQ GW2765HT, Auflösung 2560×1440, Pixelgröße 0,233mm). Die Registrierung von Kamera- zu Monitorpixeln erfolgte mittels Multi-Frequenz-Phasenschubmustersequenzen [2].

Die erste Testszene besteht aus einer Festplattendisk, die teilspiegelnde Oberflächenbereiche in Form von Farbmarkierungen und Rauheiten zeigt. Da die Disk eine sehr hohe Planarität aufweist, wird die Güte der Rekonstruktion durch Vergleich mit einer idealen Ebene bewertet.

Abbildung 3 zeigt die Vermessung der Disk und das Ergebnis der 3D-Rekonstruktion. Hier sieht man den Rekonstruktionsfehler der Oberflächenrekonstruktion mittels direkter Tiefenschätzung, den Fehler bei Schätzung der reflektierten Entfernung, den Fehler mit Multi-Stereo-Deflektometrie [10] und das Ergebnis der hier beschriebenen Fusion. Die reine Lichtfeld-Tiefenschätzung der diffusen Oberfläche liegt nur spärlich in Bereichen großer Rauheit oder in der Nähe der Farbmarkierungen vor. Alle anderen Bereich werden von der Tiefenschätzung als ungültig bewertet, was durch wi = 0 in der Fusion berücksichtigt wird. Die indirekte Schätzung über die Reflexion und die Schätzung mittels Multi-Stereo-Deflektometrie sind wesentlich dichter und weniger verrauscht. Obwohl alle Schätzungen Rekonstruktionsfehler im unteren Millimeterbereich aufweisen, kann durch Fusion der Tiefen- und Normalenschätzung der Fehler deutlich reduziert werden. Ein Fehler von RMSE = 822,7 μm wird erreicht.

Abb. 3 Rekonstruktionsfehler der Festplattendisk im Vergleich zu einer idealen Ebene. (b-d) und (e-f) jeweils mit eigener Skala.
Abb. 3

Rekonstruktionsfehler der Festplattendisk im Vergleich zu einer idealen Ebene. (b-d) und (e-f) jeweils mit eigener Skala.

Die zweite Testszene zeigt einen Planspiegel mit sehr hoher Planarität (λ/20) und soll demonstrieren, dass die vorgestellte Methode auch für voll spiegelnde Oberflächen gute Resultate liefert. Die Reproduktionsgenauigkeit wird wieder durch Vergleich mit einer idealen Ebene bewertet.

Abbildung 4 zeigt die Vermessung der Szene und das Ergebnis der 3D-Rekonstruktion. Auf dem Planspiegel können keine diffusen Tiefenwerte gefunden werden, was mit wi = 0 in der Fusion berücksichtigt wird. Die indirekten Tiefenwerte und die Multi-Stereo Schätzung können jedoch beide gute Ergebnisse liefern. Da die indirekte Tiefenschätzung die Referenzszene trianguliert und die Multi-Stereo-Deflektometrie die Oberfläche, liegen zwei Messwerte mit unterschiedlicher Unsicherheit vor, wobei beide zur Verbesserung der Rekonstruktion beitragen können. Wird die Oberfläche nur anhand jeweils einer Tiefenschätzung rekonstruiert, ergeben sich größere Fehler als bei Fusion beider Tiefen, wobei die Abweichungen des mit der vorgestellten Methode rekonstruierten Planspiegels von der idealen Ebene sich im Bereich ±250μm bewegen. Es ergibt sich ein Fehler von RMSE = 167,10μm.

Abb. 4 Planspiegel: Auswertung der Rekonstruktion.
Abb. 4

Planspiegel: Auswertung der Rekonstruktion.

Um zu zeigen, dass die Fusion zwischen Oberflächenpunkten und Oberflächengradienten einen sehr großen Einfluss auf die Rekonstruktionsgenauigkeit hat, zeigen Abbildung 3e und 4a jeweils den Rekonstruktionsfehler, der sich bei Anwendung eines einfachen gewichteten Mittelwertes auf die verschiedenen Tiefenschätzung ergeben würde. Es wird sichtbar, dass das Ergebnis durch die vorgeschlagene Methode deutlich verbessert werden kann.

Bei genauerer Beobachtung der Rekonstruktion des Planspiegels fällt eine Überhöhung in der Mitte auf. Diese ist nicht auf eine Verformung des Spiegels zurückzuführen, sondern wird durch den Messaufbau beeinflusst. Da in unserem Messaufbau der Referenzmonitor über dem Objekt hängt, wird er leicht verbogen, was eine Verzerrung der Ergebnisse zur Folge hat. Ein genaues Modellieren des Referenzmonitors könnte die Rekonstruktionsgenauigkeit daher noch weiter erhöhen.

6 Zusammenfassung

In diesem Beitrag wurde demonstriert, wie eine Lichtfeldkamera in einen Deflektometrie-Aufbau zur Messung (teil)spiegelnder Oberflächen integriert werden kann. Die speziellen Eigenschaften der Lichtfeldkamera ermöglichen, es die Entfernung (bzw. die Tiefe) zur teilspiegelnden Oberfläche zu schätzen und simultan die Distanz zur reflektierten Referenzszene zu bestimmen. Dies ermöglicht es, unabhängige Schätzungen der 3D-Struktur derselben Oberfläche zu erhalten. Weiter wurden in diesem Beitrag die verschiedenen Tiefenschätzungen der Lichtfeldkamera zur Regularisierung der deflektometrischen Messung genutzt und mithilfe eines Variationsansatzes fusioniert. Durch Modellieren mittels Totaler Generalisierter Variation ließ sich die Oberfläche durch einen Primal-Dual-Algorithmus rekonstruieren. Messungen an realen Oberflächen zeigten letztendlich, dass trotz Tiefeninformation verschiedener Güte die Methode gute Ergebnisse liefert und sowohl diffus spiegelnde als auch voll spiegelnde Oberflächen rekonstruiert werden können.

Literatur

[1] D. Antensteiner, S. Štolc und T. Pock. A review of depth and normal fusion algorithms. Sensors (Basel, Switzerland), 18(2), 2018. ISSN 1424-8220. 10.3390/s18020431.10.3390/s18020431Search in Google Scholar PubMed PubMed Central

[2] J. Balzer und S. Werling. Principles of shape from specular reflection. Measurement, 43(10):1305–1317, 2010. ISSN 02632241. 10.1016/j.measurement.2010.07.013.10.1016/j.measurement.2010.07.013Search in Google Scholar

[3] Y. Bok, H.-G. Jeon und I. S. Kweon. Geometric calibration of micro-lens-based light field cameras using line features. IEEE Transactions on Pattern Analysis and Machine Intelligence, 39(2):287–300, 2017. ISSN 0162-8828. 10.1109/TPA-MI.2016.2541145.10.1007/978-3-319-10599-4_4Search in Google Scholar

[4] K. Bredies, K. Kunisch und T. Pock. Total generalized variation. SIAM Journal on Imaging Sciences, 3(3):492–526, 2010. ISSN 1936-4954. 10.1137/090769521.10.1137/090769521Search in Google Scholar

[5] A. Chambolle und T. Pock. A first-order primal-dual algorithm for convex problems with applications to imaging. Journal of Mathematical Imaging and Vision, 40(1):120–145, 2011. ISSN 1573-7683. 10.1007/s10851-010-0251-1.10.1007/s10851-010-0251-1Search in Google Scholar

[6] M. Fischer, M. Petz und R. Tutsch. Vorhersage des Phasenrauschens in optischen Messsystemen mit strukturierter Beleuchtung. tm - Technisches Messen, 79(10):451–458, 2012. ISSN 0171-8096. 10.1524/teme.2012.0256.10.5162/sensoren2012/3.4.2Search in Google Scholar

[7] L. Huang, M. Idir, C. Zuo und A. Asundi. Review of phase measuring deflectometry. Optics and Lasers in Engineering, 107:247–257, 2018. ISSN 01438166.10.1016/j.optlaseng.2018.03.026Search in Google Scholar

[8] Y. Quéau, J.-D. Durou und J.-F. Aujol. Normal integration: A survey, 2017.10.1007/s10851-017-0773-xSearch in Google Scholar

[9] C. Shin, H.-G. Jeon, Y. Yoon, I. So Kweon und S. Joo Kim. Epinet: A fully-convolutional neural network using epipolar geometry for depth from light field images. In The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2018.10.1109/CVPR.2018.00499Search in Google Scholar

[10] D. Uhlig und M. Heizmann. Multi-Stereo-Deflektometrie mit einer Lichtfeldkamera / Multi-stereo deflectometry with a light-field camera. tm - Technisches Messen, 85(s1):s59–s65, 2018. ISSN 0171-8096. 10.1515/teme-2018-0042.10.1515/teme-2018-0042Search in Google Scholar

[11] A. Vianello, G. Manfredi, M. Diebold und B. Jähne. 3d reconstruction by a combined structure tensor and hough transform light field approach. tm - Technisches Messen, 84 (7-8), 2017. ISSN 0171-8096. 10.1515/teme-2017-0010.10.1515/teme-2017-0010Search in Google Scholar

[12] S. Wanner und B. Goldluecke. Reconstructing reflective and transparent surfaces from epipolar plane images. In Pattern Recognition, S. 1–10, Berlin, Heidelberg, 2013. Springer Berlin Heidelberg. ISBN 978-3-642-40602-7.10.1007/978-3-642-40602-7_1Search in Google Scholar

[13] Y.-L. Xiao, S. Li, Q. Zhang, J. Zhong, X. Su und Z. You. Optical fringe-reflection deflectometry with bundle adjustment.Optics and Lasers in Engineering, 105:132–140, 2018. ISSN 01438166. 10.1016/j.optlaseng.2018.01.013.10.1016/j.optlaseng.2018.01.013Search in Google Scholar

[14] J. Yang, H. Li, Y. Dai und R. T. Tan. Robust optical flow estimation of double-layer images under transparency or reflection. In 29th IEEE Conference on Computer Vision and Pattern Recognition, S. 1410–1419, Piscataway, NJ, 2016. IEEE. ISBN 978-1-4673-8851-1. 10.1109/CVPR.2016.157.Search in Google Scholar

[15] C. Zuo, S. Feng, L. Huang, T. Tao, W. Yin und Q. Chen. Phase shifting algorithms for fringe projection profilometry: A review. Optics and Lasers in Engineering, 109:23–59, 2018. ISSN 01438166. 10.1016/j.optlaseng.2018.04.019.10.1016/j.optlaseng.2018.04.019Search in Google Scholar

Online erschienen: 2020-08-28
Erschienen im Druck: 2020-09-25

© 2020 Walter de Gruyter GmbH, Berlin/Boston

Articles in the same Issue

  1. Frontmatter
  2. Editorial
  3. XXXIV. Messtechnisches Symposium
  4. Beiträge
  5. Detektion der Auflagestege von Flachbett-Laserschneidmaschinen mittels Nahinfrarot-Beleuchtung
  6. Lichtfeld-Tiefenschätzung für die Vermessung teilspiegelnder Oberflächen
  7. Ganzheitliche Kalibrierung von Gewinden auf Basis eines dreidimensionalen Ansatzes
  8. Analyse von 3D-CT-Aufnahmen von Spänen zur Extrahierung der Segmentspanbildungsfrequenz
  9. Resolution enhancement through nearfield-assistance in interference microscopy
  10. Fertigung polymerer optischer Phasenplatten zur Erzeugung von Ringmoden mittels direkter Laserlithografie
  11. Direct-imaging DOEs for high-NA multi-spot confocal microscopy
  12. Methoden zur Minimierung des Rauscheinflusses durch Hitzeflimmern bei einem heterodynen Laser-Doppler-Vibrometer
  13. Inverse piezoelectric material parameter characterization using a single disc-shaped specimen
  14. Klassifikation von Grübchenschäden an Zahnrädern mittels Vibrationsmessungen
  15. Incorporation of phase information for improved time-dependent instrument recognition
  16. Akustische Zeitumkehrfokussierung in Wasser mittels FPGA-basierter Plattform
  17. De-Embedding-Ansatz zur Messung nichtidealer Kapazitäten mit kommerziellen Kapazitätssensoren
  18. Low-cost Indirect Measurement Methods for Self-x Integrated Sensory Electronics for Industry 4.0
  19. Reconfigurable Wide Input Range, Fully-Differential Indirect Current-Feedback Instrumentation Amplifier with Digital Offset Calibration for Self-X Measurement Systems
  20. A Compact Four Transistor CMOS-Design of a Floating Memristor for Adaptive Spiking Neural Networks and Corresponding Self-X Sensor Electronics to Industry 4.0
  21. Monte-Carlo-Methode zur Verringerung von Messfehlern bei der Materialparameterbestimmung mit Hohlraumresonatoren
  22. Bestimmung des Anregungsspektrums für kontaktlose breitbandige Messungen der Übertragungsfunktion mit Plasmaanregung und Laser-Doppler-Vibrometrie
  23. Self-sufficient vibration sensor for high voltage lines
  24. Flexibler organischer elektrochemischer Transistor als Biosensor für Organ-on-a-Chip
  25. Erkennung und Kompensation von Vergiftung durch Siloxane auf Halbleitergassensoren im temperaturzyklischen Betrieb
Downloaded on 31.12.2025 from https://www.degruyterbrill.com/document/doi/10.1515/teme-2020-0022/html
Scroll to top button