Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
METHOD FOR COMPENSATING FOR MEASUREMENT ERRORS
Document Type and Number:
WIPO Patent Application WO/2023/072479
Kind Code:
A1
Abstract:
The invention relates to a method for compensating for measurement errors (sx, sy) in a distance measurement carried out by means of a vehicle sensor system which has at least two cameras (1, 2), wherein - a respective image (B1, B2) is captured by each of the at least two cameras (1, 2), - a time deviation between the capturing times (tn, tn+1) of the two captured images (B1, B2) is ascertained, - the speed (v) of an object in the surroundings of the vehicle is ascertained, - the position of an object point (P) of the object in the image (B1, B2), which is used as a reference image, of one of the cameras (1, 2) is ascertained as a reference position, - the position of the object point (P') in the image (B1, B2) of the other camera (1, 2) is ascertained, - the position of the object point (P') in the image (B1, B2) of the other camera (1, 2) is back-calculated to a corrected position, at which the object point (P') was located at the capturing time (tn, tn+1) of the reference image, on the basis of the speed (v) of the object and the time deviation, and - the distance to the object is ascertained by means of a triangulation on the basis of the reference position of the object point (P) and the corrected position of the object point (P').

Inventors:
PAWLETTA MARCEL (DE)
SCHEPPE PATRICK (DE)
GOLLER ERICH (DE)
JONAS MARTIN (DE)
Application Number:
PCT/EP2022/075948
Publication Date:
May 04, 2023
Filing Date:
September 19, 2022
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
MERCEDES BENZ GROUP AG (DE)
International Classes:
G06T7/593; H04N5/00; H04N13/00; H04N23/00
Foreign References:
US20200267366A12020-08-20
US20040098224A12004-05-20
EP3505865A12019-07-03
DE10215009A12003-10-23
Attorney, Agent or Firm:
LEDERER, Elisabeth (DE)
Download PDF:
Claims:
Patentansprüche Verfahren zur Kompensation von Messfehlern ( sx, sy) bei einer mittels eines mindestens zwei Kameras (1, 2) aufweisenden Sensorsystems eines Fahrzeugs durchgeführten Abstandsmessung, wobei

- mittels der zumindest zwei Kameras (1 , 2) jeweils ein Bild (B1 , B2) erfasst wird,

- eine Zeitabweichung zwischen Aufnahmezeitpunkten (tn, tn+i) der beiden erfassten Bilder (B1, B2) ermittelt wird,

- eine Objektgeschwindigkeit (v) eines Objekts in einer Fahrzeugumgebung ermittelt wird,

- eine Position eines Objektpunkts (P) des Objekts in dem als Referenzbild verwendeten Bild (B1, B2) einer der Kameras (1, 2) als Referenzposition ermittelt wird,

- eine Position des Objektpunkts (P1) in dem Bild (B1, B2) der anderen Kamera (1 , 2) ermittelt wird,

- die Position des Objektpunkts (P1) in dem Bild (B1, B2) der anderen

Kamera (1 , 2) basierend auf der Objektgeschwindigkeit (v) des Objekts und der Zeitabweichung auf eine korrigierte Position, an der sich der Objektpunkt (P1) zu dem Aufnahmezeitpunkt (tn, tn+i) des Referenzbilds befunden hätte, rückgerechnet wird und

- ein Abstand zu dem Objekt durch Triangulation, basierend auf der Referenzposition des Objektpunkts (P) und der korrigierten Position des Objektpunkts (P1) ermittelt wird. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass ein gemeinsames Zeitsystem der Kameras (1 , 2) von einer Komponente eines Daten der Kameras (1, 2) verarbeitenden Bildverarbeitungssystems vorgegeben wird. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass

- eine Übertragungszeit zwischen der Komponente und anderen Komponenten in einem zumindest die Komponenten und die Kameras (1 , 2) umfassenden Bildverarbeitungssystem aus einer Latenzzeit zwischen der Komponente und den anderen Komponenten des Bildverarbeitungssystems ermittelt wird und

- die Übertragungszeit bei der Ermittlung der Zeitabweichung zwischen den Aufnahmezeitpunkten (tn, tn+i) berücksichtigt wird. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass die Zeitabweichung aus dem Aufnahmezeitpunkt (tn, tn+i) des Referenzbilds abzüglich des Aufnahmezeitpunkts (tn, tn+i) des Bilds (B1 , B2) der anderen Kamera (1 , 2) abzüglich der Übertragungszeit ermittelt wird. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass als Aufnahmezeitpunkt (tn, tn+i) eine Mitte einer Belichtungszeit bei der Aufnahme des jeweiligen Bilds (B1 , B2) verwendet wird. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass

- für mehrere Aufnahmezeitpunkte (tn, tn+i) ein Mittelwert von Geschwindigkeiten des entsprechenden Objekts ermittelt wird und

- der Mittelwert der Geschwindigkeiten des Objekts als Objektgeschwindigkeit (v) verwendet wird. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass

- die Objektgeschwindigkeit (v) mit der Zeitabweichung zwischen den Aufnahmezeitpunkten (tn, tn+i) multipliziert wird,

- aus dem Ergebnis der Multiplikation ein Korrekturwert (K) ermittelt wird und

- anhand des Korrekturwerts (K) die korrigierte Position ermittelt wird.

Description:
Mercedes-Benz Group AG Singer

15.09.2022

Verfahren zur Kompensation von Messfehlern

Die Erfindung betrifft ein Verfahren zur Kompensation von Messfehlern bei einer mittels eines mindestens zwei Kameras aufweisenden Sensorsystems eines Fahrzeugs durchgeführten Abstandsmessung.

Aus der DE 102 15 009 A1 ist ein Verfahren zum Bestimmen einer Geschwindigkeit eines Fahrzeugs bekannt, bei dem geschwindigkeitsabhängige Fahrzustandsgrößen erfasst werden und aus diesen mittels einer Übertragungsfunktion eine angenäherte Geschwindigkeit des Fahrzeugs errechnet wird. Zur Korrektur einer Übertragungsfunktion wird aus dem zu verschiedenen Zeitpunkten gemessenen Abstand von einem Punkt des Fahrzeugs zu einer Landmarke eine Relativgeschwindigkeit des Fahrzeugs zu der Landmarke berechnet. Anschließend wird aus einem Vergleich der Geschwindigkeit des Fahrzeugs mit der Relativgeschwindigkeit der Fehler bei der Ermittlung der Geschwindigkeit erfasst und die Übertragungsfunktion so angepasst, dass der Fehler minimiert wird.

Der Erfindung liegt die Aufgabe zu Grunde, ein neuartiges Verfahren zur Kompensation von Messfehlern bei einer mittels eines mindestens zwei Kameras aufweisenden Sensorsystems durchgeführten Abstandsmessung anzugeben.

Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren, welches die im Anspruch 1 angegebenen Merkmale aufweist.

Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.

In dem erfindungsgemäßen Verfahren zur Kompensation von Messfehlern bei einer mittels eines mindestens zwei Kameras aufweisenden Sensorsystems eines Fahrzeugs durchgeführten Abstandsmessung wird mittels der zumindest zwei Kameras jeweils ein Bild erfasst. Es werden eine Zeitabweichung zwischen Aufnahmezeitpunkten der beiden erfassten Bilder, eine Objektgeschwindigkeit eines Objekts in einer Fahrzeugumgebung und eine Position eines Objektpunkts des Objekts in dem als Referenzbild verwendeten Bild einer der Kameras als Referenzposition ermittelt. Weiterhin wird eine Position des Objektpunkts in dem Bild der anderen Kamera ermittelt, wobei die Position des Objektpunkts in dem Bild der anderen Kamera basierend auf der Objektgeschwindigkeit des Objekts und der Zeitabweichung auf eine korrigierte Position, an der sich der Objektpunkt zu dem Aufnahmezeitpunkt des Referenzbilds befunden hätte, rückgerechnet wird. Ein Abstand zu dem Objekt wird durch Triangulation, basierend auf der Referenzposition des Objektpunkts und der korrigierten Position des Objektpunkts, ermittelt.

Mehrkamerasysteme sind in der Lage, durch das Messprinzip der Triangulation die Position mindestens eines Objekts zu bestimmen. Bei bewegten Objekten können jedoch Messfehler in der Positionsbestimmung durch zeitlich asynchrone Aufnahmen des Mehrkamerasystems entstehen. Dies resultiert daraus, dass das Objekt von den Kameras des entsprechenden Mehrkamerasystems aufgrund einer Bewegung des Objekts und/oder des Mehrkamerasystems und einen daraus folgenden zeitlichen Versatz der Bildaufnahmen an unterschiedlichen Positionen aufgenommen wird. Mittels des vorliegenden Verfahrens kann die Position des Objekts korrigiert und somit mit einer höheren Genauigkeit bestimmt werden.

Dabei ist es mittels des Verfahrens möglich, bereits vorhandene Messsysteme, welche so genannte Software- oder Hardwaretrigger für dynamische Messungen verwenden, in ihrer Messgenauigkeit zu verbessern. Die Softwaretrigger sind in der Regel ungenauer als Hardwaretrigger und verwenden oftmals eine so genannte Bussynchronisation, bei der ein Aufnahmeimpuls an die Mehrkamerasysteme ausgegeben wird. Bei der Anwendung von Hardwaretriggern wird eine direkte konduktive Verbindung zwischen den einzelnen Kameras der Mehrkamerasysteme verwendet, wobei in der Regel ein Ausgang einer Kamera, beispielsweise ein so genannter Blitzausgang, mit einem Eingang einer weiteren Kamera, beispielsweise einem Auslöser, verbunden ist. Wird die erste Kamera ausgelöst, werden anschließend alle anderen Kameras oder Kamerasysteme durch den Impuls auf den Eingang ausgelöst. Die Synchronität der Aufnahmen ist in der Regel bei Hardwaretriggern besser als bei Softwaretriggern, jedoch immer noch nicht vollständig synchron. Dadurch kommt es dennoch zu Fehlern in der Positionsbestimmung von Objekten. Speziell bei Kamerasystemen unterschiedlicher Hersteller oder unterschiedlichen Typs in einem Verbund funktioniert der Softwaretrigger nicht oder nur bedingt. Auch bei Hardwaretriggern besteht in diesem Fall die Problematik der notwendigen Konfektion passender Hardware. Mittels des vorliegenden Verfahrens ist es dagegen möglich, Mehrkamerasysteme unterschiedlichen Typs oder Herstellers, die aufgrund ihres Aufbaus oder ihrer Konfiguration nicht oder nur schwer zu synchronisieren sind, in ihrer dynamischen Messgenauigkeit zu verbessern. Das heißt, das Verfahren kann in besonders vorteilhafter Weise ohne das Erfordernis von zusätzlicher Hardware und ohne eine Abhängigkeit von einem Typ und Hersteller einer Kamera verwendet werden.

In einer möglichen Ausgestaltung des Verfahrens wird ein gemeinsames Zeitsystem der Kameras von einer Komponente eines Daten der Kameras verarbeitenden Bildverarbeitungssystems, beispielsweise einer Bildauswerteeinheit, vorgegeben. Hierdurch können eine besonders genaue Ermittlung der Zeitabweichung und daraus folgend eine zuverlässige Kompensation von Messfehlern realisiert werden.

In einer weiteren möglichen Ausgestaltung des Verfahrens wird eine Übertragungszeit zwischen der Komponente und anderen Komponenten des Bildverarbeitungssystems in einem zumindest die Komponenten und die Kameras umfassenden System aus einer Latenzzeit zwischen der Komponente und den anderen Komponenten ermittelt, wobei die Übertragungszeit bei der Ermittlung der Zeitabweichung zwischen den Aufnahmezeitpunkten berücksichtigt wird. Die Berücksichtigung der Übertragungszeit ermöglicht eine weitere Erhöhung der Genauigkeit bei der Ermittlung der Zeitabweichung.

In einer weiteren möglichen Ausgestaltung des Verfahrens wird die Zeitabweichung aus dem Aufnahmezeitpunkt des Referenzbilds abzüglich des Aufnahmezeitpunkts des Bilds der anderen Kamera abzüglich der Übertragungszeit ermittelt. Eine solche Ermittlung ist besonders zuverlässig und genau.

In einer weiteren möglichen Ausgestaltung des Verfahrens wird als Aufnahmezeitpunkt eine Mitte einer Belichtungszeit bei der Aufnahme des jeweiligen Bilds verwendet. Dies ermöglicht eine einfach realisierbare Erfassung der Aufnahmezeitpunkte auf Basis einer gemeinsamen Grundlage und unterschiedliche Belichtungszeiten können ausgeglichen werden.

In einer weiteren möglichen Ausgestaltung des Verfahrens wird für mehrere

Aufnahmezeitpunkte ein Mittelwert von Geschwindigkeiten des entsprechenden Objekts ermittelt, wobei der Mittelwert der Geschwindigkeiten des Objekts als Objektgeschwindigkeit verwendet wird.

In einer weiteren möglichen Ausgestaltung des Verfahrens wird die Objektgeschwindigkeit mit der Zeitabweichung zwischen den Aufnahmezeitpunkten multipliziert, wobei aus dem Ergebnis der Multiplikation ein Korrekturwert ermittelt wird und anhand des Korrekturwerts die korrigierte Position ermittelt wird. Dies ermöglicht eine einfache und zuverlässige Ermittlung der korrigierten Position.

Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.

Dabei zeigen:

Fig. 1 schematisch eine Darstellung einer Anordnung zur Bestimmung einer Position eines Objektpunkts bei einer zeitlich synchronen Aufnahme desselben mittels zwei Kameras,

Fig. 2 schematisch eine Darstellung einer Anordnung zur Bestimmung einer Position eines Objektpunkts bei einer zeitlich asynchronen Aufnahme desselben mittels zwei Kameras,

Fig. 3 schematisch eine Darstellung eines mittels einer Kamera zu unterschiedlichen Aufnahmezeitpunkten erfassten Objektpunkts,

Fig. 4 schematisch eine Messung einer Bewegung und Asynchronität eines Objektpunkts in einem Bild sowie eine Zuordnung zu einem Referenzbild und

Fig. 5 schematisch eine Korrektur einer Position eines Objektpunkts anhand der ermittelten Bewegung und Asynchronität.

Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.

In Figur 1 ist eine Darstellung einer Anordnung zur Bestimmung einer Position eines Objektpunkts P bei einer zeitlich synchronen Aufnahme desselben mittels zwei Kameras 1, 2 gezeigt. Die Kameras 1 , 2 sind beispielsweise Bestandteil eines Sensorsystems, beispielsweise eines Mehrkamerasystems, welches zum Beispiel in oder an einem Fahrzeug zur Erfassung einer Fahrzeugumgebung vorgesehen ist.

Mittels der Kameras 1, 2 erfasste Umgebungsdaten sind insbesondere zur Verwendung in Fahrerassistenzsystemen, beispielsweise zum automatisierten, insbesondere hochautomatisierten oder autonomen Betrieb des Fahrzeugs vorgesehen. Bei einer solchen Verwendung werden in mittels der Kameras 1, 2 erfassten Bildern B1 , B2 Objekte detektiert, wobei vorliegend ein solches Objekt durch den Objektpunkt P repräsentiert wird.

Hierzu werden jeweils mehrere Bilder B1, B2 eines Objektpunkts P aus verschiedenen Perspektiven mittels der Kameras 1 , 2 sowie zugehörige Aufnahmezeitpunkte t n , t n +i aufgenommen. Die Kameras 1, 2 sind zueinander kalibriert, wobei ein Abstand d der Kameras 1, 2 zueinander und eine jeweilige Brennweite f 1 , f2 der Kameras 1 , 2 bekannt sind. Wird bei einer Auswertung der Bilder B1, B2 die Position mindestens eines Objekts berechnet, wird in jedem Bild B1, B2 der gleiche Objektpunkt P bestimmt. Durch Triangulation wird eine Position des Objektpunkts P aus jedem Bild B1, B2 berechnet. Das heißt, in den erfassten Bildern B1 , B2 wird ein Abstand des Objektpunkts P zu den Kameras 1, 2 anhand eines Schnittpunkts von Sichtlinien S1, S2 der Kameras 1 , 2, des Abstands d der Kameras 1, 2 zueinander und den Brennweiten f 1 , f2 der Kameras 1 , 2 ermittelt.

Bewegt sich jedoch das Objekt während der Aufnahme der Bilder B1 , B2 und werden diese nicht zeitgleich, sondern asynchron aufgenommen, dann verschiebt sich der Objektpunkt P in einem Bild B1, B2 um einen Weg s, der von einer Zeitabweichung zwischen den Aufnahmezeitpunkten t n , t n +i der Bilder B1, B2 sowie der Bewegung des Objekts abhängig ist. Dies ist in Figur 2 näher dargestellt, welche eine Darstellung einer Anordnung zur Bestimmung einer Position eines Objektpunkts P bei einer zeitlich asynchronen Aufnahme desselben mittels zwei Kameras 1 , 2 zeigt.

Dabei wurde das mittels der Kamera 2 erfasste Bild B2 mit einem zeitlichen Versatz zu dem mittels der Kamera 1 erfassten Bild B1 aufgenommen. Der zeitliche Versatz und die Bewegung des Objektpunkts P verursachen eine Verschiebung V des Objektpunkts P im Bild B2. Eine daraus resultierende Sichtlinie S2' schneidet die Sichtlinie S1 der Kamera 1 im Punkt P'. Ohne Berücksichtigung der Asynchronität der Aufnahmezeitpunkte t n , t n +i ist die Positionsberechnung des Objektpunkts P fehlerbehaftet. Eine wahre Position des Objektpunkts P im Raum kann zu der gemessenen Position mehr oder weniger abweichen, je nachdem wie sich das Objekt relativ zu den Kameras 1, 2 bewegt und wie groß die Zeitabweichung zwischen den Aufnahmezeitpunkten t n , t n +i der beiden erfassten Bilder B1 , B2 ist. Der Weg s, um welchen der Objektpunkt P' gegenüber dem Objektpunkt P verschoben ist, ergibt sich dabei aus einem Messfehler s y in Längsrichtung Y und einem Messfehler s x in Querrichtung X.

Wird ein in Figur 5 näher dargestellter Korrekturwert K einbezogen, kann der entstandene Messfehler s x , s y in Form des Wegs s zumindest verringert oder vollständig ausgeglichen werden. Für diese Korrektur ist eine Kenntnis der Zeitabweichung, einer in Figur 4 näher dargestellten Bewegungsrichtung R des Objektpunkts P' und einer Objektgeschwindigkeit v des Objektpunkts P' erforderlich.

Das im Folgenden beschriebene mögliche Ausführungsbeispiel eines Verfahrens zur Kompensation von Messfehlern s x , s y bei einer mittels eines mindestens zwei Kameras 1, 2 aufweisenden Sensorsystems eines Fahrzeugs durchgeführten Abstandsmessung ist allgemein auch auf Multikamerasysteme mit einer beliebigen Anzahl von Kameras 1 , 2 anwendbar und wird in diesem Fall entsprechend mehrfach durchlaufen.

Bei jeder Aufnahme eines Bilds B1 , B2 wird der Aufnahmezeitpunkt t n , t n +i in einem gemeinsamen Zeitsystem bestimmt. Das gemeinsame Zeitsystem wird dabei von einer Komponente von Daten der Kameras 1 , 2 verarbeitenden Bildverarbeitungssystems, beispielsweise einer Bildauswerteeinheit, definiert.

Zusätzlich wird für eine möglichst genaue Bestimmung der Zeitabweichung eine Übertragungszeit zwischen der zeitdefinierenden Komponente und anderen Komponenten des Bildverarbeitungssystems benötigt. Dafür wird eine Latenzzeit, welche eine Übertragungszeit zwischen der Komponente und anderen Komponenten in einem zumindest die Komponenten und die Kameras umfassenden System beschreibt, ermittelt und dieser Zeitunterschied in die Berechnung der Asynchronität mit einbezogen.

Ebenso wird zum Ausgleich unterschiedlicher Belichtungszeiten die Mitte der jeweiligen Belichtungszeit als Aufnahmezeitpunkt definiert. Zur Korrektur der Messfehler s x , s y wird eines der Bilder B1 , B2 als Referenzbild gesetzt und die übrigen Bilder B1, B2 der anderen Kameras 1, 2 oder Kamerasysteme relativ zum Referenzbild korrigiert. Ein Sonderfall, bei dem eine Bewegung des Objektpunkts P' genau in Richtung der Sichtlinie S1, S2 einer Kamera 1 , 2 erfolgt, wird durch eine Zuordnung der Kamera 1 , 2 zum Referenzbild gelöst.

Zunächst wird für eine Bestimmung der Objektgeschwindigkeit v des Objektpunkts P' eine Bewegung desselben um den jeweiligen Aufnahmezeitpunkt t n , t n +i jeder Kamera 1 , 2 analysiert und das Bild B1 , B2 mit der geringsten Bewegung des Objektpunkts P wird als Referenzbild gesetzt.

Die die Asynchronität beschreibende Zeitabweichung t Async wird gemäß Async ~ Referenz ~ n ~ Latenz, n (1) aus einer zeitlichen Differenz des Aufnahmezeitpunkts t Referenz des Referenzbilds zu weiteren Aufnahmezeitpunkten t n , korrigiert um die durch die jeweilige Latenz t LatenZin beschriebene Übertragungszeit zwischen der zeitdefinierenden Komponente und anderen Komponenten. Dabei kann die berechnete Zeitabweichung positiv oder negativ sein, was sich später auf die Korrekturrichtung auswirkt.

Die beispielhaft in Figur 4 dargestellte Objektgeschwindigkeit v und Bewegungsrichtung R des Objektpunkts P' werden durch Messungen, beispielweise durch die zu korrigierenden Kameras 1, 2 um den zu korrigierenden Aufnahmezeitpunkt t n , t n +i, berechnet. Die Messung der Objektgeschwindigkeit v und der Bewegungsrichtung R wird um das zu korrigierende Bild B1, B2 sowie durch mindestens eine weitere Bildaufnahme vorgenommen. Dies ist in Figur 3 anhand einer Darstellung eines mittels einer Kamera 1, 2 zu unterschiedlichen Aufnahmezeitpunkten t n -i , tn, t n +i erfassten Objektpunkts P' -1 , P', P' +1 gezeigt.

Hierbei ist eine die Bestimmung der Objektgeschwindigkeit v und der Bewegungsrichtung R des Objektpunkts P' zu einem Aufnahmezeitpunkt t n -i vor und einem Aufnahmezeitpunkt t n +i nach einem Aufnahmezeitpunkt t n dargestellt.

Eine Objektgeschwindigkeit in Querrichtung X berechnet sich dabei gemäß aus einer Differenz Ax der Koordinaten des Objektpunkts P in Querrichtung X geteilt durch die zugehörige Zeitabweichung t Async zwischen den Bildern B1 , B2.

Eine Objektgeschwindigkeit in Längsrichtung Y berechnet sich dabei gemäß aus einer Differenz Ay der Koordinaten des Objektpunkts P in Längsrichtung Y geteilt durch die zugehörige Zeitabweichung t Async zwischen den Bildern B1, B2.

Für mehrere Messungen wird anschließend für die Querrichtung X gemäß und die Längsrichtung Y gemäß jeweils ein Mittelwert der bestimmten Objektgeschwindigkeiten berechnet. Dies wird anhand einer Bildaufnahme oder mit beiden Bildaufnahmen durchgeführt, welche zeitlich am nächsten mit dem kleinsten Zeitintervall vor und nach der Messung aufgenommen wurden.

Aus einem Produkt der Asynchronität, das heißt der Zeitabweichung t Async zwischen den Aufnahmezeitpunkten t n , t n +i , und den zuvor berechneten Objektgeschwindigkeiten des zu korrigierenden Bilds B1, B2 wird anschließend wie folgt ein jeweiliger Korrekturwert in Querrichtung X gemäß x Korrektur ~ ^Async * v x (6) und in Längsrichtung Y gemäß

V Korrektur ~ ^Async * v y (7) berechnet.

Die so ermittelten Korrekturwerte werden anschließend mit der jeweiligen unkorrigierten Koordinate des Objektpunkts P' addiert gemäß xkorrigiert ~ x unkorrigiert T x Korrektur (8) und y korrigiert ~ y unkorrigiert T y Korrektur- (9)

Das heißt, der Versatz des Objektpunkts P' wird durch die positive Zeitabweichung t Async des entsprechenden Bilds B1 , B2 zum Referenzbild zurückgerechnet und der Messfehler s x , s y wird durch den neu berechneten Objektpunkt P korrigiert.

Eine solche Korrektur mittels eines aus den Korrekturwerten x Korrektur , y Korrektur gebildeten Korrekturwerts K ist beispielhaft in Figur 5 dargestellt.

Abschließend werden mittels des Triangulationsverfahrens die Koordinaten des Objektpunkts P, P' bestimmt.