Der optische Fluss beschreibt die computergestützte Verfolgung von sich bewegenden Objekten durch die Analyse von Inhaltsunterschieden zwischen Videoframes. In einem Video können sowohl das Objekt als auch der Betrachter in Bewegung sein; Der Computer kann Hinweise lokalisieren, die die Grenzen, Kanten und Regionen einzelner Standbilder markieren. Das Erkennen ihrer Fortschritte ermöglicht es dem Computer, einem Objekt durch Zeit und Raum zu folgen. Die Technologie wird in Industrie und Forschung eingesetzt, unter anderem beim Betrieb von unbemannten Luftfahrzeugen (UAV) und Sicherheitssystemen.
Zwei primäre Methoden erzeugen diese Computer Vision: die gradientenbasierte und die merkmalsbasierte Bewegungserkennung. Der auf Gradienten basierende optische Fluss misst Veränderungen der Bildintensität durch Raum und Zeit. Es scannt eine dichte Strömungsfeldebene. Feature-basierte Flows überlagern Kanten von Objekten innerhalb von Frames, um den Fortschritt zu markieren.
Diese Technik ähnelt der Bildstabilisierung von Camcordern, die es ermöglicht, ein berechnetes Sichtfeld trotz Verwacklungen im Bild zu fixieren. Optische Flussalgorithmen berechnen Übereinstimmungen zwischen Bildern nacheinander. Der Computer teilt jedes Bild in quadratische Raster ein. Das Überlagern von zwei Bildern ermöglicht Vergleiche, um die besten Übereinstimmungen von Quadraten zu finden. Wenn der Computer eine Übereinstimmung findet, zieht er eine Linie zwischen den Differenzpunkten, die manchmal auch als Nadeln bezeichnet werden.
Algorithmen arbeiten systematisch von grober bis feiner Auflösung. Dies ermöglicht eine Bewegungsverfolgung zwischen Bildern mit unterschiedlichen Auflösungen. Der Computer erkennt keine Objekte, sondern erkennt und verfolgt nur die Eigenschaften von Objekten, die zwischen Frames verglichen werden können.
Die Berechnung optischer Flussvektoren kann Objekte erkennen und verfolgen und auch die dominante Ebene eines Bildes extrahieren. Dies kann bei der Roboternavigation und visuellen Odometrie oder bei der Ausrichtung und Position des Roboters helfen. Es erfasst nicht nur Objekte, sondern auch die Umgebung in drei Dimensionen und verleiht Robotern ein realistischeres Raumgefühl. In einer Ebene berechnete Vektoren ermöglichen es dem Prozessor, aus den Frames extrahierte Bewegungen abzuleiten und darauf zu reagieren.
Einige Schwächen der optischen Flusstechnik umfassen Datenverluste, die aus Quadraten resultieren, die der Computer zwischen Bildern nicht zuordnen kann. Diese unangepassten Bereiche bleiben frei und erzeugen ebene Hohlräume, wodurch die Genauigkeit verringert wird. Klare Kanten oder stabile Elemente wie Ecken tragen zur Strömungsanalyse bei.
Detaillierte Faktoren können verdeckt werden, wenn der Betrachter auch in Bewegung ist, da er bestimmte Elemente von Bild zu Bild nicht unterscheiden kann. Die Analyse unterteilt die Bewegung in einen scheinbaren globalen Fluss und eine lokalisierte Objektbewegung oder Egobewegung. Räumlich-zeitliche Veränderungen von Kanten oder Bildintensität gehen in der Bewegung der Kamera und dem globalen Fluss der bewegten Umgebung verloren. Die Analyse wird verbessert, wenn der Computer die Auswirkungen des globalen Flusses beseitigen kann.