Le flux optique décrit le suivi informatisé d’objets en mouvement en analysant les différences de contenu entre les images vidéo. Dans une vidéo, l’objet et l’observateur peuvent être en mouvement ; l’ordinateur peut localiser des repères qui marquent les limites, les bords et les régions d’images fixes individuelles. La détection de leurs progressions permet à l’ordinateur de suivre un objet à travers le temps et l’espace. La technologie est utilisée dans les industries et la recherche, y compris l’exploitation de véhicules aériens sans pilote (UAV) et de systèmes de sécurité.
Deux méthodes principales génèrent cette vision par ordinateur : la détection de mouvement basée sur le gradient et la détection de mouvement basée sur les caractéristiques. Le flux optique basé sur le gradient mesure les changements d’intensité de l’image dans l’espace et le temps. Il balaye un plan de champ d’écoulement dense. Les flux basés sur les caractéristiques superposent les bords des objets dans les cadres pour marquer la progression.
Cette technique ressemble à la stabilisation d’image d’un caméscope, permettant à un champ de vision calculé d’être verrouillé dans le cadre malgré le bougé de l’appareil photo. Les algorithmes de flux optique calculent les correspondances entre les images en séquence. L’ordinateur divise chaque image en grilles carrées. La superposition de deux images permet des comparaisons pour trouver les meilleures correspondances de carrés. Lorsque l’ordinateur localise une correspondance, il trace une ligne entre les points de différence, parfois appelés aiguilles.
Les algorithmes fonctionnent systématiquement de résolutions grossières à fines. Cela permet un suivi de mouvement entre des images avec des différences de résolution. L’ordinateur ne reconnaît pas les objets, mais détecte et suit uniquement les caractéristiques des objets qui peuvent être comparés entre les images.
Le calcul des vecteurs de flux optique peut détecter et suivre des objets et également extraire le plan dominant d’une image. Cela peut aider à la navigation robotique et à l’odométrie visuelle, ou à l’orientation et à la position du robot. Il note non seulement les objets, mais aussi les environs en trois dimensions, et donne aux robots une conscience spatiale plus réaliste. Des vecteurs calculés dans un plan permettent au processeur d’inférer et de répondre aux mouvements extraits des trames.
Certaines faiblesses de la technique du flux optique incluent la perte de données résultant de carrés que l’ordinateur ne peut pas faire correspondre entre les images. Ces zones inégalées restent vacantes et créent des vides planaires, réduisant la précision. Les bords nets ou les éléments stables comme les coins contribuent à l’analyse du flux.
Les facteurs détaillés peuvent être masqués si l’observateur est également en mouvement, car il ne peut pas distinguer certains éléments d’une image à l’autre. L’analyse divise le mouvement en flux global apparent et mouvement d’objet localisé, ou egomotion. Les changements spatio-temporels des contours ou de l’intensité de l’image se perdent dans le mouvement de la caméra et le flux global de l’environnement en mouvement. L’analyse est améliorée si l’ordinateur peut éliminer l’effet du flux global.