Wie können Phasenwerte Bewegungen aus Videos erfassen?

Ich weiß, dass das Phasenspektrum die meisten strukturellen Informationen über das Bild enthält. Aber ich möchte mehr über die Bedeutung des Phasenspektrums im Zusammenhang mit Videosignalen erfahren .

Ich habe gelesen, dass zeitliche Variationen von Phasenwerten die meisten dynamischen Eigenschaften der Videosequenz wie globale Bewegung im Video erfassen können. Aber ich verstehe nicht, wie das geht?

Bitte betrachten Sie ein Echtzeitbeispiel, z. B. ein Video eines rotierenden Rads oder einer Welle (oder ein Video des Straßenverkehrs). Wenn ich das Phasenspektrum mithilfe der Fourier-Transformation berechne, erfassen die Phasenwerte die Bewegung des rotierenden Rads (oder die komplexe Bewegung des fahrenden Autos auf der Straße). . aber ich verstehe nicht, wie es funktioniert? Durch welche Eigenschaft der Fourier-Transformation könnten Sie es mir erklären?

Gibt es auch eine mathematische Beziehung zwischen Bewegung und Phase? bitte korrigieren wenn ich irgendwo falsch liege.

Das klingt nicht wie eine elektrotechnische Frage. Vielleicht können Sie klären, in welchen Zweig des Ingenieurwesens es gehört? Denken Sie daran, nur weil Kameras elektrische Geräte sind, bedeutet das nicht, dass Ihre Frage von einem EE beantwortet werden kann oder für diese Site geeignet ist.
Sie sprechen von einer analogen Videosignalumgebung? Möchten Sie die wichtigsten Parameter kennen, die berücksichtigt werden, um digital wie MPEG zu konvertieren?
Würde es Ihnen etwas ausmachen, uns einen Link zu dem Artikel zu geben, in dem behauptet wird, dass die Videophase mit globaler Bewegung zusammenhängt? Bei allem Respekt, ich denke, Sie haben Ihre Quelle stark falsch verstanden.
@ WhatRoughBeast, Sir, Sie können auf das Linkpapier verweisen
@GR Tech, Sir, bitte betrachten Sie ein Echtzeitbeispiel, sagen Sie ein Video eines rotierenden Rads oder einer Welle. Wenn ich das Phasenspektrum mithilfe der Fourier-Transformation berechne, erfassen die Phasenwerte die Bewegung des rotierenden Rads. Aber ich verstehe nicht, wie es funktioniert Eigenschaft der Fourier-Transformation könntest du es mir erklären? Außerdem würde ich gerne wissen, ob ein ähnlicher Mechanismus in der MPEG-Komprimierung stattfindet. Vielen Dank
Das Papier sagt nicht, dass das Phasenspektrum die meisten Informationen für alle Videosignale erfasst. Sie sagen, dass es eine bestimmte Klasse von Videosignalen ("dynamische Texturen") gibt, bei denen das Phasenspektrum die meisten Informationen erfasst, und diskutieren dann, wie diese Signale komprimiert werden können. Das bedeutet, dass das Phasenspektrum die meisten Informationen enthält, da sie sich ausdrücklich dafür entschieden haben, nur über Signale zu sprechen, bei denen das Phasenspektrum die meisten Informationen enthält.
Außerdem könnte diese Frage auf dsp.stackexchange.com bessere Antworten erhalten.
@The Photon Sir, es gibt noch ein Papier, in dem klar erwähnt wird, dass die Phase komplexe Bewegungen erfasst, aber ich bin immer noch verwirrt PHASE BASED MODELING
@GR Tech Sir, welche Rolle spielt die Phase in MPEG?

Antworten (1)

Um den Effekt zu verstehen, betrachten wir zunächst den einfachen Fall einer eindimensionalen Linie der Länge ZweiPi. Entlang dieser Linie betrachten wir Werte einer einfachen Kosinuswelle von Einheitsamplitude und -frequenz. Wenn wir die FT des Kosinussignals nehmen, das entlang der Linie beabstandet ist, erhalten wir einen Wert von 1 für den Kosinuskoeffizienten der Ortsfrequenz 1. Der Sinuskoeffizient für die Ortsfrequenz 1 sollte zusammen mit allen anderen Ortsfrequenzkomponenten Null bleiben . Der Phasenvektor für die Grundfrequenz-Kosinuswelle wird anfänglich entlang der +x-Achse liegen.

Wenn die Kosinuswelle im Raum seitwärts verschoben wird, wird die Phase der Ortsfrequenzkomponente in einem Kreis von +Kosinus durch +Sinus, dann zu –Kosinus, durch –Sinus und zurück zu +Kosinus geschwenkt. Tatsächlich dreht sich der Zeiger jedes Mal einmal, wenn die Welle um eine räumliche Periode seitwärts bewegt wird. Die Richtung der räumlichen Frequenzvektorrotation wird durch die Richtung der räumlichen Bewegung bestimmt. (Dies ist das "Fourier-Shift-Theorem" bei der Arbeit).

Wenn sich das gesamte komplexe Muster seitwärts bewegt, ändert sich die Phase der Grundwelle mit einer Rate, die proportional zur Rate der Bildbewegung ist. Kleine Bewegungen können in höheren Harmonischen besser dargestellt werden, aber die höchsten Harmonischen sehen wie Rauschen aus, da sich der Bildinhalt bei größeren Bewegungen erheblich ändert (es sei denn, das Panorama wird umbrochen).

Ein kleines Objekt, das einen großen festen Hintergrund kreuzt, verursacht nur einen kleinen Unterschied in den realen cos(1)- und imaginären sin(1)-Koeffizienten. Der Punkt der Phasenvektoren bewegt sich aufgrund des geringen Beitrags des sich bewegenden Teils des Bildes in einem kleinen Kreis. Wenn Sie alle Phasenvektoren in einem Argand-Diagramm darstellen, sehen Sie beim Schwenken des Bildes, dass sich die gesamte Konstellation von Phasenvektoren um das Zentrum dreht. Wenn sich jedoch nur ein kleines Objekt über den Hintergrund bewegt, sehen Sie, wie sich alle Phasenvektoren in kleinen Kreisen um die Spitzen ihrer durchschnittlichen Hintergrundwerte drehen. Die Rotationsgeschwindigkeit ist proportional zur Ortsfrequenz.

Das Prinzip der Überlagerung gilt normalerweise nicht für räumliche Bilder, da sich ein Objekt, das sich vor dem Hintergrund bewegt, nicht zum Hintergrund summiert, sondern den Hintergrund durch ein Objekt ersetzt. Tatsächlich entfernt das sich bewegende Objekt vorübergehend andere Informationen, während es seine eigenen ersetzt. Ebenso gehen beim Schwenken einer Kamera Informationen auf einer Seite des Bildes verloren, während neue Informationen auf der anderen erscheinen.

Es ist also leicht, eine Querbewegung durch die Phase zu erkennen, aber ein rotierendes Rad ist schwer unter Verwendung der Phase in einer räumlichen 2D-Transformation zu erkennen, es sei denn, es rollt über das Bild.