Gibt es Modelle des menschlichen Gesichtsfeldes, die Kopf-, Nacken- und Augenbewegungen berücksichtigen und die Wahrscheinlichkeit einer Fixierung berechnen?

Ich würde gerne wissen, ob es Studien gibt, die (1) das Sichtfeld unter Berücksichtigung aller Freiheitsgrade von Kopf, Hals und Augen modellieren und (2) ob es ein probabilistisches Modell gibt, das dem Feld zugeordnet ist, das davon unabhängig ist äußere Reize, zB Salienz.

Ein Beispiel zur Veranschaulichung ist das folgende:
Ein Mann befindet sich in einem schwarzen Raum (keine Auffälligkeit, keine äußeren Reize) und geht oder steht. Nehmen Sie nun in diesem Raum einen Punkt im Raum, der sich nicht auf dem Mann befindet. Wie groß ist die Wahrscheinlichkeit, dass der Mann zu einem bestimmten Zeitpunkt t1 auf diesen Punkt blickt (entspricht der richtigen Kopf-, Augen- und Nackenkoordination)?

Antworten (1)

Haftungsausschluss: Diese Antwort ist etwas eigennützig, da sie nur Forschungsarbeiten aus dem Labor beschreibt, in dem ich Student bin. Ich denke jedoch, dass es für die Frage relevant ist!

Koordination von Auge, Kopf und Hand

http://www.cis.rit.edu/research/vpl/publications/ExpBrainRes2001.pdf

Pelz, J., Hayhoe, M., & Loeber, R. (2001). Die Koordination von Augen-, Kopf- und Handbewegungen in einer natürlichen Aufgabe. Experimentelle Hirnforschung, 139(3), 266-277.

Diese Arbeit analysiert Augen-, Kopf- und Handbewegungen von Probanden, während sie ein Blockmuster kopieren. Es enthält jedoch keine der Nackenbewegungen als solche.

Prädiktive Sakkaden in der virtuellen Realität

http://www.journalofvision.org/content/13/1/20.full

Diaz, G., Cooper, J., Rothkopf, C., & Hayhoe, M. (2013). Sakkaden zur zukünftigen Ballposition enthüllen gedächtnisbasierte Vorhersagen in einer Virtual-Reality-Abfangaufgabe. Journal of Vision, 13(1), 20.

In dieser Arbeit wird eine virtuelle Racquetball-Aufgabe verwendet, um prädiktive Augenbewegungen in sich frei bewegenden Personen hervorzurufen, während sie ein am Kopf montiertes Virtual-Reality-Display (einschließlich eines Eyetrackers) tragen. Das VR-Display und der Schläger werden mit einem Motion-Capture-Tool verfolgt. Die Ergebnisse konzentrieren sich hauptsächlich auf Eye-in-Head, enthalten aber einige nette Methoden zum Extrahieren von Blickpunkten mithilfe der virtuellen Welt und zum Anzeigen der Daten in einem Diagramm.