Wie streame ich SMI-Brillen-Eyetracker-Daten in MATLAB?

Wir planen den Eyetracker der SMI-Brille einzusetzen . Dieser Eyetracker erhält Blickdaten und wir werden sie für die Pupillometrie als Maß für die kognitive Belastung verwenden.

Das einzige, was ich erreichen möchte, ist das Streamen der Eyetracker-Daten in Echtzeit zu einem laufenden Psychophysik-MATLAB-Skript , um die Eyetracker-Daten mit einer Höraufgabe zu synchronisieren.

Jetzt wird das REDn-System von SMI (die Tischvariante) mit einer MATLAB-Toolbox geliefert, die Brille von SMI jedoch nicht. Die Brille ist eine mobile Anwendung, die es dem Probanden ermöglicht, den Eyetracker als Brille zu tragen. Somit kann sich das Subjekt bewegen und muss sich nicht an einem bestimmten Punkt fixieren.

Jetzt habe ich mich gefragt, ob es hier draußen jemanden gibt, der die Eye-Tracking-Brille von SMI mit einem MATLAB-Plugin verwendet hat. Ich würde eine Low-Budget-Lösung bevorzugen, vorzugsweise ein Freeware-MATLAB-Tool.

Mir ist Lab Streaming Layer (LSL) bekannt, aber ich kann das wegen eines Versionsproblems nicht zum Laufen bringen. Grundsätzlich wurde LSL für ein früheres Software Development Kit (SDK) für die Eyetracker-Treibersoftware (iView) geschrieben und das aktuelle SDK ist nicht kompatibel. SMI unterstützt keine früheren SDK-Versionen und daher ist das eine Sackgasse.

Mir sind auch verschiedene kommerzielle Plugins wie iMotions bekannt , aber das sind schwere, teure Toolkits für Zwecke, die weit über das einfache Streamen von Daten vom Eyetracker zu einem laufenden MATLAB-Skript hinausgehen.

Antworten (1)

Philip von iMotions hier. Vielen Dank für die Erwähnung, und ja, für ein einfaches Daten-Streaming sind unsere Lösungen wahrscheinlich übertrieben. Wir bieten jedoch eine echte automatische Blickzuordnung in der Cloud sowie eine automatische Segmentierung, die eine Menge Zeit spart

Wir bieten LSL auch in unserer neuesten Version an , aber ja, SMI unterstützt das vorherige SDK nicht.

Ich höre zu und hoffe, dass Ihnen jemand bei Ihrer Anfrage helfen kann.

Hallo Philipp. ;) Toll, dass du diese Seite gefunden und dir die Zeit genommen hast zu antworten! Ich muss hier jedoch unparteiisch bleiben und darauf hinweisen, dass dies eher ein Kommentar als eine Antwort ist. Vor allem angesichts der Tatsache, dass @AliceD nur an der kognitiven Belastung (durch Pupillometrie) für diese spezielle Studie interessiert ist, für die ich glaube, dass die beschriebenen Merkmale wahrscheinlich nicht hilfreich sind (abhängig von den nicht beschriebenen Stimuli).
Vielleicht relevanter, um das einfache Hinzufügen von GSR- und Wiedergabefunktionen in iMotions für eine zuverlässigere Messung der kognitiven Belastung und eine einfachere frühe Exploration von Daten zu beschreiben?
Willkommen bei CogSci und vielen Dank für Ihre Antwort hier. Es ist interessant zu sehen, dass sich iMotions mit LSL verbindet.