Analyse von RTs, wenn ein Geschwindigkeits-Genauigkeits-Kompromiss aufgetreten ist, der zu einer Höchstgenauigkeit führt

Ich weiß, dass es nicht wünschenswert ist, dass Verhaltensdaten einen Kompromiss zwischen Geschwindigkeit und Genauigkeit (innerhalb der Probanden) zeigen, da dies beispielsweise zu der falschen Interpretation der verringerten RTs einer einzelnen Person als verbesserte Leistung führen kann, wenn dies tatsächlich der Fall ist Wenn man sich die Fehlerraten ansieht, kann man sehen, dass die erhöhte Geschwindigkeit mit höheren Fehlerraten erkauft wurde.

Was ich jedoch nicht verstehe, ist, warum, wenn man annimmt, dass die Probanden angewiesen werden, langsam genug zu antworten, damit ihre Fehlerraten gegen Null gehen (also nicht das übliche Paradigma der beschleunigten Antworten), warum es dann nicht richtig wäre, die Gruppen-RTs zu analysieren, die wahrscheinlich große Variationen zwischen den Subjekten aufweisen und somit sinnvolle Interpretationen bieten können? Auf diese Weise würde es keine Rolle spielen, dass alle Probanden Geschwindigkeit gegen Genauigkeit eingetauscht haben, da genau der Betrag der „Verlangsamung“ zur abhängigen Variablen wird.

Hoffe die Frage macht Sinn, danke!

Antworten (1)

Möglicherweise können Sie Fehler reduzieren, indem Sie den Teilnehmern sagen, dass sie langsam reagieren sollen. Durch Hinzufügen dieser Anweisung können Sie jedoch auch die Reaktionszeitunterschiede verwässern, die Sie zu finden versuchen (ob zwischen oder innerhalb von Subjekten). Wenn Sie Glück haben, fügen Sie nur zufälliges Rauschen hinzu, es ist jedoch wahrscheinlicher, dass Sie Verwechslungen hinzufügen oder verschiedene mentale Prozesse anzapfen (die zu einem späteren Zeitpunkt auftreten).

Eine andere Möglichkeit, dieses Problem anzugehen, besteht darin, die Geschwindigkeit mehr oder weniger konstant zu halten, indem den Teilnehmern ein sehr enges Zeitfenster zum Antworten gegeben wird (das auch auf ihre Geschwindigkeit zugeschnitten werden kann). Infolgedessen produzieren sie mehr Fehler, die nun zur abhängigen Variablen werden (siehe Draine & Greenwald, 1998, die diese Technik eingeführt haben).

Verweise

Draine, SC, & Greenwald, AG (1998). Replizierbares unbewusstes semantisches Priming. Zeitschrift für experimentelle Psychologie . Allgemein, 127, 286–303.

Danke, das macht Sinn. Aber warum führen Anweisungen, die Genauigkeit auf Kosten der Geschwindigkeit betonen, zu mehr Rauschen (oder zu anderen komplexeren Verwechslungen) in der abhängigen Variablen (RTs) im Gegensatz zu Anweisungen, die Geschwindigkeit auf Kosten der Genauigkeit betonen (letzteres ist die dep-Variable)?
Stellen Sie sich als Beispiel eine semantische Priming-Aufgabe vor (wenn „Arzt“ vor „Krankenschwester“ präsentiert wird, erkennen die Teilnehmer „Krankenschwester“ schneller als Wort). Wenn Sie den Teilnehmern sagen, dass sie sich zu 100 % sicher sein sollen, dass sie die richtige Antwort haben, sich aber jederzeit Zeit nehmen können, ist es möglicherweise weniger wahrscheinlich, dass ein Priming-Effekt festgestellt wird. Die Teilnehmer können ihre Antwort bewusst doppelt überprüfen, und in der Zwischenzeit kann der Effekt des Primes weg sein (die Teilnehmer haben vielleicht jetzt an etwas anderes gedacht / Sie nutzen das Double Checking mehr als das Priming). Im Wesentlichen geht es bei dem Paradigma nicht mehr um Reaktionszeiten.
Das ist ein nützlicher Vergleich. Danke noch einmal!