Was ist eine bessere statistische Option, um Unterschiede zwischen Gruppen zu vergleichen?

Ich habe zwei Gruppen (13 experimentelle und 13 Kontrollteilnehmer), die zwei kognitive Aufgaben bearbeiten. Ich habe Genauigkeit (Auslassungen, Provisionen) und Reaktionszeitmessung von jedem Test für jede Person. Um Typ-I-Fehler zu vermeiden, wurde mir vorgeschlagen, meine Anzahl von DVs zu verringern, ich habe jetzt d-prime (d') und Reaktionszeit (RT) als DVs (beide kontinuierlich). Ich möchte die Leistungen beider Aufgaben in beiden Gruppen vergleichen. Meine Fragen zu diesem Design sind:

  1. Ist d-prime ein gutes Maß, um Genauigkeitswerte zu ersetzen? oder könnten Sie bitte einen einheitlichen Index vorschlagen, der die Verhaltensleistung widerspiegelt (aus Auslassungen, Provisionen, RT-Daten)

  2. Soll ich eine One-Way-MANOVA machen? (IV-Gruppen; DV- Test1 d', Test2 d', Test1 RT, Test2 RT)?

  3. oder Soll ich ein gemischtes Modell MANOVA machen? (wenn ja, wie geht das, was sind meine DVs)?

Wenn Sie nur Statistiken über d' erstellen, könnten Sie einen Effekt auf die Verzerrung (z. B. Beta) verpassen, den Sie feststellen würden, wenn Sie sowohl Auslassungs- als auch Provisionsfehler verwenden würden. Wenn Sie Statistiken sowohl für d' als auch für Beta erstellen, reduzieren Sie die Anzahl der DVs nicht. Das heißt, ich persönlich mag d' und Beta gegenüber Fehlerraten.
Vielen Dank für Ihre Anregungen. Daher würden Sie vorschlagen, dass mein erster DV d' ist (berechnet aus der Wahrscheinlichkeit von Korrekturen und der Wahrscheinlichkeit von Fehlalarmen/Provisionsmaßnahmen). Und der zweite DV ist Beta (das ist die Wahrscheinlichkeit falscher negativer Ergebnisse, dh Auslassungen). Hab ich recht? Wenn Sie auch vorschlagen könnten, ob ich zwei DVs von jedem Test hätte (was insgesamt 4 DVs sind), sollte ich eine Einweg-MANOVA (wenn man bedenkt, dass es 4 verschiedene DVs gibt) oder eine MANOVA mit gemischtem Modell machen (wenn man bedenkt, dass es zwei Wiederholungen gibt Maßnahmen für jeden Test)? Ich würde mich sehr über Ihr Feedback freuen.

Antworten (1)

Wenn Sie Einzelversuchsdaten haben , können das Drift-Diffusions-Modell/DDM und verwandte Modelle, die von Roger Ratcliff (1976/1978) stammen, gleichzeitig die gesamte Antwortverteilung anpassen, sowohl RTs als auch Genauigkeiten. Es erfasst Phänomene, bei denen in einigen Experimenten Fehler systematisch schneller oder langsamer sind als korrekte Antworten.

Das Anpassen und Interpretieren des DDM kann nicht trivial sein, hat aber viele Vorteile, wie z

  • genaue Berücksichtigung der Verteilung von RT-Daten
  • in direktem Zusammenhang mit kognitiven Prozessen (z. B. Geschwindigkeit der Beweisakkumulation, Geschwindigkeit der sensorischen Kodierung)

Das DDM funktioniert, indem es den Entscheidungsprozess als zufälligen Spaziergang neben (normalerweise zwei) Entscheidungsschwellen modelliert (z. B. entsprechend dem richtigen und dem falschen Knopf in einer 2-Alternativen-Falsch-Auswahl-Aufgabe), der nach einer anfänglichen Codierungsperiode zu driften beginnt die richtige Grenze mit einer Geschwindigkeit, die der Wirksamkeit der Beweisaufnahme entspricht. Gelegentlich erreicht der Driftprozess die falsche Grenze. Wenn eine Grenze überschritten wird, wird die Ausführung der entsprechenden Antwort initiiert.

Das DDM wird an die gesamte RT-Verteilung angepasst und die resultierenden Parameter können statistischen Tests zwischen den Bedingungen unterzogen werden. Betrachten Sie als Beispiel für eine hierarchische Bayes'sche Schätzung des Modells HDDM .

Verweise

Ratcliff, R. & Murdock, BB, Jr. (1976). Abrufprozesse im Wiedererkennungsgedächtnis. Psychological Review, 83, 190-214.
Ratcliff, R. (1978). Eine Theorie des Gedächtnisabrufs. Psychological Review, 85, 59-108.
Forstmann, BU, Ratcliff, R. & Wagenmakers, E.-J. (2016). Sequentielle Stichprobenmodelle in der kognitiven Neurowissenschaft: Vorteile, Anwendungen und Erweiterungen. Annual Review of Psychology, 67, 641-666.
Ratcliff, R., Smith, PL, Brown, SD, & McKoon, G. (2016). Diffusionsentscheidungsmodell: Aktuelle Fragen und Geschichte. Trends in der Kognitionswissenschaft, 20, 260-281.
Wiecki TV, Sofer I und Frank MJ (2013). HDDM: Hierarchische Bayessche Schätzung des Drift-Diffusionsmodells in Python. Vorderseite. Neuroinform. 7:14. doi: 10.3389/fninf.2013.00014