Welches Experiment in einer einfachen Entscheidungsaufgabe sollten wir durchführen, um eine Million Versuche zu erhalten?

Kontext : Modelle kognitiver Prozesse erfordern die Anpassung sehr großer Datensätze. Leider ist es für ein einzelnes Labor schwierig, dies alleine zu erreichen. Ich schlage vor, dass wir kollektiv und kooperativ daran arbeiten, ein 1-Million-RT-Experiment zu realisieren. Diese Initiative wird auf meiner ResearchGate-Seite www.researchgate.net/profile/Denis_Cousineau beschrieben .

Über die Modellanpassung hinaus wird ein solcher Datensatz für andere Zwecke nützlich sein. Beispiele: Sind leistungsbeschreibende Parameter in der Regel über die Fächer verteilt? Bedeutet der Trainingseffekt – der zu einer schnelleren RT führt –, dass sich die Parameter alle in eine Richtung entwickeln? Ist die bayessche Schätzung geeigneter als die maximale Wahrscheinlichkeit, die Parameter zu charakterisieren? Wie können wir Nichtentscheidungszeiten abschätzen? Welche Form haben die RT-Verteilungen und wie verändert der Trainingseffekt ihre Form? Nochmals zu Bayes, nach wie vielen Versuchen haben Priors keinen Einfluss mehr auf die Schätzungen? usw.

Aufgabenanforderungen: Die Aufgabe darf nur verhaltensorientiert sein (Reaktionszeiten und Reaktionsoptionen), da es nicht möglich ist, EEG- oder fMRI-Material um die ganze Welt zu transportieren. Die genaue verwendete Aufgabe ist keine kritische Einschränkung, da die aktuellen Modelle der Kognition (Sampling-Modelle wie LBA oder Diffusion) sehr flexibel sind; Sie zielen darauf ab, die Leistung in einer Vielzahl von Situationen vorherzusagen.

Die vorgeschlagenen Aufgaben werden anhand der folgenden Kriterien bewertet:

  • wenige Antwortalternativen
  • wenige Bedingungen
  • niedrige Fehlerquoten
  • Reize, die für Modellierungszwecke charakterisiert werden können
  • Möglichkeit einer erweiterten Ausbildung zu dieser Aufgabe.

Mögliche Kandidatenaufgaben könnten umfassen: Eine redundante Zielerkennungsaufgabe (Miller, 1982) oder eine gleich-unterschiedliche Aufgabe (z. B. Bamber, 1969). Diese Aufgaben sind einfach und die Genauigkeit ist normalerweise hoch (über 90 % richtig); sie werden möglicherweise unter Verwendung irgendeiner Form von paralleler Verarbeitung durchgeführt; Reaktionszeiten liegen in der Regel deutlich unter 700 ms.

Also zusammenfassend:

Welche Aufgabe und welches experimentelle Design wären angesichts der oben genannten Einschränkungen am besten geeignet?

Bitte lassen Sie uns sehen, was die möglichen Aufgaben sind, kommentieren Sie die Vorschläge anderer, und wenn Sie die perfekte Aufgabe finden, stimmen Sie sie ab. Lassen Sie Ihre Kollegen Kommentare abgeben oder neue Aufgaben vorschlagen.

Ich mag die Idee, aber die Frage nach "dem Besten" basiert eher auf Meinungen, was ein Grund für die Schließung der Frage ist. Könnten Sie ein bisschen mehr darüber erklären, was Sie forschen und warum Sie (und andere) eine so große Datenmenge wollen? Hängen kognitive Modelle und damit die verwendeten Daten nicht von den konkreten Forschungsfragen ab?
@RobinKramer: Die aktuellen Erkenntnismodelle (Sampling-Modelle wie LBA oder Diffusion) sind sehr flexibel; Sie zielen darauf ab, die Leistung in einer Vielzahl von Situationen vorherzusagen. Daher ist die genaue verwendete Aufgabe keine kritische Einschränkung beim Testen dieser Modelle. Sie können zum Beispiel an lexikalischen Entscheidungsaufgaben, Punktbewegungsaufgaben, Numerositätsaufgaben, Matching-Aufgaben usw. getestet werden, alles Aufgaben, die sehr unterschiedlich sind, aber ähnliche Annahmen über die zugrunde liegenden Prozesse treffen (Anhäufung von Beweisen + Schwellenwerten). Entscheidend ist jedoch die Stichprobengröße; mit klein n , alle Modelle bieten gute Passformen.
Ab dem Label „beste“ wäre das in Bezug auf diese Kriterien: wenige Antwortalternativen, wenige Bedingungen, geringe Fehlerquoten, charakterisierbare Stimuli für Modellierungszwecke, Möglichkeit des erweiterten Trainings zu dieser Aufgabe. Unter Berücksichtigung dieser objektiven Kriterien ist die Frage also nicht mehr meinungsbasiert.
Guter Punkt. Ich denke, es wäre interessant, viele verschiedene Paradigmen hier versammelt zu haben. Der Diskussionsteil sollte in einem Chat gestartet werden, da die Kommentare/Antworten kein Platz für Diskussionen sind.
Dies ist ein Beitrag, der um eine Art Pob-Wettbewerb bettelt. Dies ist definitiv nicht die Seite, um eine Art In-Silico-Preis für die beste psychophysische Aufgabe zu vergeben. -1 & Vote-to-Close & Flagging auch noch obendrauf.
Es ist kein Wettbewerb, es ist ein Gemeinschaftsprojekt. Viele Forscher in der experimentellen Psychologie zum Brainstorming von Alternativen zu bewegen, ist definitiv der beste Weg, um die optimale Aufgabe zu finden.
könnte sein, aber Sie können davon profitieren, wenn Sie das Hilfezentrum lesen, um die richtigen Fragen zu stellen. Die Idee kann in Ordnung sein, die Plattform, die Sie für die Umsetzung gewählt haben, ist es nicht.
Siehe meta Worum geht es in den Kognitionswissenschaften für meine Ansicht dazu.
Sehen Sie sich das Hilfezentrum an : [... offene Fragen mindern den Nutzen unserer Seite und drängen andere Fragen von der Titelseite ].Gehen Sie zum Chatroom für gesprächige Unterhaltungen. Gehen Sie zur Meta-Site, um herauszufinden, ob ein Fragetyp angemessen ist.
Ich denke, das ist eine ganz andere Art von Frage. Es verstößt gegen einige der Regeln der Website. Es könnte weiter an die Normen des Standorts angepasst werden. Nichtsdestotrotz, Denis (als leitender Akademiker), möchte ich Sie auf der Website willkommen heißen. Ich ziehe es vor, dieser Frage einen gewissen Spielraum zu geben, da wir sehr daran interessiert sind, mehr Akademiker und aktive Forscher auf der Website zu engagieren. Vielleicht könnten wir die Frage vorschlagen und bearbeiten, um sie besser an die Erwartungen anzupassen.
Ich habe ihm eine kleine Bearbeitung für die Struktur gegeben. Ich denke, der letzte Teil "Bitte mal sehen, was ..." würde normalerweise auf dieser Seite nicht erforderlich sein. Aber es scheint, dass Denis neue Forscher auf die Website einlädt, um Beiträge zu leisten (was fantastisch ist), also denke ich, dass diese Notizen immer noch nützlich sind.
@JeromyAnglim - Danke, dass Sie sich meine Flaggen angesehen haben. Ich werde meine Kommentare hier hinterlassen, aber wenn Sie diese Frage unterstützen, können Sie meine (irgendwie negativen) Sachen hier entfernen, wenn Sie es für nichts als Unordnung halten. Beifall.
@AliceD Danke für die Offenheit.

Antworten (11)

Ich mag die Idee nicht, dass die Aufgabe fehlerarm sein sollte, Fehler werden für die Modellauswahl benötigt. Ich mag keine zufälligen Punktbewegungen, weil es große individuelle Unterschiede gibt, die es schwierig machen, einen gemeinsamen Kalibrierungspunkt über Menschen zu finden. Ich bevorzuge stattdessen ein Zahlenurteil, zB sind mehr als weniger als 50 % einer quadratischen Anordnung von Pixeln (normalerweise eine große Anzahl) blau oder orange? Sie können das Array groß genug machen, um eine feinkörnige Kontrolle über den Schwierigkeitsgrad zu erhalten, und zufällig auswählen, welche Pixel in jeder Farbe (oder Helligkeit) in jedem Frame vorhanden sein sollen, wenn Sie bestimmte Strategien schwer anwendbar machen möchten.

Danke dir. Die vorgeschlagene Aufgabe hat gewünschte Eigenschaften: schnelle Antworten; Schwierigkeitsgrad leicht einstellbar; Trainingseffekte sind bei längerem Üben wahrscheinlich; nur zwei Antwortalternativen. Das Experiment beginnt am 1. Mai 2017!
@DenisCousineau Ihr Kommentar klingt, als wäre eine Aufgabe ausgewählt worden. Welche Aufgabe wurde gewählt? Können Forschende noch Daten beisteuern?
@matus: Die gewählte Aufgabe ist eine Unterscheidungsaufgabe: Quadrate mit zwei möglichen Farben werden dynamisch angezeigt, und die Entscheidung besteht darin, zu entscheiden, welche der beiden Farben am häufigsten vorkommt. Ja, Sie können tatsächlich Daten zu dieser Forschung beitragen. Ich plane, im September 2017 zu beginnen. Ich werde Sie dann kontaktieren. Vielen Dank.

Ich mag diese Idee! Ich denke, die Aufgabe sollte eine sein, bei der die Daten von vielen Analysewerkzeugen verwendet werden könnten. Daher wären die Daten nicht nur für eine bestimmte Fragestellung von Nutzen, beispielsweise Parameterschätzungen, sondern auch für andere Werkzeuge wie die Systems Factorial Technology (siehe Townsend & Nozawa, 1995), die ein tieferes Verständnis der zugrunde liegenden kognitiven Teilprozesse ermöglicht Architektur und andere interessante Informationen wie die Kapazität des Prozesses.

Ich schlage vor, dass die Aufgabe zumindest ein doppelfaktorielles Paradigma respektiert. Dieses Design ist sehr einfach: Sie haben vier Bedingungen in einem 2 x 2-Design, bei dem Sie zwei Variablen variieren. Es könnte jede Variable sein, die einzige Einschränkung besteht darin, dass Sie sie unabhängig voneinander variieren müssen. Mit anderen Worten, jede Variable sollte einen kognitiven Teilprozess widerspiegeln. In einer Bedingung befinden sich beide Variablen in einem Szenario, in dem der Teilprozess sehr effektiv (oder optimal) arbeiten sollte. In einer anderen Bedingung befinden sich beide Variablen in einem Szenario, in dem der Teilprozess weniger effektiv (oder suboptimal) arbeiten sollte. Und in den beiden verbleibenden Bedingungen arbeitet eine Variable optimal und die andere suboptimal und umgekehrt.

Was die Details der Aufgabe betrifft, wie die verwendeten Stimuli und die spezifischen Variablen, habe ich keine Präferenzen. Buchstaben sind sehr manipulierbar, aber sie tragen Semantik (mehr oder weniger). Abstrakte Reize könnten funktionieren. Wir konnten mit Farbe, Formen, Komplexität usw. spielen. Bei Psychonomics in diesem Jahr gab es viele Experimente, die dieses Design verwendeten.

Referenz zum Zitieren: Townsend, JT & Nozawa, G. (1995). Raumzeitliche Eigenschaften der Elementarwahrnehmung und Untersuchung paralleler, serieller und koaktiver Theorien. Zeitschrift für mathematische Psychologie, 39 (4), 321–359. doi: 10.1006/jmps.1995.1033

Könnten Sie detailliertere Zitate bereitstellen, vorzugsweise vollständige APA. Das erleichtert den Lesern das Auffinden der Zeitungen.

Nur ein paar Kommentare...

Da einer der Vorteile eines großen Datensatzes eine hohe statistische Aussagekraft ist, könnte es eine gute Idee sein, eine Aufgabe zu verwenden, bei der der Schlüsseleffekt in früheren Studien nicht gefunden wurde. Das würde ein garantiertes Ergebnis erzeugen: dh einen Hochleistungstest eines wichtigen Nullergebnisses.

Eine Pop-out-Bedingung in der visuellen Suche wäre ein Beispiel (dh kein Effekt der Anzeigegröße), aber dies ist nicht ideal, weil es das Modellierungsende des Projekts einschränken würde. Das heißt, es wäre nicht sehr hilfreich, mehrere Bedingungen mit identischer Leistung (oder fast identisch) zu modellieren.

Ein besseres Beispiel wäre ein Experiment mit additiven Faktoren (etwa wie von Marc-André Goulet vorgeschlagen). Ich würde ein einfaches 2x2-Design vorschlagen, für das frühere Studien eine theoretisch wichtige Additivität von Faktoren (dh nicht signifikante Wechselwirkung) berichtet hatten. Eine große Studie würde einen Hochleistungstest der Null-Wechselwirkung liefern. Und solange beide Haupteffekte vorhanden waren, wären vier verschiedene Bedingungen zu modellieren. Dieses Design ist auch deshalb interessant, weil viel über Bedingungen bekannt ist, die von den RT-Verteilungen unter bestimmten Modellen erfüllt werden sollten (für Beispiele siehe die Referenzen unten).

Ein letzter Punkt: Nach der Auswahl einer Aufgabe kann es sehr sinnvoll sein, die geplanten Analysen an simulierten Daten zu testen, die wesentlich einfacher zu bekommen sind als echte Daten. Dies würde dazu beitragen, die genauen Ziele des Projekts deutlicher zu machen und auch sicherzustellen, dass die Ziele mit dem vorgeschlagenen Datensatz erreichbar wären. Es könnte auch hilfreich sein, aufzuzeigen, welche Aspekte der geplanten Aufgabe/Bedingungen notwendig waren, um aussagekräftige Ergebnisse zu erhalten (z. B. minimale Effektstärken).

Verweise

Cortese, JM & Dzhafarov, EN Empirische Wiederherstellung der Response Time Decomposition Rules II. Unterscheidbarkeit serieller und paralleler Architekturen. Journal of Mathematical Psychology, 1996, 40, 203–218

Dzhafarov, EN & Cortese, JM Empirische Wiederherstellung der Response-Time-Decomposition-Regeln I. Sample-Level-Decomposition-Tests. Journal of Mathematical Psychology, 1996, 40, 185-202

Dzhafarov, EN & Schweickert, R. Zerlegungen von Reaktionszeiten: Eine fast allgemeine Theorie. Journal of Mathematical Psychology, 1995, 39, 285-314

Roberts, S. & Sternberg, S. Die Bedeutung additiver Reaktionszeiteffekte: Tests von drei Alternativen. In Meyer, DE & Kornblum, S. (Hrsg.) Aufmerksamkeit und Leistung XIV. Synergien in experimenteller Psychologie, künstlicher Intelligenz und kognitiver Neurowissenschaft., MIT Press, 1992, 611-653

Ich stimme Marc-André zu, die ausgewählten Stimuli sollten keine (oder möglichst wenig) semantische Assoziation haben, weshalb ich die Verwendung von geometrischen Formen anregen würde, die farblich variieren. Außerdem glaube ich, dass die Aufgabe so einfach wie möglich sein sollte, um die allgemeine Sauberkeit der Daten zu fördern.

Wie Sie vorgeschlagen haben, ist eine solche Aufgabe die Aufgabe zur Erkennung redundanter Attributziele (Miller, 1982). Bei dieser Aufgabe werden die Teilnehmer gebeten, Zielmaße (z. B. blau und quadratisch) im Auge zu behalten, und sobald eine der Maße auf dem Bildschirm angezeigt wird, reagieren die Teilnehmer so schnell und so genau wie möglich. Die Ergebnisse sind in der Regel schnell, genau und leicht verzerrt – passend für diese Initiative! Wir könnten ein paar Farben und Formen auswählen (wenn wir mit dieser Aufgabe fortfahren) sowie welche Farbharmonie ausgewählt werden sollte.

Darüber hinaus können uns Farben, die in ihrer „Offensichtlichkeit“ variieren, möglicherweise ein klareres Verständnis der Parameter in bestimmten Modellen vermitteln. Beispielsweise sollte ein offensichtliches Blau eine schnellere RT haben als ein gedämpftes Blau, und der Ratenparameter jedes einzelnen Kanals sollte dies widerspiegeln (vorausgesetzt natürlich, dass der Ratenparameter überhaupt mit „Offensichtlichkeit“ verbunden ist). Dieser Aspekt interessiert mich besonders.

Während ein Ja/Nein für diese Aufgabe großartig wäre, bin ich auch fest davon überzeugt, dass eine 2AFC-Aufgabe viel interessantere Ergebnisse liefern würde und die 1-Million-RT-Initiative uns helfen könnte, das „Rennen“ in „Rennmodellen“ wirklich zu verstehen. Dies könnte so einfach sein wie das Ändern der Aufgabe als eine mit Entscheidungen „Ziel vorhanden“ oder „Ziel abwesend“. Mit klareren Trends in RT könnten wir hoffentlich Informationen über die Unabhängigkeit von Dimensionen sammeln und ob es ein Übersprechen zwischen Detektoren gibt.

Darüber hinaus würde das Vorhandensein solcher Daten nicht nur der Modellanpassung zugute kommen, sondern auch solideren Architekturanalysen. Dies würde uns wiederum helfen, ein konkreteres Verständnis von koaktiven Architekturen zu bekommen (die Architektur, die Miller, 1982 vorschlug, spielte bei dieser Art von Aufgabe eine Rolle), die nicht so streng definiert wurden wie andere Architekturen (wie von Houpt & Townsende, 2011).

BEARBEITEN:

Houpt, JW, & Townsend, JT (2011). Eine Erweiterung der SIC-Vorhersagen auf das Wiener Coactive-Modell. Zeitschrift für Mathematische Psychologie, 55, 267-270

Miller J. (1982). Geteilte Aufmerksamkeit: Hinweise auf Koaktivierung mit redundanten Signalen. Kognitive Psychologie, 14,247–279

Könnten Sie detailliertere Zitate bereitstellen, vorzugsweise vollständige APA. Das erleichtert den Lesern das Auffinden der Zeitungen.

Ich selbst interessiere mich für einen solchen Datensatz zur Same-Different-Aufgabe (Bamber, 1969). Die Antwort ist binär (gleich oder unterschiedlich), die Genauigkeit ist sehr hoch und es gibt einen Lerneffekt (zumindest kurzfristig). In Bezug auf die Anzahl der Bedingungen könnten wir die ursprüngliche Aufgabe vereinfachen, um von 14 Bedingungen auf 8 zu gehen, indem wir entweder:

  • Begrenzung der Buchstabenanzahl auf 4 (statt 1, 2, 3 und 4)
  • Verwenden von 1-, 2- oder 4-Buchstaben-Stimuli und 1 oder 2 Nichtübereinstimmungen für die 2-Buchstaben-Stimuli und 2 oder 4 Nichtübereinstimmungen für die 4-Buchstaben-Stimuli

Die zweite Option kommt dem Original am nächsten. Die erste wäre jedoch sehr aufschlussreich für die 4-Buchstaben-Bedingung, da aufgrund des Versuchsdesigns nur wenige Daten dazu vorliegen.

Könnten Sie detailliertere Zitate bereitstellen, vorzugsweise vollständige APA. Das erleichtert den Lesern das Auffinden der Zeitungen.

Da viele Personen (hauptsächlich Männer) Anomalien der Farbwahrnehmung haben, sollten Sie Farben vermeiden; Sie möchten auch eine einfache Aufgabe mit „einfachen“ Reizen, um kurze Versuchsdauern zu ermöglichen. Visuelle Suchparadigmen sind dafür gut. Ich wiederhole die Forderung nach einem Projekt, bei dem das experimentelle Design etwas von besonderem Interesse ansprechen würde, und idealerweise wäre das mit einem „Standard“-Design (z. B. mit 10.000 Datenpunkten statt 1.000.000) schwer zu bewältigen. Das Abschätzen der Verteilung von Verarbeitungszeiten für einen Prozess, der aus indirekten Messungen abgeleitet wird, kann ein interessanter Problembereich sein.

PJ

Könnten Sie bitte Referenzen zu Ihren Aussagen hinzufügen? Das Ziel von CogSci ist es, gut recherchierte und gut referenzierte Fragen und Antworten zu haben.

Ich stimme für eine einfache zufällige Punktbewegungsaufgabe. Dies hat folgende Vorteile: 1. Es ist einfach zu programmieren. Es kann per Javascript über das Internet bereitgestellt werden, was den Aspekt „viele Labore“ vereinfacht. 2. Es ist sehr gut studiert und gut verstanden. 3. Es ist einfach, 5-artige Kohärenzpegel einzustellen, die fast den gesamten Genauigkeitsbereich abdecken, vom Zufallspegel bis zu 100 %. Dies ist wichtig für die Unterscheidung zwischen den Modellen.

Bitte fügen Sie Ihrer Antwort einige Referenzen mit Beispielen oder der Entwicklung dieser Aufgabe hinzu. CogSci ist ein wissenschaftlicher Stack, kein Diskussionsforum.

Darf ich fragen, haben Sie darüber nachgedacht, vorhandene große Datensätze zu verwenden, wie sie beispielsweise von Project Implicit bereitgestellt werden ? Datensatz .

(leider scheint Project Implicit keine einzelnen Datenpunkte gespeichert zu haben, sondern einen berechneten „Effekt“ pro Teilnehmer).

Danke @andyw für deinen Beitrag. Allerdings brauchen wir wirklich Rohdaten. Viele Modelle sind am besten geeignet, wenn Wahrscheinlichkeitsmethoden verwendet werden. Außerdem sind einige Effekte an den äußersten Enden der Verteilungen sichtbar, sodass zusammenfassende Statistiken (Mittelwert, Standardabweichung, sogar Schiefe) nicht genügend Informationen liefern.
Nur eine Nachfolge. Es ist wahrscheinlich, dass wir eine 10-Länder-, 800-Teilnehmer pro Land-Replizierung des impliziten Projektlaufs des IAT für Geschlecht/Karriere durchführen. Wir würden ALLE Daten speichern. Vielleicht 200 Versuche pro Teilnehmer (1,6 Millionen RT-Ergebnisse). Von Nutzen? uwahomewardbound.wordpress.com/2016/01/20/…

Darf ich vorschlagen, Daten online zu sammeln?

Mit den neuesten Browsertechnologien sind RTs extrem genau, in der Größenordnung von 5 Mikrosekunden ( Diskussion ). Selbst mit etwas älterer Browser-Technologie können gesammelte RTs genau sein ( Ref ).

Es gibt mehrere Websites, auf denen Menschen freiwillig recherchieren ( Diskussion ).

Das Sammeln von Daten über mehrere Standorte hinweg ist sicherlich einfacher, wenn pro Standort Einrichtungszeit vorhanden ist.

Dies beantwortet nicht die Frage des OP. Er fragt nach RT-Aufgaben/Paradigmen. Obwohl die Informationen interessant sind, hätten sie als Kommentar oder in einer neuen Frage gepostet werden sollen (z. B. cogsci.stackexchange.com/q/9584/11318 ) .

Erlauben Sie mir bitte, Ihr Setup zu hinterfragen:

Ihre Behauptung, dass Sie eine Million Datenpunkte benötigen, um zwischen Modellen zu unterscheiden, wirft die Frage auf, ob Sie immer noch gültige Wissenschaft betreiben, denke ich. Sind Sie sicher, dass die Unterschiede zwischen den Modellen wissenschaftlich interessant genug sind, um ein Monsterprojekt zu rechtfertigen, um zu versuchen, zwischen ihnen zu unterscheiden? Vor allem, wenn dies alles auf einer einzigen Aufgabe basiert. Ich bin sicher, Ihre Suche wird zu einem "Siegermodell" führen. Aber ich bin mir nicht sicher, ob daraus eine verallgemeinerbare wissenschaftliche Erkenntnis resultieren wird.

In einer kurzen Anmerkung ist es schwierig, alle Vorteile eines solchen Datensatzes aufzuzählen. Beispiele: Sind leistungsbeschreibende Parameter in der Regel über die Fächer verteilt? Bedeutet der Trainingseffekt – der zu einer schnelleren RT führt –, dass sich die Parameter alle in eine Richtung entwickeln? Ist die bayessche Schätzung geeigneter als die maximale Wahrscheinlichkeit, die Parameter zu charakterisieren? Wie können wir Nichtentscheidungszeiten abschätzen? Welche Form haben die RT-Verteilungen und wie verändert der Trainingseffekt ihre Form? Nochmals zu Bayes, nach wie vielen Versuchen haben Priors keinen Einfluss mehr auf die Schätzungen? etc

Eine Million Versuche ist nicht wirklich viel. Es gibt viele Aufgaben, bei denen Sie 1000 Versuche pro Stunde sammeln können. Mit einem zehnköpfigen Fachgremium, in dem jede Person 2 Stunden am Tag (10 Stunden pro Woche) arbeitet, könnten Sie in 10 Wochen eine Million Versuche sammeln. Angenommen, Sie zahlen 15 USD pro Stunde, können Sie alle Daten für 15.000 USD sammeln, was ein kleiner Zuschuss ist. Um ein Gremium mit zehn Personen zu leiten, benötigen Sie idealerweise 3 Teststationen und einen RA, um die Dinge zu regeln.

Sie geben keine Antwort auf die Frage. Es fragt nach RT-Aufgaben/Paradigmen.
@DenisCousineau, meine Antwort ist, dass Ihre Prämisse, dass es schwierig ist, eine Million Versuche zu sammeln, falsch ist. Es handelt sich nicht wirklich um eine große N-Studie, die einer zusätzlichen Prüfung oder Crowdsourcing bedarf.
@StrongBad Eine solche Bemerkung würde wahrscheinlich am besten als Kommentar zur Frage passen. Antworten sind der tatsächlichen Beantwortung der Fragen mit Aussagen vorbehalten, die auf wissenschaftlicher Literatur beruhen.