Ist die Erkennung wütender Gesichter beim Menschen effizienter?

Hansen und Hansen schlugen den Wut-Überlegenheitseffekt vor: Drohende Gesichter tauchen aus der Menge auf, vielleicht als Ergebnis einer vorsorglichen, parallelen Suche nach Signalen einer direkten Bedrohung.

Pinkham (2010) hat gezeigt, dass wir schneller sind, wenn wir ein wütendes Gesicht erkennen müssen als ein glückliches (unten).

Geben Sie hier die Bildbeschreibung ein

Können wir wirklich feststellen, dass wir einen Zornüberlegenheitseffekt haben?

Verärgerte Gesichter und nicht verärgerte Gesichter unterscheiden sich durch zu viele Merkmale...

Wie können wir dieses Ergebnis (schneller erkannte wütende Gesichter) auf zornbezogene Merkmale zurückführen, wenn so viele andere Merkmale (die nicht unbedingt mit Wut zusammenhängen) unterschiedlich sind?

Verweise

Hansen & Hansen, 1988

Was meinst du mit "wirklich etablieren" ? Die Daten zeigen Ihnen, dass dies der Fall ist. Anscheinend unterscheiden sie sich tatsächlich ausreichend von den Distraktoren, um leichter herausgegriffen zu werden. Was genau hinterfragen Sie an der Studie bzw. ihren Ergebnissen? Was ist deine Frage?
Ich habe geschrieben, dass meiner Meinung nach, wenn man sich die Bilder ansieht, wütende Gesichter zu unterschiedlich sind, ich meine, die wütenden Gesichtsausdrücke erscheinen mir wie eine Karikatur, sie sind übertrieben ... Meine Frage, ich versuche es umzuformulieren, ist: Ist dieser Beweis zuverlässig?
@AliceD Ist jetzt klarer? Ich meine, wenn Sie sich ein visuelles Suchexperiment ansehen, unterscheiden sich Ziel und Ablenker nur für ein Merkmal. Diese Art von Experiment ist effizient, weil ich sagen kann, dass, wenn das Ziel „herausspringt“, es auf das ungewöhnliche Merkmal zurückzuführen ist ... In diesem Fall denke ich nicht, dass es ein guter Beweis ist, um zu schließen, dass wir einen Wut-Überlegenheitseffekt haben. . Ist das klar?
Könnten Sie erläutern, was Sie mit "zu unterschiedlich" meinen? Meinen Sie die Kopfneigung und andere Merkmale, die nichts mit Wut zu tun haben? Ich nehme an, Sie meinen keine Merkmale, die mit Wut zu tun haben, wie z. B. gerunzelte Brauen und entblößte Zähne.
Nein. Ich meine, wie stark ist der Beweis, der besagt: dass wütende Gesichter aus der visuellen Szene herausspringen, wenn Probanden Gesichter verschiedener Personen mit unterschiedlichen Gesichtserkennungsmerkmalen gesehen haben ... wie können wir dieses Ergebnis zuordnen (wütende Gesichter werden schneller erkannt) zu Wut-bezogenen Merkmalen, wenn so viele andere Merkmale (die nicht unbedingt mit Wut zusammenhängen) unterschiedlich sind?
Ich verstehe nicht, was Ihnen nicht klar ist ... in diesen Papieren gibt es keine Aussage, die die Annahme rechtfertigt: dass Gesichter aufgrund von Wutmerkmalen schneller erkannt wurden ... @Seanny123, warum ziehen sie diese Schlussfolgerung? Wie können sie zum Beispiel ausschließen, dass dieser Effekt zufällig war ...
@Fil: Ich verstehe, Sie fragen im Grunde, woher wir wissen, dass es keinen anderen Störfaktor in den Unterschieden zwischen diesen Gesichtern gibt, der wesentlich zur beobachteten Diskriminierung beiträgt (oder noch besser erklärt).
Es gibt definitiv ein neueres Papier, das darauf hindeutet, dass wir auf etwas anderes hingewiesen werden könnten: ncbi.nlm.nih.gov/pubmed/21744984 ODER vielleicht mehr als ein ncbi.nlm.nih.gov/pubmed/18410189 Aber ich bin mir nicht sicher, ob diese vollständig sind Vorbefunde entkräften. Lassen Sie mich sie lesen :-) In der Zwischenzeit ist es wahrscheinlich eine gute Idee, wenn Sie Ihre letzten Kommentare in Ihrer Frage bearbeiten.
Ja, das war ein Hauptkritikpunkt dieser Studie.
Es mag etwas dran sein, aber eher in Bezug auf Aufmerksamkeitserregung als auf Effizienz, wie ein neuerer Artikel über Säuglinge (aber über Angst, nicht Wut) nahelegt: ncbi.nlm.nih.gov/pmc/articles/PMC5611515 Sie haben viel verwendet besseres Design, Verwendung der gleichen Gesichter mit unterschiedlichen Ausdrücken: ncbi.nlm.nih.gov/pmc/articles/PMC5611515/figur/F1
Obwohl es vielleicht auch etwas über die Erkennungsschwelle gibt: ncbi.nlm.nih.gov/pubmed/28878060

Antworten (1)

Ich bin mir nicht sicher, ob es dafür völlig unbestreitbare Beweise gibt, aber ich habe eine neuere (2017) Arbeit von Bayet et al. gefunden. mit Kleinkindern, aber eher mit Angst als mit Wut als getesteter Emotion (vs. glücklich) und (was noch wichtiger ist) mit einer anderen Methodik (und meiner Meinung nach besser), weil sie anstelle unterschiedlicher Gesichter (in einer Menschenmenge) dasselbe Gesicht verwendeten aber mit Rauschen gemischt, z. B. aus Angst [aber nur zur Veranschaulichung, siehe unten warum]

Geben Sie hier die Bildbeschreibung ein

Sie versuchten tatsächlich zu bestimmen, welche Gesichtsmerkmale eine einfachere Erkennung ermöglichen, Augen oder Mund, indem sie Rauschen bevorzugt in dieser Region mischten (die resultierenden Bilder wurden mit SSIM validiert , daher wurden vier Serien von Stimuli präsentiert (mit unterschiedlichem Rauschpegel in jeder Serie).

Jeder der Gesichtsreize wurde den Säuglingssubjekten in unterschiedlichen Tests präsentiert; Jeder Test bestand aus einem mit Geräuschen gemischten Gesicht und reinem Geräusch (zwei Bilder auf dem Bildschirm), und eine Kamera wurde verwendet, um die Reaktionen des Säuglings aufzuzeichnen. Der Film wurde dann analysiert, um mehrere Reaktionsmaße zu bestimmen, die wiederum verwendet wurden, um Maße der Gesichtserkennung zu berechnen.

Letztendlich wurden zwei verschiedene Gesichtserkennungsmaße abgeleitet: Ein einfaches, das auf Prozentsätzen der gesamten Betrachtungszeit [PTLT] basiert, und ein komplexeres psychometrisches Maß, dessen Methodik ziemlich kompliziert ist (und daher vielleicht ein Schwachpunkt dieses Papiers):

Ein multivariates Maß für die Gesichtserkennung wurde abgeleitet, indem die Versuche als „Gesicht ist links“ oder „Gesicht ist rechts“ klassifiziert wurden. Die Begründung für diese Metrik ähnelt der Idee der „doppelten Psychophysik“ [48]: Wenn man zuverlässig erraten kann, auf welcher Seite des Bildschirms das Gesicht dargestellt wurde, indem man das Verhalten des Säuglings betrachtet, dann kann gefolgert werden, dass es sich um den Säugling handelt Unterscheidung zwischen dem Vorhandensein eines Gesichts oder eines Geräusches. Wir haben diese Idee rechnerisch unter Verwendung von MVPA [42] implementiert, um die Seite der Präsentation des Gesichts (links oder rechts) bei jedem Versuch zu lokalisieren, basierend auf (i) PTLT nach links, (ii) Anzahl der Blicke nach links, (iii) Anzahl der Blicke nach rechts, (iv) Dauer des ersten Blicks nach links, (v) Dauer des ersten Blicks nach rechts, (vi) mittlere Dauer der Blicke nach links, (vii) mittlere Dauer der Blicke nach rechts , und (viii) Richtung des ersten Blicks (links oder rechts). Die Dauer wurde log-transformiert [56]. Kontinuierliche Messungen wurden innerhalb des Probanden z-bewertet. Die Maßnahmen wurden a priori aufgrund der visuellen Präferenz von Säuglingen für Gesichter ausgewählt [57]. PTLT nach rechts ist gleich 100 % minus PTLT nach links und musste daher nicht eingeschlossen werden. Versuche von allen Teilnehmern wurden gepoolt, um die Anzahl der Trainingsbeispiele zu maximieren, und ein logistischer Regressionsalgorithmus (ein üblicher Klassifikator für MVPA) wurde wiederholt für alle Versuche außer einem trainiert und an dem Versuch getestet, der ausgelassen wurde (einen auslassen Kreuzvalidierung). Innerhalb jeder Kreuzvalidierungsschleife wurde eine vorwärtsgerichtete sequentielle Merkmalsauswahl implementiert (siehe elektronisches Zusatzmaterial, Tabelle S2 für Ergebnisse zum vollständigen Datensatz). Dieses Verfahren führte dazu, dass die Gesichtsseite für jeden Versuch in einer Weise lokalisiert wurde, die eine Verallgemeinerung widerspiegelt. Wir haben die logistische Regression verwendet, weil sie Log-Odds liefert, ein direktes, kriteriumfreies, kontinuierliches Beweismaß für jede Antwort („Gesicht ist links“ versus „Gesicht ist rechts“) – im Gegensatz zu Genauigkeit, einer Binärzahl Maß abhängig von einem Entscheidungskriterium. Rohe Beweise (Log-Odds für die rechte versus linke Seite) wurden gepoolt, um korrekte Beweise (Log-Odds für die richtige versus falsche Seite) als ein multivariates Maß der Gesichts- versus Lärmunterscheidung abzuleiten.

Die Gesamtergebnisse ihrer Analyse sehen wie folgt aus (eine Zeile für jede Erkennungsmaßnahme):

Geben Sie hier die Bildbeschreibung ein

Ihre Interpretation der Ergebnisse:

Psychometrische Kurven des PTLT zur Gesichtsseite zeigten eine signifikant niedrigere Schwelle für die Bedingung Ängstliches Auge+ Gesicht (44,41 ± 1,98 % Gesichtssignal; [...]; Abbildung 3a) als für die Bedingung Glückliches Auge-Gesicht (Differenz: 5,20 + /- 2,62 % Gesichtssignal, 95 % KI [0,001 0,103]), aber nicht die anderen Bedingungen ([...] Abbildung 3a), über alle Altersgruppen hinweg. [...] Ein ähnliches Ergebnis wurde gefunden, als die psychometrische Kurvenmodellierung auf die korrekten multivariaten Beweise für die Unterscheidung zwischen Gesicht und Lärm angewendet wurde; die Gesichtserkennungsschwelle für die Bedingung Fearful Eye+ (44,07 ± 2,14 % Gesichtssignal; [...] Abbildung 3c) war signifikant niedriger als die Erkennungsschwelle für die Bedingung Happy Eye- (Erhöhung der Schwelle: 7,90 ± 2,52 % Gesichtssignal, 95 % KI [0,030 0,128]), aber nicht die anderen Bedingungen (Wald-Konfidenzintervall, Alpha = 5 %; [...]; Abbildung 3c)

Ähnliche Modelle wurden verwendet, um den Schwellenwertunterschied zwischen der Bedingung Ängstliches Auge – und anderen Zuständen oder zwischen der Bedingung Glückliches Auge+ und anderen Zuständen abzuschätzen (elektronisches Zusatzmaterial, Tabellen S5–S8). Die Ergebnisse sind in Abbildung 4 zusammengefasst. Insgesamt ergab die psychometrische Kurvenmodellierung von Säuglingsblickdaten Schwellenwerte für die Gesichtserkennung bei etwa 44 % Signal, mit einem Signalanstieg von etwa 5 % im Schwellenwert für den Zustand „Happy Eye“ im Vergleich zum Zustand „Fearful Eye+“ und dazwischen Schwellenwerte für „Happy Eye+“- und „Fearful“-Augenzustände, abhängig davon, ob PTLT allein (Abbildung 4a) oder korrekter multivariater Diskriminierungsnachweis (Abbildung 4b) als Maß für die Erkennung von Gesichtern im Vergleich zu Geräuschen verwendet wurde.

Um zu klären, ob diese Unterschiede in den Erkennungsschwellen einen Haupteffekt des Gesichtsausdrucks, einen Haupteffekt der Augensichtbarkeit oder eine Wechselwirkung zwischen den beiden widerspiegeln, und um einen Alterseffekt zu testen, führten wir weitere Analysen durch, die sich auf den linearen Teil der ausrichteten psychometrische Kurven entsprechen Versuchen um die angepassten Erkennungsschwellen (40–50 % Signal). [...; Abbildung 3b,c,e,f Ich lasse alle Chi-Quadrat-Statistiken weg]

Die Ergebnisse waren gemischt, wenn PTLTs nur für die Gesichtsseite betrachtet wurden, da die Wirkung der Gesichtsemotion auf diese Messung auf 3,5 Monate alte Kinder beschränkt war. Korrekte Diskriminierungsbeweise, ein umfassenderes multivariates Maß einschließlich PTLTs und andere Aspekte des Blickverhaltens (z. B. erster Blick) zeigten jedoch einen Erkennungsvorteil für ängstliche Gesichter im Vergleich zu fröhlichen Gesichtern in allen Altersgruppen (d. h. es gab keine signifikante Wechselwirkung mit dem Alter). .

Geben Sie hier die Bildbeschreibung ein

Natürlich beantwortet dies nicht die Frage, ob die Wirkung in einer Menschenmenge (oder einer Nicht-Laborumgebung, oder ob sie auf Wut usw. zutrifft) anhält. Die Autoren selbst sagen:

Zukünftige Forschung sollte feststellen, ob die Bereitschaft, ängstliche Gesichter (im Vergleich zu glücklichen Gesichtern) im Säuglingsalter zu erkennen, sich auf naturalistische Umgebungen außerhalb des Labors verallgemeinert. Der Vergleich der Erkennung von ängstlichen gegenüber wütenden gegenüber traurigen Gesichtern wird auch klären, ob der Effekt nur für bedrohungsrelevante Reize (Wut und Angst) oder allgemeiner für negative neuartige Ausdrücke (Angst, Wut und Traurigkeit) gilt.

Danke, ich denke, dass die Tatsache, dass sie das gleiche Gesicht "morphen", ein besserer Beweis für eine mögliche Präferenz der Aufmerksamkeit auf emotionale Reize ist