Gibt es Methoden, die Phänomene wie Shy-Tory-Faktor und Bradley-Effekt kompensieren?

Dies ist eine Folgefrage zu dieser Frage (Warum lagen Umfragen und Prognosemodelle vor den Wahlen in Bezug auf Donald Trump so falsch).

Die akzeptierte Antwort informiert uns über die möglichen Gründe wie Shy Tory Factor und Bradley-Effekt . Für einen Laien sagen beide dasselbe: Die Leute sagen, dass sie mit einer anderen Person wählen werden, als sie es tatsächlich tun werden (aus verschiedenen Gründen).

Ich erwähne die Wahlen in den USA nur als Beispiel – ich bin an einer allgemeineren Antwort interessiert.

In meinem Heimatland habe ich bei vielen Wahlen erhebliche (normalerweise den Gewinner verpasste) Unterschiede zwischen den Umfragen vor den Wahlen und dem tatsächlichen Ergebnis festgestellt. Als Randbemerkung haben Exit-Umfragen sogar einen Kandidaten für einen Tag zum Präsidenten gemacht (die endgültige Zählung hat den Gewinner bestimmt).

Frage: Gibt es wahlbezogene Umfragemethoden, um solche Effekte zu kompensieren und die Umfrage effektiver zu machen?

Ich denke, dass etwas, das dem Wahlkompass ähnelt ( aber einfacher ist), ausreichen könnte, da die Fragen indirekt die politische Sympathie bewerten. Eine solche Methode kann von redundanten Fragen profitieren, die nützlich sind, um Lügner zu fangen, aber es könnte den Umfrageprozess zu komplex machen.

Antworten (1)

Shy-Trump-Faktor/Clinton-Effekt

Erstens bleibt ungewiss, dass es bei der Wahl von Donald Trump einen schüchternen Tory-Faktor gab. Die Volksabstimmung lag innerhalb der Fehlergrenze der Umfrage. Nur in zwei Staaten (Wisconsin und Michigan) wich das tatsächliche Ergebnis um mehr als die Fehlergrenze vom Umfrageergebnis ab. Das größere Problem war, dass die Umfragen in fünf wichtigen Staaten (auch Pennsylvania, North Carolina und Florida) zugunsten von Trump ausfielen. Warum das so ist, ist unklar.

Beachten Sie, dass Kalifornien einen fast so hohen Fehler ( 6,5 % ) hatte wie Wisconsin. Wir ignorieren es einfach, weil es das landesweite Ergebnis (Clinton gewann) nicht verändert hat und weil es in die entgegengesetzte Richtung ging. Dennoch ist Kalifornien sinnvoller als Wisconsin als ein Ort, an dem die Menschen wahrscheinlich nicht bereit sind, zuzugeben, für Trump gestimmt zu haben.

Wenn es einen schüchternen Trump-Faktor gäbe, würden wir erwarten, ihn eher dort zu sehen, wo Trump unbeliebt war. Stattdessen gewann Trump die Teile von Wisconsin, die er erwartet hatte, mit einem unerwarteten Vorsprung . Bundesweit erhielt er 2012 ungefähr die gleiche Stimmenzahl wie Mitt Romney. Es war Hillary Clinton, die schlechter abschnitt und weniger Stimmen erhielt als Barack Obama.

Wenn die Wahlen in den Vereinigten Staaten einen Bradley-Effekt haben, hätten wir damit 2012 gerechnet. Obama ist genau die Art von Figur, von der der Bradley-Effekt sagt, dass sie in Umfragen besser abschneiden sollte als in der Realität. Die Umfrage soll seine Stimme überschätzt haben. Doch in Wirklichkeit haben Umfragen Obamas Stimmenanteil im Jahr 2012 unterschätzt. Tatsächlich unterschätzten sie Obamas Stimmenanteil um mehr ( 3,2 % ) als der Wahlausfall für Trump im Jahr 2016 ( 1,2 % ).

Es ist umstritten , dass es bei der eigentlichen Bradley-Wahl einen „Bradley-Effekt“ gab.

Erkennung

Ist es möglich, dass wir ein System entwickeln könnten, das Menschen aufdeckt, die Meinungsforscher belügen? Sicher. Wir könnten uns eine Reihe harmloser Fragen einfallen lassen, die die Leute nicht erkennen, die es uns aber ermöglichen würden, ihre Stimme einzuschätzen. Das Problem ist, dass selbst eine kleine Fehlerspanne in dieser Vorhersage den angeblich schüchternen Tory-Faktor überwältigen würde. Der Unterschied in der Marge in Wisconsin betrug nur 7,2 % . Ihre Methode müsste also durchweg genauer sein.

Ein weiteres Problem dabei wäre das Sammeln der Daten. Wie werden Sie die wahren Gefühle der Person erkennen? Der springende Punkt ist, dass die Person in Umfragen über die tatsächliche Abstimmung lügt. Wie würden Sie das reale Ergebnis mit Ihrem berechneten Ergebnis in Verbindung bringen? Sie müssen davon ausgehen, dass Leute, die Ihnen wahrheitsgemäß sagen, dass sie für den Kandidaten der Torys stimmen, die gleichen Antworten geben wie diejenigen, die sagen, dass sie für den Kandidaten von Bradley stimmen, aber in Wirklichkeit für die Torys stimmen. Das kann nicht wahr sein.

Die Vermutung ist, dass sie ihre wahre Präferenz nicht zugeben wollen, weil sie rassistisch (Anti-Bradley), wirtschaftlich egoistisch (Tory) oder einer ähnlichen Erklärung erscheint. Es gibt mehrere Gründe, für jeden Kandidaten zu stimmen. Zum Beispiel haben einige Leute möglicherweise Trump gewählt, weil er der einzige republikanisch ähnliche Kandidat war, der vernünftigerweise gewinnen konnte. Aber so etwas könnte man einfach sagen. Andere mögen Trump bevorzugen, weil er sagt, was er denkt, wie rassistisch oder frauenfeindlich es auch sein mag. Das ist ein schwieriger Grund, es zuzugeben.

Sie müssen die Gruppe der zugelassenen Trump-Wähler, die Trump aus den gleichen Gründen wie die versteckten Trump-Wähler bevorzugen, von anderen zugelassenen Trump-Wählern trennen. Es ist nicht klar, wie Sie das tun, ohne sie zuerst zu identifizieren.

Ich habe mir die Seite Electoral Compass angesehen. Das scheint eher zu versuchen, zu erraten, wen Sie mögen könnten, als tatsächlich vorherzusagen, für wen Sie stimmen könnten. Als Bradley-Effekt-Detektor hat er das Problem, nicht zu verbergen, was er zu tun versucht. Ich vermute, dass ich es dazu bringen könnte, das Ergebnis zu beantworten, das ich wollte. Es ist wahrscheinlich, dass ein schüchterner Tory-Wähler sie ebenso belügen würde wie traditionellere Meinungsforscher. Die Phase, in der gefragt wird, ob verschiedene Personen klug, fürsorglich, erfahren usw. sind, würde besser funktionieren, aber es könnte schwierig sein, sie zu kalibrieren.

Statistische Stichproben

Nehmen wir an, wir konnten all diese Probleme überwinden. Wir haben ein System, das bestimmte Fragen stellt und mit 100-prozentiger Genauigkeit bestimmt, wie diese Person abstimmen wird, selbst wenn diese Person in einigen Antworten lügt. Das bringt uns immer noch keine 100% genauen Umfragen.

Das Problem ist, dass Umfragen eine Stichprobe der Bevölkerung sind, nicht die Bevölkerung selbst. Um diese 100-prozentige Genauigkeit bei der Vorhersage der Abstimmung zu erreichen, müsste die Umfrage jeden einzelnen Wähler erfolgreich befragen. Darüber hinaus müsste die Umfrage korrekt bestimmen, wer wählen geht und wer nicht, ebenfalls mit 100-prozentiger Genauigkeit.

Die Wahrheit ist, dass das Sampling einfach nicht so genau ist. Ein Meinungsforscher ruft tausend Festnetztelefone an (Handyanrufe können für den Empfänger mit Kosten verbunden sein, sind also eingeschränkter). Mehr als die Hälfte der Personen, die antworten, sagen, dass sie jetzt nicht sprechen möchten. Das ist eine Selbstselektion und verzerrt an sich schon die Reaktion. Manche Leute werden nie an der Umfrage teilnehmen.

Diese Verzerrung kommt zu dem hinzu, was als Fehlerspanne bezeichnet wird. Die Fehlerspanne ist ein rein mathematisches Konstrukt. Wenn Sie zufällig eine bestimmte Zahl aus einer größeren Population auswählen, liegt die Wahrscheinlichkeit, dass ihre Zusammensetzung mit der der größeren Population übereinstimmt, bei 95 % innerhalb der Fehlergrenze. Sie haben also nur eine 5%ige Chance, eine wirklich falsche Antwort zu erhalten.

Wann sind Umfragen am interessantesten? Wenn das Ergebnis knapp ist. Wann sind Umfragen am wenigsten genau? Wenn das Ergebnis knapp ist. Wenn Ihnen also das Ergebnis am wichtigsten ist, können die Umfragen den Gewinner nicht vorhersagen. Wieso den? Denn ein Umfrageergebnis von 50,1 % bis 49,9 % könnte genauso gut eine Population mit realen Präferenzen zwischen 51,1 % bis 48,9 % und 49,1 % bis 50,9 % repräsentieren, selbst wenn man die 5-%-Chance eines Ergebnisses außerhalb dieses Intervalls und jegliche Verzerrung der Umfrage vernachlässigt. Und die meisten Umfragen haben keine Fehlerquote von nur 1 %.

Demografie

Ein weiteres Problem besteht darin, dass Selektionsverzerrungen häufig mit bestimmten demografischen Gruppen in Verbindung gebracht werden. Beispielsweise sind die Wähler in der Altersgruppe der 18- bis 29-Jährigen in den USA mit größerer Wahrscheinlichkeit Demokraten und verwenden ihr Handy eher als einziges Telefon. Menschen, die viele Stunden arbeiten und nie verfügbar sind, sind eher Republikaner. Meinungsforscher passen ihre Umfragen also demographisch an. Sie versuchen künstlich, dass ihre Umfragen genügend Leute haben, die wie Handynutzer abstimmen und die wie Leute abstimmen, die viele Stunden arbeiten.

Das Problem tritt auf, wenn sie diese demografischen Gruppen schätzen müssen. Was ist der beste Indikator dafür, wie die demografische Entwicklung in einem bestimmten Wahljahr aussehen wird? Ein Rückblick auf die Demografie des letzten ähnlichen Wahljahres. Aber die Demographie verändert jede Wahl. Und wir wissen nicht, wie sie sich bis nach der Wahl verändern werden. Wir können danach abfragen, aber diese Umfrage unterliegt auch Selektionsverzerrungen und Stichprobenfehlern.

All dies basiert auf einem Missverständnis darüber, wie Statistiken funktionieren. Die Umfragen ergaben eine ~80-prozentige Chance, dass Clinton gewinnt. Das bedeutet, dass die Wahrscheinlichkeit, dass Trump gewinnt, bei etwa 20 % liegt. Hin und wieder passiert das Unwahrscheinliche. Die Leute wollen einfache „Ja-Nein“-Antworten auf diese Art von Fragen, aber Umfragen (oder das Leben im Allgemeinen) funktionieren einfach nicht so.
@Brythan - Danke für die ausführliche Antwort. Es lässt mich die jüngsten Wahlen in den USA verstehen. Meine Frage bezieht sich jedoch eher auf Möglichkeiten, diese Probleme zu umgehen und bessere Vorhersagen zu erhalten. Natürlich hat Carpetsmoker recht damit, dass es nicht möglich ist, den genauen Gewinner zu ermitteln, da wir über Statistiken sprechen (es gelten andere Regeln, nicht die binären Logiken).
Die „schüchterne Tory“ muss nicht direkt lügen – sie muss nur die Antwort verweigern.