Gibt es in den Vereinigten Staaten eine Tendenz, maschinelle Übersetzungsalgorithmen zu ändern, um geschlechtsneutrale Sprache und Geschlechtspronomen zu verwenden?

Hinweis: Dies hängt etwas mit meiner vorherigen Frage zusammen

Dieser Artikel befasst sich mit scheinbar geschlechtsspezifischer Voreingenommenheit in der maschinellen Übersetzung:

„Unsere Ergebnisse zeigen, dass männliche Defaults in Bereichen, die angeblich mit Geschlechterstereotypen zu kämpfen haben, wie MINT-Jobs (Wissenschaft, Technologie, Ingenieurwesen und Mathematik), nicht nur prominent, sondern übertrieben sind“, heißt es in dem Papier.

Weitere Hinweise auf algorithmische Voreingenommenheit – die als Unvermögen beschrieben werden könnte, kulturelle Bevorzugung zu kompensieren – zeigten sich in den Assoziationen bestimmter Adjektive mit bestimmten Geschlechtspronomen. Sätze mit den Wörtern „attraktiv“, „beschämt“, „glücklich“, „freundlich“ und „schüchtern“ wurden tendenziell mit weiblichen Pronomen übersetzt. Sätze mit „arrogant“, „grausam“ und „schuldig“ wurden als männlich übersetzt.

Darüber hinaus spekulieren die Forscher, dass die im Englischen gezeigte Verzerrung andere Sprachen beeinflussen könnte, weil "Google Translate normalerweise Englisch als Lingua Franca verwendet, um zwischen anderen Sprachen zu übersetzen".

Einige Kommentatoren argumentieren, dass der Algorithmus selbst nicht voreingenommen ist, aber das Korpus, aus dem gelernt wird, ist:

Es ist ein maschineller Lernalgorithmus, er lernt Übersetzungen aus einem Korpus von Texten. Seine geschlechtsspezifische Voreingenommenheit repräsentiert die Voreingenommenheit des Korpus.

Ich frage mich, ob dieses Thema in der US-Politik erwähnt wurde oder wird.

Frage: Gibt es in den Vereinigten Staaten eine Tendenz, eine Änderung der maschinellen Übersetzungsalgorithmen zu fordern, um geschlechtsneutrale Sprache und Geschlechtspronomen zu verwenden?

Anmerkung: Als persönliche Anmerkung finde ich die Schnittstelle zwischen Ideologie und Algorithmen besonders interessant.

Antworten (1)

Noch nicht...

Das Bestehen darauf, dass maschinelle Lernalgorithmen eine geschlechtsneutrale Sprache verwenden, ist eher ein Nischenthema . Ihre Frage ist das erste, was ich davon höre.

... aber was "Machine-Learning-Algorithmen" tun und ihre relative Voreingenommenheit ist ein aufkommendes Diskussionsfeld

Was viel häufiger diskutiert wird, ist, wie Algorithmen des maschinellen Lernens im Allgemeinen gegen oder für bestimmte Arten von Menschen voreingenommen sein könnten.

Das prominenteste Beispiel für diese Art von Diskussion findet sich in Bezug auf die Gesichtserkennungs- und Matching-Technologie. Adäquate Datensätze für das Training von Face-Matches auf Basis von maschinellem Lernen sind eigentlich sehr schwer zu bekommen, so dass viele Unternehmen, die daran arbeiten, Fotos ihrer eigenen Mitarbeiter verwenden. Softwareunternehmen sind in der Regel mit weißen und/oder asiatischen Männern besetzt, sodass die resultierenden Algorithmen solche Personen tendenziell besser identifizieren als Frauen oder Personen anderer ethnischer Gruppen. Dies beginnt politisch kontrovers zu werden, weil Polizeibehörden Face-Matching nutzen möchten, und es gibt bereits politische Kontroversen (in einigen Fällen bereits vor der Gründung) darüber, wie Minderheiten von Strafverfolgungsaktivitäten überproportional betroffen sind und die Gründe dafür. So,

Also ja, ich würde nicht sagen, dass das Thema, nach dem Sie fragen, noch eine tatsächliche politische Bewegung ist , aber es wird wahrscheinlich auftauchen, wenn das derzeitige Denken über geschlechtsneutrale Sprache gleichzeitig mit anderen noch ein paar Jahre anhält Diskussionen über die Regulierung von maschinellen Lernalgorithmen finden statt.

Es kommt auch häufig bei der maschinellen Anleitung zu Kaution und Verurteilung vor.
„weil Polizeidienststellen Face-Matching nutzen wollen …“ fühlt sich fast so an, als würde es so weitergehen wie „… speziell für Schwarze“
@HagenvonEitzen Nein. Das wäre nach dem 14. Zusatzartikel der Verfassung der Vereinigten Staaten illegal.