Kann AI Vorurteile haben?

Autor: Laura McKinney
Erstelldatum: 5 April 2021
Aktualisierungsdatum: 26 Juni 2024
Anonim
Vorurteile der AI: Deshalb lernen Algorithmen zu diskriminieren | SRF Forward
Video: Vorurteile der AI: Deshalb lernen Algorithmen zu diskriminieren | SRF Forward

Inhalt


Wegbringen:

In den letzten Jahren wurde AI immer häufiger angewendet, von der Beurteilung der Schönheit bis zur Beurteilung des Rückfallrisikos. Dabei wurden auch Standards eingehalten, die in mehreren Fällen Befangenheit und Diskriminierung unterstützen.

Der technologische Fortschritt hat das Potenzial, den Zugang zu Informationen und Chancen wirklich zu demokratisieren. In einigen Fällen wird es jedoch in einer Weise eingesetzt, die die Vorstellung verstärkt, dass in unserer Gesellschaft einige Menschen gleichberechtigter sind als andere.

Dies haben wir aus den folgenden sieben Fällen gesehen, in denen künstliche Intelligenz (KI) absichtlich verwendet wird, um bestimmte Kategorien auszuschließen, oder in denen sie einfach die Vorurteile widerspiegelt, die von ihren menschlichen Programmierern mit diskriminierender Wirkung eingebettet wurden.

Die AI Beauty Bias

Schönheit mag im Auge des Betrachters liegen, aber wenn diese subjektive Sichtweise KI programmieren kann, ist das Programm voreingenommen. Rachel Thomas berichtete über eine solche Episode in einem Schönheitswettbewerb von beauty.ai im Jahr 2016. Die Ergebnisse zeigten, dass hellere als attraktiver eingestuft wurden als dunkle.


Im folgenden Jahr hat "FaceApp, das zur Erstellung von Filtern für Fotos neuronale Netze verwendet, einen" Hotness-Filter "erstellt, der die Haut der Menschen aufhellt und ihnen mehr europäische Merkmale verleiht."

Der Gender Bias in Sprachen

Thomas führt auch ein dokumentiertes Beispiel für Übersetzungen an, die stereotype Erwartungen an Karrieren übersteigen. Der Ausgangspunkt sind zwei Sätze: "Sie ist eine Ärztin. Er ist eine Krankenschwester."

Wenn Sie sie dann ins Türkische und wieder ins Englische übersetzen, erhalten Sie die Ergebnisse, die Sie von einem Telefonspiel erwartet haben.

Anstatt das zu bekommen, womit Sie angefangen haben, würden Sie die Erwartung der 1950er Jahre haben: "Er ist ein Arzt. Sie ist eine Krankenschwester." Sie erklärt, dass dies auf das geschlechtsneutrale Singularpronomen in der türkischen Sprache zurückzuführen ist, das das Geschlecht anhand von Erwartungen und stereotypen Vorurteilen zuordnet. (Lesen Sie Frauen in der KI: Sexismus und Stereotype mit Technik stärken.)


Während rassistische und geschlechtsspezifische Vorurteile, die in Bilder und Sprache filtern, ärgerlich sind, sind sie nicht ganz dasselbe wie aktive Diskriminierung aufgrund von KI, aber das ist auch passiert.

Der Beweis war ein Screenshot der Einschränkungen, die für eine Anzeige in der Kategorie "Wohnen" festgelegt wurden, die es ermöglichte, das Publikum einzugrenzen, indem Ausschlüsse von Kategorien wie "Afroamerikaner", "Asiatischer Amerikaner" oder "Hispanics" markiert wurden. Die Anzeige kann hier angesehen werden.

Wie ProPublica ausführt, ist die diskriminierende Wirkung solcher Anzeigen sowohl nach dem Fair Housing Act von 1968 als auch nach dem Civil Rights Act von 1964 rechtswidrig. In diesem Fall bestand die einzige Verteidigung darin, dass die Anzeige nicht für den Wohnungsbau selbst bestimmt war, da dies nicht der Fall war. t über eine Immobilie oder ein Haus zum Verkauf oder zur Miete.

Es gab jedoch auch andere Fälle von Zielgruppen, die auf rassistische Vorurteile hinweisen und verschiedene Organisationen dazu motiviert haben, Zivilklagen gegen das soziale Netzwerk zu erheben. Wie Wired berichtete, wurde endgültig beschlossen, die Technologie für die Ausrichtung von Anzeigen aufgrund einer Einigung von fünf Rechtsfällen anzupassen, in denen die Diskriminierung von Minderheiten durch Anzeigen im März 2019 ermöglicht wurde.

In ihrem Bericht über den Vergleich wies die ACLU darauf hin, wie heimtückisch solche gezielten Anzeigen sein könnten, da Minderheiten und Frauen möglicherweise nicht einmal bemerken, dass ihnen nicht der gleiche Zugang zu Informationen, Wohnraum und Beschäftigungsmöglichkeiten gewährt wird, der mit weißen Männern geteilt wird.

Da immer mehr Menschen im Internet nach Jobs, Wohnungen und Krediten suchen, besteht die reale Gefahr, dass durch die Ausrichtung von Anzeigen bestehende rassistische und geschlechtsspezifische Vorurteile in der Gesellschaft reproduziert und sogar verschärft werden. Stellen Sie sich vor, ein Arbeitgeber zeigt Anzeigen für Ingenieurjobs nur für Männer an. Nutzer, die nicht als Männer identifiziert wurden, sehen diese Anzeigen nicht, und sie werden auch nie erfahren, was sie verpasst haben.

Schließlich haben wir selten eine Möglichkeit, die Anzeigen zu identifizieren, die wir online nicht sehen. Dass diese Diskriminierung für den ausgeschlossenen Nutzer unsichtbar ist, erschwert das Aufhalten.

2. Diskriminierung aufgrund des Geschlechts und des Alters am Arbeitsplatz

Zu den Rechtsfällen gehörte die gesetzeswidrige Diskriminierung bei der Wohnungssuche. ProPublica gab in seinem Vergleichsbericht an, die Plattform getestet zu haben und es gelungen zu sein, „wohnungsbezogene Anzeigen für ausgeschlossene Gruppen wie Afroamerikaner und Juden“ zu kaufen. Zuvor wurden Stellenanzeigen gefunden, bei denen Nutzer nach Alter und Geschlecht von Unternehmen ausgeschlossen waren das sind bekannte Namen. “

Die ACLU stellte fest, dass eine Reihe von Stellenanzeigen, die ausdrücklich nur für Männer in einer bestimmten Altersgruppe bestimmt waren, in einem anderen Wired-Artikel vorgestellt wurden, da die Nutzer durch Klicken auf die Antwort feststellen konnten, warum ihnen diese bestimmte Anzeige gezeigt wurde. Die ACLU erhob bei der Equal Employment Opportunity Commission eine Anklage gegen das soziale Netzwerk und die Unternehmen, die die Anzeigen geschaltet hatten, mit der Begründung, sie verstießen sowohl gegen das Arbeits- als auch gegen das Bürgerrechtsgesetz.

Die Diskriminierung von über 40-Jährigen bei der Einstellung verstößt gegen das Bundesgesetz über die Diskriminierung aus Altersgründen in der Beschäftigung (ADEA). Die Ausrichtung von Stellenanzeigen nur auf Personen unter diesem Alter ist jedoch eine der Möglichkeiten der Plattform.

ProPublica stellte in einem seiner Berichte heraus, welche Stellenanzeigen von dieser illegalen Form des Ausschlusses nach Alter profitierten. Zu den „bekannten Namen“ zählen unter anderem Verizon, UPS, Uber, Target, Statefarm, Northwestern Mutual, Microsoft, J Street, HusbSpot, IKEA, Fonds für das öffentliche Interesse, Goldman Sach, OpenWorks und sich selbst.

Gesichtserkennung fehlgeschlagen

"Gesichtserkennung ist genau, wenn Sie ein Weißer sind", lautete die Überschrift eines Artikels der New York Times, der im Februar 2018 veröffentlicht wurde. Er zitierte Ergebnisse, die eine eindeutige Korrelation zwischen Hautton und fehlerhafter Identifizierung fanden:

"Je dunkler die Haut, desto mehr Fehler treten auf - bis zu 35% bei Bildern von Frauen mit dunklerer Hautfarbe. Dies geht aus einer neuen Studie hervor, die neue Wege beschreitet, indem gemessen wird, wie die Technologie bei Menschen unterschiedlicher Rassen und Geschlechter funktioniert."

Die Ergebnisse gehen an Joy Buolamwini, Forscherin am MIT Media Lab und Gründerin der Algorithmic Justice League (AJL). Ihr Forschungsgebiet sind die Vorurteile, die der KI zugrunde liegen, was zu derart verzerrten Ergebnissen führt, wenn es darum geht, Gesichter zu erkennen, die nicht der für das Modell festgelegten Norm für weiße Männer entsprechen.

Buolamwini stellte das Rassen- und Gender-Bias-Problem für die Gesichtserkennung in einem TED-Vortrag 2017 vor, auf den sie Anfang 2018 im Video über das Gender Shades Project des MIT Lab Bezug nahm:

<

In der Beschreibung des Videos heißt es, dass eine unkontrollierte KI-Verzerrung "das Zeitalter der Automatisierung lähmen und die Ungleichheit weiter verschärfen wird, wenn sie weiter zunimmt". Das Risiko ist nichts anderes als "die Gewinne zu verlieren, die mit der Bürgerrechtsbewegung und der Frauenbewegung unter der falschen Annahme der Maschinenneutralität erzielt wurden".

Die Videobeschreibung fügt die Warnung hinzu, auf die viele andere bereits hingewiesen haben, wie wir in Women in AI gesehen haben: "Automatisierte Systeme sind nicht von Natur aus neutral. Sie spiegeln die Prioritäten, Präferenzen und Vorurteile wider - die kodierten Blick - auf diejenigen, die die Kraft haben, künstliche Intelligenz zu formen. "

Am 25. Januar 2019 veröffentlichte Buolamnwini einen Medium-Post, der sich auf ihre eigenen Forschungsergebnisse und die weiterer Forscher stützte, die darauf hinwiesen, dass die KI-Mängel zu Fehlern bei der Erkennung von Amazon führen, und forderte das Unternehmen auf, den KI-Dienst nicht mehr an Polizeidienststellen zu verkaufen.

Während Rekognition bei hellhäutigen Männern eine Genauigkeit von 100% und bei weiblichen Männern eine Genauigkeit von 98,7% aufweisen konnte, sank die Genauigkeit bei hellhäutigen Frauen auf 92,9%. Noch greller war der scharfe Abfall auf nur 68,6% Genauigkeit für dunklere Frauen.

Aber Amazon weigerte sich nachzugeben. Ein Venture Beat-Artikel zitierte eine Aussage von Dr. Matt Wood, General Manager für Deep Learning und KI bei AWS, in der er darauf bestand, dass die Ergebnisse der Forscher nicht die tatsächliche Verwendung der KI widerspiegelten, und erklärte:

„Gesichtsanalyse und Gesichtserkennung unterscheiden sich grundlegend in Bezug auf die zugrunde liegende Technologie und die Daten, mit denen sie trainiert wurden. Der Versuch, die Genauigkeit der Gesichtserkennung mithilfe der Gesichtsanalyse zu beurteilen, ist nicht ratsam, da dies nicht der beabsichtigte Algorithmus für diesen Zweck ist. "

Es sind jedoch nicht nur diejenigen, die mit großen Forschungszentren verbunden sind, die die Algorithmen als sehr problematisch empfunden haben. Laut dem Gizmodo-Bericht führte die ACLU einen eigenen Test zu einem angemessenen Preis von 12,33 USD durch. Es stellte sich heraus, dass Rekognition 28 Mitglieder des Kongresses mit Fotos von Verbrechern abgeglichen hatte.

"Die falschen Ausweise wurden gemacht, als die ACLU von Nordkalifornien Rekognition mit passenden Fotos von allen 535 Mitgliedern des Kongresses gegen 25.000 öffentlich zugängliche Fahndungsfotos beauftragte."

Da es sich bei 11 von 28 Personen um Farbige handelte, ergab sich für sie eine signifikante Fehlerquote von 39%. Im Gegensatz dazu lag die Fehlerquote insgesamt bei akzeptableren 5%. Sechs Mitglieder des Congressional Black Caucus, die zu den im Zusammenhang mit Fahndungsfotos stehenden Personen gehörten, äußerten ihre Besorgnis in einem offenen Brief an den CEO von Amazon.

Rückfallverzerrung

Die Vorurteile, die die KI gegenüber farbigen Personen aufweist, werden zu einem ernsthaften Problem, wenn sie mehr als nur einen Fehler bei der Identifizierung bedeuten. Dies war das Ergebnis einer weiteren ProPublica-Untersuchung im Jahr 2016. Die Konsequenzen dieser Verzerrung sind nicht weniger als die individuelle Freiheit und das Ignorieren des realen Risikos der Person, deren Hautfarbe vom Algorithmus bevorzugt wird.

Der Artikel bezog sich auf zwei parallele Fälle mit einem weißen und einem schwarzen Täter. Ein Algorithmus wurde verwendet, um vorherzusagen, welcher wahrscheinlich wieder gegen das Gesetz verstoßen würde. Der Schwarze wurde mit einem hohen Risiko und der Weiße mit einem niedrigen Risiko bewertet.

Die Vorhersage war völlig falsch, und der Weiße, der frei wurde, musste erneut inhaftiert werden. Dies ist äußerst problematisch, da sich die Gerichte bei der Entscheidung über die Bewährung auf die Punktzahl verlassen, und dies bedeutet, dass die im Programm berücksichtigte rassistische Voreingenommenheit eine Ungleichbehandlung nach dem Gesetz bedeutet.

ProPublica hat den Algorithmus auf seine eigene Probe gestellt und die Risikobewertung von über 7.000 Personen, die in den Jahren 2013 und 2014 in Broward County, Florida, festgenommen wurden, mit der Zahl verglichen, gegen die in den folgenden zwei Jahren neue strafrechtliche Anklagen erhoben wurden.

Sie stellten fest, dass lediglich 20% der Vorhersagen für die Wiederholung von Gewaltverbrechen zutrafen, und weitere geringfügige Verbrechen traten nur bei 61% der Betroffenen auf, die ein Risiko aufwiesen.

Das eigentliche Problem ist nicht nur die mangelnde Genauigkeit, sondern auch die damit verbundene Voreingenommenheit gegenüber der Rasse:

  • Es war besonders wahrscheinlich, dass die Formel schwarze Angeklagte fälschlicherweise als zukünftige Kriminelle kennzeichnete und sie auf diese Weise fälschlicherweise fast doppelt so häufig als weiße Angeklagte bezeichnete.
  • Weiße Angeklagte wurden häufiger als risikoarme als schwarze Angeklagte bezeichnet.

Tatsächlich entsprach dies einer Fehlerquote von 45% für Schwarze und 24% für Weiße. Trotz dieser eklatanten Statistik berichtete Thomas, dass der Oberste Gerichtshof von Wisconsin die Verwendung dieses Algorithmus immer noch befürwortet. Sie geht auch auf andere Probleme im Zusammenhang mit Rückfall-Algorithmen ein.