Die Verwendung von künstlicher Intelligenz zu erkennen Diskriminierung
Eine neue künstliche Intelligenz (KI) Instrument zur Erfassung der ungerechten Diskriminierung-wie auf der Grundlage von Rasse oder Geschlecht-wurde von Forschern an der Penn State und Columbia University.
Verhindern ungleiche Behandlung von Personen auf der Grundlage von Rasse, Geschlecht oder Ethnizität, zum Beispiel, war seit langem ein Anliegen zivilisierter Gesellschaften. Allerdings erkennen solche Diskriminierung aufgrund von Entscheidungen, ob durch menschliche Entscheidungsträger oder automatischen AI-Systemen, kann extrem herausfordernd. Diese Herausforderung wird noch weiter verschärft durch die Breite Annahme von AI-Systemen zu automatisieren Entscheidungen in vielen Bereichen-einschließlich der Polizeiarbeit, consumer finance, higher education und business.
„Künstliche-Intelligenz-Systeme-wie die beteiligten in die Auswahl der Kandidaten für einen job oder für die Zulassung zu einer Universität — geschult sind auf große Mengen von Daten“, sagte Vasant Honavar, Professor und Edward Frymoyer Lehrstuhl für Information Sciences and Technology, Penn State. „Wenn aber diese Daten sind voreingenommen, Sie kann sich auf die Empfehlungen der KI-Systeme.“
Zum Beispiel sagte er, wenn ein Unternehmen hat historisch nie angestellt, eine Frau für eine bestimmte Art von job, dann ist ein AI-system ausgebildet, auf diese historischen Daten nicht empfehlen, eine Frau, die nach einem neuen job.
„Es ist nichts falsch mit der machine-learning-Algorithmus selbst,“ sagte Honavar. „Es tut, was es tun soll, die zu identifizieren, die gute Kandidaten basierend auf bestimmte wünschenswerte Eigenschaften. Aber da es trainiert wurde, auf historische, voreingenommen Daten es hat das Potenzial, um unfaire Empfehlungen.“
Das team erstellt eine AI-tool zum erkennen von Diskriminierung mit Bezug auf ein protected-Attribut, wie etwa nach Rasse oder Geschlecht, durch menschliche Entscheidungsträger oder KI-Systeme, die basierend auf dem Konzept der Kausalität in die eine Sache — eine Ursache-bewirkt eine andere Sache — ein Effekt.
„Zum Beispiel die Frage“ Ist dort die Diskriminierung aufgrund des Geschlechts in Löhne?‘ kann reframed als “ Nicht Geschlecht haben eine kausale Auswirkung auf das Gehalt?,‘ oder in anderen Worten, “ Würde eine Frau sein, mehr bezahlt, wenn Sie ein Mann war?“, sagte Aria Khademi, graduate student in information sciences and technology, Penn State.
Da es nicht möglich ist, direkt zu wissen, die Antwort auf solch eine hypothetische Frage, das team das Instrument verwendet anspruchsvolle kontrafaktische Inferenz-algorithmen, um eine beste Schätzung.
„Zum Beispiel,“ sagte Khademi, „ein intuitiver Weg, gelangt man auf eine Schätzung, was ein faires Gehalt wäre für einen weiblichen Mitarbeiter zu finden, die ein männlicher Arbeitnehmer, der ähnlich wie die Frau mit Bezug auf Qualifikation, Produktivität und Erfahrung. Wir minimieren die Diskriminierung aufgrund des Geschlechts in Bezug auf Gehalt, wenn wir sicherstellen, dass ähnliche Männer und Frauen erhalten ähnliche Gehälter.“
Die Forscher testeten Ihre Methode mit verschiedenen Arten von verfügbaren Daten, wie Einkommen Daten aus dem US Census Bureau, um festzustellen, ob es geschlechtsspezifische Diskriminierung bei den Gehältern. Außerdem testeten Ihre Methode mit dem New York City Police Department stop-and-frisk-Programm-Daten, um festzustellen, ob Diskriminierung gegenüber Menschen der Farbe in Festnahmen nach Stationen. Die Ergebnisse erschienen im Mai in Proceedings of The Web-Konferenz 2019.
„Wir analysierten ein Erwachsener Einkommen Datensatz mit Gehalt, demographische und arbeitsmarktbezogene Daten von knapp 50 000 Personen“, sagte Honavar. „Wir fanden Hinweise auf die Diskriminierung aufgrund des Geschlechts in Bezug auf Gehalt. Speziell fanden wir, dass die Chancen einer Frau, die ein Gehalt von mehr als $50.000 pro Jahr nur ein Drittel, dass für einen Mann. Dieses würde vorschlagen, dass die Arbeitgeber suchen und diese korrigieren, wenn es angebracht ist, gender-bias in Löhne.“
Obwohl die Analyse des Teams der New York stop-and-frisk-dataset — enthält demographische und andere Informationen über den Treiber nicht mehr von der New York City Polizei — offenbart Hinweise auf mögliche rassistische Vorurteile gegenüber Hispanics und African American Menschen, es fand keine Anzeichen von Diskriminierung im Durchschnitt als eine Gruppe.
„Sie können nicht richtig für ein problem, wenn Sie nicht wissen, dass das problem existiert“, sagte Honavar. „Zur Vermeidung von Diskriminierung auf Grund von Rasse, Geschlecht oder sonstige Attribute, die Sie brauchen effektive Werkzeuge zur Erkennung von Diskriminierung. Unser tool kann dabei behilflich sein.“
Honavar fügte hinzu, dass Daten-getriebene künstliche-Intelligenz-Systeme, die zunehmend bestimmen, wie Unternehmen, zielgerichtete Werbung an die Verbraucher, wie die Polizei-Abteilungen bei der überwachung von Einzelpersonen oder Gruppen für kriminelle Aktivitäten, wie Banken, zu entscheiden, wer bekommt ein Darlehen, die Arbeitgeber entscheiden, zu mieten, und wie Hochschulen und Universitäten entscheiden, wer zugelassen oder erhält finanzielle Hilfe, gibt es eine dringende Notwendigkeit für tools wie die, die er und seine Kollegen entwickelt.
„Unser Werkzeug“, sagte er, „kann helfen, sicherzustellen, dass solche Systeme nicht zu Instrumenten der Diskriminierung, Barrieren, die Gleichheit, die Gefahren für die soziale Gerechtigkeit und die Quellen der Ungerechtigkeit.“
Die Nationalen Institute der Gesundheit und National Science Foundation unterstützt diese Forschung.