www.wikidata.de-de.nina.az
Von Diskriminierungsrisiken bei maschinellem Lernen spricht man wenn Entscheidungen die von automatisierten Systemen getroffen werden dazu fuhren dass bestimmte Bevolkerungsgruppen diskriminiert werden Inhaltsverzeichnis 1 Beschreibung des Sachverhalts 1 1 Automatisierte Entscheidungen und Diskriminierung 1 2 Statistische Diskriminierung durch den Einsatz von Algorithmen 1 3 Systematisierung der Diskriminierungsrisiken 1 3 1 Diskriminierung aufgrund von technischen Eigenschaften 2 Algorithmenbasierte Entscheidungen und gesellschaftliche Risiken 2 1 Gruppenzugehorigkeit und Generalisierungsunrecht 2 2 Akkumulations und Verstarkungseffekte 2 3 Differenzierungen gegen gesellschaftspolitische Vorstellungen 2 4 Behandlung als ein blosses Mittel und psychologische Distanzierung 2 5 Gefahrdung der freien Entfaltung der Personlichkeit und des Rechts auf Selbstdarstellung 2 6 Erzeugung von struktureller Uberlegenheit 3 Regulierung und Recht 3 1 Rechtliche Situation 3 2 Entwurfe zur weiteren Regulierung 4 EinzelnachweiseBeschreibung des Sachverhalts BearbeitenAutomatisierte Entscheidungen und Diskriminierung Bearbeiten Algorithmen sind zunehmend Bestandteile von Systemen der automatisierten Entscheidung Einige dieser Algorithmen werden durch maschinelles Lernen als Teilbereich der kunstlichen Intelligenz mit Verwendung von Datensatzen trainiert Algorithmen kommen dabei in vielfaltigen Anwendungsfeldern zum Einsatz so zum Beispiel bei individualisierter Werbung bei der Personalauswahl bei der Mieterauswahl auf dem Immobilienmarkt bei der Ermittlung von Kreditwurdigkeit oder bei der Berechnung von Kriminalitatsrisiken Im Vergleich zwischen menschlichen und automatisierten Entscheidungen wird erwartet dass automatisierte Entscheidungen neutraler und objektiver sind gegenuber menschlichen Entscheidungen die aufgrund kognitiver Verzerrung bzw selektiver Wahrnehmung anfallig sind fur Vorurteile und Stereotypen Durch automatisierte Entscheidungen konnen jedoch neue Diskriminierungen entstehen Anders als bei individuellen Diskriminierungen durch z B einzelne Sachbearbeiter in menschlichen Entscheidungen kann es durch die Art der Anwendung von automatisierten Entscheidungen zu Massenphanomenen und zu kumulierten Benachteiligungen kommen Zudem konnen durch Entwicklungen des maschinellen Lernens Eigenschaften der Personlichkeit z B Gesundheitszustand emotionale Zustande oder sexuelle Orientierung aus Daten ermittelt werden Sie konnen in der automatisierten Entscheidungsfindung zur Differenzierung von Personen eingesetzt werden Ein Beispiel ist das Personlichkeitsmerkmal Vertrauenswurdigkeit bei der Bildung von Kreditscores Wahrend lange nur Zahlungshistorie und andere finanzielle Informationen in den Score einflossen werden heute auch Daten uber die Kommunikation und Beziehungen in sozialen Onlinenetzwerken berucksichtigt 1 Dabei ist unklar wie weitgehend derartige Analysemethoden bereits in der Praxis angewandt werden Statistische Diskriminierung durch den Einsatz von Algorithmen Bearbeiten Im Gegensatz zur praferenzbasierten Diskriminierung die sich in affektiver Zu oder Abneigung bestimmter Gruppen oder Personen der Entscheidenden begrundet kommt es bei der Diskriminierung durch die Anwendung von Algorithmen zu statistischer Diskriminierung Diese beschreibt die Ungleichbehandlung durch statistische Berechnungen durch den Einsatz von Ersatzinformationen Ersatzinformationen werden dann herangezogen wenn uber das Hauptmerkmal von Personen keine Informationen vorliegen oder diese mit hohem Kostenaufwand erzeugt werden mussten Diese Ersatzinformationen konnen Variablen die geschutzte Merkmale z B Alter Geschlecht oder Variablen die eine Korrelation zu geschutzten Merkmalen aufweisen sein und enthalten somit ein Diskriminierungsrisiko Zusatzlich wird bei der statistischen Diskriminierung der statistische Zusammenhang zwischen Variablen einer Gruppenzugehorigkeit und dem Differenzierungsziel angenommen und generalisiert d h fur individuelle Gruppenzugehorige angenommen Die Bewertungen beziehen sich damit nicht auf eine Einzelperson sondern auf statistisch gebildete Gruppen Es kann zu Akkumulations und Verstarkungseffekten von Ungleichbehandlungen ganzer Bevolkerungsgruppen kommen Systematisierung der Diskriminierungsrisiken Bearbeiten Risiken der Diskriminierung bei automatisierten Entscheidungen lassen sich in folgende Punkte unterteilen 1 Diskriminierungsrisiken die durch die Verwendung von Algorithmen aufgrund ihrer besonderen technischen Eigenschaften resultieren 2 Diskriminierungsrisiken die durch die Verwendung der algorithmen und datenbasierten Differenzierungen und Entscheidungssysteme an sich entstehen und als gesellschaftliche Risiken auftreten Diskriminierung aufgrund von technischen Eigenschaften Bearbeiten Laut Barocas und Selbst 2 lassen sich diese Diskriminierungsrisiken bei maschinellem Lernen in funf Arten einteilen Zielvariablen Diese beschreiben das gewunschte Ergebnis Sie definieren damit den gewunschten Endzustand beispielsweise gute Jobbewerber Zielvariablen beinhalten Urteile daruber welche Daten relevant sind und welche nicht Sie bestimmen damit auch welche Kategorien und Gruppen gebildet werden Falls diese Gruppenbildung an zu schutzende Merkmale geknupft wird entstehen Diskriminierungsrisiken Labels in Trainingsdaten Als Labeling wird das Zuordnen von Kategorien im Datensatz bezeichnet Wenn das System im Prozess des maschinellen Lernens mit vorurteilsbelasteten Trainingsdaten ausgestattet wird kann es zu diskriminierenden Ergebnissen kommen Barocas und Selbst beschreiben zwei Moglichkeiten wie voreingenommene Trainingsdaten diskriminierende Auswirkungen haben konnen Erstens kann das KI System auf voreingenommenen Daten trainiert werden Zweitens konnen Probleme entstehen wenn das KI System aus einer verzerrten Stichprobe lernt 3 Ein Beispiel fur entstehende Diskriminierung durch voreingenommene Trainingsdaten zeigen Bolukbasi u a in einer Studie zur geschlechtsbezogenen Stereotypen bei maschineller Textanalyse 4 Bei einem Ubersetzungsprogramm wurden Berufsbezeichnungen geschlechtsspezifisch zugeordnet beispielsweise wurde dem Begriff nurse deutsch Pflegekraft die weibliche Variante Krankenschwester zugeordnet Maschinelle Textanalysen werden in verschiedensten Anwendungen eingesetzt wie der automatisierten Analyse von z B Dokumenten Lebenslaufen oder der schriftlichen Kommunikation in sozialen Netzwerken sowie der automatisierten Rangfolgenbildung bei Suchmaschinenergebnissen Produktempfehlungen oder maschinellen Ubersetzungen Werden die so erzeugten embedding Algorithmen die stereotype Wortbeziehungen ubernommen haben dort eingesetzt kann es zu problematischen Ergebnissen kommen in dem Sinne dass uberkommene Geschlechterrollen fortgesetzt werden 5 Sammeln der Trainingsdaten Ein anderes Risiko stellt das Zusammenstellen der Trainingsdaten dar Durch eine uberproportionale Reprasentation bestimmter Gruppen konnen die Ergebnisse einer Analyse der Stichprobe zugunsten oder zuungunsten der uber oder unterreprasentierten Klasse verzerrt sein Feature Selection Bei der Feature Selection werden Attribute ausgewahlt die in die Analyse eingebaut werden Bei der Entscheidung welche Attribute in die Entscheidungsfindung aufgenommen werden sollen konnen Gruppen diskriminiert werden wenn diese in ausgewahlten Merkmalen unterreprasentiert sind Ein Beispiel aus dem Arbeitsmarkt Bei Einstellungsprozessen wurde die Reputation des ausbildenden Colleges stark gewichtet obwohl das kaum etwas uber Kompetenzen der Bewerber aussagt Minderheiten die Colleges mit grosser Reputation unterdurchschnittlich haufig besuchen werden so durch die algorithmenbasierte Entscheidung diskriminiert 6 ProxiesObwohl die ausgewahlten Attribute keine diskriminierenden Effekte beinhalten kann es trotzdem zu Diskriminierungen durch sogenannte Proxies kommen wenn zwischen diesen und geschutzten Merkmalen eine Korrelation besteht Die gewahlten Merkmale sind in diesem Fall systematisch diskriminierend fur Mitglieder bestimmter Gruppen da sie neben den gewunschten Kriterien Zugehorigkeit zu Gruppen beinhalten Laut Lehr und Ohm muss allerdings zwischen playing with the data und dem laufenden System unterschieden werden Sie kritisieren Baracos und Selbst dafur dass sie nicht alle Stufen des maschinellen Lernens behandeln Vor allem die mathematischen Bedingungen des Algorithmus und die damit verbundenen Moglichkeiten fehlerhafte Inputs zu korrigieren werden von Baracos und Selbst nicht berucksichtigt Durch den Fokus auf die Datenbeschaffung und Aufarbeitung werden aber auch Risiken ubersehen die durch die Wahl und Entwicklung eines Algorithmus entstehen 7 Algorithmenbasierte Entscheidungen und gesellschaftliche Risiken BearbeitenNeben den technischen Diskriminierungsrisiken die in Teilen vermieden werden konnen konnen gesellschaftliche Diskriminierungsrisiken aus der Verwendung von algorithmenbasierten Differenzierungsverfahren und automatisierten Entscheidungssystemen an sich entstehen 8 Gruppenzugehorigkeit und Generalisierungsunrecht Bearbeiten Statistische Diskriminierung richtet sich gegen Personengruppen und verstellt den Blick auf Einzelfalle So kann es durch generalisierende Vorgange zu Unrecht kommen da Individuen nicht in ihrer individuellen Situation und nach ihren individuellen Eigenschaften beurteilt werden 9 Ein Beispiel in diesem Zusammenhang ist das Kreditscoring In Finnland wurde 2018 von dem Nationalen Nicht Diskriminierungs und Gleichheitstribunal ein Fall des Kreditscorings als Diskriminierung verurteilt Einem mannlichen Antragssteller wurde durch die angewandten statistischen Verfahren eine Kreditverlangerung verweigert Das Tribunal begrundete seine Entscheidung einerseits damit dass ein Fall von Mehrfachdiskriminierung durch die Verwendung von rechtlich geschutzten Merkmalen Geschlecht Muttersprache Alter und Wohnort vorgelegen habe anderseits bemangelte das Tribunal dass keine Einzelfallprufung durchgefuhrt wurde sondern abstrakte Kreditdaten herangezogen wurden 10 Der offentliche Sektor ist gesetzlich verpflichtet allen Burgern diskriminierungsfreie Dienstleistungen zu bieten Wenn ADM Systeme fur die Verteilung von Dienstleistungen an Zivilpersonen eingesetzt werden muss sichergestellt werden dass sie keine Diskriminierungsrisiken bergen Es ist jedoch keine leichte Aufgabe diese Risiken zu minimieren Zu den drei wichtigsten Erkenntnissen die bei der Entwicklung von ADM Technologien fur den offentlichen Sektor zu berucksichtigen sind gehoren die Betrachtung von ADM als fehlbar die Berucksichtigung von Machtungleichgewichten und der Schutz von Hinweisgebern 11 Akkumulations und Verstarkungseffekte Bearbeiten Akkumulations und Verstarkungseffekte bei Benachteiligungen konnen sich auf viele Lebensbereiche auswirken Entwicklungs und Entfaltungschancen Einkommenssicherung Grad der politischen Involvierung und Durchsetzen von Gerechtigkeit im Rechtssystem 12 Diese Effekte sind nicht mit algorithmenbasierten Differenzierungen entstanden treten aber insbesondere dann auf wenn Ersatzinformationen diskriminierungsanfallige Merkmale enthalten oder aber Ungleichgewichte in der Reprasentation von Personengruppen bzw Reprasentationsrisiken in den Datensatzen vorliegen 13 Im Bildungswesen liegen beispielsweise Verstarkungseffekte vor wenn durch bestehende Ungleichheiten Betroffenen Anreize genommen werden sich weiterzuqualifizieren 14 Beispielsweise kann durch stereotype Bildsuchergebnisse bei Suchmaschinen dann der Karrierewunsch bzw das Karrierestreben beeinflusst werden wenn Frauen in Ergebnissen der Bildersuche von Berufen unterreprasentiert sind 15 Ein weiteres Beispiel von Verstarkungseffekten ist das Predictive Policing vorausschauende Polizeiarbeit Verzerrte Datensatze konnen zu verzerrten Vorhersagen von Verbrechen fuhren und entsprechend zu mehr Einsatzen In diesen vermehrten Einsatzen werden dann zusatzliche Straftaten beobachtet 16 Die Vorhersagen werden somit in die Berechnungen miteingefugt und das System verstarkt sich selbst Differenzierungen gegen gesellschaftspolitische Vorstellungen Bearbeiten Durch wirtschaftlich angestrebten Gewinn konnen gesellschaftliche Risiken entstehen wenn die Anwendung von Algorithmen personen oder gruppenbezogene Differenzierungen zu Gunsten von Effizienzbestrebungen miteinschliesst Allerdings sprechen Gleichheitsbestrebungen und sozialpolitische Ziele zum Teil gegen diese Form der Differenzierung Deshalb sollte eine solche Differenzierung in bestimmten Fallen nicht angewandt werden Das gilt erstens fur vergangenes Diskriminierungsunrecht und strukturelle Benachteiligung bestimmter Merkmalstrager Akkumulations und Verstarkungseffekte konnten durch einen Verzicht von Differenzierung durchbrochen werden Zweitens sollte auf Differenzierung verzichtet werden wenn Mitgliedern einer strukturell benachteiligten Gruppe der Zugang zu Gutern Ressourcen und Positionen erschwert wurde und damit eine Uberwindung der Benachteiligung zusatzlich beeintrachtigt werden wurde Beispiele hierfur sind Zugang zu Beschaftigungsverhaltnissen oder Krediten Ausserdem beinhaltet Differenzierung die Gefahr einer expandierenden Stereotypisierung also zusatzliche Stereotype bei Gruppen die ohnehin mit negativen Stereotypen konfrontiert sind Schliesslich kann Differenzierung gegen gesundheits oder sozialpolitische Ziele stehen Das ist dann der Fall wenn Praktiken und Modelle die auf Solidaritat beruhen wie z B Krankenversicherungen durch individuelle Losungen ersetzt werden sollen Behandlung als ein blosses Mittel und psychologische Distanzierung Bearbeiten Die Anwendung von Algorithmen kann dazu fuhren dass Menschen nicht mehr als Individuen bzw in Anerkennung ihrer grundrechtlich verbrieften Menschenwurde und ihrer einmaligen individuellen Subjektqualitat 17 gesehen werden Sie werden dann zu blossen Objekten beziehungsweise Mitteln wenn sie in einer Weise behandelt werden der sie nicht zustimmen konnen Vor allem bei algorithmischer Datenanalyse des Data Minings der Big Data Analytik oder bei Vorgangen des maschinellen Lernens werden nur Korrelationen und keine Kausalzusammenhange erzeugt Die Entscheidenden konnen so den Betroffenen die Entscheidung nicht hinreichend erlautern wenn z B eine betroffene Person aussortiert wird Eine Zustimmung oder Ablehnung einer solchen Behandlung wird durch diese Prozesse unmoglich Zudem besteht das Risiko einer psychologischen Distanzierung durch algorithmenbasierte Entscheidungsverfahren wenn die verantwortliche Person durch das Verfahren eine Distanz zu den Betroffenen und der Entscheidung aufbaut Ein Beispiel hierfur sind autonome Waffensysteme Gefahrdung der freien Entfaltung der Personlichkeit und des Rechts auf Selbstdarstellung Bearbeiten Algorithmenbasierte Anwendungen beruhren zudem das Recht auf die freie Entfaltung der Personlichkeit nach Art 2 Abs 1 Grundgesetz wenn Bewertende sich ein Bild von Personen machen und den Betroffenen somit eine fremd konstruierte Identitat also Fremdbilder zuordnen 18 19 Durch algorithmenbasierte Anwendung wird den Betroffenen ausserdem das Recht auf Selbstdarstellung das sich aus dem Recht auf die freie Entfaltung der Personlichkeit herleitet genommen Das Recht auf freie Entfaltung der Personlichkeit und Selbstdarstellung lasst sich in zwei Weisen aufteilen Die aussere Entfaltung beschreibt die Moglichkeit sich als Individuum vor anderen darzustellen und zu erreichen dass diese Anderen sich ein gunstiges Bild machen So wahrt das Individuum seinen Entscheidungs und Handlungsspielraum da dieser von der Kooperationsbereitschaft anderer abhangt Wenn das Individuum keinen Einfluss darauf hat welche Informationen und Daten in das Fremdbild eingeschlossen werden kann die Antizipation von Fremdbildern prohibitiv wirken Der zweite Teil ist die innere Entfaltung In den schon beschriebenen Interaktionsprozessen konstituiert sich Identitat und Personlichkeit Dabei ist aber auch wichtig dass das Individuum in diesen Vorgangen die eigene Personlichkeit als frei gewahlt begreifen kann 20 In Bezug auf algorithmenbasierte Anwendung kann es zu Einschrankungen der Personlichkeitsentfaltung kommen Durch umfassende datenbasierte Personlichkeitsprofile wird dem Individuum die Moglichkeit der eigenen Rolleninterpretation und Identitatsbildung in sozialen Kontexten genommen Aber auch der Gebrauch von Ersatzinformationen fuhrt zu stereotypen Personlichkeitskonstruktionen und beeintrachtigt damit das Recht auf die freie Entfaltung der Personlichkeit Erzeugung von struktureller Uberlegenheit Bearbeiten Risiken der strukturellen Uberlegenheit mit Folge von Monopolbildung entstehen wenn bestimmte Unternehmen Zugang zu grossen Datenmengen haben und somit bevorzugte Moglichkeiten des Data Minings und der Auswertung von Big Data haben Algorithmische Analysemethoden konnen Personlichkeitsmerkmale Charaktereigenschaften und emotionale Zustande automatisiert identifizieren und konnen so ermitteln ob eine Person auf ein Produkt oder eine Dienstleistung angewiesen ist So wird die strukturelle Uberlegenheit der Anbietenden weiter erhoht Vor allem bei Onlineplattformen kann es dann zu Netzwerkeffekten kommen Netzwerkeffekte fuhren dazu dass Nutzende einen hohen Wechselaufwand haben und dadurch Wahl und Ausweichmoglichkeiten verringert werden Damit wird die strukturelle Uberlegenheit der Anbietenden weiter erhoht Regulierung und Recht BearbeitenRechtliche Situation Bearbeiten Auf der rechtlichen Ebene werden Diskriminierungsrisiken die durch Algorithmen entstehen einerseits im Anti Diskriminierungsrecht und anderseits im Datenschutzrecht reguliert Das Anti Diskriminierungsrecht ermoglicht rechtliche Schritte gegen Diskriminierungen Das beinhaltet auch Diskriminierungen durch Differenzierungsentscheidungen die aufgrund von algorithmenbasierter Anwendung getroffen wurden Das Anti Diskriminierungsrecht sieht nach 22 AGG eine Beweiserleichterung fur Betroffene vor indem der beschuldigten Partei die Beweislast zukommt Allerdings ist diese Beweiserleichterung nach Ebert 21 an drei Voraussetzungen geknupft 1 Nachweis uber Andersbehandlung 2 Nachweis dass es sich um ein geschutztes Merkmal nach 1 AGG handelt 3 Erbringen von Indizien dass die Diskriminierung mit grosser Wahrscheinlichkeit auf dem angefuhrten geschutzten Merkmal basiert In Bezug auf algorithmenbasierte Differenzierungen sind diese Voraussetzungen problematisch da es schwierig oder in manchen Fallen unmoglich ist eine Benachteiligung durch Algorithmen nachzuweisen Die dynamische Komponente des maschinellen Lernens erschwert den Nachweis dabei zusatzlich Es wird so schwieriger sich gegen Diskriminierung zu wehren Weiterfuhrend fordern vor allem Verbraucherverbande die Moglichkeit der Verbandsklage als ein Rechtsmittel das es ermoglicht sich kollektiv gegen Diskriminierung zu wehren 22 23 Auch bei einer Sammelklage muss jedoch eine Schadigung umstandlich bewiesen werden Das Datenschutzrecht enthalt sowohl verschiedene Informationspflichten von datenverarbeitenden Stellen gegenuber den Betroffenen Art 12 13 und 14 DSGVO als auch Auskunftsrechte die die Betroffenen gegenuber den Betreibenden geltend machen konnen Art 15 DSGVO Durch die Informationspflichten konnen Betroffene von der Datenverarbeitung erfahren und ihre Rechte somit effektiv wahrnehmen Allerdings lassen sich Diskriminierungsrisiken durch die datenschutzrechtlichen Informationspflichten nicht einfach erkennen Ausserdem behandelt Art 22 der DSGVO automatisierte Entscheidungen Der Artikel enthalt das Recht der betroffenen Person nicht einer ausschliesslich auf einer automatisierten Verarbeitung einschliesslich Profiling beruhenden Entscheidung unterworfen zu werden die ihr gegenuber rechtliche Wirkung entfaltet oder sie in ahnlicher Weise erheblich beeintrachtigt Art 22 Absatz 1 DSGVO Absatz 2 umfasst drei Ausnahmen dieser Regelung 1 fur den Abschluss oder die Erfullung eines Vertrags zwischen der betroffenen Person und dem Verantwortlichen erforderlich ist 2 aufgrund von Rechtsvorschriften der Union oder der Mitgliedstaaten denen der Verantwortliche unterliegt zulassig ist und diese Rechtsvorschriften angemessene Massnahmen zur Wahrung der Rechte und Freiheiten sowie der berechtigten Interessen der betroffenen Person enthalten oder 3 mit ausdrucklicher Einwilligung der betroffenen Person erfolgt 24 Die Ausnahmen werden aber als problematisch gesehen da der Umfang der Ausnahmen nicht klar geregelt ist Ebenso sind die Voraussetzungen wann der Artikel greift und die Konsequenzen insbesondere Informationspflichten uber die involvierte Logik und uber Auswirkungen der automatisierten Entscheidungen einschliesslich Diskriminierungsrisiken noch nicht ausreichend klar 25 Entwurfe zur weiteren Regulierung Bearbeiten Neben den rechtlichen Massnahmen gehoren zu vorgeschlagenen Regulierungsinstrumenten Verbote bestimmter Anwendungen Audits oder Selbstregulierungsansatze Eine Massnahme sind Algorithmen Audits also Untersuchungen die Diskriminierungsrisiken bei maschinellen Lernverfahren und algorithmenbasierten Entscheidungen erkennen sollen Das Audit kann sich dabei sowohl auf den Programmcode als auch auf den Datensatz und die Beschaffung von Datensatzen beziehen Eine weitere Regulierungsstrategie ist die Selbstregulierung Diese Selbstregulierung beruht meist auf ausgearbeiteten Standards die dann durch eine Zertifizierungsstelle uberpruft werden Die Regulierungsinstrumente und Vorschlage gehen dabei Hand in Hand mit gesellschaftlichen Debatten uber Diskriminierung Un Gleichheit und die sich anschliessenden Themenkomplexen Konkrete Regulierungsvorschlage und Massnahmen werden auf europaischer Ebene diskutiert Im Weissbuch Zur Kunstlichen Intelligenz ein europaisches Konzept fur Exzellenz und Vertrauen vom 19 Februar 2020 beschreibt die Europaische Kommission die Notwendigkeit einer europaischen Governance Struktur 26 Es sieht vor algorithmenbasierte Anwendungen je nach involvierten Risiken zu regulieren Fur Anwendungen mit hohem Risiko fordert die EU Kommission dann Regulierungsmassnahmen fur Trainingsdaten die Aufbewahrung von Daten und Aufzeichnungen Bereitstellung von Informationen technische Robustheit und Genauigkeit und das Einbeziehen von menschlicher Aufsicht 27 Auch im Gesetzesentwurf vom April 2021 schlagt die Kommission einen risikobasierten Ansatz vor Anwendungen der kunstlichen Intelligenz mit hohem Risiko fur Grundrechte und die Gesundheit und Sicherheit sollen starker reguliert werden als solche mit niedrigem Risiko 28 Einzelnachweise Bearbeiten Yildirim Wei Dellarocas Van den Bulte 2016 Credit Scoring with Social Network Data In Marketing Science 35 Jg H 2 S 234 258 Barocas amp Selbst 2016 Big Data s Disparate Impact S 677ff Borgesius Zuiderveen 2018 Discrimination artificial intelligence and algorithmic decision making S 11 Chang Bolukbasi Zou Kai Wei Kalai Saligrama 2016 Man is to Computer Programmer as Woman is to Homemaker Debiasing Word Embeddings In Advances in Neural Information Processing Systems S 4349 4357 Orwat 2019 Diskriminierungsrisiken durch Verwendung von Algorithmen S 70 online Barocas amp Selbst 2016 Big Data s Disparate Impact S 689 Lehr amp Ohm 2017 Playing with the Data What Legal Scholars Should Learn About Machine Learning S 666 ff Orwat 2019 Diskriminierungsrisiken durch Verwendung von Algorithmen S 85ff Britz 2008 Einzelfallgerechtigkeit versus Generalisierung Verfassungsrechtliche Grenzen statistischer Diskriminierung Orwat 2019 Diskriminierungsrisiken durch Verwendung von Algorithmen S 50 Mareike Winkler Sonja Kohne Miriam Klopper Not all algorithms Lessons from the Private Sector on Mitigating Gender Discrimination Gesellschaft fur Informatik Bonn 2022 ISBN 978 3 88579 720 3 gi de abgerufen am 23 Oktober 2023 Gandy Jr 2010 Engaging rational discrimination exploring reasons for placing regulatory constraints on decision support systems in Ethics and Information Technology 12 Jg H 1 S 1 14 Tolan Songul 2018 Fair and Unbiased Algorithmic Decision Making Current State and Future Challenges Seville European Commission S 17 Britz 2008 Einzelfallgerechtigkeit versus Generalisierung Verfassungsrechtliche Grenzen statistischer Diskriminierung S 126f Orwat 2019 Diskriminierungsrisiken durch Verwendung von Algorithmen S 45 Orwat 2019 Diskriminierungsrisiken durch Verwendung von Algorithmen S 62f Orwat 2019 Diskriminierungsrisiken durch Verwendung von Algorithmen S 91 Britz 2008 Einzelfallgerechtigkeit versus Generalisierung Verfassungsrechtliche Grenzen statistischer Diskriminierung S 179 Frohlich Spiecker genannt Dohmann 2018 Konnen Algorithmen diskriminieren in Verfassungsblog VerfBlog Onlineartikel vom 26 Dezember 2018 letzter Zugriff am 27 August 2019 Britz 2008 Einzelfallgerechtigkeit versus Generalisierung Verfassungsrechtliche Grenzen statistischer Diskriminierung S 190f Ebert 2019 Allgemeines Gleichbehandlungsgesetz AGG in Reiner Schulze Hrsg Burgerliches Gesetzbuch Handkommentar 10 Aufl 22 AGG Rn 1 und 2 Berghahn u a 2016 Evaluation des Allgemeinen Gleichbehandlungsgesetzes 141 ff Straker amp Niehoff 2018 ABIDA Fokusgruppe Diskriminierung durch Algorithmen und KI im eRecruiting In ZD Aktuell H 06252 159 162 Art 22 Abs 2 DSGVO Orwat 2019 Diskriminierungsrisiken durch Verwendung von Algorithmen S 114 123 Europaische Kommission 2020 Weissbuch zur Kunstlichen Intelligenz ein europaisches Konzept fur Exzellenz und Vertrauen S 29 Europaische Kommission 2020 Weissbuch zur Kunstlichen Intelligenz ein europaisches Konzept fur Exzellenz und Vertrauen S 26 EUR Lex 2021 106 EN EUR Lex Abgerufen von https de wikipedia org w index php title Diskriminierungsrisiken bei maschinellem Lernen amp oldid 238432148