Ein bekanntes Beispiel aus der Praxis: Amazon entwickelte ein KI-Recruiting-Tool, das Bewerberinnen systematisch abwertete. Das System lernte aus 10 Jahren männerdominierter Bewerbungsdaten und strafte weibliche Codewörter wie 'Frauen-Schachclub' ab. Amazon musste das Tool 2018 einstellen.