In einem Beitrag auf dem ML2R-Blog widmet sich Astrid Schomäcker den mathematischen und ethischen Herausforderungen fairer künstlicher Intelligenz (KI). Wenn KI zum Einsatz kommt, um wichtige Entscheidungen zu treffen, benachteiligen diese Entscheidungen leider oft bestimmte Personengruppen. Zum Beispiel musste Amazon 2018 ein System zur Vorauswahl von Bewerber:innen aus dem Verkehr ziehen, weil dieses System systematisch Bewerbungen von Frauen aussortierte. Doch um KI-Systeme in dieser Hinsicht zu verbessern, muss man sich zuerst mit einer zentralen Frage auseinandersetzen: Wann genau sind die Entscheidungen einer KI tatsächlich fair?