Bei der Arbeitssuche, bei der Kreditvergabe oder in der Medizin – immer mehr Menschen sehen sich Entscheidungen ausgesetzt, die mit Hilfe intelligenter Systeme getroffen werden. Im Übersichtsartikel „The future of artificial intelligence at work: A review on effects of decision automation and augmentation on workers targeted by algorithms and third-party observers” veröffentlicht in der Fachzeitschrift Computers in Human Behavior beschäftigen sich die Autoren Markus Langer, Teilprojektleiter des EIS Projektes, und Richard Landers von der University of Minnesota mit der Frage: Wie reagieren Menschen auf (teil-)automatisierte Entscheidungen, die mit der Hilfe intelligenter Systeme entstehen. Die Forscher fassen in ihrem Artikel die Ergebnisse von fast 60 Studien zu diesem Thema zusammen. Die Ergebnisse geben einen Überblick über die zentralen Themen des Forschungsgebietes: es geht um die Vertrauenswürdigkeit automatisierter Entscheidungen, um die Fairness und Gerechtigkeit solcher Entscheidungen aber auch um Themen wie Verantwortlichkeit, Autonomie und Privatsphäre. Die Forscher fanden heraus, dass es für Entscheidungsempfänger scheinbar einen großen Unterschied macht, ob weiterhin ein Mensch am Entscheidungsprozess beteiligt ist oder ob eine Entscheidung vollautomatisiert getroffen wird. Im Falle von vollautomatisierten Entscheidungen gibt es die Tendenz zu negativeren Reaktionen der Entscheidungsempfänger:innen. Jedoch scheint es auch eine große Varianz der Reaktionen abhängig vom Einsatzgebiet automatisierter Entscheidungen zu geben – während beispielsweise automatisierte Entscheidungen für Schichtplanung oder zur Analyse von Röntgenbildern akzeptierter scheinen, ist der Einsatz in Personalauswahlentscheidungen oder bei der Entscheidung über Therapien in der Medizin weniger akzeptiert. Die Wichtigkeit der Entscheidung scheint hierbei einen grundlegenden Unterschied zu machen aber auch, ob Menschen denken, dass eine Aufgabe von Systemen sinnvoll bearbeitbar ist (z.B. traut man Systemen eine gute Qualität bei der Analyse von Röntgenbildern zu, aber eben keine individualisierte Therapieempfehlung).
Auch das EIS-Kernthema Erklärungen und Transparenz von automatisierten Entscheidungen ergab sich innerhalb der Analyse der vorangegangenen Forschung als ein wichtiger Einflussfaktor für Entscheidungsempfänger:innen. Allerdings zeigte sich hierbei ein eher uneindeutiges Bild. Manche Studien fanden, dass Erklärungen die Akzeptanz automatisierter Entscheidungen verbessern, manche dass Erklärungen Reaktionen auf automatisierte Entscheidungen verschlechtern können. Für Kenner:innen der EIS-Idee mag das keine große Überraschung sein, denn der Einfluss von Erklärungen zu den Funktionen oder Outputs von Systemen hängt von vielen Faktoren ab: vom Vorwissen der Erklärungsempfänger:in, vom Kontext, in dem das System eingesetzt wird, vom Timing der Erklärung und natürlich vom Inhalt und Darstellung der Erklärung. Das beschriebene Übersichtspaper bietet weitere Anregung dafür, menschzentrierte, empirische Evaluation von Erklärbarkeitsansätzen bei intelligenten Systemen mehr in den Fokus der Forschung zu richten.