Wir glauben, dass wir die Beweggründe von Menschen besser verstehen als die von Algorithmen. Dass dies nicht der Fall ist, zeigt eine Studie dreier Forscher. Ihr Ergebnis: Wir verstehen die Entscheidungen anderer Personen genauso wenig wie Urteile, die Algorithmen gefällt haben.
Die Erklärung: Wir projizieren das, was wir von unseren eigenen Entscheidungen zu verstehen glauben, auf andere Personen und weniger auf Algorithmen. Und wir erliegen der illusion of explanatory depth, wir überschätzen unser Wissen darüber, wie Dinge allgemein funktionieren, etwa Technik, Politik oder die Natur.
Wie kommt das Urteil zustande?
Die Forscher legten mehreren hundert Teilnehmenden Entscheidungen vor, jeweils entweder von einer Person oder einem Algorithmus getroffen: Wie waren beide zu einer Einschätzung gelangt, etwa der Rückfallgefahr eines Angeklagten, zur Beurteilung einer Bewerberin oder zur medizinischen Diagnose nach einem MRT-Bild? Darüber hinaus gaben die Probandinnen und Probanden an, wie sie selbst zu diesen Urteilen kommen würden.