Die KI ist auch nur ein Mensch

Psychologie nach Zahlen: Künstliche Intelligenz oder lieber künstliche Blödheit? Hier sind vier Herausforderungen in unserem Leben mit KI

Die Illustration zeigt einen großen technischen Kopf, der die Zunge herausstreckt, davor steht eine Frau und spricht mit dem Kopf
Die KI spuckt zusammengefasst aus, was sie aus dem Internet eingetrichtert bekommt. Reflexionsfähigkeit fehlt. © Till Hafenbrak für Psychologie Heute

Sobald es um das Thema künstliche Intelligenz (KI) geht, kommen rasch die ganz großen Fragen aufs Tapet: Werden die Computerprogramme ein Bewusstsein entwickeln, den Menschen in den Schatten stellen, die Welt beherrschen? Tony Prescott, Professor für kognitive Robotik an der Universität Sheffield, fallen beim Stichwort KI viel näherliegende Probleme ein. Sie betreffen weniger die Maschinen als uns Menschen, die mit ihnen in Verbindung treten.

1 Vermenschlichung

Wir Menschen können nicht anders: Wir schreiben allem, was da kreucht und fleucht, Absichten, Gedanken, Gefühle zu – Tieren, Pflanzen, Gegenständen, ja selbst gezeichneten Dreiecken und Kreisen, wie Fritz Heider und Marianne Simmel 1944 in einem berühmten Experiment dokumentiert haben. Wir treten in Beziehung mit den Dingen, behandeln sie fast wie Menschen. „Dem alten Auto sprechen wir gut zu, damit es unterwegs nicht stehenbleibt, und dem Staubsaugerroboter geben wir einen Namen“, so der KI-Forscher Aljoscha Burchardt und die Psychiaterin Xenia Kersting jüngst in der Zeit. „Freundlich schreiben wir ‚bitte‘ und ‚danke‘, wenn wir Anfragen an den KI-Chatbot eingeben.“

Wir vermenschlichen („anthropomorphisieren“) also die Programme. Welche Konsequenzen die KI-Entwicklung daraus ziehen sollte, wird allerdings kontrovers diskutiert. Die einen plädieren dafür, etwa Chatbots oder niedliche companion robots bewusst „menschlich“ anzulegen, weil dies dem Bedürfnis der Menschen entspreche und ihnen den intuitiven Umgang erleichtere. Die anderen hingegen wollen Maschinen jede Menschenähnlichkeit nehmen, da diese sie zu täuschenden Pseudobeziehungen einlade. Womöglich, so überspitzt die Philosophin Eva Weber-Guskar in ihrem Buch Gefühle der Zukunft diese Sorge, würden wir dann „in einer Notsituation eher das runtergefallene Smartphone als die Schildkröte des Nachbarn oder gar das Kind retten“.

2 Vorurteile

Anders als manche annehmen könnten, arbeiten KI-Systeme mitnichten neutral und objektiv, sondern sie treffen oft verzerrte und vorurteilsbeladene Entscheidungen. Bei einem Tool, das zum Vorsortieren von Bewerbungen bei einer Stellenausschreibung entwickelt wurde, stellte sich zum Beispiel heraus, dass es bei hochdotierten Jobs bevorzugt Männer statt Frauen in die engere Wahl zog. „Diese Verzerrung wurzelt nicht im Lernalgorithmus der Maschinen“, stellt Tony Prescott klar, „vielmehr resultiert sie aus den Trainingsdaten, die in vielen Fällen automatisch gesammelt werden, indem das System das Internet durchforstet.“ Und dort lernt es dann eben, dass gutbezahlte Stellen eher Männersache sind. Nicht von ungefähr stuft der 2024 verabschiedete AI Act der Europäischen Union das Sortieren von Bewerbungen als Risikoanwendung ein, für die strenge Kontrollen vorgeschrieben werden.

Selbstlernende Maschinen spiegeln die Vorurteile der Menschen, mit deren Erzeugnissen sie gefüttert werden. „Das heißt, dass sie voreingenommen sind und Stereotype reproduzieren“, erläutert der Psychologe Siegmar Otto von der Universität Hohenheim. Dass die Werte und Einstellungen der Menschen, die eine KI trainieren, sich in deren Entscheidungen niederschlagen können, haben Otto und seine Kollegin Sarah Zabel jüngst in einem Experiment demonstriert. Die 750 Teilnehmenden hatten die Aufgabe, E-Mails als Spam oder Nichtspam zu kategorisieren. Mit diesen Daten wurde dann ein KI-gestützter Spamfilter gefüttert. Aber was soll als Spam gelten? Sollten etwa Spendenaufrufe herausgefiltert oder durchgelassen werden? Wie sich herausstellte, beeinflusste die Einstellung der jeweiligen Person, wie großzügig die von ihr trainierte KI mit derartigen Mails umging.

3 Fiktionen

Wer Chatbots wie ChatGPT nutzt, macht die Erfahrung, dass ihnen bisweilen haarsträubende Fehler unterlaufen, zum Beispiel bei Matheaufgaben oder auch bei Wissensfragen. Das System gibt dann eine fiktive, scheinbar zusammenfantasierte Antwort. (Burchardt und Kersting appellieren, hier nicht von „Halluzinationen“ zu sprechen, denn auch dies sei eine Vermenschlichung.) Derlei seltsame und falsche Antworten, so Prescott, seien auf das sogenannte „große Sprachmodell“ zurückzuführen, auf dem diese Systeme basieren. Das Prinzip besteht darin, dass sie aus dem riesigen Textkonvolut, das sie im Internet vorfinden, jeweils die Wörter ermitteln, die beim Fortschreiben ihres eigenen Textes am besten passen. Von außerhalb dieser selbstlernenden Blackbox lässt sich dann nicht ohne weiteres ermitteln, an welcher Stelle da etwas schieflief.

Ein Lösungsansatz, so Prescott: Man trainiert eine zweite KI, die den Output der ersten überwacht und ihr Feedback gibt. Oder man bringt der KI selbst bei, ihren Lösungsweg zu erläutern. Dabei stößt man aber offenbar auf ein ähnliches Problem wie – Vorsicht, Anthropomorphisierung! – beim menschlichen Denken: Der Weg zum Aha-Erlebnis entzieht sich auch für Maschinen oft der Introspektion.

4 Blödheit

Ein Problem bei KI-Anwendungen wie etwa selbstfahrenden Autos ist, dass es ihnen schwerzufallen scheint, mit „unerwarteten Situationen“ jenseits des Trainingsmaterials umzugehen – etwa wenn vor ihnen ein Laster heißen Asphalt auf die Fahrbahn kippt. Ein solches System sei eben beschränkt auf das, was Bestandteil seines Trainings war, schreibt Prescott. „Es weiß nichts, buchstäblich nichts über alles, was darüber hinausgeht.“

Der Philosoph Nick Bostrom hat die Folgen dieser „maschinellen Blödheit“ (artificial stupidity) in seinem Buch Superintelligenz an einem apokalytischen Beispiel durchdekliniert: Eine KI hat die simple Aufgabe, so viele Büroklammern wie möglich herzustellen, und besitzt Zugriff auf die benötigten Rohstoffe. Davon macht sie rege Gebrauch, und da man ihr beibrachte, sich dabei nicht beirren zu lassen, widersetzt sie sich allen Versuchen, sie bei ihrem Treiben zu stoppen. Nach und nach verwandelt sie also den Planeten Erde in Büroklammern und setzt diese Mission schließlich – die büroklammernutzenden Menschen sind längst dahingeschieden – im ganzen Sonnensystem und darüber hinaus fort.

Bostroms Vision mag weit hergeholt sein, gesteht Tony Prescott, nicht aber das Grundproblem. Will man KI ihr Fachidiotentum austreiben, müsste man sie zu einer AGI, einer artificial general intelligence ausbauen, vergleichbar der Allgemeinintelligenz des Menschen. Dazu bräuchte sie aber wohl eine Art mentales Modell von sich selbst und anderen. Und damit wären wir dann doch wieder bei den großen Fragen.

Quellen

Tony Prescott: The psychology of AI. Routledge 2024

Fritz Heider, Marianne Simmel: An experimental study of apparent behavior. The American Journal of Psychology, 57, 1944, 243–259

Aljoscha Burchardt, Xenia Kersting: Kuschelt nicht mit der KI! Die Zeit, Nr. 35, 15.08.2024

Eva Weber-Guskar: Gefühle der Zukunft. Wie wir mit emotionaler KI unser Leben verändern. Ullstein 2024

Wohlwollende KI: Umweltmotivierte Menschen üben positiven Einfluss auf KI aus. Informationsdienst Wissenschaft, 26.08.2024

Nick Bostrom: Superintelligenz. Szenarien einer kommenden Revolution. Suhrkamp 2016

Artikel zum Thema
Sex und Liebe mit der KI: Warum entwickeln wir Gefühle für einen Chatbot? Ab wann wir uns vor der eigenen Verliebtheit zur Maschine schützen sollten
Künstliche Intelligenz kann sich weniger denn je mit menschlichem Denken messen.
Verstehen wir die Urteile und Entscheidungen, die Menschen treffen, besser als die von Algorithmen? Offensichtlich nicht, zeigt eine Studie.
Dieser Artikel befindet sich in der Ausgabe: Psychologie Heute 2/2025: Stürmische Zeiten - stabiles Ich
Anzeige
Psychologie Heute Compact 79: Das Leben aufräumen