Sobald es um das Thema künstliche Intelligenz (KI) geht, kommen rasch die ganz großen Fragen aufs Tapet: Werden die Computerprogramme ein Bewusstsein entwickeln, den Menschen in den Schatten stellen, die Welt beherrschen? Tony Prescott, Professor für kognitive Robotik an der Universität Sheffield, fallen beim Stichwort KI viel näherliegende Probleme ein. Sie betreffen weniger die Maschinen als uns Menschen, die mit ihnen in Verbindung treten.
1 Vermenschlichung
Wir Menschen können nicht anders: Wir schreiben allem, was da kreucht und fleucht, Absichten, Gedanken, Gefühle zu – Tieren, Pflanzen, Gegenständen, ja selbst gezeichneten Dreiecken und Kreisen, wie Fritz Heider und Marianne Simmel 1944 in einem berühmten Experiment dokumentiert haben. Wir treten in Beziehung mit den Dingen, behandeln sie fast wie Menschen. „Dem alten Auto sprechen wir gut zu, damit es unterwegs nicht stehenbleibt, und dem Staubsaugerroboter geben wir einen Namen“, so der KI-Forscher Aljoscha Burchardt und die Psychiaterin Xenia Kersting jüngst in der Zeit. „Freundlich schreiben wir ‚bitte‘ und ‚danke‘, wenn wir Anfragen an den KI-Chatbot eingeben.“
Wir vermenschlichen („anthropomorphisieren“) also die Programme. Welche Konsequenzen die KI-Entwicklung daraus ziehen sollte, wird allerdings kontrovers diskutiert. Die einen plädieren dafür, etwa Chatbots oder niedliche companion robots bewusst „menschlich“ anzulegen, weil dies dem Bedürfnis der Menschen entspreche und ihnen den intuitiven Umgang erleichtere. Die anderen hingegen wollen Maschinen jede Menschenähnlichkeit nehmen, da diese sie zu täuschenden Pseudobeziehungen einlade. Womöglich, so überspitzt die Philosophin Eva Weber-Guskar in ihrem Buch Gefühle der Zukunft diese Sorge, würden wir dann „in einer Notsituation eher das runtergefallene Smartphone als die Schildkröte des Nachbarn oder gar das Kind retten“.
2 Vorurteile
Anders als manche annehmen könnten, arbeiten KI-Systeme mitnichten neutral und objektiv, sondern sie treffen oft verzerrte und vorurteilsbeladene Entscheidungen. Bei einem Tool, das zum Vorsortieren von Bewerbungen bei einer Stellenausschreibung entwickelt wurde, stellte sich zum Beispiel heraus, dass es bei hochdotierten Jobs bevorzugt Männer statt Frauen in die engere Wahl zog. „Diese Verzerrung wurzelt nicht im Lernalgorithmus der Maschinen“, stellt Tony Prescott klar, „vielmehr resultiert sie aus den Trainingsdaten, die in vielen Fällen automatisch gesammelt werden, indem das System das Internet durchforstet.“ Und dort lernt es dann eben, dass gutbezahlte Stellen eher Männersache sind. Nicht von ungefähr stuft der 2024 verabschiedete AI Act der Europäischen Union das Sortieren von Bewerbungen als Risikoanwendung ein, für die strenge Kontrollen vorgeschrieben werden.
Selbstlernende Maschinen spiegeln die Vorurteile der Menschen, mit deren Erzeugnissen sie gefüttert werden. „Das heißt, dass sie voreingenommen sind und Stereotype reproduzieren“, erläutert der Psychologe Siegmar Otto von der Universität Hohenheim. Dass die Werte und Einstellungen der Menschen, die eine KI trainieren, sich in deren Entscheidungen niederschlagen können, haben Otto und seine Kollegin Sarah Zabel jüngst in einem Experiment demonstriert. Die 750 Teilnehmenden hatten die Aufgabe, E-Mails als Spam oder Nichtspam zu kategorisieren. Mit diesen Daten wurde dann ein KI-gestützter Spamfilter gefüttert. Aber was soll als Spam gelten? Sollten etwa Spendenaufrufe herausgefiltert oder durchgelassen werden? Wie sich herausstellte, beeinflusste die Einstellung der jeweiligen Person, wie großzügig die von ihr trainierte KI mit derartigen Mails umging.
3 Fiktionen
Wer Chatbots wie ChatGPT nutzt, macht die Erfahrung, dass ihnen bisweilen haarsträubende Fehler unterlaufen, zum Beispiel bei Matheaufgaben oder auch bei Wissensfragen. Das System gibt dann eine fiktive, scheinbar zusammenfantasierte Antwort. (Burchardt und Kersting appellieren, hier nicht von „Halluzinationen“ zu sprechen, denn auch dies sei eine Vermenschlichung.) Derlei seltsame und falsche Antworten, so Prescott, seien auf das sogenannte „große Sprachmodell“ zurückzuführen, auf dem diese Systeme basieren. Das Prinzip besteht darin, dass sie aus dem riesigen Textkonvolut, das sie im Internet vorfinden, jeweils die Wörter ermitteln, die beim Fortschreiben ihres eigenen Textes am besten passen. Von außerhalb dieser selbstlernenden Blackbox lässt sich dann nicht ohne weiteres ermitteln, an welcher Stelle da etwas schieflief.
Ein Lösungsansatz, so Prescott: Man trainiert eine zweite KI, die den Output der ersten überwacht und ihr Feedback gibt. Oder man bringt der KI selbst bei, ihren Lösungsweg zu erläutern. Dabei stößt man aber offenbar auf ein ähnliches Problem wie – Vorsicht, Anthropomorphisierung! – beim menschlichen Denken: Der Weg zum Aha-Erlebnis entzieht sich auch für Maschinen oft der Introspektion.
4 Blödheit
Ein Problem bei KI-Anwendungen wie etwa selbstfahrenden Autos ist, dass es ihnen schwerzufallen scheint, mit „unerwarteten Situationen“ jenseits des Trainingsmaterials umzugehen – etwa wenn vor ihnen ein Laster heißen Asphalt auf die Fahrbahn kippt. Ein solches System sei eben beschränkt auf das, was Bestandteil seines Trainings war, schreibt Prescott. „Es weiß nichts, buchstäblich nichts über alles, was darüber hinausgeht.“
Der Philosoph Nick Bostrom hat die Folgen dieser „maschinellen Blödheit“ (artificial stupidity) in seinem Buch Superintelligenz an einem apokalytischen Beispiel durchdekliniert: Eine KI hat die simple Aufgabe, so viele Büroklammern wie möglich herzustellen, und besitzt Zugriff auf die benötigten Rohstoffe. Davon macht sie rege Gebrauch, und da man ihr beibrachte, sich dabei nicht beirren zu lassen, widersetzt sie sich allen Versuchen, sie bei ihrem Treiben zu stoppen. Nach und nach verwandelt sie also den Planeten Erde in Büroklammern und setzt diese Mission schließlich – die büroklammernutzenden Menschen sind längst dahingeschieden – im ganzen Sonnensystem und darüber hinaus fort.
Bostroms Vision mag weit hergeholt sein, gesteht Tony Prescott, nicht aber das Grundproblem. Will man KI ihr Fachidiotentum austreiben, müsste man sie zu einer AGI, einer artificial general intelligence ausbauen, vergleichbar der Allgemeinintelligenz des Menschen. Dazu bräuchte sie aber wohl eine Art mentales Modell von sich selbst und anderen. Und damit wären wir dann doch wieder bei den großen Fragen.
Quellen
Tony Prescott: The psychology of AI. Routledge 2024
Fritz Heider, Marianne Simmel: An experimental study of apparent behavior. The American Journal of Psychology, 57, 1944, 243–259
Aljoscha Burchardt, Xenia Kersting: Kuschelt nicht mit der KI! Die Zeit, Nr. 35, 15.08.2024
Eva Weber-Guskar: Gefühle der Zukunft. Wie wir mit emotionaler KI unser Leben verändern. Ullstein 2024
Wohlwollende KI: Umweltmotivierte Menschen üben positiven Einfluss auf KI aus. Informationsdienst Wissenschaft, 26.08.2024
Nick Bostrom: Superintelligenz. Szenarien einer kommenden Revolution. Suhrkamp 2016