Professor Gabriel, jeder Taschenrechner ist dem menschlichen Gehirn überlegen, oder?
Nein, nicht wirklich, das ist nur eine Illusion. Wir verwenden Taschenrechner, Smartphones, Suchmaschinen und Computersimulationen, um unser eigenes Wissen zu erweitern. Die Geräte selbst nehmen dabei nicht daran Anteil, was wir mit ihnen tun. Ein Schachprogramm spielt in Wahrheit kein Schach, sondern wir spielen sozusagen mit uns selbst. Ein Taschenrechner etwa berechnet ja nichts von selbst, sondern nur, indem wir ihn verwenden. Und dann geht in ihm nichts bewusst vor. Er ist innerlich so intelligent wie ein Stück Brot.
Sie wenden sich in Ihrem Buch gegen die landläufige Vorstellung, nach der Denken als Vorgang der Informationsverarbeitung verstanden wird. Was ist Denken denn dann?
Denken ist eine Sinnesmodalität, so ähnlich wie das Hören, Fühlen, Sehen, Tasten und unser Gleichgewichtssinn. Mittels des Denkens stellen wir uns vor, wie die Wirklichkeit beschaffen ist. Ich denke beispielsweise gerade darüber nach, wie ich Ihre Frage beantworten soll. Damit erfasse ich Gedanken, die mir einfallen. Gleichzeitig erfasse ich andere Vorgänge in der Wirklichkeit mit meinen anderen Sinnesmodalitäten. Unsere Sinnesorgane sind keine Computer, die mit Codes arbeiten, sondern Elemente unseres Organismus, der zu uns als geistigen Lebewesen gehört. Unser Denken folgt keinem Algorithmus und keinen allgemeinen Regeln der Datenverarbeitung. Allenfalls untersteht es der Logik, die sagt, wie man denken soll, wenn man aus wahren Gedanken neue wahre Gedanken ableiten möchte. Doch wir denken dabei nicht dauernd logisch, sondern begehen Denkfehler. Kurzum: Unser Denken ist ein fehleranfälliger Sinn wie unser Sehen.
„Nur weil Menschen sich selbst für intelligent halten, glauben sie, sie seien in der Lage, gefährlich intelligente Maschinen zu bauen“, behauptet der Computer Golem in einem Roman von Stanislaw Lem. Hat Golem recht?
Ja, das ist völlig richtig. Wir sind allerdings nicht wirklich imstande, gefährlich intelligente Maschinen zu bauen. Die Gefahren der Digitalisierung entstammen unserem Gebrauch der Maschinen und nicht deren Intelligenz. Denn sie haben keine.
Was halten Sie von der These, dass die Maschinen selbst irgendwann immer virtuosere Roboter bauen werden und künstliche Intelligenz schließlich die Weltherrschaft übernehmen wird?
Das ist reine Science-Fiction. Man darf nicht vergessen, dass es Skynet und den Terminator aus dem gleichnamigen Film nicht wirklich gibt. Sie sind Produkte unserer Einbildungskraft. Die Technologie, die wir als „künstliche Intelligenz“ bezeichnen, ist zwar durchaus gefährlich, aber vor allem dadurch, dass wir glauben, sie sei gefährlich. Denn hinter jeder KI stecken ökonomische und Machtinteressen, die wir nicht durchschauen. Wir brauchen also eine neue Form der Aufklärung, die mit der Einsicht beginnt, dass wir Menschen Tiere sind, die keine sein wollen und deswegen auf ihre Geräte magische Fähigkeiten projizieren. Im Grunde genommen ist die Idee, dass die Roboter bald übernehmen, eine kalifornische Ersatzreligion, die man sehr kritisch sehen sollte.
Markus Gabriel ist Professor für Erkenntnistheorie und Philosophie der Neuzeit und Gegenwart an der Universität Bonn, Direktor des interdisziplinären Center for Science and Thought und regelmäßiger Gastprofessor an der Sorbonne.