Der angehende evangelische Pfarrer Yannick Schlote hat an der Ludwig-Maximilians-Universität München eine Doktorarbeit über die Künstliche Intelligenz (KI) aus theologisch-ethischer Perspektive geschrieben. Dabei hat er Mythen, die sich um sie ranken, zu entlarven versucht. Er wollte wissen, wie weit Künstliche Intelligenz heute schon ist.
Ich habe Ihre 300-seitige Doktorarbeit durchgelesen und habe mir Fragen für Sie aufgeschrieben. Danach habe ich Künstliche Intelligenz die Doktorarbeit lesen lassen und sie gebeten, gut verständliche und frische Fragen zu formulieren. Ich habe einen Tag gebraucht, die KI 20 Sekunden. Die Fragen waren sehr unterschiedlich. Ist das jetzt ein gutes oder ein schlechtes Zeichen?
Yannick Schlote: Die KI liefert schnell Ergebnisse, aber sie hat ja nicht wirklich die Arbeit gelesen. Da ist kein verständiges Bewusstsein da, das tatsächlich Sinn in Worten entdeckt. Diese Programme erkennen bestimmte Wörter wie künstliche Intelligenz oder das Wort "gut", schauen manchmal Millionen von Dokumenten durch, suchen nach ähnlichen Wortpaaren und setzen der Häufigkeit nach Antworten zusammen, die sie dem Nutzer dann ausgeben. Deswegen haben wir als menschliche Leser oft das Gefühl, ja, das ist schon nicht ganz falsch, was mir da Chat-GPT ausspuckt, aber es ist doch sehr allgemein gehalten.
Ich habe die KI gebeten, die Doktorarbeit noch einmal langsamer und sorgfältiger zu lesen, um dann bessere Fragen zu stellen. Ich habe mit ihr gesprochen wie mit einem Menschen. Warum eigentlich?
Schlote: Natürlich ist es trügerisch. Manchmal verwenden Chatbots auch Worte wie "ich": Ich stelle dir da was zusammen. Das kann ich gerne für dich übernehmen. Hinter diesem Ich steht aber niemand.
Aber ich habe ja den Eindruck, die KI hat die Doktorarbeit gelesen und verstanden. Es sind sinnvolle Fragen dabei herausgekommen, auch wenn ich sie langweilig fand.
Schlote: Ja, das stimmt, aber gelesen hat niemand diese Arbeit. Die sogenannte Mensch-Maschine-Interaktion ist für uns so aufbereitet, dass es so wirkt, als würde da jemand anderes am anderen Ende des Computers sitzen und mit uns sprechen. Es gibt eine neue Studie, für die 300 zufällig ausgewählte Nutzer von Chat-GPT gefragt wurden, ob sie dem Programm so etwas wie ein Bewusstsein zuschreiben würden. Je mehr die Menschen mit dem Programm umgegangen sind und damit gearbeitet haben, desto mehr haben sie tatsächlich dem Programm Geist oder ein Bewusstsein zugeschrieben.
Und das ist gar keine neue Entwicklung. Joseph Weizenbaum, Computerwissenschaftler aus Massachusetts, hat Ende der 1960er Jahre Eliza erfunden, den ersten Chatbot der Welt. Ein ganz einfaches Programm, das dem Menschen, der am Computer eine Frage eingetippt hat, diese Frage modelliert und in ein bisschen anderen Worten zurückgeworfen hat. Joseph Weizenbaum hatte das eigentlich als eine Art Witz erfunden, weil es ihm darum ging, wie Kommunikation funktioniert. Er war aber erstaunt und auch ein bisschen erschrocken, wie schnell seine Kollegen wirklich einen anderen Menschen hinter diesem Chatbot Eliza vermuteten.
Gibt es Seiten der Künstlichen Intelligenz, die vielleicht sogar gefährlich sind?
Schlote: Es wird gern das Bild vermittelt, KI sei wie vom Himmel gefallen, so etwas wie ein reiner Intellekt. Dabei ist natürlich klar, dass wirtschaftliche Interessen dahinterstehen.
Diejenigen, die heute gute Assistenzsysteme anbieten können, sind meistens die Gewinner der Dotcom-Ära: Facebook, Google und so weiter, die zu großen Monopolisten werden und unsere Daten sammeln konnten, um diese KI zu füttern. Wenn wir diese Dienste nutzen, müssen wir immer im Ausgleich dafür etwas geben: Wir bezahlen ein Abo oder geben Informationen ein.
Sie schreiben in Ihrer Doktorarbeit, dass der Algorithmus, also die Grundlage der KI, so etwas ist wie Aspirin. Was haben Sie damit gemeint?
Schlote: Ja, Aspirin ist seit Jahrzehnten bekannt, und durch Aspirin wurden viele Menschen gerettet. Gleichzeitig ist es erstaunlich, dass es nach der Erfindung fast 100 Jahre gebraucht hat, bis man die Wirkungsweise von Aspirin tatsächlich nachweisen konnte. Im Bereich der KI gibt es den Bereich der Schwarzen Box. Wir sehen gar nicht, was für Millionen von Daten miteinander in Beziehung gesetzt werden, und am Ende steht ein Ergebnis, das wir bisher nicht wirklich überprüfen können. Was machen wir denn mit Antworten auf wirklich komplexe Fragen, die wir nicht checken können? Wir müssen aufpassen, dass wir in keine Abhängigkeit und Hörigkeit von Systemen kommen, die uns nicht wirklich erklären können, wie sie zu ihren Ergebnissen kommen.
Also ist die KI eigentlich nicht intelligent, sondern was?
Schlote: Viele Informatiker und KI-Forscher versuchen, das Wort "Intelligenz" ein bisschen zur Seite zu drängen. "Smart" setzt sich gerade durch. Damit tragen wir dem mehr Rechnung, wie leistungsfähig diese Programme tatsächlich sind.
Oft herrscht auch Angst, dass Künstliche Intelligenz oder künstliche Smartness die Herrschaft übernehmen könnten. Woher kommt diese Angst?
Schlote: Ich würde sagen, das sind Mythen, die sich um die KI ranken. Irgendwie schwingt immer mit, dass sich da etwas Weltentscheidendes vollzieht: von der Versklavung der Menschheit bis zu ihrem Aufstieg zu unsterblichen Cyborgs und Maschinen-Menschen. Es ist spannend, dass das an technische Mythen anknüpft, die es schon ganz früh gibt.
Diese Idee zum Beispiel, dass die Maschine sich über ihren Schöpfer erhebt und ihn versklavt, taucht ja zum ersten Mal bei Frankensteins Monster auf, das am Ende sagt, du bist mein Schöpfer, aber ich bin dein Meister. Fakt ist, sämtliche Forschungen mit KI bieten keinerlei Grundlage dafür, dass sich so etwas wie ein künstliches Bewusstsein entwickelt.
Sie sind Pfarrer in der Ausbildung. Bei welchen Aspekten Ihrer Doktorarbeit haben sich die Vergleiche zur christlichen Religion aufgedrängt?
Schlote: Bindung von KI und Religion geschieht auf ganz verschiedenen Wegen. Mir ist aufgefallen, dass diejenigen, die apokalyptische Erzählungen von KI verbreiten, selbst oft religiöses Vokabular verwenden. Sie sprechen dann von dem Versprechen eines ewigen Lebens, das uns die KI schenken wird. Oder ihr werden göttliche Attribute zugeschrieben - allwissend, allgegenwärtig. Elon Musk hat zur Forschung von KI gesagt, wir beschwören einen Dämon. Das religiöse Vokabular ist so anziehend für diese Menschen, weil das in dieser Absolutheit eine unglaubliche Aufmerksamkeit erzeugt.
Gibt es Lösungen, wie wir mit der KI in Zukunft richtig umgehen? Werden wir noch mehr Technik aufwenden, um sicher vor falschen Entscheidungen der KI zu sein, oder können wir was per Gesetz regulieren?
Schlote: Sicher ist Regulierung das eine. Die EU hat im April ein großes Gesetzespaket zum Thema KI und KI-Entwicklung auf den Weg gebracht unter dem Titel "Vertrauenswürdige KI". Es geht darum, dass Menschen gerade nicht manipuliert oder durchleuchtet werden, sondern sie tatsächlich in ihrer Privatsphäre geschützt sind. Es braucht Daten-Kuratorinnen und -Kuratoren, die ganz genau hinschauen, welche Daten wir diesen KI-Systemen zur Verfügung stellen? Denn diese Systeme sind eben nicht allwissend, sondern sind auf unsere Daten angewiesen. Wenn man tendenziöse Daten in ein System eingibt, kann es zu Diskriminierung jeder Art kommen, die oft gar nicht so leicht aufgedeckt werden kann.
Wem gewähren wir Macht, diese KIs zu bauen? Ist das eigentlich gut, dass wir uns von wenigen Monopolisten fertige Produkte vorsetzen lassen? Was wäre zum Beispiel, wenn Google pleitegehen würde? Dieser Schatz an Daten, mit dem man eine Vielzahl machen könnte, der aber da unter dem Deckel gehalten wird - gehört der nicht eigentlich der Öffentlichkeit?
Kommentare
Diskutiere jetzt mit und verfasse einen Kommentar.
Teile Deine Meinung mit anderen Mitgliedern aus der Sonntagsblatt-Community.
Anmelden