Dirk Helbing ist Physiker und Soziologe – eine ungewöhnliche Kombination. Früher forschte er zu Verkehrsströmen und Massenpaniken, heute interessiert ihn die digitale Transformation der Gesellschaft. Seit 2007 lehrt Helbing an der ETH Zürich als Professor für Computational Social Science (computergestützte Sozialwissenschaft) und ist unter anderem Mitglied der Deutschen Akademie der Wissenschaften Leopoldina. Er forscht vor allem zu digitaler Demokratie, einem sozioökologischen Finanzsystem und neuen Informations- und Kommunikationstechnologien, mit denen sich die komplexen Zusammenhänge der Welt verstehen und steuern lassen. Helbing warnte bereits 2015 vor ungesteuerter Digitalisierung. Im Podcast "Ethik Digital" spricht er mit Christine Ulrich über digitale Risiken aus politischer und ethischer Perspektive.

Herr Helbing, was reizt Sie an dieser Verbindung von Technik und Gesellschaftswissenschaft – wozu nützt dieser integrative Blick?

Dirk Helbing: Mein Interesse für die Welt, in der wir leben, begann mit der Physik – was die Welt zusammenhält, das Universum und die Elementarteilchenphysik. Als es an die Spezialisierung ging, merkte ich aber, dass doch die sozialen Fragen die wichtigeren sind und dass wir hier viel weniger verstehen, obwohl uns das alles viel mehr angeht. Ich wollte das aus einer naturwissenschaftlichen Perspektive studieren und fing an, Fußgängerströme mathematisch zu modellieren und zu simulieren. Das war mit den damaligen Computern noch schwierig. Seitdem haben mich solche Themen nicht mehr losgelassen.

Später ging es zum Thema Verkehrsströme und an die TU Dresden, dann an die ETH Zürich. Ich brachte mit anderen ,FuturICT‘ auf den Weg – ein Flagship-Projekt, um die Gesellschaft besser zu verstehen und die globalen Probleme anzupacken, die schon damals erkennbar waren. Big Data war am Aufkommen, später künstliche Intelligenz. All diese Dinge begriffen wir damals als neue Chancen, um Einsichten zu gewinnen, wie die Gesellschaft funktioniert. Gleichzeitig zeichneten sich ethische Fragen ab.

Sie sind bekannt als Mahner und publizieren viel: 2015 warnten Sie vor einer "Diktatur der Daten", 2019 vor "technologischem Totalitarismus". 2021 erschien Ihr Buch "Next Civilization" über die digitalen Gefahren für Demokratie und Menschheit. Welche Sorge vor ungesteuertem Fortschritt treibt Sie an?

Mein Werdegang erlaubt mir, einen systemischen Blick auf die Digitalisierung und die Gesellschaft zu werfen – ich bringe natur-, ingenieurs- und sozialwissenschaftliche Perspektiven zusammen. Da werden die ethischen Herausforderungen sichtbar. Wir leben nicht mehr in einer Welt, wo man Natur, Gesellschaft und Technologie trennen kann, sondern in soziotechnischen Systemen. Die Technik greift in die sozialen Fragen und Systeme ein und umgekehrt.

Das hat fundamentale Implikationen für die Ergebnisse, die ein solches System erzielt, aber auch, wie man diese Systeme politisch managen muss. Nur entwickelt sich die Technologie leider so schnell, dass Öffentlichkeit und Politik oft mit Jahren Verspätung erkennen, was da auf uns zukommt, und dass die gesetzliche Regulierung in vielen Fällen zu spät kommt. Dann sind längst neue Businessmodelle entstanden, mit denen man Milliarden machen kann, die aber unter Umständen nicht demokratiekompatibel sind oder schwerwiegende Fragen im Zusammenhang mit dem Rechtsstaat aufwerfen.

Wir lassen uns von der Technologie treiben. Wie kommt das?

Es ist wichtig zu erkennen, wie diese technologiegetriebene Gesellschaft zustande kommt. Es beginnt mit militärischen Entwicklungen, vor allem in den USA, wo es ein großes Militärbudget gibt. Alle Technologien werden daher erst einmal daraufhin abgeklopft, ob sie militärisch nutzbar sind für Angriffs- oder Verteidigungszwecke, und auf Sicherheitsrisiken hin. Dann werden einige dieser Technologien, die Jahre vorher vom Militär entwickelt wurden, aufgeschlossen für die wirtschaftliche und gesellschaftliche Nutzung. Was wir sehen, ist das Ergebnis eines langen Prozesses.

Die militärische Perspektive kriegt man nur noch zum Teil weg. Es ist keine zivile Technologieentwicklung, wie wir uns das in Europa vorstellen. Und das hat schwerwiegende Konsequenzen dafür, wie diese Systeme funktionieren, und für die Frage, ob das gut ausgehen kann.

Das Militär hat eine hierarchische Sichtweise. Es geht um die Überwachung der Geschehnisse in der Welt. Seit Edward Snowdens Berichten ist aber noch viel mehr passiert. Es geht nicht nur darum zu wissen, was wo wie genau geschieht, sondern auch darum, es kontrollieren zu können: Es geht um Macht.

Diese Konzepte sind mit zivilen Gesellschaften und Demokratie nur zum Teil kompatibel, sie sind eher kriegerisch. Es fragt sich: Was sind die Implikationen, wenn die Technologie so weit entwickelt ist, dass sie Informationen aus unserem Körper und über unser Denken sammeln und in diese Prozesse eingreifen kann und möchte?

Die meisten von uns haben das Gefühl, die Digitalisierung nützt uns erstmal. Ein Zukunftskonzept ist die "Society 5.0" – die fünfte Gesellschaftsform nach Jäger-, Agrar-, Industrie- und Informationsgesellschaft, in der wir alle smart und vernetzt leben und die Technologien ideal zu nutzen wissen. Der Begriff stammt von einem japanischen Regierungskonzept. Ist das eine Utopie oder eine Dystopie?

Letzten Endes geht es um die Nutzung des ,Internets der Dinge‘. Das bedeutet, dass in unsere Umwelt Billionen von Messsensoren verteilt werden, die immer kleiner und energiesparender werden und ans Internet angeschlossen werden. Diese liefern Information mit dem Zweck, alles steuerbar zu machen. In vielen Fällen geht es um Automatisierung, um eine ,kybernetische Gesellschaft‘.

Die Frage ist: Wie weit können wir diese Gesellschaft mitgestalten? Oder sind wir nur noch Objekte? Leben wir in einer Art "digitalem Zoo", wo wir rund um die Uhr beobachtet werden, und in einer Welt und nach Regeln leben, die von anderen gemacht werden?

Heute wissen wir noch in vielen Fällen, wie diese Regeln aussehen. Aber nicht, wenn ,Code is Law‘ gilt, also Algorithmen immer mehr bestimmen, was möglich ist und was nicht, und welche Auswahl wir haben. Das wird deutlich, wenn wir im Internet nach Informationen suchen oder einen Urlaub buchen möchten. All das ist personalisiert mit unseren Daten. Wir bekommen unterschiedliche Welten gezeigt, und unterschiedliche Angebote zu unterschiedlichen Preisen gezeigt. Je nachdem, welchen Score (Punktestand) wir haben, bekommen wir bestimmte Produkte und Services angezeigt oder nicht und müssen mehr oder weniger dafür bezahlen.

Der Trend geht in die Richtung, dass wir personalisierte Rechte und Pflichten bekommen. Das heißt, dass das Grundgesetz irgendwann nicht mehr für alle gilt – sondern dass wir je nachdem, ob wir den nicht transparenten Regeln entsprechen oder nicht, mehr oder weniger Rechte bekommen. Durch ,Legal Tech‘ und ,Predictive Policing‘ wird das immer steuerbarer.

"Predictive Policing" bedeutet: Aufgrund von Falldaten wird die Wahrscheinlichkeit künftiger Straftaten berechnet, damit Polizeieinsätze gezielter gesteuert werden können. "Legal Tech" nennt man die Automatisierung von juristischen Tätigkeiten, um deren Effizienz zu erhöhen. Klingt unheimlich ...

Hier möchte man, aus Sicht von Digitalunternehmen, die Kompliziertheit der Demokratie ersetzen durch digitale Algorithmen. Das betrifft nicht weniger als die Säulen der Demokratie: Parlamente, Rechtsstaat und zum Teil auch die Medien. Hier steht ein Totalumbau der Gesellschaft an. Die Vorstellung mancher Tech-Visionäre ist, dass am Ende alles datengetrieben und durch Algorithmen kontrolliert ist. Die KI passt auf, dass wir uns nur im Rahmen von vorgegebenen Bahnen bewegen.

Die "Society 5.0" ist also, zuende gedacht, eine Dystopie: Die Vernetzung hilft uns nichts, wenn dafür die Demokratie und unsere menschliche Autonomie vor die Hunde gehen. Wo genau verlaufen die roten Linien? Wo hilft uns ein Algorithmus, und wo wird es gefährlich?

Es fing gut an mit dem Internet. Es hat uns vernetzt und uns ermöglicht, unsere Gedanken weltweit auszutauschen. Aber inzwischen ist es vergiftet von Hate Speech und Fake News. Das liegt an einer Fehlkonstruktion der Plattformen. Aber die Unternehmen argumentieren: Je mehr Leute mitreden, desto weniger funktioniert es – was aus ihrer Sicht beweist, dass man den Leuten die Entscheidung nicht in die Hand geben darf.

Manche denken, es wäre einfacher, wenn die Algorithmen, die wissen, was wir wollen, entscheiden, was passiert, ohne dass wir zur Wahlurne gehen und uns aktiv an den Entscheidungen beteiligen müssen. Doch dann wird es möglich, digital herauszufinden, wie weit man mit Zumutungen gehen und den Willen der Leute missachten kann, ohne dass eine Revolution ausbricht. All das basiert auf Überwachungsdaten.

Die Überwachung zerstört das Recht auf Privatsphäre. Mit den anfallenden Daten passieren mehrere Dinge: einerseits Scoring, dass wir also bewertet werden, und andererseits ein Targeting, dass wir also ins Visier der Algorithmen rücken. Im besten Fall bekommen wir personalisierte Produkte und Services, die auf unsere Wünsche zugeschnitten sind. Aber mit all diesen Daten werden wir auch angreifbar. Wenn wir öffentlich Kritik äußern und diese nicht erwünscht ist, kann man uns gezielt unter Druck setzen.

Weitere rote Linien ziehen die Menschenrechte: Freiheitsrechte wie Entscheidungs- oder Meinungsäußerungsrechte sind tangiert. Und die Menschenwürde: Wenn wir behandelt werden, als wären wir ein Datensatz, werden wir vom Subjekt zum Objekt gemacht. So ist die Verletzung der Menschenwürde quasi vorprogrammiert. Doch wenn man damit anfängt, sie zu missachten, geht das früher oder später schief.

Das sieht man am Anfang vielleicht nicht: In kleinen Schritten testet man aus, wie weit man gehen kann, denn all die Einschränkungen der Menschenrechte lassen sich kommerzialisieren. Da lassen sich Milliarden verdienen, auf dem Rücken der Gesellschaft und der Menschen, die zu Bergwerken für ,Data Mining‘ werden.

Unsere Persönlichkeit, unsere Kreativität, unser Handeln, unser Körper wird zu diesem Daten-Bergwerk. Wir sind die Ressource, die ausgebeutet wird.

Und das Ganze erreicht ein neues Level mit den konvergenten Technologien, die auch für die Gesellschaft 5.0 eine Rolle spielen: Wenn etwa Nano-, Neuro-, kognitive und Gentechnologien zusammenkommen und digital steuerbar werden, wird es möglich, Prozesse aus dem Körper auszulesen und Daten zu gewinnen über unseren Gesundheitszustand, ohne dass wir zum Arzt gehen. Das sind raffinierte fortschrittliche Technologien, die sich wie Science Fiction anhören.

Konvergierende Technologien sind solche, die miteinander verzahnt sind. Geben Sie uns ein Beispiel? Schlucken wir künftig Pillen mit Minisensoren?

Die Sensoren werden immer kleiner, bis zum Nano-Maßstab. Nanopartikel sind Teilchen, die viel kleiner als der Durchmesser eines Haars sind und zum Teil mit bloßem Auge nicht mehr sichtbar. Diese Kleinstteilchen nehmen wir zum Teil durch Essen, Trinken, Luft, und Medikamente in uns auf.

In der Tat hat man Medikamente entwickelt, die aus dem Inneren des Körpers Daten senden können, um über den Gesundheitszustand mehr zu erfahren. So lässt sich auch überprüfen, ob die Leute tatsächlich ihre Medizin genommen haben. Im Prinzip braucht es für solche Anwendungen aber keine Tabletten. Dann nämlich, wenn wir Nanopartikel im Lebensalltag in uns aufnehmen. Manche davon eignen sich dazu, von außen ausgelesen zu werden. Sie haben weder Computerprozessoren noch eine Batterie, sondern die Energie kommt von außen.

Hinter solchen Anwendungen steckt ein physikalisches Prinzip: die Streuung. Wenn ein Energiestrahl über einen Körper streicht, streuen die Teilchen Energie zurück. Die Art, wie das geschieht, gibt Aufschlüsse über Strukturen und Prozesse im Körper. Das ist – rein technisch gesehen – genial. Es hat ungeahnte Möglichkeiten für die Präzisions- oder personalisierte Medizin, die viel mehr Daten braucht, als man in klassischen Patientenstudien gewinnen könnte.

Aber die Aufklärung über diese Technologien, die Anwendungsreife, die informierte Einwilligung in ihre Nutzung, all das liegt im Argen. Da ist die Politik mit der Regulierung im Verzug. Weil diese Dinge Risikopotenzial für uns haben, aber im Prinzip schon eingesetzt werden könnten. Die Rede ist vom "Internet of Bodies".

 

Podcast Ethik Digital: Dirk Helbing über Society 5.0, Algorithmen und Menschenrechte

Digitale Ethik und Menschenrechte

Inwiefern ist durch die Verschmelzung der Überwachungstechnik mit dem menschlichen Körper eine neue ethische Qualität in die Diskussion gekommen?

Es gibt keinen Schutz der Privat- und der Intimsphäre mehr, wenn nicht sichergestellt ist, dass wir selbst die Daten kontrollieren. Ich plädiere für digitale Datenpostfächer, die unserer Kontrolle unterliegen, so dass wir entscheiden können, wie sie genutzt werden. Sicherlich wollen wir gesundheitsrelevante Anwendungen haben, wenn wir mit ihnen länger und gesünder leben können – wer möchte schon darauf verzichten? Aber wir wollen die Kontrolle, und sie steht uns auch zu. Doch das ist im Moment nicht gewährleistet.

Solange kein Regulierungsrahmen vorliegt, können die Technologien missbraucht werden – auch, weil öffentlich wenig darüber bekannt ist.

Dabei weist die Literatur eindeutig den Sachstand aus: In den letzten Tagen sind bei mir fast zwanzig Bücher zu dem Thema reingekommen. Aus Sicht von Öffentlichkeit und Politik ist das Science-Fiction, aber aus Sicht von Technologie und Wissenschaft keineswegs.

Die Frage ist: Wann bestimmt das unseren Alltag? Wer bestimmt, wie unsere Gesellschaft funktioniert? Wir müssen in der Lage sein zu entscheiden, wie die Daten genutzt werden und wie die Algorithmen funktionieren. Es braucht partizipative Prozesse. Wir können das keinem allein überlassen, dazu sind die Daten zu heikel. Irgendwann könnte man vielleicht alles ausmessen, was in unserem Körper passiert, inklusive Gehirn: Wem würden Sie diese Daten in die Hand geben? Dem Militär? Dem Geheimdienst? Einem Pharma- oder Technologie-Unternehmen? Einer Krankenkasse? Dem Staat? Ich vermute, die meisten Leute würden sagen: keiner von diesen Institutionen.

Es fehlt daher an sozialen Innovationen und Governance-Frameworks, um sicherzustellen, dass sich das neue Zeitalter in unserem Sinne entwickelt. Wir müssen Einfluss auf unsere Zukunft nehmen und die Gesellschaft mitgestalten können. Da muss sich einiges ändern, gerade das partizipative Element – Transparenz, Mitbestimmung, Mitgestaltung.

Im Moment sind Demokratie, Rechtsstaat und Menschenrechte unter Druck, das spüren wir alle. Es gibt aber noch keine Lösung, weil wir nicht einmal begonnen haben, über die zentralen Fragen zu diskutieren, weil es zu wenig Wissen über den Stand der Technologie gibt. Wir müssen anfangen, miteinander zu reden, nachzudenken, unsere Interessen zu artikulieren und einzufordern, was uns zusteht: informationelle Selbstbestimmung, Mitbestimmung, Kontrolle über unsere Daten und Opt-Out-Gelegenheiten. Dazu brauchen wir technologische Möglichkeiten, die uns empowern.

Was kann der einzelne Bürger tun? Fühlt er sich nicht überfordert – allein damit, ein DSGVO-Fenster wegzuklicken? Sind Sie optimistisch, dass wir schnell genug sind, um die Nutzung der Technologien ethisch und rechtlich einzufangen?

Wir sollten auf keinen Fall den Kopf in den Sand stecken, sondern uns engagieren für die Zukunft, in der wir leben wollen. Wir haben keine andere Wahl, sonst geht es schief. Es geht hier um alles, weil alle gesellschaftlichen Institutionen betroffen sind. Es ist ein Kampf um die Macht, die man mit diesen Daten ausüben kann.

Daran sind einige Leute interessiert, und sie werden die Technologien einsetzen, um die Welt nach ihrem Geschmack zu gestalten. Wir müssen einen Weg finden, der in unser aller Interesse ist. Die Politik hat schon wichtige Dinge auf den Weg gebracht: Die Datenschutzgrundverordnung (DSGVO) wird sicher weiter verbessert.

Außerdem haben wir den AI-Act (der erste Gesetzentwurf zu künstlicher Intelligenz in der EU), der bald um die Ecke biegt und früher oder später Gesetz wird. Wichtig ist, dass wir viel besser informiert werden. Wir leben in einer Aufmerksamkeitsökonomie: Was mehr Lärm produziert, das bestimmt augenscheinlich, was passiert. Doch viele Entwicklungen gehen relativ still vonstatten, und wenn wir sie bemerken, ist vieles schon Fakt. Wir müssen daher mehr auf die leisen Dinge achten, um früher zu erkennen, was sich anbahnt, und um früher mit der Regulierung anzusetzen.

Zukunftstechnologien und Digitale Ethik

Sie glauben, dass in den Laboren längst Sachen am Start sind, von denen wir keine Ahnung haben? Wird dort an neuen Datenkraken gearbeitet?

Ich arbeite in einer Expertengruppe zu solchen Technologien, die in den Laboren schon kochen. Wir befassen uns mit der Frage, was in 5, 10 und 25 Jahren an Technologien verfügbar sein wird, damit die Politik rechtzeitig anfängt, Gesetze zu machen. Wenn man berücksichtigt, dass beispielsweise das US-Militär einige Jahre voraus ist, dann darf man annehmen, dass einiges von dem, was wir für Zukunftstechnologien halten, auch schon verfügbar ist.

Es wird allerhöchste Zeit, dass wir multilaterale Regulierungsrahmen finden, wo also Politik, Wirtschaft und Bürgervertreter*innen an dieser Governance der Technologien beteiligt sein werden.

Sollte jeder Bürger auch im Alltag über Grenzen nachdenken: Wo nützt mir die Datengetriebenheit, und wo fühle ich mich entmündigt? Was wird mit mir gemacht, welche Daten gebe ich wem preis?

Man hat alle Möglichkeiten, wenn es um politische Systeme geht: Man kann einen digitalen Kommunismus bauen, einen digitalen Faschismus, aber eben auch eine digitale Demokratie. Für Letzteres werbe ich.

Die Themen Demokratie, Ethik und Menschenrechte haben im Zusammenhang mit Digitalisierung in westlichen Demokratien lange Zeit wenig Aufmerksamkeit erfahren. Das hat sich inzwischen geändert, und es gibt viele wissenschaftliche Entwicklungen in Richtung ,value-sensitive Design‘ oder ,wertebasiertes Engineering‘. Aber es gibt noch viel zu tun.

Es hat sich die Erkenntnis durchgesetzt, dass wir auf die Demokratie nicht verzichten wollen. Wir sprechen wieder mehr darüber. Das ist auch bei Wissenschaftler*innen und Ingenieur*innen angekommen. Aber die überwachungsorientierten Anwendungen, die man als ,technologischen Totalitarismus‘ zusammenfassen kann, sind leider momentan viel weiter entwickelt. Wir hoffen auf eine Digitalisierung 2.0, die auf neuen Ansätzen beruht, welche stärker dezentral und partizipativ sind und die Privatsphäre berücksichtigen, wo Daten wieder weggeworfen werden, wo wir von der Kontrolle zur Koordination übergehen und von der Optimierung zur Evolution.

Dieser Ansatz wäre mit der Demokratie vereinbar und auch mit anderen wichtigen Dingen wie Resilienz, also Krisenfestigkeit, mit Nachhaltigkeit, Freiheit, und Innovation.

Nur Freiheiten erlauben es uns, kreativ und innovativ zu sein und bessere Lösungen zu finden, auch für die ökologischen Herausforderungen. Ich plädiere für eine Digitalisierung mit Synergieeffekten, wo wir alle profitieren vom gemeinsamen Engagement. Ich glaube, ich hoffe, wir werden das schaffen.

Zur englischen Version des Gesprächstexts (übersetzt von Dirk Helbing): https://www.researchgate.net/publication/369088659  

Dossier Ethik Digital

Podcast Ethik Digital

Der Podcast #EthikDigital von Rieke C. Harmsen und Christine Ulrich kann über diese Kanälen abonniert werden:

Fragen und Anregungen mailen Sie bitte an: rharmsen@epv.de

 

Youtube-Playliste mit allen Videos von #EthikDigital

https://www.youtube.com/playlist?list=PLb68o3_9IKtDgE9eWxDI5RU5aHRZbw85F

Podcast Ethik Digital

Die Digitalisierung unserer Gesellschaft schreitet voran. Wie können wir uns orientieren und eine eigene Haltung finden? In unserem Podcast "Ethik Digital" sprechen wir mit Expert*innen - und suchen nach Antworten für unser menschliches Handeln.

Alle Folgen auf einen Blick gibt es hier.

Dirk Helbing im Ted-Talk: Who is Messing with Your Digital Twin? Body, Mind, and Soul for Sale?

Kommentare

Diskutiere jetzt mit und verfasse einen Kommentar.

Teile Deine Meinung mit anderen Mitgliedern aus der Sonntagsblatt-Community.

Anmelden