Gastinterview Philosophie und Technik „Die menschliche Verantwortung kann keine Maschine abnehmen“

Redakteur: Franz Graser

KI, Gentechnik, Cyborgs: Wie weit darf die technische Entwicklung gehen? Der Münchner Philosophieprofessor Julian Nida-Rümelin betrachtet im Interview das Spannungsfeld zwischen Technik, Ethik, Recht und Ökonomie.

Firmen zum Thema

Wanderer zwischen den Geisteswelten: Professor Julian Nida-Rümelin lehrt Philosophie an der Ludwig-Maximilians-Universität in München. Er studierte nicht nur Philosophie, sondern auch Mathematik, Physik und Politik und beschäftigt sich unter anderem mit dem Spannungsverhältnis zwischen Technik und Ethik.
Wanderer zwischen den Geisteswelten: Professor Julian Nida-Rümelin lehrt Philosophie an der Ludwig-Maximilians-Universität in München. Er studierte nicht nur Philosophie, sondern auch Mathematik, Physik und Politik und beschäftigt sich unter anderem mit dem Spannungsverhältnis zwischen Technik und Ethik.
(Bild: Copyright: (c) Bernd Euring 2010)

Herr Professor Nida-Rümelin, was halten Sie für die größten technischen Errungenschaften der letzten Jahrzehnte?

Diese Frage richtet sich eher an Technikhistoriker und nicht an die Philosophie. Aber es ist klar, dass das Maschinenzeitalter im 19. Jahrhundert ohne die Dampfmaschine und besonders die Nutzung fossiler Energieträger als Treiber der Wirtschaftsentwicklung nicht möglich gewesen wäre. Damit wurde auch ein sehr starker Produktivitätszuwachs ausgelöst. Und die zweitgrößte technologische Innovation ist sicher die Digitalisierung.

Welcher Aspekt der Digitalisierung ist für Sie am interessantesten?

Ein Aspekt der Digitalisierung ist, dass wir sehr viel effizienter miteinander kommunizieren können. Das ist durch das Internet noch mal auf eine neue Basis gestellt worden. Aber die Digitalisierung ist natürlich mit der Computertechnologie verbunden und war schon vor dem Internet ein wesentlicher Treiber der Kommunikationsprozesse.

Jetzt zeichnet sich eine weitere Entwicklung ab, von der noch nicht klar ist, wie weit sie geht. Manche sagen, die Arbeitskräfte werden zur Hälfte eingespart. Da bin ich skeptisch. In der Gesamtrechnung wird das so nicht kommen. Da bin ich ziemlich sicher. Wir haben auch erstaunlicherweise gerade in den letzten Jahren ein relativ mäßige Produktivitätssteigerung gehabt – trotz der Digitalisierung. Und das ist auch ein interessantes Phänomen. Aber viel deutet darauf hin, dass die industriellen Fertigungspraktiken durch die Digitalisierung nun noch mal grundlegend verändert werden.

Ergänzendes zum Thema
Zur Person: Julian Nida-Rümelin

Julian Nida-Rümelin (geboren 1954) gehört neben Jürgen Habermas und Peter Sloterdijk zu den renommiertesten Philosophen in Deutschland. Er lehrt Philosophie und politische Theorie an der Universität München. Julian Nida-Rümelin ist Autor zahlreicher Bücher und Artikel sowie gefragter Kommentator zu ethisch, politischen und zeitgenössischen Themen. Sein Buch Die Optimierungsfalle. Philosophie einer humanen Ökonomie löste intensive Diskussionen in Unternehmen über die Rolle der Ethik in der ökonomischen Praxis aus.

2013 stieß der Philosoph die Debatte zum Akademisierungswahn mit einem Interview in der Frankfurter Allgemeinen Sonntagszeitung an. Professor Nida-Rümelin war darüber hinaus von 2001 bis 2002 Bundesbeauftragter für Kultur und Medien im Kabinett von Bundeskanzler Gerhard Schröder.

Wenn man jetzt nach vorne blickt: Wo liegen die Chancen in den kommenden 50 Jahren und was sehen Sie eher kritisch?

Kritisch beurteile ich vor allem solche Voraussagen. Alle diese Voraussagen haben sich in der Vergangenheit als falsch herausgestellt. Deswegen sollte man nicht anfangen, dieselben Fehler wieder zu machen. Noch vor wenigen Jahren hieß es, wir werden demnächst nicht mehr ins Büro gehen müssen, sondern an dem Ort, an dem wir gerade sind mit dem Laptop arbeiten.

Das hat sich nicht bewahrheitet. Manche Geographen meinten, dass die Stadt ihre Funktion einbüßt, weil es nicht mehr nötig sei, Entfernungen zu überwinden. Das ist ja der große Vorteil der Stadt, dass dort die Entfernungen sehr kurz sind. Auch das hat sich als ganz falsch herausgestellt. Die Verstädterung nimmt massiv zu – weltweit.

Wir hatten die These vom papierlosen Büro. Ganz falsch, denn so viel Papier wie heute wurde noch nie bedruckt. Wir hatten die These vom Ende des Buches. Ganz falsch, denn das Buch ist in einer guten Verfassung. Ich werde auf jeden Fall nicht den selben Fehler machen und jetzt 50 Jahre im Voraus Prognosen formulieren.

Ich glaube, wir sollten uns auf eine Phase massiver Veränderungen der Arbeitswelt einrichten. Ich glaube nicht, dass das am besten erfolgt, indem wir die Berufe durchgängig akademisieren. Ich glaube, dass die digitale Kompetenz in den allgemeinbildenden Schulen eine zentrale Rolle spielen sollte – anders als heute, damit wir gewappnet und vorbereitet sind und hinreichend flexibel für die neuen Herausforderungen, von denen wir heute nicht sagen können wie sie sich genau darstellen werden.

Gibt es Entwicklungen, vor denen Sie Angst haben?

Ich bin da relativ optimistisch – vorausgesetzt, die politische Gestaltungskraft bleibt erhalten. Das heißt wir brauchen auch gesetzliche Normen, die diese Digitalisierungsprozesse einrahmen. Da ist vieles in den vergangen Jahrzehnten versäumt worden. Wir haben Internetgiganten, die de facto die Infrastruktur der internationalen Kommunikation steuern. Google ist nur ein Beispiel , aber das vielleicht auffälligste.

Da ist gerade das nicht erfolgt, was bei der deutschen Industrieentwicklung ganz zentral war – deutsche Industrienormen wurden damals in Deutschland im aufstrebenden Industriegiganten in der Mitte Europas etabliert, sehr zum Vorteil dieser Entwicklung. Das ist hier versäumt worden. Wir haben bis heute keine angemessene Steuerung der Daten sammelnden Konzerne. Die Gefahr ist, dass die informationelle Selbstbestimmung, von der das Bundesverfassungsgericht nun als einer zusätzlichen Rechtsnorm seit Jahren ausgeht, dabei unter die Räder kommt.

Da hat die Politik bislang keine sehr gute Bilanz vorzuweisen, aber ich bin relativ optimistisch, dass sich das ändert. Denn auch die Euphorie, die mit jeder neuen Technik einhergeht, dass sich nämlich alles von selber regle und das Internet so anarchisch wie möglich bleiben solle, das hat sich als falsch herausgestellt.

Und auch die User sehen das so, dass Normen und Regeln eine ganz große Rolle spielen. Denken Sie an ein so großes Projekt wie Wikipedia. Ohne eine Verständigung auf Normen und Regeln wäre es überhaupt nicht denkbar. Das ist ein relativ zuverlässiges Informationsmedium und das gilt auch für andere Plattformen und Social Media.

Immanuel Kant (1724 – 1804): Sein Werk „Zum ewigen Frieden“ beschäftigte sich mit der Idee eines internationalen allgemeingültigen Rechtssystems.
Immanuel Kant (1724 – 1804): Sein Werk „Zum ewigen Frieden“ beschäftigte sich mit der Idee eines internationalen allgemeingültigen Rechtssystems.
(Bild: gemeinfrei)

Wer kann denn solche Regeln aufstellen? Beim Internet kommt man natürlich an die Grenze nationaler Gesetzgebung.

Da haben Sie völlig recht. Deswegen habe ich der Brandenburgischen Akademie der Wissenschaften die Einrichtung einer interdisziplinären Arbeitsgruppe vorgeschlagen. Die existiert seit Mitte letzten Jahres: Internationale Gerechtigkeit und institutionelle Verantwortung (IGIV). Und darum geht es: Wenn sich die Gesellschaft und auch die Wirtschaft globalisiert, spielen die internetbasierten Kommunikationsströme dabei eine ganz wichtige Rolle. Dann muss es auch möglich sein, auf globaler Ebene politisch verantwortliche Strukturen zu etablieren.

Das ist die kosmopolitische Herausforderung, über die seit 200 Jahren diskutiert wird. Spätestens seit Immanuel Kants „Zum ewigen Frieden“ von 1795 ist das eigentlich ein zentrales Thema in der politischen Philosophie. Aber in der Praxis sind wir da erst ganz am Anfang. Es gibt IWF, es gibt die World Trade Organization, die FAO, die Arbeitsorganisation ILO. Es gibt internationale Organisationen, die Standards etablieren oder vorschlagen. Aber die politisch legitimierten Institutionen, die das umsetzen, fehlen weitgehend.

Das Problem liegt eventuell auch darin, dass diese Standards stark industriegetrieben sind. Aber die Verhaltenskodifizierung hinkt eine ganze Strecke hinterher.

Genau. Das hängt jetzt zwar nicht mit der Digitalisierung zusammen, aber denken wir einmal an den Klimawandel. Im Grunde zweifelt niemand mehr daran, dass hier eine gesamtweltliche Aufgabe besteht. Aber wir haben bislang nicht die Institutionen, die diese Prozesse steuern. Deshalb ist das Ganze ein Bargaining-Prozess: wenn einzelne ausscheren, dann funktioniert das Ganze nicht mehr. Weil die, die mitmachen, gegenüber denen, die nicht mitmachen, benachteiligt sind .

Deutschland lebt sehr stark von der technischen Innovation. Auf der anderen Seite gibt es in Deutschland auch eine gewisse Tradition der Technikskepsis. Wie sehen Sie dieses Spannungsfeld?

Ich bin nicht sicher, ob der Befund wirklich stimmt. Deutschland ist in vielen Bereichen das führende Technikland der Welt. Nehmen Sie die Exporte im Maschinenbau zum Beispiel: Kein anderes Land der Welt – nicht China und nicht die USA – können mithalten mit den deutschen Exporten. Die exzellente verlässliche Technik, das Ingenieurwissen, das in Deutschland besteht und im Moment nirgendwo auf der Welt besteht, ist einmalig. Wir haben viel mehr Aversionen gegen Naturwissenschaft und Technik in den USA. Schauen Sie sich mal die Lehrpläne an öffentlichen Schulen an: Das amerikanische Niveau in diesem Bereich ist auch viel schlechter.

Die Ingenieure in den USA wissen, dass die Ingenieurwissenschaftliche Ausbildung in den USA deutlich schlechter ist als in Deutschland. Beunruhigend ist, dass in einem Sektor – nämlich gerade der so relevante Sektor der digitalen Techniken – diese hohe technische Kompetenz in Deutschland nicht ausgereicht hat, um sich eine Spitzenposition zu sichern. Da ist uns eben Silicon Valley – nicht die USA als Ganzes – weit voraus.

Vielleicht hängt das auch gar nicht so viel mit Technikaffinität oder Technikkritik zusammen, sondern mit Venture Capital. Die Kapitalgeber in den USA sind risikofreudiger als in Europa. Und es hängt sicherlich auch sehr mit der konsumorientierten Praxis dieser Technologie-Konzerne zusammen. Apple ist das bekannteste Beispiel: Apple ist nicht das führende Technologieunternehmen, aber es ist führend in der Nutzerfreundlichkeit, und das hat Apple eine Spitzenstellung gerade im Smartphone-Bereich, aber auch bei den Laptops verschafft.

Und auch da gibt es in Deutschland sagen wir mal eine gewisse Zurückhaltung. Es gibt das traurige Beispiel der MP3-Technologie, die ein Fraunhofer-Institut in Deutschland entwickelt hat, für die sich aber hier in Deutschland nicht so viele Interessenten fanden, bis es dann international zu dem großen Renner wurde und sich zum Ende als eine große Technologie der Zukunft herausgestellt hat.

Fehlt uns sozusagen jemand wie die Unternehmerpersönlichkeit Max Grundig aus der Wirtschaftswunderzeit?

Ja, vielleicht. Das ist eine interessante Vermutung. Es könnte sein, dass uns diese schnelle Anpassung an Konsumenten-Interessen da fehlt. Dass wir zwar diese Ingenieurskompetenz haben, aber dass das schnelle und flexible Anpassen an Konsumentenbedürfnisse und -erwartungen in Deutschland jedenfalls hinter den USA hinterher hinkt.

Es gibt ja auch Technikbereiche wie die Gentechnik, wo man bei uns sehr vorsichtig und zum Teil ablehnend ist. Kann man es sich denn da zu sagen leisten: „Nein stopp! Das wollen wir nicht machen.“ Und andere Länder und Regionen investieren und entwickeln und besetzen dann Märkte.

Ich wurde vor vielen Jahren sehr scharf kritisiert, bis hin zu Forderungen, ich müsse mein politisches Amt (damals Kulturstaatsminister im Kabinett Schröder) aufgeben, weil ich sehr forschungsfreundliche Positionen in der Human-Gentechnik eingenommen habe. Ich hatte damals gesagt, dass ich das generelle Misstrauen nicht für gerechtfertigt halte. Da tun sich in der Tat Möglichkeiten auf.

Aber nicht alles, was möglich ist, wird auch gemacht. Wir haben natürlich die Möglichkeit, Menschen mit Pharmazeutika zu manipulieren. Das geschieht nicht. Es ist auch nicht so, dass die Arbeitnehmer an ihrem Arbeitsplatz Drogen verabreicht bekommen, damit sie effizienter arbeiten. Nochmal: Nicht alles, was technisch möglich ist, wird auch gemacht.

Und damit sollte man erst mal einen Vertrauensvorschuss geben. Das sehe ich also insofern ganz ähnlich. Ich empfand die Restriktionen in Deutschland als zu weitgehend. Großbritannien war da liberaler. Und damit hat sich jetzt auch in Großbritannien nicht die Inhumanität ausgebreitet, wie viele vermutet haben. Oder auch nicht in Singapur oder Israel, wo man auch viel forschungsfreundlicher im Bereich der Human-Gentechnologien war. Dennoch brauchen wir kritischen begleitenden Diskurs.

Bestes Beispiel dafür ist die Kernenergie. Da waren die Experten am Anfang kritisch und dann waren alle dafür und unterdessen gibt es die große Trendwende. Das heißt die Kernenergie wird nicht mehr als die große Zukunftshoffnung angesehen – weltweit nicht. Speziell in Europa nicht. Und ohne den kritischen Diskurs wäre es nie zu dieser Einsicht gekommen.

Zurück zur Digitalisierung: Es gibt heute die Möglichkeit, den Aufenthaltsort eines Menschen und das was er dort gerade eben tut zu erfassen. Die Datensammelwut scheint ja unbegrenzt.

Das ist ein Geschäftsmodell mit minimalen Belastungen für den Einzelnen geworden. Denn man bekommt das ja gar nicht mit, aber durch die großen Zahlen, die zum Beispiel über die Facebook-Kommunikationen zur Verfügung stehen, können ganz gezielt Werbemaßnahmen gemacht werden. Und obwohl das pro Kopf minimalste Beträge sind, sind das dann im Gesamten doch Milliardensummen. Das läuft Gefahr, dass die Selbstbestimmung über die Informationen, die über mich im Umlauf sind, das so genannte informationelle Selbstbestimmungsrecht, beschädigt wird. Das ist einer der kritischsten Aspekte dieser Entwicklung.

Kann die Politik auf nationaler Ebene hier etwas tun?

Die Antwort ist klarerweise ja. Sie kann, und das zeigt gerade die Bundesregierung, die jetzt gegen Facebook viel schärfer vorgeht als zuvor, was zum Beispiel die Löschungspraxis von rechtswidrigen Posts angeht. Es kann nicht sein, dass jeder nackte Busen gelöscht wird, was bei Facebook in der Prioritätenliste ganz oben steht, aber Hassbotschaften lange im Netz bleiben. Das kann der nationale Gesetzgeber regeln. Natürlich mit dem Nachteil, dass unter Umständen dieses Land für internationale Konzerne weniger interessant ist. Das ist dann eine Nebenfolge. Besser wäre es, man hätte hier internationale Institutionen, die die Dinge einheitlich im Weltmaßstab sieht.

Sie sagten auf dem ESE Kongress in Sindelfingen, dass Computer dem Menschen die Verantwortung nicht abnehmen können. Das mag ja für die heute verfügbaren Systeme gelten. Aber wie sieht das für künftige Systeme aus, die zum Beispiel auf neuronalen Netzen beruhen und ähnlichem?

Bundesverkehrsminister Alexander Dobrindt (CSU) im selbstfahrenden Auto: Professor Nida-Rümelin rät entschieden davon ab, komplexe Überlegungen an Algorithmen zu übergeben. Dies trifft auch auf das autonome Fahren zu.
Bundesverkehrsminister Alexander Dobrindt (CSU) im selbstfahrenden Auto: Professor Nida-Rümelin rät entschieden davon ab, komplexe Überlegungen an Algorithmen zu übergeben. Dies trifft auch auf das autonome Fahren zu.
(Bild: AUDI AG)

Das ist eine interessante Frage, die auch eine philosophische Tiefendimension hat. Also ich bleibe dabei – und war auch neulich eingeladen bei der Ethik-Kommission des Verkehrsministeriums im Zusammenhang mit dem autonomen Fahren. Ja, es ist zutreffend: die menschliche Verantwortung kann keine Maschine abnehmen – auch keine hochentwickelte Software, auch keine Roboter. Sie sind keine Verantwortungsträger.

Es sind und bleiben Maschinen – wie komplex sie auch immer sind. Sie haben keine Intentionen und keine Absichten. Sie haben keine personalen Merkmale, man kann sie nicht ins Gefängnis sperren und dergleichen. Ich weiß, dass es in der Rechtswissenschaft Tendenzen gibt, diese strenge Sichtweise abzumildern und zu sagen: „Doch, unter bestimmten Bedingungen können wir Roboter verantwortlich machen. Dann müssen die eben versichert werden.“ Ich warne vor solchen Spielereien. Es sind immer Menschen, die in letzter Instanz die Verantwortung tragen.

Hinzu kommt, dass sich sogar beweisen lässt, dass die Besonderheit menschlichen Denkens in toto nicht simulierbar ist durch Software. Weil eine Software – auch eine komplexe Software – immer von Algorithmen gesteuert ist und komplexere Denkvorgänge nicht algorithmisch sind. Das sind die metamathematischen Resultate von Kurt Gödel und Alonzo Church.

Ich selber habe ja nicht nur Philosophie, sondern auch Mathematik und Physik studiert. Aber es ist bewiesen, dass die metamathematischen Theoreme der Prädikatenlogik erster Stufe, das ist noch eine relativ elementare Logik, algorithmisch nicht bewiesen werden können. Das berühmte Unentscheidbarkeitsproblem. Dennoch kann ich den Studierenden im zweiten Semester beibringen, wie man Prädikatenlogik erster Stufe beweist, und zwar ohne ihnen einen Algorithmus zu präsentieren.

Die moderne Mikroelektronik und Mikrosystemtechnik könnte schon bald Menschen zu Cyborgs machen: Was halten Sie davon? Was machen Augmented Reality und Augmented Body aus uns Menschen?

Ich halte das, was Transhumanisten gegenwärtig propagieren, nämlich die disruptive Ausweitung menschlicher Fähigkeiten durch technologische Ein- und Umbauten für utopische Fantastereien. Allerdings verschieben sich die wahrgenommenen Körpergrenzen durch menschliche Interventions-und Wahrnehmunsgsmöglichkeiten, dazu gehört schon das Autofahren, erst recht Prothesen, Eingriffe aus der Distanz, zum Beispiel über unterschiedliche Interfaces. Die Conditio Humana ändert sich dadurch nur graduell, nicht prinzipiell.

Dieser Beitrag ist bei unserem Partnerportal ELEKTRONIKPRAXIS erschienen.

(ID:44636944)