Menü
Leipziger Volkszeitung | Ihre Zeitung aus Leipzig
Anmelden
Panorama Wer kontrolliert die Maschinen?
Nachrichten Panorama Wer kontrolliert die Maschinen?
Partner im Redaktionsnetzwerk Deutschland
22:42 25.05.2018
Philosoph, Professor, Staatsminister a. D. – Julian Nida-Rümelin im Gespräch über die Möglichkeit eines “Digitalen Humanismus“. Quelle: dpa
Anzeige

Herr Nida-Rümelin, müssen wir Angst vor künstlicher Intelligenz haben?

Bei der Digitalisierung wiederholt sich etwas, das wir aus der gesamten Industriegeschichte kennen. Die öffentliche Debatte reagiert auf neue technische Entwicklungen mit disruptiver Kraft grundsätzlich hysterisch. Fast immer aber sind sowohl die Befürchtungen der Apokalyptiker als auch die Hoffnungen der Euphoriker maßlos überzogen. Wenn man in die kurze Geschichte der Digitalisierung zurückschaut, sind zum Beispiel die Erwartungen, dass damit ein deutlicher Produktivitätsfortschritt verbunden ist, nicht erfüllt worden. Etwas präziser: Sie haben sich zunächst in den 1990ern in begrenztem Umfang bewahrheitet. Seitdem die Digitalisierung in den USA so richtig Fahrt aufgenommen hat, also Anfang der Nullerjahre, ist die Produktivität der Wirtschaft jedoch wieder deutlich gesunken.

Und was ist mit den Befürchtungen? Könnte es sein, dass künstliche Intelligenz weitreichende Entscheidungen trifft, für die am Ende kein Mensch mehr verantwortlich ist – und die daher niemand zurücknehmen kann? Ist so ein Szenario übertrieben?

Nicht in jedem Fall. Ich würde unterscheiden zwischen Top-down-Software des traditionellen Typs, deren Algorithmen sind bekannt. Diese Algorithmen können nichtsdestoweniger sehr komplex und sehr schnell sein. Problematischer sind die Bottom-up-Systeme. Auch die künstliche Intelligenz selbstlernender Systeme ist von Algorithmen gesteuert. Auf der Grundlage der Ausgangsalgorithmen entwickeln diese Systeme aber eigene Algorithmen. Sie verbessern sich fortlaufend. Solche lernfähigen Systeme leisten Erstaunliches, es kommt auch manchmal etwas heraus, was die Entwickler gar nicht erwartet haben. Doch je leistungsfähiger diese Systeme sind, desto mehr ähneln sie Blackboxes. Man weiß hinterher gar nicht mehr, wie sie rechnen. Und daraus folgen ethische und moralische Fragen.

Welche?

Beim autonomen Fahren müssen selbstlernende Systeme verwendet werden, weil der Straßenverkehr eben sehr komplex ist. Ist eine Software, die das autonome Fahrzeug steuert, aber wirklich genehmigungsfähig, wenn die Regeln, nach denen das Fahrzeug sich verhält, zwar gut bekannt und vielfach getestet, aber eben nicht vollständig transparent sind?

Wie verhindere ich, dass diese Systeme Kollateralschäden in Kauf nehmen – etwa bei drohenden Unfällen die natürliche Lebenserwartung der Gefährdeten berechnen und dann einen Menschen als Opfer “aussuchen“?

Autonomes Fahren ist eine hochkomplexe Angelegenheit. Wir diskutieren hier bereits die allerletzte Stufe, in der es keinerlei Eingriffsmöglichkeit des Fahrers mehr gibt. Es war vielleicht leichtfertig, diese fundamentalen Fragen bereits jetzt zu diskutieren. Ein Fahrzeug, das überhaupt nicht mehr steuerbar ist, kann ich mir auf lange Sicht im innerstädtischen Verkehr nicht vorstellen. Jetzt geht es darum, das Fahren durch Software-Assistenten sicherer zu machen. Letztlich muss die Gesellschaft entscheiden, ob sie voll autonomes Fahren als generelle Praxis im privaten Individualverkehr will. Möglicherweise ist es der Kfz-Industrie ja in den letzten Jahrzehnten gelungen, “Freude am Fahren“ zu vermitteln, und die Freude am Gefahrenwerden hält sich in engeren Grenzen, als die Euphoriker heute annehmen. Kein System darf so vorgehen, dass es einen Menschen umbringt, um vier andere zu retten. Im Krieg dürfen und müssen solche Verrechnungen stattfinden. Da gibt es den Begriff der verhältnismäßigen Zahl ziviler Opfer. In der zivilen Ordnung aber sind Gesundheit und Würde unantastbar.

In Karlsruhe werden seit Anfang Mai 2018 autonome Fahrzeuge im Straßenverkehr getestet. Quelle: dpa

Wer ist am Ende verantwortlich? Der Programmierer? Der Besitzer? Der Hersteller?

Das ist eine zentrale Frage – und sie wird immer schwerer zu beantworten sein. Die Verantwortung, die Akteure haben, wird unschärfer. Nehmen Sie die Finanzmärkte, den Hochfrequenzhandel. Gibt es da noch verantwortliche Akteure für jede einzelne Transaktion? Am Ende entsteht ein instabiles System ohne klare Verantwortlichkeit.

Die Internetgiganten sind quasi Monopolisten. Wo liegt deren Verantwortung?

Die sympathischen anarchistischen Erwartungen, die die Internetpioniere hatten, konnten keinen Bestand haben. Neue Formen der Kommerzialisierung, aber auch des Gatekeepings mussten kommen, und damit sind wir nun in einem sehr massiven Umfang konfrontiert. Wir haben die einmalige Situation, die es noch nie in der Industriegeschichte gegeben hat, dass vier Internetgiganten, also Amazon, Google, Mi­crosoft und Facebook, gegenwärtig den größten Teil der Infrastruktur digitaler Kommunikation und Interaktion bereitstellen. Das ist ungewöhnlich. In der Geschichte ist die Infrastruktur sehr oft Sache des Staates gewesen, die Deutsche Industrienorm (DIN), die Straßen, die Telefonnetze, und so weiter. Die Nutzung ist dann privatwirtschaftlich. Die Debatte könnte dazu führen, dass die Kontrolle der digitalen Infrastruktur doch wieder mehr in staatliche Hand kommt.

Wie kann das geschehen? Die staatsfinanzierte europäische Suchmaschine ist ja passé.

Es wäre möglich, die großen vier dazu zu zwingen, ihre Algorithmen öffentlich zu machen, das wäre ein erster Schritt zur öffentlichen Kontrolle. Der Gesetzgeber kann normieren, tut das zum Teil auch, aber es ist ziemlich spät. Die Europäische Datenschutzrichtlinie, die in diesem Monat kommt, ist ein wichtiger, aber sehr später Schritt in diese Richtung.

Welche Jobs bleiben denn noch, wenn künstliche Intelligenz und Roboter uns alle manuellen Tätigkeiten abgenommen haben?

Nun, jemand muss zum Beispiel die Roboter programmieren und warten. Technische Kompetenz wird in Zukunft sehr gefragt sein. Damit meine ich nicht, dass wir immer mehr studierte Informatiker brauchen. Die heutige Generation wächst sowieso mit der digitalen Kompetenz auf, durch spielerische Aneignung seit der Kindheit. Die Roboter werden übrigens nicht nur die manuellen Tätigkeiten ersetzen, sondern auch die Verwaltungs- und akademischen Berufe.

Die Maschine hat kein Bewusstsein. Wer kontrolliert sie letztendlich?

Das ist vielleicht der tiefgehendste philosophische Aspekt. Die Silicon-Valley-Ideologie interpretiert die Digitalisierung animistisch. Sie meint, wir schaffen ein Gegenüber, wir erweitern die Welt der vernünftigen Wesen. Allein die Vorstellung, dass künstliche Intelligenz etwas mit Vernunft zu tun haben könnte, ist absurd. Aber die Sprache geht stark in diese Richtung. Die Maschinen “entscheiden“, sie “erwarten“, sie “nehmen wahr“, ja, zum Beispiel bei Pflegerobotern wird behauptet, sie “fühlen“. Das tun sie nicht. Wir simulieren in der Software-Entwicklung Menschliches – und wundern uns dann, dass diese Systeme menschenähnlich wirken. Dann denken wir: Haben sie auch Gefühle? Es gibt keinen vernünftigen Grund, warum Pflegeroboter humanoid aussehen müssen. Technisch ist es jedenfalls ein Nachteil – auf zwei Beinen kippen Maschinen leichter um, als wenn sie drei oder vier Beine haben. Wir sehnen uns anscheinend sehr danach, ein Gegenüber schaffen zu können.

Gelten die Robotergesetze des Science-Fiction-Autors Isaac Asimov eigentlich noch? Das erste Gesetz lautet: “Ein Roboter darf einem menschlichen Wesen keinen Schaden zufügen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.“

Wenn Sie diese Robotergesetze nicht animistisch interpretieren, als Aufforderung an Roboter, gar als moralische Gebote, sondern als Regeln, an denen sich Software-Entwickler unter anderem zu orientieren haben, gelten sie heute noch und hoffentlich für alle Zeit.

Julian Nida-Rümelin ist mit der Buchautorin Nathalie Weidenfeld verheiratet. Quelle: Imago

Zur Person: Julian Nida-Rümelin

Maschinen können keine ethischen Entscheidungen treffen. Sie können überhaupt keine Entscheidungen treffen, sagt der Philosoph Julian Nida-Rümelin, denn das würde Bewusstsein voraussetzen. Und künstliche Intelligenz kann zwar vieles schaffen, aber nicht Bewusstsein und die dafür nötige Selbstreflexion entwickeln.

Je mehr technisch möglich wird in der digitalen Welt, je weiter die Fähigkeiten der künstlichen Intelligenz zunehmen, selbst zu lernen, sich pausenlos zu optimieren und sich dabei von den ursprünglich programmierten Aufgaben zu entfernen, desto stärker treten Fragen nach Ethik und Verantwortung in den Vordergrund.

Seit einigen Jahren kritisieren Digitalexperten und Sozialwissenschaftler die Macht der Algorithmen. Zuletzt war es die New Yorker Forscherin Danah Boyd, die in ihrem Eröffnungsvortrag der Berliner Internetkonferenz re:publica darauf hinwies, wie Informationen, Verschwörungstheorien und Vorurteile durch algorithmisch gesteuerte Automatismen verstärkt werden und eine Macht bekommen können, gegen die Kafkas literarische Bürokratie-Albträume harmlos wirken.

Wer aber ist am Ende verantwortlich in einem System, das sich automatisch weiterentwickelt? Auch in Deutschland wird vielerorts zu diesen Fragen geforscht. Die Bertelsmann-Stiftung etwa geht ihr im Projekt “Ethik der Algorithmen“ auf den Grund.

Kaum ein Forscher aber verbindet ethische und digitale Fragen so konsequent wie der Münchner Julian Nida-Rümelin. Der 63-Jährige führt den Titel Staatsminister a. D., er war 2001/2002 der zweite Kulturstaatsminister in Gerhard Schröders Kanzleramt. Vor allem aber ist er Professor an der Ludwig-Maximilians-Universität und mischt seit Jahren in allen Debatten über Digitalisierung und Ethik mit. Im September erscheint sein Buch “Digitaler Humanismus“, das er mit seiner Frau, der Autorin Nathalie Weidenfeld, verfasst hat.

Humanismus und Maschinenlogik passen nicht zusammen, argumentiert Nida-Rümelin in Vorträgen. Er war Leiter eines EU-Forschungsprojektes zur Ethik der Robotik und hat sich mit ethischen Aspekten des autonomen Fahrens sowie generell des Einsatzes von Software-Systemen in der beruflichen und privaten Praxis auseinandergesetzt.

Entscheidungen um Leben und Tod entziehen sich allen Nützlichkeitserwägungen, die künstliche Intelligenz anstellen mag, argumentiert er: “Die utilitaristische Ethik ist jedoch nachweislich inadäquat. Sie kollidiert unter anderem mit einem fundamentalen Prinzip jeder zivilen und humanen Gesellschaft; nennen wir es das Prinzip der Nicht-Verrechenbarkeit. Wenn zum Beispiel ein schwer verletzter junger Motorradfahrer in eine Klinik eingeliefert wird, haben die Ärzte alles zu unternehmen, um sein Leben zu retten – auch dann, wenn sein Tod gesunde Spenderorgane verfügbar machen würde, die mehreren Menschen das Leben retten können.“

Nida-Rümelin verteidigt den Humanismus genauso wie die Freiheit der Forschung. Und er hat durch jahrelange Arbeit in Kommissionen die Einsicht erworben, mit der er relevante ethische Fragen von irrelevanten trennen kann. Ein Experiment wie die “Moral Machine“ des Massachusetts Institute of Technology (MIT), bei dem der Teilnehmer anstelle eines autonomen Autos “entscheiden“ muss, ob es eher eine Rentner- oder eine Kindergruppe überfährt, gehen für ihn am Kern der Frage vorbei.

Die künstliche Intelligenz kann eben nichts “entscheiden“, und solche utilitaristischen Erwägungen gehen gegen jeden Humanismus. Das Auto muss also derart defensiv programmiert sein, dass es zu solchen Unfällen gar nicht erst kommt. Und damit, prophezeit Nida-Rümelin, wird sich das voll autonome Fahren in europäischen Innenstädten nie durchsetzen. Es wäre schlicht zu risikoscheu, um voranzukommen.

Von Jan Sternberg

Panorama Werden in Zukunft nur noch Maschinen kochen? - Heute kocht der Roboter

Schon jetzt können Maschinen Zutaten selbstständig aus dem Regal angeln und eine Mahlzeit zaubern. Aber schmeckt das dann auch?

25.05.2018
Panorama Brautkleid von Meghan Markle - Wer ist die Designerin Clare Waight?

Minimalistisch, modern – und unglaublich elegant: Das Brautkleid, das Meghan Markle bei ihrer Hochzeit mit Prinz Harry trug, sorgte für viel Begeisterung – und viel Aufmerksamkeit für Designerin Clare Waight Keller. Ein Porträt.

25.05.2018
Panorama Pomp & Circumstance mit Imre Grimm - Duchess of Hollywood

Großbritannien stehen harte Zeiten bevor, da kommt eine Märchenhochzeit zur kurzfristigen Realitätsflucht gerade recht. Aber denkt denn niemand an die menschlichen Schicksale hinter all dem Pomp? Eine Runde royales Mitgefühl.

25.05.2018
Anzeige