Morgen

Ist Moral veränderbar wie Knetmasse? « Roboter-Ethik kann mithelfen, Dilemmas aufzuzeigen»

Roboter verändern unser Leben – wie dieser Humanoide in Tokio. Die Frage ist: Sollen sie auch unsere Zimmerpflanzen giessen, oder tut uns die Tätigkeit gut? KEYSTONE

Roboter verändern unser Leben – wie dieser Humanoide in Tokio. Die Frage ist: Sollen sie auch unsere Zimmerpflanzen giessen, oder tut uns die Tätigkeit gut? KEYSTONE

Heute akzeptieren wir Genmanipulation, Roboter und selbstfahrende Autos. Ein Gespräch über das, was bleibt.

Frau Rampton, Sie forschen über Roboter, über kalte Maschinen. Warum braucht es da Ethik?

Vanessa Rampton: Einer der wichtigsten Gründe ist: Die Roboter entwickeln sich unglaublich schnell und greifen tief in das menschliche Leben ein. Sie beeinflussen, wie wir leben, und kratzen dabei an etwas Urmenschlichem: an der Moral. Die Roboterethik ist eine junge Disziplin, es gibt noch viele offene Fragen. Manche davon sind hoch dramatisch.

Welche Fragen sind dramatisch?

Jene, wie Militär-Drohnen funktionieren sollen, welche Ziele sie in Angriff nehmen und welche nicht. Sie müssen Leben bewerten. Und durch Drohnen wird das Töten extrem vereinfacht, aber wer übernimmt die Verantwortung? Roboter werfen auch zahlreiche weniger heikle ethische Fragen im Alltag auf.

Ein Haushaltsroboter zum Beispiel?

Ja, wir können einen Roboter damit beauftragen, unsere Zimmerpflanzen zu giessen oder uns durch den Abendverkehr zu navigieren. Aber zuerst sollten wir uns fragen: Ist diese Tätigkeit nicht Teil unserer Identität? Gibt es uns eine Befriedigung, es selbst zu tun? Es ist eine Kleinigkeit, aber am Ende geht es um unsere Selbstverwirklichung.

Es gab schon immer Warnungen zu neuer Technik. Bloss: Ist die Technik nicht eine viel zu starke Kraft, der man sich nicht widersetzen kann?

Die Technik ist eine sehr starke Kraft. Umso mehr müssen wir uns bewusst werden, was gerade geschieht und wie das unsere Arbeit, Beziehungen und das Menschsein verändert. Diese gesellschaftliche Debatte darf nicht abbrechen. Denn sie kann Einfluss auf neue technische Entwicklungen haben.

Wir zweifeln daran, dass das geschieht. Vieles wurde anfänglich abgelehnt, zum Beispiel in der Genetik oder der pränatalen Diagnostik, aber nach ein paar Jahren ist es gesellschaftlich akzeptiert. Gibt es überhaupt etwas, das ein Tabu bleibt?

Es stimmt, dass sich mehrheitsfähige Positionen zu ethischen Fragen ständig verändern. Nichtsdestotrotz ist die Tatsache, dass viele Neuerungen erst mal kontrovers diskutiert werden, wichtig, da sie einer Gesellschaft erlaubt, eine Entscheidung zu treffen. Mehrere Staaten, darunter Grossbritannien, haben beschlossen, dass man künstlich gezeugte Embryonen nur eine gewisse Anzahl Tage wachsen lassen darf. Zurzeit wird debattiert, ob diese Frist verlängert werden soll. Aber es gibt natürlich auch die anderen Beispiele wie die Nuklearwaffen. Wenn sich die Politik nicht genug schnell über Regulierungen oder Verbote einigen kann, hinkt sie ständig hinter der technischen Realität her.

Ist das nicht immer so?

Nein, nicht zwingend. Heutzutage wird zum Beispiel über ein Verbot von Modifikationen an Keimzellen diskutiert. Prominente Forscher haben sich dafür ausgesprochen. Ein solches Verbot könnte weitere Forschung unterbinden.

Ist unsere Moral veränderbar wie Knetmasse? Bei den alten Griechen waren Beziehungen von Männern zu Knaben nicht unüblich. Heute geht das gar nicht. In der Antike war das Sezieren von Leichen ein Tabu – heute finden wir nichts mehr daran.

Das ist eine spannende Frage. Aus der Anthropologie weiss man, dass in kleinen Gesellschaften von nicht mehr als 1000 Personen die einzelnen Beziehungen viel mehr Gewicht haben und die Moralvorstellung der Gesellschaft beeinflussen. Heute aber hat sich unsere moralische Sphäre durch die Globalisierung geweitet. Unsere Gesellschaft muss zum Beispiel auch mit dem Klimawandel umgehen, der den Einzelnen vielleicht noch nicht direkt betrifft, aber wir wissen um die Bedrohung. Manche Wissenschafter sagen, dass der Mensch zum Umgang mit solch grossen Fragen nicht geschaffen ist. Dazu müsse sich unsere Moral verbessern, denn sie passe nicht mehr.

Was bleibt am Schluss?

Es gibt Grundlegendes, das sich nicht verändert: Das Interesse der Menschen, dass das Zusammenleben nicht chaotisch ist. Und: Die Menschen wollen das Morden verhindern und den Inzest. Das ist Teil eines moralischen Kompasses durch viele Zeiten und Gesellschaften.

Wie stark wirkt das Christentum noch als Grundlage unserer Moral?

Explizit wird kaum mehr aufs Christentum verwiesen. Aber implizit sind wir immer noch beeinflusst von religiösen Vorstellungen, auch da die westliche Philosophie massgebend von christlichen Denkern entwickelt wurde. So kommt Kants Forderung, dass man Menschen nur so behandeln soll, wie man selbst behandelt werden will, auch in der Bibel als Goldene Regel vor (Matthäus 7, 12).

Ist die von Religion beeinflusste Moral deshalb von Kultur zu Kultur verschieden?

Ja, da gibt es verschiedene Beispiele aus dem medizinischen Bereich. Für Muslime ist es ein grösseres Problem, lebenserhaltende Maschinen abzustellen, wenn jemand mit schwerem Gehirnschaden im Koma liegt. Für total säkularisierte Menschen hat solches Leben keinen Wert mehr. Für jemanden, der sehr religiös ist, sind Ethik und Religion nicht getrennt: Die Ethik, also die Frage, was man tun soll, liegt innerhalb der Religion.

Im Christentum war das früher nicht anders. Es brauchte die Aufklärung, um die beiden Begriffe zu separieren.

Ja genau. Und zudem sind wir heute in der globalisierten Welt mit sehr vielen Meinungen konfrontiert.

Die Aufklärung hat den Westen vorwärtsgebracht. Die arabische Welt, die im Hochmittelalter mal in Wissenschaften führend war, hat sich eher eingeigelt. Aber uns interessiert: Gibt es eine Grenze an Liberalität, wo es plötzlich ein Vorteil ist, der Technik und Forschung Einhalt zu gebieten?

Ja, das denke ich schon. Eben zum Beispiel bei Nuklearwaffen – da wäre es gut gewesen, man hätte die Forschung gesetzlich eingeschränkt.

Was ist mit dem Bereich der Gen-Manipulation? Sollte es da Einschränkungen geben?

Die Verbesserung der Moral hat viel mit Gerechtigkeit zu tun. Die Gen-Manipulation müsste für alle nützlich sein, nicht nur für Reiche, die sich das leisten können. Gewisse Teilgebiete der Gentechnik können aber weiterreichende gesellschaftliche Auswirkungen haben, da sie den Menschen selbst verändern und dadurch nicht mehr rückgängig gemacht werden können. Das unterscheidet die Gentechnik zum Beispiel von der Nukleartechnologie, die jederzeit aufgegeben werden könnte.

Denken Sie, dass das Aufkommen von selbstfahrenden Autos und autonomen Robotern die Moral-Diskussion endlich voranbringt, einfach weil wir die Dinge auf richtig und falsch programmieren müssen?

Ja, das könnte sein. Aber es wird keine einfachen Antworten darauf geben. Nehmen wir die Situation, dass zwei Passanten auf die Fahrbahn treten und die einzige Möglichkeit auszuweichen ist, dass das Auto in eine Abschrankung fährt und danach Totalschaden hat. Ein Lenker würde das wahrscheinlich intuitiv tun, aber wer würde ein Auto kaufen, von dem bekannt ist, dass es sich im Notfall selber zerstört?

Reiner Utilitarismus, also die zweckorientierte Ethik, ist oft nicht sehr beliebt.

Ja, das sieht man am sogenannten «Strassenbahn-Problem». Da rollt ein Tram auf fünf Personen zu, die auf dem Geleise liegen. Darf oder soll man einen dicken Mann, der auf einer Brücke steht und dessen Körper das Tram stoppen würde, von der Brücke vor das Tram stossen? Als Menschen haben wir Mühe, das zu tun, obwohl damit Menschenleben gerettet werden könnten. Hier zu handeln widerstrebt uns, denn wir möchten nicht aktiv töten. Es widerspricht der Pflicht- und Tugend-Ethik. Die Roboter-Ethik kann mithelfen, solche Dilemmas aufzuzeigen.

Die Zweck-Ethik bekommt mehr Bedeutung, wenn die Roboter wichtiger werden?

Ja, dies kann gut sein. Gedankenexperimente mit selbstfahrenden Autos zeigen, dass rein utilitaristisches Verhalten zu minimalen Todesfällen führt. Gleichzeitig verunsichern solche Gedankenexperimente, da sie moralische Dilemmata offenlegen. Ist in einem Notfall das Retten möglichst vieler Leben die einzige Leitschnur, oder sollen andere Vorgaben, wie zum Beispiel das Schützen von Kindern, Vorrang haben?

Konsequenzen kann man berechnen und danach Regeln aufstellen. Aber wie will man Robotern tugendliches Verhalten beibringen, wie dass sie Kinder eher verschonen?

Dies bedingt eine direkte moralische Verantwortung des Programmierers für das Verhalten des Roboters, da der Programmierer für die Vermittlung der rechten Prinzipien verantwortlich ist. Roboter können aber auch so programmiert werden, dass sie über Rückmeldungen auf ihr Verhalten lernen, was «gutes» und was «schlechtes» Verhalten bedeutet. Ein solcher Ansatz fokussiert auf situatives Verhalten und nicht auf allgemeingültige Regeln.

Manche Leute befürchten, dass die künstliche Intelligenz uns überflüssig machen und uns schliesslich vernichten könnte. Man fordert deshalb, dass von Anfang an die Moral einprogrammiert werden sollte. Sehen Sie das auch so?

Für mich ist künstliche Intelligenz nicht unser dringendstes Problem. Wichtiger erscheint mir, wie Roboter reguliert werden und wie wir mit den sozialen Auswirkungen, die aus dem verstärkten Einsatz von Robotern resultieren, umgehen.

Meistgesehen

Artboard 1