/ Roboterethik: „Technik ist nie neutral“

Mar 26

/ nic.at News - 26.03.2020 12:32
Roboterethik: „Technik ist nie neutral“

Dr. Janina Loh ist Technik- und Medienphilosophin an der Universität Wien und befasst sich mit den ethischen Herausforderungen, die beim Umgang mit Robotern eine Rolle spielen. Bei einem Gespräch am Domain pulse in Innsbruck spricht sie über Staubsaugerroboter, Werte und weibliche Stimmen.

Wozu braucht es Roboterethik?
Loh: Technik ist nie neutral, denn es ist ein Produkt menschlichen Handelns. Kein menschliches Handeln ist neutral, deshalb sind auch Produkte menschlichen Handelns nie neutral. Es fließen immer Werte in die Technologien mit ein. Ein Staubsaugroboter ist beispielsweise dafür gemacht, zu staubsaugen. Der Wissenschaftler Oliver Bendel entwarf einen Staubsaugerroboter, der in der Lage ist, marienkäferähnliche Strukturen zu erkennen und anzuhalten. Das ist eine ethische Implikation: Man sagt dem Roboter, dass er auf Marienkäfer achtgeben soll -  aber beispielsweise nicht auf Spinnen. Ein anderes Beispiel sind Geschlechterstereotypen bei Robotern. Es gibt so viele Assistenzroboter, die mit einer weiblichen Stimme ausgestattet sind. Das sagt viel darüber aus, welche Werte wir in dieser Gesellschaft vertreten. Wir benötigen also keine neue Ethik für Roboter, sondern ein kritisches Bewusstsein für Ethik beim Bau von und Umgang mit Robotern.

Wo liegt der Unterschied zu anderen Technologien?
Loh: Roboter sind autonom, sie können ohne direkten äußeren Einfluss Aufgaben erfüllen. Durch diese Autonomie sind sie selbstständiger als andere Technologien. Ein Maschinengewehr hat viele ethische Implikationen, muss aber von einem Menschen geführt werden. Das ist bei Militärroboter anders, die beispielsweise so gebaut sind, dass sie feindliche Zielobjekte identifizieren. Es muss also vorab entschieden werden, wie der Roboter das feindliche Objekt von einem nicht-feindlichen Objekt unterscheidet. Und eine weitere Frage ist:

Sollte der Roboter so autonom sein, dass er das Ziel nicht nur definiert, sondern auch eigenständig ausschalten kann? Roboterethik beschäftigt sich also nicht nur mit Fragen, die mit dem Bau von Robotern einhergehen, sondern auch, inwiefern Roboter als eigenständige moralische Akteure angesehen werden können. Ein anderer Bereich der Roboterethik behandelt zudem die Frage, inwiefern Roboter von uns ein moralisches Handeln einfordern.

Das heißt, wir sollen Roboter gut behandeln?
Loh: Genau. Die Wissenschaftlerin Kate Darling fordert, dass die sogenannten Social Robots - die beispielsweise im Pflegebereich arbeiten - Rechte haben sollen. Und das, obwohl die Roboter nicht schmerzempfindlich sind und kein Bewusstsein dafür haben, wenn ihnen Unrecht geschieht. Aber Kate Darling orientiert sich am Philosophen Immanuel Kant, der sagte: Man soll Tiere nicht schlecht behandeln. Und zwar nicht, weil Tiere schmerzempfindlich sind, sondern weil es auf uns Menschen zurückfällt. Kant meint also, dass wir Menschen moralisch degenerieren, wenn wir Tiere schlecht behandeln. Kate

Darling teilt diese Sichtweise in Bezug auf Roboter. Wir sollten ihrer Meinung nach Roboter nicht schlecht behandeln, weil das unseren schlechten Charakter offenbart.

Können Roboter selbst moralisch handeln?
Loh: Ich würde sagen, momentan nicht. Zumindest nach den geläufigen Kriterien. Für moralisches Handeln braucht ein Wesen Urteilskraft, das kann man in diesem Ausmaß noch nicht künstlich simulieren.

Welche moralischen Grundprinzipien muss man in ein selbstfahrendes Auto einprogrammieren?
Loh: Das berühmte „Trolley-Case-Szenario" dient wunderbar zur Veranschaulichung dieses Themas. Es geht dabei um die fünfte Stufe des autonomen Fahrens: Man setzt sich ins Auto, gibt das Ziel ein und kann nicht mehr in das Fahrgeschehen eingreifen. Nun kommt es zu einer gefährlichen Situation, das Auto muss entscheiden: Lenkt es in den Graben und gefährdet  die Fahrerin oder den Fahrer, weicht es auf die Gruppe Kinder aus oder steuert es auf zwei ältere Menschen zu? Nimmt man nun in einer Gefahrensituation den Tod von wenigen Menschen in Kauf, um dafür viele zu retten? Für dieses Gedankenexperiment gibt es aber nicht die eine Lösung, weil wir unterschiedliche ethische Systeme haben. 2015 wurde in Deutschland eine Ethikkommission für autonomes Fahren eingerichtet. Zwei Jahre später wurde ein Prinzipienkatalog veröffentlicht, der unter anderem sagt: Das Auto darf in einer Konfliktsituation nicht nach Kriterien wie etwa Geschlecht, Anzahl oder Alter entscheiden. Das ist eine Absage an die utilitaristische Ethik, wonach beispielsweise das Leben kleiner Kinder wichtiger ist als das Leben älterer Menschen. Die Kommission hat sich gegen diesen Ansatz ausgesprochen, aber nicht gesagt, wie sich das autonome Auto verhalten soll.

Haben Sie einen Vorschlag?
Loh: Wir haben in unseren Rechtstexten einen Grundsatz, der uns einen interessanten Weg aufzeigt: „Die Würde des Menschen ist unantastbar." Jeder Mensch hat qua seiner Würde einen unendlich hohen Wert. Unendlichkeit lässt sich mathematisch nicht addieren. Zwei Menschen sind genauso viel unendlich wert wie zehn Menschen. Wenn man diesem Grundsatz folgen würde, könnte man sagen, dass das autonome Auto in der Konfliktsituation den zuvor einprogrammierten Weg einhalten muss. Und zwar egal, wer oder wie viele Menschen zu Schaden kommen. Natürlich ist mir klar, dass dieser Ansatz für viele Menschen schwierig wäre. Ich sehe persönlich aber keinen anderen Weg, wie man das Problem sonst lösen will. Deshalb halte ich es für einigermaßen unwahrscheinlich, dass wir tatsächlich zur fünften Stufe des autonomen Fahrens kommen. Aber ich bin Philosophin, keine Prophetin.

Sie haben 2019 das Buch „Roboterethik. Eine Einführung" veröffentlicht. Interessiert sich die Öffentlichkeit vermehrt für das Thema?
Loh: Ich bekomme im Jahr über 200 Anfragen für Podiumsdiskussionen, Interviews oder Vorträge, auch an Schulen. Das sind Veranstaltungen, die oft für eine breitere Öffentlichkeit gedacht sind. Im deutschsprachigen Raum entsteht also ein Bewusstsein für diese Themen. Das war vor einigen Jahren noch anders. Aber nach wie vor muss noch mehr geschehen.

Was zum Beispiel?
Loh: Das Thema muss noch breiter in der Öffentlichkeit diskutiert werden, bereits im Schulunterricht kann man Kindern beibringen, dass in jeder Entwicklung von Technik auch eine moralische Wertung eine Rolle spielt. Auch in den Ausbildungsstätten der Ingenieurinnen und Ingenieure von morgen braucht es Ethikkurse. Zudem benötigt es Ethikkommissionen, die sich um konkrete Fragestellungen drehen. Momentan sind diese Kommissionen viel zu allgemein gehalten.


  Unser Tipp 
Auch diese Artikel könnten für Sie interessant sein: