Zum Inhalt springen
Fotostrecke

Verantwortung von Maschinen: Strafrecht für Roboter?

Schuldfähigkeit von Maschinen "Roboter werden Fehlentscheidungen treffen"

Wer ist schuld, wenn ein Roboter Unsinn verzapft? Der Würzburger Robotik-Experte Klaus Schilling will ethische und juristische Grundlagen schaffen, um die Verantwortung von Maschinen besser einstufen zu können. Sein Ziel: Rechtssicherheit für Entwickler.

Frage: Wenn ein Roboter einen Schaden verursacht - haftet dann der Mensch, der dafür verantwortlich ist, oder der Roboter?

Klaus Schilling: Der Mensch. Aber die Verantwortung ist nicht immer so leicht zuzuweisen. Früher traf der Mensch Entscheidungen, die Maschine führte sie aus. Heute haben wir aber eine rasante Entwicklung hin zu selbstständig agierenden Robotern.

Frage: Wann lässt sich die Verantwortung nicht eindeutig auf Hersteller oder Betreiber zurückführen?

Schilling: Zum Beispiel, wenn unvorhersehbare Bedingungen auftreten, etwa extremes Wetter. Der Roboter sollte zwar selbst merken, wann er die Grenzen eines sicheren Einsatzes überschreitet - aber das gilt auch für den Betreiber. Und richtig spannend wird es, wenn sich ein Roboter nicht einfach abschalten darf, weil das noch mehr Schaden verursachen kann.

Frage: Wann kann das der Fall sein?

Schilling: Anstoß unseres Projekts "Robotik und Recht" war ein Fahrzeug, das ältere Menschen autonom zu Zielen wie Apotheke, Post oder Arzt transportiert oder begleitet. Bei Hindernissen stoppt es automatisch oder weicht aus - dass es sich abschaltet, ist aber keine Option.

Frage: Wenn Menschen zu langsam reagieren, treffen heute schon Maschinen schwerwiegende Entscheidungen - etwa einen Flugkörper abzuschießen, der sich einem Kriegsschiff nähert. Was aber, wenn das ein harmloser Sportflieger ist?

Schilling: Moderne Sensorsysteme können oft sogar besser und schneller als der Mensch Situationen erfassen und vernünftige Entscheidungen treffen. Doch ähnlich wie der Mensch werden auch Roboter hier Fehlentscheidungen treffen.

Frage: Müsste man Roboter dann nicht konsequenterweise zu juristischen Personen ernennen?

Schilling: Bei uns arbeiten Techniker und Juristen mit Experten anderer Gebiete daran, fundierte Antworten auf solche Fragen zu finden. Denkbar ist es zum Beispiel, analog zu Schäden zu verfahren, die Kinder oder Haustiere verursacht haben. Für Versicherungen öffnet sich hier ein interessanter Bereich, innovative Produkte anzubieten.

Frage: Könnte ein Computer auf verminderte Zurechnungsfähigkeit plädieren, weil er von einem Virus infiziert wurde?

Schilling: Sicher wird dann der Programmierer des Virus mit zur Verantwortung gezogen werden müssen. Aber es sind auch vom Hersteller Vorkehrungen gegen Viren- oder Hackerangriffe zu treffen. Maschinen können auch Sensorausfälle und andere Fehlfunktionen erkennen und entsprechend reagieren. Aber die Frage ist: Wie weit muss eine solche Selbstdiagnose gehen? Ein Roboter, der sich nur noch mit sich selber beschäftigt, kann keine Aufgaben erfüllen.

Frage: Welches Ziel hat Ihr Projekt?

Schilling: Wir wollen juristische und ethische Grundlagen schaffen, um die Verantwortung bei zunehmend größerer Entscheidungsfähigkeit von Maschinen einzustufen. Solche Rechtssicherheit wird Entwicklern einen Orientierungsrahmen geben.

© Technology Review, Heise Zeitschriften Verlag , Hannover

Das Gespräch führte Udo Flohr.