-- Anzeige --

Moral-Code für Roboterautos?

15.12.2018 10:00 Uhr
Moral-Code für Roboterautos?
Ein Computer habe kein Moralempfinden, warnt der TÜV Nord, sondern entscheide nach Programmierung
© Foto: Daniel Naupold/Keystone/dpa/picture-alliance

Wen soll ein autonomes Fahrzeug schützen, wenn ein Unfall unausweichlich ist? Die „ethischen Leitlinien für das automatisierte Fahren“ geben – nicht eindeutige – Antworten.

-- Anzeige --

Die „ethischen Leitlinien für das automatisierte Fahren“, die laut TÜV Nord 2017 im Auftrag der Bundesregierung verfasst wurden, sollen eine schwierige Frage lösen, die das autonome Fahren aufwerfen kann: Wen soll ein autonomes Fahrzeug schützen, wenn ein Unfall unausweichlich ist? Das Kind oder die Gruppe Erwachsener gegenüber, nur um ein mögliches Dilemma zu nennen?  

Interpretationsspielraum birgt Gefahren

„Bei unausweichlichen Unfallsituationen sei zunächst ein Urteil nach persönlichen Merkmalen wie Alter und Geschlecht strikt untersagt, heißt es da“, zitiert der TÜV Nord aus den Leitlinien. Dort würde unter anderem festgelegt, Tier- oder Sachschäden in Kauf zu nehmen, wenn dadurch Personenschäden vermeidbar seien, und Personen auf dem Gehsteig besonderen Schutz zu gewähren. Denn: „Die an der Erzeugung von Mobilitätsrisiken Beteiligten dürfen Unbeteiligte nicht opfern.“ Aber: Das Aufrechnen von Opfern werde zwar „strikt untersagt“, wie die Prüforganisation feststellt, doch ein „Schlupfloch“ bleibe, wie ein Blick auf den Text der Leitlinien verrät: „Eine allgemeine Programmierung auf eine Minderung der Zahl von Personenschäden kann vertretbar sein.“

„Das lässt Spielraum für Interpretationen“, kommentiert der TÜV Nord. Ein Computer könne aber nur nach den ihm bekannten Regeln entscheiden, „er hat kein Moralempfinden und keinen gesunden Menschenverstand, an denen er sich notfalls orientieren könnte.“ Und noch eine andere Gefahr stelle sich bei unklaren Regeln: „Sie bieten ein Einfallstor für Algorithmen, die dem Leben der Insassen grundsätzlich Priorität einräumen.“

„Egoistischer Moral-Code“ als Marktvorteil?

Von einem solchen „egoistischen“ Moral-Code könnten sich Hersteller einen Marktvorteil versprechen, mutmaßt der TÜV – frei nach dem Motto: Jeder ist sich im Notfall halt selbst der nächste. Denn eine Studie des Massachusetts Institute of Technology (MIT) verriet, dass Menschen es im Prinzip schon für moralischer halten würden, wenn ein Fahrzeug seinen Insassen anstelle von zehn Fußgängern opfere. Aber selbst hätten sie jedoch lieber ein Auto, das zuallererst seine Insassen schütze. Man brauche deshalb einen Moral-Code, nach dem die Fahrzeuge kontrolliert und vorhersehbar entscheiden würden - zugleich aber dürfe dieser Code potenzielle Käufer nicht abschrecken, lautet der Rat des TÜV.

(tc)

-- Anzeige --
-- Anzeige --
-- Anzeige --

KOMMENTARE


SAGEN SIE UNS IHRE MEINUNG

Die qualifizierte Meinung unserer Leser zu allen Branchenthemen ist ausdrücklich erwünscht. Bitte achten Sie bei Ihren Kommentaren auf die Netiquette, um allen Teilnehmern eine angenehme Kommunikation zu ermöglichen. Vielen Dank!

-- Anzeige --

WEITERLESEN




NEWSLETTER

Newsletter abonnieren und keine Branchen-News mehr verpassen.


www.fahrschule-online.de ist das Online-Portal der monatlich erscheinenden Zeitschrift FAHRSCHULE aus dem Verlag Heinrich Vogel. Diese ist das offizielle, überregionale Organ der Bundesvereinigung der Fahrlehrerverbände ist. Im Mittelpunkt der redaktionellen Leistungen stehen die Fragen der Verkehrssicherheit. Technische, wirtschaftliche und verkehrsrechtliche Probleme werden ausgiebig erörtert.

www.fahrschule-online.de bietet ein umfangreiches Internet- Angebot für Fahrschulinhaber und Fahrlehrer mit täglich aktuelle Nachrichten und Produktinformationen sowie Kurzurteile für Fahrschulinhaber und angestellte Fahrlehrer.