Autonome Fahrzeuge: Die ethischen Betriebsparameter Forschungspapier

Words: 3632
Topic: Andere Technologie

Einführung

Die meisten Autos unserer Zeit befinden sich in den Stufen “1” und “2” der Autonomie. Meistens erfolgt die Steuerung durch den Fahrer, aber auch Tempomat, automatisches Einparken und Ähnliches werden eingesetzt. Große Unternehmen (Google, Toyota, Tesla, Volvo) bemühen sich um eine vollständige Automatisierung der Fahrzeugbewegung. Diese Technologie hat eine hohe Entwicklungsperspektive und wird daher weiter ausgebaut. In den letzten Jahren wurden in der Branche der autonomen Fahrzeuge unglaubliche Fortschritte erzielt. Im Jahr 2014 schlug der Fachverband SAE International eine Klassifizierung unbemannter Fahrzeuge nach dem Grad der Automatisierung vor. Die Klassifizierung umfasst sechs Stufen – von Null bis zur Vollautomatisierung.

Allgemeine Statistiken über autonome Fahrzeuge

Mitte November 2019 berechnete Gartner, wie viele autonome Fahrzeuge in den Jahren 2018 und 2019 erschienen sind. Es stellte sich heraus, dass die Gesamtzahl neuer unbemannter Fahrzeuge im Jahr 2018 137.129 Einheiten betrug und sich im Jahr 2019 auf 332.932 Einheiten verdoppelte (Gartner, 2019). Den Analysten zufolge wird die Zahl der autonomen Autos bis 2023 745.705 Einheiten erreichen. Der Anstieg wird vor allem in Nordamerika, Westeuropa und China zu beobachten sein, da die Länder dieser Regionen die ersten sein werden, die Regeln für unbemanntes Fahren einführen (Dhawan, 2019, S.15). Obwohl die Prognose einen raschen Anstieg der Zahl autonomer Fahrzeuge verspricht, ist es eine Tatsache, dass bis November 2019 in keinem Land der Welt Vorschriften für den legalen Betrieb autonomer Fahrzeuge erlassen worden sind. Die Hersteller sind nicht bereit, in die Entwicklung von Modellen zu investieren, die in absehbarer Zeit nicht auf den Markt kommen können.

Die Verantwortung von Herstellern und Fahrern. Forschungsthese

Das Fehlen von Vorschriften hängt insbesondere mit der Schwierigkeit zusammen, die rechtliche Haftung der Hersteller und Fahrer von autonomen Fahrzeugen zu bestimmen. In ethischer Hinsicht ist die Verantwortung der Hersteller solcher Fahrzeuge natürlich nicht geringer als die Verantwortung von Pharmaunternehmen, da es in beiden Fällen darum geht, die Sicherheit der Menschen zu gewährleisten. Die Erprobung autonomer Fahrzeuge sollte nicht weniger streng sein als klinische Versuche. So wissen die Sensoren und Kameras unbemannter Fahrzeuge trotz zahlreicher Tests noch nicht, wie sie alle Details während der Fahrt erfassen können.

Die rechtliche Verantwortung kann nicht außerhalb der ethischen Parameter des Betriebs unbemannter Fahrzeuge betrachtet werden. Darüber hinaus sollte sich die Entwicklung des Konzepts der rechtlichen Verantwortung auf ethische Bewertungen stützen, zumindest vom Standpunkt der Ethik des Utilitarismus aus. Damit autonome Fahrzeuge zu einem universellen Gut werden, müssen Ingenieure dem System beibringen, wie es schwierige Entscheidungen treffen kann (Li, Zhang, Wang, Li, & Liao, 2018, S. 2-3). Was soll die künstliche Maschinenintelligenz tun, wenn sie vor der Wahl steht: entweder einen Fußgänger überfahren oder gegen einen Laternenpfahl krachen und dabei das Leben des Fahrers gefährden? Wem sollte in diesem Dilemma der Vorrang gegeben werden? In solchen Situationen reagiert der Mensch spontan, aber die Wahl des Fahrzeugs ist ursprünglich programmiert. Die rechtliche Haftung sollte sich also genau an ethischen Parametern orientieren. Angesichts des langwierigen Prozesses der Entwicklung einer Präzedenzfallbasis werden die ethischen Grundsätze für den Betrieb autonomer Fahrzeuge dem Gesetzgeber dabei helfen, angemessene Regelungen für die Aufteilung der Verantwortlichkeiten zwischen dem Hersteller und dem Fahrer für verschiedene Stufen der Fahrzeugautonomie zu entwickeln. Der Umfang der ethischen Betriebsparameter autonomer Fahrzeuge und ihre Auswirkungen auf die Entwicklung und die rechtliche Haftung

Betrieb von autonomen Fahrzeugen

Verschiedene Arten der Automatisierung. Wie bereits erwähnt, wird die Autonomie unbemannter Fahrzeuge, d. h. der Grad ihrer Unabhängigkeit vom Fahrer, auf einer Skala von 0 bis 6 eingestuft. Die “Stufen” werden von SAE International, einem Berufsverband von Automobilingenieuren, festgelegt. Die SAE-Standards wurden von staatlichen Regulierungsbehörden, Ingenieuren, Automobilherstellern und Investoren übernommen (Ryan, 2019, S. 6). Sie beschreiben sechs Automatisierungsstufen: von der absoluten Abwesenheit bis hin zu einem vollautomatischen Steuerungssystem, also einem System, das sich in jeder Situation wie ein qualifizierter Fahrer verhält. Vom autonomen Fahren kann man bereits ab der zweiten Stufe sprechen, auf der das Autopilot-System dem in Passagierflugzeugen verwendeten ähnelt. Das bedeutet, dass man die meiste Zeit den Autopiloten benutzen kann, aber der Fahrer muss die Kontrolle übernehmen, wenn das System nicht alleine zurechtkommt – zum Beispiel in einer Notsituation auf der Straße. Der Autopilot kann jederzeit nach dem Willen des Fahrers ein- oder ausgeschaltet werden und steuert Lenkung, Fahrzeuggeschwindigkeit und Bremsen. Auf Stufe 5 muss der Mensch nichts weiter tun, als den Autopiloten zu starten und ein Ziel zu bestimmen. Mit anderen Worten: Das System der Stufe 5 muss an jeden Ort fahren, an dem ein qualifizierter Fahrer fahren kann, und zwar unter allen Bedingungen, die ein qualifizierter Fahrer bewältigen kann, und zwar völlig unabhängig. Allerdings sind Autos der 5. Automatisierungsstufe nur in den Plänen vieler großer Unternehmen enthalten. Auf den Straßen können oft ungewöhnliche Situationen auftreten, und es stellt sich die logische Frage, ob die künstliche Intelligenz in all diesen Fällen erfolgreich sein kann.

Der Übergang zu autonomen Fahrzeugen und die Herausforderungen im Straßenverkehr. Jean-Francois Bonnefon und seine Kollegen sagen, dass die Menschen im Allgemeinen die Idee unterstützen, dass das Auto in einer kritischen Situation gegen die Wand fahren oder den Fahrer irgendwie opfern muss, um mehr Fußgänger zu retten. Gleichzeitig wollen dieselben Menschen in Autos fahren, die den Fahrer um jeden Preis schützen, auch wenn dies den Tod von Fußgängern zur Folge hat (Bonnefon, Shariff, & Rahwan, 2016). Ein solcher Konflikt bringt die Hersteller computergesteuerter Autos in eine schwierige Lage. Bei der Wahl zwischen einem Auto, das zum Nutzen der Mehrheit programmiert ist, und einem, das den Beifahrer schützen soll, wird sich die große Mehrheit der Käufer für das zweite entscheiden.

Vergleich mit dem menschlichen Entscheidungsprozess in Fahrsituationen. Die Autoren der Studie über das soziale Dilemma autonomer Autos sind der Ansicht, dass es in diesem Bereich weitere schwierige moralische Fragen gibt. Autonome Fahrzeuge werden in Notsituationen Entscheidungen treffen müssen, deren Folgen nicht im Voraus absehbar sind (Merat & Jamson, 2017, S. 514-515). Ist es zum Beispiel zulässig, ein Auto so zu programmieren, dass es einen Zusammenstoß mit einem Motorradfahrer vermeidet, indem es gegen eine Wand fährt? Schließlich hat der Insasse des Autos in diesem Fall eine höhere Überlebenschance als der Motorradfahrer, der mit dem Auto kollidiert. Ein hohes Maß an Prozessautomatisierung ohne vollständige Autonomie kann dem Fahrer ein falsches Gefühl der Sicherheit vermitteln. Das bedeutet, dass es für den Fahrer schwierig sein wird, die Dinge schnell in die Hand zu nehmen, wenn das automatische Kontrollsystem nicht mehr funktioniert. Deshalb bieten die Befürworter der Vollautomatisierung an, so schnell wie möglich zur so genannten vierten Stufe nach der SAE-Klassifizierung überzugehen – Autonomie ohne Beteiligung des Fahrers an der Bewegung in bestimmten Bereichen. Das Auto, das Ford im Jahr 2021 auf den Markt bringen will, wird beispielsweise vollautomatisch sein – es wird weder ein Lenkrad noch ein Bremspedal haben. Das bedeutet, dass der Fahrer nicht mehr die Kontrolle über das Fahrzeug übernehmen muss – es wird wissen, was in jeder Situation zu tun ist (Bagloee, Tavana, Asadi, & Oliver, 2016, S. 288). In diesem Zusammenhang stellt sich die logische Frage nach der Notwendigkeit einer vollständigen Automatisierung von Autos.

Der erste und wichtigste Grund ist der Wunsch, die Sterblichkeit bei Unfällen, die durch Fahrfehler verursacht werden, zu verringern. Der menschliche Faktor ist wichtiger als alle technischen Probleme zusammen (die Bremsen versagten, das Gaspedal klemmte, der Navigator steuerte in den Abgrund usw.). Es sei jedoch daran erinnert, dass auch die künstliche Intelligenz nicht frei von Fehlern ist. Ziehen wir eine Analogie zur Luftfahrt, wo das primäre und wichtigste Problem bei der Entwicklung von Autopiloten auch darin besteht, die Flugsicherheit zu gewährleisten. Im Falle einer Verletzung oder eines Ausfalls des Autopiloten muss das System unbedingt auf die übliche Weise oder mechanisch abgeschaltet werden. Bei der Entwicklung eines Autopiloten wird sorgfältig über Möglichkeiten nachgedacht, ihn im Falle eines Ausfalls ohne Beeinträchtigung des Fluges abzuschalten. Um die Sicherheit zu erhöhen, arbeitet die Steuerungsautomatisierung im Mehrkanalbetrieb. Parallel dazu können vier Pilotensysteme mit denselben Parametern und Fähigkeiten gleichzeitig arbeiten. Das System analysiert und überwacht außerdem kontinuierlich die eingehenden Informationssignale. Der Flug wird auf der Grundlage der sogenannten Quorumation-Methode durchgeführt, die darin besteht, Entscheidungen auf der Grundlage der Daten der meisten Systeme zu treffen (Cusick, Cortes, & Rodrigues, 2017, S. 26). Im Falle eines Ausfalls ist der Autopilot in der Lage, selbstständig einen weiteren Kontrollmodus zu wählen. Dies kann ein Wechsel zu einem anderen Steuerkanal oder eine Übergabe der Kontrolle an den Piloten sein. Um den Betrieb der Systeme zu überprüfen, ist es notwendig, den so genannten Preflight Run der Systeme durchzuführen. Dieser Test besteht darin, ein schrittweises Programm zu starten, das Flugsignale emuliert. Ob ein solcher Lauf vor dem Beginn der Bewegung des unbemannten Fahrzeugs durchgeführt wird, ist eine rhetorische Frage. Darüber hinaus ist es von entscheidender Bedeutung, ob für den Piloten eines autonomen Fahrzeugs im Falle eines Notfalls oder einer Panne eine automatische Übertragungskontrolle vorgesehen ist. Anders als beispielsweise bei einem Triebwerksausfall in einem Flugzeug gibt ein bei voller Fahrt geplatzter Reifen keine Zeit zum “Nachdenken” und zum Ergreifen von Maßnahmen – wenn sich das Fahrzeug mit hoher Geschwindigkeit bewegt und eines der Räder zerstört wird, ist es fast unmöglich, eine sofortige Katastrophe zu vermeiden.

Ethische Parameter für autonome Fahrzeuge

Bei der Einführung unbemannter Fahrzeuge traten echte Probleme auf, die von Analysten nur vorhergesagt worden waren. Im Februar 2017 verunglückte ein Auto mit einem von Google entwickelten autonomen Steuersystem leicht. Der Lexus RX450h umfuhr ein Hindernis auf der Straße und berührte einen in der Nähe fahrenden Bus, da das System die möglichen Aktionen seines Fahrers falsch berechnete und entschied, dass er ausweichen würde. Google gab daraufhin seine Mitschuld an dem Vorfall zu und erklärte, dass es in diesem Zusammenhang Änderungen an der Software seiner Fahrzeuge vorgenommen habe. Im Mai desselben Jahres kam es zu einem tödlichen Unfall mit einem Tesla-Auto, das mit eingeschalteter Autopilot-Funktion unterwegs war (Martinez-Dias & Soriguera, 2018, S. 177). Dieser Fall wird die Diskussion und Entwicklung von gesetzlichen Bestimmungen und Vorschriften sowie ethischen Konzepten für den Betrieb autonomer Fahrzeuge nur verstärken.

Aufgrund der Fehler von Autopiloten in Flugzeugen kam es zu zahlreichen Abstürzen und Unfällen, bei denen Menschen ums Leben kamen. Leider ist die Geschichte der Flugzeugabstürze, die durch automatische Steuerungssysteme verursacht wurden, sehr reich an Fakten über die Unzuverlässigkeit solcher Systeme, und das trotz der sehr strengen Grundsätze der Zertifizierung solcher Systeme und der staatlichen Regulierung in dieser Branche (Cusick, Cortes, & Rodrigues, 2017, S. 64). Dies lässt auch Zweifel an der Zuverlässigkeit von Autopiloten in Autos aufkommen, da in diesem Fall der starke Wettbewerb in der Branche, der die Automobilhersteller dazu zwingt, neue Modelle so schnell wie möglich auf den Markt zu bringen, zu einer Verringerung der Zeit und der Kosten für Forschung und Entwicklung, einschließlich Autopiloten, führt. Das Streben nach größeren Gewinnen und die Eroberung eines größeren Marktsegments können Sicherheitsbedenken in den Hintergrund drängen.

Bei der Programmierung unbemannter Autos lösen Wissenschaftler ein Dilemma: ein Auto so zu programmieren, dass es Fahrer oder Fußgänger rettet. Autonome Autos können die Transportindustrie revolutionieren, aber sie stellen ein soziales und moralisches Dilemma dar, das die Verbreitung dieser Technologie verlangsamen kann (Bagloee et al., 2016, S. 286) Das Ziel der Erfinder unbemannter Fahrzeuge – den Autoverkehr sicherer und effizienter zu machen – ist edel, aber naiv. Hunderte von Nuancen der Bewegung auf den Straßen eines bestimmten Landes und sogar einer bestimmten Stadt spielen eine Rolle, die sich nicht auf die Aufgabe der Steigerung der Effizienz der Bewegung reduzieren lässt. Forscher haben Meinungen darüber eingeholt, von welchen moralischen Grundsätzen sich selbstfahrende Autos in Notsituationen leiten lassen sollten, wenn es unmöglich ist, menschliche Opfer zu vermeiden, und man sich für das “geringere Übel” entscheiden muss. Die Befragten aus verschiedenen Ländern waren sich in vielen Punkten uneinig, z. B. bei der Frage, ob die Rettung von Kindern, Frauen oder Personen, die sich an die Regeln des Straßenverkehrs halten, im Vordergrund stehen sollte. Die festgestellten Unterschiede korrelieren mit den bekannten wirtschaftlichen und kulturellen Merkmalen der Länder und Regionen (Holstein, 2018). Die Studie zeigt, dass die Entwicklung eines universellen “moralischen Gesetzes” für selbstfahrende Maschinen nicht einfach ist. Es ist unklar, wie sich selbstfahrende Autos in Notsituationen verhalten sollten, wenn die Risikoverteilung zwischen Menschen von der Entscheidung der künstlichen Intelligenz abhängt. Es ist zu erwarten, dass autonome Fahrzeuge seltener in solche Situationen geraten werden als Autos, die von menschlichen Fahrern gesteuert werden. Dennoch wird dies manchmal zwangsläufig geschehen, was bedeutet, dass die künstliche Intelligenz bereit sein muss, moralische Dilemmas im Sinne des berühmten “Trolley-Problems” zu lösen.

In einer Reihe anderer Studien zum “Trolley-Problem” im Zusammenhang mit unbemannten Fahrzeugen stellte sich heraus, dass die Mehrheit der Befragten im Allgemeinen den sogenannten utilitaristischen Ansatz unterstützte, d. h. in jeder Situation eine Lösung befürwortete, die zu einer minimalen Anzahl von Opfern führen würde. Gleichzeitig wurde die Verabschiedung einer solchen Entscheidung in Form eines Gesetzes von weniger Teilnehmern befürwortet, insbesondere wenn es um ihr Auto und nicht um die Situation “als Ganzes” ging (Anderson et al., 2016, S.8). Um dieses Problem zu lösen, wird auf den ersten Blick eine einfache Lösung vorgeschlagen: Ein Auto muss sich auch in Notfällen strikt an die Verkehrsregeln halten. Um jedoch wieder eine Analogie zur Luftfahrt zu ziehen, sei daran erinnert, dass es in den Richtlinien der Fluggesellschaften eine Klausel gibt, die besagt, dass der Pilot, der das Flugzeug fliegt, das Recht hat, von jeglichen Anweisungen abzuweichen, wenn er auf der Grundlage von Erfahrung und Wissen und im Hinblick auf die Durchführung des Fluges handelt. Der menschliche Faktor, oder besser gesagt, die menschliche Intelligenz und ihre Kreativität können das Leben der Passagiere retten, was ein Bordcomputer weder in einem Flugzeug noch in einem Auto leisten kann.

Der Faktor Mensch beeinflusst die Navigation unbemannter Fahrzeuge viel stärker, als es den Anschein hat, auch im negativen Sinne. Ingenieure haben den Autos beigebracht, die Verkehrsregeln zu befolgen, aber sie wissen nicht, wie sie auf Verstöße anderer Fahrer richtig reagieren sollen (Cunningham & Regan, 2015). Wenn jemand zu schnell fährt oder das Auto “abschneidet”, kann dies aufgrund fehlender geeigneter Algorithmen zu einem Navigationsfehler führen. In Zukunft kann dieses Problem mit Hilfe der V2V-Technologie (Vehicle to Vehicle) gelöst werden. Dieser Dienst hilft nämlich Flugzeugen, Kollisionen zu vermeiden: Sie tauschen Informationen über ihre Position, Geschwindigkeit und Richtung aus. Allerdings befindet sich ein analoger Dienst für Kraftfahrzeuge derzeit erst in der Entwicklung. Außerdem wird die Technologie nur dann Wirkung zeigen, wenn die überwiegende Mehrheit der Autos auf den Straßen damit ausgestattet ist.

Gesetzliche Haftung

Neben den technologischen Herausforderungen müssen für den Übergang zum Masseneinsatz von autonomen Fahrzeugen auch viele Fragen auf der Ebene der gesetzlichen Regelungen geklärt werden. Es werden normative Dokumente benötigt, die die grundlegenden technologischen und rechtlichen Konzepte in diesem Bereich definieren, die Möglichkeiten des Einsatzes solcher Technologien im Allgemeinen, die Verantwortung im Falle von Zwischenfällen mit unbemannten Fahrzeugen usw. regeln.

Das Problem der rechtlichen Regulierung von autonomen Fahrzeugen kann alle Vorteile zunichte machen. Aufgrund der Notwendigkeit einer rechtlichen Regelung ist es notwendig, die Zusammensetzung von Ordnungswidrigkeiten und Straftaten im Zusammenhang mit der Nutzung unbemannter Fahrzeuge zu bestimmen (Ryan, 2019, S. 18). Darüber hinaus ist es erforderlich, die Subjekte der zivilrechtlichen Haftung für durch unbemannte Fahrzeuge verursachte Sachschäden zu ermitteln. All diese Probleme bleiben ungelöst und erfordern die Entwicklung eines neuen Rechtsrahmens, der diese Seite regelt.

In der einen oder anderen Form wurden in einigen Ländern bereits Regulierungsdokumente in diesem Bereich vorgelegt oder werden derzeit erarbeitet. Die Vereinigten Staaten sind hier besonders weit fortgeschritten: Nevada war 2011 der erste Staat des Landes, der damit begann, die Nutzung autonomer Fahrzeuge auf den Straßen und Fragen im Zusammenhang mit ihrer Versicherung, Sicherheit und Prüfung zu regeln (Smith, 2014, S. 415). Der Gesetzgeber von Arizona in den Vereinigten Staaten versuchte, ein Gesetz zu verabschieden, das den Einsatz unbemannter Fahrzeuge auf staatlichen Straßen regelt. Sie konnten jedoch das Kernproblem nicht lösen: Wer sollte für den Unfall verantwortlich sein, der sich unter Beteiligung des autonomen Fahrzeugs ereignet hat: der Eigentümer des Fahrzeugs, das Unternehmen, das die Technologie entwickelt hat, oder der Autohersteller, der das Fahrzeug hergestellt und verkauft hat? In Kalifornien gaben die Behörden im Dezember 2015 vorläufige Regeln für unbemannte Fahrzeuge bekannt. Die Festlegung dieser Regeln in Form eines Gesetzes ist notwendig, bevor eines der Fahrzeuge an Verbraucher verkauft werden kann. Sie verlangen von den Fahrern, dass sie im Bedarfsfall bereit sind, die vollständige Kontrolle über ihr Auto zu übernehmen. Die von der kalifornischen Automobilbehörde vorgeschlagenen Vorschriften legen nahe, dass der Fahrer für die Einhaltung der Verkehrsregeln verantwortlich bleibt, unabhängig davon, ob er das Fahrzeug fährt oder nicht.

Der Gesetzgeber schlägt auch vor, einen Teil der Verantwortung auf den Betreiber des autonomen Fahrzeugs zu übertragen (Ryan, 2019, S. 19). Der Fahrer ist der Beifahrer, aber das Recht auf völlige Passivität wird ihm nicht so bald zuerkannt werden. Wenn der Fahrer eine gefährliche Situation und unlogische Handlungen des Autopiloten sieht, ist es seine Pflicht, einzugreifen und zu versuchen, die Gefahr zu vermeiden. Es besteht ein Widerspruch: Die Technik bietet Entspannung an, und das Gesetz bleibt in der Schwebe. Auch die Frage nach der Verantwortung von Menschen mit Behinderungen bleibt offen.

Die strafrechtliche Verfolgung eines Unfalls, der durch ein teilautonomes Fahrzeug verursacht wurde, unterscheidet sich nicht von der Situation, wenn der Unfall unter Beteiligung des Fahrzeugs und unter der Kontrolle des Fahrers passiert. Das Vorhandensein eines Autopiloten kann sich nur dann auf die Frage der Verantwortlichkeit auswirken, wenn der Hersteller eine vollständige Autonomie des Fahrzeugs behauptet, ohne dass eine menschliche Kontrolle für eine sichere Fahrt erforderlich ist. In diesem Fall kann die Tatsache eines Unfalls aufgrund eines Fehlers des Autopiloten die Grundlage für die zivilrechtliche Haftung – Schadensersatz – der Hersteller sowie für die Verurteilung von Personen sein, die sich eines Fehlers schuldig gemacht haben. Hier geht es darum, die Verantwortung vom Eigentümer des Fahrzeugs auf den Hersteller und die verantwortlichen Personen zu übertragen. Einige Autoren haben vorgeschlagen, dass die Hersteller für Personenschäden, die durch fahrerlose Autos verursacht werden, “strikt haften” sollten (Hubbard, 2015, S. 1867). Nie zuvor waren die Hersteller mit der Notwendigkeit konfrontiert, Autos zu produzieren, die vor Unfällen oder Fehlern anderer Fahrer geschützt sind. Bei autonomen Autos stellt sich die Frage nach der Korrektheit der “Entscheidungen”, die das Auto auf der Grundlage der in ihm festgelegten Algorithmen trifft. Solange die Fahrzeuge die Anwesenheit eines Fahrers erfordern, sollte ein unsachgemäßer Betrieb des Autopiloten nicht als unfallverursachender Fehler angesehen werden. Das Vorhandensein eines Autopiloten sollte keinen Einfluss auf die Regeln der Verantwortlichkeit haben, die für Unfälle mit einem herkömmlichen Auto gelten. Eine Ausnahme kann die Situation sein, in der der Besitzer eines Fahrzeugs mit Autopilot nachweist, dass er nichts von der Notwendigkeit wusste, es ständig zu überwachen.

Unbemannte Fahrzeuge eröffnen eine neue rechtliche Welt. Bei gewöhnlichen Autos liegt die Verantwortung für den Vorfall wahrscheinlich bei der Person, die im Auto sitzt. Bei einem unbemannten Fahrzeug handelt es sich jedoch um einen Hardware-Software-Komplex, auf den viele Parteien Einfluss nehmen, erklären die Experten: der Hersteller des Fahrzeugs selbst oder der speziellen Ausrüstung, der Entwickler des Systems der künstlichen Intelligenz für das Fahrzeug, der Dienst und der Eigentümer des Fuhrparks, dem das Fahrzeug zuzuordnen ist. Es wird nicht einfach sein, den Schuldigen unter ihnen zu finden.

Es gibt bereits Risikoversicherungsangebote für Fahrer von unbemannten Fahrzeugen. Der Beifahrer (“Fahrer”) sichert seine Haftung im Falle eines Vorfalls sowie sein Leben und seine Gesundheit ab. Eine solche Versicherung hat zwei Funktionen: Sie ermöglicht (insbesondere bei den früheren Versionen) eine entspannte Fahrt und schützt die Hersteller unbemannter Fahrzeuge vor Schadensersatzansprüchen – in diesem Fall übernehmen die Versicherungsgesellschaften die Verantwortung. Das Europäische Parlament schlägt vor, über einen besonderen Rechtsstatus der elektronischen Persönlichkeit für komplexe Roboter nachzudenken, die eigenständige Entscheidungen treffen – dann können sie für die von ihnen verursachten Schäden haftbar gemacht werden. Einer der Vorschläge der Europaabgeordneten ist die Schaffung eines speziellen Fonds, analog zur Kfz-Versicherung, aus dem Schäden ersetzt werden, wenn kein üblicher Versicherungsschutz besteht. Das Europäische Parlament hat die Versicherungsunternehmen aufgefordert, neue Produkte zu entwickeln, die der Entwicklung der Robotik entsprechen (Ryan, 2019). Derzeit deckt die Autoversicherung nur menschliche Handlungen und Fehler ab, und das Versicherungssystem für Roboter sollte alle möglichen Haftungen berücksichtigen.

Es sei darauf hingewiesen, dass die Einführung innovativer Technologien in jedem Bereich unseres Lebens Veränderungen mit sich bringt, auch im Bereich des Rechts. Dementsprechend ist es notwendig, dass die rechtliche Regelung dieses Bereichs den tatsächlichen technischen Auswirkungen voraus ist und dass sie mit einer vernünftigen Regelung und dem Schutz der Interessen der Subjekte der verschiedenen Rechtsbeziehungen die Entwicklung fortgeschrittener Technologien im Interesse und unter der Kontrolle des menschlichen Geistes nicht behindert, sondern fördert.

Schlussfolgerung

Die Forschung auf dem Gebiet der ethischen und rechtlichen Auswirkungen der Verbreitung und Entwicklung autonomer Fahrzeuge lässt den Schluss zu, dass dies heute einer der unsichersten und schwierigsten Bereiche sowohl für die Ethik als auch für die Justiz ist. Sowohl die Entwicklung eines universellen “moralischen Gesetzes” für selbstfahrende Maschinen, das den Algorithmus für das Handeln in einer kritischen Situation klar definiert, als auch die Entwicklung der notwendigen Gesetzgebung ist sehr schwierig und sogar etwas festgefahren. Ein Vergleich mit der Luftfahrtindustrie legt jedoch nahe, dass es ratsam ist, vom Fahrer zu verlangen, dass er die Situation während der Fahrt überwacht und in der Lage ist, den Autopiloten bei Bedarf abzuschalten und die Kontrolle zu übernehmen.

Der Fahrerkomfort sollte nicht über die öffentliche Sicherheit gestellt werden. Die Produktion von Fahrzeugen ohne Lenkrad und Pedale (was der fünften Autonomiestufe entspricht und von allen namhaften Automobilherstellern angestrebt wird) erscheint daher zumindest in naher Zukunft nicht praktikabel. Darüber hinaus wird dies das Problem der gesetzlichen Regelung im Bereich der unbemannten Fahrzeuge vereinfachen, da die Verantwortlichkeiten zwischen dem Fahrer und dem Automobilhersteller klar verteilt werden. Die Blackbox-Daten werden in jedem Fall dazu beitragen, die Unfallursache zu ermitteln. Darüber hinaus können damit die oben beschriebenen ethischen Dilemmata der KI-Entscheidungsfindung beseitigt werden. Die Erfahrungen aus der Luftfahrt können eine solide Grundlage für die Betrachtung der ethischen und rechtlichen Implikationen autonomer Fahrzeuge bilden.

In dem Maße, in dem sich die autonome Fahrzeugtechnologie ausbreitet und immer beliebter wird, müssen Hersteller und Gesetzgeber zusammenarbeiten, um ethische Grenzen und Möglichkeiten zu schaffen, die mit den rechtlichen Verpflichtungen in den jeweiligen Rechtsordnungen in Einklang stehen, um Sicherheit und eine effiziente Umsetzung zu gewährleisten.

Referenzen