Ich habe gerade einen wirklich interessanten Artikel über die Bestimmung der Haftung bei einem Autounfall mit einem autonomen Fahrzeug gelesen. Der Artikel präsentiert einige der Ergebnisse einer Studie von Columbia Engineering und Columbia Law School, die darauf hindeutet, dass sie glauben, dass sie die Spieltheorie verwenden können, um die Haftung in diesen Fällen zu bestimmen. Wenn Sie sich für dieses Thema interessieren, empfehle ich den Artikel (natürlich im Insurance Journal) und den Bericht, auf dem er basiert.
HINWEIS: Ich habe den Artikel über IJ gelesen, nicht den gesamten Forschungsbericht (noch).
Eines der Schlüsselelemente, auf die die Forscher eingegangen sind, war das moralische Risiko des menschlichen Fahrers.
Es wird allgemein angenommen, dass autonome Fahrzeuge innerhalb strenger Parameter wie der Geschwindigkeitsbegrenzung der Fahrbahn arbeiten. Es kann auch seinen Betrieb basierend auf der Menge des Verkehrs, des Wetters und anderer potenzieller Variablen ändern. Ein autonomes Fahrzeug sollte sehr vorhersehbar funktionieren.
Menschliche Fahrer sind eine andere Geschichte. Während Sie normalerweise vorhersagen können, wie Ihr Ehepartner in einer bestimmten Situation fahren wird, können Sie nicht vorhersagen, wie die anderen Fahrer in Ihrer Umgebung unter den Bedingungen fahren werden, unter denen Sie fahren.
Hier ist ein interessantes Zitat aus dem Artikel: „Das Team stellte fest, dass eine optimal gestaltete Haftpflichtversicherung entscheidend ist, um zu verhindern, dass menschliche Fahrer moralische Gefahren entwickeln, und um den AV-Hersteller (Autonomous Vehicle) bei einem Kompromiss zwischen Verkehrssicherheit und Produktionskosten zu unterstützen.“Ich bin mir nicht sicher, ob sie glauben, dass es eine Möglichkeit gibt, diese Risiken mit einer Haftpflichtversicherung zu mindern, aber das ist heute nicht mein Punkt. Dieses Zitat gibt mir das Gefühl, dass wir den Unterschied zwischen einem moralischen Risiko und einem moralischen Risiko ansprechen müssen, weil (Spoiler-Alarm) die Forscher den richtigen Begriff verwendeten und ihn als moralisches Risiko bezeichneten.
Was ist eine Gefahr?
Nach Kaplans Glossary of Insurance Terms ist eine Gefahr eine spezifische Situation, die die Wahrscheinlichkeit des Eintretens eines Schadens aufgrund einer Gefahr erhöht oder das Ausmaß des Schadens beeinflussen kann.
Das ist toll. Was bedeutet das? Eine Gefahr ist alles, was es wahrscheinlicher macht, dass etwas Schlimmes passiert oder es schlimmer machen könnte, wenn es passiert.
Wenn jeder in Ihrem Landkreis weiß, dass es eine Straße gibt, die die Highway Patrol und die Sheriff’s Department nicht patrouillieren, besteht möglicherweise eine erhöhte Gefahr, da dort die Möglichkeit besteht, dass jemand zu schnell fährt.
Wenn Sie in einigen Grafschaften in Florida leben, haben Sie ein erhöhtes Risiko für bestimmte Verluste. Je nach Standort kann es sich um Windverluste, Wasserverluste oder Dolinenverluste handeln. Der Ort, an dem Sie leben, kann bestimmte Gefahren erhöhen.
Was ist ein Moral Hazard?Zurück zu Kaplan, ist ein Moral Hazard ein Zustand der Moral oder Gewohnheiten, der die Wahrscheinlichkeit des Verlustes aus einer Gefahr erhöht.
Dies zeigt an, dass die Gefahr von einer Person ausgeht. Es ist der Moralkodex, unter dem sie operieren. Laut dem Oxford Dictionary, Moral sind „Verhaltensstandards oder Überzeugungen einer Person in Bezug auf das, was für sie akzeptabel ist und was nicht.“Dies sagt uns, dass ein moralisches Risiko geschaffen werden kann, basierend auf dem, was eine Person glaubt, ist der richtige Weg, um in einer bestimmten Situation zu handeln. Zurück zum Artikel dann könnte das moralische Risiko der Glaube der menschlichen Fahrer sein, wenn sie mit den autonomen Fahrzeugen interagieren.
Kaplan erwähnte auch Gewohnheiten. Eine Gewohnheit kann zum Teil ein moralisches Risiko darstellen, weil wir Gewohnheiten aufbauen, die auf dem basieren, was wir als akzeptables Verhalten wahrnehmen. Das sagt uns, dass menschliche Fahrer beginnen können, eine andere Art des autonomen Fahrens zu nehmen, je mehr sie mit autonomen Fahrzeugen interagieren.
Was ist ein Moralrisiko?
Kaplan sagt uns (wieder), dass ein Moralrisiko ein „Risiko ist, das sich aus der Gleichgültigkeit eines Versicherten gegenüber Verlusten aufgrund der Existenz einer Versicherung ergibt.“
Sie haben Leute sagen hören, dass sie fahren können, wie sie wollen, weil „das Auto versichert ist.“ Das ist ein moralisches Risiko. Es ist ein Mangel an Sorgfalt, weil sie wissen, dass es Backup gibt. Was könnte schief gehen? Ich werde nicht zur Verantwortung gezogen werden. Jemand anderes wird den Scheck kürzen.
Was ist es: ein moralisches oder moralisches Risiko?
In dieser speziellen Geschichte verwendeten die Forscher den richtigen Begriff. Es besteht die Möglichkeit einer Änderung des Moral Hazard, da menschliche Fahrer mit autonomen Fahrzeugen interagieren und unsere von Menschen betriebenen Fahrzeuge unterschiedliche Autonomiegrade erlangen.
Viele Menschen beginnen damit, sehr vorsichtig zu fahren, manchmal sogar zu vorsichtig. Sie halten an und schauen vier oder fünf Mal in beide Richtungen, bevor sie die Kreuzung betreten. Sie fahren knapp unter dem Tempolimit. Sie signalisieren jeden Spurwechsel oder Abbiegen.
Dann sammeln sie ein wenig Erfahrung und entscheiden, dass sie sich ein wenig entspannen können. Sie beginnen, das Tempolimit zu überschreiten. Sie machen schnellere Spurwechsel mit weniger Platz zwischen den Fahrzeugen. Sie führen den klassischen Rollstopp durch.Die Forscher untersuchten die Entwicklung der menschlichen Fahrgewohnheiten rund um autonome Fahrzeuge und schienen zu glauben, dass je mehr menschliche Fahrer mit autonomen Fahrzeugen interagieren, desto komfortabler werden sie mit ihnen. Je komfortabler sie mit den autonomen Fahrzeugen umgehen, desto weniger vorsichtig werden sie sein.
Am Ende haben sie das moralische Risiko des Komforts der Fahrer mit den anderen Fahrzeugen um sie herum perfekt verstanden.
PS – Ich stimme zu. Fahrer werden sich mit autonomen Fahrzeugen wahrscheinlich zu wohl fühlen und dadurch das Unfallpotenzial erhöhen.