Ho appena letto un articolo davvero interessante sulla determinazione della responsabilità quando c’è un incidente d’auto che coinvolge un veicolo autonomo. L’articolo presenta alcuni dei risultati di uno studio condotto dalla Columbia Engineering e dalla Columbia Law School che indica che credono di poter usare la teoria dei giochi per determinare la responsabilità in questi casi. Se sei interessato a questo argomento, ti consiglio l’articolo (su Insurance Journal, ovviamente) e raccomando il rapporto su cui si basa.
NOTA: ho letto l’articolo su IJ, non l’intero rapporto di ricerca (ancora).
Uno degli elementi chiave che i ricercatori hanno inserito è stato il rischio morale del conducente umano.
Si presume generalmente che i veicoli autonomi opereranno entro parametri rigorosi, come il limite di velocità della carreggiata. Si può anche cambiare il suo funzionamento in base alla quantità di traffico, il tempo, e altre variabili potenziali. Un veicolo autonomo dovrebbe funzionare in modo molto prevedibile.
I driver umani sono un’altra storia. Mentre normalmente potresti essere in grado di prevedere come il tuo coniuge guiderà in una certa situazione, non puoi prevedere come gli altri piloti intorno a te potrebbero guidare date le condizioni in cui stai guidando.
Ecco una citazione interessante dall’articolo, “Il team ha scoperto che una politica di responsabilità progettata in modo ottimale è fondamentale per aiutare a prevenire che i conducenti umani sviluppino rischi morali e per aiutare il produttore di AV (veicolo autonomo) con un compromesso tra sicurezza del traffico e costi di produzione.”
Non sono sicuro se credono che ci sia un modo per mitigare questi rischi con una politica di responsabilità, ma non è questo il mio punto oggi. Questa citazione mi fa sentire come se avessimo bisogno di affrontare la differenza tra un rischio morale e un rischio morale, perché (spoiler alert) i ricercatori hanno usato il termine giusto, definendolo un rischio morale.
Che cos’è un pericolo?
Secondo il Glossario dei termini assicurativi di Kaplan, un pericolo è una situazione specifica che aumenta la probabilità che si verifichi una perdita derivante da un pericolo o che possa influenzare l’entità della perdita.
È fantastico. Che significa? Un pericolo è tutto ciò che rende più probabile che qualcosa di brutto accadrà o potrebbe peggiorare se succede.
Se tutti nella tua contea sanno che c’è una strada che la highway patrol e il dipartimento dello sceriffo non pattugliano, potrebbe esserci un rischio maggiore di guidare lì a causa della maggiore possibilità che qualcuno possa guidare troppo velocemente.
Se vivi in alcune contee della Florida, hai aumentato i rischi di alcune perdite. Potrebbero essere perdite di vento, perdite d’acqua o perdite di doline, in base alla posizione. La posizione in cui vivi potrebbe aumentare alcuni rischi.
Che cos’è un rischio morale?
Tornando a Kaplan, un rischio morale è una condizione di morale o abitudini che aumenta la probabilità di perdita da un pericolo.
Questo indica che il pericolo proviene da una persona. È il codice morale che operano sotto. Secondo l’Oxford dictionary, la morale è “le norme di comportamento o le credenze di una persona riguardo a ciò che è e ciò che non è accettabile per loro fare.”
Questo ci dice che un rischio morale può essere creato in base a ciò che una persona crede sia il modo giusto di agire in una determinata situazione. Tornando all’articolo allora, l’azzardo morale potrebbe essere le credenze dei conducenti umani mentre interagiscono con i veicoli autonomi.
Kaplan ha anche menzionato le abitudini. Un’abitudine può creare un rischio morale in parte perché costruiamo abitudini basate su ciò che percepiamo come un comportamento accettabile. Questo ci dice che i conducenti umani possono iniziare a prendere uno stile diverso di guida accettabile più che interagiscono con veicoli autonomi.
Che cos’è un pericolo per il morale?
Kaplan (ancora) ci dice che un pericolo morale è un “pericolo derivante dall’indifferenza di un assicurato alla perdita a causa dell’esistenza dell’assicurazione.”
Hai sentito dire che possono guidare in qualsiasi modo vogliano perché “l’auto è assicurata.”Questo è un pericolo per il morale. È una mancanza di cura creata perché sanno che c’è il backup. Cosa potrebbe andare storto? Non saro ‘ ritenuta responsabile. Qualcun altro taglierà l’assegno.
Qual è: un rischio morale o morale?
In questa particolare storia, i ricercatori hanno usato il termine giusto. C’è la possibilità di un cambiamento nell’azzardo morale quando i conducenti umani interagiscono con i veicoli autonomi e quando i nostri veicoli gestiti dall’uomo acquisiscono diversi livelli di autonomia.
Molte persone iniziano guidando con molta cautela, anche con troppa cautela a volte. Si fermano e guardano in entrambe le direzioni quattro o cinque volte prima di entrare nell’incrocio. Guidano appena sotto il limite di velocità. Si assicurano di segnalare ogni cambio di corsia o svolta.
Poi ottengono un po ‘di esperienza sotto le loro cinture e decidono che possono rilassarsi un po’. Cominciano a spingere il limite di velocità. Fanno cambi di corsia più veloci con meno spazio tra i veicoli. Eseguono il classico arresto di rotolamento.
I ricercatori stavano esaminando l’evoluzione delle abitudini di guida umane intorno ai veicoli autonomi e sembravano credere che più i conducenti umani interagiscono con i veicoli autonomi, più a loro agio diventeranno con loro. Il più confortevole ottengono con i veicoli autonomi, meno attenti saranno.
Alla fine, hanno perfettamente compreso l’azzardo morale del comfort dei conducenti con gli altri veicoli intorno a loro.
PS-Sono d’accordo. I conducenti probabilmente si sentiranno troppo a proprio agio con i veicoli autonomi e quindi aumenteranno il potenziale di incidenti.