Acabo de leer un artículo muy interesante sobre la determinación de la responsabilidad cuando hay un accidente automovilístico que involucra un vehículo autónomo. El artículo presenta algunos de los hallazgos de un estudio realizado por Columbia Engineering y Columbia Law School que indica que creen que pueden usar la teoría de juegos para determinar la responsabilidad en esos casos. Si está interesado en ese tema, le recomiendo el artículo (en el Diario de seguros, por supuesto) y le recomiendo el informe en el que se basa.
NOTA: Leí el artículo sobre IJ, no todo el informe de investigación (todavía).
Uno de los elementos clave que los investigadores apuntaron fue el riesgo moral del conductor humano.
Generalmente se asume que los vehículos autónomos operarán dentro de parámetros estrictos, como el límite de velocidad de la carretera en la que se encuentra. También puede cambiar su funcionamiento en función de la cantidad de tráfico, el clima y otras variables potenciales. Un vehículo autónomo debe funcionar de manera muy predecible.
los conductores Humanos son otra historia. Si bien es posible que normalmente pueda predecir cómo conducirá su cónyuge en una situación determinada, no puede predecir cómo conducirán los otros conductores a su alrededor dadas las condiciones en las que está conduciendo.
Aquí hay una cita interesante del artículo, «El equipo descubrió que una política de responsabilidad civil diseñada de manera óptima es fundamental para ayudar a evitar que los conductores humanos desarrollen riesgo moral y para ayudar al fabricante de vehículos autónomos (AV) con una compensación entre la seguridad del tráfico y los costos de producción.»
No estoy seguro de si creen que hay una manera de mitigar estos riesgos con una póliza de responsabilidad civil, pero ese no es mi punto hoy. Esta cita me hace sentir que necesitamos abordar la diferencia entre un riesgo moral y un riesgo moral, porque (alerta de spoiler) los investigadores usaron el término correcto, llamándolo un riesgo moral.
¿Qué es un peligro?
De acuerdo con el Glosario de Términos de Seguros de Kaplan, un peligro es una situación específica que aumenta la probabilidad de que ocurra una pérdida derivada de un peligro o que puede influir en el alcance de la pérdida.
Eso es genial. ¿Qué significa eso? Un peligro es cualquier cosa que hace que sea más probable que suceda algo malo o que lo empeore si sucede.
Si todos en su condado saben que hay una carretera que la patrulla de carreteras y el departamento del sheriff no patrullan, puede haber un mayor riesgo de conducir allí debido a la mayor posibilidad de que alguien conduzca demasiado rápido.
Si vive en algunos condados de Florida, tiene un mayor riesgo de sufrir ciertas pérdidas. Pueden ser pérdidas de viento, pérdidas de agua o pérdidas de sumidero, según la ubicación. La ubicación en la que vives podría aumentar ciertos riesgos.
¿Qué es un riesgo moral?
Volviendo a Kaplan, un riesgo moral es una condición de moral o hábitos que aumenta la probabilidad de pérdida de un peligro.
Esto indica que el peligro proviene del interior de una persona. Es el código moral bajo el que operan. De acuerdo con el diccionario Oxford, la moral es «los estándares de comportamiento o creencias de una persona con respecto a lo que es y lo que no es aceptable para ellos.»
Esto nos dice que se puede crear un riesgo moral basado en lo que una persona cree que es la forma correcta de actuar en una situación dada. Volviendo al artículo, el riesgo moral podría ser las creencias de los conductores humanos mientras interactúan con los vehículos autónomos.
Kaplan también mencionó hábitos. Un hábito puede crear un riesgo moral en parte porque construimos hábitos basados en lo que percibimos como un comportamiento aceptable. Eso nos dice que los conductores humanos pueden comenzar a adoptar un estilo diferente de conducción aceptable cuanto más interactúen con vehículos autónomos.
¿Qué es un peligro para la moral?
Kaplan (de nuevo) nos dice que un riesgo moral es un «riesgo que surge de la indiferencia de un asegurado a la pérdida debido a la existencia de un seguro.»
Has escuchado a la gente decir que pueden conducir de la manera que quieran porque, » el auto está asegurado.»Es un peligro para la moral. Es una falta de cuidado creada porque saben que hay respaldo. ¿Qué podría salir mal? No voy a ser responsable. Alguien más cortará el cheque.
¿Cuál es: un peligro moral o moral?
En esta historia en particular, los investigadores usaron el término correcto. Existe la posibilidad de un cambio en el riesgo moral a medida que los conductores humanos interactúan con vehículos autónomos y nuestros vehículos operados por humanos ganan diferentes niveles de autonomía.
Muchas personas comienzan conduciendo con mucha cautela, incluso con demasiada cautela a veces. Se detienen y miran hacia ambos lados cuatro o cinco veces antes de entrar en la intersección. Conducen por debajo del límite de velocidad. Se aseguran de señalar cada cambio de carril o giro.
Luego obtienen un poco de experiencia en sus cinturones y deciden que pueden relajarse un poco. Comienzan a empujar el límite de velocidad. Hacen cambios de carril más rápidos con menos espacio entre vehículos. Realizan la parada rodante clásica.
Los investigadores estaban investigando la evolución de los hábitos de conducción humanos en torno a los vehículos autónomos y parecían creer que cuanto más interactúan los conductores humanos con los vehículos autónomos, más cómodos se sentirán con ellos. Cuanto más cómodos se sientan con los vehículos autónomos, menos cuidadosos serán.
Al final, entendieron perfectamente el riesgo moral de la comodidad de los conductores con los otros vehículos a su alrededor.
PS-Estoy de acuerdo. Es probable que los conductores se sientan demasiado cómodos con los vehículos autónomos y, por lo tanto, aumenten el potencial de accidentes.