¿Quién es responsable de un accidente automovilístico sin conductor?

Police giving alcohol test to drunk driver
¿Por qué y cómo se convirtió .08 en el límite legal de BAC?
diciembre 11, 2019
uninsured motorist insurance
¿Qué es la cobertura para conductores sin seguro y debería obtenerla?
diciembre 11, 2019

¿Quién es responsable de un accidente automovilístico sin conductor?

self driving car accident liability

Los vehículos autónomos, a menudo denominados vehículos autónomos, se están convirtiendo rápidamente en algo común en las carreteras. No sorprende que ya hayan ocurrido accidentes automovilísticos con vehículos autónomos y hayan sido objeto de debates legales y demandas.

Cuando un vehículo autónomo provoca un accidente en el que otro conductor resulta herido o muerto, ¿quién es responsable de sus acciones? El pasajero transportado en el vehículo autónomo probablemente no será responsable de las lesiones que cause el vehículo autónomo a menos que sea responsable de alguna manera.

Si el accidente automovilístico se debió a la falta de mantenimiento adecuado, por ejemplo, y ese mantenimiento era responsabilidad del propietario, entonces el propietario podría ser responsable.

Si el pasajero del vehículo autónomo no seguía las instrucciones de funcionamiento adecuadas, como fue el caso durante El primer accidente mortal con piloto automático de Tesla en mayo de 2016, puede resultar difícil responsabilizar al fabricante por el accidente y las lesiones o muertes resultantes.

En el momento de ese primer accidente, Tesla insistió en que los conductores debían permanecer alerta y estar preparados para tomar el volante en cualquier momento. Desde una perspectiva de responsabilidad, Tesla quería que los clientes vieran las funciones de conducción autónoma más como un asistente de carril que como un vehículo totalmente autónomo.

En la Junta Nacional de Seguridad en el Transporte (NTSB) reporte final, concluyeron que el conductor del camión tenía la culpa, pero también atribuyeron parte de la culpa al conductor del Tesla y a Tesla por utilizar un sistema que permitía a los conductores apartar la vista y concentrarse de la carretera durante un período prolongado de tiempo.

Casos actuales que pueden afectar leyes futuras y precedentes de lesiones personales

En marzo de 2019, un conductor de Tesla Model 3 en Florida murió cuando chocó contra un camión que cruzaba inesperadamente su carril. Este accidente compartió circunstancias situacionales similares con otros tres accidentes fatales que involucraron la función de conducción semiautónoma de Tesla, incluido el primero en mayo de 2016.

Tesla utiliza una combinación de cámaras y radar para guiar sus vehículos autónomos. El sistema ha documentado dificultades para reconocer objetos estáticos y aquellos que se mueven perpendicularmente a ellos, como el accidente de Florida donde un camión giraba lentamente a la izquierda frente a un Tesla que se aproximaba a 68 mph. También se informaron tres accidentes de Tesla en los que los vehículos chocaron contra camiones de bomberos detenidos en 2018.

Cadillac y Audi utilizan sensores de seguimiento ocular especializados en la cabina del vehículo en sus modelos semiautónomos. Estos sensores pueden detectar cuándo un conductor no está prestando atención y utilizan luces indicadoras y sonidos para que los conductores vuelvan a concentrarse en la carretera. Tesla depende del par del volante para saber si el conductor está prestando atención. Como señaló la NTSB en su investigación del primer accidente mortal de Tesla, "El seguimiento del par del volante proporciona un medio sustituto deficiente para determinar el grado de compromiso del conductor del vehículo automatizado con la tarea de conducción".

Es bastante obvio que hay una falla en el software, el hardware o la forma en que se implementan ambos de Tesla. De lo contrario, los vehículos podrían frenar de forma fiable a tiempo y evitar que los objetos estacionados o los vehículos lentos giren delante de ellos.

El otro factor importante que determina la responsabilidad son las expectativas establecidas por la empresa. ¿Tesla anuncia y vende su producto de una manera que brinde a los conductores la expectativa de que pueden poner el automóvil en piloto automático y desconectarlo o desconectarlo de manera segura?

Si Tesla abiertamente o mediante implicación a sus clientes de que sus vehículos son seguros para usar en piloto automático, y resulta que no lo son, entonces Tesla puede ser considerado responsable de las lesiones o muertes que resulten.

En el accidente de marzo de 2019, el conductor del Tesla iba 13 mph por encima del límite de velocidad, pero incluso a esa velocidad, los expertos en reconstrucción de accidentes determinaron que el conductor solo habría necesitado tres segundos para detenerse. Según los datos de Tesla, el conductor no había tocado el volante durante 8 segundos antes del accidente.

Incluso si el camión hizo un giro ilegal delante del Tesla, el conductor del Tesla ciertamente comparte parte de la responsabilidad. Su familia aún podría tener un caso contra Tesla debido a la incapacidad documentada del vehículo para detectar un camión que se movía lentamente en la carretera delante del vehículo y la facilidad con la que el conductor pudo ignorar la carretera y confiar en el piloto automático.

Pensamiento actual sobre la responsabilidad legal de Tesla por las lesiones y muertes de los conductores autónomos

Tesla no promete un rendimiento perfecto del piloto automático, al menos no actualmente. Elon Musk salió y dijo que Los Tesla podrían ser totalmente autónomos a mediados de 2020. Si esa es la posición oficial de la compañía y establecen la expectativa con los clientes de que los conductores de Tesla pueden ignorar la carretera y su Tesla los conducirá solos de manera segura, la compañía podría terminar enfrentando aún más responsabilidad por lesiones o muertes por accidentes de conducción autónoma.

Desde que las funciones de conducción autónoma comenzaron a implementarse en 2016, Tesla ha sido blanco de críticas por parte de expertos en seguridad y otros conductores preocupados que no creen que Tesla haga lo suficiente para garantizar que sus conductores estén atentos. Esto, combinado con ineficiencias documentadas en el software autónomo y el cableado de Tesla, probablemente indican que el sistema no está listo para un despliegue totalmente autónomo.

Como fabricante de vehículos, Tesla tiene un deber para con las personas que compran y comparten la carretera con su producto. Un abogado de accidentes automovilísticos podría argumentar que vender a sabiendas un producto defectuoso y potencialmente peligroso es un incumplimiento de ese deber. Si ese fracaso resulta en lesiones y muertes, no sería una sorpresa que los jueces y jurados comenzaran a fallar en contra de Tesla.

Actualmente hay un proceso demanda por muerte por negligencia Lo trajo la familia de Walter Huang, un ingeniero de Apple que murió cuando su Tesla se salió de la carretera en piloto automático y chocó contra una divisoria de concreto. Su demanda alega que el Model X que conducía Huang tenía un defecto que hacía que se saliera de los carriles y golpeara objetos estacionarios y que la compañía debería haber retirado los vehículos o advertir a los conductores.

Ese caso está en curso, pero podría ser el primero de muchos.

es_MXSpanish