El siguiente artículo fue escrito por Matt Murphy y tommy murphy of Murphy Law Firm para la edición de otoño de 2020 de Tendencias de prueba. Tendencias de prueba es una publicación del Asociación de Abogados Litigantes de Montana.
I. INTRODUCCIÓN:
Numerosos fabricantes de automóviles y empresas de tecnología están desarrollando sistemas de conducción automatizados. Cada año estas empresas salen con nuevas tecnologías que buscan reducir el “factor humano” en la conducción. Todas estas empresas comparten el mismo objetivo: vehículos totalmente autónomos (AV).
Según el informe anual de 2018 de la Administración Nacional de Seguridad del Tráfico en las Carreteras, aproximadamente 37,000 personas murieron en colisiones de vehículos motorizados ese año y otros 2.7 millones resultaron heridas. El Departamento de Transporte de los Estados Unidos estima que el error humano representó el 94% de estos accidentes. Estas estadísticas son ampliamente citadas por los defensores de la tecnología AV, y es fácil respaldar una causa que puede eliminar el 94% de las lesiones y muertes innecesarias. Sin embargo, junto con los beneficios potenciales, también se pueden percibir los problemas inevitables, especialmente en el sector legal. ¿Cómo regulamos los AV? ¿Quién tendrá la culpa en caso de colisión? ¿Cómo recuperará una parte lesionada sus daños?
II. NIVELES DE AUTOMATIZACIÓN:
El Departamento de Transporte de EE. UU. Adoptó la clasificación de seis niveles de automatización de conducción de la Sociedad de Ingenieros Automotrices (SAE). Este esquema de clasificación se acepta actualmente en el gobierno y las industrias. [ 1 ]
Como se describió anteriormente, la “conducción automatizada” (niveles SAE 3-5) son vehículos que no requieren intervención humana para operar de forma segura. Algunos ejemplos incluyen robotaxis, autobuses automatizados, camiones automatizados y vehículos autónomos de uso personal. Actualmente, se están desarrollando vehículos que califican como Nivel 4, pero aún no están disponibles para el público en general.
Los vehículos de “conducción manual” (niveles SAE 0 - 2) están actualmente disponibles para el público en general. Los niveles SAE 0-2 no son completamente autónomos y requieren que un conductor humano monitoree el entorno de conducción y esté listo para tomar el control en cualquier momento para garantizar la seguridad.[ 2 ] Los vehículos manuales más avanzados (Nivel 2) están equipados con sistemas de asistencia al conductor que permiten que el vehículo controle la dirección y el frenado / aceleración simultáneamente sin intervención humana. Estas tecnologías incluyen frenado automático de emergencia, control de crucero adaptativo, mantenimiento de carril y "piloto automático" limitado.
Existe un concepto erróneo generalizado con respecto a la tecnología AV actualmente disponible. Esto se debe en parte a la publicidad corporativa. Probablemente el fabricante más conocido de la industria, Tesla, declaró en un comunicado de prensa en 2018 que todos sus vehículos estaban equipados con tecnología para que fueran "autónomos" y "son más seguros que los conductores humanos". Sin embargo, la tecnología de piloto automático de Tesla requiere control humano (Nivel 2). Como se analiza a continuación, este malentendido de la tecnología llevó a una demanda colectiva contra Tesla. También se alegó “tergiversación” corporativa en un litigio relacionado con dos muertes de vehículos de motor que involucraron un vehículo Tesla.
III. INCIDENTES Y LITIGIOS AV:
No ha habido un litigio significativo en torno a AV, y el litigio existente está en su infancia. Lo que sigue son resúmenes de algunos de los incidentes y litigios que localizamos en todo el país relacionados con AV.
El 29 de junio de 2016, Josh Brown murió cuando su vehículo Tesla que operaba en piloto automático chocó con un camión blanco en Williston, Florida.[ 3 ] Esta fue la primera muerte en Estados Unidos que involucró a un vehículo que operaba con funciones autónomas activadas. El piloto automático de Tesla no detectó el camión blanco que "cruzaba la carretera perpendicular al Model S" antes del accidente. Tesla admitió que "ni el piloto automático ni el conductor notaron el lado blanco del remolque del tractor contra un cielo brillantemente iluminado, por lo que no se aplicó el freno". La Junta Nacional de Seguridad del Tráfico (NTSB, por sus siglas en inglés) concluyó que la causa probable del accidente fue "la incapacidad del conductor del camión de ceder el paso y la falta de atención del conductor del automóvil". Es importante destacar que la NTSB también concluyó que el patrón de uso del sistema de piloto automático del Sr. Brown mostraba una "dependencia excesiva de la automatización y falta de comprensión de las limitaciones del sistema".[ 4 ]
In Nilsson contra General Motors LLC, Nilsson resultó herido cuando un Chevrolet Bolt "autónomo" cambió repentinamente de carril y chocó con su motocicleta.[ 5 ] Había un conductor humano en el Bolt en el momento de la colisión, pero no tenía las manos en el volante mientras estaba activado el modo autónomo. El 22 de enero de 2018, Nilsson presentó una denuncia en un tribunal federal de California alegando negligencia de General Motors. La reclamación se resolvió seis meses después por un monto no revelado.
In Hudson contra Tesla, Inc., Hudson alegó que su Tesla Model S 2017 no detectó la presencia de un vehículo averiado en la carretera, lo que provocó una colisión a aproximadamente 80 millas por hora.[ 6 ] Hudson presentó los siguientes cargos contra Tesla: (1) responsabilidad estricta; (2) negligencia; (3) incumplimiento de la garantía implícita de idoneidad; (4) tergiversación; (5) publicidad engañosa; y (6) prácticas comerciales desleales y engañosas. Hudson también alegó negligencia contra el propietario del vehículo abandonado.
El 18 de marzo de 2018, ocurrió una colisión fatal de un vehículo motorizado en Tempe, Arizona, que involucró a un vehículo Uber autónomo. El vehículo Uber estaba equipado con un "sistema de detección" y estaba en modo autónomo con un conductor humano cuando chocó contra Elaine Herzberg.[ 7 ] NTSB concluyó que el Uber SUV no pudo determinar si Herzberg era un peatón, un vehículo o una bicicleta, y tampoco pudo predecir correctamente su camino. Específicamente, “el diseño del sistema no incluyó una consideración para peatones que cruzan imprudentemente.[ 8 ]”A 1.2 segundos antes de la colisión, el sistema identificó a Herzberg como una bicicleta que se movía hacia el camino del Uber, pero era demasiado tarde para frenar o evitar una colisión. Curiosamente, en 2015, el gobernador de Arizona, Doug Ducey, utilizó una orden ejecutiva para declarar a Arizona una zona AV libre de regulaciones con el fin de atraer operaciones de prueba de empresas como Uber.[ 9 ]
In Lommatzsch contra Tesla, Inc., Lommatzsch había activado su piloto automático Tesla Model S cuando el auto chocó contra otro vehículo a 60 mph.[ 10 ] Lommatzsch alegó que el personal de ventas de Tesla le aseguró que el Model S "se detendría por sí solo en caso de que hubiera un obstáculo en el camino del Tesla Model S". Según la demanda, Tesla fue "negligente al desarrollar, diseñar, fabricar, producir, probar, promover, distribuir, vender, mantener, reparar y / o dar servicio al Tesla Model S, y / o proporcionar una advertencia adecuada sobre los peligros del Tesla". Modelo S. ”
El 24 de mayo de 2018, Tesla resolvió una demanda colectiva con los compradores de sus autos Model S y Model X que alegaron que el sistema de piloto automático de la compañía era "esencialmente inutilizable y demostrablemente peligroso".[ 11 ] Los demandantes argumentaron que se convirtieron en "probadores beta de software a medias que hace que los vehículos Tesla sean peligrosos", y que cuando el piloto automático está activado, es susceptible de "dar bandazos, pisar los frenos sin motivo alguno y no reducir la velocidad o detenerse al acercarse" otros vehículos."
In Huang y otros, contra Tesla, Inc., el patrimonio de Wei Huang demandó a Tesla después de que el Tesla de Huang chocara contra una mediana de concreto mientras estaba en piloto automático, causando su muerte en marzo de 2018.[ 12 ] Los reclamos de Huang contra Tesla incluían negligencia, muerte por negligencia, responsabilidad estricta, negligencia (posventa), diseño de producto defectuoso, falta de advertencia, tergiversación intencional y negligente y publicidad falsa.
El 1 de marzo de 2019, Jeremy Banner murió cuando chocó con un remolque de tractor en Florida. Los datos preliminares del vehículo mostraron que el sistema de piloto automático de su Tesla estaba activado aproximadamente 10 segundos antes de la colisión, que ni Banner ni el piloto automático redujeron la velocidad del automóvil ni intentaron ninguna maniobra evasiva, y que el vehículo no detectó las manos del conductor en el volante.[ 13 ] El patrimonio de Banner alegó publicidad falsa del Modelo 2018 de 3. El anuncio en cuestión decía que “si ha comprado el paquete opcional de piloto automático mejorado o capacidad de conducción autónoma completa, las cámaras orientadas al futuro y el sensor de radar están diseñados para determinar cuándo hay un vehículo delante de usted en el mismo carril. Si el área frente al Model 3 está despejada, el control de crucero consciente del tráfico mantiene una velocidad de conducción establecida. Cuando se detecta un vehículo, el control de crucero consciente del tráfico está diseñado para reducir la velocidad del Model 3 según sea necesario para mantener una distancia cronometrada seleccionada desde el vehículo de adelante, hasta la velocidad establecida ".[ 14 ]
Consejo de práctica: La información almacenada electrónicamente (ESI) es un componente clave en todas las demandas de AV. Es extremadamente importante preservar el vehículo y todas las formas de ESI, incluso de dispositivos periféricos, como teléfonos celulares y computadoras portátiles. Prácticamente todos los incidentes mencionados anteriormente incluyeron ESI. En la colisión de Herzberg, ESI incluyó datos del automóvil, así como un video de la cámara del tablero que muestra al conductor mirando repetidamente su regazo. En la colisión de Banner, ESI confirmó que Banner encendió el piloto automático segundos antes del choque y que el vehículo no detectó las manos de Banner en el volante. En la colisión de Brown, ESI detectó un patrón del conductor mientras estaba en piloto automático, lo que sustentaba la conclusión de NTSB de que no entendía completamente la tecnología.
IV. LEGISLACIÓN SOBRE AV:
A medida que continúen los avances tecnológicos, también lo harán la legislación y los estándares regulatorios. Si bien el gobierno federal es responsable de establecer los estándares de seguridad de los vehículos motorizados, los estados siguen siendo el organismo regulador para la concesión de licencias, el registro, la aplicación de la ley, los seguros y la responsabilidad.
Numerosos estados han promulgado leyes sobre AV. Generalmente, estas leyes se refieren a la automatización de vehículos en los Niveles 3 y 4, e involucran requisitos de licencia que incluyen una mayor cobertura de seguro de responsabilidad. Además, los gobernadores de 11 estados han emitido órdenes ejecutivas relacionadas con los vehículos autónomos.[ 15 ] Montana actualmente no tiene ningún tipo de regulación AV.
El Congreso también propuso varios marcos regulatorios, incluida la Ley de Implementación e Investigación Futuras de la Evolución de los Vehículos (AUTO DRIVE) que Aseguran Vidas Seguramente en la Cámara, y la Ley de Visión Estadounidense para un Transporte Más Seguro a través del Avance de Tecnologías Revolucionarias (AV START) en el Senado. Sin embargo, tanto la Ley AUTO DRIVE como la Ley AV START se estancaron en el Senado en 2018. Parece que existe un apoyo bipartidista continuo para la legislación AV. Esto incluye el establecimiento de un "Consejo Asesor de Vehículos Altamente Automatizados" dentro del Departamento de Transporte ("DOT") para evaluar problemas relacionados con AV y abordar la regulación federal de pruebas AV.
El 23 de marzo de 2018, el presidente Trump promulgó la Ley de Asignaciones Consolidadas (Proyecto de Ley Ómnibus 2018). Esta legislación, entre otras cosas, ordena al DOT que lleve a cabo investigaciones sobre el desarrollo de AV. El 16 de abril de 2020, el DOT y la Oficina de Ciencia y Tecnología de la Casa Blanca publicaron el Garantizar el liderazgo estadounidense en tecnologías de vehículos automatizados: vehículos automatizados 4.0, que proporciona recomendaciones para la legislación estatal.
V. MARCO JURÍDICO:
No es seguro cómo se desarrollará el litigio AV. ¿Quién será responsable de la "negligencia" de un automóvil? ¿El fabricante de automóviles? ¿El fabricante de los componentes de la automatización, como sensores, cámaras o sistemas de navegación? ¿La persona que estaba en el asiento del conductor pero que en realidad no conducía? ¿Los tres? ¿Habrá limitaciones legales y / o reclamaciones?
Existen varias teorías sobre cómo los tribunales deben abordar la responsabilidad AV. David King propone comparar la responsabilidad AV con la forma en que los tribunales manejan los accidentes relacionados con el transporte equino. Tanto los caballos como los vehículos autónomos pueden percibir su entorno, malinterpretar su entorno y realizar maniobras peligrosas independientemente de la voluntad de su operador humano.[ 16 ]
Por ejemplo, en Alpha Construction contra Brannon, 337 SW2d 790 (Ky. 1960), un caballo que caminaba al costado de una carretera fue sorprendido por un fuerte ruido y galopó hacia la calle, provocando un accidente. En comparación, en la muerte de Tesla de 2016 discutida anteriormente, el AV “vio” un camión blanco contra un cielo brillante, pensó que no era peligroso y se dirigió directamente hacia el camión. Las maniobras resultantes en ambas circunstancias fueron causadas por una falta de comprensión del entorno. Además, tanto los caballos como los vehículos autónomos son propiedad de consumidores habituales que pueden prestarlos a otros y son operados por ellos.
Otra teoría alienta a los legisladores a adoptar un estándar de responsabilidad estricta contra la industria por accidentes que involucren AV basado en la doctrina de los instrumentos peligrosos. Los defensores argumentan que los vehículos autónomos son más peligrosos que los automóviles ordinarios, por lo que deben aplicarse normas estrictas de responsabilidad, de forma similar a los primeros casos de aviación.[ 17 ] Sigue siendo incierto qué estándares de responsabilidad se aplicarán realmente.
La pregunta urgente es cómo se abordará la responsabilidad a medida que la sociedad haga la transición hacia vehículos totalmente automatizados. Durante este período, los humanos y los diferentes niveles de AV compartirán las carreteras, así como el deber de conducir de manera segura y razonable. Bajo los principios generales de la ley de responsabilidad civil, el elemento de control será típicamente determinante. La cuestión de cuánto control tenía, o debería haber tenido, el conductor en el momento del accidente determinará si el conductor pudo haber evitado el accidente.
Tradicionalmente, las colisiones de vehículos de motor se evalúan de acuerdo con la negligencia del conductor, con el potencial de responsabilidad del producto cuando un defecto en el automóvil causa el accidente o agrava las lesiones. Los pocos incidentes hasta la fecha casi todos involucraron acusaciones de negligencia, lo que sugiere que es poco probable un cambio total a la responsabilidad por productos. Esto parece especialmente cierto durante el largo período de tiempo durante el cual los vehículos manuales, semiautónomos y totalmente autónomos comparten la calzada.
Con base en los incidentes hasta la fecha, generalmente parece haber tres vías de responsabilidad diferentes en los casos de AV: (1) teorías basadas en productos; (2) teorías de la actividad empresarial; y (3) teorías basadas en la conducción.
Las teorías basadas en productos incluyen la responsabilidad "estricta" del producto (prueba de expectativas del consumidor, riesgo / utilidad, diseño alternativo razonable), garantías en forma de marketing u otras representaciones que prometen una seguridad razonable y responsabilidad estricta para el propietario del AV.
Las teorías de la actividad corporativa incluyen negligencia en el diseño de productos, deber de cuidado del transportista común, actividad ultrapeligrosa, negligencia de ingeniería, tergiversación y publicidad engañosa.
Las teorías basadas en la conducción incluyen acciones contra el conductor negligente y / o la empresa con control sobre el sistema de conducción automatizado en cuestión.
Por el momento, anticipamos que los demandantes continuarán empleando un enfoque híbrido que nombra a varios acusados y múltiples acusaciones en los litigios AV.
Anticipamos que las defensas del asegurador / fabricante incluirán: (1) la asignación de responsabilidad al conductor y / o la parte lesionada; (2) alegar que el accidente fue inevitable; (3) negar la existencia de un defecto; y (4) basarse en "estándares de la industria", ya que estos recién están comenzando a desarrollarse, no existe un marco regulatorio y gran parte de la tecnología está etiquetada como "secreto comercial".
VI. DILEMAS ÉTICOS DE AV:
Los vehículos totalmente autónomos se convertirán en una realidad. También es probable que AV no elimine completamente las colisiones. Cuando se producen colisiones, sus resultados pueden estar predeterminados por los programadores y los responsables de la formulación de políticas.
Muchos dilemas éticos surgen al predeterminar el resultado de las colisiones, que los abogados litigantes deben comprender. Por ejemplo, imagina que estás conduciendo un AV en una autopista muy transitada rodeada por otros vehículos. De repente, un objeto grande se cae del camión frente a usted. Su automóvil no puede detenerse a tiempo, por lo que toma una de tres decisiones: (1) ir en línea recta, frenar y golpear el objeto; (2) virar a la izquierda y chocar contra un vehículo; o (3) virar a la derecha y chocar contra una motocicleta.
¿Debería el AV priorizar su seguridad golpeando al motociclista? ¿Minimiza el daño yendo derecho y golpeando el objeto grande, incluso si eso significa maximizar el daño para ti? ¿O tomar el camino del medio y golpear el SUV a su izquierda que tiene una alta calificación de seguridad para los pasajeros?
Si un humano estuviera conduciendo, la reacción del humano se atribuiría precisamente a eso: una reacción. Sin embargo, con AV, no hay reacciones, solo toma de decisiones programada. Estas decisiones son el resultado de algoritmos que, por diseño, determinan la colisión más favorable. Es decir, el vehículo favorece sistemáticamente un determinado tipo de choque. Los pasajeros de esta decisión algorítmica sufrirán las consecuencias.
¿Debería haber fallas en la programación? Además, ¿quién debería tomar estas decisiones? ¿Ingenieros, juntas corporativas o legisladores? Mire este breve video de TedTalk para una discusión interesante sobre dilemas éticos con AV.[ 18 ]
VII. CONCLUSIÓN
Las víctimas de lesiones en vehículos motorizados se enfrentarán a problemas nuevos y desafiantes a medida que avanza la tecnología AV. Sin duda, estos avances tecnológicos proporcionarán a las empresas y aseguradoras métodos nuevos y sofisticados para culpar, evitar responsabilidades y negar a las víctimas de lesiones una reparación legal completa. Aquellos lesionados por AV necesitarán abogados familiarizados con los problemas para continuar con sus reclamos. Los abogados también deberán trabajar con los legisladores para garantizar que los avances tecnológicos no se traguen las garantías del Artículo II, sección 16 de la Constitución de Montana.
Notas a pie de página
[ 1 ] https://www.sae.org/news/press-room/2018/12/sae-international-releases-updated-visual-chart-for-its-%E2%80%9Clevels-of-driving-automation%E2%80%9D-standard-for-self-driving-vehicles
[ 2 ] https://www.nhtsa.gov/technology-innovation/automated-vehicles-safety
[ 3 ] https://www.tesla.com/blog/tragic-loss
[ 4 ] https://www.ntsb.gov/investigations/AccidentReports/Reports/HAR1702.pdf
[ 5 ] Oscar Nilsson contra General Motors LLC, Caso 4: 18-cv-00471-KAW, Tribunal de Distrito de los Estados Unidos, Distrito Norte de California (2018).
[ 6 ] Hudson contra Tesla, Inc., et al, Tribunal de Circuito 9th Jud. Circuito, FL (2018).
[ 7 ] https://www.nytimes.com/2018/03/19/technology/uber-driverless-fatality.html.
[ 8 ] https://www.documentcloud.org/documents/6540547-629713.html
[ 9 ] Orden ejecutiva de Arizona 2015-09, "Prueba y pilotaje de vehículos autónomos en el estado de Arizona".
[ 10 ] Heather P. Lommatzsch contra Tesla, Inc., et al., Tribunal del Tercer Distrito del Estado de Utah, Condado de Salt Lake (2018)
[ 11 ] https://www.reuters.com/article/us-tesla-autopilot-lawsuit-idUSKCN1IQ1SH
[ 12 ] Szu Huang y otros, contra Tesla, Inc., bajo el nombre de Tesla Motors Inc., y otros, Caso No. 19-CV-346663, Tribunal Superior del Estado de California (2019).
[ 13 ] https://www.ntsb.gov/investigations/AccidentReports/Reports/HWY19FH008-preliminary.pdf
[ 14 ] Kim Banner, como representante personal del patrimonio de Jeremy Banner, contra Tesla Inc., et al., 15 ° Circuito Judicial del Condado de Palm Beach, Florida (2019).
[ 15 ] https://www.ncsl.org/research/transportation/autonomous-vehicles-self-driving-vehicles-enacted-legislation.aspx
[ 16 ] Poner las riendas sobre la responsabilidad de los vehículos autónomos (Revista de derecho y tecnología de Carolina del Norte, vol. 19, diciembre de 2017)
[ 17 ] Adán Rosenberg. Responsabilidad estricta: imaginando un marco legal para vehículos autónomos. Adam Rosenberg, Volumen 20, Tulane Journal of Technology (julio de 2017).
[ 18 ] https://www.ted.com/talks/patrick_lin_the_ethical_dilemma_of_self_driving_cars.