top of page
Foto del escritorOscar C

La gente piensa que los Tesla son autónomos y se distrae al manejar uno: ya hay docenas de muertes relacionadas a Autopilot, según EUA



El uso del Autopilot y Full Self-Driving de Tesla ha sido objeto de un intenso escrutinio debido a su presunta relación con cientos de accidentes y decenas de muertes. La Administración Nacional de Seguridad del Tráfico en las Carreteras (NHTSA) descubrió que estas funciones de asistencia al conductor son insuficientes para mantener a los conductores ocupados en la tarea de conducir, lo que a menudo puede tener resultados fatales.


Un ejemplo destacado es el trágico incidente ocurrido en marzo de 2023, donde un estudiante de Carolina del Norte resultó gravemente herido al ser atropellado por un Tesla Model Y que viajaba a “velocidad de autopista” mientras el conductor utilizaba Autopilot según informa The Verge. Este caso puso de manifiesto un patrón alarmante de falta de atención por parte de los conductores, combinado con las deficiencias en la tecnología de Tesla.


La NHTSA llevó a cabo una exhaustiva investigación de 956 accidentes ocurridos entre enero de 2018 y agosto de 2023, por lo que encontró que en 29 de ellos hubo víctimas mortales. También se registraron 211 accidentes en los que el vehículo Tesla chocó frontalmente con otro objeto, resultando en 14 muertos y 49 heridos. Estos datos reflejan la gravedad del problema y la necesidad de abordarlo de manera urgente.


¿Qué dice la NHTSA sobre Tesla?


Los conductores de Tesla que utilizan Autopilot y Full Self-Driving no están lo suficientemente involucrados en la tarea de conducir, según la NHTSA. En muchos casos, los conductores se vuelven complacientes y pierden la concentración, lo que dificulta su capacidad para reaccionar a tiempo ante situaciones de peligro. Esto plantea serias dudas sobre la efectividad de estas tecnologías y su impacto en la seguridad vial.

"Se encontraron accidentes sin acción evasiva o sin intento de evasión por parte del conductor en todas las versiones de hardware de Tesla y circunstancias de accidente".
NHTSA.


Incluso la marca Autopilot de Tesla ha sido criticada por ser engañosa, ya que induce a los conductores a creer que el vehículo puede conducirse solo. Aunque Tesla ha emitido actualizaciones de software para abordar estas preocupaciones, la NHTSA ha iniciado una nueva investigación sobre la efectividad de estas medidas, lo que refleja la gravedad del problema.


Los hallazgos de la NHTSA subrayan la necesidad de una mayor regulación y transparencia en el desarrollo de la conducción autónoma. Si bien Tesla insiste en que sus vehículos son más seguros que los conducidos por humanos, los datos recopilados por la NHTSA sugieren lo contrario. Es fundamental abordar estas preocupaciones para garantizar la seguridad de todos los usuarios de la carretera.

Kommentare


bottom of page