El funcionamiento del Autopilot de Tesla hace saltar las alarmas: se desactiva instantes antes de los accidentes

El funcionamiento del Autopilot de Tesla hace saltar las alarmas: se desactiva instantes antes de los accidentes
58 comentarios

Pinta mal la cosa con el Autopilot de Tesla. La NHTSA (Administración Nacional de Seguridad del Tráfico en las Carreteras​, por sus siglas en inglés) de Estados Unidos ha publicado esta semana un nuevo análisis sobre el software de conducción autónoma de Tesla, llegando a varias conclusiones que dejan en muy mal lugar a este sistema. Hasta tal punto que ya se habla abiertamente de retirar del mercado esta función.

Más de 830.000 vehículos con el Autopilot podrían verse afectados. La NHTSA argumenta que está habiendo una "acumulación de choques en los que los vehículos de Tesla que operaban con el Autopilot activado". La investigación se centra en 16 accidentes, pero en total el análisis abarcará los más de 800.000 Tesla que vienen con el Autopilot en EE.UU, desde todos los Model S desde 2014, los Model X desde 2015, los Model 3 desde 2018 y los Model Y desde 2020.

Todos estos vehículos podrían verse afectados por las conclusiones del estudio, ya que en caso de determinarlo, podrían tener que desactivar el Autopilot de sus vehículos. Al funcionar a través de la nube, estos coches no haría falta que fueran devueltos físicamente para adaptarse.

El Autopilot se desactivó un segundo antes del impacto. De los casos analizados, la NHTSA explica que, de media, el Autopilot "se desactivó menos de un segundo antes del primer impacto", pese a que los vídeos muestran que el conductor podría haber detectado el problema del accidente, de media, unos ocho segundos antes del impacto.

La mayoría de los conductores tenían las manos en el volante, como exige el piloto automático, pero el problema es que no se tomaron medidas a tiempo. Según describe el regulador, en el 25% de los accidentes, Tesla no emitió ninguna "alerta visual o alarma durante el ciclo final de uso del piloto automático". Es decir, los conductores confiaron en Autopilot hasta que era demasiado tarde (solo un segundo antes del choque).

Elon Musk apuntaba que Autopilot no estaba activo en el momento de la colisión. Uno de los puntos conflictivos, que la NHTSA va a revisar, es el papel real que tiene Autopilot en el número de accidentes. En el pasado, Elon Musk ha explicado que los datos de Tesla mostraban que el piloto automático no estaba activo en el momento de la colisión, lo que reducía el número de accidentes directamente relacionados con Autopilot.

Sin embargo, la investigación de la NHTSA amplía el potencial alcance de Autopilot, indicando que aunque es cierto que no estaba activado en ese momento, el margen de maniobra que deja Autopilot es muy pequeño.

La responsabilidad recae en el conductor. Pese a los avances del Full Self-Driving (FSD) de Tesla, todavía en beta, estos sistemas todavía se consideran una asistencia al conductor. Es decir, la responsabilidad en caso de accidente recae en el conductor y no en el propio sistema de conducción autónoma. Es decir, la "culpa" no es de Tesla, en caso de accidente, ya que el conductor tiene que estar alerta todavía en todo momento.

La investigación continúa en marcha. Varios de los accidentes relacionados con el Autopilot han derivado en juicios, donde hay que determinar el alcance de responsabilidad del conductor y del propio fabricante. Es un asunto que se analiza caso por caso y donde hay en juego mucho dinero, también por parte de las aseguradoras.

La NHTSA continuará por el momento con esta investigación, auditando el funcionamiento del Autopilot de Tesla y comprobando por qué se desactiva momentos antes del impacto.

En Xataka | El futuro económico de Tesla pasa por la conducción autónoma. De momento todo son problemas

Temas
Inicio