Tras varias muertes, 2 ingenieros de Tesla declaran que el Autopilot falla, se sabía y no se hizo nada
Un tema controvertido como pocos, puesto que según el propio Elon Musk, "Tesla vale lo que su software sea capaz de hacer en cuanto a conducción autónoma". Por ello, el juicio que se está llevando a cabo y que data de 2016 tras una fatídica muerte es relevante, más si cabe después de la oleada de muertes que lleva a sus espaldas. Dos ingenieros de la marca en el software FSD han sido llamados a testificar... Y lo que han revelado puede que sea el principio del fin de la marca si finalmente Elon Musk llevaba razón. ¿Enterrará Autopilot a Tesla tras los juicios?
Era 2016 cuando un Tesla Model S tras activar su piloto automático mediante su conductor, Joshua Brown, no era capaz de ver un camión de 18 ruedas que estaba cruzando la calzada para hacer un giro y terminaba con la vida de su dueño. En 2019, un Tesla Model 3 conducido por Jeremy Banner activaba su AutoPilot y tras solo 10 segundos de hacerlo el coche no detectó un camión con remolque que estaba haciendo una maniobra similar a la descrita anteriormente. Ni coche ni conductor lo vieron, y ambos pasaron a una mejor vida. Ahora, la compañía se enfrenta a un juicio de los tantos que le quedan.
Tesla a juicio por su Autopilot
Lógicamente, los familiares de Banner, tras el estudio del accidente por la NHTSA y la acusación de la misma sobre el hecho de que el responsable fuese, en teoría, el sistema FSD de la compañía, se lanzaron a demandar a Tesla. La demanda se basaba en la incapacidad de Autopilot de poder detectar y esquivar vehículos, incluso de gran tamaño, en tráfico cruzado.
Además, se especifica que Tesla era consciente de la incapacidad de Autopilot de gestionar esos escenarios, y aunque podía haberlo mejorado o desconectado en esos momentos, no se hizo nada. Por ello, la familia Banner quiso que dos ingenieros de Tesla especialistas en Autopilot declarasen en el juicio, más concretamente Chris Payne y Nicklas Gustafsson.
El segundo puso el dedo en la llaga con sus declaraciones, donde afirmó que Autopilot se lanzó sin la capacidad de detectar tráfico cruzado (cruces), pero no respondió con claridad cuando se le preguntó por qué Tesla decidió omitir la detección de dicho escenario.
Payne fue algo más claro afirmando que Autopilot fue diseñado para usarse en carreteras con mediana entre carriles, no con cruces donde los coches o camiones podían girar. Afirmó que "técnicamente era 'algo muy difícil' para el hardware y el software tener en cuenta el tráfico cruzado en esos escenarios".
Tesla conocía el problema y no hizo nada
Gustafsson fue un poco más allá en su declaración y confirmó lo dicho por Payne, pero agregó que investigó la muerte de Brown en 2016, donde confesó que Tesla era consciente del problema, pero "no se realizaron cambios en los sistemas de Autopilot para dar cuenta del tráfico cruzado".
Las acusaciones y afirmaciones son más escuetas en los datos técnicos por confidencialidad, pero el caso sigue abierto, y de hecho, se están sumando más pruebas de accidentes similares, hasta el punto de que la NHTSA ha conseguido que Tesla emita un parche de software y baje el nivel de conducción autónoma en su publicidad de nivel 3 a nivel 2.
El problema es que, si se demuestra, la NHTSA podría acusar a Tesla de que los accidentes han sido causados por conductores engañados debido a una publicidad exagerada por parte de la marca.
Si Elon Musk lleva razón al afirmar lo que hemos comentado al inicio de este artículo, los juicios dan como culpable a la marca y la NHTSA termina por demostrar que así fue, entonces podríamos estar ante un desplome en bolsa de Tesla y un daño irreparable a la marca. ¿Será su final? En cualquier caso, si tienes un Tesla, no uses el Autopilot, por si "las moscas"...