La polémica está servida, una vez más a cuenta de Tesla. Un vídeo publicado en Twitter ha puesto en duda la nueva versión del software de conducción autónoma.
Expansión
El sistema de piloto automático de Tesla se estrelló repetidamente contra un maniquí infantil durante una prueba no reglamentaria publicada esta semana por el director ejecutivo de tecnología y destacado crítico de Tesla, Dan O’Dowd, quien financió la investigación.
O’Dowd, el CEO de Green Hills Software, lanzó una campaña el año pasado para prohibir lo que él describe como software inseguro de los sistemas de seguridad. Desde entonces, la organización, llamada The Dawn Project, ha estado probando activamente el software de Tesla. Sin embargo, la campaña, que está financiada por O’Dowd, pide al Congreso que cierre el programa Tesla.
El CEO intentó anteriormente postularse para el Senado en una plataforma basada únicamente en la prohibición de Tesla FSD. El anuncio es uno de varios que The Dawn Project ha publicado criticando el Full Self Driving (FSD) de Tesla.
La organización lanzó un video como parte de su última campaña publicitaria de un Tesla atravesando un maniquí mientras supuestamente se usaba el sistema Full Self-Driving (FSD) de la compañía.
La grabación de 32 segundos muestra tres instancias del Tesla conduciendo a través del maniquí en una pista de prueba en California.
The Dawn Project aseguró que la prueba se realizó docenas de veces durante el último mes y que el vehículo nunca intentó virar o reducir la velocidad a más de 25 millas por hora antes de chocar contra el maniquí. La prueba se realizó solo tres veces bajo declaración jurada para el video.
Es importante tener en cuenta que la prueba no se realizó con la supervisión de un regulador estadounidense, sino de forma independiente, lo que significa que no estuvo sujeta a los mismos estándares de prueba.
La Administración Nacional de Seguridad del Transporte en las Carreteras (NHTSA) y el Instituto de Seguros de Seguridad en las Carreteras, por ejemplo, realizan pruebas de seguridad de automóviles en EU utilizando al menos cinco tipos diferentes de pruebas .
La NHTSA lanzó un programa para pruebas automatizadas en 2020, pero evalúa el software a través de informes de fallas. Tesla ha podido evitar informar datos como desconexiones y accidentes al Departamento de Vehículos Motorizados. Esto se debe a que el sistema está clasificado como un sistema de asistencia al conductor de nivel dos, a diferencia de los competidores autónomos como Waymo de Alphabet, que están sujetos a diferentes estándares de informes ya que los conductores no están obligados a monitorear los vehículos.
En cada prueba realizada por The Dawn Project, el Tesla comenzaría a 40 millas por hora y conduciría 100 yardas dentro de un carril designado antes de golpear al maniquí. El conductor de pruebas profesional recibió instrucciones de mantener las manos alejadas del volante y solo frenar después de que el vehículo hubiera hecho contacto con el maniquí, según The Dawn Project.
Tesla les ha dicho a los conductores que el sistema no reemplaza a un conductor con licencia y les indica que mantengan las manos en el volante y estén preparados para tomar el control cuando el sistema esté funcionando.
Después de que se promulgó la FSD, el Model 3 «comenzaba a tambalearse como si estuviera perdido y confundido, disminuía un poco la velocidad y luego volvía a acelerar cuando golpeaba y atropellaba a los maniquíes a más de 25 millas por hora», detalló el piloto de pruebas, Art Haynie, en un comunicado.
«Los resultados profundamente inquietantes de nuestra prueba de seguridad de Tesla Full Self-Driving deberían ser un grito de guerra para la acción», dijo O’Dowd en un comunicado.
“Elon Musk dice que el software Full Self-Driving de Tesla es ‘increíble’. No lo es. Es una amenaza letal para todos los estadounidenses».
El FSD de Tesla ha generado controversia en el pasado. El mes pasado, el Departamento de Vehículos Motorizados de California presentó una queja contra el fabricante de automóviles eléctricos, alegando que utilizó declaraciones «falsas o engañosas» en la publicidad de sus programas de asistencia al conductor.
Aunque FSD afirma ser totalmente autónomo, en realidad funciona como un complemento opcional que permite a los Tesla cambiar automáticamente de carril, entrar y salir de autopistas, reconocer señales de alto y semáforos y estacionar.
El software aún se encuentra en un modo de prueba beta, que se puede comprar como un complemento de $ 12,000 o una suscripción mensual de $ 199 y requiere un controlador con licencia para monitorearlo en todo momento. El software tiene más de 100,000 suscriptores que Tesla puede usar para probar el software en tiempo real y permitir que la Inteligencia Artificial del sistema aprenda de los conductores experimentados.