Un modelo 3 de Tesla se vio involucrado en un accidente fatal, lo que ha llevado a una nueva investigación sobre la seguridad de su sistema “Full Self-Driving”. Este incidente renueva las preocupaciones sobre el uso de la inteligencia artificial en la conducción autónoma

Las autoridades de la Administración Nacional de Seguridad del Tráfico en las Carreteras (NHTSA) han iniciado una nueva investigación sobre Tesla después de que un accidente mortal en California involucrara un Modelo 3 equipado con la tecnología de “Full Self-Driving” (FSD). Este sistema ha sido comercializado por Tesla como una solución que permite que los autos se conduzcan solos en ciertas condiciones, aunque la compañía insiste en que los conductores deben mantener las manos en el volante y estar preparados para tomar el control en cualquier momento.

Según testigos, el automóvil no redujo la velocidad ante una señal de alto, lo que provocó una colisión con otro vehículo, resultando en la muerte del conductor del segundo automóvil. El incidente ha generado un renovado debate sobre si Tesla está haciendo lo suficiente para educar a los usuarios sobre los límites del sistema y si las regulaciones actuales son adecuadas para supervisar esta tecnología emergente.

En años recientes, Tesla ha enfrentado varias investigaciones por accidentes similares, lo que ha llevado a algunos críticos a cuestionar si la empresa debería retrasar el despliegue de FSD hasta que se garanticen mayores niveles de seguridad. Mientras tanto, defensores de la inteligencia artificial en automóviles argumentan que, si bien la tecnología no es perfecta, representa un futuro más seguro a largo plazo, ya que reduce los errores humanos, responsables de la mayoría de los accidentes viales.

El nuevo caso, uno de los más graves hasta ahora, podría poner más presión sobre los reguladores para acelerar la implementación de normativas más estrictas sobre los sistemas de conducción autónoma.