Los sistemas avanzados de asistencia a la conducción dependen cada vez más de la información que captan los sensores del vehículo. Entre las tecnologías principales destacan dos:
- Sistemas basados en cámaras, que interpretan el entorno mediante visión artificial.
- Sensores LIDAR, capaces de generar mapas tridimensionales mediante pulsos de luz láser.
Aunque ambos buscan el mismo objetivo de posibilitar la conducción asistida, la forma en la que trabajan y sus limitaciones los sitúan en un debate constante sobre cuál es la opción más fiable. La industria está dividida, con fabricantes que combinan radar, cámaras y LIDAR, y otros, como Tesla, que defienden un enfoque únicamente basado en visión e inteligencia artificial.
LIDAR: alta precisión pero con limitaciones
El LIDAR emite pulsos de luz láser y mide el tiempo que tardan en reflejarse, generando una nube de puntos de alta precisión. Esta información permite reconstruir con exactitud el entorno inmediato del vehículo, identificar objetos, calcular movimientos relativos y anticipar acciones. Su principio de funcionamiento es similar al del radar, pero con una resolución mucho mayor, ya que trabaja con longitudes de onda más cortas y un nivel de detalle que las cámaras no siempre pueden igualar. Sin embargo, su coste es elevado, tanto a nivel económico como técnico, y sufre en situaciones de climatología adversa.
En la actualidad, estos sistemas ofrecen una precisión superior a la de los radares convencionales y una capacidad de mapeo tridimensional que supera lo que una cámara puede capturar por sí sola. Su rango de detección suele situarse entre 30 y 200 metros, dependiendo del modelo y la configuración. En vehículos como el Audi A8 de 2018, el primer turismo de producción en incorporar un LIDAR homologado, este sensor realizaba barridos verticales en un ángulo de 145 grados, llegando hasta los 100 metros.

A nivel conceptual, el LIDAR permite que el vehículo entienda su entorno con mucho detalle: altura de objetos, volúmenes, distancias reales y posibles trayectorias. Algunos prototipos utilizan sensores rotatorios en la parte superior del coche para obtener un mapa 360º.
Pero el LIDAR no es perfecto, y su rendimiento cae cuando llueve y hay niebla o nieve, porque las partículas suspendidas en el aire reflejan el láser y generan ruido para el sistema. Además, su elevado coste ha dificultado llevarlo a todos los segmentos. A esto se suma un tamaño que, aunque ha disminuido, sigue siendo difícil de integrar a nivel estético y de aerodinámica. Por ello, la mayoría de fabricantes lo emplean como complemento a cámaras y radar, no como sistema único.
Cámaras e IA: la apuesta de Tesla
En la otra cara del debate se sitúa Tesla, que defiende un modelo basado casi exclusivamente en cámaras y procesamiento con Inteligencia Artificial. La marca estadounidense ha eliminado progresivamente el radar y nunca ha utilizado LIDAR en sus vehículos de serie. Según la compañía, la visión artificial combinada con redes neuronales es suficiente para interpretar el entorno y es, a largo plazo, la vía más escalable para lograr una conducción autónoma fiable.
El razonamiento de Tesla se basa en que, si los humanos conducimos únicamente con nuestra visión, un sistema que imite este enfoque y disponga de decenas de millones de kilómetros reales para entrenarse podría alcanzar un rendimiento superior al de cualquier combinación de sensores. Sin embargo, surge la pregunta de si estas cámaras, en situaciones de poca visibilidad, llegan a ser tan efectivas como el LIDAR. Y la respuesta, por ahora, no está clara.
Las cámaras pueden sufrir problemas cuando se exponen a contraluces extremos, a deslumbramientos, o en condiciones de lluvia intensa o marcas viales poco visibles. Aunque el software de Tesla ha mejorado significativamente, la mayoría de fabricantes prefieren que cámaras, radar y LIDAR trabajen juntos.

Algo tan simple y tan común como salir de un túnel en un día muy soleado tiene que ser una tortura para un Tesla
Joder, menuda racha. Menudos dos articulos con los que nos levantamos hoy.
– «un nivel de detalle que las cámaras no siempre pueden igualar» –> Un sensor lidar puede llegar a una resolucion de 0.05 grados. El de una camara de 8Mpix moderna? pues si se combina con una optica de 30 grados, menos de 0.01 grados. La camara tiene mejor resolucion que el lidar. Otra cosa es que el lidar, ademas, proporcione informacion DIRECTA de la distancia a cada punto, cosa que la camara solo puede interpretar.
– «Su rango de detección suele situarse entre 30 y 200 metros, dependiendo del modelo y la configuración.» –> Los hay con mas de 300 metros de distancia de deteccion
– «A nivel conceptual, el LIDAR permite que el vehículo entienda su entorno con mucho detalle: altura de objetos, volúmenes, distancias reales y posibles trayectorias.». –> No, el Lidar no da posibles trayectorias de por si. No hace ni mas ni menos de lo que una camara o un radar ofrece: da informacion de lo que tiene delante, que despues es interpretada
– «Por ello, la mayoría de fabricantes lo emplean como complemento a cámaras y radar, no como sistema único.» –> No es esa la razon. Hay muchas otras. Y la vision de todo el parrafo habla de un lidar de 2017, no de los lidar actuales (los hay incluso integrados tras el parabrisas)
– «el Audi A8 de 2018, el primer turismo de producción en incorporar un LIDAR homologado». Y una polla. Lexus tenia ACCs basados en lidar en los 90. Incluso Nissan ofrecio algo parecido en el Primera de los 2000s
Y ya paro. Me canso, me canso de seguir comentando textos generados por AI y revisados por gente que, lamentandolo mucho, creo que no saben demasiado de lo que estan hablando.
Oiga, no pare, añada algo así:
– Salvo Tesla que a día de hoy va por libre y consigue convencer, la combinación de radar, lidar, cámaras e incluso sensores de carrocería son tecnologías que combinadas buscan conseguir el mayor número de datos a interpretar para mediante redundancia tomar la mejor decisión posible. Por lo tanto intentar hacer una comparativa de sistemas que trabajan conjuntamente es absurdo.
A ver, que la IA nos va a despedir a todos, hace unos meses por un tema relevante y tras una reunión muy sería un compañero recibió un correo electrónico de un manager diciéndole que tenía razón en sus apreciaciones, que tras la reunión había consultado con una IA. A ver, ¿no se supone que son los especialistas los que alimentan a la IA?.
Bueno, yo tengo un vecino que su IA es el camarero de la cafetería, todos los días le hace una consulta, el camarero es mecánico los Lunes, electricista los Martes, albañil los Miércoles, experto en impuestos, contabilidad multas los Jueves y sorpresa, médico / farmacéutico el resto de la semana.
Saludos.