Los sistemas avanzados de asistencia a la conducción dependen cada vez más de la información que captan los sensores del vehículo. Entre las tecnologías principales destacan dos:
- Sistemas basados en cámaras, que interpretan el entorno mediante visión artificial.
- Sensores LIDAR, capaces de generar mapas tridimensionales mediante pulsos de luz láser.
Aunque ambos buscan el mismo objetivo de posibilitar la conducción asistida, la forma en la que trabajan y sus limitaciones los sitúan en un debate constante sobre cuál es la opción más fiable. La industria está dividida, con fabricantes que combinan radar, cámaras y LIDAR, y otros, como Tesla, que defienden un enfoque únicamente basado en visión e inteligencia artificial.
LIDAR: alta precisión pero con limitaciones
El LIDAR emite pulsos de luz láser y mide el tiempo que tardan en reflejarse, generando una nube de puntos de alta precisión. Esta información permite reconstruir con exactitud el entorno inmediato del vehículo, identificar objetos, calcular movimientos relativos y anticipar acciones. Su principio de funcionamiento es similar al del radar, pero con una resolución mucho mayor, ya que trabaja con longitudes de onda más cortas y un nivel de precisión que las cámaras no siempre pueden igualar. Para entender esto, tenemos que irnos a la manera en la que ambos sistemas perciben la distancia:
- El LIDAR emite pulsos de luz láser y calcula el tiempo que tardan en regresar, proporcionando un mapa tridimensional que calcula la distancia a cada punto.
- Por el contrario, la cámara solo ofrece imágenes en 2D, por lo que debe interpretar la distancia basándose en algoritmos y en el contexto.
Precisamente por esta precisión directa, los fabricantes lo emplean como complemento esencial a las cámaras y el radar, no por insuficiencia, sino para crear un sistema de redundancia que garantiza la seguridad ante cualquier fallo de sensor. Sin embargo, su coste es elevado, tanto a nivel económico como técnico, y sufre en situaciones de climatología adversa.
En la actualidad, estos sistemas ofrecen una precisión superior a la de los radares convencionales y una capacidad de mapeo tridimensional que supera lo que una cámara puede capturar por sí sola. Su rango de detección suele situarse entre 30 y 200 metros, aunque algunos incluso superan los 300 metros, dependiendo del modelo y la configuración. En vehículos como el Audi A8 de 2018, el primer turismo de producción en incorporar un LIDAR homologado, este sensor realizaba barridos verticales en un ángulo de 145 grados, llegando hasta los 100 metros.

A nivel conceptual, el LIDAR permite que el vehículo entienda su entorno con mucho detalle: altura de objetos, volúmenes, distancias reales y posibles trayectorias. Algunos prototipos utilizan sensores rotatorios en la parte superior del coche para obtener un mapa 360°.
Pero el LIDAR no es perfecto, y su rendimiento cae cuando llueve y hay niebla o nieve, porque las partículas suspendidas en el aire reflejan el láser y generan ruido para el sistema. Además, su elevado coste ha dificultado llevarlo a todos los segmentos. Y aunque antes no era fácil ligarlos al diseño de un vehículo sin llamar demasiado la atención, en los últimos años, esta tecnología ha logrado evolucionar tanto que ha dejado atrás los aparatosos modelos, pasando a unidades que se integran en el parabrisas e incluso en los faros, como la que usa el Volvo EX90.
Cámaras e IA: la apuesta de Tesla
En la otra cara del debate se sitúa Tesla, que defiende un modelo basado casi exclusivamente en cámaras y procesamiento con inteligencia artificial. La marca estadounidense ha eliminado progresivamente el radar y nunca ha utilizado LIDAR en sus vehículos de serie. Según la compañía, la visión artificial combinada con redes neuronales es suficiente para interpretar el entorno y es, a largo plazo, la vía más escalable para lograr una conducción autónoma fiable.
El razonamiento de Tesla se basa en que, si los humanos conducimos únicamente con nuestra visión, un sistema que imite este enfoque y disponga de decenas de millones de kilómetros reales para entrenarse podría alcanzar un rendimiento superior al de cualquier combinación de sensores. Sin embargo, surge la pregunta de si estas cámaras, en situaciones de poca visibilidad, llegan a ser tan efectivas como el LIDAR. Y la respuesta, por ahora, no está clara.
Las cámaras pueden sufrir problemas cuando se exponen a contraluces extremos, a deslumbramientos, o en condiciones de lluvia intensa o marcas viales poco visibles. Aunque el software de Tesla ha mejorado significativamente, la mayoría de fabricantes prefieren que cámaras, radar y LIDAR trabajen juntos.

Algo tan simple y tan común como salir de un túnel en un día muy soleado tiene que ser una tortura para un Tesla
Joder, menuda racha. Menudos dos articulos con los que nos levantamos hoy.
– «un nivel de detalle que las cámaras no siempre pueden igualar» –> Un sensor lidar puede llegar a una resolucion de 0.05 grados. El de una camara de 8Mpix moderna? pues si se combina con una optica de 30 grados, menos de 0.01 grados. La camara tiene mejor resolucion que el lidar. Otra cosa es que el lidar, ademas, proporcione informacion DIRECTA de la distancia a cada punto, cosa que la camara solo puede interpretar.
– «Su rango de detección suele situarse entre 30 y 200 metros, dependiendo del modelo y la configuración.» –> Los hay con mas de 300 metros de distancia de deteccion
– «A nivel conceptual, el LIDAR permite que el vehículo entienda su entorno con mucho detalle: altura de objetos, volúmenes, distancias reales y posibles trayectorias.». –> No, el Lidar no da posibles trayectorias de por si. No hace ni mas ni menos de lo que una camara o un radar ofrece: da informacion de lo que tiene delante, que despues es interpretada
– «Por ello, la mayoría de fabricantes lo emplean como complemento a cámaras y radar, no como sistema único.» –> No es esa la razon. Hay muchas otras. Y la vision de todo el parrafo habla de un lidar de 2017, no de los lidar actuales (los hay incluso integrados tras el parabrisas)
– «el Audi A8 de 2018, el primer turismo de producción en incorporar un LIDAR homologado». Y una polla. Lexus tenia ACCs basados en lidar en los 90. Incluso Nissan ofrecio algo parecido en el Primera de los 2000s
Y ya paro. Me canso, me canso de seguir comentando textos generados por AI y revisados por gente que, lamentandolo mucho, creo que no saben demasiado de lo que estan hablando.
Oiga, no pare, añada algo así:
– Salvo Tesla que a día de hoy va por libre y consigue convencer, la combinación de radar, lidar, cámaras e incluso sensores de carrocería son tecnologías que combinadas buscan conseguir el mayor número de datos a interpretar para mediante redundancia tomar la mejor decisión posible. Por lo tanto intentar hacer una comparativa de sistemas que trabajan conjuntamente es absurdo.
A ver, que la IA nos va a despedir a todos, hace unos meses por un tema relevante y tras una reunión muy sería un compañero recibió un correo electrónico de un manager diciéndole que tenía razón en sus apreciaciones, que tras la reunión había consultado con una IA. A ver, ¿no se supone que son los especialistas los que alimentan a la IA?.
Bueno, yo tengo un vecino que su IA es el camarero de la cafetería, todos los días le hace una consulta, el camarero es mecánico los Lunes, electricista los Martes, albañil los Miércoles, experto en impuestos, contabilidad multas los Jueves y sorpresa, médico / farmacéutico el resto de la semana.
Saludos.
Aquí se mezclan muchas cosas. La IA no tiene nada que ver con si se usa un tipo de sensor u otro y tampoco es una cuestión de comparar tipos de sensores.
La verdadera pregunta es si es necesario el uso de MÚLTIPLES tipos de tecnología funcionando a la vez (Fusion sensorial) o es suficiente con UNO solo la visión (cámaras)
Tesla que es la empresa más avanzada en conducción autónoma piensa que solo se necesita visión, pero ya no es la única, NIO, otra de las más punteras también se ha desecho del lidar y exploran únicamente la visión.
El problema principal de la fusión sensorial es ¿qué haces cuando tus dos tipos de sensor de dan resultados opuestos? por lo general se opta por la cautela y haces caso al sensor que dice que hay peligro y paras, el problema es que entonces cada vez que hay una duda te quedas clavado en el sitio que es lo que le pasa a los Waymo que están constantemente bloqueando el tráfico.
Luego está el tema económico, 2 tipos de sensores + hardware son más caros que 1 solo, si el sistema con uno solo consigue funcionar el de dos no puede competir económicamente a gran escala.
@4 Mr Hyde
Hay varias cosas que dice que no son así
1. Tesla no es el más avanzado en conducción autónoma. Empezando porque no la tiene
2. NIO no ha optado solo por cámaras. Sigue usando cámara, radar y LiDAR (3x en el ET9). Vd seguro que se refiere a XPENG, y tampoco porque también usa radar
3. No, ya no se hace fusión a nivel de sensor. No es 2015. Ya no es “a ver que sensor gana”
Y si, me he vuelto a cansar
Estimado Slayer,
gracias por su mensaje. Hemos corregido el artículo con algunos de los puntos que señala.
un saludo,
Hola.
Sr, Moltó, sabiendo y reconociendo que el Sr Slayer es un experto de este campo, ¿por que no le piden que realice una entrada (general sobre el estado de la técnica actual, desafíos y tendencias sobre Lidar-Radar-Cámaras) para que la gente que nos gusta estos temas, nos pongamos al día sobre la realidad.
Ráfagas, GTO.
«Los sistemas avanzados de asistencia a la conducción dependen cada vez más de la información que captan los sensores del vehículo.»
Estrictamente, yo diría que no es que dependan cada vez más. Más bien, siempre han dependido lo mismo, la cuestión es cuanta tecnología y datos hay disponible para ello.
Aparte de ese apunte, decir también que no sólo es importante la información que se capta, si no la que ya se dispone. La «visión artificial», basada en los datos que sean, provenientes de cámara o LIDAR u otros, «instantánea» (es decir, que se capta y se interpreta en el instante de conducir, lo siento no sé como expresarlo mejor), tiene actualmente una limitación de capacidad de procesado. Es decir, si yo tengo sensores que captan imágenes y/o datos, y el vehículo instantáneamente tiene que «leer» toda esa información y tomar decisiones… pues hace falta una capacidad/velocidad de procesado muy alta, onboard.
Eso llegará, pero mientras tanto existen otras soluciones tecnológicas que están trabajando en un modelo similar, pero con lectura en diferido. Sensores en el vehículo, y lectura posterior en cloud (u onboard, pero no instantánea). De esta manera, el vehículo no puede tener una información «online» de lo que ve, pero lo que sí podemos tener son mapas detallados de carreteras, con mucha información. Así, un bache que lleva en un sitio semanas, o un firme estructuralmente resbaladizo, o una zona de obras, o una señal, o lo que sea, si lo tienes localizado e «inventariado», es un input de información para el conductor (sea persona o sea autónomo del nivel que sea).
A corto/medio plazo, lo que se podría tener son mapas MUY buenos a disposición de los vehículos y conductores, de manera que la lectura online al conducir tendría que limitarse a aquello que sea muy especial, o diferente, respecto a lo que ya tienes en el mapa. Tanto a anomalías, como al tráfico que nos rodea.
Este tipo de sistemas, están empezando a desplegarse a distintos niveles y de manera diferente en cada país, en general asociados no al vehículo ni a la conducción autónoma, si no a la inspección de infraestructuras/carreteras y su mantenimiento. Sistemas que detectan objetos (señales, marcas viales, barreras…), anomalías, baches, estado del firme etc. y ayudan a las Administraciones responsables, y empresas encargadas, a realizar un correcto mantenimiento y/o planificación del estado de las carreteras.
Hay muchas soluciones de nicho, que atacan alguno de los aspectos. Pero no son muchas las empresas que hay a nivel mundial que hagan una aproximación global al tema, posiblemente no lleguen ni a 10 (Vaisala, Iris, Asset Vision, Pavemetrics, UrbanX Technologies… y aquí en España tenemos una de las punteras – ASIMOB). Por cierto, y por retomar el tema del post, si lo entiendo bien, aunque las tecnologías utilizadas son variadas la mayoría está yendo más a cámaras (que pueden ser tan sencillas como la de un móvil, con la sinergia de que el mismo dispositivo se puede encargar del envío de datos) que a sistemas que necesitan más inversión en la parte hardware (como es el caso del LIDAR).
Entiendo que con un poco de tiempo y despliegue, esa información debería acabar llegando a los proveedores de mapas (maps, waze, etc de turno).
Un saludo
PD. Espero no haber cansado a @Slayer, por tercera vez en el mismo post. En todo caso y si así fuera, sólo confirmar que no soy una IA 🙂
PD2. Secundo la moción del Sr. GTO.
@8
Pues mire vd por donde, la idea es simplificar los mapas lo maximo posible y solo tener un SD map con lane info.
Lo de las camaras tan sencillas como la de un movil me ha hecho gracia, eso se lo reconozco. Y que la camara pueda ademas enviar directamente la informacion a la nube mas todavia.