Los sistemas avanzados de asistencia a la conducción dependen cada vez más de la información que captan los sensores del vehículo. Entre las tecnologías principales destacan dos:
- Sistemas basados en cámaras, que interpretan el entorno mediante visión artificial.
- Sensores LIDAR, capaces de generar mapas tridimensionales mediante pulsos de luz láser.
Aunque ambos buscan el mismo objetivo de posibilitar la conducción asistida, la forma en la que trabajan y sus limitaciones los sitúan en un debate constante sobre cuál es la opción más fiable. La industria está dividida, con fabricantes que combinan radar, cámaras y LIDAR, y otros, como Tesla, que defienden un enfoque únicamente basado en visión e inteligencia artificial.
LIDAR: alta precisión pero con limitaciones
El LIDAR emite pulsos de luz láser y mide el tiempo que tardan en reflejarse, generando una nube de puntos de alta precisión. Esta información permite reconstruir con exactitud el entorno inmediato del vehículo, identificar objetos, calcular movimientos relativos y anticipar acciones. Su principio de funcionamiento es similar al del radar, pero con una resolución mucho mayor, ya que trabaja con longitudes de onda más cortas y un nivel de precisión que las cámaras no siempre pueden igualar. Para entender esto, tenemos que irnos a la manera en la que ambos sistemas perciben la distancia:
- El LIDAR emite pulsos de luz láser y calcula el tiempo que tardan en regresar, proporcionando un mapa tridimensional que calcula la distancia a cada punto.
- Por el contrario, la cámara solo ofrece imágenes en 2D, por lo que debe interpretar la distancia basándose en algoritmos y en el contexto.
Precisamente por esta precisión directa, los fabricantes lo emplean como complemento esencial a las cámaras y el radar, no por insuficiencia, sino para crear un sistema de redundancia que garantiza la seguridad ante cualquier fallo de sensor. Sin embargo, su coste es elevado, tanto a nivel económico como técnico, y sufre en situaciones de climatología adversa.
En la actualidad, estos sistemas ofrecen una precisión superior a la de los radares convencionales y una capacidad de mapeo tridimensional que supera lo que una cámara puede capturar por sí sola. Su rango de detección suele situarse entre 30 y 200 metros, aunque algunos incluso superan los 300 metros, dependiendo del modelo y la configuración. En vehículos como el Audi A8 de 2018, el primer turismo de producción en incorporar un LIDAR homologado, este sensor realizaba barridos verticales en un ángulo de 145 grados, llegando hasta los 100 metros.
A nivel conceptual, el LIDAR permite que el vehículo entienda su entorno con mucho detalle: altura de objetos, volúmenes, distancias reales y posibles trayectorias. Algunos prototipos utilizan sensores rotatorios en la parte superior del coche para obtener un mapa 360°.
Pero el LIDAR no es perfecto, y su rendimiento cae cuando llueve y hay niebla o nieve, porque las partículas suspendidas en el aire reflejan el láser y generan ruido para el sistema. Además, su elevado coste ha dificultado llevarlo a todos los segmentos. Y aunque antes no era fácil ligarlos al diseño de un vehículo sin llamar demasiado la atención, en los últimos años, esta tecnología ha logrado evolucionar tanto que ha dejado atrás los aparatosos modelos, pasando a unidades que se integran en el parabrisas e incluso en los faros, como la que usa el Volvo EX90.
Cámaras e IA: la apuesta de Tesla
En la otra cara del debate se sitúa Tesla, que defiende un modelo basado casi exclusivamente en cámaras y procesamiento con inteligencia artificial. La marca estadounidense ha eliminado progresivamente el radar y nunca ha utilizado LIDAR en sus vehículos de serie. Según la compañía, la visión artificial combinada con redes neuronales es suficiente para interpretar el entorno y es, a largo plazo, la vía más escalable para lograr una conducción autónoma fiable.
El razonamiento de Tesla se basa en que, si los humanos conducimos únicamente con nuestra visión, un sistema que imite este enfoque y disponga de decenas de millones de kilómetros reales para entrenarse podría alcanzar un rendimiento superior al de cualquier combinación de sensores. Sin embargo, surge la pregunta de si estas cámaras, en situaciones de poca visibilidad, llegan a ser tan efectivas como el LIDAR. Y la respuesta, por ahora, no está clara.
Las cámaras pueden sufrir problemas cuando se exponen a contraluces extremos, a deslumbramientos, o en condiciones de lluvia intensa o marcas viales poco visibles. Aunque el software de Tesla ha mejorado significativamente, la mayoría de fabricantes prefieren que cámaras, radar y LIDAR trabajen juntos.
