Seleccionar página


Los sistemas avanzados de asistencia a la conducción dependen cada vez más de la información que captan los sensores del vehículo. Entre las tecnologías principales destacan dos:

  • Sistemas basados en cámaras, que interpretan el entorno mediante visión artificial.
  • Sensores LIDAR, capaces de generar mapas tridimensionales mediante pulsos de luz láser.

Aunque ambos buscan el mismo objetivo de posibilitar la conducción asistida, la forma en la que trabajan y sus limitaciones los sitúan en un debate constante sobre cuál es la opción más fiable. La industria está dividida, con fabricantes que combinan radar, cámaras y LIDAR, y otros, como Tesla, que defienden un enfoque únicamente basado en visión e inteligencia artificial.

LIDAR: alta precisión pero con limitaciones

El LIDAR emite pulsos de luz láser y mide el tiempo que tardan en reflejarse, generando una nube de puntos de alta precisión. Esta información permite reconstruir con exactitud el entorno inmediato del vehículo, identificar objetos, calcular movimientos relativos y anticipar acciones. Su principio de funcionamiento es similar al del radar, pero con una resolución mucho mayor, ya que trabaja con longitudes de onda más cortas y un nivel de detalle que las cámaras no siempre pueden igualar. Sin embargo, su coste es elevado, tanto a nivel económico como técnico, y sufre en situaciones de climatología adversa.

En la actualidad, estos sistemas ofrecen una precisión superior a la de los radares convencionales y una capacidad de mapeo tridimensional que supera lo que una cámara puede capturar por sí sola. Su rango de detección suele situarse entre 30 y 200 metros, dependiendo del modelo y la configuración. En vehículos como el Audi A8 de 2018, el primer turismo de producción en incorporar un LIDAR homologado, este sensor realizaba barridos verticales en un ángulo de 145 grados, llegando hasta los 100 metros.

Sensor LIDAR

A nivel conceptual, el LIDAR permite que el vehículo entienda su entorno con mucho detalle: altura de objetos, volúmenes, distancias reales y posibles trayectorias. Algunos prototipos utilizan sensores rotatorios en la parte superior del coche para obtener un mapa 360º.

Pero el LIDAR no es perfecto, y su rendimiento cae cuando llueve y hay niebla o nieve, porque las partículas suspendidas en el aire reflejan el láser y generan ruido para el sistema. Además, su elevado coste ha dificultado llevarlo a todos los segmentos. A esto se suma un tamaño que, aunque ha disminuido, sigue siendo difícil de integrar a nivel estético y de aerodinámica. Por ello, la mayoría de fabricantes lo emplean como complemento a cámaras y radar, no como sistema único.

Cámaras e IA: la apuesta de Tesla

En la otra cara del debate se sitúa Tesla, que defiende un modelo basado casi exclusivamente en cámaras y procesamiento con Inteligencia Artificial. La marca estadounidense ha eliminado progresivamente el radar y nunca ha utilizado LIDAR en sus vehículos de serie. Según la compañía, la visión artificial combinada con redes neuronales es suficiente para interpretar el entorno y es, a largo plazo, la vía más escalable para lograr una conducción autónoma fiable.

El razonamiento de Tesla se basa en que, si los humanos conducimos únicamente con nuestra visión, un sistema que imite este enfoque y disponga de decenas de millones de kilómetros reales para entrenarse podría alcanzar un rendimiento superior al de cualquier combinación de sensores. Sin embargo, surge la pregunta de si estas cámaras, en situaciones de poca visibilidad, llegan a ser tan efectivas como el LIDAR. Y la respuesta, por ahora, no está clara.

Las cámaras pueden sufrir problemas cuando se exponen a contraluces extremos, a deslumbramientos, o en condiciones de lluvia intensa o marcas viales poco visibles. Aunque el software de Tesla ha mejorado significativamente, la mayoría de fabricantes prefieren que cámaras, radar y LIDAR trabajen juntos.

Tesla FSD