La carrera por la conducción autónoma tiene tres frentes: software, hardware y regulatorio. Durante años, hemos visto a Tesla intentar abrirse camino por la fuerza bruta hacia la “conducción totalmente autónoma (FSD)” con su propio hardware personalizado, mientras que el resto de la industria automotriz se alinea cada vez más detrás de NVIDIA.
Ahora que sabemos que el nuevo chip AI5 de Tesla se retrasa y no estará en los vehículos hasta 2027, vale la pena comparar los dos chips «autónomos» más dominantes en la actualidad: el último Hardware 4 (AI4) de Tesla y el Drive Thor de NVIDIA.
Aquí hay una tabla que compara los dos chips con las mejores especificaciones posibles que pude encontrar. El desmontaje de greentheonly fue particularmente útil. Si encuentra cosas que cree que no son exactas, no dude en comunicarse con:
| Característica/especificación | Tesla AI4 (Hardware 4.0) | Nvidia conduce thor (agx/jetson) |
|---|---|---|
| Desarrollador / Arquitecto | Tesla (interno) | Nvidia |
| Proceso de fabricación | Samsung 7 nm (clase 7LPP) | TSMC 4N (clase personalizada de 5 nm) |
| Estado de lanzamiento | En producción (envío desde 2023) | En producción desde 2025 |
| Arquitectura de CPU | ARM Cortex-A72 (heredado) | ARM Neoverse V3AE (grado de servidor) |
| Recuento de núcleos de CPU | 20 núcleos (5× grupos de 4 núcleos) | 14 núcleos (configuración Jetson T5000) |
| Rendimiento de la IA (INT8) | ~100–150 TOPS (sistema de doble SoC) | 1.000 TOPS (por ficha) |
| Rendimiento de la IA (FP4) | No compatible / no divulgado | 2000 TFLOPS (por chip) |
| Unidad de procesamiento neuronal | 3× núcleos NPU personalizados por SoC | Núcleos tensores Blackwell + motor transformador |
| Tipo de memoria | GDDR6 | LPDDR5X |
| Ancho del bus de memoria | 256 bits | 256 bits |
| Ancho de banda de memoria | ~384 GB/s | ~273 GB/s |
| Capacidad de memoria | ~Sistema típico de 16 GB | Hasta 128 GB (Supersónico Thor) |
| Consumo de energía | Est. 80-100W (sistema) | 40W – 130W (configurable) |
| Soporte de cámara | Cámaras Tesla patentadas de 5 MP | Escalable, soporta 8MP+ y GMSL3 |
| Características especiales | Redundancia de doble SoC en una placa | Motor de transformador nativo, NVLink-C2C |
La diferencia más sorprendente desde el principio es el proceso de fabricación. NVIDIA está lanzando todo a Drive Thor, utilizando el proceso 4N de vanguardia de TSMC (un nodo personalizado de clase 5 nm). Esto les permite incorporar la nueva arquitectura Blackwell, que es esencialmente la misma tecnología que impulsa los centros de datos de IA más avanzados del mundo.
Tesla, por otro lado, hizo un movimiento que podría sorprender a los guerreros de las hojas de especificaciones. Los desmontajes confirman que AI4 se basa en el proceso de 7 nm de Samsung. Esto es maduro, confiable y mucho más barato que los nodos de última generación de TSMC.
Cuando nos fijamos en la potencia de cálculo, NVIDIA afirma la asombrosa cifra de 2000 TFLOPS para Thor. Pero hay un problema. Ese número utiliza precisión FP4 (punto flotante de 4 bits), un nuevo formato diseñado específicamente para los modelos Transformer utilizados en IA generativa.
Se estima que el AI4 de Tesla alcanzará entre 100 y 150 TOPS (INT8) en su sistema redundante de doble SoC. Sobre el papel, parece una matanza, pero Tesla hizo un compromiso de ingeniería muy específico que nos dice exactamente qué estaba consumiendo su software: el ancho de banda de la memoria.
Tesla cambió de LPDDR4 en HW3 a GDDR6 en HW4, la misma memoria que consume mucha energía que se encuentra en las tarjetas gráficas (GPU) para juegos. Esto le da a AI4 un ancho de banda de memoria masivo de aproximadamente 384 GB/s, en comparación con los 273 GB/s de Thor (en la configuración Jetson de un solo chip) usando LPDDR5X.
Esto sugiere que el enfoque de Tesla de sólo visión, que ingiere cantidades masivas de vídeo sin procesar de cámaras de alta resolución, estaba hambriento de datos.
Según los comentarios de Elon Musk de que el chip AI5 de Tesla tendrá 5 veces el ancho de banda de la memoria, parece que todavía podría ser el cuello de botella de Tesla.
Aquí es donde realmente se nota la reducción de costos de Tesla. AI4 todavía se ejecuta en núcleos ARM Cortex-A72, una arquitectura que tiene casi una década. Aumentaron el número de núcleos a 20, pero sigue siendo tecnología antigua.
Mientras tanto, NVIDIA Thor utiliza ARM Neoverse V3AE, una CPU de nivel de servidor diseñada explícitamente para el vehículo moderno definido por software. Esto le permite a Thor ejecutar no solo la pila de conducción autónoma, sino todo el sistema de información y entretenimiento, el tablero y potencialmente incluso un asistente de inteligencia artificial en el automóvil, todo en un solo chip.
Thor ha encontrado muchos interesados, especialmente entre los competidores de vehículos eléctricos de Tesla como BYD, Zeekr, Lucid, Xiaomi y muchos más.
La opinión de Electrek
Hay una cosa que no está ahí: el precio. Supongo que Tesla gana en ese frente, y eso es una gran parte del proyecto. Tesla desarrolló un chip que no existía y que necesitaba.
Fue una hazaña impresionante, pero no convierte a Tesla en un líder increíble en silicio para conducción autónoma.
Tesla está maximizando AI4. Ahora utiliza ambos chips, lo que hace que sea menos probable que alcance los niveles de redundancia necesarios para ofrecer una autonomía de nivel 4-5.
Mientras tanto, todavía no tenemos una solución para HW3 y aparentemente AI5 no vendrá a salvar el día hasta 2027.
Para entonces, probablemente habrá millones de vehículos en circulación con procesadores NVIDIA Thor.
















