Tesla hat sich von Radar (2021) und Ultraschallsensoren (2022) verabschiedet und setzt seitdem kompromisslos auf "Tesla Vision". Anfang 2026 zeigt sich: Dieser Schritt war kein Sparzwang, sondern das Fundament für eine KI-Architektur, die das Fahren so lernen soll wie ein Mensch – nur mit acht Augen und ohne Ermüdung.
Das Problem der "Sensor-Kontention"
Der Hauptgrund für das Aus des Radars war laut Elon Musk die sogenannte Sensor-Kontention. Wenn Radar und Kamera unterschiedliche Daten liefern – etwa wenn das Radar eine Metallbrücke als Hindernis erkennt, die Kamera aber eine freie Straße sieht – muss das System entscheiden, wem es glaubt. Dies führte in der Vergangenheit oft zu den berüchtigten "Phantombremsungen".
Durch den Verzicht auf Radar wurde das neuronale Netz gezwungen, Tiefen und Geschwindigkeiten rein visuell zu interpretieren. Mit der Einführung der End-to-End-Architektur (v12 und v14) lernt der Tesla nun nicht mehr durch starre Programmierregeln, sondern durch die Analyse von Millionen Videoclips echter menschlicher Fahrer.
Hardware-Evolution: Von AI3 zu AI4.5
Um die Vision-only-Strategie abzusichern, hat Tesla die Hardware massiv aufgerüstet. Fahrzeuge mit der aktuellen AI4-Hardware (Hardware 4) verfügen über Kameras mit einer deutlich höheren Auflösung (ca. 5 Megapixel statt 1,2 Megapixel bei HW3). Dies ermöglicht eine präzisere Objekterkennung auf weite Distanzen und bei schlechten Lichtverhältnissen.
Ganz aktuell im Februar 2026 wurden erste Fahrzeuge mit Hardware 4.5 (AP45) gesichtet. Diese neue Generation bietet:
- Ein neues Gehäuse für die Frontkameras mit verbesserter Reinigung.
- Ein Drei-SoC-Design für höhere Rechenleistung und Ausfallsicherheit.
- Einen erweiterten Dynamikumfang, um Blendung durch tiefstehende Sonne besser zu verarbeiten.
Tesla Vision vs. Waymo: Zwei Weltanschauungen
Der Vergleich mit Waymo (Google) zeigt die tiefe Spaltung der Branche. Waymo setzt auf "Maximale Sicherheit durch Redundanz" mit 29 Kameras, 5 LiDAR-Scannern und 6 Radarsystemen. Tesla hingegen priorisiert die Skalierbarkeit.
| Kriterium | Tesla (Vision-only) | Waymo (Multi-Sensor) |
|---|---|---|
| Hardware-Kosten | Niedrig (Standard-Kameras) | Sehr hoch (LiDAR-Suite) |
| Kartendaten | Echtzeit (keine HD-Maps nötig) | Abhängig von zentimetergenauen HD-Maps |
| Einsatzgebiet | Global (überall fahrbar) | Geofenced (nur in kartierten Städten) |
| Schlechtwetter | Herausfordernd (Gischt/Nebel) | Robust (dank Radar/LiDAR) |
"Die Straße ist für Augen und Gehirne gebaut, nicht für Laser und Karten. Wenn wir Vision perfekt lösen, ist jeder zusätzliche Sensor nur Rauschen im System." – Elon Musk
Der aktuelle Status: FSD v14
Im Februar 2026 rollt Tesla die FSD Supervised v14 aus. Diese Version nutzt die verbesserte Videoqualität der AI4-Kameras voll aus und reduziert die Fahrerüberwachung ("Nagging") deutlich, da das System nun menschlicher und vorausschauender agiert. In den USA hat Tesla bereits erste Genehmigungen für fahrerlose Testfahrten in Austin erhalten – ein Beweis dafür, dass die Regulierungsbehörden dem reinen Kamera-Ansatz zunehmend Vertrauen schenken.
Fazit von Elektroquatsch: Teslas Wette auf Vision-only ist das riskanteste Spiel der Automobilgeschichte. Wenn es aufgeht, hat Tesla einen uneinholbaren Kostenvorteil und eine Flotte, die weltweit ohne HD-Karten autonom fahren kann. Werden LiDAR-basierte Systeme wie Waymo jedoch in komplexen Edge-Cases (Nebel, Starkregen) dauerhaft sicherer bleiben, könnte Tesla an eine technologische Decke stoßen. Aktuell hat Musk jedoch die Pole-Position bei der Skalierung.




