Rechenpower im Quadrat: Elon Musk präsentiert die Roadmap für AI6 und AI6.5
Elon Musk gönnt seinem Hardware-Team keine Pause. Nur wenige Tage nach dem erfolgreichen Tape-out des AI5-Chips (Hardware 5) hat der Tesla-CEO bereits detaillierte Spezifikationen für den Nachfolger AI6 und eine optimierte Zwischenversion AI6.5 auf der Plattform X geteilt. Das Ziel ist klar: Tesla will die technologische Vorherrschaft bei KI-Inferenz-Chips zementieren.
1. Massive Performance-Sprünge und Design-Korrekturen
Laut Musk wird der AI6-Chip eine echte Verdopplung der Performance gegenüber dem AI5 bieten. Das ist umso beeindruckender, da bereits ein einzelner AI5-Chip die fünffache Leistung des aktuellen AI4-Systems (Hardware 4) erbringen soll.
- Lerneffekt: Musk gab zu, dass beim AI5-Design einige "Design-Konzessionen" gemacht werden mussten, um die Entwicklung zu beschleunigen. AI6 soll diese Abkürzungen korrigieren und zusätzlich "viele neue, großartige Ideen" integrieren.
- Produktionszyklus: Tesla strebt einen extrem aggressiven neunmonatigen Iterationszyklus für seine Chips an, um der rasanten Entwicklung im Bereich der neuronalen Netze gerecht zu werden.
2. Dual-Sourcing auf US-Boden: Samsung & TSMC
Tesla setzt bei der nächsten Generation auf eine zweigleisige Fertigungsstrategie, um Lieferketten abzusichern und die jeweils besten Prozesse zu nutzen:
- AI6 (Samsung): Gefertigt im hochmodernen 2nm-Verfahren in Samsungs neuer Fabrik in Taylor, Texas.
- AI6.5 (TSMC): Eine optimierte Version, die bei TSMC in Arizona (ebenfalls im 2nm-Prozess) produziert wird, um zusätzliche Effizienz und Leistung herauszukitzeln.
- Speicher-Upgrade: Beide Chips machen den Sprung auf LPDDR6-Arbeitsspeicher, was die Bandbreite für KI-Berechnungen massiv erhöht.
3. Die "SRAM-Geheimwaffe"
Ein technisches Highlight des AI6 ist die interne Speicherarchitektur. Etwa die Hälfte der TRIP AI-Rechenbeschleuniger auf dem Chip wird direkt für SRAM reserviert.
- Bandbreiten-Boost: SRAM ist extrem schneller On-Board-Speicher. Durch diesen Fokus wird die effektive Speicherbandbreite laut Musk "um eine Größenordnung größer" als die normale DRAM-Bandbreite sein.
- Vorteil: Kritische KI-Berechnungen können direkt auf dem Chip ausgeführt werden, ohne auf den langsameren Hauptspeicher warten zu müssen – ein direkter Angriff auf aktuelle Latenzprobleme.
"Wir bauen entweder die TERAFAB oder wir haben die Chips nicht. Und wir brauchen die Chips, also bauen wir die TERAFAB." – Elon Musk zum vertikal integrierten Chip-Projekt mit xAI und Intel.
Vergleich der Hardware-Generationen (Prognose)
| Merkmal | Tesla AI5 (HW5) | Tesla AI6 (HW6) | Tesla AI6.5 |
|---|---|---|---|
| Fertigungsprozess | 4nm / 3nm (Samsung) | 2nm (Samsung Texas) | 2nm (TSMC Arizona) |
| Performance | Basis (1x) | 2x vs. AI5 | > 2x vs. AI5 |
| Speichertyp | LPDDR5 / 5X | LPDDR6 | LPDDR6 |
| Fokus | Cybercab, Optimus v1 | Optimus v2, Dojo 3 | Unsupervised Robotaxi |
Fazit: Vorbereitung auf die "Galaktische Zivilisation"
Mit der Ankündigung von AI6 und dem dazugehörigen TERAFAB-Projekt (einer vertikal integrierten Fabrik zusammen mit xAI und Intel) macht Tesla deutlich, dass man sich nicht mehr auf externe Zulieferer verlassen will. Die Chips werden nicht nur für Autos, sondern primär für den humanoiden Roboter Optimus und weltraumtaugliche Satelliten-KI entwickelt. Während die Konkurrenz noch versucht, heutige Software auf aktueller Hardware zu bändigen, baut Tesla bereits die Infrastruktur für eine Ära, in der Rechenleistung zur wichtigsten Ressource der Menschheit wird.



