AMD und die KI-Revolution: Warum Lisa Su recht hat – und wir erst am Anfang stehen

Kernaufgabe: AMD entwickelt und liefert Chips, Systeme und Softwarelösungen für den Betrieb von KI-Anwendungen in Rechenzentren – nicht für Endverbraucher-PCs. Zu den Anwendern gehören führende Unternehmen wie Meta, OpenAI und Tesla.

Unique Selling Proposition (USP): AMDs Wettbewerbsvorteil liegt in einer Kombination aus:

  • Offenes Ökosystem: Im Gegensatz zu Nvidias proprietärer Plattform ermöglicht AMD flexible Softwareentwicklung.
  • Starkem Preis-Leistungs-Verhältnis: Höhere Effizienz durch mehr „Tokens pro Dollar“ für KI-Anwendungen.
  • Schneller Markteinführung: Akquisitionen wie ZT Systems verkürzen die Zeit bis zur Produktverfügbarkeit.
  • Full-Stack-Lösungen: AMD liefert komplette Systeme, vom Chip bis zum Rack-Design, aus einer Hand.

Um das Interview besser zu verstehen, hier die Erklärung der zentralen Begriffe:

BegriffErklärung
UPC (Universal Processor Core)AMDs Architekturkonzept für vielseitige Prozessorkerne, die klassische und KI-Berechnungen effizient abdecken.
Tokens pro DollarEffizienzmaß: Wie viele Einheiten (z. B. Wörter) ein KI-Modell pro investierten Dollar verarbeiten kann.
InferenzbeschleunigerChips, die trainierte KI-Modelle in der Anwendung besonders schnell und energieeffizient verarbeiten.
InferenzchipSynonym für Inferenzbeschleuniger – Fokus auf Anwendung, nicht auf Training.
Full-StackKombination aus Hardware, Software und Rack-Systemen – alles aus einer Hand.
Rack-Scale-SystemeKomplettlösungen für Rechenzentren mit vorinstallierten AMD-Systemen.
Open EcosystemEntwickler können mit AMD-Hardware flexibel arbeiten – ohne proprietäre Einschränkungen.
Training vs. InferenzTraining = Lernen des Modells; Inferenz = Anwendung auf neue Eingaben.
ROCmAMDs offene Softwareplattform für GPU-Computing – vergleichbar mit CUDA von Nvidia.
MLPerfBranchenbenchmark für KI-Chips – vergleicht u. a. Nvidia vs. AMD.
UALinkNeue Highspeed-Verbindung zwischen Recheneinheiten, Alternative zu Nvidias NVLink.
Developer CloudAMDs Entwicklungsumgebung für Software-Teams mit direktem Zugang zu AMD-Hardware.

Dabei verfolgt AMD eine klare Strategie:

  • Integration von Hardware, Software und Systemdesign («Full-Stack»)
  • Strategische Akquisitionen wie ZT Systems zur Beschleunigung von Markteinführungen
  • Enge Kooperationen mit Partnern wie Meta, OpenAI, Oracle und Tesla/X.AI
  • Offenheit als zentrales Prinzip: Entwicklerfreundlichkeit und Innovationsförderung

Zusätzlich wurde deutlich, dass die MI355-Chips bereits ausgeliefert werden und ab Q3 2025 breit verfügbar sein sollen. Erste Anwendungen laufen bereits bei Meta (z. B. für Empfehlungssysteme) und Microsoft (z. B. Copilot-Inferenz). AMD zeigte erstmals ein vollständiges Rack-System und kündigte bereits die MI400- und MI500-Generation an – mit jeweils weiteren Performance-Sprüngen.

Dabei unterscheidet man grob zwei Szenarien:

  • Base-Case: Moderate Adoption über alle Industrien hinweg, getrieben von generativer KI, Sprachmodellen und Automatisierung
  • Bullish-Case: Exponentielle Skalierung durch neue Anwendungsfelder (Edge AI, Enterprise-Software, Gesundheitswesen, autonomes Fahren)

AMD erwartet, in beiden Szenarien überproportional zu profitieren – vor allem durch den zunehmenden Bedarf an Inferenzlösungen, die effizient, skalierbar und offen sein müssen.

Genauso sehe ich die aktuelle Phase bei KI – und AMD spielt dabei eine entscheidende Rolle:

  • Die Nachfrage nach Inferenzlösungen wird explodieren
  • Offene Systeme werden sich mittelfristig durchsetzen
  • Wer glaubt, er sei zu spät, verpasst womöglich den Beginn einer 10-jährigen Wachstumswelle

Selbst wenn Nvidia weiterhin dominiert, ist der Markt groß genug für zwei starke Player – und AMD ist entschlossen, diesen Platz einzunehmen.