Das Unternehmen stellt die mit Spannung erwarteten MI300 KI-Beschleuniger vor und zielt damit auf einen schnell wachsenden Markt mit einem Wert von über 400 Milliarden Dollar.
Das US-Unternehmen Advanced Micro Devices Inc. hat bei einer Veranstaltung am Mittwoch in San Jose, Kalifornien, eine lange erwartete Produktreihe von AI-Beschleunigern vorgestellt, die laut Aussage des Unternehmens schneller als konkurrierende Produkte laufen können.
Die so genannte MI300-Serie soll es mit der dominierenden Position von Nvidia Corp. aufnehmen und wurde von CEO Lisa Su höchstpersönlich enthüllt. Su gab auch eine beeindruckende Prognose für die Größe des AI-Chip-Marktes ab, die in den nächsten vier Jahren auf über 400 Milliarden Dollar steigen könnte. Das ist mehr als doppelt so hoch wie die Prognose, die AMD im August abgegeben hatte, und zeigt, wie schnell sich die Erwartungen an AI-Hardware ändern. Der Launch stellt einen der wichtigsten Momente in der fünf Jahrzehnte umfassenden Geschichte von AMD dar und bereitet den Boden für die Konfrontation mit Nvidia auf dem heiß umkämpften Markt der AI-Beschleuniger.
Diese Chips helfen bei der Entwicklung von AI-Modellen, indem sie diese mit Daten bombardieren, eine Aufgabe, die sie geschickter bewältigen als herkömmliche Computerprozessoren. Su sagte in einem Interview, dass es nun möglich ist, künstliche Intelligenz auf menschlichem Niveau zu schaffen, was als das ultimative Ziel der Informatik gilt. Die Einführung dieser Technologie steht jedoch erst am Anfang.
Es wird Zeit brauchen, um ihre Auswirkungen auf die Produktivität und weitere Aspekte der Wirtschaft zu bewerten, so Su. “Die Wahrheit ist, wir sind noch sehr früh dran”, erklärte sie. “Das ist keine Modeerscheinung. Ich glaube fest daran.”
AMD ist zunehmend zuversichtlich, dass die MI300-Serie namhafte Technologieunternehmen überzeugen kann und somit Milliarden an Ausgaben in Richtung des Unternehmens umgeleitet werden könnten. Unter anderem sollen Microsoft Corp., Oracle Corp. und Meta Platforms Inc. zu den Kunden zählen, die Prozessoren des Unternehmens verwenden werden, wie AMD bekannt gab.
An der Börse sanken die Aktien von Nvidia am Mittwoch um 2,3% auf 455,03 US-Dollar – ein deutliches Zeichen dafür, dass Investoren die neue Chipreihe als Bedrohung wahrnehmen. Dennoch verzeichneten die Anteile von AMD keinen entsprechenden Anstieg. An einem Tag, an dem Technologieaktien im Allgemeinen rückläufig waren, fielen auch die Aktien des Unternehmens um 1,3% auf 116,82 US-Dollar.
Die enorme Nachfrage nach Nvidia-Chips von Data-Center-Betreibern hat das Unternehmen dieses Jahr zu neuen Höhenflügen bei Börsenwert und Marktkapitalisierung verholfen, die nun bei über 1,1 Billionen US-Dollar liegt. Die große Frage ist nun, wie lange das Unternehmen den Beschleunigermarkt praktisch für sich alleine haben wird. AMD sieht eine Chance: Große Sprachmodelle – wie sie von KI-Chatbots wie OpenAI’s ChatGPT verwendet werden – benötigen eine riesige Menge an Computermemory und genau hier glaubt das Unternehmen, einen Vorteil zu haben.
Der neue AMD-Chip verfügt über mehr als 150 Milliarden Transistoren und 2,4-mal so viel Memory wie Nvidias H100, den aktuellen Marktführer. Darüber hinaus bietet er laut AMD auch1,6-mal so viel Speicherbandbreite, was die Leistung weiter steigert.
Su erklärte, dass der neue Chip Nvidia’s H100 in Sachen Training von AI-Software ebenbürtig sei und deutlich besser bei der Anwendung dieser Software in der Praxis. Obwohl das Unternehmen Vertrauen in die Leistung seines Produkts zeigt, betonte Su, dass es sich nicht nur um einen Zweikampf zwischen zwei Unternehmen handeln werde, da viele andere versuchen werden, Marktanteile zu gewinnen.
Gleichzeitig entwickelt Nvidia seine eigenen Chips der nächsten Generation. Die H100 wird im ersten Halbjahr 2022 von der H200 abgelöst, die Zugriff auf eine neue, hochwirksame Art von Speicher ermöglicht. Das dürfte zumindest einige der Leistungen von AMD’s Angebot ausgleichen. Und dann wird Nvidia voraussichtlich im Laufe des Jahres eine völlig neue Architektur für den Prozessor auf den Markt bringen.
AMD’s Prognose, dass sich der Markt für AI-Prozessoren bis 2024 zu einem Wert von 400 Milliarden Dollar entwickeln wird, unterstreicht den grenzenlosen Optimismus in der künstlichen Intelligenz-Branche. Im Vergleich dazu wird der gesamte Chipsektor 2022 laut IDC einen Wert von 597 Milliarden Dollar erreichen. Erst im August hatte AMD eine bescheidenere Prognose von 150 Milliarden Dollar für den gleichen Zeitraum abgegeben.
Doch es wird einige Zeit dauern, bis das Unternehmen einen großen Teil dieses Marktes für sich beanspruchen kann. AMD hat angekündigt, dass der eigene Umsatz aus den Beschleunigern im Jahr 2024 2 Milliarden Dollar überschreiten wird, während die Analysten insgesamt mit einem Umsatz des Chip-Herstellers von etwa 26,5 Milliarden Dollar rechnen.
Die Chips basieren auf der Art von Halbleitern, die als Grafikprozessoren bekannt sind, oder GPUs, die bisher vor allem von Videospielern eingesetzt wurden, um das realistischste Erlebnis zu erzielen. Ihre Fähigkeit, eine bestimmte Art von Berechnung schnell durchzuführen, indem sie viele Berechnungen gleichzeitig ausführen, macht sie zur bevorzugten Wahl für das Training von KI-Software.
(eulerpool-AFX)