Zum Hauptinhalt springen

Der Beginn eines neuen Computerzeitalters

Verfasst von Kay Bartelt   //  
Verfasst von Kay Bartelt
//

Wettervorhersagen, Medikamentenentwicklung oder die Entdeckung neuer Energiequellen – Datenwissenschaftler nutzen zunehmend Supercomputing für Simulationen und Prognosen in ihren Projekten.

„Beschleunigte Datenverarbeitung und Künstliche Intelligenz (KI) bedeuten die Neuerfindung der Datenverarbeitung. Wir befinden uns am Wendepunkt einer neuen Computing-Ära mit beschleunigter Computerleistung und künstlicher Intelligenz, die von fast allen Software-Unternehmen der Welt genutzt wird“, sagte Nvidia-CEO Jen-Hsun Huang im Frühjahr diesen Jahres auf der größten IT-Messe Asiens, der Computex in Taiwan.

Noch vor einigen Jahren erzielten die Chip-Hersteller AMD und Nvidia den Großteil ihres Umsatzes vor allem im Computerspiele-Segment. Inzwischen produzieren und verkaufen sie eigene KI-Lösungen für Supercomputer, die Prozessor, Grafikchip und Arbeitsspeicher mit leistungsfähigen Konnektoren kombinieren.

Der Grund dafür ist, dass die parallele Architektur der Grafikkarten-Chips derzeit am besten geeignet ist, für das Trainieren von großen KI-Sprachmodellen, den Large Language Models (LLMs). Diese Modelle liegen den Chatbots wie ChatGPT von Open AI oder Bard von Google zugrunde.

Der im Sillicon Valley ansässige Konzern Nvidia hat sich im Zentrum der künstlichen Intelligenz positioniert. Der Hersteller hatte bereits vor mehr als 20 Jahren begonnen, in die Entwicklung von Chips und Software für KI-Anwendungen zu investieren.

„Der Wettlauf um die Einführung generativer KI ist eröffnet“, sagt der 1963 in Taiwan geborene Mitgründer, der schlicht Jensen genannt wird und dessen Markenzeichen edle schwarze Lederjacken sind. Huang beschreibt ein neues Computerzeitalter, in dem Unternehmen vom Allzweck-Computing zu einem auf KI ausgerichteten Techstack übergehen.

Was steckt dahinter?

Rechenzentren im Wert von etwa 1.000.000.000.000 US-Dollar (einer Billion) befinden sich aktuell im Übergang zu beschleunigtem Computing und generativer KI. Laut Jensen ist 2023 der iPhone-Moment für Künstliche Intelligenz.

„Wir erleben gleichzeitig zwei Plattformwechsel. Einer davon ist beschleunigtes Rechnen, und der Grund dafür liegt darin, dass (die Parallelverarbeitung) derzeit die kostengünstigste, energieeffizienteste und leistungsstärkste Art der Datenverarbeitung ist – und dann kam die künstliche Intelligenz dazu“, sagte Jensen bei der Veröffentlichung der Quartalszahlen im August diesen Jahres.

Nvidia baut auf der technischen Basis seiner schnellen Grafikprozessoren (Graphic Processing Units, GPUs) ein Komplettsystem auf, dass der klassischen CPU-Architektur des Van-Neumann-Modells über die Jahre immer mehr Rechenaufgaben abgenommen hat – bis es dies schließlich komplett ersetzt. Nvidia bietet die Hardware in verschiedenen Ausbaustufen bis hin zum DGX Superpod an, der eine schlüsselfertige KI-Infrastruktur für Rechenzentren darstellt.

Wichtiger Baustein dieser KI-Landschaft ist der Grace Hopper genannte Superchip, auf dem die Sprachmodelle trainiert werden. Mit 256 dieser Chips kann eine Rechenleitung erzeugt werden, die einer Zusammenschaltung von 63.000 iPhone 13 Geräten bedürfte. Der „Monstercomputer“ soll die derzeit existierenden Grenzen der KI verschieben und damit Motor der modernen Wirtschaft werden.

An der Spitze dieser Entwicklungen setzt sich das deutsche Forschungszentrum in Jülich. Dort wird im nächsten Jahr der erste europäische Supercomputer der Exascale-Klasse in Betrieb genommen. Mit Jupiter 2024 geht ein modulares System an den Start, deren Rechenknoten via Hochleistungs-Netzwerk verbunden sind.

Die GPU-Performance profitiert dabei auf mehreren Ebenen von Fortschritten entlang des gesamten Hard- und Software-Stacks. Wer die technische Infrastruktur als kostenorientierter Kunde nicht inhouse aufbauen möchte, kann inzwischen auch auf GPU Cloud-Container aus dem Hause Nvidia zurückgreifen, um diverse Machine-Learning-Verfahren nutzen zu können.

Ein Markt im Aufbruch

Um dieses Geschäftsmodell auszubauen verstärkt das Unternehmen die Zusammenarbeit mit anderen namhaften Herstellern wie Microsoft und SAP. Anwender sollen via Azure-Cloud auf erweiterte Nvidia-basierte KI-Services zugreifen und dort eigene Daten mit den vorhandenen Tools modellieren können. Das Projekt Inflection AI ist eines der ersten, die die Gunst der Stunde nutzt.

Microsoft ist aber nicht nur Partner, sondern auch Konkurrent im KI-Geschäft. Denn für das hauseigene KI-Produkt Copilot schickt der Techgigant gleichzeitig die Eigenentwicklungen Azure Maia und Azure Cobalt ins Rennen und will damit die Cloud-Infrastruktur neu denken.

Neu gedacht werden, muss langfristig vor allem der Preis solcher Systeme. Nvidia kann derzeit Margen von 70% erzielen, das weckt Interesse beim Wettbewerb. Chiphersteller-Konkurrent AMD hatte kürzlich zur Konzern-Veranstaltung Advancing AI eingeladen und dort die neuen AMD Instinct MI300 Beschleuniger vorgestellt.

Auch Intel präsentierte kürzlich seine KI-Visionen auf dem Firmen-Event AI Everywhere. Hiernach wird die Künstliche Intelligenz nicht mehr nur auf bestimmte Bereiche beschränkt sein, sondern in viele Aspekte des Lebens einbezogen. Intel konzentriert sich insbesondere auf die Entwicklung kleinerer KI-Modelle, wie z.B. den AI PC, um Produktivität und Effizienz im Arbeitsprozess weiter zu verbessern.

Für die Chips der Serien Meteor Lake und Arrow Lake ist ein 'disaggregated design' vorgesehen, im Gegensatz zur bisher monolitischen Bauweise. Damit verspricht Intel das Beste aus beiden Welten zu liefern: echte monolithische Leistung kombiniert mit den Vorteilen einer gespalteten Architektur, die auf die Massenfertigung ausgerichtet ist. Willkommen in der Siliconomy.

Aber auch beim derzeit wertvollsten Chip-Hersteller der Welt Nvidia werden die Produkte ständig weiterentwickelt. Ab dem 2. Quartal 2024 soll die vierte Generation der Superchips auf den Markt kommen, um das dringlichste KI-Problem dieser Tage zu lösen: Speicherplatz. Die neuen H200-Modelle bringen im Vergleich zum Vorgänger H100 eine um das 1,4-fache gesteigerte Speicherbandbreite und 1,8 Mal mehr adressierbare Speicherkapazität mit.

Es ist sehr unwahrscheinlich, dass diese Entwicklungsgeschwindigkeit erlahmt. Im Gegenteil. Die KI ist gekommen um zu bleiben. In nur fünf bis zehn Jahren sollen Teile künstlicher Intelligenz mit der Fähigkeit normaler menschlicher Gehirne ausgestattet sein. Die Zukunft beginnt dann wieder neu – bis zur nächsten Iteration.