Suchen

Machine Learning KIT nimmt neuartiges KI-System NVIDIA DGX A100 in Betrieb

| Redakteur: Jürgen Schreier

Künstliche Intelligenz ist als Werkzeug in der Spitzenforschung unentbehrlich. Das Karlsruher Institut für Technologie (KIT) hat nun als erster Standort in Europa das neuartige KI-System NVIDIA DGX A100 in Betrieb genommen.

Firma zum Thema

Bei den neuen Computersystemen vom Typ DGX A100 handelt es sich um Hochleistungsserver mit jeweils acht NVIDIA A100 Tensor Core GPUs. Gemeinsam erbringen die acht Beschleuniger eine Rechenleistung von 5 AI-PetaFLOP/s, also fünf Billiarde Rechenoperationen pro Sekunde.
Bei den neuen Computersystemen vom Typ DGX A100 handelt es sich um Hochleistungsserver mit jeweils acht NVIDIA A100 Tensor Core GPUs. Gemeinsam erbringen die acht Beschleuniger eine Rechenleistung von 5 AI-PetaFLOP/s, also fünf Billiarde Rechenoperationen pro Sekunde.
(Bild: Simon Raffeiner/SCC)

Ob bei der Entwicklung autonomer Roboter, neuartiger Funktionsmaterialien oder der Optimierung von Energiesystemen: Künstliche Intelligenz (KI) und maschinelles Lernen (ML) sind mittlerweile ein wichtiger Bestandteil der Forschung am Karlsruher Institut für Technologie.

Um den Einsatz dieser Zukunftstechnologien weiter voranzutreiben, engagiert sich das KIT in der Helmholtz Artificial Intelligence Cooperation Unit (HAICU), einer forschungsorientierten Plattform der Helmholtz-Gemeinschaft für angewandte KI, die feldübergreifende Forschungsprojekte fördert. Hier sollen Ähnlichkeiten zwischen Anwendungen identifiziert und ausgenutzt sowie die Entwicklung neuer Methoden vorangetrieben werden.

„Dafür ist vor allem eines nötig – eine extrem hohe Rechenleistung“, sagt Martin Frank, Direktor am Steinbuch Centre for Computing (SCC) am KIT und Professor am Institut für Angewandte und Numerische Mathematik (IANM) des KIT: „Beim Training einer KI mit großen Datensätzen kommen konventionelle Computersysteme an ihre Grenzen. Viele KI-Algorithmen lassen sich aber durch den Einsatz spezieller Hardware beschleunigen. Für unsere Forscherinnen und Forscher ist ein Zugriff auf solche Computersysteme heute ein entscheidender Wettbewerbsfaktor.“

Größere neuronale Netzwerke in kürzerer Zeit trainieren

Das Steinbuch Centre for Computing (SCC) des KIT hat daher die Beschaffung für den derzeit am SCC im Aufbau befindlichen Hochleistungsrechner Karlsruhe (HoreKa) genutzt und ist eine Partnerschaft mit dem Marktführer NVIDIA eingegangen, um als erster Standort in Europa Zugriff auf die derzeit modernsten KI-Systeme des Unternehmens zu erhalten.

Bei den nun installierten drei Computersystemen vom Typ DGX A100 handelt es sich um Hochleistungsserver mit jeweils acht NVIDIA A100 Tensor Core GPUs. Gemeinsam erbringen die acht Beschleuniger eine Rechenleistung von fünf AI-PetaFLOP/s, also fünf Billiarden Rechenoperationen pro Sekunde.

Im Vergleich mit dem bislang schnellsten Vorgängermodell NVIDIA V100 ist das eine Beschleunigung um den Faktor fünf. Gleichzeitig wurden die neuen Beschleuniger mit deutlich größerem und schnellerem Hauptspeicher ausgestattet und der Durchsatz des speziellen NVLink-Netzwerks zwischen den einzelnen Chips auf 600 Gigabit pro Sekunde erhöht.

„Den Forschern ist es damit nun möglich, deutlich größere neuronale Netzwerke als bisher in sehr viel kürzerer Zeit mit noch größeren Datenmengen zu trainieren“, so Frank.

HoreKa-Supercomputer geht im Sommer 2021 in Betrieb

Die neuen Systeme von NVIDIA erlauben es den Forschern auch, ihre Anwendungen direkt für den zukünftigen Supercomputer HoreKa des KIT zu optimieren. Dieser wird nämlich ebenfalls mit den A100-Beschleunigern von NVIDIA ausgestattet - allerdings mit 740 Stück. Bei der Inbetriebnahme im Sommer 2021 wird HoreKa damit voraussichtlich einer der zehn schnellsten Rechner Europas sein.

„Künstliche Intelligenz und Maschinelles Lernen können die Forschung in allen Anwendungsfeldern, also dort wo die drängenden Probleme der Menschheit gelöst werden, drastisch beschleuigen“, sagt Marc Hamilton, für den Bereich Entwicklung zuständiger Vizepräsident bei NVIDIA. „Unsere neuen DGX A100-Systeme mit Tensor Core GPUs und NVIDIA Mellanox HDR InfiniBand-Verbindungen unterstützen diese beschleunigte Forschung und werden den wissenschaftlichen Fortschritt in einem breiten Spektrum wichtiger Forschungsbereiche vorantreiben.“

(ID:46685374)