Newspatriot
No Result
View All Result
  • Aktuelle
  • Politik
  • Presseschau
  • Soziales
  • Finanzen
  • Wirtschaft
  • Blockchain
    • DeFi
    • Bitcoin
    • Altcoins
    • Ethereum
    • NFT
    • Sicherheit
Newspatriot
  • Aktuelle
  • Politik
  • Presseschau
  • Soziales
  • Finanzen
  • Wirtschaft
  • Blockchain
    • DeFi
    • Bitcoin
    • Altcoins
    • Ethereum
    • NFT
    • Sicherheit
No Result
View All Result
Newspatriot

MSI präsentiert auf der COMPUTEX 2025 ein breites Server-Angebot, von der Rack-Integration bis hin zu KI- und Cloud-Lösungen

by Newspatriot
Mai 20, 2025

Taipeh (ots/PRNewswire)

MSI, ein führender globaler Anbieter von leistungsstarken Serverlösungen, präsentiert auf der COMPUTEX 2025 (Stand #J0506) sein bisher umfangreichstes Produktportfolio. Das Unternehmen stellt vollständig integrierte EIA-, OCP ORv3- und NVIDIA MGX-Racks, Core-Compute-Server auf Basis von DC-MHS sowie die neueste NVIDIA DGX Station vor. Im Fokus stehen dabei Systeme zur Rack-Integration, modulare Cloud-Infrastrukturen, KI-optimierte GPU-Systeme und Unternehmensserver-Plattformen. Diese Lösungen belegen die zunehmende Fähigkeit von MSI, schlüsselfertige, an die jeweiligen Workloads angepasste Infrastrukturen für Hyperscale-, Cloud- und Unternehmensanwendungen bereitzustellen.

„Die Zukunft der Dateninfrastruktur wird modular, offen und auf die spezifischen Workloads abgestimmt sein“, erklärt Danny Hsu, Geschäftsführer der Enterprise Platform Solutions bei MSI. „Auf der COMPUTEX 2025 demonstrieren wir, wie MSI sich zu einem Full-Stack-Server-Anbieter entwickelt, der integrierte Plattformen bereitstellt, um unseren Kunden beim effizienten und flexiblen Skalieren ihrer KI-, Cloud- und Unternehmensimplementierungen zu helfen.“

Vollständige Rack-Integration für Cloud- und KI-Rechenzentren

MSI zeigt seine Expertise in der Rack-Integration mit vollständig konfigurierten EIA 19 Zoll, OCP ORv3 21 Zoll und KI-Racks, die von NVIDIA MGX angetrieben werden. Diese Racks sind so konzipiert, dass sie den Betrieb moderner Infrastrukturen von Cloud-nativen Anwendungen bis hin zu KI-gestützten Implementierungen unterstützen. Jedes Rack ist vorintegriert, thermisch optimiert und betriebsbereit, wobei es spezifisch auf bestimmte Workloads abgestimmt ist. Dies verdeutlicht die Fähigkeit von MSI, eine umfassende, auf Workloads optimierte Infrastruktur von der Planung bis zur Bereitstellung anzubieten.

  • Das EIA-Rack bietet eine hohe Dichte an Rechenleistung für private Cloud- und Virtualisierungsumgebungen und integriert die zentrale Infrastruktur in ein Standard-19-Zoll-Format.
  • Das OCP ORv3-Rack verfügt über ein offenes 21-Zoll-Gehäuse, das eine hohe Rechen- und Speicherdichte bietet und eine effiziente 48-V-Stromversorgung sowie ein OpenBMC-kompatibles Management ermöglicht, ideal für Hyperscale- und softwaredefinierte Rechenzentren.
  • Das Enterprise AI Rack mit NVIDIA MGX, basierend auf der NVIDIA Enterprise Reference Architecture, ermöglicht eine skalierbare GPU-Infrastruktur für KI und HPC. Mit modularen Einheiten und einem leistungsstarken Netzwerk auf Basis von NVIDIA Spectrum™-X unterstützt es Multi-Node-Einheiten, die für umfangreiche Trainings-, Inferencing- und Hybrid-Workloads optimiert sind.

Core-Compute- und Open-Compute-Server für modulare Cloud-Infrastruktur

MSI hat sein Core-Compute-Sortiment um sechs DC-MHS-Server mit AMD EPYC 9005 Series- und Intel Xeon 6-Prozessoren in 2U4N- und 2U2N-Konfigurationen erweitert. Die Produktreihe richtet sich nach skalierbaren Cloud-Implementierungen und umfasst Nodes mit hoher Dichte und sowohl Flüssigkeits- als auch Luftkühlung sowie kompakte Systemlösungen, die auf Energie- und Raumeffizienz optimiert sind. Mit Unterstützung für OCP DC-SCM, PCIe 5.0 und DDR5 DRAM ermöglichen diese Server eine modulare, plattformübergreifende Integration und vereinfachte Verwaltung in privaten, hybriden und Edge-Cloud-Umgebungen.

Um die Flexibilität im Open-Compute-Einsatz weiter zu steigern, stellt MSI den CD281-S4051-X2 vor, einen 2OU 2-Node ORv3 Open-Compute-Server auf Grundlage der DC-MHS-Architektur. Optimiert für hyperskalierte Cloud-Infrastrukturen, unterstützt er einen einzelnen AMD EPYC 9005-Prozessor pro Node, bietet eine hohe Speicherdichte mit zwölf E3.S NVMe-Einschüben pro Node und integriert eine effiziente 48-V-Stromversorgung sowie OpenBMC-kompatibles Management, wodurch er ideal für softwaredefinierte und energieeffiziente Cloud-Umgebungen ist.

AMD EPYC 9005 Serie Plattform für dichte Virtualisierung und Scale-Out Workloads

  • CD270-S4051-X4 (Flüssigkeitskühlung): Ein flüssigkeitsgekühlter 2U 4-Node-Server mit einer TDP von bis zu 500W. Jeder Node hat 12 DDR5-DIMM-Steckplätze und 2 U.2-NVMe-Laufwerkseinschübe, optimal für dichte Berechnungen in thermisch beengten Cloud-Umgebungen.
  • CD270-S4051-X4 (Luftkühlung): Dieses luftgekühlte 2U-4-Node-System unterstützt bis zu 400W TDP und bietet energieeffiziente Rechenkapazität mit 12 DDR5 DIMM-Steckplätzen und 3 U.2 NVMe-Einschüben pro Node. Ideal geeignet für Virtualisierung, Container-Hosting und private Cloud-Cluster.
  • CD270-S4051-X2: Ein 2U 2-Node-Server, optimiert für Platzersparnis und hohe Rechendichte. Jeder Node hat 12 DDR5-DIMM-Steckplätze und 6 U.2-NVMe-Einschübe, wodurch er sich für allgemeine Virtualisierungs- und Edge-Cloud-Nodes eignet.

Plattform basierend auf Intel Xeon 6-Prozessoren für containerisierte und allgemeine Cloud-Dienste

  • CD270-S3061-X4: Ein 2U 4-Node Intel Xeon 6700/6500 Server, ausgestattet mit 16 DDR5 DIMM-Steckplätzen und 3 U.2 NVMe Einschüben pro Node. Ideal für containerisierte Dienste und gemischte Cloud-Workloads, die eine ausgewogene Rechendichte verlangen.
  • CD270-S3061-X2: Dieses kompakte 2U-2-Node-System mit Intel Xeon 6700/6500 bietet 16 DDR5-DIMM-Steckplätze und 6 U.2-NVMe-Einschübe pro Node, ideal für leistungsstarke Berechnungen und Speicherlösungen in skalierbaren Cloud-Diensten.
  • CD270-S3071-X2: Ein 2U 2-Node Intel Xeon 6900 System, entwickelt für I/O-intensive Workloads, mit 12 DDR5 DIMM-Steckplätzen und 6 U.2 Einschüben pro Node. Es ist besonders geeignet für speicherzentrierte Anwendungen und datenintensive Cloud-Anwendungen.

KI-Plattformen mit NVIDIA MGX & DGX Station für die KI-Bereitstellung

MSI bietet eine breite Palette an KI-fähigen Plattformen, darunter Server auf Basis von NVIDIA MGX sowie die DGX Station, die auf der NVIDIA Grace- und Blackwell-Architektur basiert. Die MGX-Reihe umfasst 4U- und 2U-Modelle, optimiert für KI-Training und -Inference, während die DGX Station leistungsstarke Rechenzentrums-Technologie in einem Desktop-Gehäuse für die lokale Modellentwicklung und Edge-KI-Bereitstellung bietet.

KI-Plattformen mit NVIDIA MGX

  • CG480-S5063 (Intel) / CG480-S6053 (AMD): Der 4U MGX GPU Server ist in zwei CPU-Konfigurationen verfügbar: der CG480-S5063 mit zwei Intel Xeon 6700/6500 Prozessoren und der CG480-S6053 mit zwei AMD EPYC Prozessoren der 9005 Serie. Beide Systeme unterstützen bis zu 8 FHFL Dual-Width PCIe 5.0 GPUs in luftgekühlten Rechenzentrumsumgebungen und sind somit ideal für Deep Learning Training und generative KI mit hohem Durchsatz. Der Intel-basierte CG480-S5063 hat 32 DDR5-DIMM-Steckplätze und unterstützt bis zu 20 E1.S-NVMe-Einschübe, ideal für speicher- und I/O-intensive Deep Learning-Pipelines.
  • CG290-S3063: Ein kompakter 2U-MGX-Server mit einem einzelnen Intel Xeon 6700/6500-Prozessor, der 16 DDR5-DIMM-Steckplätze und 4 FHFL-GPU-Steckplätze mit doppelter Breite unterstützt. Speziell für Edge Inferencing und leichtes KI-Training entwickelt, eignet er sich besonders für platzrestriktive Anwendungen, bei denen Latenz und Energieeffizienz entscheidend sind.

DGX Station

Die CT60-S8060 ist eine leistungsstarke KI-Station, basierend auf dem NVIDIA GB300 Grace Blackwell Ultra Desktop Superchip, die eine KI-Leistung von bis zu 20 PFLOPS und 784 GB Unified Memory bietet. Sie ist mit dem NVIDIA ConnectX-8 SuperNIC ausgestattet, der ein Netzwerk mit bis zu 800 Gb/s für Hochgeschwindigkeitsdatenübertragung ermöglicht. Das System ist für das Training und die Inferenz von Modellen vor Ort konzipiert, unterstützt mehrere Benutzer-Workloads und kann sowohl als eigenständige KI-Workstation als auch als zentrale Rechenressource für Forschung und Entwicklung eingesetzt werden.

Foto – Link zum Bild

Ursprünglicher Inhalt ansehen: Hier klicken

Pressekontakt:

Darcy Lee,
darcylee@msi.com

Welt News

Kimera® Labs erreicht Halbfinale im innovativen Gesundheitswettbewerb XPRIZE Healthspan zum gesunden Altern mit einem Preisgeld von 101 Millionen Dollar

Dienst an der Waffe: Kein Extrem

ZIRBELINO übernimmt Zirbenshop.at: Innovation trifft auf traditionelle Qualität

Kommentar der Rhein-Neckar-Zeitung (Heidelberg) zur Nahost-Reise von US-Präsident Trump

Revolutionäre Bausteinlösungen für Rechenzentren (DCBBS) von Supermicro vereinfachen und beschleunigen den Aufbau von flüssigkeitsgekühlten AI/IT-Rechenzentren weltweit

DLRG Bilanz: Ehrenamtliche retten 1.446 Menschenleben

Kryptonews Aktuell

Kann Ethereum 2025 auf 5.000 $ steigen? Drei Entwicklungen machen Hoffnung

FOMO treibt Bitcoin über 100.000 $, doch Gefahr lauert

Plant BlackRock heimlich einen XRP-ETF?

Cardano Kursrückgang: Prallt $ADA bei $0,74 Unterstützung ab?

Meta : Übernahme von Ripple mobilisiert XRP-Wert in Milliardenhöhe

Ripples RLUSD-Stablecoin steigt auf 312 Millionen Token, aber 70 % werden von nur 10 Wallets gehalten

Kategorie

  • Blockchain
    • Altcoins
    • Bitcoin
    • DeFi
    • Ethereum
    • NFT
    • Sicherheit
  • Finanzen
  • Politik
  • Presseschau
  • Soziales
  • Wirtschaft

Über uns

Fokus auf Nachrichten zu verschiedenen politischen, wirtschaftlichen, Blockchain- und anderen verschiedenen Themen, um eine Enzyklopädie für die Öffentlichkeit zu sein

  • Haftungsausschluss

Newspatriot © 2024.

No Result
View All Result
  • Aktuelle
  • Politik
  • Soziales
  • Presseschau
  • Finanzen
  • Wirtschaft
  • Blockchain
    • DeFi
    • Ethereum
    • NFT
    • Bitcoin
    • Altcoins
    • Sicherheit

Newspatriot © 2024.