Armonk – IBM und AMD haben eine Zusammenarbeit zur Bereitstellung von AMD Instinct MI300X Accelerators als Service in der IBM Cloud angekündigt. Dieses Angebot, das voraussichtlich in der ersten Hälfte des Jahres 2025 verfügbar sein wird, zielt darauf ab, die Leistung und Energieeffizienz von Gen-AI-Modellen wie High Performance Computing (HPC) Anwendungen für Unternehmenskunden zu verbessern.
Diese Zusammenarbeit wird auch die Unterstützung von AMD Instinct MI300X Accelerators innerhalb der IBM watsonx AI- und Datenplattform sowie die Unterstützung von Red Hat® Enterprise Linux® AI-Inferenz ermöglichen.
„Da Unternehmen immer grössere KI-Modelle und Datensätze implementieren, ist es von entscheidender Bedeutung, dass die Beschleuniger innerhalb des Systems rechenintensive Workloads mit hoher Leistung und Flexibilität zur Skalierung verarbeiten können“, so Philip Guido, Executive Vice President und Chief Commercial Officer von AMD. „AMD Instinct Accelerators in Kombination mit der AMD ROCm Software bieten umfassende Unterstützung, einschließlich IBM watsonx AI, Red Hat Enterprise Linux AI und Red Hat OpenShift AI-Plattformen, um führende Frameworks mit diesen leistungsstarken Open-Ecosystem-Tools zu erstellen. Unsere Zusammenarbeit mit IBM Cloud wird darauf abzielen, Kunden die Ausführung und Skalierung von Gen AI Inferencing zu ermöglichen, ohne dass dies zu Lasten von Kosten, Leistung oder Effizienz geht.“
„AMD und IBM Cloud verfolgen die gleiche Vision, KI in Unternehmen zu bringen. Wir sind bestrebt, Unternehmenskunden die Leistungsfähigkeit von KI zugänglich zu machen, ihnen bei der Priorisierung ihrer Ergebnisse zu helfen und sicherzustellen, dass sie beim Einsatz ihrer KI die Entscheidungshoheit haben. die “, sagte Alan Peacock, General Manager von IBM Cloud. „Durch die Nutzung der Accelerator von AMD in der IBM Cloud werden unsere Unternehmenskunden eine weitere Option zur Skalierung erhalten, um ihre Anforderungen im Bereich der KI zu erfüllen, und gleichzeitig sollen sie dabei unterstützt werden, Kosten und Leistung zu optimieren.“
IBM und AMD arbeiten zusammen, um MI300X Accelerators als Service in der IBM Cloud bereitzustellen und Unternehmenskunden bei der Nutzung von KI zu unterstützen. Um Unternehmenskunden aus verschiedenen Branchen, darunter auch stark regulierte, Hilfestellung zu bieten, beabsichtigen IBM und AMD, die Funktionalitäten der IBM Cloud in den Bereichen Sicherheit und Compliance voll auszuschöpfen.
- Unterstützung für Large Model Inferencing: Ausgestattet mit 192 GB High Bandwidth Memory (HBM3) bieten AMD Instinct MI300X Accelerators- Unterstützung für Larges Model Inferencing und Fine Tuning. Die große Speicherkapazität kann Kunden auch dabei helfen, größere Modelle mit weniger GPUs auszuführen, wodurch die Kosten für die Inferecing möglicherweise gesenkt werden.
- Verbesserte Leistung und Sicherheit: Die Bereitstellung von AMD Instinct MI300X Accelerators als Service auf IBM Cloud Virtual Servers for VPC sowie die Unterstützung von Containern mit IBM Cloud Kubernetes Service und IBM Red Hat OpenShift on IBM Cloud können dazu beitragen, die Leistung unternehmensinterner KI-Anwendungen zu optimieren.
Für generative AI Inferencing Workloads plant IBM, die Unterstützung für AMD Instinct MI300X Accelerators in der watsonx AI und Datenplattform von IBM zu ermöglichen und watsonx Kunden zusätzliche KI-Infrastrukturressourcen für die Skalierung ihrer KI-Workloads in Hybrid-Cloud-Umgebungen bereitzustellen. Darüber hinaus können auf den Red Hat Enterprise Linux AI und Red Hat OpenShift AI Plattformen Large Language Models (LLMs) der Granite-Familie mit Alignment-Tools unter Verwendung von InstructLab auf MI300X Accelerators ausgeführt werden.
IBM Cloud mit AMD Instinct MI300X Accelerators wird voraussichtlich in der ersten Hälfte des Jahres 2025 allgemein verfügbar sein. Bleiben Sie dran, um in den kommenden Monaten weitere Updates von AMD und IBM zu erhalten. (IBM/mc/hfu)
Weitere Informationen zu den GPU- und Accelerator-Angeboten von IBM finden Sie unter: https://www.ibm.com/cloud/gpu