Oracle und NVIDIA liefern weltweit souveräne KI
Austin – Oracle und NVIDIA haben eine erweiterte Zusammenarbeit vereinbart, um Kunden auf der ganzen Welt souveräne KI-Lösungen zu bieten. Die distributed Cloud, die KI-Infrastruktur und die generativen KI-Services von Oracle in Kombination mit dem beschleunigten Computing und der generativen KI-Software von NVIDIA ermöglichen es Regierungen und Unternehmen, KI-Fabriken einzurichten. Diese KI-Fabriken können Cloud-Dienste lokal und innerhalb der sicheren Räumlichkeiten eines Landes oder einer Organisation mit ein er Reihe von Betriebskontrollen betreiben und so die staatlichen Ziele der Diversifizierung und der Ankurbelung des Wirtschaftswachstums unterstützen.
«Da KI die Wirtschaft, Industrie und Politik auf der ganzen Welt umgestaltet, müssen Länder und Organisationen ihre digitale Souveränität stärken, um ihre wertvollsten Daten zu schützen», sagte Safra Catz, CEO von Oracle. «Unsere fortgesetzte Zusammenarbeit mit NVIDIA und unsere einzigartige Fähigkeit, Cloud-Regionen schnell und lokal bereitzustellen, wird sicherstellen, dass Gesellschaften die Vorteile von KI nutzen können, ohne ihre Sicherheit zu gefährden.»
«In einer Ära, in der Innovationen durch generative KI vorangetrieben werden, ist Datensouveränität ein kultureller und wirtschaftlicher Imperativ», sagte Jensen Huang, Gründer und CEO von NVIDIA. «Die integrierten Cloud-Anwendungen und -Infrastrukturen von Oracle, kombiniert mit beschleunigtem Computing und generativen KI-Diensten von NVIDIA, schaffen die Flexibilität und Sicherheit, die Nationen und Regionen benötigen, um ihr eigenes Schicksal zu steuern.»
Schlüsselfertige Lösungen für die Datensouveränität der Kunden
Die Kombination der umfassenden KI-Plattform von NVIDIA mit der Enterprise-KI von Oracle, die in OCI Dedicated Region, Oracle Alloy, Oracle EU Sovereign Cloud und Oracle Government Cloud eingesetzt werden kann, bietet Kunden eine hochmoderne KI-Lösung, die mehr Kontrolle über Betrieb, Standort und Sicherheit bietet und so die digitale Souveränität unterstützt.
Länder auf der ganzen Welt investieren zunehmend in eine KI-Infrastruktur, die ihre kulturellen und wirtschaftlichen Ambitionen unterstützen kann. In 66 Cloud-Regionen in 26 Ländern können Kunden auf mehr als 100 Cloud- und KI-Services zugreifen, die Infrastruktur und Anwendungen zur Unterstützung von IT-Migration, -Modernisierung und -Innovation umfassen.
Die kombinierten Angebote der Unternehmen können über die öffentliche Cloud oder im Rechenzentrum eines Kunden an bestimmten Standorten mit flexiblen Betriebskontrollen bereitgestellt werden. Oracle ist der einzige Hyperscaler, der KI und vollständige Cloud-Services lokal und überall bereitstellen kann. Die OCI-Services und -Preise sind für alle Bereitstellungsarten einheitlich, um Planung, Portabilität und Verwaltung zu vereinfachen.
Die Cloud-Services von Oracle nutzen eine Reihe von NVIDIAs Stack, darunter die NVIDIA Accelerated Computing-Infrastruktur und die NVIDIA AI Enterprise Software-Plattform, einschließlich der neu angekündigten NVIDIA NIM Inferenz-Microservices, die auf der Grundlage von NVIDIA Inferenzsoftware wie NVIDIA TensorRT, NVIDIA TensorRT-LLM und NVIDIA Triton Inference Server aufgebaut sind.
Souveräne AI-Pioniere
Avaloq, ein führender Anbieter von Vermögensverwaltungstechnologie, hat sich für OCI Dedicated Region entschieden, um eine komplette OCI-Cloud-Region in sein eigenes Rechenzentrum zu bringen.
«OCI Dedicated Region entspricht unserem Bestreben, die maximale Kontrolle über die Datenresidenz zu gewährleisten und gleichzeitig Zugang zur neuesten Cloud-Infrastruktur zu bieten», sagt Martin Büchi, Chief Technology Officer bei Avaloq. «Dies unterstützt uns dabei, die digitale Transformation von Banken und Vermögensverwaltern weiter voranzutreiben.»
TEAM IM, ein führender neuseeländischer Anbieter von Informationsmanagement-Dienstleistungen, hat sich für Oracle Alloy entschieden, um die erste lokal betriebene Hyperscale-Cloud Neuseelands aufzubauen, die als TEAM Cloud bekannt ist.
«Unternehmen in Neuseeland sind zunehmend daran interessiert, die Leistungsfähigkeit der Cloud zu nutzen und gleichzeitig die Integrität ihrer Daten im eigenen Land zu schützen, indem sie eine einzigartige Hyperscale-Cloud-Lösung einsetzen», so Ian Rogers, Chief Executive Officer von TEAM IM. «Mit Oracle Alloy und der Möglichkeit, die KI-Plattform von NVIDIA in unsere Cloud-Services zu integrieren, sind wir in der Lage, ein Cloud-Service-Anbieter zu werden, der Organisationen des öffentlichen Sektors, des Handels und der iwi bei der Navigation durch die Feinheiten der digitalen Landschaft und der Optimierung ihrer digitalen Transformation unterstützen kann.»
e& UAE, der Telekommunikationszweig der e& Gruppe, arbeitet mit Oracle zusammen, um seine KI-Fähigkeiten zu verbessern und beabsichtigt, NVIDIA H100 Tensor Core GPU-Cluster einzusetzen. «OCI wird es uns ermöglichen, NVIDIA H100 GPU-Cluster in unserer eigenen OCI Dedicated Region einzusetzen, die in den Rechenzentren von e& UAE gehostet wird», sagte Khalid Murshed, Chief Technology and Information Officer (CTIO) von e& UAE. «Diese Art der Lokalisierung ermöglicht es uns, die KI-Innovation in den VAE zu beschleunigen und hilft uns, neue KI-Anwendungen und Anwendungsfälle in großem Umfang zu entwickeln. Dies steht im Einklang mit den Transformationsbestrebungen von e& UAE, um Innovationen voranzutreiben und die Zukunft der Technologie zu gestalten, wobei wir uns darauf konzentrieren, KI-Exzellenz voranzutreiben, um unvergleichliche Kundenerlebnisse zu bieten.»
OCI Supercluster und OCI Compute mit NVIDIA Grace Blackwell gestärkt
Um Kunden dabei zu helfen, die ständig wachsenden Anforderungen von KI-Modellen zu erfüllen, plant Oracle, die neueste NVIDIA Grace Blackwell Computing-Plattform, die heute auf der GTC angekündigt wurde, in OCI Supercluster und OCI Compute zu nutzen. OCI Supercluster wird durch neue OCI Compute Bare Metal Instanzen, RDMA-Netzwerke mit extrem niedriger Latenz und Hochleistungsspeicher deutlich schneller werden. OCI Compute wird sowohl den NVIDIA GB200 Grace Blackwell Superchip als auch den NVIDIA Blackwell B200 Tensor Core GPU einsetzen.
Der NVIDIA GB200 Grace Blackwell Superchip wird eine neue Ära des Computing einläuten. Der GB200 bietet eine bis zu 30-mal schnellere LLM-Inferenz (Large Language Model) in Echtzeit, 25-mal niedrigere Gesamtbetriebskosten und einen 25-mal geringeren Energiebedarf im Vergleich zur vorherigen GPU-Generation, wodurch KI-Training, Datenverarbeitung sowie technisches Design und Simulationen optimiert werden. Die NVIDIA Blackwell B200 Tensor Core GPUs sind für die anspruchsvollsten KI-, Datenanalyse- und HPC-Workloads konzipiert.
NVIDIA NIM- und CUDA-X-Microservices, einschließlich NVIDIA NeMo Retriever für Retrieval-Augmented-Generation (RAG)-Inferenz-Implementierungen, werden OCI-Kunden dabei helfen, ihren generativen KI-Copiloten und anderen Produktivitäts-Tools unter Verwendung ihrer eigenen Daten mehr Einblick und Genauigkeit zu verleihen.
NVIDIA Grace Blackwell kommt zu DGX Cloud auf OCI
Um die steigende Kundennachfrage nach immer komplexeren KI-Modellen zu befriedigen, fügen die Unternehmen NVIDIA Grace Blackwell der NVIDIA DGX Cloud on OCI hinzu. Kunden können über diesen gemeinsam entwickelten Supercomputing-Service auf neue GB200 NVL72-basierte Instanzen zugreifen, die für energieeffizientes Training und Inferenz in einer Ära der Billionen-Parameter-LLMs entwickelt wurden.
Der vollständige DGX Cloud-Cluster wird mehr als 20.000 GB200-Beschleuniger und NVIDIA CX8 InfiniBand-Netzwerke umfassen, die eine hoch skalierbare und leistungsstarke Cloud-Infrastruktur bereitstellen. Der Cluster wird aus 72 Blackwell GPUs NVL72 und 36 Grace CPUs mit NVLink der fünften Generation bestehen. (Oracle/mc)