2 minute read

MIT KI UND CLOUD ZU NEUEN GREENLAKE-UFERN

Auf der HPE Discover 2023 in Las Vegas steht wieder Greenlake im Zentrum. HPE stockt die Palette an As-a-Service-Lösungen für die hybride Cloud weiter auf. Neu ist zudem die eigene KI-Cloud in Kooperation mit dem deutschen Startup Aleph Alpha.

Vor fünf Jahren gab Anotonio Neri, seinerzeit noch neu in der Position als CEO von HPE, den Startschuss für den HybridCloud-Service Greenlake, der inzwischen eine Vielzahl von Services umfasst, die von Edge-Standorten über die Private Cloud bis hin zur Public Cloud reichen. Auf der Discover 2023 in Las Vegas verkündet HPE den weiteren Ausbau von Greenlake in alle Richtungen und setzt damit einen Kurs fort, den Neri als Erfolgsgeschichte sieht: „HPE Greenlake ist in dieser neuen Kategorie führend”, so der HPE-CEO, „und heute bauen wir unsere Führungsposition weiter aus, durch die Steigerung der Reichweite, der Auswahl und der Funktionen unserer Hybrid- und Private-CloudAngebote”.

Im März hat HPE die Übernahme von OpsRamp angekündigt, einem Anbieter von Software für das IT Operations Management (ITOM). Im dritten Quartal soll die Operation abgeschlossen sein. Mit dieser Software werden IT-Infrastruktur, CloudRessourcen und Anwendungen in hybriden Multi-Cloud-Umgebungen überwacht und gesteuert, was vor allem die Nutzung mehrere Cloud-Anbieter erleichtern soll. Die Operations-Management-Lösung von OpsRamp soll als eigenständiger Service in die Greenlake-Plattform integriert werden.

Weitere Ankündigungen sind eine Erweiterung der Zusammenarbeit mit AWS sowie eine erweiterte Unterstützung für den Einsatz von Red Hats Openshift-Container-Plattform in Greenlake for Private Cloud Enterprise. Das jüngste Angebot für die eigene Cloud der Kunden ist Greenlake for Private Cloud Business Edition. Die Lösung soll mit einer übergreifenden SaaSbasierten Management-Konsole den Betrieb von VMs in der Private Cloud und anderen Teilen der Hybrid Cloud vereinfachen. Wer das Greenlake-Private-CloudPortfolio von HPE nicht im eigenen Datacenter nutzen kann oder will, der kann das ab August stattdessen in Equinix International Business Exchange Data Centers tun.

HPE Greenlake for Private Cloud Enterprise und HPE Greenlake for Private Cloud Business Edition werden dann vorprovisioniert in verschiedenen Metro-Gebieten des Colocation-Anbieters zur Verfügung stehen, darunter auch Frankfurt.

Geht es um große KI-Sprachmodelle, dann denkt man zunächst an US-Produkte wie ChatGPT von OpenAI oder Googles Bard. HPE hat sich als ersten Partner für das auf der Discover angekündigte Greenlake for Large Language Models (LLMs) den deutschen KI-Startup Aleph Alpha ausgesucht, später sollen weitere KI-Angebote folgen.

HPE Greenlake for LLMs nutzt als Hardware-Komponente die im November 2022 vorgestellten Supercomputer der Cray-XDSerie mit H100-Tensor-Core-GPUs von Nvidia. Luminous, das vortrainierte große Sprachmodell von Aleph Alpha wird in verschiedenen Sprachen angeboten, darunter Englisch, Deutsch, Französisch, Italienisch und Spanisch. Die Kunden können für das weitere Training und Tuning ihre eigenen Daten verwenden. Zudem stellt HPE weitere Tools für Machine Learning und das Data Management zur Verfügung und die Kunden haben natürlich die Option OpenSource-Modelle zu verwenden. Der Service soll in Colocation-Rechenzentren laufen. Den Anfang macht dabei Qscale für die nordamerikanische Region mit einem Datacenter in Kanada, das fast komplett mit erneuerbarer Energie arbeitet. In Europa soll der Service im kommenden Jahr starten. Zusätzlich erweitert HPE sein KI-Angebot durch ein neues Portfolio aus KI-Inferencing-Lösungen, die auf ProliantGen11-Servern laufen werden. Hier stehen als GPU-Optionen Nvidias H100, L4 und L40 bereit.

Mehr zu Greenlake: https://voge.ly/vglWfsp/

Autor: Klaus Länger

This article is from: