1 min read

AWS eröffnet Innovationszentrum für generative KI

11.08.2023                Von Bernhard Lück             Lesedauer: 1 min

Das „AWS Generative AI Innovation Center“ soll AWS-Experten für KI und maschinelles Lernen (ML) mit Kunden auf der ganzen Welt zusammenbringen, damit diese neue generative KI-Produkte, -Services und -Prozesse konzipieren, entwickeln und einführen können.

Das AWS Generative AI Innovation Centre möchte neue Ideen und Fähigkeiten im Bereich der KI fördern, damit Unternehmen generative KI zu ihrem Vorteil nutzen können.
Das AWS Generative AI Innovation Centre möchte neue Ideen und Fähigkeiten im Bereich der KI fördern, damit Unternehmen generative KI zu ihrem Vorteil nutzen können.

(Bild: © – sdecoret – stock.adobe.com)

Im Rahmen des „AWS Generative AI Innovation Center“ investiert AWS 100 Millionen US-Dollar, um Kunden u. a. kostenlose Workshops und Trainings anzubieten. Das Team des Innovationszentrums, bestehend aus AWS-Experten in den Disziplinen Strategie, Data Science, Engineering und Solution Architecture, werde Kunden Schritt für Schritt dabei begleiten, maßgeschneiderte Lösungen auf Basis generativer KI schneller sowie effektiver zu implementieren. So könnten Unternehmen aus dem Gesundheitswesen und den Biowissenschaften beispielsweise mithilfe von generativer KI die Arzneimittelforschung beschleunigen, in der industriellen Fertigung könnten Design und damit einhergehende Prozesse effizienter gestaltet werden oder Finanzdienstleister könnten neue individualisierte Beratungsansätze entwickeln.

Die Zusammenarbeit mit Kunden umfasse die Bereitstellung von Strategien, Tools und Unterstützung bei der Nutzung der generativen KI-Services von AWS. Zu diesen Services gehören der KI-Codegenerator Amazon CodeWhisperer und Amazon Bedrock, ein verwalteter Service, der grundlegende Modelle von verschiedenen Anbietern anbietet, darunter AI21 Labs, Anthropic, Stability AI und Amazons eigene Modellfamilie namens Amazon Titan.

Kunden könnten ihre Modelle mit einer High-Performance-Infrastruktur trainieren und ausführen, z. B. mit AWS-Inferentia-basierten Amazon-EC2-Inf1-Instanzen, mit AWS-Trainium-basierten Amazon-EC2-Trn1-Instanzen und Amazon-EC2-P5-Instanzen, die von Nvidia-H100-Tensor-Core-GPUs betrieben werden. Darüber hinaus hätten Kunden die Möglichkeit, ihre eigenen Modelle mit Amazon SageMaker zu erstellen, zu trainieren und bereitzustellen oder Amazon SageMaker Jumpstart zu nutzen, um große Sprachmodelle von Cohere, Falcon 40B vom Technology Innovation Institute und Bloom von Hugging Face einzusetzen.

Dieser Artikel erschien ursprünglich bei unserem Schwesterportal BigData-Insider.

(ID:49644312)