Serverless-Deployment für Amazon SageMaker Canvas-Modelle

AWS – Machine Learning Blog Original ≈1 Min. Lesezeit
Anzeige

In diesem Beitrag zeigen wir, wie Sie ein in SageMaker Canvas erstelltes ML-Modell mit SageMaker Serverless Inference bereitstellen können. Dadurch gelangen Sie schnell von der Modellentwicklung in die produktive Vorhersage, ohne sich um Infrastruktur kümmern zu müssen.

Der Ablauf beginnt mit dem Hinzufügen Ihres trainierten Modells zum SageMaker Model Registry. Anschließend legen Sie eine serverlose Endpoint-Konfiguration an, die die nötigen Ressourcen automatisch skaliert.

Schließlich wird der Endpoint bereitgestellt und kann sofort Anfragen entgegennehmen. Dank der automatischen Skalierung passt sich die Leistung dynamisch an die aktuelle Nachfrage an, sodass Sie stets optimale Antwortzeiten erhalten.

Ähnliche Artikel