Wenn Sie auf “Alle akzeptieren” klicken, stimmen Sie der Speicherung von Cookies auf Ihrem Gerät zu, um die Navigation zu verbessern und unsere Marketingaktivitäten zu unterstützen. Weitere Informationen finden Sie in unserer Datenschutzrichtlinie.

Publikationen

Erfahrungen, Insights und mehr

Karriereportal

Offene Stellen

Project A

Texte und Dateien anonymisieren

RESA

Daten in Ihr SAP System übertragen

Effiziente Machine-Learning-Workflows mit SageMaker Pipelines

Viele Data Scientists kennen das Problem: Sobald ein Machine-Learning-Modellerfolgreich entwickelt wurde, beginnt die aufwendige Arbeit, es in einen...

Autor:in

Joanna Simm

Lesezeit

4 Minuten

Kategorie

Data Science

Aktualisiert

18.12.2024

Einleitung

Viele Data Scientists kennen das Problem: Sobald ein Machine-Learning-Modell erfolgreich entwickelt wurde, beginnt die aufwendige Arbeit, es in einen funktionierenden Workflow zu integrieren. Daten müssen vorbereitet, Trainingsskripte optimiert und die Bereitstellung des Modells koordiniert werden. Das Ergebnis: Statt sich auf die Optimierung ihrer Modelle zu konzentrieren, investieren Data Scientists einen Großteil ihrer Zeit in die Verwaltung von Prozessen – eine Herausforderung, für die es inzwischen spezialisierte Tools gibt, die den Workflow deutlich vereinfachen.

AmazonSageMaker AI Pipelines als Lösung

Eines dieser Tools ist SageMaker AI Pipelines von AWS (im Folgenden SageMaker Pipelines genannt). Es bietet eine skalierbare und automatisierte Lösung für die Erstellung von End-to-End-Workflows im Bereich Machine Learning. Es vereinfacht die komplexen Prozesse rund um Datenaufbereitung, Modelltraining, Evaluierung und Bereitstellung. Die Benutzeroberfläche und das SDK von SageMaker Pipelines ermöglichen es, alle Schritte einer ML-Pipeline in einem konsistenten und reproduzierbaren Framework zu definieren. Dabei profitiert man nicht nur von der Automatisierung, sondern auch von der engen Integration mit anderen AWS-Diensten wie S3 oder Lambda.

Aufbau und Funktionen

Der typische Workflow in SageMaker Pipelines besteht aus mehreren Schritten, die aufeinander aufbauen. Jeder Schritt hat dabei eine spezielle Aufgabe, die durch die Automatisierung des Workflows signifikant vereinfacht wird. Nachfolgendwerden die wichtigsten Schritte in einer typischen SageMaker-Pipeline beschrieben:

1. Datenvorbereitung (Processing Job)

Die Datenvorbereitung ist der erste und oft entscheidendste Schritt in einer Machine-Learning-Pipeline. In SageMaker Pipelines wird dieser Schritt durch Processing Jobs unterstützt. Hier werden Rohdaten automatisiert bereinigt, transformiert und in das richtige Format gebracht, um sie für das Modelltraining vorzubereiten. Ein Processing Job in SageMaker bietet eine skalierbare Infrastruktur, die es Data Scientists ermöglicht, Daten effizient und in einem reproduzierbaren Prozess zu verarbeiten. Das stellt sicher, dass die Daten in gleichbleibend hoher Qualität für den nächsten Schritt, das Modelltraining, bereitgestellt werden.

2. Training und Tuning (Training Job & Hyperparameter Tuning Job)‍

Nach der Datenvorbereitung folgt das Modelltraining. In SageMaker Pipelines erfolgt dies über den Training Job. Der Trainingsprozess in SageMaker ist vollständig skalierbar und kann an die Größe der Daten und die Komplexität des Modells angepasst werden. Ein wichtiger Bestandteil des Trainingsprozesses ist das Hyperparameter Tuning, das in SageMaker durch den Hyperparameter Tuning Job realisiert wird. Beim Hyperparameter-Tuning werden die Modellparameter automatisch optimiert, um die besten Ergebnisse zu erzielen. Dies kann durch Methoden wie Random Search erfolgen. Der Vorteil eines Hyperparameter Tuning Jobs ist, dass er den gesamten Prozess automatisiert und dabei hilft, die optimale Konfiguration für das Modell zu finden. Dieser Schritt ist entscheidend, da kleine Änderungen in den Hyperparametern (wie Lernrate oder Batchgröße) die Modellgenauigkeit erheblich beeinflussen können.

3. Evaluierung und Validierung (Evaluation Job)

Nachdem das Modell trainiert wurde, muss sichergestellt werden, dass es gut generalisiert. Dafür wird es auf neuen, unbekannten Daten evaluiert. Dies geschieht durch den Evaluation Job, der als regulärer Processing Step in SageMaker Pipelines ausgeführt wird. In diesem Schritt wird das Modell mit einem Evaluationsdatensatz getestet, um die Modellqualität zu bewerten. Der Evaluation Job stellt sicher, dass nur Modelle, die bestimmte Leistungsanforderungen erfüllen, in den nächsten Schritt – die Bereitstellung –überführt werden.

4. Modellregistrierung (Model Registration)

Bevor das Modell in der Produktion eingesetzt wird, wird es in der Model Registry von SageMaker gespeichert. Die Model Registry bietet eine zentrale, versionierte Sammlung von Modellen, die eine einfache Nachverfolgbarkeit und Verwaltung ermöglichen. Ein Modell, das in der Registry gespeichert wird, erhält eine eindeutige ID und eine Version, die es ermöglicht, jederzeit auf das Modell zuzugreifen und es bei Bedarf erneut zu verwenden. Die Model Registry ermöglicht es auch, Modelle für verschiedene Umgebungen (wie Test oder Produktion) zu verwalten und stellt sicher, dass die richtigen Modelle in den richtigen Szenarien verwendet werden.

5. Bereitstellung (Model Deployment)

Nachdem ein Modell in der Model Registry gespeichert wurde, kann es in die Produktionsumgebung überführt werden. Dieser Schritt umfasst die Einrichtung eines Endpunkts, über den das Modell für Echtzeitvorhersagen oder Batch-Inferenzen zugänglich gemacht wird. Dabei wird sichergestellt, dass das Modell stabil und skalierbar in der Produktionsumgebung läuft, sodass es auf neue Anfragen reagieren kann. Der Bereitstellungsprozess beinhaltet auch das Testen und Überwachen des Modells, um sicherzustellen, dass es die gewünschten Performance Metriken erfüllt und zuverlässig funktioniert.

Durch die Nutzung von detaillierten Monitoring-Mechanismen können Data Scientists die einzelnen Schritte genau überwachen und erhalten präzise Einblicke in den gesamten Prozess.

Fazit

SageMaker Pipelines ist ein leistungsstarkes Tool, das den gesamten Workflow von Machine-Learning-Projekten optimiert. Durch die Automatisierung manueller Prozesse können Data Scientists ihren Fokus stärker auf die Entwicklung und Optimierung ihrer Modelle legen. Die Möglichkeit, Workflows zu versionieren, gewährleistet dabei eine hohe Reproduzierbarkeit und Transparenz. Dank der engen Integration mit AWS-Diensten wie S3 und Lambda lässt sich SageMaker Pipelines reibungslos in bestehende Infrastrukturen integrieren, während der modulare Aufbau eine flexible Anpassung an wechselnde Anforderungen ermöglicht. Diese Eigenschaften machen SageMaker Pipelines zu einer Grundlage für effizientere Workflows, bessere Ergebnisse und nachhaltige Skalierbarkeit in der modernen Data-Science-Praxis.

Joanna Simm
Consultant Data Science
Interesse geweckt? Erzählen Sie uns von Ihrem Anwendungsfall und wir bieten Ihnen die passende Lösung.
Kontakt
Inhaltsverzeichnis

Aktuelles

Aktuelles
Jetzt bewerben
Wir suchen nach neuen Mitarbeitenden in Data Science, IT Management, Microsoft und SAP
Karriere starten
Jetzt bewerben
Wir suchen nach neuen Mitarbeitenden in Data Science, IT Management, Microsoft und SAP
Karriere starten