Machine Learning
Eine datennative und kollaborative ML-Lösung für den gesamten ML-Lebenszyklus
Dive deeper into Machine Learning on Databricks
Databricks Machine Learning basiert auf einer offenen Lakehouse-Architektur. Die Lösung unterstützt ML-Teams bei der Aufbereitung und Verarbeitung von Daten, optimiert die teamübergreifende Zusammenarbeit und standardisiert den gesamten Lebenszyklus von der Experimentierphase bis zur Produktion.
Alle Datenaspekte für ML vereinfachen
Da Databricks ML auf einer offenen Lakehouse-Grundlage mit Delta Lake aufsetzt, ermöglichen Sie es Ihren Machine-Learning-Teams damit, auf Daten jeglichen Typs und Umfangs zuzugreifen, sie zu untersuchen und aufzubereiten. Verwandeln Sie Funktionen in Produktionspipelines mit Self-Service-Unterstützung, ohne auf den Support Ihrer Data Engineers angewiesen zu sein.
Tracking und Governance für Experimente automatisieren
Managed MLflow verfolgt Ihre Experimente automatisch und protokolliert Parameter, Kennzahlen, die Versionierungen von Daten und Code sowie Modellartefakte bei jedem Trainingsdurchlauf. Sie können frühere Durchläufe unkompliziert einsehen, Ergebnisse vergleichen und frühere Resultate nach Bedarf reproduzieren. Sobald Sie die für die Produktion am besten geeignete Modellversion ermittelt haben, registrieren Sie sie in der Modellregistrierung, um die Übergabe während des Bereitstellungslebenszyklus einfacher zu gestalten.
Den Modelllebenszyklus vollständig mit der Modellregistrierung verwalten
Nach der Registrierung der trainierten Modelle können Sie sie mit der Modellregistrierung während des gesamten Lebenszyklus kollaborativ verwalten. Modelle können versioniert werden und verschiedene Stadien durchlaufen, z. B. Experimentieren, Staging, Produktion und Archivierung. Das Lebenszyklusmanagement lässt sich in Genehmigungs- und Governance-Workflows mit rollenbasierter Zugriffskontrolle integrieren. Kommentare und E-Mail-Benachrichtigungen ermöglichen eine intensive Zusammenarbeit der Datenteams.
ML-Modelle in großem Umfang mit niedriger Latenz bereitstellen
Aus dem Modellregister können Sie schnell Produktionsmodelle bereitstellen. Dabei können Sie bei umfangreichen Modellen das Batch-Scoring oder aber Databricks Serving für eine latenzarme Online-Bereitstellung in Form von REST-API-Endpunkten nutzen. Da das Modellregister auf dem MLflow-Modellformat beruht, profitiert es von Ökosystemintegrationen für eine Vielzahl von Bereitstellungen. So lassen sich beispielsweise Docker-Container auf Kubernetes bereitstellen, oder ein Modell kann in ein Gerät geladen werden.

Produktkomponenten
Ressourcen
Berichte
E-Books und Blogposts
Möchten Sie loslegen?

