Wir suchen einen Databricks Champion, der die Einführung, Optimierung und den Einsatz der Databricks-Plattform in unserem Unternehmen leitet. Diese Person wird sowohl als technischer Experte als auch als strategischer Botschafter fungieren und Dateningenieure, Analysten und Wissenschaftler befähigen, skalierbare, leistungsstarke Datenlösungen zu liefern.
Der ideale Kandidat verfügt über weitreichende Erfahrung mit Big Data-Architekturen, Delta Lake und Spark sowie über eine Leidenschaft für die Betreuung von Teams, die Förderung von Spitzenleistungen auf der Plattform und die Förderung einer datengesteuerten Kultur.
Setzen Sie sich für die Einführung von Databricks in allen Teams ein, indem Sie Best Practices, Frameworks und wiederverwendbare Komponenten definieren.
Entwerfen und implementieren Sie skalierbare Datenpipelines unter Verwendung von Apache Spark, Delta Lake und Databricks SQL.
Arbeiten Sie mit funktionsübergreifenden Teams (Data Engineering, Analytik, maschinelles Lernen und IT) zusammen, um robuste, Cloud-native Datenlösungen zu entwickeln.
Optimieren Sie die Leistung der Plattform, einschließlich Clusterkonfiguration, Kostenmanagement und Job-Orchestrierung.
Sie leiten Enablement-Initiativen, einschließlich Databricks-Workshops, Sprechstunden und Dokumentation für Ingenieure und Analysten.
Evaluieren und integrieren Sie neue Databricks-Funktionen und -Tools (z.B. Unity Catalog, Delta Live Tables, Model Serving).
Sie fungieren als primäre Verbindung zwischen internen Benutzern und Databricks Kundenerfolgs- und Support-Teams.
Fördern Sie eine Kultur der Datenexzellenz, indem Sie sich für Datenqualität, Governance und Automatisierung über den gesamten Datenlebenszyklus hinweg einsetzen.
Erforderlich:
5+ Jahre Erfahrung in den Bereichen Data Engineering, Data Science oder Platform Engineering.
2+ Jahre praktische Erfahrung mit Databricks (einschließlich Delta Lake und Spark-Optimierung).
Bevorzugt:
Databricks zertifizierter Dateningenieur / Datenwissenschaftler.
Erfahrung mit der Implementierung von Unity Catalog oder Delta Live Tables.
Erfahrung mit Data Lakehouse oder unternehmensweiten Analyseplattformen.
Erfahrung mit MLflow oder Pipelines für maschinelles Lernen
Starke Erfahrung mit Python, SQL und PySpark.
Tiefes Verständnis von Cloud-Datenarchitekturen (AWS, Azure oder GCP).
Erfahrung mit CI/CD-Pipelines, Infrastructure-as-Code und Data Governance.
Starke Kommunikations- und Kooperationsfähigkeiten - in der Lage, komplexe Konzepte für unterschiedliche Zielgruppen zu übersetzen.