Wir suchen einen GCP Data Engineer, der Datenpipelines und die Cloud-Infrastruktur auf Google Cloud Platform (GCP) entwirft, implementiert und wartet. In dieser Rolle sind Sie für die Umwandlung von Rohdaten in strukturierte Formate verantwortlich und arbeiten eng mit Data Scientists, Analysten und Geschäftsteams zusammen, um die Verfügbarkeit von sauberen und zuverlässigen Daten für Analysen und Entscheidungen sicherzustellen.
Entwerfen und erstellen Sie Datenpipelines mit GCP-Diensten wie BigQuery, Dataflow, Pub/Sub und Cloud Composer.
Entwickeln Sie ETL/ELT-Prozesse zum Sammeln, Transformieren und Laden von Daten aus verschiedenen Quellen in GCP.
Optimieren Sie die Leistung und reduzieren Sie die Kosten für Abfragen und Datenspeicherung in BigQuery.
Arbeiten Sie mit funktionsübergreifenden Teams zusammen, um Datenmodelle, Schemata und Governance-Strategien zu definieren.
Entwickeln Sie Infrastruktur als Code mit Terraform oder GCP Deployment Manager für skalierbare, automatisierte Bereitstellungen.
Implementieren Sie die Überwachung und Alarmierung für Datenpipelines mit GCP-Tools wie Cloud Monitoring und Cloud Logging.
Stellen Sie sicher, dass die Datensicherheit und die Zugriffskontrolle gemäß den Unternehmens- und Branchenstandards eingehalten werden.
Unterstützen Sie Datenwissenschaftler und Analysten durch die Bereitstellung sauberer, zuverlässiger Datensätze für Analysen und maschinelles Lernen.
Erforderlich:
3+ Jahre Erfahrung in der Datentechnik oder in einer ähnlichen Funktion.
Beherrschung von GCP-Diensten wie BigQuery, Dataflow, Pub/Sub, Cloud Storage und Cloud Functions.
Starke Erfahrung mit SQL und Python (oder Java/Scala).
Verständnis von Data Warehousing, dimensionaler Modellierung und ETL Best Practices.
Erfahrung mit Orchestrierungstools wie Cloud Composer (Airflow).
Vertrautheit mit CI/CD-Tools und DevOps-Praktiken in einer Cloud-Umgebung.
Erfahrung mit Terraform oder ähnlichen Infrastruktur-as-code-Tools.