Ref: #66286
Dateningenieur (LATAM)
Stellenbezeichnung: Dateningenieur (Remote - Süd- und Mittelamerika, Vertrag)
Standort: Remote (offen für Kandidaten in Süd- und Mittelamerika), muss in der Lage sein, in der pazifischen Zeitzone zu arbeiten
Job Typ: Vertrag - 1 Jahr
Vergütung: $3.000 USD pro Monat
Sprache: Englisch in Wort und Schrift in einem professionellen Umfeld erforderlich
Über die Rolle:
Unser Kunde aus dem Bereich E-Commerce-Mode sucht einen Data Engineer zur Verstärkung seines Teams für einen langfristigen Remote-Vertrag. In dieser Funktion unterstützen Sie die Entwicklung und Optimierung von ETL-Pipelines, Datenverarbeitungsworkflows und Cloud-basierter Dateninfrastruktur. Sie werden mit Snowflake arbeiten und RBAC (Role-Based Access Control) implementieren, während Sie mit Senior Engineers zusammenarbeiten, um die Zuverlässigkeit und Sicherheit der Daten zu verbessern.
Dies ist eine großartige Gelegenheit für einen aufstrebenden Dateningenieur, praktische Erfahrungen mit modernen Cloud-Datentechnologien in einer schnelllebigen Umgebung zu sammeln.
Hauptverantwortlichkeiten:
- Entwickeln und pflegen Sie ETL-Pipelines zur effizienten Verarbeitung strukturierter und halbstrukturierter Daten.
- Arbeiten Sie mit Snowflake, um Dateneingabe, -umwandlung und -speicherung zu verwalten.
- Implementieren Sie RBAC-Richtlinien, um eine angemessene Datensicherheit und Zugriffskontrolle zu gewährleisten.
- Helfen Sie bei der Migration und Optimierung von Datenpipelines über AWS-, GCP- und Azure-Plattformen.
- Unterstützen Sie Snowflake Staging, Snowpipes und Datenfreigabeprozesse für kosteneffiziente Datenspeicherung und -abfrage.
- Arbeiten Sie mit funktionsübergreifenden Teams zusammen, um Datenintegrität, Sicherheit und Leistungsoptimierung zu gewährleisten.
- Beheben Sie Probleme bei der Datenaufnahme, Leistungsengpässe und Integrationsprobleme in einer Cloud-Umgebung.
Erforderliche Fähigkeiten und Erfahrungen:
- Mindestens 1 Jahr Erfahrung in den Bereichen Data Engineering, ETL-Entwicklung oder Cloud-basierte Datenverarbeitung.
- Praktische Erfahrung mit Snowflake für Data Warehousing, Snowpipes, RBAC und SQL-Transformationen.
- Fähigkeit, Englisch professionell zu verwenden (schriftlich und mündlich)
- Starke SQL-Kenntnisse, einschließlich Erfahrung mit T-SQL, SnowSQL und Abfrageoptimierung.
- Erfahrung mit Cloud-Plattformen wie AWS, GCP oder Azure im Rahmen der Datentechnik.
- Grundkenntnisse in den Bereichen Datenverschlüsselung, Maskierung und bewährte Sicherheitsverfahren.
- Einige Erfahrung mit der Aufnahme von Daten aus APIs und Drittquellen (z.B. soziale Medien oder Marketingplattformen).
- Ausgeprägte Problemlösungskompetenz und die Fähigkeit, in einem kollaborativen Teamumfeld unabhängig zu arbeiten.
Schön zu haben:
- Vertrautheit mit Apache Airflow für die Workflow-Orchestrierung.
- Grundlegende Erfahrung mit Python, PySpark oder DBT für die Datentransformation und Pipeline-Automatisierung.
- Erfahrung mit Fivetran-Konnektoren für die Datenaufnahme aus verschiedenen Quellen.
- Verständnis von CI/CD-Pipelines, Docker und Kubernetes für die Automatisierung der Bereitstellung.
- Erfahrung mit BI-Tools wie Tableau oder SSRS für die Berichterstattung und Datenvisualisierung.