Datenarchitekt (Azure/Fabric)
Mit Sitz in Paris
Verantwortlichkeiten: Entwurf und Implementierung von End-to-End-Datenlösungen in Azure Fabric (Lakehouse, Data Warehouse, semantische Modelle). Integration mit Power BI und Skalierbarkeitsmodellen. Definieren Sie Datenzonen/Hierarchie (Bronze-, Silber-, Gold-Schichten). Einrichtung von Data-Governance-Rahmenwerken. Datenmodellierung und Entwurf von ETL/ELT-Pipelines. Definieren Sie Transformationslogik und Geschäftsregeln. Verwalten Sie inkrementelle Ladungen, Dimensionen und Qualitätsprüfungen. Optimieren der Abfrageleistung und der Speichereffizienz. (Tools: SQL, Python (PySpark), Azure Data Factory, Fabric Notebooks, dbt). Erfahrung in der Python- und SQL-Entwicklung: Schreiben Sie effiziente Python-Skripte (PySpark) für die Datentransformation in Fabric Notebooks. SQL für komplexe Abfragen, Aggregationen und Leistungsoptimierung. Entwickeln Sie Code-Bibliotheken und wiederverwendbare Funktionen. Verwalten Sie die Validierung der Datenqualität und die Fehlerbehandlung. Darstellung der Daten in der endgültigen Dashboard-Eigenschaft. CI/CD-Pipeline und Verwaltung der GitHub-Versionskontrolle: Implementierung von CI/CD-Workflows für die Bereitstellung von Datenprodukten. Verwalten Sie Code-Repositories und Verzweigungsstrategien. Verfolgen Sie Änderungen und pflegen Sie Audit Trails. Tools: GitHub, Azure DevOps Pipelines, GitHub Actions, Git CLI, Verzweigungsschutzregeln. Datenverwaltung.
Erforderliche technische Kenntnisse:
- Microsoft Azure
- Microsoft Azure Dienst-Fabric
- Azure DevOps-Pipelines
- SQL
- PySpark
- Git CLI, GitHub
- Power BI RLS