Ref: #63661
Datenplattform-Ingenieur
Job Titel: Datenplattform-Ingenieur
Standort: New York City (Hybrid)
Über uns:
Ein schnell wachsendes New Yorker Startup-Unternehmen an der Schnittstelle zwischen künstlicher Intelligenz und Personalmanagement. Ihr Ziel ist es, die Art und Weise, wie Unternehmen ihre Arbeitskräfte verwalten, durch innovative KI-gestützte Lösungen zu verändern, die die Produktivität steigern, die Abläufe optimieren und verwertbare Erkenntnisse liefern. Werden Sie Teil eines dynamischen Teams von Ingenieuren, Datenwissenschaftlern und Innovatoren, die mit Leidenschaft die Zukunft der Arbeit mitgestalten wollen.
Überblick über die Rolle:
Als Data Platform Engineer sind Sie für den Aufbau, die Pflege und die Skalierung unserer Dateninfrastruktur zur Unterstützung der KI-gesteuerten Mitarbeiterlösungen des Unternehmens verantwortlich. Diese Rolle erfordert ein tiefes Verständnis von Datenpipelines, Infrastructure as Code (IaC) und Cloud-nativen Technologien. Sie werden eng mit funktionsübergreifenden Teams zusammenarbeiten, um sicherzustellen, dass unsere Datenplattform skalierbar, zuverlässig und für die Leistung optimiert ist.
Hauptverantwortlichkeiten:
- Entwerfen, erstellen und pflegen Sie eine skalierbare Dateninfrastruktur, die unsere KI-Modelle und Analysen unterstützt.
- Entwickeln, überwachen und optimieren Sie Datenpipelines und Arbeitsabläufe mit SQL, Python und Bash.
- Verwalten Sie Kubernetes-Cluster, um eine effiziente Bereitstellung und Skalierung von Anwendungen zu gewährleisten.
- Automatisieren Sie die Bereitstellung der Infrastruktur mit Terraform, um eine schnelle Skalierung und Konsistenz zu ermöglichen.
- Nutzen Sie Überwachungs- und Benachrichtigungstools wie Prometheus und Grafana, um den Zustand und die Leistung Ihres Systems sicherzustellen.
- Implementieren Sie die kontinuierliche Bereitstellung mit Tools wie ArgoCD, um die Bereitstellungsprozesse zu optimieren.
- Arbeiten Sie mit Datenwissenschaftlern, Ingenieuren und anderen Beteiligten zusammen, um die Anforderungen der Plattform zu verstehen und Arbeitsabläufe zu optimieren.
- Beheben Sie Probleme im gesamten Stack (Infrastruktur, Pipelines und Datenbanken) und lösen Sie sie.
Fähigkeiten & Qualifikationen:
- SQL-Kenntnisse zur Abfrage und Verwaltung großer Datenmengen.
- Starke Erfahrung mit Kubernetes für die Container-Orchestrierung, einschließlich Konfiguration und Skalierung.
- Skripting-Kenntnisse in Python und Bash für die Automatisierung von Prozessen und die Optimierung von Pipelines.
- Erfahrung mit Infrastructure as Code (IaC) unter Verwendung von Terraform zur Verwaltung von Cloud-Umgebungen.
- Vertrautheit mit ArgoCD für GitOps-basiertes Continuous Deployment.
- Kenntnisse von Prometheus und Grafana zur Überwachung und Visualisierung von Systemmetriken.
- Verständnis von Cloud-Plattformen wie AWS, GCP oder Azure.
- Ausgeprägte Problemlösungsfähigkeiten und die Fähigkeit, in einer schnelllebigen Startup-Umgebung zu arbeiten.
Schön zu haben:
- Erfahrung mit Big Data-Technologien wie Apache Kafka, Spark oder Flink.
- Vertrautheit mit verteilten Datenspeicherlösungen (z.B. Cassandra, Elasticsearch).
- Kenntnisse über Konzepte und Arbeitsabläufe des maschinellen Lernens.
Wenn Sie sich für den Aufbau robuster Datenplattformen begeistern und von den Möglichkeiten der KI in der Arbeitswelt begeistert sind, würden wir gerne von Ihnen hören!