Ref: #73382

Python/ Plattform-Engineer

Über die Rolle

Als AI/ML Platform Engineer bei Cobrainer werden Sie eine skalierbare Infrastruktur zur Unterstützung unserer KI- und maschinellen Lernprozesse entwerfen, aufbauen und warten. Sie spielen eine zentrale Rolle bei der Integration großer Sprachmodelle und Skill-Graphen in verteilte AWS-basierte Systeme und sorgen für Zuverlässigkeit, Skalierbarkeit und Effizienz. Neben der Infrastruktur tragen Sie zur Datenorchestrierung und Modellentwicklung bei und helfen dabei, die KI-Lösungen von Cobrainer zukunftssicher zu machen.

Verantwortlichkeiten

  • Zerlegen Sie die Produktanforderungen in umsetzbare technische Aufgaben für Ihr Team.
  • Erklären Sie den Technik-, Produkt- und Stakeholder-Teams die Dateneinschränkungen.
  • Integrieren Sie KI/ML-Modelle in verteilte Cloud-Architekturen auf AWS.
  • Entwerfen und implementieren Sie eine skalierbare Infrastruktur mit AWS-Diensten (Fargate, Lambda, ECS usw.).
  • Entwickeln und pflegen Sie robuste Datenpipelines und Orchestrierungsprozesse.
  • Verbessern Sie die automatische Bereitstellung, Protokollierung und Überwachung von Einstellungen.
  • Tragen Sie zur Textanalyse und zu NLP-Modellen bei, um wichtige Geschäftsdaten zu extrahieren und zu strukturieren.

Qualifikationen

  • Hochschulabschluss in Informatik, Datenwissenschaft, Statistik oder einem verwandten Fachgebiet.
  • Mindestens 4 Jahre Branchenerfahrung in der Entwicklung datenzentrierter Software-Frameworks, einschließlich Infrastruktur.
  • Fundierte Kenntnisse in der OOP-Softwareentwicklung.
  • Kenntnisse in der Linux-basierten Softwareentwicklung.
  • Erfahrung mit Container-Technologien (Docker), Versionskontrolle (GitLab/GitHub) und CI/CD-Pipelines.
  • Agile Denkweise mit Erfahrung in modernen Entwicklungspraktiken.
  • Sie sprechen fließend Englisch in Wort und Schrift.

Erforderliche Fertigkeiten

  • Fortgeschrittene Kenntnisse in moderner Python-Entwicklung, einschließlich Datenbankmanagement und Softwaretests.
  • Praktische Erfahrung in der Cloud-Native-Entwicklung auf AWS.
  • Nachgewiesene Erfolgsbilanz bei der Orchestrierung umfangreicher Datenpipelines.
  • Erfahrung in der Vorbereitung und Bearbeitung von Datensätzen für die Modellbewertung (strukturierte, halbstrukturierte und unstrukturierte Daten).

Bevorzugte Fertigkeiten

  • Praktische Erfahrung mit den neuesten Entwicklungen großer Sprachmodelle (LLM).
  • Vertrautheit mit Data Science Frameworks (NumPy, pandas, scikit-learn).
  • Erfahrung mit Deep Learning Frameworks (PyTorch, TensorFlow).
  • Kenntnisse in einem oder mehreren der folgenden Bereiche: Entity-Extraktion/Verknüpfung, Dokumentenklassifizierung, Wissensgraphen, Empfehlungen/Matching.
  • Erfahrung mit Orchestrierung und ML-Plattformen wie Prefect, Airflow, Kubeflow, SageMaker.
Fügen Sie eine Lebenslaufdatei an. Akzeptierte Dateitypen werden DOC, DOCX, PDF, HTML und TXT.

Wir laden Ihre Bewerbung hoch. Es kann einige Augenblicke dauern, bis Sie Ihren Lebenslauf lesen können. Bitte warten!