Senior Python Entwickler
Werden Sie Teil eines dynamischen Ingenieurteams, das sich auf den Aufbau skalierbarer Backend-Systeme, die Automatisierung komplexer Arbeitsabläufe und die Unterstützung datengestützter Entscheidungsfindung konzentriert. In dieser Rolle entwerfen Sie Backend-Dienste, entwickeln robuste Web-Scraping-Lösungen und bauen Datenpipelines auf, die interne Abläufe und Data-Science-Initiativen unterstützen.
Prozessautomatisierung & Backend-Entwicklung
Entwerfen und implementieren Sie automatisierte Systeme, die interne Prozesse und die betriebliche Effizienz verbessern.
Erstellen Sie skalierbare Backend-Dienste, die sich nahtlos in die bestehende Infrastruktur integrieren lassen.
Stellen Sie sicher, dass die Dienste die Standards für Zuverlässigkeit, Leistung und Wartungsfreundlichkeit erfüllen.
Web Scraping & Datenextraktion
Entwickeln und pflegen Sie Scraper für eine Vielzahl von externen Quellen.
Verwalten Sie dynamische Inhalte, Authentifizierung, Ratenbeschränkungen und Anti-Bot-Herausforderungen.
Implementieren Sie eine starke Fehlerbehandlung, Protokollierung und Wiederholungslogik.
Datenmanipulation und -verarbeitung
Bereinigen, transformieren und verarbeiten Sie große strukturierte und unstrukturierte Datensätze.
Erstellen und pflegen Sie ETL/ELT-Pipelines, die hochwertige Daten an nachgelagerte Systeme liefern.
Überwachung & Beobachtbarkeit
Implementieren Sie die Überwachung von Systemleistung, Datenqualität und Betriebskennzahlen.
Erstellen Sie Dashboards und Warnmeldungen, um Zuverlässigkeit und Datenintegrität zu gewährleisten.
Zusammenarbeit in der Datenwissenschaft
Stellen Sie die Infrastruktur, Pipelines und Tools bereit, die für Data Science-Experimente und den Einsatz von Modellen benötigt werden.
Arbeiten Sie mit Datenwissenschaftlern zusammen, um Datensätze und Backend-Dienste bereitzustellen, die die Analysearbeit beschleunigen.
Code-Qualität und bewährte technische Praktiken
Verwenden Sie testgetriebene Entwicklung und pflegen Sie eine starke Abdeckung durch Unit-/Integrationstests.
Führen Sie Code-Reviews durch und fördern Sie technische Standards und Best Practices.
Befolgen Sie moderne Python-Paketierungs- und Abhängigkeitsverwaltungspraktiken.
CI/CD & Infrastruktur
Erstellen und pflegen Sie CI/CD-Pipelines für automatisierte Tests und Bereitstellung.
Arbeiten Sie mit DevOps bei der Containerisierung und Orchestrierung zusammen.
Lebenszykluseigentümerschaft & kontinuierliche Verbesserung
Sie sind für den gesamten Lebenszyklus der Backend-Dienste verantwortlich, von der Entwicklung bis zur Bereitstellung und laufenden Verbesserung.
Identifizieren Sie Möglichkeiten, um technische Schulden zu reduzieren und die Widerstandsfähigkeit des Systems zu erhöhen.
Technisches Fachwissen
Fortgeschrittene Python-Kenntnisse, einschließlich Erfahrung mit modernen Backend-Frameworks (z.B. FastAPI).
Ausgeprägtes Verständnis von HTTP, RESTful APIs und zentralen Webtechnologien.
Erfahrung in der Arbeit in Linux-Umgebungen.
Web Scraping & Automatisierung
Praktische Erfahrung mit Scraping-Bibliotheken und -Tools (z.B. BeautifulSoup, Scrapy, Selenium, Playwright).
Die Fähigkeit, JavaScript-gerenderte Inhalte, Sitzungen und komplexe Authentifizierungsabläufe zu verwalten.
Datenmanipulation
Starke Erfahrung mit Python-Datenbibliotheken (pandas, polars, NumPy).
Solide SQL-Kenntnisse und Vertrautheit mit gängigen Datenformaten (JSON, CSV, XML, HTML).
Überwachung & Beobachtbarkeit
Erfahrung mit Tools wie Datadog oder ähnlichen Plattformen.
Die Fähigkeit, wichtige Metriken, Protokolle und Warnmeldungen zu definieren, zu verfolgen und zu überwachen.
Datenbanken & Speicher
Praktische Erfahrung mit relationalen Datenbanken (z.B. PostgreSQL).
Vertrautheit mit ETL/ELT-Konzepten und Grundlagen von Data Warehouses.
CI/CD & DevOps-Zusammenarbeit
Erfahrung mit automatisierten Build/Test/Deploy-Pipelines.
Vertrautheit mit Docker und Kubernetes.
Datenwissenschaftliche Unterstützung
Verständnis von datenwissenschaftlichen Arbeitsabläufen und der für Experimente und den Einsatz benötigten Infrastruktur.
Erfahrung in der Entwicklung von Tools und Diensten für ML- und Analyseanwendungen.
Bachelor- oder Master-Abschluss in Informatik, Softwaretechnik oder einem verwandten Fachgebiet oder gleichwertige praktische Erfahrung.
5+ Jahre Erfahrung in der professionellen Python-Backend-Entwicklung.
3+ Jahre Erfahrung mit Web Scraping und Datenextraktion aus mehreren Quellen.
Nachgewiesene Erfahrung im Aufbau skalierbarer Backend-Systeme und automatisierter Prozesse.
Erfahrung mit Überwachungs-/Beobachtungstools.
Starke SQL-Erfahrung und Vertrautheit mit relationalen Datenbanken.
Beherrschung von Linux, Git und Befehlszeilen-Tools.
Erfahrung mit asynchroner/gleichzeitiger Verarbeitung (z.B. asyncio, Celery).
Erfahrung in den Bereichen Logistik, Transport oder Supply-Chain-Konzepte.
Erfahrung mit Microservices oder verteilten Systemen.
Vertrautheit mit Data Engineering Tools (dbt, Airflow, Prefect).
Erfahrung in der Erstellung von APIs, die in Pipelines für maschinelles Lernen integriert sind.
Open-Source-Beiträge im Zusammenhang mit Scraping, Data Engineering oder Automatisierung.
Erfahrung in der Verwendung von LLM-gestützten Entwicklungswerkzeugen in alltäglichen Arbeitsabläufen.