Skip to content

Senior Data Platform Engineer 60%

  • Hybrid

Jobbeschreibung

Du begeisterst dich für Daten, moderne Cloud-Technologien und sauberen Code?

Dann erwartet dich eine spannende Aufgabe an der Schnittstelle zwischen Softwareentwicklung und Data Engineering. In einem agilen Scrum-Team arbeitest du an der Weiterentwicklung der Datenplattform und entwickelst skalierbare, performante Backend-Lösungen, die Datenprozesse intelligent automatisieren und optimieren.

 

Aufgaben:

  • Entwicklung und Wartung skalierbarer, effizienter Backend-Lösungen mit Python und PySpark in einer Databricks-Umgebung

  • Erweiterung und Pflege bestehender Backend-Komponenten (z. B. Transformations- und Test-Engine)

  • Implementierung von Unit-Tests mit hoher Testabdeckung sowie Integration in CI/CD-Pipelines (GitLab, trunk-based development)

  • Arbeiten in einem heterogenen Umfeld mit REST-APIs, Oracle-Datenbanken, Dateiimporten und Docker-Containern

  • Automatisierung von Datenvorbereitungsprozessen und lokalen Workflows mit Dagster (oder vergleichbaren Tools wie Airflow oder Databricks Workflows)

  • Identifikation technischer Lücken und Erstellung operativ getriebener Stories

  • Übersetzung fachlicher Anforderungen in technische Spezifikationen, Dokumentation und User Stories

  • Aktive Mitarbeit im agilen Scrum-Team, inklusive Code-Reviews, technischen Diskussionen und kontinuierlicher Produktverbesserung (DevOps)

  • Unterstützung im Betrieb und bei der Weiterentwicklung der Datenplattform in einer Cloud-Umgebung (Azure von Vorteil)

 

Weitere Tätigkeiten:

  • Umsetzung moderner Datenverarbeitungskonzepte wie ETL/ELT, Data Warehouse, Data Lake, Lakehouse und Medaillon-Architektur, inklusive Performance-Optimierung

  • Modellierung und Weiterentwicklung von Star- und Snowflake-Datenmodellen zur effizienten Datenanalyse und -bereitstellung

 

Stellenanforderungen

  • Abgeschlossenes Studium oder Ausbildung im Bereich Informatik, Data Science oder Wirtschaftsinformatik

  • Fundierte Erfahrung in der Backend-Entwicklung mit Python (PySpark-Erfahrung von Vorteil)

  • Kenntnisse in CI/CD-Pipelines (GitLab), Git und DevOps-Praktiken

  • Erfahrung mit SQL und Oracle-Datenbanken

  • Erfahrung in Cloud-Umgebungen (Azure von Vorteil)

  • Vertraut mit Orchestrierungstools wie Dagster, Airflow oder Databricks Workflows

  • Gute Kenntnisse moderner Datenarchitekturen (ETL/ELT, DWH, Lakehouse)

  • Freude an agiler Zusammenarbeit und technischen Diskussionen

  • Sehr gute Deutsch- und Englischkenntnisse

 

Generelle Rahmenbedingungen:

Start: Januar 2026 - Dezember 2026

Pensum: 60%

Ort: Bern, 2 mal pro Woche vor Ort zwingend

oder

Details

Hybrid
  • Bern, Schweiz

IMPACT DELIVERED

Callista ist ein partnergeführtes Unternehmen mit Hauptsitz in der Schweiz, das sich auf die Bereitstellung von Experten, schlagkräftigen Teams sowie Managed-Capacity-Lösungen für Consulting-, Engineering- und Betriebsleistungen spezialisiert hat.

Wir verbinden die Nähe und Qualität eines Schweizer Partners mit der Skalierbarkeit unseres Nearshore Centers in Serbien. Dieses Modell bietet Ihnen maximale Flexibilität – wirtschaftlich, zuverlässig und zukunftssicher. Mit einem starken Netzwerk, das sich von der Schweiz über Deutschland bis in die Balkanregion erstreckt, sowie tiefgreifender technologischer und methodischer Expertise schaffen wir die perfekte Balance zwischen lokaler Nähe und internationaler Effizienz.