Data Engineer (m/w/d) Platforms & Operations
50k - 60k
Dresden
Deutschland
Das sind deine Aufgaben:
- Design, Implementierung und Betrieb von ETL-/ELT-Pipelines in Databricks
- Performance-Tuning, Kostenmanagement und sicheres Berechtigungsmanagement
- Datenmodellierung und Dokumentation von Datenflüssen
- Aufbau und Pflege von Grafana-Dashboards zur Überwachung von Kundenanlagen und Produktionsequipment
- Automatisierung von Workflows und Prozessen inklusive CI/CD-Deployment
- Monitoring, Incident-Management und regelmäßige Data-Quality-Checks
- Enge Zusammenarbeit mit Fachbereichen und IT, um Unternehmensdaten bedarfsgerecht bereitzustellen
Das solltest du mitbringen:
- Abgeschlossenes Studium in Informatik, Ingenieurswissenschaften oder vergleichbare Qualifikation bzw. relevante Berufserfahrung
- Erfahrung mit Databricks, SQL, Warehouses, Jobs, Streams, Security/RBAC und Performance-Optimierung
- Sicherer Umgang mit ETL-/ELT-Prozessen, Aufbau skalierbarer Datenpipelines in dbt inkl. Orchestrierung
- Kenntnisse in Grafana: Dashboards, Alerting, Datasource-Anbindung, Berechtigungskonzepte
- Sehr gute Programmierkenntnisse in Python und SQL
- Erfahrung mit Software-Engineering-Praktiken: Tests, Code-Reviews, Git
- Systematische, qualitätsorientierte Arbeitsweise und Automatisierungskompetenz
- Fließende Deutschkenntnisse (C1) und gute Englischkenntnisse in Wort und Schrift
Schlagworte
Data Engineer, Databricks, ETL, ELT, dbt, Python, SQL, Datenmodellierung, Datenpipelines, Automatisierung, CI/CD, Grafana, Monitoring, Data Quality, Incident Management, Workflow Orchestrierung, Performance Optimierung, Security, RBAC, Datenarchitektur, Dashboard, Data Engineering, Software Engineering, Test, Code Review, Git, IT Zusammenarbeit, Datenmanagement, Produktionsdaten, Prozessoptimierung, Skalierbare Datenpipelines, Berechtigungsmanagement, Datenflussdokumentation