Zurück zu allen offenen Projekten
Zurück zu allen offenen Projekten
Data & DWH Engineering im AWS-Umfeld
100% Auslastung

Start: Mai 2025
Dauer: 18 Monate + (voraussichtlich insgesamt bis zu 33 Monate)
Auslastung: Vollzeit (39h)
Lokation: Remote & Frankfurt am Main (80/20)
Vertragsart: Arbeitnehmerüberlassung
Aufgaben
- Verantwortung für die Programmierung, Analyse und Konzeption in Abstimmung mit den fachlichen Verantwortlichen
- Aufbau, Weiterentwicklung und Betrieb einer zentralen Datenplattform für das Capacity Management
- Arbeit im agilen Entwicklungsteam, Unterstützung des Product Owners im Bereich ETL und Datawarehousing
- Austausch mit Systemarchitekten und interdisziplinären Teams zur Entwicklung eines stabilen und zukunftssicheren Datawarehouses
- Migration von ETL-Strecken und Data Pipelines in die Cloud
- Anbindung, Aufbereitung und Qualitätssicherung von Daten sowie Abstimmung mit Stakeholdern
- Entwicklung auf einer zukunftsgerichteten und skalierbaren AWS Cloud Plattform
- Analyse und Abstimmung neuer Datenquellen und Schnittstellen mit den liefernden Systemen
- Beratung und Know-How-Transfer beim Einsatz automatisierter Testverfahren und Definition von Testcases
- Mitarbeit bei der Planung und Umsetzung neuer Features, Architekturvorgaben sowie der Stabilisierung und Verbesserung bestehender Prozesse
Muss-Anforderungen
- Mehrjährige Erfahrung in der Implementierung großer Business Intelligence / Data Warehouse Lösungen, inklusive SQL-basierter ETL-Entwicklung und Datawarehouse-Strukturen (Historisierung, Key-Generierung, Star- & Snowflake, 3NF)
- Erfahrung in der Entwicklung eines Datalakehouses auf dem AWS Stack (Athena, Redshift, Lambda, S3, Secrets Manager, IAM, Python, SQL, AWS Glue)
- Erfahrung in der Datenmigration und Migration von ETL-Strecken von einem DB-System und ETL-Werkzeug zu einem Cloud-basierten Ansatz
- Mehrjährige Erfahrung in der Datenmodellierung von Datawarehouse-Modellen für 3NF und Star-/Snowflake
- Mehrjährige Erfahrung in der Strukturierung und Vorbereitung sowie Anleitung der Umsetzung bis hin zum Testen/Qualitätssichern im Bereich Datawarehousing & Business Intelligence
Soll-Anforderungen
- Erfahrung im Bereich Query-Tuning & Optimierung von Athena und Redshift Abfragen im Zusammenspiel mit einem BI-Tool, vorzugsweise MS Power BI
- Erfahrung in DevOps Vorgehensmodellen wie git CI/CD Pipelines
- Team- und Kommunikationsfähigkeit sowie proaktive Arbeitsweise, erläuterbar anhand mehrerer Projekte
- AWS Cloud Erfahrung; Mindestens eine Zertifizierung wie Cloud Practitioner, Developer, DevOps Engineer oder Solution Architect