Senior Data Core Services Architect (m/w/d)

Freiberuflich in: Remote & Berlin (mind. 1 Woche / Monat)

Dauer: 3 Monate

100% Auslastung

Freelancer-Projekte-PLZ1

Start: Februar 2025

Dauer: 3 Monate +
Auslastung: Vollzeit
Lokation: Remote & Berlin (mind. 1 Woche / Monat)

Projektbeschreibung:

Das EDP-Team baut eine interne Plattform für die Softwareproduktentwickler der Gruppe auf, um die Entwicklung und Bereitstellung von Softwareprodukten zur Bewältigung der großen Herausforderungen im Energiesektor zu beschleunigen. Die EDP-Plattform ist eine serviceorientierte, Cloud native Plattform, die entwickelt wird, um Anwendungsteams mit Self-Service-Funktionen zur Entwicklung, Ausführung und zum Betrieb ihrer Softwareprodukte zu versorgen. Die EDP-Plattform bietet Dienste für Anwendungsinfrastruktur, Daten, Service Lifecycle Management, Anwendungsentwicklung und -bereitstellung sowie Dienste für den Betrieb ihrer Softwareprodukte. Die EDP-Plattform wird als hybride Cloud bereitgestellt, die sowohl private als auch ausgewählte öffentliche Clouds umfasst. Wir suchen talentierte, erfahrene und motivierte Mitarbeiter in der folgenden Position, die das EDP-Team verstärken und EDP auf die nächste Stufe bringen.

Rollenbeschreibung:

Die EDV als Plattform besteht derzeit aus sieben Produktlinien. Jede Produktlinie ist für eine Teilmenge von Produkten (oder ein Teilportfolio von Produkten) zuständig - z. B. alle Infrastrukturprodukte, alle Datenprodukte usw. Jede Produktlinie umfasst daher (neben anderen Rollen) auch ein Architekturteam, das von einem leitenden Architekten (pro Produktlinie) geleitet wird, der die Produktarchitektur aller Produkte innerhalb der Produktlinie definiert und gestaltet. Als Data Core Services Architect (m/w) sind Sie in der Produktlinie EDP Data tätig und speziell für die Architektur unserer Data Core Services sowie für die Integration mit den Gegenstück- und Basisdiensten verantwortlich. Als Data Core Services Architect (m/w/d) berichten Sie an den Lead Architect der Datenproduktlinie.

Aufgaben:

* Architektur von Kerndiensten für Daten
* Entwurf und Prototyping skalierbarer Datenarchitekturen, einschließlich Datenbanken, Data Lakes und Data Warehouses als verwaltete Dienste in der privaten Cloud (d. h. auf Basis von K8s)
* Entwurf und Prototyping von Funktionalitäten für diese verwalteten Dienste, wie z. B. Sicherung/Wiederherstellung, IAM, Integration der Beobachtbarkeit usw. sowie Aktualisierungs-/Upgrade-Schemata
* Entwurf und Spezifikation von Managed Services unter Einhaltung der Produktspezifikation sowie der SLAs
* Entwurf und Prototyping von Kubernetes-basierten Bereitstellungsstrategien für skalierbare, äußerst zuverlässige und verwaltbare Datentechnologien.
* Evaluierung verschiedener Optionen für Datentechnologien, um die beste Grundlage für verwaltete Dienste zu finden
* Entwurf und Prototyping von übergreifenden Aspekten für verschiedene Datendienste auf konsistente und kohärente Weise
* Zusammenarbeit mit Services-, DevOps- und Infrastruktur-Teams zur Optimierung von Prozessen zur Bereitstellung von Datentechnologien in einer Kubernetes-Umgebung
* Dokumentieren Sie Best Practices für den Wissensaustausch und als Referenz für die Zukunft
* Enge Zusammenarbeit mit dem Engineering-Team, um die ordnungsgemäße Umsetzung der definierten Architektur, die Abstimmung von Tech-Stack-Entscheidungen und die Einhaltung von Architekturstandards sicherzustellen

Must-have-Kompetenzen / Must-have-Fähigkeiten:

* Nachgewiesene praktische Erfahrung in der Softwareentwicklung
* Beherrschung von Datenverarbeitungssprachen wie SQL, Java, Python oder Scala
* Fundierte K8s-Kenntnisse und Erfahrungen
* Kenntnisse und Erfahrungen mit den Datentechnologien/Frameworks:

* RDBMS (PostgreSQL/MySql usw.)
* NoSQL-Speicher (MongoDB, Cassandra, Neo4j usw.)
* Zeitreihen (InfluxDB, OpenTSDB, TimescaleDB, Prometheus usw.)
* Workflow-Orchestrierung (AirFlow/Oozie usw.)
* Datenintegration/Ingestion (Flume usw.) .
* Nachrichtenübermittlung/Daten-Streaming (Kafka/RabbitMQ usw.)
* Datenverarbeitung (Spark, Flink usw.)

* Und/Oder mit ihren Cloud-Pendants, d.h. Cloud Data/Analytics Services (GCP, Azure, AWS)
* Kenntnisse von Datentechnologien nicht nur aus der Sicht der Nutzung, sondern auch aus der Perspektive der Bereitstellung und Erfahrung mit On-Premises-Bereitstellungen
* Kenntnisse und Erfahrungen mit Referenz-Big-Data-Architekturen (Warehouse, Data Lake, Data Lakehouse) und deren Implementierung.
* Erfahrung mit der Implementierung und dem Betrieb datenintensiver Anwendungen
* Starker Fokus auf DataOps/DevOps

* Beherrschung der englischen Sprache in Wort und Schrift (mindestens C1)

Profilanforderungen:

Der ideale Kandidat (m/w/d) muss sich auf einer mittleren oder höheren Ebene befinden und einen starken technischen Hintergrund in der Datentechnik mit Fachwissen in der Implementierung von Datenarchitekturen kombinieren, über Fähigkeiten zur Zusammenarbeit verfügen und eine innovative Denkweise haben, um effektiv zur Datenstrategie des Unternehmens beizutragen.

* Bachelor- oder Master-Abschluss in Informatik, Datenwissenschaft oder einem verwandten Bereich

* 5+ Jahre allgemeine IT-Erfahrung

* Mindestens 3 Jahre Erfahrung mit Big Data

* Nachgewiesene Erfahrung als Datenarchitekt oder leitender Dateningenieur mit Schwerpunkt auf dem Entwurf und der Implementierung skalierbarer Datenarchitekturen

* Umfassende Erfahrung in der Entwicklung und Pflege von Datenbanken, Data Lakes und Data Warehouses

* Tiefgehendes Verständnis von Daten (d. h. Formate, Strukturen)

* Praktische Erfahrung mit komplexen Einsatz- und Freigabeszenarien

* Vertrautheit mit modernen Datentechnologien und Cloud-Diensten

* Tiefgreifendes Verständnis des Konzepts der verwalteten Dienste und der dahinter stehenden Schlüsselprinzipien

* Beherrschung der Konzeption und Implementierung von Managed Services zur Erfüllung von Geschäftsanforderungen

* Fähigkeit zur Bewertung und Empfehlung der Einführung neuer Tools und Technologien

* Innovative Denkweise, um Lösungen vorzuschlagen, die die Datenarchitektur des Unternehmens verbessern

* Verständnis und Erfahrung mit evolutionären Architekturen unter Berücksichtigung der Vereinfachung
* Aufgeschlossenheit und Ergebnis-/Wertorientierung

Bevorzugte Kompetenzen und Fähigkeiten:

* Fundierte datenbezogene K8s-Kenntnisse und Erfahrungen (z. B. Erfahrung mit der Entwicklung von k8s-Operatoren und/oder k8s-Operatoren für Big-Data-Technologien)
* Vertiefte Kenntnisse der bewährten Praktiken im Bereich Datenschutz und Datensicherheit
* Nachgewiesene Erfahrung mit DataMesh-Grundsätzen in der Praxis
* Erfahrung mit der Entwicklung und/oder dem Betrieb von Datenplattformen
* Kenntnisse und Erfahrungen im Lebenszyklusmanagement von Daten (z. B. CD4ML, MLOps)
* Beherrschung der deutschen Sprache


JobNr: 18082

Ansprechpartner: Oliver van Fürden
E-Mail: Experten@Soorce.de
« Zurück zu allen offenen Projekten