06.01.2026 aktualisiert

**** ******** ****
verifiziert
Premiumkunde
100 % verfügbar

Data Engineer & Python Developer - Sozialversichert

Darmstadt, Deutschland Master of Science Informatik
Darmstadt, Deutschland Master of Science Informatik

Profilanlagen

CV-Haus_Alexander.pdf

Über mich

Engagierter Senior Software Engineer mit Masterabschluss in Informatik und verfüge seit 2015 über fundierte Erfahrung im Bereich des Data Engineerings so wie der Software-Entwicklung in Python. Ich stehe für spannende Projektanfragen zu verfügung und bin SV-Pflichtig angestellt.

Skills

  1. Master of Science in Informatik
  2. Berufserfahrung seit 2015 als Software Engineer mit Schwerpunkt auf Softwareentwicklung und Data Engineering
  3. Praxis in unterschiedlichen Branchen, darunter Energie, Transport und Gesundheitswesen
  4. Umfassende Erfahrung in der Entwicklung in Python so wie angrenzenden Technologien. Fundierte Kenntnisse im Umgang mit diversen Datenbanksystemen, in etwa MSSQL, Oracle DB, MySQL, PostgreSQL und MongoDB
  5. Breites Know-how im ETL-Bereich mit Tools wie SSIS, Glue, Talend und Apache Airflow durchgängig seit 2017
  6. Erfahren im Einsatz von Apache Kafka, Containerisierung mit Docker, Kubernetes sowie Cloud-Plattformen wie AWS und Azure
  7. Mehr als vier Jahre Erfahrung in KI-Projekten mit Frameworks und Tools - Pandas, PyTorch, TensorFlow, Transformers, spaCy, scikit-learn, Jupyter und Matplotlib
  8. Vertraut mit der Arbeit in agilen Entwicklungsteams
  9. Ziel- und lösungsorientierter Arbeitsstil mit hohem Qualitätsanspruch

Sprachen

DeutschMutterspracheEnglischverhandlungssicher

Projekthistorie

Data Engineer - Data Pipeline Migration

code council GmbH

Internet und Informationstechnologie

10-50 Mitarbeiter

Pipeline-Entwicklung:
Entwicklung und Optimierung von skalierbaren ETL/ELT-Pipelines mittels Python und SQL.
Refactoring von Legacy-Code für die Portierung in eine containerisierte Umgebung.
Infrastruktur & Cloud:
Containerisierung von Data-Services mittels Docker.
Orchestrierung und Management der Container-Workloads in Kubernetes (K8s).
Bereitstellung der Infrastruktur als Code (IaC), z. B. mit Terraform oder Ansible (falls zutreffend).
DevOps & Automation:
Aufbau von CI/CD-Pipelines in GitLab zur Automatisierung von Tests und Deployments.
Implementierung von Unit- und Integrationstests (z. B. mit PyTest).
Datenqualität & Monitoring:
Sicherstellung der Datenqualität und Data Governance innerhalb der Private Cloud.
Einrichtung von Monitoring und Logging für die Pipelines (z. B. Prometheus, Grafana oder ELK-Stack).

Senior Data Engineer & Developer - Datenintegration im Bahnverkehr

DB InfraGO AG

Transport und Logistik

>10.000 Mitarbeiter

Tätigkeit

• Entwicklung einer Echtzeit-Datenverarbeitungs- und Analyse-Lösung für den Schienenverkehr durch Integration verschiedener Datenquellen in eine einheitliche Plattform für verwertbare Erkenntnisse
• Automatisierung von Daten-Workflows mit Python und Jupyter Notebooks zur Verbesserung der Transformation und Verwaltung von SAP-Daten in Oracle-Datenbanken
• Verwaltung einer Dual-Datenbank-Architektur mit OracleDB und MSSQL unter Einsatz von Talend für ETL sowie Optimierung von T-SQL-Skripten und gespeicherten Prozeduren in MSSQL
• Erstellung und Wartung von ETL/ELT-Pipelines mit Talend, SSIS und Python zur Sicherstellung leistungsstarker, skalierbarer und zuverlässiger Datenintegrations-Workflows
• Entwicklung von CI/CD-Pipelines mit Azure DevOps und Bereitstellung von Anwendungen über Docker-Container auf Kubernetes (AKS) für nahtlose und automatisierte Release-Zyklen
• Arbeit im agilen Scrum-Framework in Zusammenarbeit mit funktionsübergreifenden Teams zur iterativen Weiterentwicklung entsprechend den Unternehmenszielen

Software Developer & Data Engineer - Datenintegration im Energiekonzern

E.ON Energie Deutschland GmbH

Energie, Wasser und Umwelt

>10.000 Mitarbeiter

• Entwicklung von Microservices und Backend-Tools in Python zur Verarbeitung und Analyse großer Mengen von Sensordaten zur Optimierung der Effizienz von Kläranlagen und Förderung der Ressourcenschonung
• Erstellung und Wartung von Python-basierten Backend-Services und APIs mit FastAPI, wodurch eine modulare und skalierbare Microservice-Architektur ermöglicht wurde
• Unterstützung bei Design und Implementierung moderner, responsiver Benutzeroberflächen mit Angular, um ein nahtloses und intuitives Nutzererlebnis zu schaffen
• Integration von ETL-Pipelines mit Apache Airflow zur automatisierten Datenaufnahme und -transformation über mehrere Systeme hinweg
• Implementierung von KI-gestützter Analytik mit scikit-learn und Transformers, mit Fokus auf Mustererkennung und Klassifikation von Sensordaten zur Gewinnung betrieblicher Erkenntnisse
• Einsatz eines auf Redis basierenden Message Brokers für leistungsstarke Kommunikation und Synchronisation zwischen Systemkomponenten
• Containerisierung von Anwendungen mit Docker und Verwaltung von Bereitstellungen in großem Maßstab mit Kubernetes, zur Sicherstellung von Zuverlässigkeit und Skalierbarkeit
• Arbeit im agilen Scrum-Framework mit Koordination über Confluence und Teilnahme an agilen Zeremonien zur iterativen Bereitstellung von Funktionen im Einklang mit Projektzielen

Data Engineer & Developer - Datenintegration im Bahnverkehr

DB InfraGO

Transport und Logistik

>10.000 Mitarbeiter

Tätigkeit

• Entwicklung einer Echtzeit-Datenverarbeitungs- und Analyse-Lösung für den Schienenverkehr durch Integration verschiedener Datenquellen in eine einheitliche Plattform für verwertbare Erkenntnisse
• Automatisierung von Daten-Workflows mit Python und Jupyter Notebooks zur Verbesserung der Transformation und Verwaltung von SAP-Daten in Oracle-Datenbanken
• Verwaltung einer Dual-Datenbank-Architektur mit OracleDB und MSSQL unter Einsatz von Talend für ETL sowie Optimierung von T-SQL-Skripten und gespeicherten Prozeduren in MSSQL
• Erstellung und Wartung von ETL/ELT-Pipelines mit Talend, SSIS und Python zur Sicherstellung leistungsstarker, skalierbarer und zuverlässiger Datenintegrations-Workflows
• Entwicklung von CI/CD-Pipelines mit Azure DevOps und Bereitstellung von Anwendungen über Docker-Container auf Kubernetes (AKS) für nahtlose und automatisierte Release-Zyklen
• Arbeit im agilen Scrum-Framework in Zusammenarbeit mit funktionsübergreifenden Teams zur iterativen Weiterentwicklung entsprechend den Unternehmenszielen

Research & Developer - KI Assistant Living

Hochschule Darmstadt

Öffentlicher Dienst

1000-5000 Mitarbeiter

• Entwicklung eines sprachgesteuerten Sprachassistenten für den Ambient Assisted Living (AAL)-Sektor zur Bereitstellung zugänglicher und reaktionsschneller Unterstützung für ältere und beeinträchtigte Nutzer
• Design und Training von Deep-Learning-Modellen für Automatic Speech Recognition (ASR), Natural Language Processing (NLP) und Text-to-Speech (TTS) unter Verwendung von PyTorch und TensorFlow
• Implementierung und Feinabstimmung von Spracherkennungssystemen mit DeepSpeech und Kaldi zur Verbesserung der Transkriptionsgenauigkeit bei natürlich gesprochenen Anfragen im betreuten Wohnumfeld
• Entwicklung von NLP-Komponenten und Dialogabläufen mit Rasa, um kontextbezogenes Verständnis und natürliche Interaktion innerhalb der Sprachassistentenplattform zu ermöglichen
• Bereitstellung der Lösungen auf NVIDIA Jetson für Edge Computing, wodurch eine latenzarme, geräteinterne Sprachverarbeitung und schnellere Reaktionszeiten des Assistenten erreicht wurden
• Integration des Sprachassistenten in eingebettete Systeme und IoT-Geräte, um eine nahtlose Konnektivität und Funktionalität in realen AAL-Umgebungen sicherzustellen

Data Engineer & Developer - Integration von Datenpipelines

Henschel Gruppe

Konsumgüter und Handel

250-500 Mitarbeiter

• Unterstützung beim Aufbau und der Integration von Microservices, Verbesserung bestehender Tools und Ermöglichung des Echtzeit-Datenaustauschs über eine auf Apache Kafka basierende Streaming-Architektur
• Aufbau und Integration eines Apache Kafka-Clusters innerhalb einer VPS-gehosteten Infrastruktur zur Ermöglichung skalierbarer und effizienter Datenströme
• Entwicklung von Python-Microservices mit FastAPI und SQLAlchemy, mit Schwerpunkt auf Echtzeit-Datenverarbeitung und API-Entwicklung
• Implementierung von Kafka-Consumern in Python und Konfiguration von Debezium für Change Data Capture (CDC) und Synchronisation
• Erweiterung und Wartung von Backend-Services in PHP (Symfony) sowie Entwicklung responsiver Benutzeroberflächen mit Next.js zur Verbesserung der Shopware 6-Plattformfunktionalität
• Implementierung automatisierter Test-Frameworks
• Unterstützung von CI/CD-Pipelines und Bereitstellung von Services über Kubernetes, mit Beitrag zu effizienten DevOps-Prozessen
• Profiling und Optimierung von SQL-Abfragen in MySQL, zur Verbesserung der Datenbank-Performance und der Rückverarbeitungsprozesse

Data Engineer & Developer - KI Emergency Chatbots

Hochschule Darmstadt

Öffentlicher Dienst

1000-5000 Mitarbeiter

• Mitarbeit an einem Forschungsprojekt zu einem Notfall-Chatbot, Einsatz von Deep Learning für NLP, um die Echtzeit-Konversationsfähigkeiten zu verbessern
• Erstellung und Nutzung von RESTful APIs mit FastAPI, Integration von Backend-Services in verteilte Systeme
• Entwicklung von Automatisierungstools und Microservices in Python zur Unterstützung skalierbarer Datenaufnahme und Chatbot-Funktionalität
• Unterstützung bei Design und Implementierung moderner Web-Oberflächen mit React und Next.js, zur Förderung einer intuitiven Benutzererfahrung
• Implementierung von CI/CD-Pipelines und Verwaltung von Kubernetes-basierten Bereitstellungen mit Azure DevOps, zur Verbesserung der Bereitstellungsautomatisierung und Systemzuverlässigkeit
• Nutzung von Microsoft Azure-Cloud-Diensten für Infrastrukturmanagement, Skalierbarkeit der Bereitstellung und Pipeline-Orchestrierung
• Wartung und Ausführung automatisierter Test-Frameworks, einschließlich Unit, Integration- und Lasttests

Software Developer - KI Text-to-Speech (TTS)

Open Source

Internet und Informationstechnologie

< 10 Mitarbeiter

• Eigenständige Arbeit an Text-to-Speech (TTS)- und Voice Conversion-Technologien im Rahmen eines langfristigen Nebenprojekts, mit Beiträgen zu einem Open-Source-Projekt
• Design und Training von Deep-Learning-Modellen mit PyTorch, mit Fokus auf hochqualitative Audio-Synthese und Voice Style Transfer
• Entwicklung robuster Daten-Aggregations- und Preprocessing-Pipelines zur Sammlung, Bereinigung, Normalisierung und Segmentierung großskaliger Sprachdatensätze für das Modelltraining
• Erstellung von Backend-Services und RESTful APIs mit FastAPI, zur Bereitstellung von Modell-Inferenzendpunkten
• Entwicklung eines nativen Desktop-Clients in C# sowie einer webbasierten Benutzeroberfläche mit React zur Interaktion und Audiowiedergabe
• Integration von Logging, Experiment-Tracking und Reproduzierbarkeits-Tools, um eine iterative Entwicklung und Bewertung der Modellleistung zu unterstützen
• GitHub: https://github.com/lexkoro

Data Engineer, Developer & Administrator - Data Center

Data Engineer, Developer & Administrator

Industrie und Maschinenbau

1000-5000 Mitarbeiter

• Entwicklung von Monitoring- und Automatisierungslösungen zur Sicherstellung der Serverzuverlässigkeit und Vermeidung von Hardwareausfällen in einer Rechenzentrumsumgebung, mit Fokus auf die Erkennung von Temperaturanomalien und das Auslösen automatischer Abschaltungen bei Ausfällen der Klimaanlage
• Erstellung eines Python-basierten Tools zur Aufnahme, Pflege und Speicherung von Sensordaten zur Unterstützung der Echtzeitüberwachung und Analyse
• Integration von Zabbix zur Infrastrukturüberwachung, einschließlich Konfiguration benutzerdefinierter Trigger für kritische Systemwarnungen
• Automatisierung von Abläufen mit RunDeck und Ansible, zur Vereinfachung wiederkehrender Aufgaben und Verbesserung der Systemreaktionsfähigkeit
• Einsatz von VMware ESX zur Virtualisierung, was eine skalierbare Bereitstellung von Serverinstanzen und bessere Ressourcennutzung ermöglichte
• Automatisierung von SSIS-Workflows zur Optimierung von ETL-Prozessen und Verbesserung der Datenbewegung zwischen Systemen
• Implementierung von Apache Airflow zur Orchestrierung von Datenpipelines, Verbesserung der Zeitplanung, Überwachung und Workflow-Verwaltung

Kontaktanfrage

Einloggen & anfragen.

Das Kontaktformular ist nur für eingeloggte Nutzer verfügbar.

RegistrierenAnmelden