14.01.2026 aktualisiert

**** ******** ****
Premiumkunde
80 % teilweise verfügbar

Data Engineer

Graz, Österreich
Weltweit
Graz, Österreich
Weltweit

Profilanlagen

Unternehmenspräsentation_Data_Alligator_2025.pdf
Manfred Schmidl_DE.pdf
Manfred Schmidl_EN.pdf

Skills

  • Konzeptionierung und Implementierung / Betrieb von Data Hubs, Delta- und Data Lakes 
    • Azure 
    • Apache-Stack, Spark, Delta Table, Airflow
    • MS Fabric
    • Administration von SQL-Server, PostgreSQL
    • Dremio, Data Hub
  • Requirements Engineering / Business Analysis / Process Management 
  • Project-Management und Program Management 
  • Jira / Confluence

Sprachen

DeutschMutterspracheEnglischverhandlungssicherFranzösischGrundkenntnisse

Projekthistorie

Data Engineer

AT&S

Internet und Informationstechnologie

>10.000 Mitarbeiter

Implementierung eines Data Hubs als Bindeglied zwischen den Quellsystemen und der Analytics-Plattform und dem Data Catalog zur Extraktion, teilweisen Anreichung und Lieferung von Daten als auch Metadaten.

Produkt-Entwicklung

Data Alligator

Internet und Informationstechnologie

< 10 Mitarbeiter

Design und Entwicklung eines eigenen Produkts zur generischen und metadatengesteuerten Datenintegration um Use Cases schneller beim Kunden implementieren zu können.

Open-Source only | Spark | PySpark | Delta Lake | Open Metadata & DataHub | Airflow | Docker

Data Engineer / Data Scientist

Gesundheitswesen

Pharma und Medizintechnik

1000-5000 Mitarbeiter

Aufau einer KI-basierten Plattorm für Kundensegmentierungsmodelle
einschließlich der Vorbereitung einer Produktionsumgebung

Data Engineer

Fujitsu Deutschland

Internet und Informationstechnologie

250-500 Mitarbeiter

Projekte - Implementierung in Azure: 
- Konzeptionierung und Implementierung eines Service Management Systems
  * Datenintegration aus unterschiedlichsten Quellen (u.a. SAP) 
  * Datenbereitstellung an Drittsysteme 
  * UI (in Verwendung von Outsystems) 
- Konzeptionierung und Implementierung eines Data-Hubs 
  * Datenintegration aus Dutzenden Quellen mit Hunderten Entities. 
  * Verwendung von Synapse und Factory 
- Implementierung der Datenbelieferung externer Systeme 
  * Datenintegration 
  * Logik-Implementierung für die Extraktion von z.B. aktualisierten Lieferungen, Bestellungen, ortsabhängige Ansichten von Material-Verwendungen 
  * Operations und Support 
- Datensynchronisierung mit externen Partnern 
  * konfigurierbare Datensynchronisierung zwischen unterschiedlichen Technologien 
  * mit Archiv-Funktionen etc.

Data Engineer

Bayern Invest

Banken und Finanzdienstleistungen

50-250 Mitarbeiter

  • Aufbau eines DWH-Core und der Datamarts: 
    • Requirementsengineering 
    • Entwicklung 
    • Testing 

Data Engineer

Magna Powertrain

Automobil und Fahrzeugbau

Mission: Ein Data Warehouse from-scratch aufzubauen. Die Requirements
wurden gemeinsam mit dem neu gegründeten BPM Team aligned und
implementiert.
Verwendete Technologien: Talend Fabric, SSIS, PostgreSQL, SSIS, PowerBI

Data Engineer + Teamlead

Wirecard CEE

Banken und Finanzdienstleistungen

Mission: Einen globalen Data Lake from-scratch zu designen und zu
implementieren.
Zu Beginn gab es nur die Idee, ein System zur Verfügung zu stellen, welches
vor allem den Kunden erweiterte Analysemöglichkeiten bieten sollte. Dies alles
geschah in einer neu gegründeten Division. Das heißt, das Leistungsspektrum
reichte von organisatorischen Aufgaben, über Prozessdefinitionen, Team-
Aufbau und Use-Case Definition und -Alignment bis hin zur Erarbeitung der
Daten- und Systemarchitektur und Erstellung von PoC’s. Im Laufe der
Coronakrise und der Betrugsaufdeckung richtete sich das Hauptaugenmerk
auf interne betriebswirtschaftliche Kennzahlen und Unterstützung des
Controllings.
Verwendete Technologien: Cloudera auf einer Hadoop Platform, Python,
Scala, Streaming Technologien (v.a. Kafka) u.v.m.

Data Warehouse Analyst

Wirecard CEE

Banken und Finanzdienstleistungen

Mission: Internes Reporting der CEE durch ein Data Warehouse abzulösen
Ausgangspunkt war ein Legacy Reporting über Access welches
ausschliesslich manuell und zeitaufwendig war. Die ersten Use Cases waren
die Painpoints des Managements – zeitnah Kennzahlen geliefert zu
bekommen. Die Datenintegration beinhaltete vier verschieden strukturierte
Payment Gateways, zwei CRM Systeme, zwei Billing Systeme und mehrere
Front-End Implementierungen. Nach einigen Monaten konnte ich ein Portal
präsentieren, welches den internen Usern integrierte Daten aus einem Data
Warehouse mit 15 minütiger Verzögerung bereit stellte.
Verwendete Technologien: Pentaho, MYSQL, PHP, Python

Technischer Projektleiter

Mobilkom Austria | Tele.ring | Drei

Telekommunikation

Als Student begann ich bei der Mobilkom als Billing-Tester und triggerte und
implementierte dort die Testautomatisierung. Danach durfte ich bei Tele.ring
als technischer Projektleiter die Euro-Umstellung der Billing- und
Zahlungssysteme leiten. Bei Drei Austria hatte ich die Projektleitung für die
Implementierung des Payment Gateways um die internen, als auch die
Kundenzahlungen (m-payment) zu verarbeiten. Hinzu kam das Prepaid-
Aufladesystem als auch der Hub für die Bonitätsprüfungen. Hauptaugenmerk
lag auf der Systemarchitektur, dem Alignment der Anforderungen der
Fachbereiche und der Koordination mit internen und externen Entwicklern.

Kontaktanfrage

Einloggen & anfragen.

Das Kontaktformular ist nur für eingeloggte Nutzer verfügbar.

RegistrierenAnmelden