Führen eines 12-köpfigen, weltweit verteilten Data Teams, bestehend aus Data Engineer (2), Data Architect (2), Data Operator (4) und Data Key Account Manager (4).
- Erarbeiten einer Datenstrategie und Aufbau einer Datenorganisation
- Aufbau eines Data Governance Frameworks
- Definition einer globalen Produktdatenstruktur
- Auswahl und Implementierung der Data Integration Technologie (Talend Data Services)
- Auswahl und Implementierung eines neuen PIM- und MAM-Systems (Contentserv)
- Erstellen einer ETL-Pipeline zwischen AS400 ERP und PIM-System Contentserv (Talend, SQL, MySQL, Java, IBM DB2)
- Aufbau eines Web-Frontend für den Export von Produktdaten (Talend, Apache Cassandra, Elasticsearch, Java, Vue.js, NEO CMS)
- Erstellen von ETL-Pipelines für das Mapping von kundenspezifischen Exporten (Talend, Apache Cassandra, SQL, Elasticsearch, Java)
- Automatische Übersetzung von neu angelegten Daten im PIM-System über AWS Translate (PHP, AWS PHP SDK, AWS Translate API)
- Automatische Generierung von Länderpreislisten in 29 Sprachen mit einem Umfang von bis zu 1000 Seiten (Talend, PHP, Java, XML, priint:comet, InDesign Server, InDesign Client)
- Definition einer globalen Datenstruktur für redaktionelle Inhalte und Auswahl eines neuen Content Management Systems (CMS) + Freigabeprozess
- Auswahl und Implementierung eine Data Warehouse Technologie (Snowflake) und auf des Datenmodells nach dem Data Vault 2.0 Prinzip
- Aufbau einer Real-Time ETL- und ELT-Pipeline zur Befüllung des Data Warehouses (Talend ESB, Talend, AWS S3, ActiveMQ, SQL, Apache Kafka, AWS MSK, Snowflake, SQL, SnowPipe)
- Aufbau einer Produkt-API mit Berechtigungskonzept und detaillierter Dokumentation (AWS API Gateway, AWS Lambda, AWS Cognito, Python, SQL, Snowflake, SQL, Talend API Designer, Swagger)