Schlagwörter
Skills
AWS: Lambda, SageMaker, DynamoDB, CloudWatch, RDS, EC2, S3, VPC, EMR, StepFunctions
Kubernetes, Terraform, Git, Docker, ELK Stack, NGINX, Spark, Hadoop, Airflow
Machine Learning, Deep Learning, Data Mining, Design Thinking, Agile, DevOps, Continuous Integration, Continuous Deployment, OOP, ETL, Cross-Industry Standard Process for Data Mining (CRISP-DM), Data Strategy
Projekthistorie
Die Machine Learning Pipeline eines Datenprodukts zur Vorhersage von Immobilienpreisen muss aktualisiert werden, wobei die darauf basierenden Services nicht beeinträchtigt werden dürfen.
Aufgaben:
- Konzeption eines wartbaren und genauen Modells
- Umsetzung in AWS Step Functions und Sagemaker
- Anleitung von internen Mitarbeitern
Eingesetzte Technologien: Python (Scikit-learn, Dask, Pandas, pytest), AWS (StepFunctions, Sagemaker, EMR), Docker, Spark
Die Sensordaten von Stromtransformatoren werden analysiert, um den Verbrauchertyp zu klassifizieren und die Abnahme oder Einspeisung vorherzusagen.
Aufgaben:
- Aufbereitung und Analyse der Sensordaten
- Feature Engineering durch zusätzliche externe Datenquellen (Wetter, Standortdaten, etc.)
- Analyse, Modellerstellung und Visualisierung der Ergebnisse
Eingesetzte Technologien: Python (Scikit-learn, Pandas, Statsmodels)
Um den Kundenservice zu verbessern sollen die Call-Center Agenten durch eine KI-Lösung unterstützt werden. Hierzu werden auf Grundlage des Telefongesprächs relevant Informationen aus den Wissensdatenbanken der Deutschen Bahn gezogen.
Aufgaben:
- Vergleich von Drittanbietern einer KILösung
- Entwicklung eines Anonymisierungsservices für Sprachtranskripte
- Aufbau der Infrastruktur in AWS
Eingesetzte Technologien: Redis, Flask, Python (Scikit-learn, Spacy, NLTK, Pandas, pytest, Tensorflow), AWS, Terraform, Kubernetes, Jira, Confluence
Rolle: Berater für Data Science und Web Analytics
Der Kunde entwickelt mit IoT-Sensoren ausgestattete Nutzgegenstände für den Einsatz im Pflegeumfeld. Durch die fortlaufende Erfassung komplexer Zeitreihendaten können sowohl Pflichten im Berichtwesen wahrgenommen wie auch Verbesserungen in der Pflegedurchführung ausgesteuert werden.
Eingesetzte Technologien: AWS (EMR, Sagemaker), Google Analytics |
Scout24 möchten ihre Datenproduktsparte weiter ausbauen. Hierzu wurde ein Leuchtturmprojekt durchgeführt in welchem das Vorhersagepotenzial der hausinternen Plattformdaten (Anzeigen, Nutzerverhalten) erprobt werden sollte. Im Rahmen dieses Projektes haben wir für Scout24 den Bedarf einer relevanten PKW-Motorisierungsklasse anhand der Plattformdaten drei Monate im Voraus vorhergesagt. Mit unserer Arbeit konnten wir zeigen, dass Machine Learning Modelle basierend auf Scout24 Plattformdaten den realen Bedarfsverlauf besser vorhersagen als klassische Vorhersagemodelle ohne Scout24 Plattformdaten.
Aufgaben:
- Erstellung und Anpassung iterativer Projektplan anhand initialer Fragestellung und erarbeiteter Teilergebnisse
- Datenmodellierung und Abfrage großer Datenmenge (Milliarden Datenpunkte); Erstellung automatischer Skripte, um besonders große Datenabfragen durchzuführen
- Modellierung der relevanten Kenngrößen basierend auf Plattformdaten (Feature Engineering)
- Iterative Erarbeitung Vorhersagemodelle, Kommunikation mit Stakeholdern auf Kundenseite
- Übergabe mit Dokumentation
Eingesetzte Technologien: Presto, Spark SQL, Spark MLlib, PySpark, Pandas, Scikit-Learn, Facebook Prophet, Statsmodels
Rolle: Standortleiter Berlin, Teamleiter Data Science
Neben dem Kerngeschäft in der Softwareentwicklung soll Data Science als weiteres Beratungsfeld
aufgebaut werden. Hierfür wurde eine Strategie entwickelt wie man Data Science in das bestehende
Betriebsumfeld integrieren kann und sich Projekte akquirieren und umsetzen lassen.
Aufgaben:
* Disziplinarische Führung von 10 Mitarbeitern
* Entwicklung einer Data Science Beratungsstrategie
* Kommunikation mit Geschäftsleitung
* Agiles Projektmanagment
* Vorträge und Training zu Machine Learning
Eingesetzte Technologien: Jira, Confluence
Rolle: Projektleiter und Data Scientist
In einer Fabrik zur Fließherstellung werden derzeit noch viele Maschinenein-stellungen manuell von den Mitarbeitern vorgenommen. Ziel ist es aus den vorhandenen Sensordaten die optimalen Parameter zu ermitteln.
Aufgaben: - Projektmanagement - ETL der Rohdaten - Datenanalyse und Modellerstellung - Kundenkommunikation
Eingesetzte Technologien: AWS, Databricks, Python (SciKit-learn, pandas) |
Zur Verbesserung der Sprachverarbeitung des Smart Speakers wird ein Analyse Framework entwickelt. Dieses kann auch für das Deplyoment verbesserter Sprachmodelle verwendet werden.
Aufgaben:
- Kommunikation mit Product Owner
- Kommunikation mit Cloud, Skill, Operation SystemTeams
- Konzeption und Umsetzung des Analyse Frameworks
Eingesetzte Technologien: Pycharm, Python (Pandas, Scikit-learn, Tensorflow, Seaborn, Matplotlib, Rasa, Spacy, pytest, XlsxWriter)
Rolle: Machine Learning Engineer
Um den Smart Speaker von der Konkurrenz abzuheben sollen dieser über „intelligente“ Funktionen verfügen. Zunächst wurden verschiedene Use Cases entwickelt und in Proof of Concepts umgesetzt. Ein PoC wurde im Anschluss patentiert.
Aufgaben:
Eingesetzte Technologien: Pycharm, Pandas, Scikit-learn, Seaborn, Matplotlib, Kassandra, Rasa, NLTK, Spacy, Keras |