Beschreibung
2. Aufgabenbeschreibung- Du erarbeitest selbstständig die benötigten Datenverarbeitungsschritte in einer bestehenden AWS-Umgebung.
- End-2-End-Produktverantwortung (Entwicklung, DevOps, Testing etc.).
- Du bist am Puls der Zeit und kannst neuste Entwicklungen bezüglich Large Language Models und Sprachverarbeitung einsetzen. Das klassische Machine Learning kommt dennoch nicht zu kurz.
- Im direkten Kontakt mit den Fachbereichen erwartet dich lösungsorientiertes Arbeiten
- Du bringst uns unserer Zukunftsvision einer Data Driven Company Schritt für Schritt näher und gestaltest die Architektur maßgeblich mit.
- Wir kommunizieren auf Augenhöhe.
3. Profilanforderungen
- Du hast langjährige Erfahrung im Erstellen von Datenverarbeitungspipelines in der AWS.
- Du kennst dich unter anderem mit Terraform, Airflow, AWS S3, Sagemaker und weiteren typischen AWS Diensten aus.
- Du konntest bereits erste Erfahrungen mit Databricks sammeln.
- Du kannst klassische ML und NLP-Use Cases umsetzen und produktivieren.
- Du arbeitest gerne eigenständig im Dialog mit Anforderern.
- Durch deine Einblicke in die Daten bringst du neue Use Cases und Ideen ein.
- Du kannst den Anforderungsprozess begleiten. Von Ideation bis zum nutzbaren Produkt.
- Hohe Eigenmotivation und Flexibilität zeichnen dich aus, ebenso gute Teamfähigkeit und eine strukturierte Arbeitsweise.
- Was Du noch nicht kennst, lernst Du.
-Rahmendaten-
Einsatzort: Köln (60% remote)
Einsatzbeginn: asap
Einsatzende: 31.12.2024 + Option auf Verlängerung
Auslastung: 40h/Woche