Profilbild von Sven Badalyan Data Science Robotik KI Machine Learning OCR Computer Vision NLP Optimierung Berlin aus Berlin

Sven Badalyan

verfügbar
Kontakt

Letztes Update: 29.06.2022

Data Science Robotik KI Machine Learning OCR Computer Vision NLP Optimierung Berlin

Abschluss: Mathematik Bachelor und Master mit bester Note 1.0 an der Humboldt-Universität zu Berlin, Bachelor Physik an der Humboldt-Universität zu Berlin
Stunden-/Tagessatz: anzeigen
Verhandelbar je nach Projekt
Sprachkenntnisse: deutsch (Muttersprache) | englisch (verhandlungssicher)

Dateianlagen

CV_Sven_Badalyan.pdf

Skills

For more information please visit my own personal homepage: badalyan.it

Programming Skills:
Data Science
• Python, R, Go (GoLang)
• NumPy,Tensorflow, Keras, PyTorch
• Convolutional Neural Networks (CNNs)
• Recurrent Neural Networks (RNNs)
• Long Short-Term Memory Networks (LSTM)
• Scikit-learn
• OpenCV
• PyTesseract
• OpenPose, Image Pose, tf-pose, trt-pose

BigData
• Scala, Spark, Hadoop, Kafka
• Pandas
• SQL, NoSQL, MySQL, MongoDB
• Docker
• Kubernetes

Cloud Computing
• AWS
• Azure
• Google Cloud

Matlab
• Statistik and Machine Learning Toolbox
• Optimierung Toolbox
• Partial Differential Equation Toolbox

Latex
• Beamer, PGF/TikZ

MS Office
• Word, Excel, Powerpoint

HTML & CSS
Vim, Nano
Linux, Mac OS, Windows
Trello, Jira, Bitbucket

Programming Way: more than 10 years of Coding Experience
  • 2009: Choosing Compute Science school classes, building my first applications with the programming language "Delphi"
  • 2010: Programming small HTML Website for the School
  • 2011: Choosing CAS Mathematics, solving mathematical algorithms on the "Derive" Computer Algebra System, writing own solvers for square root problems
  • 2012:WritingownregressionApptofitthemeasurements at my physics experimental lectures
  • 2013: Starting to learn Python for the University courses, writing practical Apps with my university college to make easy to solve our home tasks
  • 2014: Developing a website with HTML, CSS and JavaScript for my Professor
  • 2015: Writing own Finite-Element realistic Simulation software in Matlab, which requires a very strong mathematical intuition and knowledge
  • 2016: Writing FEM Simulation Codes in Python, utilizing very modern Matrix-Vector Linear Algebra Computational C++ Modules
  • 2017: Utilizing Jupyter Notebook, Latex and Python to write my Bachelor’s thesis in Mathematics, which was 70% coding, found numerical bad behavior in the theory of the mathematics paper used for my Bachelor’ thesis, for which I was rewarded from my professor
  • 2017:AccomplishingMachineLearningIattheTechnische Universität Berlin
  • 2018: Accomplishing Machine Learning II at the Technische Universität Berlin
  • 2018: Accomplishing Deep Learning Courses at the Freie Universität Berlin
  • 2018: Accomplishing Python Programming for Deep Learing Courses at the Technische Universität Berlin
  • 2019:AccomplishingDeepLearningattheTechnischeUniversität Berlin
  • 2019: 11 months permanent writing Python, Matlab, Java Codes for my Master’s Thesis in Mathematics, more than 50% of the work was the programming part, gained with my numerical experiments new results in the area of Neural Networks and Differential Equations

Projekthistorie

11/2021 - 03/2022
Data Science- und Optimierungs- Experte
Mindfuel GmbH
Die Aufgabe ist für einen großen Konzern die freie Luft in gesendeten Paketen zu minimieren. Dadurch minimiert man den CO2-Ausstoß, ebenso die Transportkosten. Desweiteren schreiben einer Python-API, die das Packing visualisiert damit die Mitarbeiter Pakete optimal einpacken. Mein Ergebnis brachte 20% effizienteres Packen.
• Entwickeln einer Problem-Lösungs-Strategie.
• Task-Verteilung wer welchen Part macht.
• Anwenden von mathematischen nichtlinearen Optimierungstechniken für NP-hard Probleme.
• Ansatz über einen Evolutionsalgorithmus erfolgreich, statt 3 Wochen wurde in 4 Tagen geliefert.
• Alle For-Loops aus dem Evolutionsalgorithmus entfernen, 10xBoost.
• Für den Evolutionsalgorithmus eine Numpy Variante schreiben, 50xBoost.
• Für den Evolutionsalgorithmus eine AWS-CUDA Variante schreiben, 20xBoost.
• Effiziente Mutation- und Breeding- Methoden entwickelt.
• Entwicklung von Clustering Methoden als Anfangspopulation.
• Data sampling, Dimensionsreduktion, Datenapproximation, statt 1Mio nur 10k Daten genutzt, Algorithmus 100x Boost.
• Benchmarking via MILP Optimierer.
• Benchmarking via deterministische Diskretisierung, nutzen von CUDA auf AWS, mein Resultat nur 0,5% Abweichung vom NPHard- Optimum, sehr gutes Resultat.
• Code in OOP-Form birngen, benutzerfreundlich machen.
• Visualisierungstools genutzt um das Ergebnis intuitiv zu veranschaulichen, Metriken entwickelt anhand deren klar wurde um wie viel die neuen Resultate besser sind.
• Brainsorming via Miro-Boards.
• Echtzeit Gruppenarbeit via Notion.
• Papers lesen, neue Methoden entwickeln und implementieren.
• Via Python-Tkinter schreiben einer Python-API, die das Packing visualisiert damit die Mitarbeiter Pakete optimal einpacken.

09/2020 - 03/2022
Senior Data Scientist, Projektmanager, CTO
smart AAL/Mentoring GmbH
Entwicklung von kleinen Smart-Home Assistenten, die das Leben der Pflegebedürftigen Menschen erleichtern. Der Roboter Werner erkennt Gefahren wie Feuer oder Stürze und sendet eine SOS an die Hilfestelle. Er ist fähig anhand der Daten des Patienten Verhaltensanomalien zu erkennen, z.B. wenn der Patient anfängt mehr und mehr Demenz-Verhalten aufzuweisen.
• Schreiben einer KI die das Verlassen aus der Wohnung erkennt und das Wetter an das Handy sendet.
• Erkennung des Personenskeletons. Die Skeleton-KI ca. 1200-mal schneller machen und dadurch möglich machen in Jetson-Nanos zu deployen, Platz für weiteren solchen 5 KI ersparen.
• Verwenden von Bild-zu-Bild-Suchtechniken, um dieselben realen Punkte zu identifizieren.
• Tiefenerkennung KI. Kalibrieren der Stereokamera mit Hilfe der OpenCV Stereocalibrate-Funktion.
• Schreiben von Gesichtserkennung AI, berechnet die Entfernung des Gesichts vom IoT-Gerät, verwenden von eine eigens entwickelte erweiterte Disparity-map-funktion, wandelt die Ergebnisse der Disparity-map in die reale Entfernung um und macht sie robust. Verwenden von Histogrammgrafiken, um die beste Entfernung zum Gesicht zu wählen.
• Entwickeln einer Human-ID und ReID-Erkennungs-KIs, Erkennen mehrerer Personen im Kamera-frames und Zählen der Personen, die sich im Raum aufhalten.
• Schreiben einer eigenen Fall-detection-KI, die PoseNet zur Erstellung von Eingabedaten und CrossEntropy Loss zur Klassifizierung der Posen verwendet: Stehen, Fallen, Liegen, Sitzen usw.
• Umwandlung von PyTorch-Netzen in leistungsstarke Tensor-RTNetzwerke in Cuda, wodurch die Inferenz von IoT-Geräten viel schneller wird, ca. 4-10 mal.
• Entwicklung einer geeigneten, leichtgewichtigen KI für den Jetson Nano. Verwenden von evolutionären Algorithmen, um das fitteste Netz zu wählen.
• Konvertieren der trainierten KIs in die NumpyML-Architektur, um Speicher und Geschwindigkeit auf dem IOT-Gerät zu sparen.
• Entwickeln von Docker-Containern, in dem sich die Tiefenerkennungs-KI containerbasiert befindet, um diesen Container für andere Container zugänglich zu machen.
• Leitung eines Teams von 12 Mitgliedern unter Anwendung von Scrum-PM-Techniken, Ausbildung des Data Science Astes der Firma.

03/2021 - 06/2021
Data Science Experte, Data Engineer
TomCom GmbH
Entwicklung eines Softwaretools für die Fahrzeugregistrierung, das die gewünschten Textfelder extrahiert und in der Cloud speichert. Die KI ist selbstlernend und wird intelligenter, da immer mehr Online-Daten durch die Anwendung kommen. Es beschleunigt die Digitalisierung der Kfz-Zulassung.
• Kombination klassischer Bilderkennungstechniken mit modernen neuronalen Netzansätzen
• Datendesign, Data Mining, Date-mining
• Verwendung mathematischer Statistiken zur Datenaufbereitung und Datenbereinigung
• Verwenden von Bilderkennungstools: OpenCV -> Finden von polygonalen Formen, Extrahieren relevanten Bereichen
• Verwendung von pytesseract und Deep Learning-Techniken zur Texterkennung -> NLP
• Aufbau von Deep Auto-Encodern für die Dimensionsreduktion und Rauschunterdrückung der Daten
• Entwicklung des neuronalen Netzes für das überwachte Lernen mit benutzerdefinierten Kostenfunktionen und benutzerdefinierten Layers
• Verwendung von Reinforcement Learning, die es der KI ermöglichen, aus instant-online-Daten zu lernen
• Verwendung von Convolutional Neural Networks (CNNs)
• SSH-Verbindung und lokale Cloud-Computing-Infrastruktur, die mit AWS und Google Cloud arbeitet

04/2020 - 12/2020
Senior Data Scientist und Data Analyst
Franz Habisreutinger GmbH & Co. KG
Entwicklung einer OCR für Rechnungserkennungssoftware, die auf Fehler in der Rechnung prüft
• Kombination klassischer Bilderkennungstechniken mit modernen neuronalen Netzansätzen.
• Data Mining, Data-Tracking
• Verwendung mathematischer Statistik zur Datenaufbereitung und Datenbereinigung.
• Schreiben einer effizienten SQL-Command-Suchfunktion, um die Arbeit zu erleichtern.
• Bilderkennungstechniken via OpenCV anwenden.
• Verwendung von Deep-Learning-Techniken zur Texterkennung auf der Rechnung
• Bauen von Deep Auto-Encodern für die Dimensionsreduktion und Rauschunterdrückung der Daten.
• Entwicklung des neuronalen Netzes für das supervised- Learning mit benutzerdefinierten Losses und benutzerdefinierten Layers.
• Verwendung von Reinforcement Learning, die dem Arbeiter vorschlagen, was im nächsten Schritt zu tun ist.
• Verwendung von Convolutional Neural Networks (CNNs) für eine bessere Logo-Erkennung.
• Testen der Software im realen Anwendungsfall.
• Transport des Codes zum Webserver, Einrichtung einer effizienten SSH-Verbindung und lokaler Cloud-Computing-
Infrastruktur.

01/2020 - 09/2020
Data Science Consultant, AI-Entwickler
Sopra Steria Group SA
Beratung für ein SAP-Addon, das die richtige Quote der Rechnungen prognostiziert und dem Mitarbeiter den Kontingentprozess erleichtert, das Addon die Arbeitsweise des Mitarbeiters individuell lernt und immer bessere Vorhersagen macht, welche Rechnungen zu welchem Kontingent gehören.
• Entwicklung eines einfachen und eines komplizierteren Prototyps.
• Kopplung von Reinforcement Learning und Supervised Learning-Techniken miteinander, wodurch vergangene Daten und aktuelle Daten effizienter für das On-Fly-Lernen genutzt werden.
• Process Mining, Data Mining, Datenaufbereitung, Datenclustering mit EM-, ICA-, PCA-Techniken.
• Verwendung mathematischer Statistik für unüberwachtes Lernen (unsupervised Learning) und Clustering-Methoden.
• Dimensionalitätsreduktion der Daten mit Deep Autoencoder, Verwendung von Rauschunterdrückungstechniken im Autoencoder durch Programmierung eigener benutzerdefinierter Tensorflow-Blöcke.
• Schreiben von Python- und JavaScript-APIs, umdie Übertragung zwischen dem SAP-Addon und dem Python-Skript mit der KI zu ermöglichen.
• Dockerizing der Anaconda-Umgebung, Einrichten einer virtuellen Umgebung auf dem Server.
• Nutzung von BigData-Technologien wie Spark zumAufbau einer schnellen und effizienten Cluster-Computing-Umgebung.
• Verwendung von Kafka Stream APIs, um ein schnelles und effizientes Lernen zwischen der Verstärkungs- und der Supervised Learning KIs auf der einen Seite und der Datenübertragung vom Benutzer zur KI auf der anderen Seite zu ermöglichen.
• Nutzung von Cloud-Computing-Plattformen wie AWS, um das Trainingsverfahren von KIs zu verbessern.

02/2020 - 08/2020
Senior Data Scientist und AI-Developer
IT-company yuvedo GmbH from Berlin
Entwicklung einer KI für eine medizinische Anwendung (Parkinson- Krankheit), die dem Patienten das optimale Verhalten vorschlägt, um seine Gesundheitsziele zu erreichen und zu verbessern.
• Kopplung von Supervised Learning mit Reinforcement Learning, um das Online-Lernen der Patientenbedürfnisse zu ermöglichen und dem Benutzer sofortige Vorschläge zu unterbreiten.
• Process Mining, Data Mining, Date-tracking.
• Verwendung mathematischer Statistik zur Datenaufbereitung und Datenbereinigung.
• Erstellung synthetischer Daten, um die KI zu stärken und die Hauptarchitektur der KI zu finden, die unsere Originaldaten
genauer lernt.
• Prüfen Sie mit den synthetischen Daten, was benötigt wird, um die Supervised Learning KI und die Reinforcement Learning KI zu koppeln.
• Bilden von Deep Auto-Encodern für die Dimensionsreduktion und Rauschunterdrückung der Daten.
• Entwicklung des neuronalen Netzwerks für das überwachte Lernen mit benutzerdefinierten Losses und benutzerdefinierten Layers unter Verwendung selbsterfundener und effizienterer benutzerdefinierter neuronaler Netzwerkarchitekturen in Tensorflow.
• Entwicklung des neuronalen Netzes für das Reinforcement Learning mit benutzerdefinierten Losses und benutzerdefinierten Layers.
• Verwendung von Recurrent Networks Architecture (RNNs) für Zeitreihen (Time Series) in Kombination mit Convolutional Neural Networks (CNNs).
• Verbinden des Supervised Learning und des Reinforcement Learning Netzen miteinander, um die Beziehung zwischen Patient und Arzt zu simulieren, was der KI hilft, dem Patienten realistische und nützliche Vorschläge zu machen.
• Transport der KI zum Webserver, Einrichtung einer lokalen Cloud-Computing-Infrastruktur mit fortschrittlichen GPUs und
effizienter SSH-Verbindung.
• Erstellen von BigData-Pipelines mit Hadoop und Spark, um Parallel- und Cluster-Computing zu ermöglichen, was hilft, die besser geeigneten neuronalen Netzwerkmodelle zu finden.

02/2018 - 12/2019
Data Scientist und AI-Developer
psaichology.org aus Berlin
Durch Anpassung psychologischer Modelle an die KI lernt diese KI z.B. dem Verbraucher basierend auf seinem Verhalten maßgeschneiderte Vorschläge zu geben.
• Erstellen synthetischer Daten, um echte und gefälschte Persönlichkeiten aufzubauen.
• Verwenden von GANs, um mehr synthetische Daten zu generieren, wodurch unrealistische Daten erzeugt werden, die
das neuronale Netz später zwischen dem Original und dem gefälschten unterscheiden kann, was die Netze gegenüber gegnerischen Beispielen robuster macht.
• Data Mining, Data-tracking, Datenanalyse, Datenaufbereitung, Datenoptimierung.
• Deep Autoencoder verwenden, um die Daten zu entrauschen.
• Datenclustering/Dimensionsreduktion mit statistischen Tools, selbstgeschriebener Code+Python-Pakete Pandas, unter Verwendung von R.
• Design und Erstellung geeigneter neuronaler Netze, Hyperparameter-Tuning.
• Ich habe mein mathematisches Denken und Wissen stark genutzt, um die richtigen Optimierungstechniken auszuwählen, wobei sehr innovative Ideen zu neuronalen Netzen verwendet wurden, die ich in meiner Masterarbeit entwickelt habe.
• Verwendung moderner automatisierter Tools wie AutoML, um das Hyperparameter-Tuning autonomer durchzuführen, unter Verwendung von Grid-Techniken für die Suchprozesse auch für die Aktivierungsfunktionen.
• Nutzung von Cloud-Computing-Plattformen: AWS, Azure.
• Schreiben, Ausführen und Debuggen von selbstgeschriebenen benutzerdefinierten neuronalen Netze Programmen unter Verwendung verschiedener ML-Bibliotheken: TensorFlow, PyTorch.
• Erfolgreiche Validierung selbstgeschriebener neuronaler Netze, neues Ergebnis in der theoretischen Psychologie.

Zeitliche und räumliche Verfügbarkeit

  • Reisebereitschaft Europaweit

Sonstige Angaben

Bitte zuerst per Email versuchen, da ich telefonisch nicht jederzeit erreichbar bin.

Kontaktformular

Kontaktinformationen