
Biotech
Robotics
About Me
Most recently, at Fraunhofer MEVIS, in collaboration with the Charité Berlin and the LMU Klinikum, I developed a decision support system with machine learning for medical image analysis and integrated large language models into autonomous systems at DLR. My academic background includes a M.Sc. in Systems Engineering and a B.Sc. in Electrical Engineering & Management.
I am currently working on expanding my expertise in machine learning with multimodal data, particularly using genomics and analysis of RNA sequencing data.
Location
Erlangen, Germany
Open to on-site opportunities
Master of Science
Systems Engineering
University of Bremen
Focus: Machine Learning, Massively Parallel Algorithms and Sensor Fusion
Bachelor of Science
Electrical Engineering & Management
University of Bremen
Focus: Electrical Engineering and Information Technology
Experience
Work Experience
Deutsches Zentrum fĂĽr Luft- und Raumfahrt (DLR)
Bei DLR in der Abteilung für unbemannte Luftfahrzeugsysteme entwickelte ich ein Framework, das große Sprachmodelle (LLMs) mit PX4 – der Open-Source-Flugsteuerungssoftware – integriert. Ich erstellte eine ROS-basierte Schnittstelle , die sowohl lokale als auch remote LLM-Architekturen mit Drohnen verbindet, setzte sie in Podman-Containern ein und testete sie auf einer Drohne mit einem Jetson AGX Orin Onboard-Computer. Das System fragt OpenStreetMap über die Overpass API ab, um Drohnen Kenntnisse über Infrastrukturen, Adressen und Points of Interest zu vermitteln – auch wenn diese weit außerhalb des visuellen oder sensorischen Bereichs liegen. Mithilfe der getaggten Elemente von OpenStreetMap ermöglicht das System eine natürliche Sprachinteraktion über Objekte und Orte, die die Drohne nicht physisch erkennen konnte, aber durch Kartendaten verstehen kann. Ich verglich verschiedene moderne LLM-Architekturen in diesem Framework mittels einer Software-in-the-Loop (SITL)-Simulation , um ihre Leistungs- und Sicherheitsmerkmale zu bewerten.
Kraken Robotics
Als studentische Hilfskraft bei Kraken Robotics übernahm ich verschiedene Aufgaben in den Bereichen Softwareentwicklung, Hardwareintegration und Laborbetrieb. Ich half beim Aufbau von Apache Airflow-Pipelines zur Reinigung, Berechnung von Normalen und zum Rendern riesiger Punktwolken aus dem SeaVision™ Vollfarb-3D-Unterwasser- Laserbildgebungssystem und schrieb Unit- und Integrationstests , um die Datenintegrität und zuverlässige Abläufe sicherzustellen. Um die Sensorkalibrierung und die Entwicklung von Algorithmen voranzutreiben, habe ich eine fotorealistische Simulationsumgebung in Blender erstellt, die das Verhalten von strukturiertes Licht unter Wasser modelliert und mitunter synthetische Trainingsdaten für neuronale Netzwerke erzeugen konnte. Auf der Hardwareseite habe ich Leiterplatten und strukturelle Komponenten für kundenspezifische Tiefseelösungen entworfen, vergossen und integriert, um sicherzustellen, dass die Geräte den extremen Unterwasserbedingungen standhalten können. Zusätzlich wählte, bestellte und platzierte ich manuell SMD-Komponenten auf diesen Leiterplatten und testete sie gründlich. Meine praktische Arbeit im Labor umfasste die Kalibrierung empfindlicher Sensoren, die Durchführung von PCB-Scans und die Aufrechterhaltung der gesamten Labororganisation und -funktionalität. Außerdem kümmerte ich mich um die Logistik für die Einsätze, indem ich die Ausrüstung vorbereitete und verfolgte. Docker-Container halfen bei der sicheren Verteilung der proprietären Unterwasser-Bildgebungstechnologie im Team und an den Einsatzorten.
Deutsches Forschungszentrum fĂĽr KĂĽnstliche Intelligenz (DFKI)
Im Deutschen Forschungszentrum für Künstliche Intelligenz arbeitete ich an den Projekten Mare‑IT und Europa Explorer , um autonome Unterwasserfahrzeuge (AUVs) zu entwerfen und zu testen. Meine Aufgaben umfassten die Implementierung von ROS‑basierten Navigationsstacks , das Debuggen von Sensorfusionsalgorithmen und das schnelle Prototyping mechanischer Teile mittels 3D-Druck . Diese praktische Erfahrung vertiefte mein Verständnis für Systemintegration und Echtzeit-Robotik-Herausforderungen.
Forschung & Abschlussarbeiten
Fraunhofer MEVIS – Institut für Digitale Medizin
As part of the BMBF project "Image-guided Diagnostics and Therapy" , I implemented an advanced machine learning diagnostic aid for classifying kidney cysts in ultrasound videos as part of my Master's thesis. I developed a data pipeline , which was deployed on a high-performance computing cluster using Nomad for efficient job scheduling. By leveraging neptune for experiment tracking, I systematically evaluated various model architectures and hyperparameter configurations. This setup ensured consistent results across heterogeneous compute nodes, delivered real-time metrics and accelerated the discovery of promising approaches for medical imaging analysis .
Universität Bremen
At the Institute for Microsensors, Actuators, and Systems (IMSAS) as a part of the working group physical chemosensor and microfluidic, I developed microscope control software for the LifeChip project , a platform for studying mammalian cell cultures in microfluidic environments on a parylene‑coated chip, where they are supplied with nutrients and gases for several days. The software featured real‑time video streaming and precision linear positioning , complemented by a comprehensive GUI for coordinate acquisition and experimental automation. This tooling enabled researchers to conduct reproducible imaging studies of MDCK and HaCaT cell lines , supporting advanced research in lab-on-chip applications .