Forschungsinteressen
Meine Forschungsarbeit konzentriert sich auf die Interoperabilität technischer Systeme unter Verwendung von Methoden der natürlichen Sprachverarbeitung (NLP). Ziel ist es, natürliche Sprache als Wire-Format zu etablieren, um die Kommunikation zwischen unterschiedlichen Maschinen zu ermöglichen. Dabei kommen Large Language Models (LLMs) als zentrale Komponente zum Einsatz: Sie fungieren als Übersetzungsinstanz, die die maschinelle Kommunikation durch Analyse technischer Dokumentationen und Einbeziehung des jeweiligen Kontexts interpretieren und transformieren.
Themen für Abschlussarbeiten
Einige spannende Fragestellungen in diesem Forschungsbereich könnten beispielsweise folgende sein:
- Inwieweit kann der technische Kontext die Übersetzungsqualität von LLMs in der Maschinenkommunikation verbessern? Wie können technische Dokumentationen, Standards oder spezifische Einsatzszenarien genutzt werden, um die Übersetzungsleistung von Large Language Models gezielt zu optimieren?
- Wie effizient ist natürliche Sprache im Vergleich zu herkömmlichen Binärformaten für die Maschinenkommunikation?
- Welche Herausforderungen ergeben sich bei der Nutzung von Large Language Models für die maschinelle Übersetzung?
Falls ihr Interesse an diesem Themenfeld habt, können wir gerne in einem persönlichen Gespräch mögliche Ansätze und spezifische Fragestellungen näher besprechen.
Publikationen (3)
2025 (1)
-
Navigating the Security Challenges of LLMs: Positioning Target Defenses and Identifying Research GapsIn: Proceedings of the 11th International Conference on Information Systems Security and Privacy (ICISSP 2025)DOI: TBD
2024 (1)
-
Towards Interoperability of APIs - an LLM-based approachIn: Middleware '24: Proceedings of the 25th International Middleware Conference: Demos, Posters and Doctoral Symposium
2021 (1)
-
C-Test Collector: A Proficiency Testing Application to Collect Training Data for C-TestsIn: Proceedings of the 16th Workshop on Innovative Use of NLP for Building Educational Applications