Prof. Dr. Matthias Becker
Auf meiner Projektseite finden Sie offene Stellen sowie offene Bachelor- und Projektarbeiten
Ziel dieser Bachelorarbeit ist es, Verfahren zur Erstellung eines digitalen Zwillings einer Lehrperson oder Expertin bzw. eines Experten zu untersuchen, der visuell und/oder auditiv mit Lernenden interagieren kann. Der digitale Zwilling soll das Kommunikationsverhalten, den Sprachstil und gegebenenfalls das Erscheinungsbild einer realen Person nachbilden, um eine natürlich wirkende, multimodale Interaktion zu ermöglichen.
Im Fokus steht die Analyse und prototypische Umsetzung von Methoden zur Generierung realistischer Sprach- und Videoausgaben. Dazu werden aktuelle Verfahren aus den Bereichen Speech Synthesis (Text-to-Speech, Voice Cloning), Speech Recognition (Speech-to-Text) sowie Avatar- oder Videoanimation (z. B. mittels Deepfake-Technologien oder 3D-Avataren) evaluiert. Ziel ist es, verschiedene Open-Source-Frameworks (wie pipecat-ai/pipecat, TTS, Whisper, SadTalker oder Avatarify) hinsichtlich ihrer technischen Leistungsfähigkeit, Integrationsfähigkeit und ethischen Implikationen zu vergleichen.
Im praktischen Teil wird ein funktionsfähiger Prototyp entwickelt, der auf einem Large Language Model (z. B. Llama 3 oder Mistral) basiert und über Sprach- oder Texteingaben gesteuert wird. Der digitale Zwilling soll in der Lage sein, sowohl auditiv als auch visuell auf Nutzerinteraktionen zu reagieren. Ergänzend werden Datenschutz- und Akzeptanzaspekte berücksichtigt, insbesondere im Hinblick auf den Einsatz in der Hochschullehre und personalisierte Lernumgebungen
In dieser Bachelorarbeit soll erforscht werden, wie Large Language Models (LLMs) zur automatisierten Überprüfung der formalen und inhaltlichen Korrektheit von Quellenangaben in wissenschaftlichen Arbeiten eingesetzt werden können. Ziel ist es, ein System zu entwickeln, das erkennt, ob Quellen vollständig, korrekt formatiert und tatsächlich existent sind.
Ausgangspunkt ist die Problematik, dass in wissenschaftlichen Texten – insbesondere bei der Nutzung generativer KI – zunehmend fehlerhafte oder erfundene Referenzen auftreten. Studierende übernehmen häufig automatisch generierte Literaturangaben, ohne deren Existenz oder Format zu prüfen. Dadurch entstehen Mängel bei der Quellenvalidität und der wissenschaftlichen Integrität, wie auch im Projekt KATALYST mit der Komponente SourceVerifier adressiert wird. Im Rahmen der Arbeit wird ein Prototyp entwickelt, der mithilfe eines LLMs (z. B. Llama 3, Mistral oder GPT-4) Quellenangaben analysiert und anhand definierter Zitierstandards (z. B. APA, IEEE, Harvard) bewertet. Dazu werden Techniken wie Named Entity Recognition (NER), semantische Ähnlichkeitsanalyse und strukturiertes Prompting eingesetzt, um Formatfehler, fehlende Angaben oder erfundene Quellen zu identifizieren. Optional kann eine Anbindung an bibliografische APIs (z. B. CrossRef, OpenAlex) erfolgen, um die Existenz und Authentizität der Quellen zu verifizieren.
Die Evaluation erfolgt anhand realer studentischer Arbeiten und synthetisch erzeugter Testdaten. Bewertet werden Präzision, Recall und F1-Score bei der Erkennung fehlerhafter Quellen, ergänzt durch eine qualitative Analyse der LLM-Ausgaben. Ziel der Arbeit ist es, das Potenzial von LLMs zur Qualitätssicherung wissenschaftlicher Arbeiten aufzuzeigen und zu prüfen, inwieweit automatisierte Verfahren Lehrende bei der Korrektur und Studierende bei der Selbstkontrolle ihrer Zitationen unterstützen können.
In dieser Bachelorarbeit soll untersucht werden, wie unterschiedliche Vektordatenbanken die Leistungsfähigkeit von Retrieval-Augmented Generation (RAG)-Systemen beeinflussen. Ziel ist es, die Eignung verschiedener Datenbanksysteme (z. B. FAISS, Milvus, Qdrant, Weaviate oder Chroma) für Chatbots zu bewerten, die auf großen Sprachmodellen (LLMs) basieren und domänenspezifisches Wissen effizient abrufen sollen.
Im ersten Schritt werden geeignete Vektordatenbanken ausgewählt und hinsichtlich ihrer Architektur, Einbindungsmöglichkeiten, Speicherstrategien und Suchalgorithmen beschrieben. Anschließend erfolgt die Implementierung eines RAG-Workflows, bei dem ein lokal oder cloudbasiert betriebenes LLM (z. B. Llama 3, Mistral oder Phi-3) über verschiedene Vektordatenbanken mit Kontextwissen versorgt wird. Dabei wird insbesondere geprüft, wie sich Faktoren wie Indexierungszeit, Einfügegeschwindigkeit, Antwortlatenz, Genauigkeit und Ressourcenverbrauch unterscheiden.
Die Evaluation umfasst sowohl quantitative Metriken (z. B. Antwortqualität, Recall, Retrieval-Genauigkeit, Latenz) als auch qualitative Kriterien wie Skalierbarkeit, Dokumentation, Integrationsfreundlichkeit und Open-Source-Reife. Ergänzend kann die Arbeit eine Fallstudie aus dem Hochschulkontext enthalten – etwa die Nutzung der Datenbanken zur Wissensanreicherung eines KI-gestützten Lernassistenten oder Prüfungs-Chatbots
Ziel der Bachelorarbeit ist es, zu untersuchen, wie ein Large Language Model (LLM) mithilfe eines Hochschulskripts im Fach Lineare Algebra so angereichert werden kann, dass es eigenständig Übungsaufgaben oder Probeklausuren lösen und neue Aufgaben generieren kann. Dafür werden Methoden wie Retrieval-Augmented Generation (RAG) oder Prompt Engineering eingesetzt, um dem Modell (z. B. Llama 3, Mistral oder Phi-3-mini) den Lehrinhalt zugänglich zu machen. Anschließend wird getestet, wie gut das Modell Aufgaben bearbeitet und wie seine Ergebnisse im Vergleich zu vorhandenen Musterlösungen abschneiden. Bewertet wird anhand von Kriterien wie inhaltlicher Korrektheit, mathematischer Konsistenz und Vollständigkeit des Lösungswegs.
Im Rahmen der Arbeit werden verschiedene Modelle und Wissensinjektionsverfahren verglichen und ein kleiner Benchmark erstellt. Optional soll das LLM zudem neue Übungsaufgaben generieren, die mit realen Prüfungsaufgaben verglichen werden. Ziel ist es, das Potenzial und die Grenzen aktueller Sprachmodelle in der Hochschullehre aufzuzeigen und Anwendungsfelder für die automatisierte Unterstützung von Lehr- und Lernprozessen zu identifizieren.
In dieser Bachelorarbeit soll ein interaktiver, sprachgesteuerter Lernassistent entwickelt werden, der Nutzerinnen und Nutzer bei der Bearbeitung von Aufgaben unterstützt, ohne direkt die Lösung vorzugeben. Der Assistent fungiert als eine Art „privater Lehrer“, der flexibel auf Sprachkommandos reagiert und sowohl in Text- als auch in Audioform antwortet.
Technisch basiert das System auf einem lokal gehosteten Large Language Model (LLM), das über vLLM oder Ollama betrieben wird. Der Fokus der Arbeit liegt auf der Entwicklung eines benutzerfreundlichen Frontends sowie der Integration von Sprachverarbeitung durch Speech-to-Text- und Text-to-Speech-Komponenten. Hierfür sollen geeignete Open-Source-Frameworks wie pipecat-ai/pipecat oder das TEN Framework evaluiert und in das System eingebunden werden, um eine multimodale, interaktive Lernumgebung zu schaffen.
Im Rahmen dieser Bachelorarbeit soll eine intelligente Bedienhilfe entwickelt werden, die auf dem Konzept der Retrieval-Augmented Generation (RAG) basiert. Ziel ist es, Nutzenden eines Krankenhausinformationssystems (KIS) kontextabhängige Hilfestellungen bereitzustellen. Die KI soll dazu in der Lage sein, Informationen aus vorhandenen Handbüchern und Bildern (z. B. Screenshots oder UI-Grafiken) zu verarbeiten und als multimodales Large Language Model (MLLM) auszuwerten. Die erarbeitete Lösung soll exemplarisch in ein KIS eingebunden werden und typische Benutzerfragen (z. B. zur Bedienung oder Funktionalität) beantworten können. Die Arbeit umfasst sowohl die Auswahl und Vorbereitung geeigneter Trainingsdaten als auch die technische Umsetzung und Evaluation der entwickelten KI-basierten Assistenz.
Im Rahmen dieser Bachelorarbeit sollen klinische Leitlinien analysiert und in ein Large Language Model (LLM) integriert werden, um medizinisches Fachwissen in verständlicher Form bereitzustellen. Ziel ist es, mithilfe eines KI-Modells Patienten mit bestimmten Krankheitsbildern basierend auf evidenzbasierten Leitlinien personalisierte Informationen über empfohlene Behandlungs- und Therapiemöglichkeiten zu liefern. Die Arbeit umfasst die Aufbereitung der Leitlinieninhalte, das Fine-Tuning eines LLM sowie die exemplarische Anwendung des Modells auf einfache medizinische Fragestellungen zur Unterstützung der Patientenaufklärung.
Ziel dieser Bachelorarbeit ist es, ein Modell zur automatisierten Extraktion medizinischer Entitäten wie Diagnosen, Medikation oder Prozeduren aus einem annotierten medizinischen Korpus zu trainieren. Die erkannten Informationen sollen anschließend strukturiert in das HL7 FHIR-Format (Fast Healthcare Interoperability Resources) überführt werden, um eine standardisierte und interoperable Weiterverarbeitung in klinischen Informationssystemen zu ermöglichen. Die Arbeit umfasst die Modellierung eines geeigneten Labeling-Ansatzes (z. B. Named Entity Recognition), die Abbildung auf FHIR-Ressourcen sowie eine exemplarische Validierung des Workflows.
Im Rahmen dieser Bachelorarbeit soll untersucht werden, inwieweit große Sprachmodelle (Large Language Models, LLMs) dazu in der Lage sind, klinische Freitexte in präzise und strukturierte SNOMED CT-Konzepte zu überführen – insbesondere unter Nutzung der Möglichkeit der Post-Koordination. Anders als bei vorgefertigten (pre-koordinierten) SNOMED CT-Konzepten erlaubt die Post-Koordination eine flexible Kombination mehrerer standardisierter Bausteine, um komplexe klinische Sachverhalte differenziert abzubilden.
Ziel der Arbeit ist es, ein prototypisches System zu entwickeln, das auf Basis eines gegebenen klinischen Freitextes (z. B. einem Symptom, einer Diagnose oder einem Befund) automatisch die relevanten SNOMED CT-Konzepte erkennt, diese in eine strukturierte Form bringt und daraus einen postkoordinierten Ausdruck gemäß der SNOMED CT Compositional Grammar generiert. Hierzu sollen bestehende Foundation-Modelle wie Llama oder spezialisierte medizinische Sprachmodelle genutzt und ggf. mit domänenspezifischen Daten (z. B. SNOMED-Begriffen oder Fallbeispielen) angereichert werden. Die Arbeit umfasst sowohl die Konzeption und technische Umsetzung eines geeigneten Workflows zur Konzeptgenerierung als auch die Evaluation anhand von Fallbeispielen. Dabei wird insbesondere analysiert, inwiefern die erzeugten postkoordinierten Konzepte den SNOMED CT-Spezifikationen entsprechen und semantisch korrekt sind. Ergänzend sollen die Grenzen aktueller LLMs im Umgang mit semantischer Standardisierung reflektiert werden.
Die Ergebnisse dieser Arbeit können einen Beitrag zur Verbesserung der semantischen Interoperabilität in der klinischen Dokumentation leisten und zeigen Potenziale auf, wie moderne KI-Modelle bei der Strukturierung medizinischer Information unterstützen können.
Sie möchten mehr über das Projekt erfahren? Dann schreiben Sie einfach eine E-Mail an matthias.becker(at)hs-kempten.de .