Stage-oe-small.jpg

Thema5019

Aus Aifbportal
Wechseln zu:Navigation, Suche



Vergleich unterschiedlicher Transformer-Modelle zur Modellgenerierung




Informationen zur Arbeit

Abschlussarbeitstyp: Bachelor, Master
Betreuer: Andreas OberweisMartin Forell
Forschungsgruppe: Betriebliche Informationssysteme

Archivierungsnummer: 5019
Abschlussarbeitsstatus: Offen
Beginn: 24. März 2023
Abgabe: unbekannt

Weitere Informationen

Die Textgenerierung ist eine wichtige Aufgabe im Bereich des Natural Language Processing (NLP), die viele Anwendungen hat, wie z.B. Chatbots, Textzusammenfassung, kreative Schreibhilfe und mehr. Die Textgenerierung basiert auf der Erzeugung von natürlichsprachlichen Ausgaben aus verschiedenen Eingaben, wie z.B. Schlüsselwörtern, Bildern oder anderen Texten.

In den letzten Jahren haben sich Transformer-Modelle als sehr leistungsfähig für die Textgenerierung erwiesen. Transformer sind eine Art von neuronalen Netzwerken, die auf der Idee der Selbst-Aufmerksamkeit basieren und es ermöglichen, komplexe Abhängigkeiten zwischen den Eingabe- und Ausgabesequenzen zu erfassen. Es gibt verschiedene Varianten von Transformer-Modellen, die sich in ihrer Architektur, ihrem Training oder ihrer Anwendung unterscheiden.

Ziel dieser Abschlussarbeit ist es, einen systematischen Vergleich zwischen verschiedenen Transformer-Modellen zur Modellgenerierung durchzuführen. Die Forschungsfragen sind:

- Welche Transformer-Modelle gibt es und wie unterscheiden sie sich in ihrer Funktionsweise? - Wie kann man die Qualität und Vielfalt der generierten Texte / Modelle messen und bewerten? - Welche Faktoren beeinflussen die Leistung der Transformer-Modelle zur Modellgenerierung? - Welche Herausforderungen und Grenzen gibt es bei der Anwendung von Transformer-Modellen zur Modellgenerierung?