Retrieval Augmented Generation
Daniel Töws und Daniel Ladischenski erläutern in Informatik Aktuell, wie das Retrieval Augmented Generation (RAG) Verfahren Large Language Models (LLMs) ermöglicht, durch Einbindung externer Wissensdatenbanken präzisere und domänenspezifische Antworten zu generieren, und beschreibt den Aufbau, die Optimierung sowie die Evaluation solcher Systeme.
Aus dem Inhalt:
„LLMs bieten für diesen Anwendungsfall noch eine weitere Möglichkeit, die deutlich weniger technisches Wissen und Arbeit benötigt. Denn noch ausschlaggebender für den Inhalt des Outputs eines LLMs als der dahinter liegende Trainingssatz ist der Kontext, der mit der Eingabe an das LLM gegeben wird. Da LLMs diesen verarbeiten und daraufhin das nächste Token raten, ist es für ein präzises Ergebnis in den meisten Fällen zielführender, den Kontext möglichst informativ zu gestalten, anstatt sich auf den Trainingskorpus des Modells zu verlassen. Hier kommt dann das Retrieval Augmented Generation, kurz RAG, ins Spiel. Stellt der Nutzer eine Anfrage an ein LLM, welches in ein RAG-System eingebunden ist, dann durchläuft das System, wie dem Namen zu entnehmen ist, drei Schritte.“
Daniel Töws
Daniel Ladischenski
Hier gibt's noch mehr spannende Infos von uns für euch
Auf unserem Blog findest du viele Artikel zu Tech-Themen von unseren Mitarbeitenden. Vielleicht ist auch hier ein Thema für dich dabei. Schau gerne mal rein!
Gemeinsam bessere Projekte umsetzen.
Wir helfen deinem Unternehmen.
Du stehst vor einer großen IT-Herausforderung? Wir sorgen für eine maßgeschneiderte Unterstützung. Informiere dich jetzt.
Hilf uns, noch besser zu werden.
Wir sind immer auf der Suche nach neuen Talenten. Auch für dich ist die passende Stelle dabei.
Daniel Töws
Software Developer
Daniel Ladischenski
AI Consultant & Engineer
Daniel Ladischenski
AI Consultant & Engineer
Möchtest du dich über dieses Thema austauschen?