Definition

Was ist RAG (Retrieval-Augmented Generation)?

RAG (Retrieval-Augmented Generation) ist eine Architektur, die ein Sprachmodell mit einer externen Informationssuche kombiniert, um fundierte Antworten zu generieren.

Wie RAG funktioniert

RAG löst ein Kernproblem klassischer LLMs: Der Wissensstand ist auf den Trainingszeitraum begrenzt.

Technisch ein zweistufiger Prozess:

  • 1) Retrieval (Abruf): Das System durchsucht externe Quellen.
  • 2) Generation (Antwort): Das Sprachmodell nutzt Trainingswissen plus abgerufenen Kontext.

RAG in der Praxis

RAG ist verbreitet, wenn aktuelle oder überprüfbare Aussagen geliefert werden sollen.

RAG vs. klassisches LLM

AspektKlassisches LLMRAG-System
WissensstandBis zum TrainingAktualisierbar über Retrieval
QuellenkontextNicht zwingendOft vorhanden
HalluzinationsrisikoTendenziell höherReduziert
AntwortzeitSchnellerLangsamer
BeispieleChatGPT (ohne Suche)RAG-Systeme, Such-Modi

Bedeutung für AI Visibility

Inhalte müssen nicht im Training verankert sein. Es zählt Auffindbarkeit und Vertrauen.

  • Klare Überschriften erhöhen Extrahierbarkeit
  • FAQ-Formate werden häufig gut verwertet
  • Schema.org hilft bei Einordnung
  • Autorität beeinflusst Auswahl und Gewichtung

Welche KI-Systeme nutzen RAG?

Perplexity ist ein bekanntes Beispiel. Auch ChatGPT, Claude, Gemini und Copilot können externe Quellen einbeziehen.

Warum ist RAG für AI Visibility wichtig?

RAG-Systeme können aktuelle Webinhalte einbeziehen, wodurch neue Inhalte schneller sichtbar werden.

Wie unterscheidet sich RAG von klassischen LLMs?

Klassische LLMs antworten aus Trainingswissen. RAG ergänzt durch Abruf externer Quellen.

Kann ich beeinflussen, ob RAG-Systeme meine Inhalte finden?

Ja. Klare Informationsarchitektur, saubere Überschriften, FAQ-Formate und strukturierte Daten helfen.

Vertiefung & verwandte Begriffe

Was ist RAG (Retrieval-Augmented Generation)? | art8.io