Definition
Was ist RAG (Retrieval-Augmented Generation)?
RAG (Retrieval-Augmented Generation) ist eine Architektur, die ein Sprachmodell mit einer externen Informationssuche kombiniert, um fundierte Antworten zu generieren.
Wie RAG funktioniert
RAG löst ein Kernproblem klassischer LLMs: Der Wissensstand ist auf den Trainingszeitraum begrenzt.
Technisch ein zweistufiger Prozess:
- 1) Retrieval (Abruf): Das System durchsucht externe Quellen.
- 2) Generation (Antwort): Das Sprachmodell nutzt Trainingswissen plus abgerufenen Kontext.
RAG in der Praxis
RAG ist verbreitet, wenn aktuelle oder überprüfbare Aussagen geliefert werden sollen.
RAG vs. klassisches LLM
| Aspekt | Klassisches LLM | RAG-System |
|---|---|---|
| Wissensstand | Bis zum Training | Aktualisierbar über Retrieval |
| Quellenkontext | Nicht zwingend | Oft vorhanden |
| Halluzinationsrisiko | Tendenziell höher | Reduziert |
| Antwortzeit | Schneller | Langsamer |
| Beispiele | ChatGPT (ohne Suche) | RAG-Systeme, Such-Modi |
Bedeutung für AI Visibility
Inhalte müssen nicht im Training verankert sein. Es zählt Auffindbarkeit und Vertrauen.
- Klare Überschriften erhöhen Extrahierbarkeit
- FAQ-Formate werden häufig gut verwertet
- Schema.org hilft bei Einordnung
- Autorität beeinflusst Auswahl und Gewichtung
Welche KI-Systeme nutzen RAG?
Perplexity ist ein bekanntes Beispiel. Auch ChatGPT, Claude, Gemini und Copilot können externe Quellen einbeziehen.
Warum ist RAG für AI Visibility wichtig?
RAG-Systeme können aktuelle Webinhalte einbeziehen, wodurch neue Inhalte schneller sichtbar werden.
Wie unterscheidet sich RAG von klassischen LLMs?
Klassische LLMs antworten aus Trainingswissen. RAG ergänzt durch Abruf externer Quellen.
Kann ich beeinflussen, ob RAG-Systeme meine Inhalte finden?
Ja. Klare Informationsarchitektur, saubere Überschriften, FAQ-Formate und strukturierte Daten helfen.