Définition

Qu'est-ce que le RAG ?

RAG (Retrieval-Augmented Generation) est une architecture combinant un modèle de langage avec une recherche d'information externe.

Comment fonctionne le RAG

Le RAG résout un problème central des LLMs classiques : les connaissances sont limitées à la période d'entraînement.

Un processus en deux étapes :

  • 1) Retrieval : Le système recherche des sources externes.
  • 2) Génération : Le modèle utilise ses connaissances plus le contexte récupéré.

RAG en pratique

Le RAG est courant pour des réponses actuelles et vérifiables.

RAG vs. LLM classique

AspectLLM classiqueSystème RAG
ConnaissancesJusqu'au trainingActualisable
Contexte sourcePas obligatoireSouvent présent
Risque d'hallucinationPlus élevéRéduit
Temps de réponsePlus rapidePlus lent
ExemplesChatGPT (sans recherche)Systèmes RAG

Importance pour l'AI Visibility

Le contenu n'a pas besoin d'être dans les données d'entraînement.

  • Des titres clairs augmentent l'extractibilité
  • Les formats FAQ sont bien exploités
  • Schema.org aide à la catégorisation
  • L'autorité influence la sélection

Quels systèmes utilisent le RAG ?

Perplexity est un exemple connu. ChatGPT, Claude et Copilot peuvent aussi intégrer des sources.

Pourquoi le RAG est important ?

Les systèmes RAG peuvent inclure du contenu web actuel.

Différence RAG vs LLM classique ?

Les LLMs classiques répondent depuis leur entraînement. Le RAG complète avec des sources externes.

Puis-je influencer les systèmes RAG ?

Oui. Architecture claire, titres propres, FAQ et données structurées aident.

Approfondir & termes liés

Qu'est-ce que le RAG ? | art8.io