3 minutes

IA : les RAG, ou comment personnaliser ChatGPT pour votre entreprise

Mettez la puissance des LLM au service de vos propres données.
Appuyez-vous sur les LLM du marché (GPT-4, Gemini...) pour créer votre propre IA
Utilisez votre IA sur vos documents...
... sans risque de sécurité sur les données utilisées.
LLM
Ecrit par
Emmanuel Ladoux
Publié le
June 3, 2024

En quelques années seulement, les agents conversationnels comme ChatGPT ont radicalement transformé notre manière de rechercher des informations, d'écrire un courrier, ou de rédiger un article de blog.

Mais avez-vous déjà imaginé qu’un assistant virtuel soit aussi efficace que ChatGPT pour :

  • fournir à vos clients des informations détaillées sur votre catalogue produit ?
  • répondre instantanément aux questions de vos employés concernant les procédures internes ?
  • analyser vos données financières et en tirer des insights ?

Bienvenue dans le monde du RAG (Retrieval-Augmented Generation), une solution technique innovante permettant de combiner la puissance LLM (Large Language Models) tels que ChatGPT, avec les contenus de votre entreprise, et en faire de redoutables outils de productivité.

Sommaire

Qu’est-ce qu’un LLM ?

💡 Principe de base

  • Un LLM (Large Language Model), est un modèle d'intelligence artificielle entraîné sur d'énormes quantités de données textuelles pour comprendre et générer du langage naturel.
  • Ces modèles utilisent des techniques de traitement du langage naturel (NLP) et des algorithmes complexes (réseaux de neurones) pour comprendre et générer du langage naturel

⚙️Fonctionnement

  • Apprentissage : le LLM est pré-entraîné sur de vastes corpus de texte pour apprendre les structures, les significations et les relations entre les mots et les phrases.
  • Génération : le LLM génère du texte en se basant uniquement sur les informations apprises durant l'entraînement, sans accès à des données externes ni en temps réel.

Les LLM les plus populaires à ce jour

A ce jour, les LLM sont édités par une poignée d'éditeurs, parmi lesquels :

  • ChatGPT d’OpenAI,
  • Gemini de Google,
  • Copilot de Microsoft,
  • Mistral Chat de Mistral AI,
  • etc.

Qu’est-ce qu’un RAG ?

Les RAG (Retrieval-Augmented Generation) sont un type d’intelligence artificielle conçue pour augmenter les capacités des LLM :

  • d’une part en ajoutant des sources factuelles spécialisées (celles de votre entreprise),
  • et d’autre part en y ajoutant l’accès à des outils (à Outlook ou à un tableur par exemple) pour rendre l’IA plus interactive.

💡 Principe de base

Le RAG combine les capacités d'un LLM avec un système de récupération (retrieval) d'informations. En pratique, les informations "récupérées" sont des corpus de texte spécialisés (ceux de votre entreprise ou de votre domaine d'expertise : procédures internes, textes de lois, articles scientifiques, etc.)

Il s'agit d'une approche hybride qui enrichit la génération de texte avec des informations externes pertinentes.

Ainsi, on augmente la capacité d'un LLM standard, en lui permettant de donner des réponses pertinentes dans un contexte bien précis.

⚙️Fonctionnement

  • Récupération (retrieval) : Lorsqu'une question ou une requête est posée, le système RAG recherche des passages de texte pertinents à partir d'une base de données ou d'un corpus spécifique.
  • Génération : Les passages récupérés sont utilisés comme contexte pour le LLM, qui génère ensuite une réponse informée et contextuelle.

Les différents composants d'un modèle RAG

L'encodage (ou vectorisation)

Avant d'être traitées par un LLM, les données textuelles doivent d'abord être encodées, c'est-à-dire traduites sous une forme que les algorithmes peuvent comprendre et manipuler.

Cet encodage est aussi appelé vectorisation, car il consiste à assigner des coordonnées à chaque mot, phrase ou document, selon leur sémantique. Ainsi les sources traitant d’un même sujet seront "proches" dans cet espace de vecteurs.

L’encodeur accède aux dossiers auxquels vous lui avez donné accès. Il peut traiter :

  • tout type de fichiers : PDF, mail, Excel, page web, etc. ;
  • tout type de contenu : comptabilité, mail, catalogue, code civil, formulaire, etc.

La récupération (retrieval)

Pour construire un RAG, on place en amont du LLM un “File Retriever”. Celui-ci a pour fonction de rechercher parmi vos sources celles qui sont pertinentes pour répondre aux questions que vous poserez, et de les soumettre au LLM.

Pour cela, le File Retriever "place" la question dans l’espace vectoriel des sources à l’aide de l’encodeur puis récupère les sources les plus proches dans l’espace (les sources les plus pertinentes donc).

En pratique, le File Retriever est un module qu’il est possible de programmer en Python, ou qui peut être programmé via des interfaces low code comme Microsoft Power Apps ou Power Automate.

Il est important de noter que vos sources de données sont sécurisées et que le LLM n’apprend pas de vos données. Autrement dit, vos sources de données ne sont pas enregistrées par les LLM, mais sont seulement "consultées" par le LLM pour répondre à vos questions.

La génération de texte

A partir de l'expertise "acquise" sur les sources spécifiques qui lui ont été soumises, le LLM ainsi augmenté par vos sources est capable de générer du texte : réponses à des questions, capacité à synthétiser de l'information, etc.

Schéma de synthèse, et un exemple concret

Chaque mois, recevez les dernières actualités sur la Data, IA & Data Science !
Pas de spam. Pas de publicité. Seulement les dernières actualités importantes du secteur, commentées par les experts Solstice Lab.
Merci pour votre inscription !
Oops! Il y a un souci avec cette adresse e-mail...
Partagez cet article
consultant data solstice lab
Emmanuel Ladoux
CEO, Founder