Solution IA

Création d'une solution RAG multiagent sur OCI

Introduction

La génération augmentée de récupération (RAG) peut être utile pour les requêtes simples. Mais que se passe-t-il si les requêtes sont complexes, nécessitant un raisonnement et une prise de décision en plusieurs étapes ? C'est à ce moment-là, par exemple, un chatbot de support qui pourrait résoudre les problèmes, et pas seulement récupérer les FAQ, serait plus utile.

Dans cette solution, nous allons configurer un pipeline RAG multiagent et le déployer sur Oracle Cloud Infrastructure (OCI) pour répondre de manière intelligente à une requête. Les agents du grand modèle de langage (LLM) planifient, recherchent et motivent la réponse de l'IA ; ce processus de chaîne de pensée (CoT) imite la résolution de problèmes humains. Une interface Gradio orchestre le traitement des données : plusieurs sources de données sont téléchargées, ingérées et stockées sous forme de vecteurs à l'aide d'outils open source. Gradio fournit également l'interface de chat pour entrer une requête en langage naturel.

Avec la visualisation CoT dans Gradio, vous verrez les étapes et les décisions prises par chaque agent pour fournir la réponse finale synthétisée. Cette solution fournit un exemple facile à suivre de la façon dont l'IA agentique peut améliorer les capacités de raisonnement des modèles locaux et basés sur le cloud.

Démonstration

Démonstration : Création d'une solution RAG multiagent sur OCI (1:26)

Prérequis et configuration

  1. Compte Oracle Cloud : page d'inscription
  2. OCI Generative AI - Documentation
  3. Agents OCI Generative AI - Documentation
  4. Oracle Database 23ai — Documentation
  5. Docling : documentation
  6. Gradio — documentation
  7. Trafilatura : documentation