La generación con recuperación aumentada (RAG) puede ser útil para consultas sencillas. Pero, ¿qué pasa si las consultas son complejas y requieren un razonamiento de varios pasos y una toma de decisiones? Es entonces cuando, por ejemplo, un chatbot de soporte que podría solucionar problemas, no solo recuperar preguntas frecuentes, sería más útil.
En esta solución, configuraremos un pipeline de RAG multiagente y lo desplegaremos en Oracle Cloud Infrastructure (OCI) para responder de forma inteligente a una consulta. Los agentes del modelo de lenguaje grande (LLM) planifican, investigan y razonan la respuesta de la IA; este proceso de cadena de pensamiento (CoT) emula la resolución de problemas humanos. Una interfaz de Gradio organiza el procesamiento de datos: se cargan, ingieren y almacenan varios orígenes de datos como vectores mediante herramientas de código abierto. Gradio también proporciona la interfaz de chat para introducir una consulta de lenguaje natural.
Con la visualización CoT en Gradio, verás los pasos y decisiones tomadas por cada agente para entregar la respuesta final sintetizada. Esta solución proporciona un ejemplo fácil de seguir de cómo la IA ágil puede mejorar las capacidades de razonamiento de los modelos locales y basados en la nube.