KI-Lösung

Erstellen Sie eine Multiagent RAG-Lösung auf OCI

Einführung

Die Retrieval-Augmented Generation (RAG) kann für einfache Abfragen nützlich sein. Aber was ist, wenn Abfragen komplex sind und mehrstufige Argumentation und Entscheidungsfindung erfordern? In diesem Fall wäre beispielsweise ein Support-Chatbot, der Probleme beheben und nicht nur häufig gestellte Fragen abrufen könnte, nützlicher.

In dieser Lösung richten wir eine Multiagent-RAG-Pipeline ein und stellen sie auf Oracle Cloud Infrastructure (OCI) bereit, um intelligent auf eine Abfrage zu reagieren. Das Large Language Model (LLM)-Agenten planen, recherchieren und argumentieren die Antwort der KI. Dieser Prozess der Gedankenkette (CoT) emuliert die menschliche Problemlösung. Eine Gradio-Schnittstelle orchestriert die Datenverarbeitung – mehrere Datenquellen werden mit Open-Source-Tools hochgeladen, aufgenommen und als Vektoren gespeichert. Gradio bietet auch die Chat-Schnittstelle, um eine Abfrage in natürlicher Sprache einzugeben.

Mit der Visualisierung CoT in Gradio sehen Sie die Schritte und Entscheidungen, die von jedem Agent getroffen wurden, um die endgültige, synthetische Antwort zu liefern. Diese Lösung bietet ein leicht zu befolgendes Beispiel dafür, wie die KI die Argumentationsfunktionen lokaler und cloudbasierter Modelle verbessern kann.

Demo

Demo: Multiagent-RAG-Lösung auf OCI erstellen (1:26)

Voraussetzungen und Einrichtung

  1. Oracle Cloud-Account – Registrierungsseite
  2. OCI Generative AI – Dokumentation
  3. OCI Generative AI Agents – Dokumentation
  4. Oracle Database 23ai – Dokumentation
  5. Dokumentation – Dokumentation
  6. Gradio – Dokumentation
  7. Trafilatura – Dokumentation