Fonctionnalités de HeatWave GenAI

Grands modèles de langage dans la base de données

Les grands modèles de langage (LLM) dans la base de données simplifient considérablement le développement des applications de GenAI. Vous pouvez bénéficier rapidement de l'IA générative : vous n'avez pas besoin de sélectionner un LLM externe et n'avez pas besoin de prendre en compte la complexité de l'intégration, les coûts ou la disponibilité d'un LLM externe dans différents centres de données.

  • Vous pouvez, par exemple, utiliser les LLM intégrés pour générer ou résumer du contenu et des données de recherche afin d'effectuer une génération augmentée de récupération (RAG) avec le magasin de vecteurs HeatWave.
  • Vous pouvez également combiner l'IA générative avec d'autres fonctionnalités HeatWave intégrées, telles que l'apprentissage automatique, afin de réduire les coûts et d'obtenir des résultats plus précis plus rapidement.
  • Vous pouvez utiliser les LLM intégrés dans toutes les régions OCI, dans la région dédiée OCI et dans les clouds, et obtenir des résultats cohérents avec des performances prévisibles dans tous les déploiements.
  • L'utilisation des LLM dans la base de données n'entraîne aucun coût supplémentaire. Vous pouvez réduire les coûts d'infrastructure en éliminant le besoin de provisionner les GPU. En outre, les ressources système sont optimisées (configuration optimale du nombre de threads, de la taille de lot et de la taille de segment) pour réduire davantage les coûts.
  • Les LLM dans la base de données et HeatWave Chat aident les développeurs à fournir des applications préconfigurées pour les conversations contextuelles en langage naturel. Il n'est pas nécessaire de s'abonner à des LLM externes ou de provisionner des GPU.
  • L'exécution de LLM natif dans HeatWave permet de minimiser les risques associés au déplacement de données. Les LLM peuvent tirer parti de HeatWave Vector Store pour étendre leurs connaissances à l'aide de données propriétaires au lieu de compter sur l'affinage.
  • Oracle HeatWave GenAI est intégré au service OCI Generative AI pour accéder à des modèles de base préentraînés à partir de Cohere et Meta.

HeatWave Vector Store

HeatWave Vector Store vous permet de combiner la puissance des LLM avec vos données propriétaires pour obtenir des réponses plus précises et pertinentes sur le plan contextuel que l'utilisation de modèles entraînés uniquement sur les données publiques. La banque de vecteurs ingère des documents dans différents formats, notamment PDF, et les stocke en tant qu'intégrations générées via un modèle d'intégration. Pour une requête utilisateur donnée, la banque de vecteurs aide à identifier les documents les plus similaires en effectuant une recherche de similarité par rapport aux incorporations stockées et à la requête intégrée. Ces documents sont utilisés pour compléter l'invite donnée au LLM afin qu'il fournisse une réponse plus contextuelle pour votre entreprise.

  • HeatWave Vector Store vous permet d'utiliser l'IA générative avec vos documents commerciaux sans déplacer les données vers une base de données vectorielle distincte et sans expertise en IA.
  • La génération d'intégrations dans le stockage vectoriel traite plusieurs fichiers d'entrée en parallèle sur plusieurs threads sur tous les nœuds de cluster. Par conséquent, la création du magasin de vecteurs et l'ingestion de données non structurées dans divers formats, tels que PDF, DOCX, HTML, TXT ou PPTX, sont très rapides et évoluent selon la taille du cluster.
  • Le pipeline de découverte et d'ingestion de documents propriétaires dans le magasin de vecteurs est automatisé, notamment en transformant les données textuelles non structurées des utilisateurs et en générant des intégrations, ce qui facilite l'exploitation du magasin de vecteurs par les développeurs et les analystes sans expertise en IA.
  • Le stockage vectoriel réside dans le stockage d'objets, ce qui le rend très rentable et hautement évolutif, même avec des ensembles de données volumineux. Vous pouvez également partager facilement le magasin de vecteurs avec différentes applications.
  • La transformation des données s'effectue dans la base de données, ce qui permet de réduire les risques de sécurité en éliminant les mouvements de données et de réduire les coûts en éliminant le besoin de ressources client.

Traitement vectoriel flexible et rapide

Le traitement vectoriel s'accélère avec l'architecture en mémoire et évolutive de HeatWave. HeatWave prend en charge un nouveau type de données VECTOR natif, ce qui vous permet d'utiliser le code SQL standard pour créer, traiter et gérer des données vectorielles.

  • Vous pouvez associer des vecteurs à d'autres opérateurs SQL. Par exemple, vous pouvez exécuter des requêtes analytiques qui joignent plusieurs tables avec différents documents et effectuer des recherches de similarité dans tous les documents.
  • Grâce à la représentation en mémoire et à l'architecture évolutive, le traitement vectoriel est parallélisé sur un maximum de 512 noeuds de cluster HeatWave et exécuté avec la bande passante de la mémoire, extrêmement rapide et sans perte de précision.

HeatWave Chat

La nouvelle interface de HeatWave Chat vous permet de tenir des conversations contextuelles augmentées par des documents propriétaires dans le magasin de vecteurs, en utilisant le langage naturel.

  • Vous pouvez interagir avec des données non structurées stockées dans MySQL Database et dans le stockage d'objets à l'aide du langage naturel. Le contexte des questions est préservé pour permettre une conversation de type humain avec des questions de suivi. HeatWave conserve un contexte avec l'historique des questions posées, les citations des documents source et l'invite au LLM. Cela facilite une conversation contextuelle et vous permet de vérifier la source des réponses générées par le LLM. Ce contexte est maintenu dans HeatWave et est disponible pour toutes les applications utilisant HeatWave.
  • Le navigateur Lakehouse intégré vous permet de voir les données disponibles dans MySQL Database et le stockage d'objets. Vous pouvez ensuite facilement charger les données sélectionnées dans le magasin de vecteurs HeatWave et demander au LLM d'extraire des informations de cette source spécifique. Par conséquent, vous pouvez réduire les coûts en effectuant une recherche dans un jeu de données plus réduit tout en augmentant à la fois la vitesse et la précision.
  • Vous pouvez effectuer une recherche dans l'ensemble de la base de données ou limiter la recherche à un dossier.
  • Plusieurs LLM peuvent être sélectionnés via HeatWave Chat, intégré ou accessible avec le service OCI Generative AI.