Les grands modèles de langage (LLM) dans la base de données simplifient considérablement le développement des applications de GenAI. Vous pouvez bénéficier rapidement de l'IA générative : vous n'avez pas besoin de sélectionner un LLM externe et n'avez pas besoin de prendre en compte la complexité de l'intégration, les coûts ou la disponibilité d'un LLM externe dans différents centres de données.
HeatWave Vector Store vous permet de combiner la puissance des LLM avec vos données propriétaires pour obtenir des réponses plus précises et pertinentes sur le plan contextuel que l'utilisation de modèles entraînés uniquement sur les données publiques. La banque de vecteurs ingère des documents dans différents formats, notamment PDF, et les stocke en tant qu'intégrations générées via un modèle d'intégration. Pour une requête utilisateur donnée, la banque de vecteurs aide à identifier les documents les plus similaires en effectuant une recherche de similarité par rapport aux incorporations stockées et à la requête intégrée. Ces documents sont utilisés pour compléter l'invite donnée au LLM afin qu'il fournisse une réponse plus contextuelle pour votre entreprise.
Le traitement vectoriel s'accélère avec l'architecture en mémoire et évolutive de HeatWave. HeatWave prend en charge un nouveau type de données VECTOR natif, ce qui vous permet d'utiliser le code SQL standard pour créer, traiter et gérer des données vectorielles.
La nouvelle interface de HeatWave Chat vous permet de tenir des conversations contextuelles augmentées par des documents propriétaires dans le magasin de vecteurs, en utilisant le langage naturel.