Los grandes modelos de lenguaje (LLM) en la base de datos simplifican en gran medida el desarrollo de aplicaciones GenAI. Puedes beneficiarte de la IA generativa; no necesitas seleccionar un LLM externo y no tienes que considerar la complejidad de la integración, los costos ni la disponibilidad de un LLM externo en varios centros de datos.
HeatWave Vector Store te permite combinar el poder de los LLM con tus propios datos para obtener respuestas más precisas y contextualmente relevantes que el uso de modelos entrenados solo en datos públicos. El almacén vectorial procesa documentos en diversos formatos, incluido PDF, y los almacena como incrustaciones generadas mediante un modelo de codificador. Para una consulta de usuario determinada, identifica los documentos más similares realizando una búsqueda de similitud con las incrustaciones almacenadas y la consulta incorporada. Estos documentos se utilizan para aumentar la solicitud dada al LLM de modo que proporcione una respuesta más contextual para tu empresa.
El procesamiento vectorial se acelera con la arquitectura en memoria y de escala horizontal de HeatWave. HeatWave admite un nuevo tipo de dato VECTOR nativo, lo que permite utilizar SQL estándar para crear, procesar y gestionar datos vectoriales.
Una nueva interfaz de chat HeatWave le permite tener conversaciones contextuales aumentadas por documentos propietarios en el almacén de vectores, utilizando lenguaje natural.