Os LLMs (grandes modelos de linguagem) no banco de dados simplificam muito o desenvolvimento de aplicações de GenAI. Você pode rapidamente obter os benefícios da IA generativa. Não é necessário selecionar um LLM externo, nem considerar a complexidade da integração, os custos ou a disponibilidade de um LLM externo em vários data centers.
O HeatWave Vector Store permite combinar o poder dos LLMs aos seus dados proprietários para ajudar a obter respostas mais precisas e contextualmente relevantes do que usar modelos treinados apenas com dados públicos. O armazenamento de vetores ingere documentos em vários formatos, inclusive PDF, e os armazena como incorporações geradas por meio de um modelo de incorporação. Para uma determinada consulta do usuário, o armazenamento de vetores ajuda a identificar os documentos mais semelhantes executando uma pesquisa de similaridade com as incorporações armazenadas e a consulta incorporada. Esses documentos são usados para aumentar o prompt dado ao LLM para que ele forneça uma resposta mais contextual para seus negócios.
O processamento vetorial é acelerado com a arquitetura de memória e expansão do HeatWave. O HeatWave oferece suporte a um novo tipo de dados VECTOR nativo, permitindo que você use SQL padrão para criar, processar e gerenciar dados vetoriais.
Uma nova interface do HeatWave Chat permite ter conversas contextuais complementadas por documentos proprietários no armazenamento de vetores, usando linguagem natural.