인데이터베이스 대규모 언어 모델(LLM)을 사용하면 GenAI 애플리케이션 개발이 상당히 단순해집니다. 생성형 AI의 이점을 빠르게 활용할 수 있습니다. 외부 LLM을 선택할 필요가 없고, 다양한 데이터 센터에 위치한 외부 LLM 통합으로 인한 복잡성, 비용, 가용성을 고려할 필요가 없습니다.
HeatWave Vector Store를 사용하면 기업의 독점 데이터와 LLM의 강력한 기능을 결합하여 공용 데이터로만 학습된 모델을 사용하는 것보다 더 정확하고 맥락에 맞는 답변을 얻을 수 있습니다. 벡터 저장소는 PDF를 비롯한 다양한 형식의 문서를 수집하고, 임베딩 모델을 통해 생성된 임베딩으로 저장합니다. 사용자가 쿼리를 입력하면 벡터 저장소는 저장된 임베딩과 임베드된 쿼리에 대한 유사성 검색을 수행하여 쿼리 내용과 가장 유사한 문서를 식별하는 작업을 지원합니다. 식별한 문서로 LLM에 제공되는 프롬프트를 보강하여 LLM이 보다 비즈니스 맥락에 맞는 답변을 제공하도록 유도할 수 있습니다.
벡터 처리는 HeatWave의 인메모리 및 수평 확장 아키텍처를 통해 가속화됩니다. HeatWave는 새로운 고유 VECTOR 데이터 유형을 지원하므로 표준 SQL을 사용하여 벡터 데이터를 생성, 처리 및 관리할 수 있습니다.
새로운 HeatWave Chat 인터페이스를 사용하면 자연어를 사용하여 벡터 저장소의 독점 문서에 의해 증강된 맥락 기반 대화를 할 수 있습니다.