データベース内の大規模言語モデル(LLM)により、GenAIアプリケーションの開発が大幅に簡素化されます。生成AIのメリットをすぐに享受できます。外部LLMを選択する必要が無いため、さまざまなデータセンターの外部LLMの統合の複雑さ、コスト、可用性を考慮する必要はありません。
クラウド全体で幅広いユースケースに対応する生成AIアプリケーションを構築
コストとリスクを軽減を支援
HeatWaveベクトル・ストアにより、LLMのパワーを専有データと組み合せて、公開データでのみトレーニングされたモデルを使用する場合よりも、正確で状況に適した回答が得られます。ベクトル・ストアは、PDFなどさまざまな形式のドキュメントを取り込み、埋込みモデルを介して生成されたベクトル埋め込みとして保存します。特定のユーザ・クエリに対して、ベクトル・ストアは、格納された埋め込みと埋め込まれたクエリの類似性検索を実行することで、最も類似したドキュメントを特定します。これらの文書は、LLMに与えられたプロンプトを補強するために使用され、LLMはビジネスにおいて、より状況に即した回答を提供します。
AIの専門知識は不要
コストとリスクを軽減
ベクトル処理は、HeatWaveのインメモリーおよびスケールアウト・アーキテクチャによって高速化されます。HeatWaveは新しいネイティブVECTORデータ型をサポートしているため、標準SQLを使用してベクトル・データの作成、処理、管理を行うことができます。
新しいHeatWave Chatインタフェースでは、自然言語を使用して、ベクトル・ストア内の専有ドキュメントにより、状況に即した会話を拡張できます。