HeatWave GenAIの機能

データベース内大規模言語モデル

データベース内の大規模言語モデル(LLM)により、GenAIアプリケーションの開発が大幅に簡素化されます。生成AIのメリットをすぐに享受できます。外部LLMを選択する必要が無いため、さまざまなデータセンターの外部LLMの統合の複雑さ、コスト、可用性を考慮する必要はありません。

クラウド全体で幅広いユースケースに対応する生成AIアプリケーションを構築

  • たとえば、組込みLLMを使用して、コンテンツおよび検索データを生成または要約し、HeatWaveベクトル・ストアで取得拡張生成(RAG)を実行できます。
  • また、生成AIを機械学習などのHeatWaveの他の組み込み機能と組み合わせることで、顧客にさらなる価値を提供し、コストを削減し、より正確な結果をより迅速に得ることができます。
  • Oracle Cloud Infrastructure(OCI)のすべてのリージョン、OCI Dedicated Region、Oracle Alloy、Amazon Web Services(AWS)、Microsoft Azureで組み込みのLLMを使用し、導入全体にわたって予測可能なパフォーマンスで一貫した結果を得ることができます。
  • Oracle HeatWave GenAIは、OCI Generative AIサービスおよびAmazon Bedrockと統合されており、CohereおよびMetaの事前学習済み基盤モデルにアクセスできます。
  • 開発者はデータベース内LLMとHeatWave Chatにより、自然言語で状況に即した会話を行うよう事前構成されたアプリを提供できます。外部LLMへのサブスクライブや、GPUのプロビジョニングを行う必要はありません。
  • LLM推論バッチ処理により、開発者は複数のリクエストを同時に実行することでアプリケーションのスループットを向上させることができます。
  • LLMは、HeatWaveベクトル・ストアを活用して、微調整に依存せずに、独自のデータを使用して知識を広げることができます。

コストとリスクを軽減を支援

  • データベース内LLMの使用に追加コストはかかりません。
  • GPUのプロビジョニングが不要になるため、インフラストラクチャ・コストを削減できます。さらに、システム・リソースが最適化され(スレッド数、バッチ・サイズ、セグメント・サイズが最適な構成となり)、より一層コストを削減できます。
  • HeatWave内でのネイティブLLMの実行により、データ移動に関連するリスクを最小限に抑えることができます。

HeatWaveベクトル・ストア

HeatWaveベクトル・ストアにより、LLMのパワーを専有データと組み合せて、公開データでのみトレーニングされたモデルを使用する場合よりも、正確で状況に適した回答が得られます。ベクトル・ストアは、PDFなどさまざまな形式のドキュメントを取り込み、埋込みモデルを介して生成されたベクトル埋め込みとして保存します。特定のユーザ・クエリに対して、ベクトル・ストアは、格納された埋め込みと埋め込まれたクエリの類似性検索を実行することで、最も類似したドキュメントを特定します。これらの文書は、LLMに与えられたプロンプトを補強するために使用され、LLMはビジネスにおいて、より状況に即した回答を提供します。

AIの専門知識は不要

  • HeatWave Vector Storeでは、AIの専門知識が無くても、データを別のベクトル・データベースに移動することなくビジネス・ドキュメントで生成AIを利用できます。
  • 開発者は、一つのSQLコマンドで、企業内の非構造化コンテンツ用のベクトル・ストアを作成できます。
  • ベクトル・ストアにおける埋込みの生成により、すべてのクラスタ・ノード上の複数のスレッドにわたり、複数の入力ファイルを並行して処理します。その結果、ベクトル・ストアが作成され、PDF、DOCX、HTML、TXT、PPTXなど、様々な形式の非構造化データが取り込まれることで、非常に速く、クラスタサイズに応じたスケーリングが行われます。
  • ベクトル・ストアで独自のドキュメントを検出して取り込むパイプラインは自動化されており、ユーザーの非構造化テキスト・データの変換や埋込みの生成などが行われるため、AIの専門知識を持たない開発者やアナリストでもベクトル・ストアを簡単に活用できます。
  • 多言語サポートにより、27言語のドキュメントをHeatWave Vector Storeにロードして類似性検索を実行したり、さまざまな言語で質問をすることができます。
  • ネイティブのJavaScriptサポートにより、開発者はJavaScriptをVECTORデータタイプで使用し、JavaScriptプログラムからHeatWave GenAI機能を呼び出すことができます。例えば、企業データにアクセスするチャットボットを簡単に構築できます。
  • 光学文字認識サポートにより、HeatWave Vector Storeを活用した類似検索を実行できます。スキャンされ画像として保存されたコンテンツをテキストデータに変換し、盗作検出など、さまざまな分析に活用できます。

コストとリスクを軽減

  • ベクトル・ストアはオブジェクト・ストレージに存在するため、大量のデータ・セットであっても、非常にコスト効率に優れており、スケーラブルです。ベクトル・ストアを異なるアプリケーションと簡単に共有できます。
  • データ変換はHeatWave内で完了するため、データの移動を無くしてセキュリティ・リスクを低減し、クライアント・リソースの必要性を排除することでコストを削減できます。

柔軟で高速なベクトル処理

ベクトル処理は、HeatWaveのインメモリーおよびスケールアウト・アーキテクチャによって高速化されます。HeatWaveは新しいネイティブVECTORデータ型をサポートしているため、標準SQLを使用してベクトル・データの作成、処理、管理を行うことができます。

  • ベクトルを他のSQL演算子と組み合せることができます。たとえば、複数のテーブルを様々なドキュメントと結合し、すべてのドキュメントを横断して類似検索を実行する分析問合せを実行できます。
  • インメモリ表現とスケールアウト・アーキテクチャにより、ベクトル処理が最大512のHeatWaveクラスタ・ノードにわたってパラレル化され、メモリー帯域幅で実行されるため、非常に高速で、なおかつ正確さが損なわれることもありません。

HeatWave Chat

新しいHeatWave Chatインタフェースでは、自然言語を使用して、ベクトル・ストア内の専有ドキュメントにより、状況に即した会話を拡張できます。

  • 自然言語を使用して、MySQL Databaseおよびオブジェクト・ストレージに格納されている非構造化データを操作できます。質問のコンテキストは保持され、フォローアップ質問により人間のような会話が実現されます。HeatWaveは、質問の履歴、ソース・ドキュメントの引用、LLMへのプロンプトを含むコンテキストを保持します。これにより、状況に即した会話が容易になり、LLMによって生成された回答のソースを確認できます。このコンテキストはHeatWaveに保持され、HeatWaveを使用するすべてのアプリケーションで利用できます。
  • 統合されたLakehouse Navigatorにより、MySQL Databaseおよびオブジェクト・ストレージで使用可能なデータを確認できます。その後、選択したデータをHeatWaveベクトル・ストアに簡単にロードし、LLMにその特定のソースから情報を取得するように指示できます。その結果、より小さなデータ・セットを検索して速度と精度の両方を向上させることで、コストを削減できます。
  • データベース全体を検索することも、検索を特定のフォルダに制限することもできます。
  • 組込みのHeatWave Chatか、またはOCI生成AIサービスでアクセス可能なHeatWave Chatを介して、複数のLLMを選択できます。