は、最先端のカスタマイズ可能なLLMのセットを提供するフルマネージド・サービスで、テキスト生成の広範囲に及ぶユース・ケースをカバーしています。プレイグラウンドを使用して即時利用可能なモデルを試してみたり、専用AIクラスタ上の独自のデータに基づいてファインチューニングしたカスタム・モデルを作成およびホストしたりできます。
現在のコンポーネントには、次のメトリックが用意されています。事前トレーニング済ですぐに使用できるカスタマイズ可能な大規模言語モデル(LLM)を活用します。これらのモデルは、テキスト要約、コピー生成、検索、チャットなど、生成AIの大規模なユースケース・セットで使用します。
プレイグラウンドにより、すぐに使えるLLMや微調整されたカスタムモデルを簡単に操作できる、チャットのような探索体験が提供されます。パラメータ設定を試して、モデル出力を変更します。自動的に生成されたPythonおよびJavaコード・スニペットをアプリケーションで使用できます。
お客様のデータおよびカスタム・トレーニング済モデルにアクセスできるのは、お客様だけです。お客様のデータでトレーニングされたカスタム・モデルを使用できるのは、お客様のみです。お客様のデータやカスタム・モデルを、他のお客様は参照できません。
送受信されたトークンのみの料金を支払うか、予測可能なパフォーマンスと価格設定に使用できる専用のAlクラスタを使用して、事前構築されたモデルをオンデマンドで使用できます。どちらの場合も、NVIDIA GPUで業界をリードするパフォーマンスとコスト効率を提供するOClを使用しています。
CohereとMetaのモデルはすぐに利用できます。
Cohere要約モデルを使用して、記事、ブログ、メール、その他のテキストの本文を簡潔、正確かつ流暢に要約します。より長いテキスト・ドキュメント内の要点の概念を理解して共有する時間と労力を節約します。
段落、文、およびフレーズのベクトル表現を作成します。出力ベクトルをビジュアル化して、外れ値および類似のグループ化されたフレーズを識別します。こうしたベクトル表現は、セマンティック検索、テキスト分類、およびその他の多くのユースケースに使用されます。
ドメインに関する知識によってCohereおよびLlama 3モデルを微調整し、アプリケーションのカスタム・モデル・エンドポイントを活用します。予測可能なパフォーマンスおよび価格設定のため、専用のファインチューニング・クラスタを使用します。
は、最先端のカスタマイズ可能なLLMのセットを提供するフルマネージド・サービスで、テキスト生成の広範囲に及ぶユース・ケースをカバーしています。プレイグラウンドを使用して即時利用可能なモデルを試してみたり、専用AIクラスタ上の独自のデータに基づいてファインチューニングしたカスタム・モデルを作成およびホストしたりできます。
現在のコンポーネントには、次のメトリックが用意されています。