I modelli disponibili di Cohere e Meta per l'AI generativa OCI includono
Con i cluster AI dedicati, puoi ospitare modelli di base su GPU dedicate private. Questi cluster offrono prestazioni stabili e con throughput elevato, richieste per i casi d'uso di produzione e possono supportare carichi di lavoro di hosting e fine tuning. L'AI generativa OCI ti consente di eseguire lo scale-out del cluster senza tempi di inattività per gestire le modifiche del volume.
L'esperienza di chat offre un'interfaccia predefinita con i modelli Cohere e Meta in cui gli utenti possono porre domande e ottenere risposte tramite la console o l'API OCI.
L'AI generativa OCI è integrata con LangChain, un framework open source che può essere utilizzato per sviluppare nuove interfacce per applicazioni AI generative basate su modelli di linguaggio. LangChain semplifica lo scambio di astrazioni e componenti necessari per lavorare con i modelli di linguaggio.
Utilizza LlamaIndex, un framework open source per la creazione di applicazioni con aggiunta del contesto, con OCI Generative AI per creare facilmente soluzioni o agenti RAG. Porta le tue soluzioni dal prototipo alla produzione con sorgente di dati personalizzate e strumenti flessibili.
L'AI generativa OCI fornisce controlli di moderazione dei contenuti e sarà disponibile a breve: lo swap del modello di endpoint con zero tempi di inattività e funzionalità di disattivazione e attivazione degli endpoint. Per ogni modello endpoint, OCI Generative AI acquisisce una serie di analitycs tra cui statistiche delle chiamate, token elaborati e conteggi degli errori.
Integrando le funzioni create con l'AI generativa OCI direttamente in Oracle Cloud Applications, semplifichiamo l'accesso immediato dei clienti senza integrazioni complesse.