AI Solutions Hub

Entrez dans une nouvelle ère de productivité avec des solutions d'IA générative pour votre entreprise. Tirez parti de l'IA intégrée selon vos besoins sur l'ensemble du stack.

IA et Apprentissage automatique

Analyses et IA

Compute

Conteneurs

Lac de données

Services pour les développeurs

Generative AI

Identité et sécurité

  • Déploiement rapide des applications d'IA

    Favorisez l'accélération du déploiement de vos applications d'IA à l'aide d'Oracle Cloud et de Kubernetes, ce qui vous permet d'améliorer votre évolutivité et votre fiabilité grâce à des stratégies natives du cloud.

Intégration

Marché

Bases de données open-source

Oracle Database

Stockage

Inférence

Développement de modèle

Extraction et synthèse

Résultats contextuels (avec la RAG)

Traitement du langage naturel

vision par ordinateur

Reconnaissance vocale

Analyse des sentiments

Scénarios typiques

Construisez avec OCI Generative AI

Regardez la vidéo sur l'exemple de solution (1:36)

Exploitez la puissance des LLM dans un service géré

Dans le monde où le développement de logiciels évolue à toute vitesse, il est crucial de se tenir informé. Imaginez avoir un assistant d'IA qui peut aider à transformer rapidement une page Web complexe en contenu accessible, facilement consommable et partageable. C'est l'une des nombreuses tâches pour lesquelles vous pouvez compter sur Oracle Cloud Infrastructure (OCI) Generative AI.

Voici un exemple de la façon dont vous pouvez créer un tel assistant d'IA avec OCI Generative AI.

L'outil de résumé des projets de tendances GitHub alimenté par l'IA est un moteur de génération de contenu personnel qui extrait et résume automatiquement les 25 principaux projets de tendances GitHub. OCI Generative AI permet d'extraire, de lire et de compiler le fichier README de chaque projet dans un résumé concis, engageant et informatif qui peut être partagé avec d'autres.

Essayez-le, avec des étapes détaillées et un exemple de code sur GitHub.

Choisir des modèles

Vous pouvez facilement basculer entre plusieurs LLM proposés via OCI Generative AI en modifiant simplement la variable model_id dans summarize_llm.py.

  • cohere.command-r-16k : modèle polyvalent pour les tâches linguistiques générales, telles que la génération de texte, la synthèse et la traduction, avec une taille de contexte de 16 000 tokens. Idéal pour créer une IA conversationnelle avec un bon équilibre entre performances et rentabilité.
  • cohere.command-r-plus : version améliorée avec une compréhension plus sophistiquée et des capacités linguistiques plus approfondies. Idéal pour les tâches complexes nécessitant des réponses nuancées et une capacité de traitement supérieure.
  • meta.llama-3.3-70b-instruct : modèle de 70 milliards de paramètres avec longueur de contexte de 128 000 jetons et prise en charge multilingue.
  • meta.llama-3.1-405b-instruct : Le plus grand LLM accessible au public (405 milliards de paramètres) avec des capacités exceptionnelles dans le raisonnement, la génération de données synthétiques et l'utilisation d'outils. Idéal pour les applications d'entreprise nécessitant des performances maximales.

Il s'agit d'un aperçu des modèles disponibles. Nous ajoutons constamment de nouveaux modèles.

Voici un fragment de code pour appeler OCI Generative AI :

content.text = """Generate an abstractive summary of the given Markdown contents. Here are the contents to summarize: {}""".format(summary_txt)


chat_detail.content = content.text 

chat_detail.serving_mode = oci.generative_ai_inference.models.OnDemandServingMode(model_id="meta.llama-3.1-405b-instruct") # configurable model chat_response = generative_ai_inference_client.chat(chat_detail)

Utilisez des agents OCI Generative AI avec RAG

Regardez la vidéo sur l'exemple de solution (1:44)

Améliorez l'accès aux bases de connaissances

La génération augmentée de récupération (RAG) est l'un des cas d'utilisation les plus importants pour l'IA. La RAG vous permet d'augmenter les connaissances d'un LLM sans le réentraîner. C'est un moyen pour le LLM d'extraire de nouvelles informations, notamment à partir d'une base de données, et de les présenter rapidement à l'utilisateur final.

Cela permet au LLM de disposer de connaissances à jour indépendamment du moment où le LLM a été entraîné et du moment où l'inférence a été exécutée. En conséquence, les données mises à jour peuvent rendre facilement votre LLM plus intelligent.

Après avoir téléchargé des documents vers les agents Oracle Cloud Infrastructure (OCI) GenAI, le service traite les données et fournit un moyen de les utiliser via un chatbot.

Essayez-le, avec des étapes détaillées et un exemple de code sur GitHub.

Voici un fragment de code pour l'utilisation de l'agent RAG dans OCI :

# ask a question to RAG agent question = "What steps do I take if I have a new patient under the patient admission recommendations?" # Initialize service client with default config file agent_runtime_client = GenerativeAiAgentRuntimeClient(config)


chat_response = agent_runtime_client.chat( agent_endpoint_id="ocid1.test.oc1..<id>", chat_details=ChatDetails(user_message=question)) 

# Get the data from response print(chat_response.data)

Créez avec Oracle HeatWave GenAI

Regardez la vidéo sur l'exemple de solution (3:54)

Accélérez le développement d'applications avec l'IA générative intégrée

L'IA générative peut s'avérer particulièrement efficace pour résumer les sentiments, comme le montre ce scénario. Un site d'e-commerce peut avoir des centaines de références, ou SKU, comptant chacune des dizaines d'avis. Pour vous aider à résumer rapidement les évaluations de produit, les développeurs peuvent exploiter les fonctionnalités intégrées de HeatWave GenAI, en utilisant des grands modèles de langage dans la base de données et un magasin de vecteurs automatisé dans la base de données.

HeatWave GenAI peut également aider à traduire et à analyser les sentiments à la demande. Toutes les opérations peuvent être automatisées avec HeatWave GenAI, en maintenant les résumés à jour à mesure que de nouvelles révisions sont ajoutées.

En maintenant les données et le traitement dans HeatWave, les développeurs peuvent faire évoluer les solutions en fonction de leurs besoins GenAI, ce qui rend l'IA aussi simple qu'une requête de base de données.

Essayez-le, avec des étapes détaillées et un exemple de code sur GitHub.

Voici un extrait de code illustrant comment résumer les commentaires positifs :

SELECT "################### Computing summaries for EXISTING reviews on a product ###################" AS "";

SELECT "" AS "";

CALL SUMMARIZE_TRANSLATE(1, "POSITIVE", "en", @positive_english_summary);
SELECT @positive_english_summary AS "--- English summary of positive reviews on the T-Shirt ---";

Créez avec des modèles open source sur OCI

Regardez la vidéo sur l'exemple de solution (1:30)

Exploitez les modèles open source d'IA générative sur une plateforme unifiée

Les LLM open source, tels que ceux créés par Hugging Face, sont des outils puissants qui permettent aux développeurs d'essayer des solutions d'IA générative relativement rapidement. Kubernetes, associé à Oracle Cloud Infrastructure (OCI), permet aux solutions d'IA générative de s'adapter, tout en offrant flexibilité, portabilité et résilience.

Dans cette démonstration, vous découvrez à quel point il peut être facile de déployer des conteneurs d'inférence de LLM fine-tunés sur OCI Kubernetes Engine, un service Kubernetes géré qui simplifie les déploiements et les opérations à grande échelle pour les entreprises. Le service permet aux développeurs de conserver le modèle personnalisé et les jeux de données dans leur propre location sans dépendre d'une API d'inférence tierce.

Nous utiliserons l'inférence de génération de texte comme structure d'inférence pour exposer les LLM.

Essayez-le, avec des étapes détaillées et un exemple de code sur GitHub.

Voici un fragment de code illustrant le déploiement d'un LLM open source :

# select model from HuggingFace

model=HuggingFaceH4/zephyr-7b-beta


# deploy selected model
docker run ghcr.io/huggingface/text-generation-inference:2.0 --model-id $model

# invoke the deployed model
curl IP_address:port/generate_stream \
    -X POST \
    -d '{"inputs":"What is Deep Learning?","parameters":{"max_new_tokens":50}}' \
    -H 'Content-Type: application/json'

Créez avec Oracle Code Assist

Regardez la vidéo sur l'exemple de solution (3:40)

Améliorez la productivité des développeurs et la cohérence du code

Oracle Code Assist est un compagnon de code d'IA conçu pour aider à améliorer la vitesse des développeurs et la cohérence du code. Optimisé par de grands modèles de langage (LLM) sur Oracle Cloud Infrastructure (OCI) ainsi que fine-tuné et optimisé pour le développement Java, SQL et d'applications sur OCI, Oracle Code Assist fournit aux développeurs des suggestions contextualisées. Vous pouvez l'adapter aux bonnes pratiques et aux bases de code de votre organisation.

Actuellement disponible en version bêta pour JetBrains IntelliJ IDEA et Microsoft Visual Studio Code, le plugin peut vous aider avec la documentation, la compréhension du code hérité et l'achèvement du code.

Pour rejoindre le programme bêta et découvrir comment vous lancer , visitez notre référentiel GitHub.

Modèles de base d'IA OCI

Déployez, adaptez et surveillez les charges de travail d'IA générative en quelques minutes avec les modèles d'IA d'Oracle Cloud Infrastructure (OCI), ainsi qu'avec des recommandations matérielles, des composants logiciels et une surveillance prête à l'emploi.

    • Déployez et adaptez efficacement les LLM avec vLLM : inférence ultra-rapide et intégration fluide, le tout sans aucun tracas.

    • Faites votre choix parmi des modèles personnalisés ou une variété de modèles open source sur Hugging Face.

    • Provisionnez automatiquement les nœuds de processeur graphique et stockez les modèles dans OCI Object Storage.

    • Bénéficiez d'une adresse d'API prête à l'emploi pour l'inférence de modèle instantanée.

    • Activez le redimensionnement automatique en fonction de la latence d'inférence pour les applications stratégiques.

    • Intégrez et adaptez facilement les charges de travail d'inférence, même sans expérience technique approfondie.

    • Surveillez les performances avec des outils d'observabilité intégrés, tels que Prometheus et Grafana.

    • Affinez vos résultats d'une manière plus intelligente, et non plus difficile : évaluez les performances et optimisez l'entraînement de l'IA grâce aux informations basées sur les données.

    • Comparez les performances d'affinage à l'aide de la méthodologie MLCommons.

    • Affinez un modèle Llama 2 70B quantifié avec un jeu de données standardisé.

    • Suivez la durée de l'entraînement, l'utilisation des ressources et les mesures de performances.

    • Enregistrez automatiquement les résultats dans MLflow et visualisez les informations dans Grafana.

    • Prenez des décisions d'infrastructure basées sur les données pour optimiser les travaux d'affinage.

    • Optimisez l'affinage de LLM avec une adaptation de bas niveau (LoRA) plus rapide, plus efficace et prête pour le déploiement.

    • Utilisez LoRA pour affiner efficacement les LLM avec une surcharge de calcul minimale.

    • Tirez parti de vos jeux de données personnalisés ou accessibles au public à partir de Hugging Face pour l'entraînement.

    • Suivez et analysez les mesures de formation détaillées consignées dans MLflow tout au long du processus d'affinage.

    • Stockez le modèle affiné et les résultats de l'entraînement dans un compartiment de stockage d'objets pour assurer un déploiement fluide.

    • Optimisez les performances avec une conception qui assure une adaptation rapide et efficace du modèle sans utilisation intensive des ressources.

    • Faites évoluer la solution selon vos besoins, des petits ensembles de données à l'affinage de modèles à grande échelle.