Os cientistas de dados podem acessar e usar qualquer origem de dados em qualquer nuvem ou on-premises. Isso fornece mais recursos de dados potenciais que geram modelos melhores.
O Oracle Cloud Infrastructure (OCI) Data Labeling é um serviço para criar conjuntos de dados rotulados para treinar modelos de IA e machine learning com mais precisão. Com o OCI Data Labeling, desenvolvedores e cientistas de dados reúnem dados, criam e navegam em conjuntos de dados e aplicam rótulos a registros de dados.
Envie consultas interativas do Spark para o cluster Spark do OCI Data Flow. Ou use o Oracle Accelerated Data Science SDK para desenvolver facilmente uma aplicação Spark e executá-la em escala no OCI Data Flow, tudo dentro do ambiente do Data Science.
Defina pipelines de engenharia de recursos e crie recursos com execução totalmente gerenciada. Versione e documente recursos e pipelines de recursos. Compartilhe, governe e controle o acesso aos recursos. Consuma recursos para cenários de inferência em lote e em tempo real.
Os ambientes de notebook JupyterLab integrados e hospedados na nuvem permitem que as equipes de ciência de dados criem e treinem modelos usando uma interface de usuário familiar.
O OCI Data Science oferece familiaridade e versatilidade para cientistas de dados, com centenas de ferramentas e estruturas de código aberto populares, como TensorFlow ou PyTorch, ou adiciona estruturas de sua escolha. Uma parceria estratégica entre a OCI e o Anaconda permite que os usuários da OCI baixem e instalem pacotes diretamente do repositório do Anaconda sem nenhum custo, tornando o código aberto seguro mais acessível do que nunca.
O Oracle Accelerated Data Science SDK é um kit de ferramentas Python fácil de usar que oferece suporte ao cientista de dados em todo o fluxo de trabalho de ciência de dados de ponta a ponta.
Com as GPUs NVIDIA, os cientistas de dados criam e treinam modelos de deep learning em menos tempo. Em comparação com as CPUs, o desempenho pode ser acelerado de 5 a 10 vezes.
Use Jobs para executar tarefas de ciência de dados repetíveis no modo em lote. Aumente seu treinamento de modelo com suporte para GPUs NVIDIA bare metal e treinamento distribuído.
Crie, edite e execute facilmente artefatos de job do Data Science diretamente do OCI Console usando o Code Editor. Vem com integração do Git, controle automático de versões, personalização e muito mais.
Os cientistas de dados usam o catálogo de modelos para preservar e compartilhar modelos de machine learning completos. O catálogo armazena os artefatos e captura metadados em torno da taxonomia e do contexto do modelo, hiperparâmetros, definições dos esquemas de dados de entrada e saída do modelo e informações detalhadas de proveniência sobre a origem do modelo, incluindo o código-fonte e o ambiente de treinamento.
Gere automaticamente um conjunto abrangente de métricas e visualizações para medir o desempenho do modelo em relação a novos dados e comparar candidatos a modelo.
Aproveite ambientes conda pré-construídos e com curadoria para abordar uma variedade de casos de uso, como PNL, visão computacional, previsão, análise de gráficos e Spark. Publique ambientes personalizados e compartilhe com colegas, garantindo a reprodutibilidade de ambientes de treinamento e inferência.
Os cientistas de dados podem se conectar ao repositório Git de sua organização para preservar e recuperar o trabalho de machine learning.
Implemente modelos de machine learning como pontos de extremidade HTTP para atender a previsões de modelo em novos dados em tempo real. Basta clicar para implementar do catálogo de modelos para que o OCI Data Science se encarregue de todas as operações de infraestrutura, incluindo provisionamento de computação e balanceamento de carga.
Operacionalize e automatize seus fluxos de trabalho de desenvolvimento, treinamento e implementação de modelos com um serviço totalmente gerenciado para criar, depurar, rastrear, gerenciar e executar pipelines de ML.
Monitore continuamente os modelos em produção para dados e desvios de conceito. Permite que cientistas de dados, engenheiros de confiabilidade do site e engenheiros de DevOps recebam alertas e avaliem rapidamente as necessidades de retreinamento do modelo.
Originalmente projetadas para as próprias aplicações SaaS da Oracle para incorporar recursos de IA, as aplicações de ML agora estão disponíveis para automatizar todo o ciclo de vida de MLOps, incluindo desenvolvimento, provisionamento e manutenção contínua e gerenciamento de frota, para ISVs com centenas de modelos para cada um de seus milhares de clientes.
Aproveite LLMs como Llama 2 e Mistral 7B, com um clique por meio da integração perfeita com os notebooks de Data Science.
Acesse o suporte para implementação de modelo usando Inferência de Geração de Texto (Hugging Face), vLLM (UC Berkeley) e NVIDIA Triton servindo com exemplos públicos para
Os usuários podem acessar controles de moderação de conteúdo, troca de modelos de endpoints sem tempo de inatividade e recursos de desativação e ativação de endpoints. Aproveite o treinamento distribuído com PyTorch, Hugging Face Accelerate e DeepSpeed para ajustar os LLMs para alcançar o desempenho ideal. Ative o checkpoint e o armazenamento sem esforço de pesos ajustados com montagem para armazenamento de objetos e sistema de arquivos como serviço. Além disso, os condas fornecidos pelo serviço eliminam a necessidade de ambientes Docker personalizados e permitem o compartilhamento com menos lentidão.