Jeffrey Erickson | Estrategista de conteúdo | 2 de abril de 2024
A inferência, para um leigo, é uma conclusão baseada em evidências e raciocínio. Na inteligência artificial, a inferência é a capacidade da IA, depois de muito treinamento em conjuntos de dados selecionados, de raciocinar e tirar conclusões a partir de dados novos.
Compreender a inferência de IA é um passo importante para entender como funciona a inteligência artificial. Abordaremos as etapas envolvidas, os desafios, os casos de uso e as perspectivas futuras de como os sistemas de IA chegam às suas conclusões.
A inferência de IA ocorre quando um modelo de IA que foi treinado para ver padrões em conjuntos de dados selecionados começa a reconhecer esses padrões em dados que nunca viu antes. Como resultado, o modelo de IA pode raciocinar e fazer previsões de uma forma que imita as habilidades humanas.
Um modelo de IA é composto por algoritmos de tomada de decisão treinados em uma rede neural, ou seja, um modelo de linguagem estruturado como o cérebro humano, para executar uma tarefa específica. Em um exemplo simples, cientistas de dados podem mostrar ao modelo de IA um conjunto de dados com imagens de milhares ou milhões de carros com as marcas e modelos anotados. Depois de um tempo, o algoritmo começa a identificar com precisão os carros no conjunto de dados de treinamento. A inferência de IA é quando o modelo é mostrado um conjunto de dados aleatório e descobre, ou infere, a marca e o modelo de um carro com precisão aceitável. Um modelo de IA treinado dessa maneira pode ser usado em fronteiras ou em pedágios para fazer a correspondência entre placas de veículos e marcas de carros em uma avaliação rápida. Processos semelhantes podem derivar inferências de IA com raciocínios e previsões mais sutis para operar em assistência médica, bancos, varejo e muitos outros setores.
Principais conclusões
A inferência de IA é uma fase do ciclo de vida do modelo que segue a fase de treinamento. Pense no treinamento do modelo de IA como algoritmos de machine learning (ML) que fazem a lição de casa e a inferência de IA como alguém que gabarita a prova.
O treinamento em IA envolve a apresentação de grandes conjuntos de dados selecionados ao modelo para que ele possa aprender sobre o tópico em questão. A função dos dados de treinamento é ensinar o modelo a realizar uma determinada tarefa, portanto, os conjuntos de dados variam. Elas podem incluir imagens de gatos ou pontes, chamadas gravadas do serviço de atendimento ao cliente ou diagnósticos por imagem. O modelo de IA pode analisar dados ativos, reconhecer padrões e fazer previsões precisas sobre o que virá a seguir no conjunto de dados.
Com grandes modelos de linguagem (LLMs), por exemplo, o modelo pode inferir qual palavra vem a seguir e produzir frases e parágrafos com incrível precisão e fluidez.
A inferência de IA é importante porque esse reconhecimento é a forma como um modelo de IA treinado analisa e gera insights sobre novos dados. Sem a capacidade de fazer previsões ou resolver tarefas em tempo real, a IA terá dificuldade para se expandir para novas funções, incluindo no ensino, na engenharia, nas descobertas da medicina e na exploração espacial, e assumir uma lista cada vez maior de casos de uso em todos os setores.
Na verdade, a inferência é a essência de qualquer programa de IA. A capacidade de um modelo de reconhecer padrões em um conjunto de dados e inferir conclusões e previsões precisas está no cerne do valor da IA. Ou seja, vale a pena investir em um modelo de IA que possa ler com precisão um resultado de exame de raios X em questão de segundos ou detectar fraudes em meio a milhares ou milhões de transações de cartão de crédito.
Você precisa de um sistema de IA que possa tomar decisões altamente precisas quase em tempo real, como, por exemplo, se uma grande transação pode ser uma fraude? Ou é mais importante que seja capaz de usar os dados já vistos para prever o futuro, como acontece com um sensor adaptado para solicitar a manutenção preventiva? Compreender as abordagens de inferência de IA ajudará a definir o melhor modelo para o seu projeto.
O treinamento de aprendizagem profunda e a inferência de IA são duas partes do mesmo processo para obter resultados úteis de um modelo de IA. O treinamento de aprendizado profundo vem em primeiro lugar. É assim que um modelo de IA é treinado para processar dados de forma inspirada no cérebro humano. À medida que um modelo é treinado, ele ganha a capacidade de reconhecer níveis mais profundos de informações dos dados. Por exemplo, pode incluir desde o reconhecimento de formas numa imagem até o reconhecimento de possíveis temas ou atividades em uma imagem. A inferência de IA ocorre após o treinamento, quando é enviada uma solicitação para o modelo de IA reconhecer esses elementos em dados novos.
Para que a inferência de IA forneça valor em um caso de uso específico, muitos processos devem ser seguidos e muitas decisões devem ser tomadas em torno da arquitetura tecnológica, da complexidade do modelo e dos dados.
A inferência de IA é o resultado de um processo intensivo de computação de execução de um modelo de IA por meio de regimes de treinamento sucessivos usando grandes conjuntos de dados. Requer integração de muitas fontes de dados e uma arquitetura que permita que o modelo de IA funcione com eficiência. Conheça as principais tecnologias que permitem o processo.
Projetar ou escolher um modelo de IA e treiná-lo é apenas o começo. A implementação do modelo de IA para realizar inferências no mundo real traz alguns desafios. Isso pode incluir o fornecimento de dados de qualidade ao modelo e a explicação posterior de seus resultados. Confira uma lista de desafios que devem ser considerados.
Com a sua capacidade de inferir conclusões ou previsões a partir dos dados disponíveis, os modelos de IA assumem um volume cada vez maior de tarefas. Os grandes modelos de linguagem (LLMs) populares, como ChatGPT, usam inferência para escolher palavras e frases com uma incrível precisão linguística. A inferência também é o que permite à IA inferir qual arte gráfica ou vídeo ela deve construir com base em prompts verbais.
A inferência de IA também está se tornando uma parte importante do treinamento de sistemas industriais. Por exemplo, a IA pode ser usada para inspeção visual em ritmo acelerado em uma linha de produção, permitindo que os supervisores tenham mais tempo para se concentrar em falhas ou anomalias identificadas pela IA e, ao mesmo tempo, reduzir os custos e melhorar o controle de qualidade. Em sistemas industriais onde os robôs trabalham ao lado de humanos nas linhas de produção, a inferência de IA permite a percepção, a previsão e o planejamento necessários para detectar objetos e tomar decisões sutis de movimento.
Outro uso comum da inferência de IA é o aprendizado robótico, popularizado pelas muitas tentativas de aperfeiçoar carros autônomos. Como pode ser observado ao longo dos anos de treinamento de empresas como Waymo, Tesla e Cruz, o aprendizado robótico exige muitas tentativas e erros à medida que as redes neurais aprendem a reconhecer e reagir corretamente às exceções às regras de trânsito.
A inferência de IA também está ajudando pesquisadores e médicos. Os modelos de IA estão sendo treinados para encontrar curas examinando grandes quantidades de dados químicos ou epidemiológicos, e estão ajudando a diagnosticar doenças através da leitura de indícios sutis em exames de imagem.
O próximo passo para a inferência de IA será sair de grandes ambientes de nuvem ou data center e se tornar acessível em computadores e dispositivos locais. Embora o treinamento inicial de sistemas de IA usando arquiteturas de aprendizado profundo continue sendo executado em grandes data centers, uma nova geração de técnicas e hardware está trazendo inferência de IA de "última milha" para dispositivos menores, mais perto de onde os dados estão sendo gerados.
Isso permitirá maior personalização e controle. Os dispositivos e robôs terão melhor detecção de objetos, reconhecimento facial e de comportamento, além de tomada de decisões preditivas. Se você acha que isso parece ser a base para robôs versáteis, você não está sozinho. Os inovadores procurarão implementar essa tecnologia de “inferência na borda” numa vasta gama de dispositivos em novos mercados e indústrias.
A Oracle fornece a experiência e o poder computacional para treinar e implementar modelos de IA em escala. Especificamente, a Oracle Cloud Infrastructure (OCI) é uma plataforma onde empresários, equipes de TI e cientistas de dados podem colaborar e colocar a inferência de IA para funcionar em qualquer setor.
A plataforma de IA totalmente gerenciada da Oracle permite que as equipes criem, treinem, implementem e monitorem modelos de machine learning usando Python e suas ferramentas de código aberto favoritas. Com um ambiente de última geração baseado no JupyterLab, as empresas podem experimentar, desenvolver modelos e aumentar o treinamento com GPUs NVIDIA e treinamento distribuído. A Oracle também facilita o acesso a modelos de IA generativa baseados nos LLMs de última geração da Cohere.
Com a OCI, você pode levar os modelos para a produção e manter sua integridade com os recursos de operações de machine learning, como pipelines automatizados, implantações de modelos e monitoramento de modelos. Além do treinamento e implementação de modelos, a OCI oferece uma variedade de aplicações SaaS com modelos de ML integrados e serviços de IA disponíveis.
Ao interagir com a IA, você vê a inferência da IA em ação. Isso é verdade quer você esteja usando detecção de anomalias, reconhecimento de imagem, texto gerado por IA ou praticamente qualquer outro resultado de IA. Os resultados são o ponto culminante de um processo longo, tecnicamente complexo e que consome muitos recursos de criação, treinamento, otimização e implementação de modelos que preparam o cenário para sua interação com a IA.
Estabelecer um centro de excelência em IA antes do início do treinamento específico da organização aumenta a probabilidade de sucesso. Nosso ebook explica o porquê e oferece dicas sobre como construir um CoE eficaz.
O que seria um exemplo de inferência em IA?
Um bom exemplo de inferência em IA é quando um modelo de IA detecta uma anomalia nas transações financeiras e pode compreender, a partir do contexto, qual tipo de fraude ela pode representar. A partir disso, o modelo de IA pode gerar um alerta para a administradora do cartão e para o titular da conta.
O que é treinamento e inferência em IA?
O treinamento ocorre quando conjuntos de dados selecionados são mostrados a um modelo de IA para que ele possa começar a ver e compreender padrões. A inferência é quando esse modelo de IA exibe dados fora dos conjuntos selecionados, localiza esses mesmos padrões e faz previsões com base neles.
O que significa inferência em machine learning?
Inferência significa que um algoritmo de machine learning ou conjunto de algoritmos aprendeu a reconhecer padrões em conjuntos de dados selecionados e pode ver esses padrões posteriormente em novos dados.
O que significa inferência em aprendizado profundo?
O aprendizado profundo é o treinamento de algoritmos de machine learning usando uma rede neural que imita o cérebro humano. Isso permite o reconhecimento e a extrapolação de conceitos e abstrações sutis vistos, por exemplo, na geração de linguagem natural.
A inferência de IA pode ser usada em dispositivos de borda?
O treinamento de inferência de IA tem sido tradicionalmente um processo que consome muitos dados e exige muita computação. No entanto, à medida que entendemos melhor a inferência de IA, ela passa a ser executada em dispositivos menos potentes que residem na borda, longe de grandes data centers. Esses dispositivos de ponta para inferência de IA podem trazer reconhecimento de imagem, voz e outros recursos para operações de campo.
Como a inferência de IA difere dos modelos estatísticos tradicionais?
Os modelos estatísticos tradicionais são projetados simplesmente para inferir a relação entre variáveis em um conjunto de dados. A inferência de IA foi projetada para levar a inferência um passo adiante e fazer a previsão mais precisa com base nesses dados.
Como os hiperparâmetros afetam o desempenho de inferência de IA?
Ao criar um modelo de IA, os cientistas de dados às vezes atribuem parâmetros manualmente. Ao contrário dos parâmetros padrão no modelo de IA, esses hiperparâmetros não são determinados pelo que o modelo infere do conjunto de dados. Os hiperparâmetros podem ser considerados como guias que podem ser ajustados conforme necessário para ajudar com inferências de IA e desempenho preditivo.
Como as organizações podem ajudar a garantir a precisão e a confiabilidade dos modelos de inferência de IA?
Um fator importante é saber explicitamente com antecedência para quem se destina o seu resultado e qual problema ele está tentando resolver. Transforme os resultados desejados em específicos e mensuráveis. Dessa forma, é possível estabelecer benchmarks para avaliar continuamente o desempenho do sistema.