A Microsoft anunciou ontem (23) a família Phi-3, seus novos modelos de linguagem compactos (SLM, na sigla em inglês). A plataforma é composta por três diferentes opções em inteligência artificial, cada uma delas atendendo uma necessidade específica em eficiência e desempenho.
O primeiro do conjunto é o Phi-3-mini, um modelo de linguagem com 3,8 bilhões de parâmetros treinado em uma base de dados menor do que concorrentes maiores, como o GPT-4. Ele está disponível em duas variantes, uma com suporte para 4 mil e outra para 128 mil tokens, e é aperfeiçoado em instruções, permitindo que esteja praticamente completo para uso.
Neste primeiro momento, o Phi-3-mini será liberado no Microsoft Azure AI Studio, no Hugging Face e no Ollama. A ferramenta foi otimizada para o ONNX Runtime, com suporte para Windows DirectML, e também estará disponível como um microsserviço no Nvidia NIM.
Os outros modelos da família Phi-3 são os Phi-3-small (7 bilhões de parâmetros) e Phi-3-medium (14 bilhões de parâmetros). Ambos são desenvolvidos de acordo com o padrão de responsabilidade com IA da Microsoft, mas não tiveram seus dados de desempenho e aplicabilidade revelados. Eles serão lançados ao longo das próximas semanas dentro do catálogo de IA da Azure.
Aplicações de tamanho reduzido
Diferente de modelo de linguagem ampla (LLMs, na sigla em inglês) — GPT-4.0 e Gemini, por exemplo —, os SLMs são preparados para aplicações de menor demanda de dados e treinamento, como ferramentas de processamento local. Essas plataformas podem ser embarcadas em smartphones e computadores com hardware dedicado para aceleração de IAs, por exemplo.
Naturalmente, quanto mais próximo de uma IA de "tamanho normal", melhor — e é essa a proposta da Microsoft com esses SLMs. Segundo a empresa, a família Phi-3 supera concorrentes da mesma categoria e consegue ser melhor que alguns LLMs em determinados contextos, como interpretação de linguagem, processamento de contexto e programação.
Comentários