Meta lança o LLaMA 3.2 com Recursos Multimodais e Modelos Leves
- João Bugelli

- 30 de out. de 2024
- 2 min de leitura
Atualizado: 10 de jun.
A Meta introduziu o LLaMA 3.2, a nova versão da sua linha de modelos de linguagem abertos, que agora incorpora capacidades multimodais e modelos otimizados para rodar diretamente em dispositivos móveis. Uma das inovações mais significativas é o suporte à análise de imagens e texto, o que permite ao LLaMA 3.2 lidar com tarefas de compreensão visual, como interpretação de gráficos e geração de descrições automáticas para imagens. As versões multimodais, com 11 bilhões e 90 bilhões de parâmetros, são ideais para tarefas de processamento avançado de dados visuais e estão alinhadas com a tendência de IA para aplicações que integram visão computacional com processamento de linguagem.
O modelo também oferece versões mais leves, com 1 e 3 bilhões de parâmetros, projetadas para rodar em dispositivos de borda e móveis, como os que utilizam chips Qualcomm e MediaTek. Esse desenvolvimento viabiliza um processamento local eficiente, que não depende da nuvem, aumentando a privacidade e a velocidade em aplicações móveis e permitindo que dados sensíveis sejam processados diretamente no dispositivo, ideal para uso corporativo e privado.
Para facilitar a implementação dos modelos, a Meta introduziu o “LLaMA Stack”, uma coleção de ferramentas e APIs que simplificam o uso em nuvem e dispositivos locais, integrando-se facilmente a plataformas como AWS, Google Cloud e Azure. Essa infraestrutura inclui opções de modulação e personalização, permitindo que desenvolvedores adaptem o modelo para diversas necessidades e implementem de forma consistente em ambientes variados.
Com o LLaMA 3.2, a Meta oferece uma ferramenta poderosa para desenvolvedores que precisam de soluções de IA flexíveis e personalizáveis, com recursos avançados de visão computacional e processamento de linguagem, voltadas tanto para o uso em larga escala quanto para dispositivos móveis.
Leia mais detalhes no Blog da Meta.
