Conheça o PyTorch, um framework aberto do Facebook que tem seus modelos de IA. Confira os detalhes desse software e seus benefícios.
O Facebook anunciou há poucos dias que aposta no PyTorch como seu framework de inteligência artificial padrão, já que seus atuais modelos de inteligência artificial realizam trilhões de operações todos os dias e, apostando no Pytorch, busca atender a essa crescente demanda por trabalho de carga como a empresa disse que, ao migrar todos os seus sistemas, eles serão capazes de inovar muito mais rapidamente, garantindo uma experiência mais otimizada para todos os seus usuários.
PyTorch, um framework aberto do Facebook que tem seus modelos de IA
Para aqueles que não estão familiarizados com o PyTorch, você deve saber que é uma biblioteca de aprendizado de máquina de código aberto baseada na biblioteca Torch.
Esse framework foi criado pela unidade de pesquisa de inteligência artificial do Facebook e já é usado para alimentar uma ampla gama de aplicativos de inteligência artificial, como visão computacional e modelos de processamento de linguagem natural.
Exemplos de modelos PyTorch AI incluem a personalização de feeds e histórias de usuários no Instagram e a identificação e remoção de incitação ao ódio no Facebook.
“Adotar o PyTorch como estrutura de IA padrão do Facebook ajuda a garantir que todas as experiências em nossas tecnologias sejam executadas de maneira ideal na escala do Facebook e para todos, independentemente do dispositivo, sistema operacional ou qualidade de conexão com a Internet.”
O Facebook menciona que essa migração também significa que você pode trabalhar em conjunto com uma comunidade mais próxima do que nunca:
“O PyTorch não apenas torna nosso trabalho de pesquisa e engenharia mais eficaz, colaborativo e eficiente, mas também nos permite compartilhar nosso trabalho como bibliotecas PyTorch de código aberto e aprender com os avanços feitos por milhares de desenvolvedores PyTorch em todo o mundo.”
Uma das razões para mudar para PyTorch é que o processo de pesquisa para produção de IA tem sido tradicionalmente tedioso e complexo, e outro grande problema a ser abordado é que os pesquisadores foram forçados a escolher entre estruturas de IA otimizadas para pesquisa ou produção, mas não ambos.
“Hoje, mais de um ano no processo de migração, existem mais de 1.700 modelos de inferência baseados em PyTorch em produção total no Facebook e 93 por cento dos nossos novos modelos de treinamento, os responsáveis pela identificação e análise de conteúdo. No Facebook, eles são em PyTorch.
“Esta nova iteração mesclou o PyTorch baseado em Python com o Caffe2 pronto para produção e mesclou os modos de execução gráfica e imediata, fornecendo flexibilidade para pesquisa e otimização de desempenho para a produção. Os engenheiros da PyTorch no Facebook introduziram uma família de ferramentas, bibliotecas, modelos pré-treinados e conjuntos de dados para cada estágio de desenvolvimento, permitindo à comunidade de desenvolvedores criar e implementar rapidamente novas inovações de IA em escala.”
Em outras palavras, o Facebook está escolhendo o PyTorch porque é uma estrutura única para modelos de IA de pesquisa e produção que fornece flexibilidade para experimentar e também a capacidade de lançar IA em grande escala quando estiver pronto para o horário nobre.
Isso torna possível implantar novos modelos em minutos em vez de semanas, disse o Facebook, enquanto reduz a infraestrutura e a carga de engenharia que vem com a manutenção de dois sistemas de inteligência artificial diferentes.
“O objetivo de nossa migração PyTorch é criar uma experiência de desenvolvedor ponta a ponta mais suave para nossos engenheiros e desenvolvedores. Queremos acelerar nosso processo da pesquisa à produção usando uma única plataforma que nos permite a flexibilidade de experimentar junto com a capacidade de lançar modelos de IA em escala de produção.”
O PyTorch também tem uma vantagem quando se trata de executar modelos de IA diretamente em dispositivos como smartphones.
Isso ocorre porque o Facebook criou a estrutura PyTorch Mobile que reduz os tamanhos binários em tempo de execução para garantir que os modelos PyTorch AI possam ser executados em dispositivos com poder de processamento mínimo.