Para tornar o recurso mais seguro e poderoso, a nova atualização do Copilot impede que o modelo de IA revele segredos.
O GitHub atualizou o modelo AI do Copilot, um assistente de programação que gera recomendações de código-fonte e funções em tempo real no Visual Studio, e diz que agora é mais seguro e poderoso.
Atualização do Copilot impede que o modelo de IA revele segredos
A empresa diz que o novo modelo de IA, que será lançado aos usuários esta semana, oferece sugestões de melhor qualidade em um tempo menor, melhorando ainda mais a eficiência dos desenvolvedores de software ao aumentar a taxa de aceitação.
O Copilot apresentará um novo paradigma chamado “Fill-In-the-Middle”, que usa uma biblioteca de sufixos de código conhecidos e deixa uma lacuna para a ferramenta de IA preencher, obtendo melhor relevância e coerência com o restante do código do projeto.
Além disso, o GitHub atualizou o cliente do Copilot para reduzir sugestões indesejadas em 4,5% para melhorar as taxas gerais de aceitação de código.
“Quando lançamos o GitHub Copilot for Individuals pela primeira vez em junho de 2022, mais de 27% dos arquivos de código dos desenvolvedores, em média, foram gerados pelo GitHub Copilot”, disse o diretor sênior de gerenciamento de produtos Shuyin Zhao.
“Hoje, o GitHub Copilot está por trás de uma média de 46% do código de um desenvolvedor em todas as linguagens de programação – e em Java, esse número salta para 61%.”
Sugestões mais seguras
Uma das melhorias de destaque nesta atualização do Copilot é a introdução de um novo sistema de filtragem de vulnerabilidade de segurança que ajudará a identificar e bloquear sugestões inseguras, como credenciais codificadas, injeções de caminho e injeções de SQL.
“O novo sistema aproveita os LLMs (grandes modelos de linguagem) para aproximar o comportamento das ferramentas de análise estática – e como o GitHub Copilot executa modelos avançados de IA em poderosos recursos de computação, é incrivelmente rápido e pode até detectar padrões vulneráveis em fragmentos incompletos de código”, Zhao disse.
“Isso significa que padrões de codificação inseguros são rapidamente bloqueados e substituídos por sugestões alternativas.”
A empresa de software diz que o Copilot pode gerar segredos como chaves, credenciais e senhas vistas nos dados de treinamento em novas strings. No entanto, eles não podem ser usados, pois são totalmente fictícios e serão bloqueados pelo novo sistema de filtragem.
A aparência desses segredos nas sugestões de código do Copilot causou críticas ferozes da comunidade de desenvolvimento de software, com muitos acusando a Microsoft de usar grandes conjuntos de dados disponíveis publicamente para treinar seus modelos de IA com pouca atenção à segurança, incluindo até mesmo conjuntos que contêm segredos por engano.
Ao bloquear sugestões inseguras no editor em tempo real, o GitHub também pode fornecer alguma resistência contra ataques de conjuntos de dados envenenados com o objetivo de treinar secretamente assistentes de IA para fazer sugestões contendo cargas maliciosas.
No momento, os LLMs do Copilot ainda estão sendo treinados para distinguir entre padrões de código vulneráveis e não vulneráveis, portanto, espera-se que o desempenho do modelo de IA nessa frente melhore gradualmente em um futuro próximo.