O Google retirou rótulos de gênero do reconhecimento de imagem na API Vision do Google Cloud para reduzir o viés. Entenda o impacto dessa mudança e os motivos.
O Google não identificará mais as pessoas por gênero na IA de reconhecimento de imagem, removendo rótulos como “homem” e “mulher” das fotos das pessoas. Em vez disso, todos os indivíduos agora serão classificados como “pessoas”, de acordo com um e-mail da empresa visto pelo Business Insider.
Google retirou rótulos de gênero do reconhecimento de imagem para reduzir o viés
As alterações serão introduzidas na API Vision do Google Cloud, que os desenvolvedores podem usar para adicionar rótulos às imagens e depois classificá-las em categorias predefinidas.
Em um e-mail para desenvolvedores, o Google citou duas razões para as mudanças: é impossível inferir o sexo de alguém pela aparência, e tentar fazer isso pode perpetuar vieses injustos.
O jornalista Sriram Sharma compartilhou uma captura de tela do email:
https://twitter.com/SriramVSharma/status/1230517026436763650
O Google acrescentou que a remoção dos rótulos alinhados com o segundo de seus Princípios de inteligência artificial no Google: evite criar ou reforçar preconceitos injustos.
Os sistemas de reconhecimento de imagem têm uma tendência única para fazer isso.
Em um estudo, os pesquisadores descobriram que algoritmos treinados em um conjunto de dados deliberadamente tendencioso de imagens relacionadas à culinária, em que as mulheres tinham 33% mais probabilidade de aparecer, tinham 68% mais chances de prever que uma mulher estava cozinhando – mesmo quando a imagem era de um homem careca em uma cozinha.
Os sistemas de reconhecimento de imagem também confundem regularmente pessoas trans e não binárias.
Só que nem todos concordam com a decisão do Google de remover rótulos de gênero das imagens. O Business Insider observa que um desenvolvedor acusou o Google de priorizar o politicamente correto sobre a qualidade do produto.
Mas a mudança reduzirá pelo menos uma área do viés da IA.
Como o linguista e programador Angus B. Grieve-Smith explicou no Twitter:
“Sempre que você classifica automaticamente as pessoas, seja de sexo ou de orientação sexual, precisa decidir em quais categorias você usa em primeiro lugar – e isso vem muito de suposições.”
- Como instalar o assistente de montagem Pyfa no Linux via Flatpak
- Como instalar o jogo AstroMenace no Linux via Flatpak
- Como instalar o jogo Biplanes Revival no Linux via Flatpak
- Instalando o simulador de corridas Speed Dreams no Linux