Natal
Sungas, cuecas e chinelos
com 50% de desconto
enquanto durar os estoques
Utilize os cupons:
SUNGASPRIDE
CUECASPRIDE
CHINELOSPRIDE
Natal Pride Brasil

Ferramenta de inteligência artificial do Google classificam gays como más pessoas

Publicado em 06/11/2017

O novo sistema de inteligência artificial do Google tem dado o que falar ao divulgar pontuações na qual indicam que homossexuais são pessoas ruins. Na nova ferramenta, “pessoas gays” aparecem com -0,2, o que tem intrigado muita gente.

Os preconceitos aconteceram por causa de um sistema de polarizações programadas em seus dados de treinamento, os resultados então passaram a estar acessíveis ao público da gigante empresa de tecnologia.

Leia Mais:

Twitter pede desculpas após censurar conteúdo LGBT em buscas

Polícia do Egito está usando apps de pegação para prender gays

Diante da repercussão negativa, o Google pediu desculpas, e afirmou em declaração à Mashable que irá incluir as minorias no futuro. “Nós dedicamos muitos esforços para garantir que a API da PNL evite o viés, mas nem sempre conseguimos”, confessou um porta-voz do Google.

“Este é um exemplo de um daqueles tempos, e nos sentimos. Levamos isso seriamente e estamos trabalhando para melhorar nossos modelos. Vamos corrigir este caso específico e, mais amplamente, construir algoritmos mais inclusivos é crucial para trazer os benefícios do aprendizado de máquina para todos”, completou.

© 2024 Observatório G | Powered by Grupo Observatório
Site parceiro UOL
Publicidade