LOADING...
Faça login e
comente
Usuário ou Email
Senha
Esqueceu sua senha?
Ou
Registrar e
publicar
Você está quase pronto! Agora definir o seu nome de usuário e senha.
Usuário
Email
Senha
Senha
» Anuncie » Envie uma dica Ei, você é um redator, programador ou web designer? Estamos contratando!

Pesquisador do Google trabalha para impedir "algoritmos preconceituosos"

19 de dezembro de 2016 0

Infelizmente, alguns problemas notados na sociedade também se aplicam no universo tecnológico. Um deles é o preconceito. No entanto, isso pode estar com os dias contados. Especialista em learning machine, Moritz Hardt, que também é cientista do Google, e sua equipe criaram um método para impedir que algoritmos tomem decisões injustas com base em critérios como etnia, gênero ou idade das pessoas. O método foi detalhado em um artigo apresentado na conferência batizada como NIPS, em Barcelona, no começo deste mês.

A intenção dos pesquisadores é evitar situações nas quais algoritmos prejudiquem de maneira desproporcional determinados grupos da população. Durante a conferência foi citado um exemplo de algoritmos usados por bancos para decidir quais pessoas devem ou não receber empréstimos. Há algoritmos ainda que determinam que uma pessoa "merece" uma taxa de juros maior que a outra, sobretudo mulheres ou pessoas negras.

O método desenvolvido por Hardt envolve olhar para os dados que são usados para treinar o algoritmo e para os resultados que ele produz. O objetivo é garantir que sempre que o algoritmo fizer uma decisão sobre um indivíduo, essa decisão não pode não levar em conta o gênero ou etnia. O Uol informa que este tipo de aplicação racista dos algoritmos é bem comum:

Ao digitar nomes comuns entre negros dos EUA, a chance de os anúncios automáticos oferecerem checagem de antecedentes criminais pode aumentar 25%. Para piorar, com a pergunta “arrested?” (detido?) logo após a palavra procurada.

Racismo e machismo entre algoritmos são casos comuns e sobre a mira de diversos grupos de pessoas e entidades. Por causa da maneira como redes neurais funcionam, e por causa dos preconceitos ainda presentes na sociedade, esses sistemas muitas vezes acabam reproduzindo situações desagradáveis. Embora a solução apresentada pelos pesquisadores seja interessante, especialistas ouvidos pelo jornal The Guardian temem que ela se revele insuficiente, já que é muito simples e pode ser facilmente ludibriada.

Embora não funcione com algoritmo, o Airbnb divulgou diretrizes para que os anfitriões não restrinjam o aluguel de seus imóveis separando pessoas por gênero, nacionalidade, orientação sexual, religião e outros aspectos pessoais.


0

Comentários

Pesquisador do Google trabalha para impedir "algoritmos preconceituosos"
Economia e mercado

Huawei Kirin 9010L: chipset inédito é encontrado em smartphone intermediário da chinesa

Android

Celular mais rápido! Ranking TudoCelular com gráficos de todos os testes de desempenho

Android

Celular com a melhor bateria! Ranking TudoCelular com todos os testes de autonomia

Windows

Versão 122 beta do Microsoft Edge com melhorias e atualização de recursos