
Google 10 Mai
O aplicativo DeepNude virou tema de debate após ser colocado no ar com o intuito de desnudar mulheres com apenas alguns poucos cliques. As maiores preocupações quanto ao seu lançamento se deram em virtude do alto potencial destrutivo de reputações, difamação, e ameaça a mulheres que poderiam ser vítimas de golpes a partir das imagens fraudadas.
O autor da ferramenta, porém, não parecia lamentar os contras do seu produto inicialmente. Mas rapidamente viu os problemas que o DeepNude poderia criar, e por isso anunciou o fim do projeto.
Claro, tudo que cai na internet lá fica eternamente, e logo cópias do app começaram a surgir em plataformas como o GitHub. A boa notícia é que o serviço para programadores, que pertence à Microsoft, anunciou que está empenhado em retirar todas as cópias do ar.
Um porta-voz da companhia veio a público e assegurou que a decisão responde a uma clara violação de políticas de uso do serviço. O caso demostra como a inteligência artificial, que pode ajudar com avanços na ciência, pode também ser usada para propósitos escusos nas mãos de pessoas mal-intencionadas.
Uma boa aplicação recentemente das IAs foi liberada pelo Instagram visando combater o bullying na plataforma de fotos.
E você, achou correta a decisão do GitHub em tirar o DeepNude do ar? Conte para a gente nos comentários!
Celular mais rápido! Ranking TudoCelular com gráficos de todos os testes de desempenho
Celular com a melhor bateria! Ranking TudoCelular com todos os testes de autonomia
Nada de Black Fraude! Ferramenta do TudoCelular desvenda ofertas falsas
Microsoft destaca novos recursos na build 26100.1876 do Windows 11 24H2
Comentários