Economia e mercado 25 Jul
A Google tem desenvolvido uma plataforma de inteligência artificial para identificar e punir discurso de ódio pela internet. A ferramenta utiliza palavras-chave as quais podem ter qualquer conteúdo relacionado à violência ou linguagem obscena.
Mas parece que driblar o sistema para não identificar grosserias não é tão difícil assim. Um método provou que as chances de o algoritmo da gigante de buscas não detectar algum palavrão diminui quando, no meio dos comentários, há o termo “amor” em algum trecho.
A possibilidade de enganar a IA está na maneira utilizada para encontrar as ofensas. A ferramenta dá nota em porcentagem para algum comentário considerado negativo. Quanto mais próximo for de 100%, maiores são as chances de ser banido. A presença de “amor” e outras palavras positivas diminui o valor atribuído ao texto.
A descoberta da forma de burlar a tecnologia pode ser um passo para a Google procurar aprimorar e tornar a sua criação ainda mais inteligente. Uma das saídas para a companhia é fazer com que sua solução tente entender qual é a intenção e o contexto de uma palavra em particular ou de toda a sentença.
Vale lembrar que a inteligência artificial tem sido um setor de grande investimento da gigante de Mountain View. A empresa divulgou recentemente uma solução que pode substituir atendentes de call center e outra – a Move Mirror – para reproduzir os movimentos do usuário.
Você acredita que as IAs precisam ser ainda mais aprimoradas? Conte para a gente a sua opinião nos comentários abaixo.
Comentários