Segurança 31 Mai
O Google retirou do ar os projetos de treinamento de Inteligência Artificial (IA) que envolviam mecanismos de aprendizado de máquina para a criação de deepfakes na sua plataforma "Colaboratory". A mudança teria sido implementada no início de maio.
De acordo com o site BleepingComputer, o Google não se posicionou sobre a retirada do acesso aos materiais sobre deepfakes da sua plataforma colaborativa, no entanto, especula-se que a decisão foi adotada para evitar a criação de vídeos falsos.
Os desenvolvedores que tentam acessar o deepfake no Google Colab se deparam com uma mensagem de erro informando sobre a execução de “código não permitido”. A plataforma alerta também que a insistência pode trazer restrições futuras.
O serviço gratuito hospedado pela empresa permitia aos interessados usarem a linguagem de programação Python diretamente no navegador, além de aproveitar diversos recursos de computação, incluindo de GPUs.
O intuito da iniciativa foi incentivar o desenvolvimento de projetos usando inteligência artificial (IA). Contudo, relatos indicam que a ferramenta estaria sendo usada para a criação de vídeos falsos a partir da substituição de rostos e a adição de expressões faciais.
O resultado dessa ferramenta costuma impressionar pelo realismo, o que atraiu também o uso de pessoas mal-intencionadas. O Google também proíbe o uso da aplicação em projetos de mineração de criptomoedas, download de torrents e quebra de senhas.
Não há uma confirmação se os projetos vão voltar para o Google Colaboratory.
Comentários