
Segurança 31 Mai
O Google retirou do ar os projetos de treinamento de Inteligência Artificial (IA) que envolviam mecanismos de aprendizado de máquina para a criação de deepfakes na sua plataforma "Colaboratory". A mudança teria sido implementada no início de maio.
De acordo com o site BleepingComputer, o Google não se posicionou sobre a retirada do acesso aos materiais sobre deepfakes da sua plataforma colaborativa, no entanto, especula-se que a decisão foi adotada para evitar a criação de vídeos falsos.
Os desenvolvedores que tentam acessar o deepfake no Google Colab se deparam com uma mensagem de erro informando sobre a execução de “código não permitido”. A plataforma alerta também que a insistência pode trazer restrições futuras.
O serviço gratuito hospedado pela empresa permitia aos interessados usarem a linguagem de programação Python diretamente no navegador, além de aproveitar diversos recursos de computação, incluindo de GPUs.
O intuito da iniciativa foi incentivar o desenvolvimento de projetos usando inteligência artificial (IA). Contudo, relatos indicam que a ferramenta estaria sendo usada para a criação de vídeos falsos a partir da substituição de rostos e a adição de expressões faciais.
O resultado dessa ferramenta costuma impressionar pelo realismo, o que atraiu também o uso de pessoas mal-intencionadas. O Google também proíbe o uso da aplicação em projetos de mineração de criptomoedas, download de torrents e quebra de senhas.
Não há uma confirmação se os projetos vão voltar para o Google Colaboratory.
Celular mais rápido! Ranking TudoCelular com gráficos de todos os testes de desempenho
Celular com a melhor bateria! Ranking TudoCelular com todos os testes de autonomia
Nada de Black Fraude! Ferramenta do TudoCelular desvenda ofertas falsas
Microsoft destaca novos recursos na build 26100.1876 do Windows 11 24H2
Comentários