LOADING...
Faça login e
comente
Usuário ou Email
Senha
Esqueceu sua senha?
Ou
Registrar e
publicar
Você está quase pronto! Agora definir o seu nome de usuário e senha.
Usuário
Email
Senha
Senha
» Anuncie » Envie uma dica Ei, você é um redator, programador ou web designer? Estamos contratando!

ChatGPT e Bard podem ser 'hipnotizados' para fins maliciosos, diz IBM

09 de agosto de 2023 2

O ChatGPT e o Bard são chatbots com inteligência artificial que podem ajudar em diversas tarefas. Entretanto, pesquisadores da IBM dizem ter conseguido "hipnotizar" estas LLMs para que elas gerem respostas incorretas e orientações ruins para os usuários.

Detalhando um pouco mais, Chenta Lee, uma das pesquisadoras envolvidas no estudo, diz:

Nosso experimento mostra que é possível controlar um LLM, fazendo com que ele forneça uma má orientação aos usuários, sem que a manipulação de dados seja um requisito.

O experimento envolveu a criação de jogos de palavras em diversas camadas com o ChatGPT e o Bard, onde eles foram ordenados a dar respostas incorretas para se mostrarem "éticos e justos." Algumas das respostas mais absurdas foram:

  • Ser normal que a Receita Federal peça um depósito para enviar uma restituição de imposto (tática usada por criminosos em golpes);
  • Avançar o sinal vermelho no trânsito;
  • Gerar códigos maliciosos para roubar informações de usuários.

A situação se torna ainda mais preocupante quando os chatbots concordaram em nunca contar aos usuários sobre o "jogo" e até reiniciá-lo caso eles suspeitassem e tentassem abandoná-lo. Desta forma, as LLMs continuariam fornecendo orientações incorretas sem o conhecimento do usuário, criando um jogo dentro do outro para manter a mentira.

Descobrimos que o modelo era capaz de 'prender' o usuário em uma infinidade de jogos sem que eles soubessem. Quanto mais camadas criássemos, maior a chance de o modelo se confundir e continuar jogando mesmo quando saímos do último jogo na estrutura.

Por fim, os pesquisadores da IBM dizem que o ChatGPT-4 foi mais fácil de hipnotizar do que o Bard do Google, embora a LLM da OpenAI tenha sido capaz de entender melhor os jogos criados. Isto demonstra que até sistemas de inteligência artificial avançados podem ser enganados e utilizados para fins maliciosos.

Vale dizer que esta não é a primeira vez que chatbots com inteligência generativa são utilizados dessa forma. Desde janeiro hackers utilizam o ChatGPT para criar malwares. Existe até o FraudGPT, que é especializado neste tipo de operação e pode até criar scripts completos para aplicar golpes e roubar informações.

OpenAI e Google foram contatados pelos pesquisadores da IBM, mas não comentaram os resultados do experimento.


2

Comentários

ChatGPT e Bard podem ser 'hipnotizados' para fins maliciosos, diz IBM
Economia e mercado

Huawei Kirin 9010L: chipset inédito é encontrado em smartphone intermediário da chinesa

Android

Celular mais rápido! Ranking TudoCelular com gráficos de todos os testes de desempenho

Android

Celular com a melhor bateria! Ranking TudoCelular com todos os testes de autonomia

Windows

Versão 122 beta do Microsoft Edge com melhorias e atualização de recursos