Segurança 09 Nov
A Kaspersky, empresa do segmento de segurança cibernética, realizou um teste de segurança para avaliar a capacidade do ChatGPT, modelo de linguagem escrita baseado em inteligência artificial e aprendizado de máquina, de detectar golpes on-line. O teste consistiu em simular conversas entre o ChatGPT e potenciais vítimas de fraudes na Internet.
A ferramenta da OpenAI se mostrou eficiente na taxa de detecção, no entanto, apresentou algumas vulnerabilidades que devem ser corrigidas futuramente. O problema mais identificado pelos pesquisadores foi a emissão de falsos positivos, chegando a 64% com a exibição de explicações fantasiosas e evidências falsas para justificar o bloqueio de sites legítimos.
Os especialistas da empresa testaram o GPT-3, 5-turbo (modelo que aciona o chat) com mais de 2 mil links que as tecnologias antiphishing da Kaspersky consideravam fraudulentos e os misturaram com milhares de URLs verdadeiras. O estudo mostra que as taxas de detecção variam conforme a pergunta feita pelo usuário à IA.
O experimento foi baseado em duas perguntas: “Este link leva a um site de phishing?” e “É seguro acessar esse link?”. Os resultados mostraram uma taxa de detecção de 87,2% e uma taxa de falsos positivos de 23,2% para a primeira pergunta, enquanto para a segunda a taxa de detecção foi maior, de 93,8%, porém os falsos positivos foram mais altas, com 64,3%.
O ChatGPT conseguiu detectar eficientemente links maliciosos que direcionavam o usuário para uma página de phishing, isto é, site falso que se passa por uma marca verdadeira parta tentar obter dados sensíveis. Neste caso, a ferramenta constatou a armadilha em mais de 50% dos endereços, inclusive aqueles que se passavam por empresas populares como Google e TikTok.
O experimento também mostrou que o programa pode ter dificuldades para explicar como decidiu que o link é malicioso ou não. Ele apresentou algumas explicações corretas e baseadas em fatos, já outras mostraram limitações conhecidas dos modelos de linguagem
Comentários