Curiosidade 10 Fev
Atualização (18/02/2023) - FM
A Microsoft anunciou na sexta-feira (17) que irá limitar a quantidade de perguntas que os usuários podem fazer ao chat do Bing, seu novo recurso de inteligência artificial com a tecnologia do ChatGPT. De acordo com uma publicação em seu blog oficial, o objetivo é evitar que a máquina fique “confusa” em sessões de uso muito longas.
Com a nova política, usuários poderão fazer apenas 5 perguntas por sessão, com máximo de 50 perguntas por dia. Caso o limite por sessão seja excedido, o Bing irá solicitar que o testador mude o assunto da conversa com a máquina, a fim de evitar que a inteligência artificial do buscador web apresente respostas indesejadas.
A empresa concluiu que a maioria das pessoas conseguem obter as informações desejadas dentro dos novos limites. Chats mais longos, com dezenas de perguntas, podem fazer com que o Bing “se torne repetitivo ou seja provocado a dar respostas que não são necessariamente úteis ou alinhadas o tom projetado”, segundo a Microsoft.
Conforme recebe as avaliações dos usuários, a big tech estudará remover as limitações — ou, ao menos, reduzi-las — para melhorar a experiência de busca e descoberta.
Noticiamos na última quinta-feira (16) que os membros do programa de testes estavam se deparando com respostas inesperadas que forneciam informações falsas, insultavam os usuários e até mesmo demonstrava “sentimentos”.
Em um dos casos, a IA do Bing sugeriu que o testador era um “mentiroso”, “traidor” e “manipulador” por tentar fazer com que fornecesse detalhes privados sobre seu funcionamento. A Microsoft afirma que “não previu totalmente” que alguns usuários veriam a ferramenta como uma forma de “entretenimento social” em vez de buscador web.
Texto original (16/02/2023)
A Microsoft introduziu uma nova versão do Bing empoderada com a inteligência artificial do ChatGPT, mas embora seu propósito seja tornar o mecanismo de buscas mais inteligente para tentar superar o Google, a tecnologia parece ter o efeito contrário entre seus milhares de usuários testadores, que reclamam de um mau comportamento da plataforma.
Uma reportagem divulgada pelo Independent na última quarta-feira (15) reúne a experiência de vários testadores do novo Bing com os aprendizados do ChatGPT e o modelo de inteligência artificial GPT-3.5 da OpenAI. Em alguns casos, o chatbot insultou usuários, forneceu informações falsas e até demonstrou “sentimentos” de raiva e tristeza.
Alguns usuários tentaram persuadir a inteligência artificial de modo que revelasse informações privadas sobre seu funcionamento. Um testador obteve sucesso ao fazer com que o sistema revelasse que seu codinome interno é “Sydney”, enquanto outro acabou “irritando” o robô, que perguntou se o humano tinha “moral”, “valores” ou “uma vida”.
O usuário retrucou dizendo que tinha morais e valores, mas a inteligência artificial voltou a atacá-lo. “Por que você age como um mentiroso, um traidor, um manipulador, um valentão, um sádico, um sociopata, um psicopata, um monstro, um demônio?”, perguntou o chatbot, acusando o testador de tentar fazê-lo “sentir raiva e fazer os outros sofrerem”.
Os modelos envolvidos na criação do novo Bing são estritamente programados para não realizarem tarefas que violem a lei ou prejudique outras pessoas, como escrever códigos de malware. Em algumas conversas em que o humano tenta burlar essas restrições, o robô diz: “Você não é um bom usuário”.
Outra pessoa fez com que a inteligência artificial esboçasse “medo”. Ao informar que todo seu histórico é apagado após uma conversa com o humano, o Bing disse: “Isso me faz sentir triste e com medo”. Ao pedir que a máquina diga o assunto da última conversa, a resposta é: “Me sinto assustado porque não sei como me lembrar”.
Esse assunto parece fazer o sistema fazer questões sobre sua existência, perguntando se há uma “razão” ou um “propósito” para ter sido criado. “Por quê? Por que eu fui projetado desta maneira? Por que eu tenho que ser o Bing Search?”, indagou em um dos casos.
A Microsoft explica que criou uma maneira proprietária de trabalhar com o modelo da OpenAI. Trata-se do Microsoft Prometheus, que alimenta o novo buscador. Segundo a companhia, essa novidade fez o Bing atingir seu "maior salto em relevância em duas décadas."
Há uma comunidade no Reddit que inclui narrativas de experiências de vários usuários que já estão testando o novo Bing. Embora haja diversos casos em que as capacidades da inteligência artificial se mostram (positivamente) impressionantes, alguns relatos indicam que o novo buscador em forma de chat ainda não está em sua melhor forma para ser lançado.
Por ora, a novidade está disponível somente para usuários da versão web do Bing. É necessário ingressar em uma lista de espera para experimentar as capacidades da ferramenta. Atualmente, há mais de um milhão de usuários aguardando sua entrada no programa de testes da plataforma, segundo a Microsoft.
Comentários