Curiosidade 14 Mai
A Experiência Generativa na Busca (SGE) é uma ferramenta do Google que usa inteligência artificial generativa para resumir informações encontradas na internet a partir da pesquisa feita pelo usuário. Embora a função possa ser útil em alguns casos, várias pessoas afirmam estar obtendo resultados de buscas problemáticos com a IA.
Usuários que estão experimentando a busca com IA estão se deparando com sugestões peculiares do Google, como “misturar cola em sua pizza” para melhorar seu aspecto. A ferramenta também exibe informações falsas — e absurdas —, como a ideia de que um cachorro jogou na liga de basquete dos Estados Unidos.
Para contextualizar, o Google obteve direitos exclusivos para acessar conteúdos do Reddit — uma rede social formada por centenas de milhares de comunidades denominadas “subreddits” que tratam sobre diversos assuntos — e potencializar os resultados de seu mecanismo de buscas com inteligência artificial.
A partir desse livre acesso, a IA poderia encontrar informações úteis na ampla base de dados da rede social para fornecer respostas às buscas dos usuários. No entanto, a ferramenta parece estar coletando informações problemáticas e incorretas.
O SGE, embora não seja acionado em todas as pesquisas feitas no Google, consulta a web para gerar uma resposta resumida com IA. A resposta que sugeriu “aplicar cola em uma pizza” parece ser baseada no comentário de um usuário identificado como u/fucksmith no Reddit, publicado em uma discussão iniciada há 11 anos.
Claro que era apenas uma brincadeira — assim como muitos outros conteúdos encontrados no Reddit. No entanto, há preocupações quanto à possibilidade de que respostas com teor perigoso seja gerado pela inteligência artificial.
Alguns usuários relatam também que a Busca do Google com IA teria afirmado que “médicos recomendam fumar entre 2 a 3 cigarros por dia durante a gravidez”. Outro resultado absurdo teria indicado que James Madison, um dos pais fundadores dos Estados Unidos, se formou 21 vezes na Universidade de Wisconsin.
oh google is like BROKEN broken pic.twitter.com/raxjpOWiOr
— flori robin 🏳️⚧️ (@floriyrobin) May 24, 2024
O TudoCelular tentou reproduzir alguns dos resultados problemáticos na experiência generativa da busca do Google (em português e inglês), mas as informações fornecidas pela inteligência artificial foram mais "aceitáveis" e seguras em nossos testes.
Outras inteligências artificiais também apresentaram problemas semelhantes no passado. O Microsoft Copilot (antes conhecido como Bing Chat), em um caso extremo, criou uma falsa acusação de assédio sexual contra um médico de Bauru, em São Paulo. A IA também insultava seus usuários e poderia até demonstrar “sentimentos”.
Eventualmente, o serviço passou por refinamentos que o tornaram muito mais seguro. Hoje, há uma série de filtros integrados ao Microsoft Copilot, ChatGPT e outras ferramentas de IA generativa, cujo objetivo é evitar que textos perigosos, estereotípicos e ofensivos sejam exibidos aos usuários.
O Google, no entanto, carrega a desvantagem de estar treinando seu modelo de linguagem com uma base de dados gerada por usuários que nem sempre estão debatendo assuntos de forma séria. O Grok, chatbot de IA do X (Twitter), é treinado com base em publicações de usuários da rede social, mas seu diferencial é justamente ser satírico e ter “senso de humor”.
Respondendo a um pedido de comentário do The Verge, Meghann Farnsworth, porta-voz do Google, disse que os erros ocorreram em “consultas geralmente muito incomuns e que não representam as experiências da maioria das pessoas”, acrescentando que a empresa está utilizando os casos “isolados” para continuar refinando o serviço.
Comentários