Alguns usuários já estão usando o buscador Bing da Microsoft com o ChatGPT da OpenAI. Entretanto, o pesquisador Dmitri Brereton notou que o Bing AI comete “erros bobos” sobre dados financeiros e outros temas.
Por exemplo, a plataforma ajudou a planejar um roteiro completo para uma viagem de cinco dias para Cidade do México. Entretanto, informações relevantes sobre bares e restaurantes, como preços e localização, não foram incluídas na pesquisa.
Brereton indica que o maior erro do Bing AI aconteceu ao resumir o relatório financeiro do terceiro trimestre da marca de roupas GAP. O documento original mostra que a margem bruta foi de 37,4%, com ajuste de 38,7% ao excluir a taxa de depreciação.
Erroneamente, o chatbot aponta uma margem bruta de 34,4% incluindo ajustes de encargos e depreciação. A IA ainda cita que a margem operacional foi de 5,9%, dado que não aparece no relatório, quando o valor correto seria de 4,6% (ou 3,9% com ajustes de encargos).
Usuários do Reddit também compartilharam outros erros absurdos do Bing AI. Por exemplo, a IA respondeu que estávamos em 2022 e que a pessoa deveria consultar as configurações do PC e verificar a possível presença de bugs ou vírus que alteravam a data.
Microsoft busca aprimorar o Bing AI
Conforme o The Verge, a Microsoft está ciente desses possíveis erros durante os testes do Bing AI. A big tech aguarda o feedback dos usuários para corrigir os problemas e ajudar a melhorar o chatbot.
“Estamos analisando as melhorias que podemos fazer conforme continuamos a aprender com as fases iniciais do lançamento. Estamos empenhados em melhorar a qualidade desta experiência ao longo do tempo e em torná-la uma ferramenta útil e inclusiva para todos”, disse Caitlin Roulston, diretora de comunicação da Microsoft.
Especialistas acreditam que a dona do Windows ainda terá que realizar diversos ajustes até a plataforma conseguir responder com precisão as pesquisas sobre dados factuais. Lembrando que essas imprecisões também eram comuns na estreia do ChatGPT.
Comentários