Resumo IA

IA: Resumos feitos por Inteligência Artificial estão Piorando

Um estudo recente revelou que os resumos gerados por inteligência artificial (IA) estão apresentando desempenho inferior ao esperado, com aumento de erros, distorções e omissões de informações importantes. A pesquisa, publicada pela Royal Society, analisou quase 5 mil resumos produzidos por dez dos chatbots mais usados do mercado, incluindo modelos do ChatGPT, DeepSeek e LLaMA.

Estudo Aponta Erros em Resumos IA

De acordo com o levantamento, até 73% dos resumos criados por IA apresentaram algum tipo de imprecisão. Entre os principais problemas identificados estão a omissão de detalhes relevantes, generalizações excessivas e conclusões distorcidas em relação ao conteúdo original dos textos. Os pesquisadores alertam que essas falhas podem induzir o leitor a interpretações erradas, especialmente em áreas sensíveis como ciência e jornalismo.

Modelos Mais Recentes, Mais Erros

Contrariando expectativas, o estudo mostrou que os modelos mais novos de IA não necessariamente oferecem melhor desempenho. O ChatGPT-4o, por exemplo, foi nove vezes mais propenso a omitir dados essenciais do que versões anteriores, como o ChatGPT-4 Turbo. Já o LLaMA 3.3 70B apresentou um índice ainda mais preocupante: foi 36 vezes mais propenso a gerar resumos com generalizações incorretas.

Popularização e Riscos dos Resumos Automáticos

O crescimento do uso de IA para resumos é notável, principalmente entre adolescentes nos Estados Unidos, onde a adoção do ChatGPT quase dobrou entre 2023 e 2025. No entanto, o aumento da popularidade desses sistemas amplia o impacto dos erros, tornando o debate sobre a confiabilidade dos resumos IA ainda mais relevante.

Problemas Também em Notícias e Jornalismo

A BBC realizou uma investigação própria e identificou problemas graves em 51% dos resumos de notícias feitos por quatro chatbots (ChatGPT, Copilot, Gemini e Perplexity). Os erros incluíram dados incorretos, datas erradas e falas distorcidas. Em janeiro de 2025, a Apple chegou a suspender o recurso de geração de notícias da Apple Intelligence após casos de alucinações e uso indevido de marcas como a BBC.

Exemplos de Falhas em IA

Entre os exemplos destacados, o Gemini afirmou incorretamente que o NHS não recomenda o uso de vape para parar de fumar, enquanto ChatGPT e Copilot mantiveram informações desatualizadas sobre líderes políticos do Reino Unido. O Perplexity chegou a atribuir declarações falsas à BBC em uma reportagem internacional.

Reações e Medidas das Empresas de Tecnologia

Diante dos resultados, líderes do setor de comunicação, como a CEO da BBC News, Deborah Turness, defenderam uma revisão urgente no uso de IA para resumos de notícias, alertando para os riscos de desinformação. Empresas de tecnologia afirmam estar implementando controles mais rígidos, como o uso do robots.txt para limitar o acesso de bots a determinados conteúdos, mas pesquisadores apontam que os problemas são estruturais e exigem atenção especial em áreas críticas.

Desafios e Perspectivas para o Uso de Resumo IA

O debate sobre a precisão dos resumos IA ganha força em um contexto de alta circulação de desinformação. Especialistas ressaltam a necessidade de cautela ao utilizar inteligência artificial em áreas que exigem rigor, como jornalismo, medicina e pesquisa científica, para evitar consequências negativas para a sociedade.

Leia também: Busca do Google Fica Abaixo de 90% pela Primeira vez na História

Facebook
X
LinkedIn
WhatsApp
Email
Telegram
Reddit

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Categorias

Mais populares