A DeepSeek, conhecida por seu avançado modelo de inteligência artificial, lançou recentemente a versão R1-0528, que apresenta desempenho aprimorado em cálculos matemáticos e redução de erros. Entretanto, pesquisadores de IA têm apontado evidências de que a ferramenta pode ter sido treinada utilizando tecnologia rival, possivelmente proveniente do modelo Gemini, desenvolvido pelo Google.
Evidências de Treinamento com Modelo Rival
De acordo com informações publicadas pelo Olhar Digital, estudos conduzidos por especialistas na área de inteligência artificial identificaram semelhanças marcantes entre o DeepSeek e o Gemini em aspectos como vocabulário e padrões de resposta. Segundo Sam Paech, desenvolvedor de Melbourne que realiza avaliações de “inteligência emocional” para IA, o DeepSeek demonstrou preferência por palavras e expressões que se assemelham às utilizadas pelo Gemini 2.5 Pro. Outro especialista, identificado como SpeechMap, observou que os traços do modelo R1-0528 se mostram similares aos do modelo rival.
Características Técnicas e Estratégias de Treinamento
A DeepSeek não divulgou a origem dos dados de treinamento empregados em sua nova versão. No entanto, os pesquisadores destacam que o uso de técnicas como a destilação — metodologia para extrair conhecimento de modelos maiores — pode ter sido aplicado na elaboração do modelo R1-0528. Essa abordagem, que economiza recursos computacionais e acelera o processo de treinamento, já havia levantado suspeitas anteriormente, quando o modelo V3 se identificava, em algumas ocasiões, como ChatGPT.
Além disso, análises recentes indicam que grandes volumes de dados foram transferidos de maneira suspeita por contas que poderiam estar associadas à DeepSeek. Tais evidências reforçam a hipótese de uso de informações oriundas de tecnologias concorrentes, ampliando o debate sobre a ética e a originalidade no desenvolvimento de IAs.
Comparação com o Gemini do Google
Especialistas observaram que as estruturas linguísticas e os algoritmos empregados pelo DeepSeek guardam semelhanças notáveis com os do Gemini, tecnologia já consolidada e refinada pelo Google. Essa similaridade técnica sugere que o modelo chinês pode ter se beneficiado, direta ou indiretamente, do desempenho comprovado do Gemini. A falta de clareza sobre a fonte dos dados de treinamento contribui para a controvérsia, pois alinha as evidências com um suposto aproveitamento de tecnologia rival para aprimorar o desempenho do DeepSeek.
Repercussão e Implicações para o Setor
Enquanto a comunidade de inteligência artificial acompanha de perto essas descobertas, as repercussões do suposto treinamento com dados rivais levantam questões éticas e comerciais. A possibilidade de uma IA ser desenvolvida com base em técnicas ou dados não originais pode afetar a competitividade no setor e gerar debates sobre propriedade intelectual e práticas de desenvolvimento sustentável em tecnologia. Até o momento, nem o Google nem os responsáveis pelo DeepSeek se manifestaram oficialmente sobre o assunto.
Contextualização no Mercado de IA
A discussão sobre a origem dos dados utilizados para treinar modelos de IA não é recente. Grandes players do setor, como OpenAI e Microsoft, já enfrentaram questionamentos sobre o uso de técnicas de destilação e transferência de dados. No competitivo ambiente do desenvolvimento de inteligência artificial, a inovação muitas vezes se estende à forma como as informações são agregadas e processadas, tornando essencial a transparência durante o treinamento dos modelos.
Perspectivas para o Futuro
À medida que a investigação sobre o treinamento do DeepSeek avança, especialistas recomendam que a comunidade tecnológica atue com cautela e adote medidas que promovam a ética e a originalidade na criação de novas IAs. A expectativa é que futuras atualizações e esclarecimentos sobre as fontes de dados sejam divulgados, possibilitando um debate mais amplo sobre as práticas de desenvolvimento no setor.















