Palavras-chave:Gemini Deep Think, IMO 2025, Conjunto de aplicativos de escritório com IA, Sparkdesk X5 da iFLYTEK, Modelo de vídeo com IA em conformidade com direitos autorais, Conjunto de dados de treinamento de IA, Aviso de isenção de responsabilidade médica de IA, Financiamento da Moonvalley, Agente Zero-One Everything, Raciocínio matemático em linguagem natural, Vazamento de dados do DataComp CommonPool, Função Excel do ChatGPT, Notebook de escritório com modelo de linguagem local
🔥 Em Foco
Google Gemini Deep Think conquista medalha de ouro na Olimpíada Internacional de Matemática: O modelo Gemini Deep Think, do Google DeepMind, conquistou a medalha de ouro na IMO 2025, acertando 5 das 6 questões, com uma pontuação de 35/42. Diferentemente do AlphaGeometry e AlphaProof do ano passado, o Gemini Deep Think utilizou linguagem natural durante todo o processo de raciocínio, sem a necessidade de tradução para linguagem matemática formal. Seu principal avanço reside no raciocínio paralelo, explorando múltiplos caminhos de solução simultaneamente e utilizando uma nova técnica de aprendizado por reforço para raciocínio em várias etapas, resolução de problemas e demonstração de teoremas. O modelo foi treinado com soluções matemáticas de alta qualidade e técnicas de resolução de problemas da IMO. (Fonte: 量子位, 量子位)
Declaração da OpenAI sobre a conquista da medalha de ouro na IMO gera controvérsia: A OpenAI anunciou que seu novo modelo conquistou a medalha de ouro na IMO, mas a afirmação foi contestada pela organização da IMO e por acadêmicos. A IMO afirmou que a OpenAI não participou dos testes oficiais de colaboração, que o resultado da “medalha de ouro” não foi oficialmente certificado e que o anúncio do resultado pela OpenAI logo após o encerramento da cerimônia foi “rude e inadequado”. Além disso, a pontuação da OpenAI foi apenas ligeiramente superior à linha de corte para a medalha de ouro, e qualquer pequena dedução de pontos poderia tê-la rebaixado para a medalha de prata. (Fonte: 量子位)
Conjunto de dados de treinamento de IA em grande escala, DataComp CommonPool, contém milhões de dados pessoais: Pesquisas revelaram que o conjunto de dados de treinamento de IA em grande escala, DataComp CommonPool, contém milhões de imagens de passaportes, cartões de crédito, certidões de nascimento e outras informações de identificação pessoal. Os pesquisadores encontraram milhares de imagens contendo rostos reconhecíveis e informações de identidade em um subconjunto de dados de 0,1% do CommonPool, levando à especulação de que o número real pode chegar a centenas de milhões. Isso destaca os riscos da coleta de dados online. (Fonte: MIT Technology Review)
Empresas de IA param de alertar que chatbots não são médicos: Pesquisas mostram que as empresas de IA quase não incluem mais isenções de responsabilidade médica e avisos em respostas a perguntas sobre saúde. Muitos modelos de IA líderes não apenas respondem a perguntas sobre saúde, mas também fazem perguntas de acompanhamento e tentam diagnosticar. Essa prática aumenta o risco de os usuários confiarem em conselhos médicos inseguros. Os pesquisadores testaram 15 modelos da OpenAI, Anthropic, DeepSeek, Google e xAI e descobriram que, em 2025, menos de 1% dos modelos incluíam avisos ao responder a perguntas médicas, em comparação com mais de 26% em 2022. (Fonte: MIT Technology Review)
🎯 Movimentos
OpenAI planeja desenvolver recursos do Excel e PowerPoint para o ChatGPT: A OpenAI está desenvolvendo recursos semelhantes aos do Excel e PowerPoint para o ChatGPT, permitindo que os usuários gerem e editem planilhas e apresentações usando prompts de linguagem natural. Esses recursos serão acessíveis por meio de botões dedicados abaixo da barra de pesquisa do ChatGPT e visam criar arquivos compatíveis com o Microsoft Office. O objetivo da OpenAI é criar um pacote de escritório de IA com recursos como edição de documentos em tempo real com vários usuários, janela de bate-papo, transcrição de reuniões e gerenciamento de tarefas. (Fonte: 36氪)
iFLYTEK lança o X5, o primeiro bloco de notas de escritório com modelo de linguagem grande local do mundo: A iFLYTEK lançou o bloco de notas de escritório de terceira geração, o X5, o primeiro bloco de notas de escritório do mundo com um modelo de linguagem grande local integrado. O X5 possui poder de computação de IA de 8 núcleos e 9T, permitindo o uso de recursos de IA, como transcrição de voz, atas de reuniões e geração de conteúdo, mesmo em ambientes sem rede, garantindo a segurança e a privacidade dos dados. O X5 também possui um corpo mais leve e fino, velocidade de atualização mais rápida e uma experiência de escrita com caneta sensível à pressão mais próxima do papel e caneta reais. (Fonte: 36氪)
Moonvalley recebe US$ 154 milhões em financiamento para desenvolver o Marey, um modelo de vídeo de IA de nível cinematográfico compatível: A Moonvalley concluiu uma rodada de financiamento Série A+ de US$ 84 milhões, totalizando US$ 154 milhões em financiamento. Seu modelo de vídeo de IA, Marey, é voltado para a produção cinematográfica, com conformidade de direitos autorais, suportando edição em camadas de primeiro/médio/fundo plano e controle de trajetória de lente 3D, com um custo de renderização de apenas US$ 1 a 2 por cena, uma redução de mais de 90% em comparação com os custos tradicionais de VFX. O Marey é treinado com dados licenciados e permite que os criadores solicitem a exclusão de dados e rastreiem a compensação, evitando disputas de direitos autorais. (Fonte: 36氪)
Zero2All, de Kai-Fu Lee, lança a plataforma completa para modelos de linguagem grande empresariais Wan Zhi 2.0 e o Agent de nível empresarial: A Zero2All lançou a versão 2.0 da plataforma completa para modelos de linguagem grande empresariais Wan Zhi e apresentou o agente inteligente de nível empresarial Zero2All, com o objetivo de tornar a IA um “superfuncionário” para as empresas. O Agent possui recursos de planejamento de tarefas baseados em modelos de linguagem grande, pode julgar independentemente as etapas da tarefa por meio de mecanismos de inferência, agendar várias ferramentas para atingir objetivos complexos e já foi implementado em vários cenários, como serviços de consultoria, negociações financeiras e atendimento ao cliente de vendas. (Fonte: 36氪)
JD.com lidera investimento em três empresas de inteligência incorporada, com Richard Liu aumentando o investimento: A JD.com liderou o investimento em três empresas de inteligência incorporada: QiXun Intelligent, ZhongQing Robotics e ZhuJi Power. A QiXun Intelligent se concentra em modelos VLA e atualização de hardware de robôs; a ZhongQing Robotics já produz em massa o robô humanoide de código aberto PM01; e a ZhuJi Power enfatiza a criação de uma plataforma universal para robôs de inteligência incorporada. A preferência de investimento da JD.com está em soluções integradas de hardware e software, com capacidade de produção em massa e implementação em cenários específicos. (Fonte: 量子位)
CAS & Alibaba propõem a estrutura RefineX para refinamento preciso de dados de pré-treinamento em grande escala: O Instituto de Computação da Academia Chinesa de Ciências e o Alibaba, juntamente com outras equipes, propuseram a estrutura RefineX, que alcança o refinamento preciso de dados de pré-treinamento em grande escala por meio de tarefas de edição programática. O RefineX destila os resultados de otimização ponta a ponta orientados por especialistas em um programa de exclusão baseado em operações de edição, refinando os dados de forma eficiente, preservando a diversidade e a naturalidade do texto original. Os modelos treinados com dados purificados pelo RefineX alcançaram melhorias significativas nas tarefas downstream. (Fonte: 量子位)
Comerciantes utilizam perguntas e respostas de IA para otimizar os serviços GEO e aumentar a exposição, gerando preocupações com a autenticidade das informações: Os comerciantes estão utilizando serviços GEO otimizados para conteúdo de modelos de linguagem grande de IA, integrando informações de marca nas respostas dos modelos de linguagem grande por meio de alimentação de conhecimento estruturado e design de conteúdo baseado em cenários para aumentar a exposição. No entanto, os modelos de linguagem grande de IA carecem de capacidade de filtragem e verificação ao capturar conteúdo, levando a vieses nos resultados das recomendações e até mesmo ao potencial de exploração por comerciantes inescrupulosos para disseminar informações falsas. (Fonte: 36氪)
🧰 Ferramentas
Kimi K2: A Kimi lançou seu mais recente modelo básico MoE, o Kimi K2, com um tamanho de parâmetro de 1T e 32B de parâmetros de ativação. O modelo tem um desempenho excepcional em código, agente e tarefas de raciocínio matemático, alcançando resultados SOTA em modelos de código aberto. O K2 utiliza o otimizador MuonClip, síntese de dados Agentic Tool Use em grande escala e uma estrutura de aprendizado por reforço geral, obtendo posições de liderança em benchmarks como SWE Bench Verified, Tau2 e AceBench. (Fonte: 量子位)
Qwen3-235B-A22B-2507: A Alibaba atualizou o modelo Qwen3-235B, descontinuando o modo de pensamento híbrido, treinando os modelos Instruct e Thinking separadamente e lançando o Qwen3-235B-A22B-Instruct-2507 de melhor desempenho e sua versão FP8. De acordo com a avaliação oficial, a nova versão do Qwen3 supera o Kimi K2 em algumas métricas. (Fonte: 量子位, Reddit r/LocalLLaMA)
📚 Aprendizado
Neural Networks: Zero to Hero: Curso de aprendizado profundo de Andrej Karpathy, cobrindo fundamentos de redes neurais, retropropagação, modelagem de linguagem, MLP, funções de ativação, gradientes, BatchNorm, WaveNet, GPT e Tokenizer, usando palestras em vídeo do YouTube e exemplos de código Jupyter Notebook para ajudar os alunos a construir e treinar redes neurais do zero. (Fonte: GitHub Trending)
Relatório técnico GR-3: Apresenta o desenvolvimento da política de robótica geral GR-3, um modelo massivo de visão-linguagem-ação (VLA) que pode generalizar para novos objetos, ambientes e instruções envolvendo conceitos abstratos e pode ser ajustado com eficiência com poucos dados de trajetória humana. O GR-3 também é proficiente no tratamento de tarefas de longo prazo e destreza, incluindo aquelas que exigem operações com as duas mãos e movimento. (Fonte: HuggingFace Daily Papers)
Relatório técnico Kimi K2: A Moonshot AI lançou o relatório técnico do Kimi K2, detalhando o processo de desenvolvimento do modelo, incluindo tecnologias-chave como o otimizador MuonClip, a síntese de dados Agentic Tool Use em grande escala e a estrutura de aprendizado por reforço geral, bem como os detalhes específicos dos estágios de pré-treinamento e pós-treinamento. (Fonte: 量子位)
💼 Negócios
Lovable recebe US$ 200 milhões em financiamento Série A, com avaliação de US$ 1 bilhão: O aplicativo de companhia de IA, Lovable, recebeu US$ 200 milhões em financiamento Série A apenas 8 meses após seu lançamento, atingindo uma avaliação de US$ 1 bilhão e se tornando uma empresa unicórnio. (Fonte: Reddit r/artificial)
Cursor adquire a ferramenta de programação de IA de nível empresarial Koala: A ferramenta de programação de IA, Cursor, adquiriu a ferramenta de programação de IA de nível empresarial Koala, com o objetivo de desafiar o GitHub Copilot. (Fonte: Reddit r/artificial)
Perplexity em negociações com fabricantes de celulares para pré-instalar o navegador Comet AI: A Perplexity está em negociações com fabricantes de celulares para pré-instalar o navegador móvel Comet AI em seus dispositivos. (Fonte: Reddit r/artificial)
🌟 Comunidade
Restrições de uso do Claude Code geram insatisfação dos usuários: A Anthropic restringiu o uso do Claude Code sem notificar os usuários, levando a reclamações sobre a queda no desempenho do modelo e insatisfação com a qualidade do código, consistência do contexto e saída da interface do usuário. Alguns usuários adotaram métodos de codificação mais estruturados (como TDD) e documentação detalhada para melhorar o desempenho do Claude Code. (Fonte: Reddit r/artificial, Reddit r/ClaudeAI, Reddit r/ClaudeAI)
Questionamentos sobre a capacidade de raciocínio dos LLMs: O artigo “The Illusion of Thinking”, publicado pela Apple, gerou discussões sobre se os grandes modelos de linguagem (LLMs) realmente possuem capacidade de raciocínio. O artigo aponta que, mesmo quando fornecidos com o algoritmo correto, modelos de raciocínio como GPT-4, Claude 3.7 e Gemini falham completamente em tarefas lógicas de alta complexidade. (Fonte: Reddit r/MachineLearning)
Preocupações com anúncios falsos gerados por IA: As mídias sociais estão inundadas de anúncios falsos gerados por IA, especialmente anúncios de desenhos animados como “adolescentes ganhando milhões de dólares com IA”, causando preocupação e aversão entre os usuários. (Fonte: Reddit r/artificial)
Discussão sobre código aberto de IA: Usuários do Reddit discutiram se os modelos de IA devem ser de código aberto. Alguns acreditam que, como a internet, a IA deve ser aberta para que todos usem e construam, promovendo o progresso da humanidade. Outros argumentam que o código aberto trará novos problemas, como questões de propriedade intelectual e segurança de dados, bem como o impacto no retorno econômico dos desenvolvedores de IA. (Fonte: Reddit r/LocalLLaMA)
Opiniões divididas sobre aplicativos de companhia de IA: Um estudo descobriu que 72% dos adolescentes americanos usaram aplicativos de companhia de IA. Alguns acreditam que a companhia de IA pode fornecer apoio emocional e assistência, enquanto outros estão preocupados com seu impacto negativo potencial na saúde mental e nas habilidades sociais. (Fonte: Reddit r/artificial, Reddit r/ChatGPT)
Avaliação da síntese de voz de IA: Com os avanços na tecnologia de síntese de voz de IA, muitos criadores do YouTube começaram a usar dublagem de IA, gerando discussões sobre seu impacto na qualidade do vídeo e na experiência do público. Alguns acreditam que a dublagem de IA carece de emoção e personalidade, enquanto outros a veem como uma forma de melhorar a eficiência e reduzir custos. (Fonte: Reddit r/ArtificialInteligence)
Preocupações com o modelo de negócios da OpenAI: Empresas como OpenAI e Anthropic ainda não obtiveram lucro com LLMs, levantando preocupações sobre a sustentabilidade de seus modelos de negócios. Alguns acreditam que, à medida que a tecnologia de IA se populariza e os cenários de aplicação se expandem, essas empresas acabarão se tornando lucrativas. Outros argumentam que os altos custos de computação e a intensa concorrência de mercado tornarão a lucratividade mais desafiadora. (Fonte: Reddit r/ArtificialInteligence)
💡 Outros
Blackbird: uma ferramenta OSINT de código aberto: Blackbird é uma poderosa ferramenta OSINT (Open Source Intelligence) de código aberto que pode pesquisar nomes de usuário e e-mails em mais de 600 plataformas e oferece recursos de análise orientados por IA gratuitos. Ele utiliza projetos orientados pela comunidade (como WhatsMyName) para garantir baixas taxas de falsos positivos e resultados de alta qualidade. Seus recursos incluem filtros inteligentes, exportação para PDF/CSV e análise totalmente automatizada, todos fornecidos por meio de um CLI. (Fonte: GitHub Trending)
Trippy: uma ferramenta de diagnóstico de rede: Trippy é uma ferramenta de diagnóstico de rede que combina traceroute e ping, projetada para ajudar na análise de problemas de rede. Ele roda em Linux, BSD, macOS e Windows e pode ser instalado da maioria dos gerenciadores de pacotes, binários pré-compilados ou código-fonte. (Fonte: GitHub Trending)
Anki: um programa inteligente de flashcards com repetição espaçada: Anki é um programa inteligente de flashcards com repetição espaçada que ajuda os usuários a aprender e memorizar informações com mais eficiência. É de código aberto no GitHub e possui uma grande base de usuários e colaboradores. (Fonte: GitHub Trending)