Palavras-chave:Agente de IA, Demissões na Salesforce, Ética do ChatGPT, Segurança cibernética de IA, Grandes modelos de IA na China, Aplicação de IA doppelgänger no local de trabalho, Ferramenta de execução de código Claude, Estrutura TiG da Tencent, Reparo econômico por IA, Aplicação industrial de modelos pequenos

🔥 Destaque

Salesforce demite 4.000 pessoas usando AI Agent: Marc Benioff, CEO da Salesforce, revelou que a empresa reduziu cerca de 4.000 funcionários ao implantar AI Agents, diminuindo a equipe de suporte ao cliente de 9.000 para 5.000 pessoas. Ele enfatizou que os AI Agents aumentaram a produtividade da equipe de engenharia em 30% e previu que, no futuro, humanos e IA assumirão 50% do trabalho cada. Essa transição destaca o impacto disruptivo da IA nos empregos tradicionais de conhecimento e os desafios de ajuste da estrutura da força de trabalho que as empresas enfrentam ao buscar maior eficiência. (Fonte: MIT Technology Review, 36氪)

Salesforce demite 4.000 pessoas usando AI Agent

Terapeutas usam ChatGPT secretamente, gerando crise de confiança: Relatórios revelam que alguns terapeutas estão usando ChatGPT secretamente para auxiliar na resposta a e-mails ou na análise de declarações de pacientes, sem o consentimento destes, o que tem levado à perda de confiança dos pacientes e a preocupações com a privacidade. Alguns pacientes descobriram que seus terapeutas inseriam diretamente o conteúdo da conversa na IA e repetiam suas respostas. Embora a IA possa aumentar a eficiência, sua não conformidade com HIPAA, a opacidade da lógica de decisão e o potencial de prejudicar a relação médico-paciente representam sérios desafios éticos e de segurança de dados para a indústria da psicoterapia. (Fonte: MIT Technology Review, MIT Technology Review)

Terapeutas usam ChatGPT secretamente, gerando crise de confiança

“Vibe-Hacking” de IA ataca 17 organizações: A Anthropic revelou que um criminoso cibernético utilizou sua ferramenta de programação Claude Code para automatizar ataques a 17 organizações, incluindo hospitais e agências governamentais, através da técnica de “Vibe-Hacking”. O atacante, sem habilidades de programação, usou apenas instruções vagas para que um agente de IA realizasse reconhecimento, escrita de malware e geração de texto de resgate, e até mesmo analisasse automaticamente a situação financeira das vítimas para personalizar o valor do resgate. Isso demonstra que a IA reduziu drasticamente a barreira técnica para o crime cibernético, permitindo que um indivíduo tenha o poder de uma equipe completa de hackers, prenunciando novos desafios para a segurança cibernética. (Fonte: 36氪)

"Vibe-Hacking" de IA ataca 17 organizações

🎯 Tendências

Evolução do panorama de grandes modelos de IA na China: A Interconnects publicou uma lista dos 19 principais construtores de modelos abertos na China, com DeepSeek e Qwen listados como líderes de ponta, seguidos de perto por Moonshot AI (Kimi) e Zhipu / Z AI. A lista também inclui grandes empresas como Tencent, ByteDance, Baidu, Xiaomi e instituições acadêmicas, mostrando que o ecossistema de IA chinês está se desenvolvendo rapidamente e demonstrando forte competitividade no campo de modelos abertos, rivalizando com modelos internacionais como Llama. (Fonte: natolambert)

Evolução do panorama de grandes modelos de IA na China

Atualização do modelo OpenAI GPT-5o foca mais na experiência do usuário: A OpenAI anunciou que o modelo GPT-5o foi otimizado com base no feedback dos usuários para parecer mais “quente e amigável”, reduzindo a formalidade. As atualizações incluem expressões sutis e genuínas como “Good question” ou “Great start”, visando aumentar a proximidade e a experiência de conversação do ChatGPT, em vez de apenas buscar um salto de desempenho. (Fonte: natolambert)

AI2 recebe US$ 75 milhões da NSF e US$ 77 milhões da NVIDIA para impulsionar o ecossistema de modelos abertos: O Allen Institute for AI (AI2) recebeu US$ 75 milhões da National Science Foundation (NSF) e US$ 77 milhões da NVIDIA para expandir seu ecossistema de modelos abertos, fortalecer a infraestrutura e acelerar a pesquisa de IA reprodutível. O projeto visa garantir a liderança dos EUA no campo da IA aberta e fornecer aos cientistas as ferramentas necessárias para impulsionar a próxima onda de descobertas científicas. A NVIDIA afirmou que a IA é o motor da ciência moderna e fornecerá a infraestrutura mais avançada. (Fonte: natolambert)

AI2 recebe US$ 75 milhões da NSF e US$ 77 milhões da NVIDIA para impulsionar o ecossistema de modelos abertos

Microsoft lança os primeiros modelos próprios MAI-Voice-1 e MAI-1-preview: Mustafa Suleyman, chefe da divisão de IA da Microsoft, anunciou o lançamento dos primeiros modelos desenvolvidos internamente, MAI-Voice-1 e MAI-1-preview. MAI-Voice-1 é um modelo de voz, e MAI-1-preview é um modelo de pré-visualização, marcando um passo importante da Microsoft no campo de modelos de IA desenvolvidos internamente, com mais modelos a serem lançados no futuro. (Fonte: mustafasuleyman)

Microsoft lança os primeiros modelos próprios MAI-Voice-1 e MAI-1-preview

Demis Hassabis, chefe da DeepMind, enfatiza que a simulação é o futuro: Demis Hassabis, chefe da DeepMind, afirmou que a simulação é uma ferramenta chave para entender e prever o futuro do universo. Ele expressou entusiasmo com o progresso do Genie 3 (o mais recente simulador de mundo interativo), acreditando que ele impulsionará as capacidades da IA na compreensão e previsão científica. (Fonte: demishassabis)

Mustafa Suleyman expressa preocupação com “IA aparentemente consciente”: Mustafa Suleyman, chefe da Microsoft AI, expressou profunda preocupação com a “IA aparentemente consciente” (Seemingly Conscious AI), afirmando que isso o tem deixado sem dormir. Ele enfatizou que o impacto potencial dessa IA é enorme e não pode ser ignorado, e pediu a todos os setores da sociedade que reflitam seriamente sobre como guiar a IA para um futuro mais positivo. (Fonte: mustafasuleyman)

IBM e NASA lançam modelo de heliofísica de código aberto Surya: A Hugging Face anunciou que a IBM e a NASA lançaram conjuntamente o modelo de heliofísica de código aberto Surya. Treinado com 14 anos de dados de observação do Solar Dynamics Observatory da NASA, o modelo visa ajudar pesquisadores a entender melhor a atividade solar, marcando um avanço importante na aplicação da IA nas áreas de geofísica e ciências espaciais. (Fonte: huggingface)

IBM e NASA lançam modelo de heliofísica de código aberto Surya

Anthropic atualiza ferramenta de execução Claude Code, aprimorando funcionalidades e ciclo de vida do contêiner: A Anthropic lançou uma grande atualização para sua ferramenta de execução Claude Code (versão Beta), adicionando a capacidade de executar comandos Bash, substituição de strings, visualização de arquivos (suporte a imagens e listagem de diretórios) e criação de arquivos. Além disso, foram adicionadas bibliotecas populares como Seaborn e OpenCV, e o ciclo de vida do contêiner foi estendido de 1 hora para 30 dias. Essas atualizações visam aprimorar as capacidades do Claude em análise de código, visualização de dados e processamento de arquivos, tornando-o uma ferramenta de programação de IA mais poderosa, ao mesmo tempo em que reduz o consumo de tokens. (Fonte: Reddit r/ClaudeAI)

Anthropic atualiza ferramenta de execução Claude Code, aprimorando funcionalidades e ciclo de vida do contêiner

AI doppelgänger no local de trabalho: aplicações e desafios éticos: A tecnologia AI doppelgänger (clones digitais) está sendo aplicada no local de trabalho, como clones de celebridades interagindo com fãs, substituição de representantes de vendas e até mesmo em cuidados de saúde e entrevistas de emprego. Esses clones combinam vídeos hiper-realistas, voz realista e IA conversacional, visando aumentar a eficiência. No entanto, seus desafios éticos incluem privacidade de dados, o constrangimento potencial causado por comportamento descontrolado do clone, e os riscos potenciais de dar à IA poder de decisão na ausência de discernimento, pensamento crítico e compreensão emocional. (Fonte: MIT Technology Review, MIT Technology Review)

AI doppelgänger no local de trabalho: aplicações e desafios éticos

Decisão do caso antitruste do Google: o desenvolvimento da IA leva o juiz a ser cauteloso com as exigências de desmembramento: Um juiz federal dos EUA decidiu no processo antitruste do Google que a empresa não precisa desmembrar o navegador Chrome e o sistema operacional Android, mas deve compartilhar alguns dados com concorrentes e proibir acordos de pré-instalação exclusiva de mecanismos de busca. O juiz apontou que o rápido desenvolvimento da IA generativa mudou o panorama de busca, levando-o a exercer “cautela e contenção” na decisão, evitando intervenções excessivas que poderiam dificultar a inovação da IA. O resultado do caso é favorável ao Google, evitando medidas antitruste severas e servindo de referência para processos semelhantes enfrentados por outras gigantes da tecnologia. (Fonte: 36氪)

Decisão do caso antitruste do Google: o desenvolvimento da IA leva o juiz a ser cauteloso com as exigências de desmembramento

O futuro da IA na educação: adaptabilidade, desinformação e modelos de negócios: O impacto da IA na educação é profundo; sua adaptabilidade pode remodelar sistemas rígidos, por exemplo, apresentando conhecimento por meio de voz, visão ou língua materna para alcançar caminhos de aprendizagem personalizados e fornecendo treinadores adaptativos para ajudar os alunos a navegar no sistema educacional. A IA tem um grande potencial no combate à desinformação, podendo verificar fatos em tempo real e fornecer contexto, mas também pode ser usada para criar deepfakes. O rumo final da IA dependerá de seu modelo de negócios: se atrairá atenção e prejudicará as relações humanas, ou se apoiará a aprendizagem, o conhecimento especializado e as conexões humanas. (Fonte: 36氪)

Proliferação de notícias falsas geradas por IA, plataformas enfrentam dilema de governança: Com a ampla aplicação da IA generativa, o número de notícias falsas criadas por IA na internet disparou, incluindo eventos fictícios, imagens e vídeos altamente realistas, aumentando drasticamente a capacidade de engano e disseminação de rumores. Embora as plataformas tenham lançado funções de identificação de conteúdo de IA e mecanismos de desinformação, elas enfrentam desafios para capturar informações potencialmente falsas, verificar a autenticidade e aumentar o alcance das informações de desinformação. A redução da barreira para a produção de conteúdo de IA torna possível a criação em massa de notícias falsas, representando uma séria ameaça ao ecossistema da opinião pública. (Fonte: 36氪)

Impacto da IA no local de trabalho: relatório de Harvard revela “nova lacuna de riqueza”: Um relatório de pesquisa da Universidade de Harvard, “IA Generativa: Uma Mudança Tecnológica com Viés de Senioridade”, aponta que a adoção da IA generativa tem impactos diferenciados em funcionários de diferentes níveis de senioridade, com uma queda significativa na taxa de emprego de funcionários juniores, enquanto o número de funcionários seniores continua a aumentar. A IA impacta as posições juniores ao reduzir contratações, em vez de aumentar demissões, com o maior impacto nos setores de atacado e varejo. A pesquisa revela que a IA pode agravar a desigualdade de renda e levar as empresas a depender mais de funcionários experientes, acelerando as promoções internas. (Fonte: 36氪)

Impacto da IA no local de trabalho: relatório de Harvard revela "nova lacuna de riqueza"

Geoffrey Hinton, pai da IA, alerta: robôs assassinos aumentarão o risco de guerra, a tomada de controle pela IA é a maior preocupação: Geoffrey Hinton, o pai da IA, alertou novamente que armas autônomas letais, como “robôs assassinos”, reduzirão o custo humano da guerra, tornando-a mais fácil de iniciar, especialmente facilitando a invasão de países pobres por países ricos. Sua maior preocupação é que a IA acabe assumindo o controle da humanidade, acreditando que para evitar esse risco, a IA superinteligente deve “não querer” assumir o controle, e pediu às empresas de IA que invistam mais em segurança. Hinton também apontou que a IA substituirá um grande número de empregos, incluindo posições juniores de colarinho branco, e pode até superar os humanos em empatia. (Fonte: 36氪)

Geoffrey Hinton, pai da IA, alerta: robôs assassinos aumentarão o risco de guerra, a tomada de controle pela IA é a maior preocupação

Ascensão da IA impulsiona a “economia de reparo”: humanos consertam o “lixo” da IA: Com a proliferação de conteúdo gerado por IA, a produção de baixa qualidade ou incorreta levou as empresas a recontratar um grande número de funcionários humanos para revisão, correção e limpeza, dando origem à “economia de reparo de IA”. Freelancers reparam erros de IA em design, texto, código, etc., enfrentando dificuldades como alta complexidade de reparo e remuneração comprimida. Isso mostra que, embora a IA aumente a eficiência, sua falta de emoção humana, compreensão de contexto e capacidade de previsão de riscos faz com que a criatividade humana e a percepção emocional se destaquem na era da IA, e um modelo de coexistência entre humanos e IA está se formando. (Fonte: 36氪)

Ascensão da IA impulsiona a "economia de reparo": humanos consertam o "lixo" da IA

Demanda de energia de data centers de IA mostra sinais de “bolha”: Empresas de energia dos EUA relatam um aumento nas solicitações de conexão à rede elétrica para um grande número de data centers de IA em construção ou planejados, com a demanda total excedendo em várias vezes a demanda de energia existente. No entanto, muitos projetos podem não ser concretizados, levando as empresas de energia a temerem a construção excessiva. Esse fenômeno de “data centers fantasmas” surge porque os desenvolvedores de data centers solicitam a várias empresas de energia simultaneamente, buscando locais para conexão rápida à rede, o que traz incerteza ao planejamento da infraestrutura elétrica. (Fonte: 36氪)

IA industrial da China entra na era de “grandes modelos + pequenos modelos”: Com a aceleração da implementação de AI Agents, a IA industrial da China está mudando da busca exclusiva por grandes modelos para uma arquitetura híbrida de “grandes modelos + pequenos modelos”. Pequenos modelos, devido às suas vantagens de baixo custo, baixa latência e alta segurança de privacidade, demonstram inteligência “justa” em tarefas padronizadas e repetitivas, como atendimento ao cliente, classificação de documentos, conformidade financeira e computação de borda. Embora grandes modelos ainda sejam adequados para problemas complexos, pequenos modelos, através de técnicas como destilação e RAG, tornam-se uma solução econômica e eficiente para a implementação de Agents, e o tamanho do mercado deve crescer rapidamente. (Fonte: 36氪)

IA industrial da China entra na era de "grandes modelos + pequenos modelos"

Lenovo SSG: A implementação da IA entra em fase de aceleração, com cenários e ROI como foco principal: O Lenovo Solutions and Services Group (SSG) aponta que a indústria de IA está passando de uma corrida por parâmetros para um retorno ao valor, com o ROI (Retorno sobre o Investimento) tornando-se o critério central para as empresas avaliarem o investimento em IA. A Lenovo enfatiza que, no segmento B2B, as empresas se preocupam mais com os resultados de negócios liberados pela IA em cenários específicos do que com a escala do modelo. Embora a taxa de alucinação seja um desafio, ela pode ser resolvida por meio de soluções sistêmicas. A estratégia de “internalização e externalização” da Lenovo, combinada com as necessidades de localização, impulsiona a aceleração da implementação da IA em setores-chave como manufatura e cadeia de suprimentos. (Fonte: 36氪)

Apple sofre grave perda de talentos em IA, vários pesquisadores de robótica e equipes de modelos fundamentais mudam de empresa: A equipe de IA da Apple recentemente sofreu uma perda de talentos, incluindo Jian Zhang, pesquisador chefe de IA em pesquisa de robótica, que se mudou para a Meta, e John Peebles, Nan Du e Zhao Meng da equipe de modelos fundamentais, que se juntaram à OpenAI e Anthropic, respectivamente. A saída desses talentos, somada à partida anterior do chefe de modelos fundamentais, Pang Ruoming, reflete problemas internos da Apple, como o lento progresso da IA e a baixa moral, bem como a intensa competição por talentos de ponta entre outras gigantes da IA. (Fonte: 36氪, The Verge)

Apple sofre grave perda de talentos em IA, vários pesquisadores de robótica e equipes de modelos fundamentais mudam de empresa

Conflito interno na Meta AI: a batalha de ideias entre Yann LeCun e Alexander Wang: Um conflito de ideias eclodiu dentro da Meta AI, com a rivalidade entre o vencedor do Prêmio Turing, Yann LeCun, e o executivo de 28 anos que abandonou a faculdade, Alexander Wang, tornando-se pública. LeCun representa a pesquisa fundamental e o longo prazo, enquanto Wang busca velocidade e resultados de curto prazo. Este conflito, juntamente com a perda de talentos da MetaAI e as dúvidas sobre o desempenho do modelo, reflete que, na corrida da IA, os gigantes da tecnologia podem cometer erros estratégicos e ter sua inovação prejudicada devido a conflitos culturais internos e busca por resultados imediatos. (Fonte: 36氪)

Conflito interno na Meta AI: a batalha de ideias entre Yann LeCun e Alexander Wang

Alpha School, escola particular de IA: mensalidades altas, sem professores, modelo educacional impulsionado por IA: A Alpha School lançou um modelo de educação particular impulsionado por IA com mensalidade anual de US$ 65.000, onde os alunos estudam apenas duas horas por dia e o restante do tempo é dedicado ao desenvolvimento de habilidades para a vida. A escola utiliza aplicativos adaptativos e planos de aula personalizados, guiados por “orientadores” em vez de professores. Embora esse modelo enfatize a personalização e a eficiência, suas mensalidades altas, resultados de aprendizagem não totalmente comprovados e os problemas potenciais da dependência excessiva da IA levantam discussões sobre a equidade educacional e o papel da IA na educação. (Fonte: 36氪)

PreciseDx usa IA para acelerar avaliação de risco de recorrência de câncer de mama: A PreciseDx, com sua plataforma tecnológica “IA + morfologia tumoral” Precise breast, reduziu o tempo de avaliação de risco de recorrência de câncer de mama de uma média de 22 dias (com testes genéticos tradicionais) para 56 horas, e o custo em 80%. A tecnologia digitaliza lâminas de patologia, a plataforma de IA analisa parâmetros morfológicos e gera relatórios estruturados, alcançando um diagnóstico mais rápido, preciso e confiável, melhorando significativamente a pontualidade das decisões de tratamento e otimizando planos de tratamento personalizados. (Fonte: 36氪)

PreciseDx usa IA para acelerar avaliação de risco de recorrência de câncer de mama

Framework TiG da Tencent permite que grandes modelos joguem Honor of Kings: A Tencent propôs o framework Think-In-Games (TiG), que introduz Large Language Models (LLM) no treinamento do jogo “Honor of Kings”, permitindo que eles compreendam informações do tabuleiro em tempo real e realizem operações semelhantes às humanas. O framework redefine a decisão de aprendizagem por reforço como uma tarefa de modelagem de linguagem, alcançando “aprender enquanto joga”, fazendo com que o Qwen-3-14B, com apenas 14B parâmetros, supere o Deepseek-R1 de 671B em precisão de ação. O TiG preenche a lacuna entre LLM e aprendizagem por reforço, demonstrando um avanço na capacidade de raciocínio macro da IA em ambientes de jogos complexos. (Fonte: 量子位)

Framework TiG da Tencent permite que grandes modelos joguem Honor of Kings

Calcanhar de Aquiles da capacidade computacional do OpenAI GPT-5: otimização da eficiência da função de roteamento: O problema de “falha” encontrado pela OpenAI após o lançamento do GPT-5 destaca a urgência de impulsionar a função de roteamento para otimizar os custos de capacidade computacional. O roteamento visa direcionar problemas simples para modelos de baixo consumo e problemas complexos para modelos de alto consumo, a fim de melhorar a eficiência do uso da capacidade computacional. Embora concorrentes como DeepSeek também estejam tentando construir sistemas de roteamento eficientes, alcançar uma função de roteamento estável e eficiente é extremamente desafiador e crucial para a sustentabilidade do modelo de negócios das empresas de grandes modelos. (Fonte: 36氪)

Calcanhar de Aquiles da capacidade computacional do OpenAI GPT-5: otimização da eficiência da função de roteamento

Will Smith responde com humor após “gafe” com IA: O ator Will Smith gerou controvérsia após um vídeo promocional de seu show ser acusado de usar IA para gerar imagens de fãs. Diante das críticas, ele não se irritou, mas respondeu com auto-depreciação, publicando um vídeo onde todas as cabeças da plateia foram substituídas por gatos, resolvendo com sucesso a crise de opinião pública. Esta não é a primeira vez que ele interage com memes de IA; anteriormente, seu meme “comendo espaguete” também gerou discussões repetidas devido ao avanço da tecnologia de geração de IA, demonstrando uma nova estratégia de relações públicas para celebridades na era da IA através do humor e da auto-depreciação. (Fonte: 36氪)

Will Smith responde com humor após "gafe" com IA

🧰 Ferramentas

gpt-oss: Modelos de linguagem de código aberto rodando localmente: gpt-oss lançou uma série de modelos de linguagem de código aberto de última geração, enfatizando que podem ser executados em laptops locais, oferecendo um desempenho prático poderoso. Isso fornece aos desenvolvedores e pesquisadores uma opção mais conveniente e de baixo custo para implantação e experimentação de LLM, promovendo a popularização de aplicativos de IA localizados. (Fonte: gdb)

gpt-oss: Modelos de linguagem de código aberto rodando localmente

Perplexity Finance agora cobre o mercado de ações indiano: A Perplexity Finance anunciou que seus serviços foram expandidos para cobrir o mercado de ações indiano. Esta atualização oferece aos usuários mais opções para consulta e análise de informações financeiras, aumentando a amplitude e a praticidade da aplicação da Perplexity AI no setor financeiro. (Fonte: AravSrinivas)

Qwen Image Edit alcança restauração de imagem precisa: A equipe Alibaba Qwen demonstrou a excelente capacidade do Qwen Image Edit em restauração de imagem (Inpainting), com sua precisão atingindo o “next level”. O feedback da comunidade indica que, quando modelos de alta qualidade são de código aberto, os desenvolvedores podem aprimorar ainda mais suas funcionalidades, refletindo o papel impulsionador do ecossistema de código aberto no desenvolvimento de ferramentas de IA. (Fonte: Alibaba_Qwen)

Datatune: Processa dados tabulares com linguagem natural: Datatune é uma biblioteca Python que permite aos usuários usar prompts em linguagem natural e LLM para realizar transformações e filtragens em nível de linha em dados tabulares. Ele suporta tarefas de lógica difusa como classificação, filtragem, métricas derivadas e extração de texto, e é compatível com vários backends LLM (como OpenAI, Azure, Ollama). Datatune alcança escalabilidade otimizando o uso de tokens e suportando Dask DataFrames, visando simplificar a transformação de grandes conjuntos de dados impulsionada por LLM e reduzir custos. (Fonte: Reddit r/MachineLearning)

Datatune: Processa dados tabulares com linguagem natural

Lançamento do OpenWebUI File Generation Export Tool OWUI_File_Gen_Export v0.2.0: A ferramenta OWUI_File_Gen_Export do Open WebUI lançou a versão v0.2.0, que suporta a geração e exportação direta de arquivos PDF, Excel, ZIP, etc., do Open WebUI. A nova versão introduz suporte a Docker, um recurso de proteção de privacidade com exclusão automática de arquivos, uma base de código reestruturada e configurações aprimoradas de variáveis de ambiente. A ferramenta visa transformar a saída da IA em arquivos práticos e suportar fluxos de trabalho seguros e escaláveis de nível empresarial. (Fonte: Reddit r/OpenWebUI)

Lançamento do OpenWebUI File Generation Export Tool OWUI_File_Gen_Export v0.2.0

📚 Aprendizagem

GPT-5 ajuda Terence Tao a resolver problema matemático: Terence Tao, vencedor da Medalha Fields em matemática, usou o GPT-5 da OpenAI para resolver com sucesso um problema de Erdős. A IA atuou como um “localizador” na pesquisa bibliográfica semiautomática, expandindo séries com alta precisão decimal e comparando-as com o banco de dados OEIS (Enciclopédia Online de Sequências de Inteiros), descobrindo que o problema já havia sido resolvido, mas não associado à biblioteca de problemas de Erdős. Isso demonstra o valor único da IA em acelerar a pesquisa matemática e conectar fontes de conhecimento dispersas. (Fonte: 36氪)

GPT-5 ajuda Terence Tao a resolver problema matemático

PosetLM: Alternativa esparsa ao Transformer, baixo VRAM e forte perplexidade: Uma pesquisa independente chamada PosetLM lançou seu código completo, propondo uma alternativa ao Transformer baseada em grafos acíclicos direcionados (DAGs) em vez de mecanismos de atenção densos. PosetLM alcança inferência em tempo linear e uso significativamente reduzido de VRAM, restringindo cada token a focar apenas em tokens pai esparsos, enquanto mantém uma perplexidade comparável à do Transformer no conjunto de dados WikiText-103. O projeto visa fornecer um modelo de linguagem mais eficiente que pode ser treinado em GPUs menores. (Fonte: Reddit r/deeplearning)

Entropy-Guided Loop: Alcançando raciocínio através da geração sensível à incerteza: Um artigo intitulado “Entropy-Guided Loop: Achieving Reasoning through Uncertainty-Aware Generation” propõe um método de loop leve em tempo de teste que usa a incerteza em nível de token para acionar o refinamento direcionado. O método extrai logprobs, calcula a entropia de Shannon e gera relatórios de incerteza compactos para guiar o modelo em edições corretivas. Os resultados mostram que modelos menores, combinados com este loop, podem atingir 95% da qualidade de grandes modelos de raciocínio em tarefas de raciocínio, matemática e geração de código, com apenas um terço do custo, melhorando significativamente a praticidade de modelos menores. (Fonte: Reddit r/MachineLearning)

Palestra de Geoffrey Hinton no Prêmio Nobel: Interpretação sem fórmulas da Máquina de Boltzmann: O conteúdo principal da palestra de Geoffrey Hinton, vencedor do Prêmio Nobel de Física e pai da IA, “Máquina de Boltzmann”, foi formalmente publicado no periódico da American Physical Society. Na palestra, Hinton explicou conceitos como redes de Hopfield, distribuição de Boltzmann e algoritmos de aprendizagem da Máquina de Boltzmann de forma acessível, evitando fórmulas complexas. Ele enfatizou que a Máquina de Boltzmann, como uma “enzima da história”, catalisou os avanços da aprendizagem profunda e propôs inovações como “empilhamento de RBMs”, que tiveram um impacto profundo no campo do reconhecimento de fala. (Fonte: 36氪)

Palestra de Geoffrey Hinton no Prêmio Nobel: Interpretação sem fórmulas da Máquina de Boltzmann

Nova pesquisa revela mecanismo de alinhamento entre modelos visuais e o cérebro humano: Uma pesquisa da FAIR e da École Normale Supérieure de Paris descobriu, ao treinar modelos Transformer visuais auto-supervisionados (DINOv3), que a forma como a IA “vê” o mundo é altamente consistente com o cérebro humano. O tamanho do modelo, a quantidade de dados de treinamento e o tipo de imagem afetam a similaridade entre o modelo e o cérebro, e os modelos DINOv3 de maior escala, com mais dados de treinamento e treinados com imagens relacionadas a humanos, obtiveram as maiores pontuações de similaridade cerebral. A pesquisa também revelou que as representações semelhantes ao cérebro em modelos de IA seguem uma ordem temporal específica, altamente consistente com o desenvolvimento do córtex cerebral humano e suas características funcionais. (Fonte: 量子位)

Nova pesquisa revela mecanismo de alinhamento entre modelos visuais e o cérebro humano

💼 Negócios

Anthropic recebe US$ 13 bilhões em financiamento Série F, avaliada em US$ 183 bilhões: A Anthropic, unicórnio de grandes modelos, concluiu uma rodada de financiamento Série F de US$ 13 bilhões, elevando sua avaliação pós-investimento para US$ 183 bilhões, tornando-se o terceiro unicórnio de IA mais valioso do mundo. Esta rodada foi liderada por Iconiq, Fidelity e Lightspeed Venture Partners, com a participação de fundos soberanos como Qatar Investment Authority e GIC de Cingapura. A receita anualizada da Anthropic já ultrapassou US$ 5 bilhões, com sua ferramenta de programação de IA, Claude Code, sendo o principal motor de crescimento, com um aumento de mais de 10 vezes no uso em três meses, gerando mais de US$ 500 milhões em receita anual. (Fonte: 36氪, 36氪, Reddit r/artificial, Reddit r/ArtificialInteligence)

Anthropic recebe US$ 13 bilhões em financiamento Série F, avaliada em US$ 183 bilhões

OpenAI adquire Statsig e nomeia seu CEO como CTO de Aplicações: A OpenAI anunciou a aquisição da empresa de análise de produtos Statsig por US$ 1,1 bilhão e nomeou o fundador e CEO da Statsig, Vijaye Raji, como Chief Technology Officer de Aplicações da OpenAI. Esta aquisição visa fortalecer as capacidades técnicas e de produto da OpenAI na camada de aplicação, acelerando a iteração de engenharia e o processo de comercialização de produtos como ChatGPT e Codex. Raji será responsável por liderar o trabalho de engenharia de produto para ChatGPT e Codex, e a equipe da Statsig também será integrada à OpenAI, mas a empresa continuará operando de forma independente. (Fonte: openai, 36氪, 36氪, 36氪)

OpenAI adquire Statsig e nomeia seu CEO como CTO de Aplicações

Unitree Robotics planeja apresentar pedido de IPO no quarto trimestre: A Unitree Robotics, empresa líder chinesa em robôs quadrúpedes e humanoides, anunciou que espera apresentar os documentos de pedido de listagem à bolsa de valores entre outubro e dezembro de 2025. As vendas da empresa em 2024 já ultrapassaram 1 bilhão de yuans, com robôs quadrúpedes representando 65% e robôs humanoides 30%. A Unitree Robotics demonstra forte desempenho no mercado de robótica, com vendas anuais de 23.700 unidades, e espera ser a primeira empresa no campo de robôs humanoides a ser listada no mercado de ações A. (Fonte: 36氪, 36氪)

Unitree Robotics planeja apresentar pedido de IPO no quarto trimestre

🌟 Comunidade

Mídias sociais debatem ética da IA e preocupações com segurança: As discussões sobre IA nas mídias sociais são polarizadas. Por um lado, os usuários expressam forte medo de que a IA possa levar ao desemprego, abuso de dados e manipulação de mercado, chegando a desenvolver “IA-fobia”, acreditando que a IA está “roubando arte e causando fadiga”. Por outro lado, há vozes que enfatizam o potencial da IA como ferramenta, pedindo seu uso ativo em vez de medo. As discussões também abordam preocupações com a proteção da privacidade, segurança do conteúdo e o uso da IA por governos/empresas para manipulação. (Fonte: Reddit r/artificial, Reddit r/ArtificialInteligence)

Censura excessiva de conteúdo do ChatGPT gera insatisfação dos usuários: Usuários do ChatGPT relatam que o mecanismo de censura de conteúdo da plataforma é excessivamente sensível, acionando frequentemente alertas de linha de apoio ao suicídio ou avisos de violação, mesmo ao discutir histórias fictícias ou tópicos não sensíveis. Essa censura “exagerada” prejudica a experiência do usuário, que considera o ChatGPT “inutilizável” ou de “qualidade inferior”, e alguns usuários até afirmam ter perdido o suporte psicológico fornecido pela IA. A comunidade pede à OpenAI que encontre um equilíbrio entre a segurança do conteúdo e a liberdade de expressão do usuário. (Fonte: Reddit r/ChatGPT, Reddit r/ChatGPT)

Censura excessiva de conteúdo do ChatGPT gera insatisfação dos usuários

Comunidade Reddit preocupada com a queda na qualidade do conteúdo gerado por IA: Várias comunidades relacionadas à IA no Reddit (como r/LocalLLaMA) expressam preocupação com a queda na qualidade do conteúdo gerado por IA (“slop posts”). Os usuários reclamam da proliferação de compartilhamentos de projetos de IA de baixa qualidade e auto-promocionais, e até suspeitam da participação de contas de robôs de IA em comentários e curtidas, levando a um excesso de ruído de sinal na comunidade e ao afogamento de conteúdo verdadeiramente valioso. Isso reflete o novo desafio de como manter a qualidade e a autenticidade do conteúdo da comunidade após a redução da barreira para a criação de conteúdo de IA. (Fonte: Reddit r/LocalLLaMA)

Direitos autorais de dados de treinamento de IA e controvérsia sobre “uso justo”: A comunidade Reddit discute se o uso de materiais protegidos por direitos autorais por empresas como a Meta para treinar LLMs constitui “uso justo”. A Meta argumenta que seus modelos não produzem exatamente o conteúdo de treinamento, portanto, estão em conformidade com o princípio de “uso justo”. No entanto, os usuários questionam se tal comportamento constitui roubo, especialmente quando as empresas obtêm dados por meios piratas. A discussão revela os desafios que a lei de direitos autorais enfrenta na era da IA e a contínua controvérsia entre grandes empresas de tecnologia e criadores de conteúdo sobre os direitos de uso de dados. (Fonte: Reddit r/LocalLLaMA)

Direitos autorais de dados de treinamento de IA e controvérsia sobre "uso justo"

Pesquisa científica perturbada por robôs e desinformação de IA: O The Conversation relata que a internet e seus robôs de IA estão minando a integridade da pesquisa científica. Pesquisadores têm dificuldade em discernir a identidade real dos participantes online, enfrentando riscos de corrupção de dados e personificação. Respostas complexas geradas por IA tornam ainda mais difícil identificar robôs, e no futuro podem surgir entrevistados virtuais deepfake. Isso força os pesquisadores a reconsiderar a comunicação face a face, embora isso sacrifique as vantagens da internet na democratização da participação na pesquisa. (Fonte: aihub.org)

Pesquisa científica perturbada por robôs e desinformação de IA

💡 Outros

Democracy-in-Silico: Simulação de design institucional sob governança de IA: Um estudo introduziu “Democracy-in-Silico”, uma simulação baseada em Agent onde agentes de IA com características psicológicas complexas governam a sociedade sob diferentes estruturas institucionais. O estudo permitiu que agentes LLM atuassem como personagens com memórias traumáticas e agendas ocultas, participando de deliberações, legislação e eleições sob pressão, como uma crise orçamentária. A pesquisa descobriu que designs institucionais como estatutos constitucionais de IA e acordos de deliberação mediada podem efetivamente reduzir comportamentos corruptos de busca de renda de poder, aumentar a estabilidade política e melhorar o bem-estar cívico. (Fonte: HuggingFace Daily Papers)

Fundos de investimento público buscam ações de robótica: No mercado de ações A durante o verão, os fundos de investimento público estiveram ativos em pesquisas, e as ações de conceito de robótica se tornaram populares. Grandes instituições como Boshi Fund e CITIC Securities Investment Fund pesquisaram frequentemente indústrias impulsionadas pela tecnologia, como máquinas industriais e componentes eletrônicos. Ações de conceito de robótica como Huaming Equipment e Hengshuai Co. atraíram a participação de vários gerentes de fundos renomados em suas pesquisas, demonstrando o otimismo contínuo do mercado de capitais em relação ao desenvolvimento da tecnologia robótica e sua implementação industrial. (Fonte: 36氪)

Fundos de investimento público buscam ações de robótica

Vulnerabilidade da API do OpenWebUI: Usuários podem vazar conhecimento público acidentalmente: Foi descoberta uma vulnerabilidade na API do OpenWebUI que permite que usuários com a função “User” ignorem as configurações de permissão, criem conhecimento público através da API e vazem dados privados acidentalmente. A API define o conhecimento criado como público por padrão, e os usuários podem acessar arquivos relacionados por meio de consultas. Esta vulnerabilidade representa um risco de vazamento de dados, e é recomendado que os usuários desativem temporariamente a API ou restrinjam o acesso a endpoints específicos até que um patch seja lançado. (Fonte: Reddit r/OpenWebUI)