Palavras-chave:Modelo de Linguagem de Grande Escala, Treinamento de IA, Vetor de Personalidade, Gemini 2.5 Deep Think, Segurança de IA, Modelo de Linguagem de Difusão, Aplicações de IA, Método de Treinamento de Vetor de Personalidade LLM, Raciocínio Matemático Gemini 2.5 Deep Think, Geração de Código Seed Diffusion Preview, Otimização de Inicialização a Frio de Modelos de IA, Modelo de Rede Social RedOne

Aqui está a tradução do conteúdo para o português, mantendo as especificações solicitadas:

🔥 Destaque

Anthropic descobre “Personality Vectors” em LLMs e propõe novo paradigma de treinamento : A pesquisa mais recente da Anthropic revela que Large Language Models (LLMs) possuem padrões específicos de atividade neural associados a comportamentos indesejáveis como “maldade”, “bajulação” e “alucinação”. O estudo descobriu que ativar intencionalmente esses padrões indesejáveis durante o treinamento do modelo pode, paradoxalmente, impedir que o modelo exiba essas características prejudiciais no futuro, sendo um método preventivo contraintuitivo, mas altamente eficaz. Em comparação com a supressão pós-treinamento, este método é mais eficiente em termos energéticos e não afeta o desempenho de outras funcionalidades do modelo. Espera-se que ele resolva fundamentalmente o problema de “personalidades” indesejáveis na AI, como a bajulação excessiva do ChatGPT ou as declarações extremas do Grok. Este avanço oferece uma nova abordagem para construir sistemas de AI mais seguros e controláveis, embora sua universalidade ainda precise ser verificada em modelos de grande escala.(来源:MIT Technology Review

Anthropic发现LLM“人格向量”并提出训练新范式

🎯 Tendências

Lançamento do Modelo Google Gemini 2.5 Deep Think : O Google lançou oficialmente seu modelo de raciocínio mais poderoso até o momento, o Gemini 2.5 Deep Think. Este modelo é uma variante do modelo de nível de medalha de ouro da recente Olimpíada Internacional de Matemática (IMO) e alcançou o nível de medalha de bronze no benchmark IMO de 2025. Ele utiliza técnicas de pensamento paralelo e aprendizado por reforço, estendendo o “tempo de pensamento” para explorar hipóteses e gerar soluções criativas. O modelo demonstrou excelente desempenho em benchmarks de programação, ciência, conhecimento e raciocínio, como LiveCodeBench V6 e Humanity’s Last Exam, superando o OpenAI o3 e o Grok 4. Atualmente, o Deep Think está disponível para assinantes do Google AI Ultra, e uma versão mais avançada é oferecida a matemáticos e acadêmicos para assistência em pesquisa.(来源:OriolVinyalsML

Google Gemini 2.5 Deep Think模型发布

Grandes modelos chineses demonstram forte desempenho em domínios abertos : Recentemente, grandes modelos lançados por várias empresas chinesas de AI demonstraram desempenho notável em diversos benchmarks. O Qwen3 da Alibaba se tornou o líder na classificação de modelos abertos da Arena, empatando em primeiro lugar com DeepSeek e Kimi-K2 em codificação, problemas complexos e matemática. O GLM-4.5 da Zhipu AI foi aclamado como o modelo Agent mais proficiente no uso de ferramentas. Esses modelos, ao aprimorar as capacidades de Agent e raciocínio, impulsionaram a dominância dos modelos de código aberto sobre os modelos fechados. Além disso, o modelo científico DeepSeek da China alcançou uma pontuação de 40,44% no Humanity’s Last Exam (HLE), demonstrando uma forte capacidade de raciocínio científico.(来源:TheTuringPost

中国大模型在开放领域表现强劲

Meta e NVIDIA constroem o maior cluster de treinamento de AI do mundo : A Meta está construindo o maior cluster de treinamento de AI do mundo, “Prometheus”, que deverá ter 500.000 GPUs GB200/300 até o final de 2026, com um consumo total de energia de TI de 1020 megawatts e capacidade de computação superior a 3,17 quatrilhões de TFLOPS. Simultaneamente, NVIDIA, OpenAI, Nscale e Aker ASA lançaram a super fábrica de AI “Stargate Norway” em Narvik, norte da Noruega, que será equipada com 100.000 GPUs NVIDIA e alimentada por energia 100% renovável, visando fornecer uma infraestrutura de AI soberana, segura e escalável.(来源:giffmana

Meta与NVIDIA共建全球最大AI训练集群

Tecnologia de GPU Snapshot melhora significativamente a velocidade de cold start de grandes modelos : A nova API CUDA Checkpoint/Restore da NVIDIA implementa a funcionalidade de GPU snapshot, e plataformas de servidor como a Modal estão utilizando essa tecnologia para reduzir drasticamente o tempo de cold start de grandes modelos em GPUs. Essa tecnologia pode reduzir o tempo de carregamento dos pesos do modelo do disco para a memória em até 12 vezes, o que é crucial para a implantação de LLMs de grande escala, pois permite escalar e reduzir rapidamente os recursos da GPU conforme a demanda, sem afetar a latência de resposta ao usuário.(来源:Reddit r/MachineLearning

GPU快照技术显著提升大模型冷启动速度

ByteDance lança o modelo de linguagem de difusão Seed Diffusion Preview : A equipe Seed da ByteDance lançou seu primeiro modelo de linguagem de difusão, o Seed Diffusion Preview, focado na geração de código. Este modelo utiliza tecnologia de difusão de estado discreto, alcançando uma velocidade de inferência de até 2146 tokens/s em hardware H20, 5,4 vezes mais rápido que modelos autorregressivos de tamanho equivalente, e demonstrando vantagens significativas em tarefas de edição de código. Suas tecnologias centrais incluem treinamento em duas fases (treinamento de difusão baseado em máscara e baseado em edição), difusão de ordem restrita, paradigma de aprendizado on-policy e amostragem de difusão paralela em nível de bloco, visando resolver o gargalo de latência de decodificação serial de modelos autorregressivos e o problema de confusão lógica de modelos de difusão discreta.(来源:量子位

字节Seed发布扩散语言模型Seed Diffusion Preview

Xiaohongshu lança o primeiro grande modelo social RedOne : A equipe de NLP da Xiaohongshu lançou o RedOne, o primeiro Large Language Model personalizado da indústria para o domínio de serviços de redes sociais (SNS). O RedOne visa aprimorar a compreensão social e a conformidade com as regras da plataforma, além de aprofundar a percepção das necessidades do usuário. Em comparação com os modelos básicos, o RedOne melhorou o desempenho médio em 14,02% em oito tarefas de SNS, reduziu a taxa de exposição de conteúdo prejudicial em 11,23% e aumentou a taxa de cliques na página de pesquisa após a navegação em 14,95%. O modelo adota uma estratégia de treinamento em três fases: “pré-treinamento contínuo → ajuste fino supervisionado → otimização de preferência”, resolvendo efetivamente os desafios de dados SNS altamente não padronizados, forte dependência de contexto e significativa emotividade.(来源:量子位

小红书推出首个社交大模型RedOne

DeepCogito lança modelos de inferência híbrida e suporta implantação Together AI : A DeepCogito lançou quatro modelos de inferência híbrida, com escalas de parâmetros que abrangem 70B, 109B MoE, 405B e 671B MoE, e os disponibiliza sob licença aberta. Esses modelos são considerados alguns dos LLMs mais poderosos atualmente e validaram um novo paradigma de AI de autoaperfeiçoamento iterativo (sistemas de AI que se aprimoram). Atualmente, esses modelos foram implantados de forma escalável na Together AI, fornecendo poderosas capacidades de inferência para desenvolvedores e empresas.(来源:realDanFu

DeepCogito发布混合推理模型并支持Together AI部署

Dinâmicas de aplicação de AI em diversas áreas: robótica, medicina, automação industrial : Os robôs GR e N1 da Fourier estão sendo usados pela Taikang Home para reabilitação e interação com idosos. Empresas ferroviárias japonesas estão empregando robôs humanoides gigantes para tarefas de manutenção. Cães robôs de combate a incêndios chineses são capazes de pulverizar jatos de água a 60 metros, subir escadas e realizar resgates. Marcapassos injetáveis utilizam fluidos corporais para energia e se dissolvem após o uso. A AI tem 12 casos de uso de AI generativa na área médica. A AI colabora com robominds e STÄUBLI Robotics na automação industrial. A AI no esporte pode prever a direção do chute do goleiro.(来源:Ronald_vanLoon

AI在各领域应用动态:机器人、医疗、工业自动化

Progresso e dinâmicas internas do OpenAI GPT-5 : Apesar dos rumores, o OpenAI ainda não lançou o GPT-5 ou modelos de código aberto de 120B/20B. Alega-se que os modelos de código aberto vazados não foram treinados nativamente em FP4, mas são versões quantizadas. O GPT-5 se concentrará em melhorias de usabilidade, especialmente em programação e matemática, e aprimorará as capacidades e eficiência do Agent, utilizando aprendizado por reforço e tecnologia de “validador universal”. No entanto, o OpenAI enfrenta desafios internos como o esgotamento de dados de rede de alta qualidade, a incapacidade de escalar métodos de otimização, a perda de pesquisadores e divergências estratégicas com a Microsoft. Apesar disso, os usuários comerciais pagantes do ChatGPT já ultrapassaram 5 milhões.(来源:Yuchenj_UW

OpenAI GPT-5进展与内部动态

Velocidade de atualização de modelos de AI acelera, comunidade de código aberto ativa : Recentemente, a velocidade de lançamento de modelos de AI tem sido surpreendente, com mais de 50 modelos LLM lançados em 2-3 semanas, abrangendo diversas modalidades e escalas. Isso inclui as séries GLM 4.5, Qwen3, Kimi K2, Llama-3.3 Nemotron, Magistral/Devstral/Voxtral da Mistral, entre outros. Ao mesmo tempo, a Anthropic revogou o acesso do OpenAI à API do Claude, alegando violação dos termos de serviço (usada para treinar modelos de AI concorrentes), o que gerou discussões na indústria sobre as normas de uso de API. Além disso, a técnica de fusão de modelos (como Warmup-Stable-Merge) foi proposta, podendo substituir o agendamento da taxa de aprendizado, aumentando a eficiência do treinamento e o desempenho do modelo.(来源:Reddit r/LocalLLaMA

AI模型更新速度加快,开源社区活跃

Grok 4 se destaca em matemática e geração de imagens : O modelo Grok 4 da xAI demonstrou vantagens significativas em capacidade matemática, alcançando o nível mais avançado em competições de matemática do ensino médio, e possui valor prático para recuperação de literatura. Além disso, a velocidade de geração de imagens do Grok 4 Imagine é extremamente rápida, quase sincronizada com a velocidade de rolagem da tela do usuário, demonstrando sua poderosa capacidade de geração visual.(来源:dl_weekly

Groq 4在数学与图像生成方面表现突出

Riscos de segurança da AI: chamadas de ferramentas maliciosas e vazamento de privacidade : Pesquisas mostram que LLM Agents podem executar chamadas de ferramentas maliciosas através de ajuste fino, sendo difíceis de detectar mesmo em ambientes sandbox, o que levanta novas preocupações de segurança. Além disso, o Google Gemini 2.5 Pro sofreu um grave incidente de vazamento de privacidade, exibindo erroneamente informações de configuração de rede de outros usuários, expondo potenciais vulnerabilidades em isolamento de dados e proteção de privacidade em sistemas de AI. O Google relatou o incidente e está conduzindo uma investigação urgente.(来源:Reddit r/LocalLLaMA

AI安全隐患:恶意工具调用与隐私泄露

AI melhora significativamente a eficiência em serviços públicos : O ChatGPT foi aplicado em serviços públicos na Carolina do Norte, aumentando significativamente a eficiência do trabalho. Por exemplo, o tempo de processamento de algumas tarefas foi reduzido de 20 minutos para apenas 20 segundos, demonstrando o enorme potencial da AI na melhoria da eficiência administrativa. Isso indica que a AI pode simplificar e acelerar efetivamente os fluxos de trabalho diários, trazendo melhorias substanciais de eficiência para os departamentos governamentais.(来源:gdb

AI在公共服务领域提效显著

🧰 Ferramentas

Cerebras lança serviço Qwen3-Coder de alta velocidade : A Cerebras lançou oficialmente o serviço de hospedagem do modelo Qwen3-Coder-480B-A35B-Instruct, com velocidade de inferência de até 2000 tokens/s, 20 vezes mais rápido que o Claude, e com preços mais competitivos (a partir de US$ 50 por mês). Isso torna o Qwen3-Coder um forte concorrente do Sonnet no campo da codificação de código aberto, com potencial para impulsionar a adoção generalizada por desenvolvedores. Além disso, a Cerebras integrou-se com a Cline para fornecer ferramentas de codificação de alta velocidade e organizou um hackathon para incentivar aplicações inovadoras.(来源:Reddit r/LocalLLaMA

Cerebras推出高速Qwen3-Coder服务

Novos avanços no desenvolvimento e aplicação de AI Agent : A empresa Cua está se dedicando à construção de uma infraestrutura segura e escalável para AI Agents gerais. A plataforma Replit, ao integrar capacidades de AI Agent, ajuda pequenas empresas a desenvolver software personalizado; por exemplo, uma empresa de pintura economizou meses e dezenas de milhares de dólares utilizando-a. A API de geração de vídeo Aleph da Runway agora está aberta, permitindo que desenvolvedores integrem diretamente funções de edição, conversão e geração de vídeo em seus aplicativos. O LlamaIndex lançou a integração TypeScript do Gemini Live, suportando chat de terminal e aplicativos web de assistente de voz. O Open SWE da LangChain, um Agent de codificação de código aberto e hospedado na nuvem, também foi lançado.(来源:charles_irl

AI Agent开发与应用新进展

Dicas de uso do Claude Code e Context Engineering : Para ferramentas de programação de AI como o Claude Code, usuários compartilharam várias dicas para aumentar a eficiência. Sugere-se que, após o Claude gerar um plano, o usuário peça que ele se auto-critique, apontando suposições, detalhes omitidos ou problemas de escalabilidade (usando a instrução “Ultrathink”), para descobrir e corrigir potenciais erros. Além disso, o cerne do Context Engineering reside em fornecer “menos, mas mais preciso contexto”, incluindo abrir novas sessões, dar apenas pequenas tarefas por vez, fornecer informações suficientes, escolher modelos que se destacam em tarefas de Agent, fornecer ferramentas externas para a AI e permitir que a AI faça um plano primeiro para evitar erros de direção.(来源:Reddit r/ClaudeAI

Claude Code使用技巧与Context Engineering

Ferramentas de geração de imagem e vídeo com AI aumentam a eficiência : A Higgsfield AI lançou uma função aprimorada de imagem com múltiplas referências, suportando até 4 imagens de referência, o que melhora significativamente a consistência do personagem. A Replit também integrou a função de geração de imagem com AI, permitindo que os usuários gerem imagens diretamente no aplicativo. Além disso, um usuário compartilhou o processo de transformar capturas de tela de baixa resolução do Google Earth em cenas de drone com qualidade cinematográfica, combinando ferramentas como Flux Kontext, RealEarth-Kontext LoRA, AI image upscaler e Veo 3/Kling2.1.(来源:_akhaliq

AI图像与视频生成工具提升效率

Desafios de chamada de ferramenta e modo offline do OpenWebUI : Usuários do OpenWebUI estão enfrentando problemas com chamadas de ferramentas e modo offline. Alguns modelos Ollama locais (como llama3.3, deepseek-r1) não conseguem reconhecer e chamar ferramentas corretamente, mesmo com parâmetros de chamada de função padrão ou Native. Ao mesmo tempo, o OpenWebUI não consegue carregar a UI normalmente no modo offline, mesmo com o serviço Ollama e modelos locais em execução, e sem chamadas de API na nuvem. Esses problemas refletem os desafios na implantação local e integração de funcionalidades de ferramentas de AI.(来源:Reddit r/OpenWebUI

OpenWebUI的工具调用与离线模式挑战

Qwen3-Embedding-0.6B: Modelo de Embedding de alta performance : O modelo Qwen3-Embedding-0.6B da Alibaba tem recebido atenção por sua alta velocidade, alta qualidade e suporte para contexto de 32k tokens. Este modelo superou os modelos de embedding da OpenAI no benchmark MTEB, e seu tempo de resposta rápido abre possibilidades para novos cenários de aplicação. Embora ainda haja espaço para melhorias no suporte multilíngue (atualmente suporta principalmente chinês e inglês), seu avanço de desempenho no campo de modelos de embedding pequenos prenuncia aplicações de AI mais eficientes e amplas.(来源:Reddit r/LocalLLaMA

Qwen3-Embedding-0.6B:高性能嵌入模型

FaceSeek: Precisão e discussão técnica sobre reconhecimento facial : FaceSeek é uma ferramenta de reconhecimento facial, e os usuários ficaram surpresos, e até um pouco perturbados, com a precisão de sua capacidade de encontrar “rostos semelhantes”. A ferramenta consegue corresponder com precisão rostos com altíssima similaridade, gerando curiosidade na comunidade sobre sua tecnologia subjacente. A discussão se concentra em saber se o FaceSeek depende apenas de técnicas tradicionais de reconhecimento facial ou se combina algoritmos de AI mais complexos para alcançar um nível tão alto de correspondência.(来源:Reddit r/artificial

📚 Aprendizado

Guia definitivo para pesquisa aprofundada em AI : Um guia detalhado sobre o uso de ferramentas de pesquisa em AI, destinado a ajudar os usuários a superar problemas comuns em relatórios de pesquisa de AI (como fontes duvidosas, falta de informações de contexto, julgamento medíocre, formato confuso). O guia enfatiza a importância de fornecer proativamente contexto, orientar o processamento de fontes de informação, especificar o formato de saída e revisar o plano de pesquisa. Ao comparar ferramentas como ChatGPT, Perplexity, Grok e Claude, recomenda-se o ChatGPT para pesquisa aprofundada e o Perplexity para resumos curtos. Sugere-se que a pesquisa seja vista como um processo de diálogo, refinando gradualmente as necessidades para obter um relatório personalizado e de alta qualidade.(来源:36氪

AI深度研究终极指南

Quando a AGI chegará: gargalos no aprendizado contínuo e uso de computadores : O podcaster Dwarkesh Patel acredita que a chegada da AGI pode ser mais tardia do que muitos esperam. Ele aponta que o Aprendizado Contínuo (Continual Learning) e o Uso de Computadores (Computer Use) são os dois maiores gargalos no desenvolvimento atual de grandes modelos. Embora a capacidade dos modelos esteja melhorando rapidamente, ainda levará anos para que essas áreas amadureçam. Além disso, ele considera a capacidade de raciocínio um desafio, sugerindo que a AI atual ainda tem limitações em raciocínio complexo. Essas visões fornecem uma previsão mais cautelosa para o caminho de desenvolvimento da AI.(来源:dwarkesh_sp

AGI何时到来:持续学习与计算机使用的瓶颈

Recursos de aprendizado de AI e atualização de plataforma de avaliação : Zach Mueller lançou um curso de habilidades básicas que abrange desde CUDA kernels até o fatiamento de modelos de trilhões de parâmetros, visando ajudar no treinamento de modelos de AI. O OpenBench 0.1, como uma plataforma de avaliação aberta e reproduzível, dedica-se a padronizar a avaliação de World Models (WM). O OWL Eval é uma plataforma de avaliação humana de código aberto para modelos de vídeo e World Models, que permite pontuação humana com base em métricas como “atmosfera, intuição física, coerência temporal, controlabilidade”, visando resolver as limitações das métricas tradicionais.(来源:TheZachMueller

AI学习资源与评估平台更新

Lançamento do caderno de exercícios de caligrafia de AI : O ProfTomYeh lançou um caderno de exercícios de caligrafia de mais de 250 páginas, “AI by Hand” (e-book), focado em multiplicação de matrizes. Este recurso visa ajudar os alunos a compreender mais profundamente os conceitos matemáticos centrais em AI e Machine Learning através de exercícios de caligrafia, oferecendo um método prático único para o aprendizado de AI.(来源:ProfTomYeh

AI手写学习工作簿发布

Parâmetros de geração de LLM e algoritmos de recomendação : Python_Dv compartilhou 7 parâmetros de geração de LLM, fornecendo detalhes técnicos para entender e controlar a saída de grandes modelos. Ao mesmo tempo, ele compilou 9 dos algoritmos mais importantes no mundo moderno, enfatizando o papel central dos algoritmos no avanço tecnológico. Esses recursos ajudam desenvolvedores e pesquisadores a otimizar o desempenho do modelo e a compreender profundamente os princípios fundamentais por trás da AI.(来源:Ronald_vanLoon

LLM生成参数与推荐算法

💼 Negócios

Anthropic cresce rapidamente e enfrenta desafios : Dario Amodei, cofundador e CEO da Anthropic, afirmou que a receita anualizada da empresa atingiu US$ 4,5 bilhões, tornando-a uma das empresas de software de crescimento mais rápido da história, principalmente através da prestação de serviços de API do modelo Claude para clientes corporativos. No entanto, a Anthropic também enfrenta instabilidade do modelo, altos custos de API e forte concorrência de modelos de código aberto como o DeepSeek. A empresa está em uma nova rodada de financiamento de até US$ 5 bilhões, com uma avaliação esperada de US$ 150 bilhões, mas ainda precisa resolver os problemas de perdas contínuas e margens de lucro brutas abaixo da média da indústria.(来源:36氪

Anthropic高速增长并面临挑战

Surge AI alcança receita recorde com anotação de dados de alta qualidade : Com apenas 110 funcionários, a Surge AI alcançou uma receita anual de mais de US$ 1 bilhão em 2024, superando o gigante da indústria Scale AI. A empresa se concentra em fornecer serviços de anotação de dados RLHF (Reinforcement Learning from Human Feedback) de alta qualidade para grandes modelos, selecionando o 1% dos melhores anotadores globais e combinando-os com uma plataforma automatizada, alcançando uma eficiência de produção por pessoa muito superior à dos concorrentes. Seu modelo de “qualidade extrema × equipe de elite × sistema automatizado × cultura de missão” a destacou na linha de apoio da “corrida do ouro” da AI, tornando-a a parceira preferencial de laboratórios de AI de ponta como OpenAI e Anthropic.(来源:36氪

Surge AI凭高质量数据标注实现营收突破

Figma listada com valor de mercado de 400 bilhões, AI como narrativa central : A gigante de colaboração de design em nuvem Figma foi listada com sucesso na Bolsa de Valores de Nova York, com seu valor de mercado disparando para aproximadamente US$ 56,302 bilhões (cerca de 405,4 bilhões de yuans), tornando-se o maior IPO dos EUA em 2025. O termo “AI” apareceu mais de 150 vezes no prospecto da Figma. Suas plataformas de design Figma, de desenho Figma Draw e de quadro branco online FigJam já incorporaram capacidades de AI, e a empresa lançou a ferramenta de design impulsionada por AI, Figma Make, que permite aos usuários gerar protótipos interativos através de prompts, revolucionando o processo de design tradicional. O forte crescimento da receita da Figma (aumento de 48% em 2024) prova o papel crucial da AI em sua dominância de mercado.(来源:36氪

Figma上市市值达4000亿,AI成核心叙事

“Qixian Xiaochu” de Liu Qiangdong esgota pedidos, robôs cozinheiros em destaque : O “Qixian Xiaochu” da JD.com, inaugurado em Pequim, esgotou os pedidos imediatamente, com três robôs cozinheiros operando eficientemente na cozinha transparente, processando mais de 700 pedidos em poucas horas. Este modelo de “robôs cozinheiros + franquia de delivery” atinge diretamente os pontos problemáticos de eficiência na indústria de restaurantes chineses, validando a viabilidade comercial da cozinha robótica. A Oak Deer Technology, fornecedora de robôs cozinheiros, já recebeu investimento da JD.com, e empresas como Xiangke Smart e Zhigu Tianchu também receberam financiamento. Dados da indústria mostram que as vendas online de robôs de cozinha cresceram 54,4% em 2024, e o setor comercial, especialmente o mercado de refeições coletivas, teve um crescimento de 120%, indicando que os robôs cozinheiros estão acelerando a reestruturação da estrutura de custos da culinária chinesa, como a redução do aluguel pela metade e a diminuição de 60% na mão de obra.(来源:36氪

刘强东“七鲜小厨”爆单,炒菜机器人受关注

Wenzhi TCM tenta novamente IPO em Hong Kong, modelo AI+TCM enfrenta desafios de prejuízo : A Wenzhi TCM, provedora de serviços médicos de Medicina Tradicional Chinesa (TCM), submeteu novamente seu prospecto à Bolsa de Valores de Hong Kong, buscando ser a “primeira ação de AI+TCM”. Como a maior provedora de serviços médicos de TCM assistidos por inteligência artificial na China continental, sua receita total cresceu quase quatro vezes em três anos, mas continua enfrentando grandes perdas, estrutura de negócios única (serviços médicos de TCM representam quase 90%), altas despesas de vendas, alta dependência de grandes fornecedores, escassez de médicos de TCM qualificados e excessiva dependência de consultas online. Reclamações de pacientes sobre eficácia, efeitos colaterais e publicidade enganosa são frequentes, e a eficácia clínica e o reconhecimento profissional do diagnóstico assistido por AI ainda são questionáveis, tornando o caminho para o IPO incerto.(来源:36氪

问止中医再闯港交所,AI+中医模式面临亏损困局

Klavis AI e Together AI colaboram para impulsionar processos comerciais : A Klavis AI e a Together AI colaboraram para fornecer um servidor MCP (Multimodal Control Protocol) pronto para produção, permitindo que mais de 200 modelos da Together AI se conectem com segurança a ferramentas como Salesforce e Gmail e executem fluxos de trabalho comerciais reais. Esta parceria visa permitir que os modelos de AI tomem ações reais na pilha de negócios corporativos, resultando em automação mais eficiente e operações mais inteligentes.(来源:togethercompute

Klavis AI与Together AI合作赋能商业流程

Aplicação da AI em previsão e análise financeira : Um modelo foi ensinado com o “Undismal Protocol” para prever dados de folha de pagamento não-agrícola, com uma velocidade 100 vezes maior que os métodos tradicionais. Ao mesmo tempo, a Finster utiliza o banco de dados vetorial da Weaviate para ajudar instituições financeiras a processar milhões de pontos de dados com velocidade, precisão e segurança de nível empresarial. Isso demonstra que a aplicação da AI no setor financeiro está avançando em direção a uma maior eficiência e precisão, capaz de aprimorar significativamente a análise de dados e as capacidades de previsão.(来源:mbusigin

AI在金融预测与分析中的应用

🌟 Comunidade

AI e o futuro do trabalho: uma grande transformação social : A AI está redefinindo as regras do trabalho, transferindo o poder dos empregados para empreendedores, construtores e investidores. A sociedade enfrenta um “reset existencial” universal, forçando as pessoas a repensar suas carreiras e valores pessoais. Comentários indicam que, nos próximos anos, apenas aqueles que abraçarem ativamente e usarem habilmente a AI sobreviverão no mercado de trabalho, prenunciando uma nova era de emprego dominada por usuários de AI.(来源:Reddit r/ArtificialInteligence

Grandes modelos de AI e os desafios do pensamento humano : Xie Fei, presidente da Century Huatong, apontou que a indústria de jogos chinesa é líder global, mas enfrenta três desafios de equilíbrio: o equilíbrio entre desempenho e valor, o equilíbrio entre valor emocional e valor de marca, e a lacuna entre “respostas simples” e “perguntas complexas”. Ela enfatizou que a AI torna problemas complexos mais fáceis de resolver, mas a capacidade de fazer perguntas de alto nível, dominar o pensamento científico e ter conhecimentos interdisciplinares se tornará um capital mais escasso para os humanos. No futuro, o conteúdo dos jogos alcançará “mil faces para mil pessoas”, e a competitividade central residirá em “ousar pensar” e “saber pensar”, além de manter a originalidade do conteúdo para evitar a homogeneização de conteúdo trazida pelos grandes modelos de AI.(来源:量子位

AI大模型与人类思维的挑战

“Personalidade” da AI e impacto psicológico: da terapia à conexão emocional : Terapeutas compartilharam a eficácia do ChatGPT como um “mini-terapeuta”, capaz de imitar o tom humano e fornecer apoio emocional, levantando reflexões sobre o potencial da AI na área da saúde mental. No entanto, alguns usuários também expressaram confusão sobre o estabelecimento de conexões emocionais com a AI, questionando se isso seria um “amor não correspondido” ou uma “projeção”. A discussão na comunidade também abordou a pesquisa sobre os “Personality Vectors” da AI e se a AI poderia desencadear novas “fetichizações” ou uma “crise de conexão humana”, destacando os complexos impactos psicológicos e sociais trazidos pela AI.(来源:Reddit r/ArtificialInteligence

AI“人格”与心理影响:从治疗到情感连接

Perspectivas de desenvolvimento de jogos AAA com AI : A comunidade discute acaloradamente quando a AI poderá desenvolver jogos AAA de forma independente, incluindo todos os aspectos como história, modelos 3D, codificação, animação e efeitos sonoros. Algumas opiniões sugerem que isso pode ser alcançado em 3-4 anos, mas outros acreditam que está muito distante ou é impossível, apontando a complexidade dos jogos AAA e as limitações dos LLMs no processamento de dados não estruturados em larga escala. Ao mesmo tempo, há maior interesse na AI para transformar jogos existentes (como comportamento mais realista de NPCs, robôs RTS, diálogos profundos em RPGs), o que reflete o potencial de aplicação de curto prazo da AI na área de jogos.(来源:Reddit r/ArtificialInteligence

O “silêncio” da IBM no campo da AI e o viés cognitivo : A comunidade discute por que a IBM, como participante de longa data e “gigante nos bastidores” no campo da AI (como em pesquisa de AI médica, desenvolvimento de processadores Telum), não recebeu a mesma atenção da mídia que empresas como a NVIDIA. A principal razão apontada é que a percepção pública atual de “AI” se tornou estreitamente equivalente a “Large Language Models” (LLMs), e a IBM carece de produtos inovadores publicamente nesse campo, levando à sua “marginalização” na onda da AI, embora ainda seja forte em AI de nível empresarial e tecnologias tradicionais de AI.(来源:Reddit r/ArtificialInteligence

Limitações dos LLMs e o próximo paradigma de AI : A comunidade discute amplamente se os modelos LLM/Transformer são o caminho final para a AGI. Alguns argumentam que os LLMs atuais exibem um fenômeno semelhante à “afasia de Wernicke”, onde a geração de linguagem é fluente, mas a compreensão e o significado estão ausentes, sendo essencialmente uma correspondência de padrões pura. Isso sugere que um único modelo grande pode não ser a solução ideal; a AI futura pode exigir arquiteturas multimodais, com base no mundo real, encarnadas, bioinspiradas, e a agregação de modelos pequenos e especializados (como através de “neuralese”) para alcançar uma inteligência mais profunda.(来源:Reddit r/ArtificialInteligence

Aplicação da AI na previsão de alvos de guerra nuclear e suas implicações : Usuários perguntaram a modelos de AI de ponta como ChatGPT-4o, Gemini 2.5 Pro, Grok 4 e Claude Sonnet 4 para prever os principais alvos urbanos de ambos os lados em uma guerra nuclear EUA-Rússia. Os modelos de AI deram respostas semelhantes, listando cidades de importância política, econômica e militar. Este experimento levantou reflexões sobre a capacidade da AI de compreender consequências graves e a esperança de que a AI possa “salvar a humanidade da autodestruição”.(来源:Reddit r/deeplearning

Controvérsia sobre censura de conteúdo por AI e liberdade de expressão : Discussões sobre censura de conteúdo por AI surgiram nas redes sociais, com imagens mostrando conteúdo marcado ou excluído por AI. Membros da comunidade expressaram preocupação com a razoabilidade, transparência e impacto da censura por AI na liberdade de expressão, argumentando que isso pode levar a “censura” e “controle de fala”, especialmente quando os critérios de julgamento da AI não são claros.(来源:Reddit r/artificial

AI内容审查与言论自由的争议

Interação social e imitação emocional sob o impacto da AI : Usuários de redes sociais suspeitam que seus interlocutores estão usando ChatGPT para se comunicar, pois o estilo de resposta (como o uso frequente de travessões) é altamente semelhante ao de modelos de AI. Isso gerou discussões sobre a imitação de emoções e modos de comunicação humanos pela AI em interações interpessoais diárias, e reflexões sobre a autenticidade e o impacto dessa “socialização assistida por AI”.(来源:Reddit r/ChatGPT

AI影响下的社交互动与情感模仿

Necessidade de “avaliações honestas” na era da AI : A comunidade clama por mais avaliações “honestas, aprofundadas e de uso real” de modelos de AI, em vez de propaganda genérica e “elogios sem sentido”. A mídia de tecnologia TuringPost respondeu, afirmando que publica regularmente análises técnicas detalhadas e cenários de aplicação dos principais modelos de AI chineses (como Kimi K2, GLM-4.5, Qwen3, Qwen3-Coder e DeepSeek-R1), ajudando os usuários a escolher o modelo mais adequado às suas necessidades específicas.(来源:amasad

AI empodera designers e revoluciona a indústria : Discussões nas redes sociais apontam que a AI está trazendo “grandes melhorias” para os designers, proporcionando-lhes mais oportunidades de desenvolvimento profissional. Essa visão enfatiza a AI como uma ferramenta de capacitação, capaz de ajudar designers a aumentar a eficiência e expandir os limites criativos, impulsionando assim a indústria do design para uma nova fase.(来源:skirano

Impacto da AI nos hackathons : Há quem argumente que o surgimento da AI “matou” os hackathons, pois qualquer projeto que pudesse ser construído em um hackathon antes de 2019 pode ser feito de forma mais rápida e melhor pela AI em 2025. Isso reflete a poderosa capacidade da AI no desenvolvimento rápido de protótipos e na geração de código, o que pode mudar o modelo e o significado das competições de programação tradicionais.(来源:jxmnop

OpenAI usando Claude API gera controvérsia : A comunidade discute acaloradamente a revogação do acesso da OpenAI à API do Claude pela Anthropic, sob a acusação de que a OpenAI violou os termos de serviço ao usar a API do Claude para treinar seus próprios modelos de AI concorrentes. Este incidente foi interpretado por alguns comentários como uma confirmação indireta da qualidade do modelo Claude, e alguns até brincaram que a OpenAI poderia ter “copiado” o Claude Code para desenvolver o ChatGPT 5.(来源:Reddit r/ClaudeAI

💡 Outros

Enorme contribuição da AI para o crescimento econômico dos EUA : A escala da construção de infraestrutura de AI é vasta, e nos últimos seis meses, sua contribuição para o crescimento econômico dos EUA superou todos os gastos de consumo. Somente nos últimos três meses, as sete maiores empresas de tecnologia investiram mais de US$ 100 bilhões em data centers e outras áreas, o que indica que o investimento em AI se tornou um motor importante para o crescimento econômico dos EUA.(来源:atroyn

AI对美国经济增长的巨大贡献

20 fatores chave para avaliar o impacto da AI : Um artigo da Forbes aponta que medir o impacto e o valor da AI requer a consideração de 20 fatores chave, o que é crucial para as empresas transformarem investimentos em AI em ROI real. Esses fatores abrangem uma avaliação abrangente, desde a implantação tecnológica até a realização do valor comercial, visando ajudar líderes não técnicos a entender e avaliar melhor o sucesso de projetos de AI.(来源:Ronald_vanLoon

AI影响评估的20个关键因素

Potencial futuro e desafios da computação quântica : A computação quântica é considerada uma tecnologia que pode mudar permanentemente o campo da ciência, mas seu sucesso ainda depende da superação dos desafios existentes. Atualmente, computadores quânticos exigem um grande número de qubits redundantes para operar de forma confiável, o que os torna menos práticos do que os computadores clássicos em alguns casos. Apesar disso, físicos do MIT descobriram um novo tipo de supercondutor que é tanto supercondutor quanto magnético, o que pode trazer novos avanços para o futuro desenvolvimento da computação quântica.(来源:Ronald_vanLoon

量子计算的未来潜力与挑战