Palavras-chave:redes neurais físicas, treinamento de IA, substituição de GPU, revisão da Nature, otimização de eficiência energética, PNNs isomórficos, PNNs de isomorfismo quebrado, sistemas de computação óptica, redes neurais de vibração mecânica, redes neurais físicas eletrônicas, problema de acumulação de ruído, análise de viabilidade comercial

🔥 Destaques

Nature publica revisão sobre “Redes Neurais Físicas” para superar a dependência de GPU : A Nature revisa as Redes Neurais Físicas (PNNs), que utilizam sistemas físicos como luz, eletricidade e vibração para computação, prometendo romper os gargalos tradicionais da GPU e alcançar um treinamento e inferência de AI mais eficientes e econômicos em energia. As PNNs são divididas em tipos homogêneos e de quebra de simetria, já validadas em sistemas ópticos, mecânicos e eletrônicos, com diversas técnicas de treinamento. O futuro exige otimização conjunta de hardware e software, e a eficiência energética precisa ser milhares de vezes maior para viabilidade comercial. Os desafios incluem acúmulo de ruído, adaptação de hardware e equilíbrio entre formas neuromórficas e físicas.(Fonte:36氪

摆脱GPU依赖,Nature发布「物理神经网络」综述:实现大规模、高效AI训练与推理

Google se beneficia de reviravolta : O Google venceu o processo antitruste do século, evitando a divisão de seus negócios Chrome e Android, principalmente devido ao surgimento da AI generativa (como o ChatGPT), que mudou o cenário da concorrência no mercado. Os chatbots de AI são vistos como uma alternativa poderosa aos motores de busca tradicionais. Embora a decisão restrinja alguns acordos de exclusividade do Google, ela removeu a ameaça de divisão, impulsionando o preço de suas ações. Além disso, o valor do negócio de TPU do Google foi reavaliado, sendo considerado uma alternativa forte à NVIDIA, com potencial para desafiar o cenário do mercado de poder de computação de AI.(Fonte:36氪

谷歌因祸得福

Apple lança dois modelos de AI on-device: volume do modelo reduzido pela metade, latência da primeira palavra 85x menor, uso offline instantâneo no iPhone : A Apple lançou os modelos multimodais on-device FastVLM e MobileCLIP2 no Hugging Face. O FastVLM, através do seu codificador FastViTHD desenvolvido internamente, alcança baixa latência (primeira palavra 85 vezes mais rápida) com entrada de alta resolução, suportando legendas em tempo real. O MobileCLIP2, mantendo alta precisão, tem seu volume reduzido pela metade, permitindo a recuperação e descrição de imagens offline no iPhone. Esses modelos já estão disponíveis com Demos e toolchains, marcando a realidade de executar grandes modelos no iPhone, melhorando a privacidade e a velocidade de resposta.(Fonte:36氪

苹果端侧AI两连发,模型体积减半、首字延迟降85倍,iPhone离线秒用

Até Terence Tao ficou impressionado: o3 da OpenAI domina “Olimpíadas de Matemática de AI”, equipe open-source persegue com apenas 5 pontos de diferença : O modelo o3 da OpenAI venceu a segunda Olimpíada de Matemática de Inteligência Artificial (AIMO2) com a pontuação máxima de 47 pontos (de 50), demonstrando uma poderosa capacidade de raciocínio matemático de nível olímpico. Testes mostram que o investimento em poder de computação está positivamente correlacionado com o desempenho do modelo, e com os mesmos recursos computacionais, a diferença entre os modelos open-source e o modelo comercial (o3) está diminuindo, com os cinco principais modelos open-source combinados marcando apenas 5 pontos a menos que o o3. Isso marca um avanço significativo da AI no campo do raciocínio matemático avançado.(Fonte:36氪

陶哲轩都惊了,o3首战「AI奥数」碾压夺冠,开源军团仅差5分狂追OpenAI

🎯 Tendências

Claude não está disponível para nós, alternativas nacionais podem substituí-lo? : A Anthropic restringiu os serviços do Claude Code para a China, provocando um esforço concentrado de grandes modelos nacionais (como Kimi-K2-0905 da Moonshot AI e Qwen3-Max-Preview da Alibaba) no campo da geração de código. O Kimi-K2-0905 atinge um comprimento de contexto de 256k, otimizando o desenvolvimento front-end e a chamada de ferramentas, com compatibilidade de API com a Anthropic. Os modelos nacionais demonstram competitividade em desempenho e preço, com potencial para preencher lacunas de mercado e mudar o cenário global da concorrência em programação de AI.(Fonte:36氪

Claude不让我们用,国产平替能顶上吗?

Inteligência Artificial Geral (AGI) já chegou : O artigo propõe que a AGI já está entre nós, e não é algo do futuro. A AI que alcança cobertura funcional completa em papéis específicos (como programação) já é AGI. Seu desenvolvimento dará origem a “empresas nativas da inteligência” e “empresas sem humanos”, com a AI se tornando o principal agente de criação de valor e a colaboração humano-máquina se aprofundando. A rápida evolução da AI levará à reconstrução de tudo, e os antigos modelos de negócios podem ser subvertidos. É necessário dominar o paradigma de criação de valor, e não a tecnologia em si, e cultivar uma mentalidade de AI para se adaptar a um mundo de dependência invertida.(Fonte:36氪

通用人工智能(AGI)已经来了

Especialistas em AI dizem: Onde estão as oportunidades para startups de AI da próxima geração? Quais são as tendências de preços? : Bret Taylor, presidente do conselho da OpenAI, acredita que as principais oportunidades para startups de AI estão no mercado de aplicativos, enfatizando a importância da autorreflexão do Agent. Kevin Weil, CPO da OpenAI, aponta quatro sinais para produtos de AI da próxima geração: avanços no raciocínio, interfaces de serviço proativas (memória, visão, voz), valor determinado pela conclusão da tarefa e acessibilidade global. A tendência de preços da AI está mudando para modelos híbridos, com preços baseados em resultados não sendo aplicáveis a curto prazo, o valor da transparência de preços sendo superestimado, e a maioria das empresas não estando preparada para lidar com a rápida mudança nos preços da AI.(Fonte:36氪

Explosão de hardware de AI para o consumidor na IFA, AI deixa de ser um plug-in de função para se tornar o cérebro da casa : A IFA 2025 mostra a AI passando do conceito para a praticidade, tornando-se o “cérebro nos bastidores” que melhora a experiência do produto. A AI penetra profundamente em eletrodomésticos como geladeiras, máquinas de lavar e condicionadores de ar, realizando compreensão visual e serviços proativos, enfatizando o “valor emocional”. As casas inteligentes estão mudando de “tudo controlável” para “tudo autônomo”, com a AI atuando como um centro para coordenar os dispositivos domésticos, como Samsung SmartThings e LG ThinQ ON. A AI também “ilumina” hardware tradicional como bonecas e ferros de passar, dotando-os de capacidade de compreensão e processamento.(Fonte:36氪

IFA消费级AI硬件大爆发,AI不再是功能插件,而是家居大脑

7 grandes setores que a Inteligência Artificial assumirá até 2026 : Analistas de dados que estudam os padrões de aplicação de AI em empresas da Fortune 500 preveem que a AI transformará completamente sete grandes setores em 3-5 anos: finanças, diagnóstico médico, transporte e logística, serviços jurídicos, criação de conteúdo e marketing, atendimento ao cliente e suporte, e controle de qualidade na fabricação. A AI lidará com tarefas rotineiras, permitindo que os humanos se concentrem em exceções e decisões estratégicas. A velocidade da transformação é exponencial; os pioneiros se beneficiarão, enquanto os que se adaptarem tardiamente enfrentarão interrupções na carreira. O relatório oferece uma estrutura de estratégia de carreira.(Fonte:36氪

AI para iPhone na China, finalmente será lançado : A Apple planeja lançar o Apple Intelligence no mercado chinês até o final do ano, em colaboração com a Alibaba para criar um sistema on-device, e com a Baidu para fornecer suporte ao Siri e inteligência visual. O Siri também receberá uma ferramenta de busca de AI “answer engine”, possivelmente com suporte do Google, e a integração de grandes modelos de terceiros está sendo considerada. Essas medidas visam aprimorar a compreensão do Siri em chinês e a capacidade de busca de conteúdo local, fortalecendo a competitividade da Apple no mercado de ponta da China.(Fonte:36氪

Um médico de AI chega ao cenário médico : O diagnóstico assistido por AI está passando de “brincadeira” para ferramenta clínica, com as atitudes dos médicos divididas. A AI evoluiu em três estágios: reconhecimento de imagens médicas, triagem inteligente e pré-diagnóstico auxiliar, e diagnóstico personalizado impulsionado por grandes modelos. A China possui ricos casos de prática local, como a Clínica Inteligente de AI da Baidu Health, o Assistente Médico Inteligente da iFlytek e o Tencent Miying. No entanto, a implementação ainda enfrenta desafios como confiança, ciclo fechado de dados e atribuição de responsabilidade. A tendência futura é a fusão de “grandes modelos + pequenos modelos” para um diagnóstico especializado aprimorado.(Fonte:36氪

医疗江湖来了位AI医生

A demanda por interconexão de alta velocidade em AIDC não para, OCS será a próxima resposta? : Com o crescimento exponencial do volume de dados nos data centers de AI, o OCS (Optical Circuit Switch), como solução de comutação totalmente óptica, promete resolver os problemas de latência e consumo de energia dos comutadores elétricos tradicionais. O OCS, ao reconfigurar o caminho físico dos sinais ópticos, elimina a etapa de conversão óptico-elétrica, alcançando baixa latência e baixo consumo de energia. O Google já introduziu amplamente o OCS em seus data centers, obtendo benefícios significativos. A NVIDIA lançou o Spectrum-XGS Ethernet, oferecendo amplas perspectivas para aplicações de OCS. Com a entrada de gigantes no mercado, o tamanho do mercado de OCS deve ultrapassar US$ 1,6 bilhão até 2029.(Fonte:36氪

🧰 Ferramentas

Quem não usar perde: Karpathy elogia GPT-5, “codifica em 10 minutos o que Claude leva uma hora”, Altman responde com agradecimento instantâneo : O especialista em AI Karpathy elogiou as poderosas capacidades de codificação do GPT-5 Pro, afirmando que ele resolveu em 10 minutos um problema que o Claude Code não conseguiu resolver em uma hora. O presidente da OpenAI, Greg Brockman, também declarou que o GPT-5 Pro é a próxima geração para codificação. O Codex, o agente de programação de AI da OpenAI, teve seu desempenho disparado após a integração do GPT-5, com o uso aumentando dez vezes em duas semanas, sendo considerado uma ferramenta poderosa que supera Devin, GitHub Copilot e outros produtos.(Fonte:36氪

谁不用谁亏,Karpathy吹爆GPT-5:10分钟编码完胜Claude一小时,奥特曼秒回感谢

NVIDIA lança sistema de pesquisa profunda universal, compatível com qualquer LLM e personalizável : A NVIDIA lançou o sistema Universal Deep Research (UDR), que suporta personalização individual e pode ser conectado a qualquer Large Language Model (LLM). O UDR permite que os usuários definam estratégias de pesquisa em linguagem natural e as compilem em código executável, automatizando os fluxos de trabalho de pesquisa. Sua arquitetura agnóstica de modelo e interface controlada pelo usuário aumentam a eficiência e a flexibilidade da pesquisa, e reduzem os custos de inferência de LLM através do agendamento de CPU.(Fonte:36氪

英伟达推出通用深度研究系统,可接入任何LLM,支持个人定制

Kouzi Space, secretamente completou o AI Office : O “Kouzi Space” da ByteDance foi atualizado para um “espaço de escritório de AI completo”, cobrindo funções como escrita de AI, PPT, design, Excel, páginas da web, podcasts e muito mais. A plataforma visa permitir que usuários comuns usem facilmente a AI para aprender e trabalhar, ao mesmo tempo em que oferece uma plataforma de ferramentas de AI para desenvolvedores através da “Kouzi Development Platform” e “Kouzi Compass” de código aberto. O Kouzi Space enfatiza a integração do “Doubao Large Model” subjacente para otimização de desempenho de ponta a ponta, oferecendo uma experiência de produto “estilo babá” e um rico ecossistema MCP.(Fonte:36氪

扣子空间,偷偷搞全了AI Office

Reddit r/LocalLLaMA: Beelzebub Canary Tools for AI Agents : Beelzebub é um framework Go de código aberto que fornece “ferramentas canário” (honeypot tools) para agentes de AI, usadas para detectar problemas de segurança como prompt injection e tool hijacking. Ao implantar essas ferramentas que parecem reais, mas são inofensivas, alertas de alta fidelidade podem ser emitidos assim que são invocadas, ajudando a garantir a segurança dos agentes de AI.(Fonte:Reddit r/LocalLLaMA

Reddit r/MachineLearning: TerraCode CLI : TerraCode CLI é um assistente de codificação de AI que aprende o domínio do usuário e o conhecimento organizacional. Ele compreende toda a estrutura da base de código através de indexação de código semântica, suporta o upload de documentos e especificações, facilita a transferência interativa de conhecimento e fornece análise e implementação de código inteligente e sensível ao contexto.(Fonte:Reddit r/MachineLearning

Reddit r/MachineLearning

The Machine Ethics podcast: Autonomy AI com Adir Ben-Yehuda : Adir Ben-Yehuda discutiu a Autonomy.ai, uma plataforma de automação de AI para desenvolvimento web front-end. A plataforma visa ajudar as empresas a entregar software mais rapidamente com código de nível de produção. A discussão também abordou a auto-otimização de LLM, substituição de empregos, Vibe Coding e a ética e salvaguardas de LLM.(Fonte:aihub.org

The Machine Ethics podcast: Autonomy AI with Adir Ben-Yehuda

dotey: Nano Banana Browser : Pietro Schirano construiu um “AI browser” baseado no Nano Banana, que pode gerar instantaneamente uma imagem de AI para cada site com base na URL. Os usuários podem até navegar para outros links, criando uma experiência de internet totalmente nova e gerada instantaneamente.(Fonte:dotey, osanseviero

Windsurf à beira do colapso por Devin: bugs constantes, “silêncio” oficial, milhões de usuários prestes a “fugir”? : O Windsurf tem enfrentado recentemente degradação de desempenho, bugs constantes e suporte oficial insuficiente, levando a reclamações e perda de usuários. Após a aquisição de parte de sua equipe pelo Google, as funcionalidades do Devin foram introduzidas no Windsurf, mas problemas de integração pioraram a experiência do usuário. Desenvolvedores pedem a correção de bugs, e usuários estão migrando para outras ferramentas de codificação, levantando preocupações sobre o futuro do produto Windsurf.(Fonte:36氪

Windsurf快被Devin搞垮了,bug不断、官方“装死”,百万用户要“跑”了?

📚 Aprendizagem

Stanford: “Batalha dos Deuses” dos otimizadores? AdamW vence por “estabilidade” / Prova chocante: ex-aluno de Yao Class da Tsinghua revela a armadilha do “aceleração de 1.4x”: Por que os otimizadores de AI não cumprem o prometido? : Pesquisas da equipe de Percy Liang na Universidade de Stanford e de Kaiyue Wen, ex-aluno da Yao Class da Tsinghua, indicam que, embora muitos novos otimizadores afirmem uma aceleração significativa em relação ao AdamW, o efeito de aceleração real é frequentemente menor do que o anunciado e diminui com o aumento do tamanho do modelo. O estudo enfatiza a importância de um ajuste rigoroso de hiperparâmetros e da avaliação no final do treinamento, e descobriu que otimizadores do tipo matricial têm um desempenho excelente em modelos pequenos, mas a escolha ideal está relacionada à “proporção dados-modelo”.(Fonte:36氪, 36氪

斯坦福:优化器「诸神之战」?AdamW 凭「稳定」胜出

TheTuringPost: Comprehensive Survey on Agentic RL : TheTuringPost compartilhou uma pesquisa abrangente sobre Agentic RL (Reinforcement Learning), cobrindo a transição de LLMs passivos para tomadores de decisão ativos, habilidades-chave (planejamento, ferramentas, memória, raciocínio, reflexão, percepção), cenários de aplicação, benchmarks, ambientes e frameworks, bem como os desafios e direções futuras.(Fonte:TheTuringPost, TheTuringPost

TheTuringPost

NandoDF: Agentic Design Patterns Book : Um engenheiro do Google lançou um livro gratuito de 424 páginas, “Agentic Design Patterns”, cobrindo engenharia de prompt avançada, frameworks multiagente, RAG, uso de ferramentas de agente e MCP, fornecendo exemplos de código práticos.(Fonte:NandoDF

NandoDF

dair_ai: Top AI Papers of The Week : A DAIR.AI divulgou a lista dos principais artigos de AI da semana (1 a 7 de setembro), cobrindo rStar2-Agent, agentes autoevolutivos, roteamento adaptativo de LLM, pesquisa profunda universal, raciocínio implícito em LLMs, causas de alucinações em modelos de linguagem e limitações da recuperação baseada em embeddings.(Fonte:dair_ai

karminski3: ML Engineer Performance Optimization Guide : O blogueiro “karminski-dentist” compartilhou um guia de otimização de desempenho para engenheiros de Machine Learning, explicando em profundidade por que os grandes modelos atuais são limitados pela largura de banda da memória e não pela capacidade de computação, fornecendo conhecimento prático de otimização de desempenho para engenheiros.(Fonte:karminski3, dotey

karminski3

💼 Negócios

OpenAI projeta receita de quase US$ 10 bilhões para o ChatGPT este ano, mas queimará US$ 115 bilhões até 2029 : A OpenAI projeta que a receita do ChatGPT atingirá quase US$ 10 bilhões este ano, mas queimará cumulativamente US$ 115 bilhões nos próximos cinco anos (2025-2029), principalmente para treinamento de modelos de AI, operações de data center e planos de construção de servidores próprios. Apesar do enorme consumo de capital, a OpenAI continua a receber investimentos de alta avaliação e planeja converter seu negócio com fins lucrativos para uma estrutura de capital tradicional em preparação para um IPO. A empresa enfrenta enormes despesas e pressão de concorrência por talentos, mas a perspectiva de receita melhorou, e ela espera monetizar usuários gratuitos para atingir margens de lucro de nível Facebook.(Fonte:36氪

OpenAI预计今年ChatGPT收入近100亿美元,2029年前将烧钱1150亿

Por trás do acordo de US$ 1.5 bilhão da Anthropic em caso de direitos autorais: Por que livros se tornaram o cerne do treinamento de AI : A Anthropic pagará pelo menos US$ 1.5 bilhão para resolver um processo coletivo, acusada de usar livros pirateados para treinar o Claude. Este caso é um marco nas disputas de direitos autorais de empresas de AI, revelando a importância dos livros como “corpus profundo” para grandes modelos. O valor do acordo é gerenciável para a avaliação da Anthropic e pode levar outras empresas de AI a seguir um “modelo de acordo”, incorporando riscos de infração de direitos autorais em suas estratégias de negócios, mas representa desafios de longo prazo para criadores e a indústria editorial.(Fonte:36氪

Anthropic花15亿美元和解版权案背后:书籍为何成AI训练核心

Após o sucesso do Nano Banana do Google, OpenAI gasta US$ 1.1 bilhão para comprar uma empresa : A OpenAI adquiriu a plataforma de experimentação de produtos Statsig por US$ 1.1 bilhão, nomeando seu fundador Vijaye Raji como CTO da divisão de aplicativos. Esta aquisição visa fortalecer as capacidades de produtização da OpenAI, acelerando a transformação de modelos de AI em produtos amados e práticos pelos usuários. Essa medida responde ao sucesso do projeto “nano banana” do Google, indicando que o foco da concorrência em AI está mudando do “poder bruto” do modelo para a “competição de experiência do produto”, com a OpenAI tentando compensar suas deficiências em iteração e otimização de produtos através de aquisições.(Fonte:36氪

谷歌nano banana成功后,OpenAI花11亿买了一家公司

🌟 Comunidade

O impacto da AI no mercado de trabalho e desenvolvimento de carreira : A AI está mudando profundamente o mercado de trabalho, levando à redução de vagas de nível inicial e podendo romper as tradicionais escadas de carreira. Especialistas preveem que a AI transformará completamente sete grandes setores (finanças, saúde, etc.) em 3-5 anos. A competição por talentos em AI é acirrada, com a demanda por cargos de alta remuneração aumentando, mas também gerando pressão para que os funcionários existentes façam a transição. Gerentes de produto seniores com mais de 30 anos são mais procurados na era da AI devido à sua profunda compreensão de negócios e arquitetura técnica, enquanto a popularização das ferramentas de AI permite que indivíduos “paguem para vencer” no desenvolvimento de carreira.(Fonte:36氪, 36氪, 36氪, 36氪, Reddit r/artificial, Reddit r/ChatGPT, Ronald_vanLoon, Ronald_vanLoon

AI人才竞争激烈:大厂AI岗需求增10倍,3个月不创新或被淘汰,有实习生日薪超千元

Discussão sobre alucinações de AI e confiabilidade do modelo : Pesquisas da OpenAI revelam que as alucinações de AI derivam de mecanismos de avaliação que recompensam a adivinhação em vez de reconhecer a incerteza, forçando os modelos a se tornarem “alunos de teste”. Usuários relatam que o GPT-5 Pro é poderoso em codificação, mas deficiente em escrita criativa, e que os modelos dão opiniões contraditórias em áreas críticas como conselhos médicos. A comunidade discute a não-determinismo da AI e a tendência do Claude Code CLI para “soluções simples”, o que reflete as preocupações e desafios contínuos dos usuários em relação à confiabilidade, precisão e padrões de comportamento dos modelos de AI.(Fonte:36氪, 36氪, mbusigin, JimDMiller, eliebakouch, ZeyuanAllenZhu, Reddit r/artificial, Reddit r/ClaudeAI

OpenAI重组GPT-5「灵魂」团队,亚裔女负责人遭调离,罕见自曝AI幻觉祸首

Ética social da AI e relações humano-máquina : Uma pesquisa mostra que 25% dos jovens aceitam namorar AI, com homens mais dispostos que mulheres, prenunciando um mundo de relações íntimas humano-máquina. No entanto, a AI também levanta preocupações sobre a evolução humana e o potencial da AI para criar realidades falsas que podem levar à “deriva cognitiva”, erodindo a realidade compartilhada. A sugestão de Geoffrey Hinton de dotar a AI de “instintos maternos” provoca discussões sobre ética e valores da AI. Ao mesmo tempo, o surgimento da arte de AI leva as pessoas a refletir sobre a definição de arte e o valor da criação humana.(Fonte:36氪, Reddit r/artificial, Reddit r/artificial, Reddit r/ArtificialInteligence, Reddit r/ArtificialInteligence, Reddit r/ArtificialInteligence

25%年轻人都想和AI谈恋爱,美国最新调查:男性比女性更想要AI朋友

Reflexões sobre hardware de AI e experiência do usuário : Hardware de AI externo, como o AI Key, tenta aprimorar as capacidades de AI do telefone, mas o artigo questiona sua necessidade, argumentando que o próprio telefone já é uma poderosa plataforma de AI, e hardware de AI independente como o Humane Ai Pin e o Rabbit R1 falharam na cadeia de suprimentos e na experiência do usuário. Embora o mercado de pets de AI esteja em alta, o feedback dos usuários indica mais valor emocional do que sensação de companhia, com os motivadores de compra sendo principalmente o “brinquedo” em si. Essas discussões refletem uma profunda reflexão do mercado sobre o posicionamento do produto de hardware de AI, sua praticidade e as reais necessidades dos usuários.(Fonte:36氪, 36氪, Reddit r/LocalLLaMA, Reddit r/LocalLLaMA

一个能让 iPhone 用上 AI 的配件,1300 万人围观,但我觉得大可不必

Controvérsia sobre a metodologia de avaliação de modelos de AI : A comunidade está debatendo intensamente a eficácia das avaliações de modelos de AI (Evals). Alguns argumentam que as Evals não estão mortas, mas são essenciais para validar a funcionalidade do sistema, precisando estar alinhadas com os problemas do usuário e evitando generalizações. Outros sugerem que o teste A/B faz parte das Evals e enfatizam a substituição de “eval” por “experiment” para um pensamento mais claro. Simultaneamente, a dependência excessiva de LLMs em experimentos de ML leva a bugs, provocando uma reflexão sobre o equilíbrio entre a confiabilidade do código e a estrutura experimental.(Fonte:HamelHusain, sarahcat21, Reddit r/MachineLearning

Experiência do usuário e preferências entre OpenAI e Claude : As experiências e preferências dos usuários para os modelos OpenAI e Claude diferem. Grandes nomes como Karpathy elogiam a destreza de codificação do GPT-5 Pro, mas alguns usuários reclamam do baixo desempenho do modo de roteador do GPT-5 na leitura de artigos. Enquanto isso, muitos usuários do Claude Code estão cancelando ou fazendo downgrade de suas assinaturas devido à degradação do desempenho, migrando para o GPT-5 Codex. Essas discussões refletem as comparações detalhadas dos usuários sobre o desempenho, confiabilidade e experiência do usuário de diferentes ferramentas de AI para tarefas específicas.(Fonte:aidan_mclau, imjaredz, Reddit r/ClaudeAI

aidan_mclau

Poder de computação de AI e gargalos de infraestrutura : A memória de hardware é considerada um gargalo para a AI generativa; o crescimento da escala dos modelos Transformer supera em muito o crescimento da memória dos aceleradores, levando a um mundo “limitado pela memória”. Simultaneamente, os recursos computacionais/de memória necessários para gerar imagens parecem muito menores do que para modelos de texto, levantando questões sobre a eficiência da alocação de recursos. Na implantação prática, um orçamento de €5000 para um servidor de inferência de LLM para 24 alunos também destaca os desafios dos custos de computação e infraestrutura de AI.(Fonte:mbusigin, EERandomness, Reddit r/LocalLLaMA

mbusigin

Visão da AGI e discussão sobre a essência da AI : A comunidade discute a definição de AGI (Inteligência Artificial Geral) e se a natureza da AI é “assustadora e profana”, especialmente ao entender seus mecanismos complexos. Alguns acreditam que a OpenAI é uma combinação dos melhores departamentos de CS e da crença em AGI, mas outros se preocupam com os riscos da AI, vendo as questões geopolíticas como o maior risco atual, e a própria AI como um risco futuro. Simultaneamente, a definição de código-fonte na era da codificação de AI está sendo repensada, sugerindo que deve ser um conteúdo “relacionado à memória” compreensível tanto por humanos quanto por LLMs.(Fonte:menhguin, Teknium1, jam3scampbell, scaling01, bigeagle_xd

nptacek: Pay to Win in Career with AI : Nathan Lambert e nptacek discutem como, atualmente, ao pagar por melhores ferramentas de AI (como o GPT-5 Pro), pode-se “pagar para vencer” na carreira, uma dinâmica semelhante aos videogames, enfatizando o enorme impulso que as ferramentas de AI proporcionam à produtividade individual.(Fonte:nptacek

teortaxesTex: OpenAI User Chats Retention : Discute a atual ordem judicial que obriga a OpenAI a reter indefinidamente todos os registros de chat dos usuários, e os potenciais problemas de regulamentação governamental decorrentes de laboratórios de AI que armazenam grandes quantidades de dados de pensamentos humanos privados.(Fonte:teortaxesTex

teortaxesTex

💡 Outros

Taobao testa “Ajude-me a Escolher”, AI realmente vai ajudar as pessoas a gastar dinheiro agora : O Taobao está testando “Ajude-me a Escolher”, uma função de guia de compras de e-commerce com AI, visando otimizar a experiência de compra do usuário, mudando de empoderar comerciantes para intervir nos processos de compra do consumidor. Essa medida é uma extensão da estratégia de e-commerce com AI da Alibaba, para responder à mudança do comportamento do usuário para a busca por AI e à diminuição da capacidade de descrever necessidades com precisão. O surgimento de aplicativos de compras com AI (como “Compre para Mim” da Amazon, OpenAI Operator) aproveita a confiança cega dos usuários na AI, posicionando a AI como um “mentor de compras” para encurtar o caminho da transação.(Fonte:36氪

淘宝开测“帮我挑”,这下AI真要帮大家花钱了

Óculos inteligentes dominam a IFA: Interação AR como padrão, produtos “simplificam” para um momento de transformação qualitativa : Na IFA 2025, a categoria de óculos inteligentes vive um “momento de transformação qualitativa”. Produtos como o BleeqUp Ranger “simplificam” ao focar em mercados de nicho (ex: ciclismo), otimizando a duração da bateria e funções profissionais. A exibição AR e interações diversificadas tornam-se padrão para linhas de produtos gerais, como a tela de guia de ondas ópticas dos Rokid Glasses e a interação por touchpad/anel do INMO. A indústria está mudando de “o que os fabricantes fornecem” para “o que os usuários co-criam” no ecossistema de aplicativos.(Fonte:36氪

智能眼镜狂卷IFA:AR交互成标配,产品“做减法”迎质变时刻

Hu Yong: Na era da AI, “humanidades são úteis” : O Professor Hu Yong aponta que, embora a era da AI traga riscos de “descarregamento cognitivo”, as disciplinas de humanidades se tornam mais importantes do que nunca. Ele enfatiza “o que é do homem, é do homem; o que é da máquina, é da máquina”, afirmando que a AI não pode substituir a cognição corporificada, as emoções, a motivação para aprender e a criatividade em nível planetário dos humanos. A educação deve cultivar habilidades sociais como comunicação, colaboração e pensamento crítico, e idealizar o “aprendizado sem notas”. As humanidades e ciências sociais ajudam a humanidade a se conhecer e a lidar com os impactos sociais da AI.(Fonte:36氪

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *