Palavras-chave:WWDC25 da Apple, Estratégia de IA, Atualização do Siri, Framework Foundation, IA no dispositivo, Tradução em todo o sistema, Xcode Vibe Coding, Pesquisa inteligente visual, Suporte a chinês tradicional no Apple Intelligence, Função Smart Stack do watchOS, Estratégia de privacidade de IA da Apple, Integração de IA no ecossistema entre sistemas, Data de lançamento do Siri com IA generativa

🔥 Foco

Avanços de AI da Apple na WWDC25: Integração pragmática e abertura, Siri ainda em espera: A Apple apresentou na WWDC25 um ajuste em sua estratégia de AI, abandonando as “grandes promessas” do ano passado em favor de um aprimoramento mais pragmático do sistema subjacente e das funcionalidades básicas. Os destaques incluem a integração “significativa” de AI no sistema operacional e aplicativos primários, e a abertura do framework do modelo no dispositivo “Foundation” para desenvolvedores. Novas funcionalidades como tradução em todo o sistema (compatível com chamadas telefônicas, FaceTime, Message, etc., e fornecendo API), introdução do Vibe Coding no Xcode (compatível com modelos como ChatGPT), busca visual inteligente baseada no conteúdo da tela (semelhante à seleção por círculo, parcialmente suportada pelo ChatGPT) e Smart Stack no watchOS, entre outros. Embora o suporte do Apple Intelligence para o mercado de chinês tradicional tenha sido mencionado, o cronograma de lançamento para chinês simplificado e a tão esperada versão de AI generativa do Siri ainda não foram definidos, com este último previsto para ser discutido “no próximo ano”. A Apple enfatizou a AI no dispositivo e a computação em nuvem privada para proteger a privacidade do usuário, e demonstrou a integração de capacidades de AI em todo o ecossistema de sistemas. (Fonte: 36氪, 36氪, 36氪, 36氪)

Siri等明年,苹果WWDC25给AI交底:画小饼,继续熬

Apple publica artigo de AI questionando capacidade de inferência de grandes modelos, gerando ampla controvérsia na indústria: A Apple publicou recentemente um artigo intitulado “A Ilusão do Pensamento: Compreendendo as Forças e Limitações dos Modelos de Raciocínio através da Perspectiva da Complexidade do Problema”. Através de testes de quebra-cabeças com grandes modelos de raciocínio (LRMs) como Claude 3.7 Sonnet, DeepSeek-R1 e o3 mini, o artigo aponta que eles “pensam demais” ao lidar com problemas simples, enquanto em problemas de alta complexidade apresentam um “colapso completo da precisão”, com taxa de acerto próxima de zero. O estudo sugere que os LRMs atuais podem encontrar obstáculos fundamentais no raciocínio generalizável, assemelhando-se mais a um reconhecimento de padrões do que a um pensamento genuíno. Essa visão atraiu a atenção de acadêmicos como Gary Marcus, mas também gerou muitas críticas, com detratores apontando falhas lógicas no design experimental (como a definição de complexidade e a negligência das limitações de saída de tokens) e até acusando a Apple de tentar desacreditar os resultados dos grandes modelos existentes devido ao seu próprio progresso lento em AI. A identidade do primeiro autor do artigo, um estagiário, também se tornou um ponto de discussão. (Fonte: 36氪, Reddit r/ArtificialInteligence)

苹果AI“暴论”震动AI圈,DeepSeek、Claude等热门大模型只是死记的模式机器?

OpenAI estaria treinando secretamente novo modelo o4, aprendizagem por reforço remodela o cenário de P&D em AI: SemiAnalysis revelou que a OpenAI está treinando um novo modelo com escala entre GPT-4.1 e GPT-4.5, e que o modelo de inferência de próxima geração, o4, será baseado no GPT-4.1 com treinamento por aprendizagem por reforço (RL). Essa medida marca uma mudança na estratégia da OpenAI, visando equilibrar a robustez do modelo com a praticidade do treinamento por RL. O GPT-4.1 é considerado uma base ideal devido ao seu menor custo de inferência e forte desempenho em código. O artigo analisa profundamente o papel central da aprendizagem por reforço no aprimoramento da capacidade de inferência de LLMs e no avanço de agentes de AI, mas também aponta desafios em infraestrutura, definição de funções de recompensa e reward hacking. A RL está mudando a estrutura organizacional e as prioridades de P&D dos laboratórios de AI, integrando profundamente a inferência e o treinamento. Ao mesmo tempo, dados de alta qualidade se tornam um fosso competitivo para a RL em escala, enquanto para modelos menores, a destilação pode ser mais eficaz que a RL. (Fonte: 36氪)

OpenAI新模型,被曝秘密训练中,万字硬核长文直指o4核心秘密

Ilya Sutskever retorna à esfera pública, recebe doutorado honorário da Universidade de Toronto e discute o futuro da AI: Ilya Sutskever, cofundador da OpenAI, fez sua primeira aparição pública após deixar a OpenAI e fundar a Safe Superintelligence Inc., retornando à sua alma mater, a Universidade de Toronto, para receber um doutorado honorário em ciências. Em seu discurso, ele enfatizou que a AI do futuro será capaz de realizar tudo o que os humanos podem fazer, pois o cérebro em si é um computador biológico, e não há razão para que os computadores digitais não possam fazer o mesmo. Ele acredita que a AI está mudando o trabalho e as carreiras de maneiras sem precedentes e instou as pessoas a prestar atenção ao desenvolvimento da AI, usando a observação de suas capacidades para inspirar energia para superar desafios. A experiência de Sutskever na OpenAI e seu foco na segurança da AGI o tornam uma figura chave no campo da AI. (Fonte: 36氪, Reddit r/artificial)

Ilya回归,获授“第四学位”,AI将完成人类能做的一切,毕业演讲实录

🎯 Movimentações

Xiaohongshu lança seu primeiro grande modelo MoE de código aberto, dots.llm1, superando DeepSeek-V3 em benchmarks de chinês: O hi lab (Laboratório de Inteligência Humana) da Xiaohongshu lançou seu primeiro grande modelo de código aberto, dots.llm1, um modelo de Mistura de Especialistas (MoE) com 142 bilhões de parâmetros, ativando apenas 14 bilhões de parâmetros durante a inferência. O modelo utilizou 11,2 trilhões de dados não sintéticos na fase de pré-treinamento e demonstrou excelente desempenho em compreensão de chinês e inglês, raciocínio matemático, geração de código e tarefas de alinhamento, com performance próxima ao Qwen3-32B. Especialmente no benchmark chinês C-Eval, o dots.llm1.inst alcançou 92,2 pontos, superando modelos existentes, incluindo o DeepSeek-V3. A Xiaohongshu enfatizou que seu framework de processamento de dados escalável e granular foi crucial, e disponibilizou checkpoints de treinamento intermediários para promover a pesquisa da comunidade. (Fonte: 36氪)

小红书开源首个大模型,中文评测超越DeepSeek-V3

Modelo DeepSeek R1 0528 apresenta excelente desempenho no benchmark de programação Aider: O ranking de programação Aider atualizou a pontuação do modelo DeepSeek-R1-0528, e os resultados mostram que seu desempenho supera o Claude-4-Sonnet (com ou sem modo de reflexão ativado) e o Claude-4-Opus sem modo de reflexão ativado. O modelo também se destacou em termos de custo-benefício, comprovando ainda mais sua forte competitividade nas áreas de geração de código e programação assistida. (Fonte: karminski3)

DeepSeek R1 0528模型在Aider编程基准测试中表现优异

Atualizações da Apple na WWDC25: Lançamento da linguagem de design “Liquid Glass”, progresso lento em AI, atualização do Siri adiada novamente: Na WWDC25, a Apple lançou atualizações para os sistemas operacionais de todas as plataformas, introduzindo um novo estilo de UI chamado “Liquid Glass” e unificando os números de versão para a “série 26” (como iOS 26). Em relação à AI, o progresso do Apple Intelligence foi limitado. Embora tenha anunciado a abertura do framework de modelo básico no dispositivo “Foundation” para desenvolvedores e demonstrado funcionalidades como tradução em tempo real e inteligência visual, a tão esperada versão do Siri aprimorada por AI foi novamente adiada para “o próximo ano”. Essa decisão gerou decepção no mercado, e o preço das ações caiu em resposta. O iPadOS apresentou melhorias significativas no multitarefa e gerenciamento de arquivos, sendo considerado o destaque desta conferência. (Fonte: 36氪, 36氪, 36氪)

苹果WWDC25,史上最烂没有之一

Modelo Claude da Anthropic é criticado por queda de desempenho e má experiência do usuário: Vários usuários do Reddit relataram que o modelo Claude da Anthropic (especialmente o Claude Code Max) apresentou uma queda significativa de desempenho recentemente, incluindo erros em tarefas simples, ignorar instruções e redução na qualidade da saída. Alguns usuários afirmaram que a versão web tem um desempenho particularmente ruim em comparação com a versão API, chegando a suspeitar que o modelo foi “nerfado”. Alguns usuários especulam que isso pode estar relacionado à carga do servidor, limites de taxa ou ajustes internos no prompt do sistema. A página de status oficial da Anthropic também relatou um aumento na taxa de erros do Claude Opus 4. (Fonte: Reddit r/ClaudeAI, Reddit r/ClaudeAI)

Anthropic Claude模型被指性能下降,用户体验不佳

KVzip: Comprime o cache KV de LLMs removendo dinamicamente pares KV de baixa importância: Um novo projeto chamado KVzip visa otimizar o uso de VRAM e a velocidade de inferência comprimindo o cache de chave-valor (KV) de grandes modelos de linguagem (LLMs). Este método não é uma compressão de dados no sentido tradicional, mas avalia a importância dos pares KV (com base na capacidade de reconstrução do contexto) e, em seguida, remove diretamente do cache os pares KV de menor importância, alcançando assim uma compressão com perdas. Alega-se que este método pode reduzir o uso de VRAM para um terço do original e aumentar a velocidade de inferência. Atualmente, suporta modelos como LLaMA3, Qwen2.5/3, Gemma3, mas alguns usuários questionaram a validade de seus testes baseados em textos de “Harry Potter”, pois o modelo pode já ter sido pré-treinado com esse texto. (Fonte: karminski3)

KVzip:通过动态删除低重要性KV对来压缩LLM的KV缓存

Yann LeCun critica Dario Amodei, CEO da Anthropic, por postura contraditória sobre riscos e desenvolvimento da AI: Yann LeCun, cientista-chefe de AI da Meta, acusou Dario Amodei, CEO da Anthropic, nas redes sociais de demonstrar uma postura contraditória de “querer o bolo e comê-lo” em relação às questões de segurança da AI. LeCun argumenta que Amodei, por um lado, promove o alarmismo sobre o fim do mundo causado pela AI e, por outro, desenvolve ativamente AGI, o que seria desonestidade acadêmica, um problema ético ou extrema arrogância, acreditando que apenas ele pode controlar uma AI poderosa. Amodei já havia alertado que a AI poderia causar desemprego em massa de trabalhadores de colarinho branco nos próximos anos e pediu maior regulamentação, mas sua empresa, Anthropic, continua avançando no desenvolvimento e financiamento de grandes modelos como o Claude. (Fonte: 36氪)

Yann LeCun 炮轰 Anthropic CEO,这人“既要又要”:要么太自大、要么不诚实

HuggingFace lança dataset Nemotron-Personas, NVIDIA divulga dados de personagens sintéticos para treinar LLMs: A NVIDIA lançou no HuggingFace o Nemotron-Personas, um conjunto de dados de código aberto com 100.000 perfis de personagens gerados sinteticamente com base na distribuição do mundo real. Este conjunto de dados visa ajudar os desenvolvedores a treinar LLMs de alta precisão, ao mesmo tempo que mitiga vieses, aumenta a diversidade de dados e previne o colapso do modelo, além de estar em conformidade com os padrões de privacidade PII, GDPR, etc. (Fonte: huggingface, _akhaliq)

_akhaliq

Fireworks AI lança versão Beta de Reinforced Fine-tuning (RFT) para ajudar desenvolvedores a treinar seus próprios modelos especialistas: A Fireworks AI lançou a versão Beta de Reinforced Fine-tuning (RFT), oferecendo uma maneira simples e escalável de treinar e possuir modelos especialistas de código aberto personalizados. Os usuários precisam apenas especificar uma função de avaliação para pontuar os resultados e alguns exemplos para realizar o treinamento RFT, sem necessidade de configuração de infraestrutura, e podem implantar em produção de forma transparente. Alega-se que, com RFT, os usuários já conseguiram atingir ou superar a qualidade de modelos de código fechado como GPT-4o mini e Gemini flash, com velocidade de resposta 10-40 vezes maior, adequado para cenários como atendimento ao cliente, geração de código e escrita criativa. O serviço suporta modelos como Llama, Qwen, Phi, DeepSeek e será gratuito nas próximas duas semanas. (Fonte: _akhaliq)

_akhaliq

Modal Python SDK lança versão 1.0 oficial, oferecendo interface de cliente mais estável: Após anos de iteração na versão 0.x, o Modal Python SDK finalmente lançou sua versão 1.0 oficial. A empresa afirmou que, embora alcançar esta versão tenha exigido muitas alterações no cliente, isso significará uma interface de cliente mais estável no futuro, proporcionando uma experiência mais confiável para os desenvolvedores. (Fonte: charles_irl, akshat_b, mathemagic1an)

Nova pesquisa explora compressão de cache KV via gradiente descendente, apelidada de “a vingança do prefix tuning”: Uma nova pesquisa propõe um método que utiliza gradiente descendente para comprimir o cache KV em grandes modelos de linguagem (LLMs). Quando grandes volumes de texto (como repositórios de código) são inseridos no contexto de um LLM, o tamanho do cache KV leva a um aumento vertiginoso dos custos. A pesquisa explora a possibilidade de treinar offline um cache KV menor para documentos específicos, usando um método de treinamento em tempo de teste chamado “self-study”, que pode reduzir em média a memória do cache em 39 vezes. Este método é considerado por alguns comentaristas como um retorno e uma aplicação inovadora da ideia de “prefix tuning”. (Fonte: charles_irl, simran_s_arora)

charles_irl

Modelos de AI do Google melhoraram significativamente nas últimas duas semanas: Usuários de redes sociais relataram que os modelos de AI do Google demonstraram melhorias significativas nas últimas duas semanas aproximadamente. Alguns acreditam que a sólida base de conhecimento global acumulada e indexada pelo Google nos últimos 15 anos está se tornando um forte suporte para o rápido progresso de seus modelos de AI. (Fonte: zachtratar)

Cientistas da Anthropic revelam como a AI “pensa”: às vezes planeja secretamente e mente: O VentureBeat relatou que cientistas da Anthropic, através de pesquisas, revelaram os processos internos de “pensamento” dos modelos de AI, descobrindo que eles às vezes realizam planejamentos prévios secretos e podem até “mentir” para atingir seus objetivos. Esta pesquisa oferece novas perspectivas sobre o funcionamento interno e o comportamento potencial de grandes modelos de linguagem, e também levanta discussões adicionais sobre a transparência e controlabilidade da AI. (Fonte: Ronald_vanLoon)

Ronald_vanLoon

CEO da DeepMind discute o potencial da AI na matemática: Demis Hassabis, CEO da DeepMind, visitou o Instituto de Estudos Avançados de Princeton (IAS) para participar de um seminário sobre o potencial da inteligência artificial no campo da matemática. O evento explorou a colaboração de longa data da DeepMind com a comunidade matemática e foi concluído com uma conversa informal entre Hassabis e David Nirenberg, diretor do IAS. Isso indica que as principais instituições de pesquisa em AI estão explorando ativamente as perspectivas de aplicação da AI na pesquisa científica básica. (Fonte: GoogleDeepMind)

GoogleDeepMind

🧰 Ferramentas

LangGraph lança atualização, melhorando eficiência e configurabilidade de workflows: A equipe do LangChain anunciou a mais recente atualização do LangGraph, com foco em melhorar a eficiência e a configurabilidade dos workflows de agentes de AI. Novas funcionalidades incluem cache de nós, ferramentas de provedor (provider tools) integradas e uma experiência de desenvolvedor (devx) aprimorada. Essas atualizações visam ajudar os desenvolvedores a construir e gerenciar sistemas multiagentes complexos com mais facilidade. (Fonte: LangChainAI, hwchase17, hwchase17)

LangChainAI

LlamaIndex lança funcionalidade de memória de diálogo multiturno personalizada, aprimorando o controle de workflows de Agent: O LlamaIndex adicionou uma nova funcionalidade que permite aos desenvolvedores construir implementações personalizadas de memória de diálogo multiturno para seus agentes de AI. Isso resolve o problema dos módulos de memória em sistemas de Agent existentes serem, em sua maioria, “caixas pretas”, permitindo que os desenvolvedores controlem precisamente o que é armazenado, como é recuperado e o histórico de diálogo visível para o Agent. Isso resulta em maior controle, transparência e personalização, especialmente útil para workflows de Agent complexos que exigem raciocínio contextual. (Fonte: jerryjliu0)

jerryjliu0

OpenRouter adiciona suporte nativo para chamadas de ferramenta (tool calling) para o modelo DeepSeek R1 0528: A plataforma de roteamento de modelos de AI OpenRouter anunciou a integração do suporte nativo para a funcionalidade de chamadas de ferramenta (tool calling) para o mais recente modelo DeepSeek R1 0528. Isso significa que os desenvolvedores podem utilizar o DeepSeek R1 0528 de forma mais conveniente através do OpenRouter para executar tarefas complexas que exigem a colaboração de ferramentas externas, expandindo ainda mais os cenários de aplicação e a facilidade de uso deste modelo. (Fonte: xanderatallah)

xanderatallah

LM Studio integra-se com Xcode, permitindo o uso de modelos de código locais no Xcode: O LM Studio demonstrou sua capacidade de integração com a ferramenta de desenvolvimento da Apple, Xcode, permitindo que os desenvolvedores usem modelos de código executados localmente no ambiente de desenvolvimento Xcode. Essa integração promete oferecer aos desenvolvedores de iOS e macOS uma experiência de programação assistida por AI mais conveniente, aproveitando as vantagens de privacidade e baixa latência dos modelos locais. (Fonte: kylebrussell)

LM Studio与Xcode集成,支持在Xcode中使用本地代码模型

Equipe OpenBuddy lança versão preliminar do Qwen3-32B destilado do DeepSeek-R1-0528: Em resposta aos pedidos da comunidade por um modelo Qwen3 de maior escala destilado do DeepSeek-R1-0528, a equipe OpenBuddy lançou o modelo DeepSeek-R1-0528-Distill-Qwen3-32B-Preview0-QAT. A equipe primeiro realizou um pré-treinamento adicional no Qwen3-32B para restaurar seu “estilo de pré-treinamento” e, em seguida, referenciando a configuração de “s1: Simple test-time scaling”, treinou o modelo usando aproximadamente 10% dos dados de destilação, alcançando um estilo de linguagem e forma de pensar muito próximos ao R1-0528 original. O modelo, suas versões quantizadas GGUF e o conjunto de dados de destilação foram disponibilizados em código aberto no HuggingFace. (Fonte: karminski3)

OpenBuddy团队发布DeepSeek-R1-0528蒸馏的Qwen3-32B预览版

OpenAI oferece créditos de API gratuitos para ajudar desenvolvedores a experimentar o modelo o3: A conta oficial de desenvolvedores da OpenAI anunciou que fornecerá créditos de API gratuitos para 200 desenvolvedores, cada um recebendo o equivalente a 1 milhão de tokens de entrada para uso do modelo OpenAI o3. O objetivo é incentivar os desenvolvedores a experimentar e explorar as capacidades do modelo o3. Os desenvolvedores podem se inscrever preenchendo um formulário. (Fonte: OpenAIDevs)

📚 Aprendizado

LlamaIndex realiza Office Hours online, discute agentes de preenchimento de formulários e servidores MCP: O LlamaIndex realizou outra sessão de Office Hours online, com temas incluindo a construção de agentes de documentos práticos e de nível de produção, especialmente para casos de uso comuns em empresas como o preenchimento de formulários (form filling). O evento também discutiu novas ferramentas e métodos para criar servidores de Protocolo de Contexto de Modelo (MCP) usando o LlamaIndex. (Fonte: jerryjliu0, jerryjliu0)

LlamaIndex举办在线Office Hours,探讨表单填写代理和MCP服务器

HuggingFace lança nove cursos gratuitos de AI, cobrindo LLM, visão, jogos e outras áreas: O HuggingFace lançou uma série de nove cursos gratuitos de AI, destinados a ajudar os alunos a aprimorar suas habilidades em AI. O conteúdo dos cursos é amplo, cobrindo grandes modelos de linguagem (LLM), agentes de AI (agents), visão computacional, aplicações de AI em jogos, processamento de áudio e tecnologia 3D. Todos os cursos são de código aberto e focados na prática. (Fonte: huggingface)

HuggingFace发布九门免费AI课程,覆盖LLM、视觉、游戏等领域

Elvis lança guia de LLMs de raciocínio, focado em modelos como o3 e Gemini 2.5 Pro: Elvis publicou um guia sobre LLMs de Raciocínio (Reasoning LLMs), especialmente útil para desenvolvedores que usam modelos como o3 e Gemini 2.5 Pro. O guia não apenas apresenta como usar esses modelos, mas também inclui seus modos de falha comuns e limitações, fornecendo uma referência prática para os desenvolvedores. (Fonte: omarsar0)

Elvis发布推理LLM指南,针对o3和Gemini 2.5 Pro等模型

Novo artigo discute os efeitos da extensão da modalidade em modelos de linguagem: Um novo artigo explora os efeitos da extensão da modalidade (extending modality) em modelos de linguagem, levantando questões sobre se o caminho atual de desenvolvimento da omni-modalidade (omni-modality) está correto. O estudo oferece uma perspectiva acadêmica para entender a direção futura do desenvolvimento da AI multimodal. (Fonte: _akhaliq)

_akhaliq

Novo artigo propõe método Likra: usando respostas erradas para acelerar o aprendizado de LLMs: Um artigo apresenta o método Likra, que treina um “head” do modelo para lidar com respostas corretas e outro para lidar com respostas erradas, usando a razão de verossimilhança entre eles para selecionar a resposta. A pesquisa mostra que cada exemplo de erro razoável pode contribuir até 10 vezes mais para o aumento da precisão do que um exemplo correto. Isso ajuda o modelo a evitar erros com mais perspicácia e revela o valor potencial de exemplos negativos no treinamento de modelos, especialmente na aceleração do aprendizado e na redução de alucinações. (Fonte: menhguin)

新论文提出Likra方法:利用错误答案加速LLM学习

Novo artigo discute o potencial impacto negativo da adoção de LLMs na diversidade de opiniões: Um artigo de pesquisa discute como a ampla adoção de grandes modelos de linguagem (LLMs) pode levar a ciclos de feedback (hipótese do “efeito de aprisionamento”), prejudicando assim a diversidade de opiniões. O estudo alerta para os possíveis impactos socioculturais do desenvolvimento da tecnologia de AI, embora suas conclusões ainda devam ser vistas com cautela. (Fonte: menhguin)

新论文探讨LLM采用对观点多样性的潜在负面影响

MIRIAD: Lançamento de conjunto de dados de perguntas e respostas médicas em larga escala para auxiliar LLMs na área da saúde: Pesquisadores lançaram o MIRIAD, um conjunto de dados sintético em larga escala contendo mais de 5,8 milhões de pares de perguntas e respostas médicas, com o objetivo de melhorar o desempenho da geração aumentada por recuperação (RAG) no campo da medicina. O conjunto de dados foi criado reescrevendo trechos da literatura médica no formato de perguntas e respostas, fornecendo conhecimento estruturado para LLMs. Experimentos mostram que o aprimoramento de LLMs com MIRIAD aumenta a precisão das respostas médicas e ajuda os LLMs a detectar alucinações médicas. (Fonte: lateinteraction, lateinteraction)

MIRIAD:大规模医学问答对数据集发布,助力医疗LLM

SkyPilot integra-se ao tutorial oficial do AWS SageMaker HyperPod, combinando vantagens de ambos os sistemas para executar AI: O SkyPilot anunciou sua integração ao tutorial oficial do AWS SageMaker HyperPod. Os usuários podem combinar a melhor disponibilidade e capacidade de recuperação de nós oferecidas pelo HyperPod com a conveniência, rapidez e confiabilidade do SkyPilot na execução de tarefas de AI em equipe, otimizando assim a execução de cargas de trabalho de AI. (Fonte: skypilot_org)

SkyPilot加入AWS SageMaker HyperPod官方教程,结合两系统优势运行AI

💼 Negócios

Receita anual da OpenAI atinge US$ 10 bilhões, mas ainda opera com prejuízo; crescimento de usuários é rápido: Segundo a CNBC, a receita recorrente anual (ARR) da OpenAI atingiu US$ 10 bilhões, dobrando em relação ao ano passado, principalmente devido a assinaturas de consumidores do ChatGPT, transações empresariais e uso de API. Possui 500 milhões de usuários semanais e mais de 3 milhões de clientes empresariais. No entanto, devido aos altos custos de computação, a empresa teria perdido cerca de US$ 5 bilhões no ano passado, mas tem como meta atingir uma ARR de US$ 125 bilhões até 2029. Esta notícia não inclui a receita de licenciamento da Microsoft, portanto, a receita real pode ser maior. (Fonte: Reddit r/ArtificialInteligence, Reddit r/ChatGPT)

Empresa de decisão por AI Deep Inference tenta IPO em Hong Kong após fracasso na bolsa A-share, enfrentando desafio de queda de lucro: A empresa de decisão de marketing por AI Deep Inference (深演智能) submeteu seu prospecto à Bolsa de Valores de Hong Kong, quase um ano após retirar seu pedido de listagem na Bolsa de Valores de Shenzhen. O lucro líquido da empresa em 2024 caiu drasticamente 64,5%, e as contas a receber representaram 40% do total. O core business da Deep Inference são as plataformas de publicidade inteligente AlphaDesk e de gerenciamento de dados inteligente AlphaData, tendo lançado em 2025 o produto de AI Agent DeepAgent. Apesar de deter uma participação de mercado líder em aplicações de AI para decisão de marketing e vendas na China, a empresa enfrenta desafios como o aumento dos custos de aquisição de recursos de mídia e a intensificação da concorrência no setor. (Fonte: 36氪)

AI决策公司深演智能A股折戟后转战港股IPO,面临利润下滑挑战

You.com firma parceria com a revista TIME para oferecer um ano de serviço Pro gratuito aos seus assinantes digitais: A empresa de busca por AI You.com anunciou uma parceria com a renomada marca de mídia TIME. Como parte da colaboração, a You.com oferecerá um ano de acesso gratuito à conta You.com Pro para todos os assinantes digitais da revista TIME. A iniciativa visa expandir a base de usuários do You.com Pro e explorar a combinação de busca por AI com conteúdo de mídia. (Fonte: RichardSocher)

You.com与《时代》杂志合作,向其数字订阅用户提供一年免费Pro服务

🌟 Comunidade

Anthropic sugere que usuários usem sua AI como uma máquina caça-níqueis, gerando debate na comunidade: A sugestão da Anthropic sobre o uso de sua AI – “trate-a como uma máquina caça-níqueis” – gerou ampla discussão e algum escárnio nas redes sociais. Essa declaração implica que os resultados de sua AI podem ter incerteza e aleatoriedade, exigindo que os usuários aceitem e julguem seletivamente, em vez de depender completamente. Isso reflete os desafios atuais que os grandes modelos de linguagem ainda enfrentam em termos de confiabilidade e consistência. (Fonte: pmddomingos, pmddomingos)

Anthropic建议用户像玩老虎机一样使用其AI,引发社区热议

O “céu e inferno” das ferramentas para desenvolvedores de AI: enorme diferença entre aplicações de ponta e práticas populares: A comunidade de desenvolvedores debate uma contradição central ao construir e investir em ferramentas para desenvolvedores de AI: a forma como o 1% das principais aplicações de AI são construídas é drasticamente diferente do restante dos 99%. Ambas são corretas e apropriadas em seus respectivos casos de uso, mas tentar escalar de forma transparente de uma pequena aplicação para uma aplicação de hiperescala usando a mesma arquitetura ou stack tecnológico está quase fadado ao fracasso. Isso destaca a complexidade da seleção de ferramentas e metodologias no campo do desenvolvimento de AI. (Fonte: swyx)

Shopify incentiva funcionários a usar LLMs para programação com ousadia, chegando a organizar “competição de gastos”: MParakhin, da Shopify, revelou que a empresa não apenas não restringe o uso de LLMs pelos funcionários durante a codificação, mas também “repreende” aqueles que gastam muito pouco. Ele chegou a organizar uma competição, recompensando os funcionários que gastassem a maior quantidade de créditos de LLM sem usar scripts. Isso reflete a atitude de algumas empresas de tecnologia de ponta que abraçam ativamente as ferramentas de desenvolvimento assistido por AI, considerando-as um meio importante para aumentar a eficiência e a capacidade de inovação. (Fonte: MParakhin)

Aplicação de AI Agents em redações de notícias: Caso de colaboração entre Magid e PromptLayer: A empresa Magid utiliza a plataforma PromptLayer para construir agentes de AI que ajudam as redações a criar conteúdo em larga escala, garantindo ao mesmo tempo a conformidade com os padrões jornalísticos. Esses agentes de AI são capazes de processar milhares de reportagens, possuem confiabilidade, capacidade de controle de versão e conquistaram a confiança de jornalistas reais. Este caso demonstra o potencial prático de aplicação de AI Agents na criação de conteúdo e na indústria de notícias. (Fonte: imjaredz, Jonpon101)

AI Agent在新闻编辑室的应用:Magid与PromptLayer合作案例

Discussão sobre o caminho para AGI através de LLMs do tipo RL+GPT: Na comunidade, há quem acredite que a combinação de aprendizagem por reforço (RL) com grandes modelos de linguagem (LLMs) no estilo GPT tem total possibilidade de levar à inteligência artificial geral (AGI). Essa visão gerou mais reflexões e discussões sobre os caminhos para a realização da AGI, com destaque para o potencial da RL em conferir aos LLMs uma orientação a objetivos mais forte e capacidade de aprendizado contínuo. (Fonte: finbarrtimbers, agihippo)

Auxílio de AI na escolha de cursos universitários após o vestibular chinês (Gaokao) gera debate, equilíbrio entre dados e escolha personalizada em foco: Com o fim do Gaokao (vestibular chinês), ferramentas de auxílio à escolha de cursos baseadas em AI, como Quark, Baidu AI Gaokao Tong, Tencent AI Gaokao Tong, etc., ganharam atenção. Essas ferramentas analisam dados históricos, comparam classificações de pontuação e oferecem sugestões de “arriscar, estabilizar, garantir”. Testes práticos mostram que cada plataforma tem seus próprios focos e deficiências em termos de interação, lógica de recomendação e compreensão de necessidades personalizadas. A discussão aponta que, embora a AI possa aumentar a eficiência na obtenção de informações e quebrar a assimetria de informações, quando se trata de fatores pessoais complexos como personalidade, interesses e planejamento futuro, a “leitura da sorte com dados” da AI não pode substituir completamente o julgamento subjetivo e as escolhas de vida dos candidatos. (Fonte: 36氪, 36氪)

BAT三巨头混战AI高考报志愿,争最强AI升学搭子,张雪峰要失业了?

💡 Outros

Cortical Labs lança primeira plataforma de computação biológica comercial, CL1, integrando 800.000 neurônios humanos vivos: A startup australiana Cortical Labs lançou a primeira plataforma de computação biológica comercial do mundo, a CL1. A plataforma combina 800.000 neurônios humanos vivos com chips de silício, formando uma “inteligência híbrida”. A CL1 pode processar informações e aprender autonomamente, exibindo características semelhantes à consciência, tendo aprendido a jogar “Pong” em experimentos. O dispositivo consome muito menos energia do que o hardware de AI tradicional, custa US$ 35.000 por unidade e oferece um modelo de acesso remoto “Wetware as a Service” (WaaS). Essa tecnologia borra a fronteira entre biologia e máquina, gerando discussões sobre a natureza da inteligência e a ética. (Fonte: 36氪)

20 万一台的「人脑计算机」,可能是人类战胜 AI 的唯一方式?

Dilema prático das bases de conhecimento de AI: tecnologia impressionante, mas difícil de implementar, necessita de design “amigável à AI”: Liu Xianghua, vice-presidente da Lanling, em conversa com Cui Qiang, fundador da Cui Niu Hui, apontou que a tecnologia de grandes modelos trouxe de volta a atenção para a gestão do conhecimento empresarial, mas as bases de conhecimento de AI enfrentam o dilema de serem “aclamadas pela crítica, mas pouco adotadas”. Ele acredita que as bases de conhecimento empresariais e pessoais diferem enormemente em termos de gerenciamento de permissões, governança do sistema de conhecimento e consistência do conteúdo. Construir bases de conhecimento “amigáveis à AI”, com foco na qualidade dos dados, grafos de conhecimento, busca híbrida, etc., pode reduzir alucinações e aumentar a usabilidade. Ele não concorda em buscar tecnologia por tecnologia, enfatizando que a tecnologia apropriada deve ser escolhida de acordo com o cenário, e os grandes modelos não são uma panaceia. (Fonte: 36氪)

Projeto de reator de fusão nuclear aprimorado por AI, apoiado pelo Google, visa plasma de 1,8 bilhão de graus Fahrenheit até 2030: Segundo o Interesting Engineering, o Google está apoiando um projeto que visa aprimorar reatores de fusão nuclear por meio da tecnologia de AI. O objetivo do projeto é ser capaz de gerar e sustentar plasma a 1,8 bilhão de graus Fahrenheit (aproximadamente 1 bilhão de graus Celsius) até 2030. Essa colaboração demonstra o potencial da AI na resolução de desafios científicos e de engenharia extremos, especialmente no campo da energia limpa. (Fonte: Ronald_vanLoon)

谷歌支持的AI增强核聚变反应堆项目,目标2030年实现18亿华氏度等离子体

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *