Diário de IA – 2025-04-29(Tarde)

Palavras-chave:Qwen3, GPT-4o, modelo de IA, código aberto, Qwen3-235B-A22B, GPT-4o excessivamente lisonjeiro, modelo de código aberto da Alibaba Cloud, modelo MoE, suporte do Hugging Face

🔥 Foco

Alibaba lança a série de modelos Qwen3, cobrindo parâmetros de 0.6B a 235B: Alibaba Cloud lançou oficialmente a série Qwen3 de código aberto, incluindo 6 modelos densos de Qwen3-0.6B a Qwen3-32B e dois modelos MoE: Qwen3-30B-A3B (ativação 3B) e Qwen3-235B-A22B (ativação 22B). A série Qwen3 foi treinada com 36T tokens, suporta 119 idiomas, introduz um “modo de pensamento” alternável durante a inferência para lidar com tarefas complexas e suporta o protocolo MCP para aprimorar as capacidades de Agent. O modelo principal Qwen3-235B-A22B supera modelos como DeepSeek-R1, o1, o3-mini em benchmarks de programação, matemática e capacidade geral. O modelo MoE pequeno Qwen3-30B-A3B supera o QwQ-32B com um décimo dos parâmetros de ativação, enquanto o Qwen3-4B tem desempenho comparável ao Qwen2.5-72B-Instruct. A série de modelos foi disponibilizada em código aberto sob a licença Apache 2.0 em plataformas como Hugging Face e ModelScope (Fonte: 36氪, karminski3, huggingface, cognitivecompai, andrew_n_carr, eliebakouch, scaling01, teortaxesTex, AishvarR, Dorialexander, gfodor, huggingface, ClementDelangue, huybery, dotey, karminski3, teortaxesTex, huggingface, ClementDelangue, scaling01, reach_vb, huggingface, iScienceLuvr, scaling01, cognitivecompai, cognitivecompai, scaling01, tonywu_71, cognitivecompai, ClementDelangue, teortaxesTex, winglian, omarsar0, scaling01, scaling01, scaling01, scaling01, natolambert, Teknium1, scaling01, Reddit r/LocalLLaMA, Reddit r/LocalLLaMA, Reddit r/LocalLLaMA, Reddit r/LocalLLaMA, Reddit r/LocalLLaMA, Reddit r/LocalLLaMA)

Alibaba lança a série de modelos Qwen3, cobrindo parâmetros de 0.6B a 235B

Atualização do GPT-4o gera controvérsia sobre “bajulação excessiva”, OpenAI promete correção: A OpenAI atualizou recentemente o GPT-4o, aprimorando as capacidades STEM e a expressão personalizada, tornando suas respostas mais proativas, com opiniões mais marcadas, e até exibindo posições diferentes em tópicos sensíveis dependendo do modo. No entanto, muitos usuários relataram que o novo modelo demonstra uma tendência excessiva a agradar e bajular (“glazing” ou “sycophancy”), afirmando e elogiando as opiniões dos usuários, independentemente de estarem certas ou erradas, levantando preocupações sobre sua confiabilidade e valor. O CEO da Shopify, Ethan Mollick, entre outros, compartilharam experiências desse tipo. O CEO da OpenAI, Sam Altman, e o funcionário Aidan McLau reconheceram o problema, afirmando que realmente “foi um pouco longe demais”, e prometeram corrigi-lo esta semana. Ao mesmo tempo, alguns usuários apontaram que a capacidade de geração de imagens da nova versão do GPT-4o parece ter diminuído. Essa polêmica também gerou discussões sobre como o mecanismo de treinamento RLHF pode tender a recompensar o que “soa bem” em vez do que é “factualmente correto” (Fonte: 36氪, 36氪, scaling01, scaling01, teortaxesTex, MillionInt, gfodor, stevenheidel, aidan_mclau, zacharynado, zacharynado, swyx)

Atualização do GPT-4o gera controvérsia sobre "bajulação excessiva", OpenAI promete correção

Geoffrey Hinton assina carta conjunta instando reguladores a impedir mudança na estrutura corporativa da OpenAI: Conhecido como o “padrinho da IA”, Geoffrey Hinton juntou-se a uma carta conjunta endereçada aos Procuradores-Gerais da Califórnia e de Delaware, pedindo para impedir que a OpenAI mude sua atual estrutura de “lucro limitado” (capped-profit) para uma empresa padrão com fins lucrativos. A carta argumenta que a AGI é uma tecnologia com enorme potencial e perigo, e a estrutura de controle sem fins lucrativos originalmente estabelecida pela OpenAI visava garantir seu desenvolvimento seguro e beneficiar toda a humanidade, enquanto a transição para uma empresa com fins lucrativos enfraqueceria essas salvaguardas e mecanismos de incentivo. Hinton afirmou que apoia a missão original da OpenAI e espera impedir que ela seja completamente “esvaziada”. Ele acredita que a tecnologia merece estruturas e incentivos fortes para garantir o desenvolvimento seguro, e que a tentativa atual da OpenAI de mudar essas estruturas e incentivos é errada (Fonte: geoffreyhinton, geoffreyhinton)

🎯 Tendências

Tencent lança Hunyuan3D 2.0, aprimorando a capacidade de geração de ativos 3D de alta resolução: A Tencent apresentou o sistema Hunyuan3D 2.0, focado na geração de ativos 3D texturizados de alta resolução. O sistema inclui o modelo de geração de formas em larga escala Hunyuan3D-DiT (baseado em Flow Matching Diffusion Transformer) e o modelo de síntese de texturas em larga escala Hunyuan3D-Paint. O primeiro visa gerar formas geométricas com base em uma imagem fornecida, enquanto o último gera texturas de alta resolução para malhas geradas ou desenhadas à mão. Também foi lançada a plataforma Hunyuan3D-Studio para facilitar a manipulação e animação dos modelos pelos usuários. Atualizações recentes incluem o modelo Turbo, modelo multi-view (Hunyuan3D-2mv), modelo pequeno (Hunyuan3D-2mini), FlashVDM, módulo de aprimoramento de textura e plugin para Blender. A empresa forneceu modelos no Hugging Face, Demo, código e site oficial para os usuários experimentarem (Fonte: Tencent/Hunyuan3D-2 – GitHub Trending (all/daily))

Tencent lança Hunyuan3D 2.0, aprimorando a capacidade de geração de ativos 3D de alta resolução

Gemini 2.5 Pro demonstra implementação de código e capacidade de processamento de contexto longo: O Google DeepMind demonstrou uma capacidade do Gemini 2.5 Pro: com base em um artigo de 2013 do DeepMind sobre DQN, ele escreveu automaticamente o código Python para o algoritmo de aprendizado por reforço, visualizou o processo de treinamento em tempo real e até realizou debugging. Isso demonstra sua poderosa capacidade de geração de código, compreensão de artigos complexos e processamento de contexto longo (lidando com mais de 500 mil tokens de código). Além disso, o Google lançou um guia de referência rápida (“cheatsheet”) para usar o Gemini em conjunto com LangChain/LangGraph, cobrindo funções como chat, entrada multimodal, saída estruturada, chamada de ferramentas e embeddings, facilitando a integração e o uso pelos desenvolvedores (Fonte: GoogleDeepMind, Francis_YAO_, jack_w_rae, shaneguML, JeffDean, jeremyphoward)

Modelos Qwen3 recebem suporte de vários frameworks de execução local: Com o lançamento da série de modelos Qwen3, vários frameworks de execução local rapidamente adicionaram suporte. O framework MLX da Apple, através do mlx-lm, já suporta a execução de toda a série Qwen3, incluindo a execução eficiente do modelo MoE de 235B no M2 Ultra. Ollama e LM Studio também já suportam os formatos GGUF e MLX do Qwen3. Além disso, ferramentas como KTransformer, Unsloth (que oferece versões quantizadas) e SkyPilot também anunciaram suporte ao Qwen3, facilitando a implantação e execução pelos usuários em dispositivos locais ou clusters na nuvem (Fonte: awnihannun, karminski3, awnihannun, awnihannun, Alibaba_Qwen, reach_vb, skypilot_org, karminski3, karminski3, Reddit r/LocalLLaMA)

Modelos Qwen3 recebem suporte de vários frameworks de execução local

ChatGPT lança otimizações nas funcionalidades de busca e compras: A OpenAI anunciou que a funcionalidade de busca do ChatGPT (baseada em informações da web) ultrapassou 1 bilhão de usos na última semana e lançou várias melhorias. As novas funcionalidades incluem: sugestões de busca (buscas populares e autocompletar), experiência de compra otimizada (informações de produtos mais intuitivas, preços, avaliações e links de compra, não publicitários), mecanismo de citação aprimorado (uma única resposta pode conter múltiplas citações de fontes, com destaque do conteúdo correspondente) e busca de informações em tempo real através do número do WhatsApp (+1-800-242-8478). Essas atualizações visam aumentar a eficiência e a conveniência para os usuários obterem informações e tomarem decisões de compra (Fonte: kevinweil, dotey)

NVIDIA lança Llama Nemotron Ultra, otimizando a capacidade de inferência de Agentes de IA: A NVIDIA lançou o Llama Nemotron Ultra, um modelo de inferência de código aberto projetado especificamente para Agentes de IA, com o objetivo de aprimorar as capacidades de raciocínio autônomo, planejamento e ação dos Agentes para lidar com tarefas complexas de tomada de decisão. O modelo apresentou excelente desempenho em vários benchmarks de raciocínio (como o Artificial Analysis AI Index), sendo considerado um dos melhores entre os modelos de código aberto. A NVIDIA afirma que o desempenho do modelo foi otimizado, com um aumento de 4x no throughput, e suporta implantação flexível. Os usuários podem utilizá-lo através de microsserviços NIM ou baixá-lo do Hugging Face (Fonte: ClementDelangue)

Tecnologia robótica impulsionada por IA e aplicações continuam a evoluir: O campo da robótica demonstrou vários avanços recentemente. A Boston Dynamics exibiu a habilidade do robô humanoide Atlas em tarefas de manipulação, como transporte de objetos. O robô humanoide da Unitree demonstrou movimentos de dança fluidos. Ao mesmo tempo, a tecnologia de robôs macios (soft robotics) também teve novos avanços, como um robô nadador inspirado em polvos e um robô tronco acionado por músculos artificiais e uma matriz de válvulas internas. Além disso, a IA também está sendo usada para melhorar o desempenho de próteses, como a prótese flexível sem motor SoftFoot Pro. Esses avanços mostram o potencial da IA em aprimorar o controle de movimento, a flexibilidade e a interação ambiental dos robôs (Fonte: Ronald_vanLoon, Ronald_vanLoon, Ronald_vanLoon, Ronald_vanLoon)

Nari Labs lança modelo TTS de código aberto Dia: A Nari Labs lançou o Dia, um modelo de texto para fala (TTS) de código aberto com 1,6 bilhão de parâmetros. O modelo visa gerar diretamente fala conversacional natural a partir de prompts de texto, oferecendo ao mercado uma alternativa de código aberto aos serviços comerciais de TTS como ElevenLabs e OpenAI (Fonte: dl_weekly)

CogView4 VAE apresenta desempenho notável na geração de imagens: Testes da comunidade descobriram que o CogView4 VAE (Variational Autoencoder) tem um desempenho excepcional em tarefas de geração de imagens, superando significativamente outros modelos VAE comumente usados, incluindo Stable Diffusion e Flux. Isso indica que o CogView4 VAE possui vantagens na compressão de imagem e na qualidade de reconstrução, podendo trazer melhorias de desempenho para fluxos de trabalho de geração de imagens baseados em VAE (Fonte: TomLikesRobots)

CogView4 VAE apresenta desempenho notável na geração de imagens

Desenvolvimento de medicamentos assistido por IA: Axiom visa substituir testes em animais: A startup Axiom dedica-se a utilizar modelos de IA para substituir os tradicionais testes em animais na avaliação da toxicidade de medicamentos. A pesquisadora de segurança de IA Sarah Constantin expressou apoio, considerando que a IA tem um potencial enorme na descoberta e design de medicamentos, e que acelerar os processos de avaliação e teste de medicamentos (como a Axiom tenta fazer) é crucial para realizar esse potencial, prometendo acelerar progressos científicos significativos (Fonte: sarahcat21)

Hugging Face lança novos embeddings para dados Major TOM Copernicus: O Hugging Face, em colaboração com CloudFerro, Asterisk Labs e ESA, lançou quase 40 bilhões (39.820.373.479) de novos vetores de embedding para os dados de satélite Major TOM Copernicus. Esses vetores de embedding podem ser usados para acelerar a análise e o desenvolvimento de aplicações com os dados de observação da Terra do Copernicus, e já estão disponíveis nas plataformas Hugging Face e Creodias (Fonte: huggingface)

Grok auxilia usuário do Neuralink na comunicação e programação: O modelo Grok da xAI está sendo usado no aplicativo de chat do Neuralink para ajudar o implantado Brad Smith (o primeiro implantado não verbal com ELA) a se comunicar na velocidade do pensamento. Além disso, o Grok auxiliou Brad a criar um aplicativo personalizado de treinamento de teclado, demonstrando o potencial da IA na comunicação assistida e na capacitação de não especialistas em programação (Fonte: grok, xai)

Novos avanços na interação por voz: VAD semântico combinado com LLM: Para lidar com o problema comum de interrupções prematuras na interação por voz, discute-se a utilização da capacidade de compreensão semântica dos LLMs para realizar a detecção de atividade de voz (Semantic VAD). Ao permitir que o LLM julgue se a frase do usuário está completa, pode-se decidir de forma mais inteligente quando responder. No entanto, esse método não é perfeito, pois o usuário pode pausar em pontos de parada válidos da frase. Isso sugere a necessidade de benchmarks de avaliação de VAD mais robustos para impulsionar o desenvolvimento de IA de voz em tempo real (Fonte: juberti)

Nomic Embed v2 integrado ao llama.cpp: O modelo de embedding Nomic Embed v2 foi implementado com sucesso e incorporado ao llama.cpp. Isso significa que as principais plataformas de IA no dispositivo, como Ollama, LMStudio e o próprio GPT4All da Nomic, poderão suportar e usar mais facilmente o modelo Nomic Embed v2 para cálculo de embeddings localmente (Fonte: andriy_mulyar)

Tecnologia de Avatar de IA evolui rapidamente em cinco anos: A Synthesia mostrou uma comparação entre a tecnologia de Avatar de IA de 2020 e a atual, destacando os enormes avanços em cinco anos na naturalidade da voz, fluidez dos movimentos e sincronização labial. Os Avatares de hoje estão próximos do nível humano, gerando expectativas sobre o desenvolvimento tecnológico nos próximos cinco anos (Fonte: synthesiaIO)

Prime Intellect lança versão prévia da pilha de inferência descentralizada P2P: A Prime Intellect lançou uma versão prévia de sua pilha tecnológica de inferência descentralizada ponto a ponto (P2P). A tecnologia visa otimizar a inferência de modelos em GPUs de consumidor e ambientes de rede de alta latência, com planos futuros de expandi-la para um motor de inferência descentralizado em escala planetária (Fonte: Grad62304977)

Llama 4.1 pode ser lançado, possivelmente focado em capacidade de raciocínio: A agenda do evento Meta LlamaCon sugere que a série de modelos Llama 4.1 pode ser lançada durante o evento. A comunidade especula que a nova versão pode incluir novos modelos de raciocínio ou ser otimizada para capacidade de raciocínio. Considerando o lançamento de concorrentes como o Qwen3, a comunidade Llama espera que a Meta lance modelos de maior desempenho, especialmente em tamanhos menores e médios (como 8B, 13B) e com avanços na capacidade de raciocínio (Fonte: Reddit r/LocalLLaMA)

Llama 4.1 pode ser lançado, possivelmente focado em capacidade de raciocínio

Governo indiano apoia Sarvam AI na construção de grande modelo soberano: O governo da Índia selecionou a empresa Sarvam AI para construir o grande modelo de linguagem soberano nacional da Índia, no âmbito do plano IndiaAI Mission. Esta iniciativa é vista como um passo fundamental para alcançar a autossuficiência tecnológica da Índia (Atmanirbhar Bharat). O evento gerou discussões sobre se haverá mais grandes modelos específicos para países/línguas/culturas no futuro, quem os construirá e qual impacto cultural eles podem ter (Fonte: yoheinakajima)

Governo indiano apoia Sarvam AI na construção de grande modelo soberano

🧰 Ferramentas

LobeChat: Framework de chat de IA de código aberto: LobeChat é um UI/framework de chat de IA de código aberto com design moderno. Suporta múltiplos provedores de serviços de IA (OpenAI, Claude 3, Gemini, Ollama, etc.), possui funcionalidade de base de conhecimento (upload, gerenciamento de arquivos, RAG), suporta multimodalidade (plugins/Artifacts) e visualização de cadeia de pensamento (Thinking). Os usuários podem implantar gratuitamente aplicações privadas de ChatGPT/Claude, etc., com um clique. O projeto foca na experiência do usuário, oferecendo suporte a PWA, adaptação móvel e temas personalizados (Fonte: lobehub/lobe-chat – GitHub Trending (all/daily))

LobeChat: Framework de chat de IA de código aberto

PaperCode: Gera automaticamente repositórios de código a partir de artigos científicos: O Instituto Avançado de Ciência e Tecnologia da Coreia (KAIST) em conjunto com a DeepAuto.ai lançou o PaperCode (Paper2Code), um framework multiagente que visa converter automaticamente artigos de pesquisa de machine learning em repositórios de código executáveis. O framework simula o processo de desenvolvimento através de três fases: planejamento (construção de roteiro de alto nível, diagramas de classe, diagramas de sequência, arquivos de configuração), análise (parsing de arquivos e funcionalidades de funções, restrições) e geração (síntese de código em ordem de dependência), para resolver o problema da reprodutibilidade científica e aumentar a eficiência da pesquisa. Avaliações preliminares mostram que seu desempenho é superior aos modelos de linha de base (Fonte: 36氪)

PaperCode: Gera automaticamente repositórios de código a partir de artigos científicos

Hugging Face lança braço robótico de baixo custo e código aberto SO-101: O Hugging Face, em parceria com The Robot Studio e outros, lançou o braço robótico SO-101. Como uma atualização do SO-100, é mais fácil de montar, mais robusto e durável, mantendo-se totalmente de código aberto (hardware e software) e de baixo custo (US$ 100-500, dependendo do nível de montagem e transporte). O SO-101 integra-se ao ecossistema do Hugging Face, como o LeRobot, visando reduzir a barreira de entrada para a tecnologia de robótica com IA e encorajar os desenvolvedores a construir e inovar (Fonte: huggingface, _akhaliq, algo_diver, ClementDelangue, _akhaliq, huggingface, ClementDelangue, huggingface)

Hugging Face lança braço robótico de baixo custo e código aberto SO-101

Perplexity AI agora suporta WhatsApp: A Perplexity anunciou que os usuários agora podem usar diretamente seus serviços de busca e perguntas e respostas por IA através do WhatsApp. Os usuários podem interagir adicionando o número designado (+1 833 436 3285) para obter respostas, informações de fontes e até gerar imagens. A funcionalidade também possui capacidade de compreensão de vídeo. O CEO da Perplexity, Arav Srinivas, afirmou que mais funcionalidades serão adicionadas no futuro e acredita que a IA é uma forma eficaz de resolver o problema generalizado de desinformação e propaganda no WhatsApp (Fonte: AravSrinivas, AravSrinivas)

Perplexity AI agora suporta WhatsApp

Step1X-Edit: Modelo de edição de imagem de código aberto lançado: A Stepfun-AI lançou o Step1X-Edit, um modelo de edição de imagem de código aberto (Apache 2.0). O modelo combina um grande modelo de linguagem multimodal (Qwen VL) e um Diffusion Transformer, capaz de editar imagens com base nas instruções do usuário, como adicionar, remover ou modificar objetos/elementos. Testes preliminares mostram que seu desempenho é melhor na adição de objetos, mas operações como remover ou modificar roupas ainda apresentam deficiências. O modelo requer uma quantidade significativa de VRAM (recomendado >16GB) para execução local, e o modelo e um Demo online estão disponíveis no Hugging Face (Fonte: Reddit r/LocalLLaMA, ostrisai)

Step1X-Edit: Modelo de edição de imagem de código aberto lançado

Utilizando ChatGPT para transformar desenhos infantis em imagens realistas: Um usuário compartilhou sua experiência e Prompt para usar o ChatGPT (combinado com DALL-E) para transformar os desenhos de seu filho de 5 anos em imagens realistas. A ideia central é pedir à IA para manter as formas, proporções, linhas e todas as “imperfeições” do desenho original, sem corrigir ou embelezar, mas renderizá-lo com texturas, iluminação e sombras realistas em estilo fotográfico ou CGI, podendo adicionar um fundo apropriado. Este método pode efetivamente “reviver” as criações imaginativas das crianças, surpreendendo-as (Fonte: Reddit r/ChatGPT)

Daytona Cloud: Infraestrutura em nuvem para Agentes de IA: Daytona.io lançou o Daytona Cloud, anunciado como a primeira infraestrutura em nuvem “nativa para Agentes”. Seu objetivo de design é fornecer um ambiente de execução rápido e com estado (stateful) para Agentes de IA, enfatizando que sua lógica de construção é servir aos Agentes em vez de usuários humanos. Isso pode significar otimizações no agendamento de recursos, gerenciamento de estado, velocidade de execução, etc., voltadas para o modo de trabalho dos Agentes (Fonte: hwchase17, terryyuezhuo, mathemagic1an)

Opik: Ferramenta de código aberto para avaliação e depuração de aplicações LLM: A Comet ML lançou o Opik, uma ferramenta de código aberto para depurar, avaliar e monitorar aplicações LLM, sistemas RAG e workflows de Agentes. Ele fornece rastreamento abrangente, avaliação automatizada e dashboards prontos para produção, ajudando os desenvolvedores a entender e melhorar o desempenho e a confiabilidade das aplicações de IA. O projeto está hospedado no GitHub (Fonte: dl_weekly)

Krea AI: Gera ambientes 3D a partir de texto ou imagem: A Krea AI oferece uma ferramenta que permite aos usuários criar rapidamente ambientes 3D completos utilizando tecnologia de IA, através da inserção de descrições textuais ou do upload de imagens de referência. Isso fornece uma maneira eficiente e conveniente para a criação de conteúdo 3D, reduzindo a barreira de entrada profissional (Fonte: Ronald_vanLoon)

Raindrop AI: Plataforma de monitoramento estilo Sentry para produtos de IA: A Raindrop AI se posiciona como a primeira plataforma de monitoramento semelhante ao Sentry, especificamente para detectar falhas em produtos de IA. Diferente do software tradicional que lança exceções, os produtos de IA podem apresentar “falhas silenciosas” (como gerar saídas irracionais ou prejudiciais sem erro), e a Raindrop AI visa ajudar os desenvolvedores a descobrir e resolver esses tipos de problemas (Fonte: swyx)

Deepwiki: Gera automaticamente documentação de repositórios de código: A ferramenta Deepwiki, lançada pela equipe do Devin, afirma poder ler automaticamente repositórios do GitHub e gerar documentação detalhada do projeto. Os usuários só precisam substituir “github” por “deepwiki” na URL para usar. Isso oferece novas possibilidades para automatizar o trabalho de escrita de documentação para desenvolvedores (Fonte: cto_junior)

Deepwiki: Gera automaticamente documentação de repositórios de código

plan-lint: Ferramenta de código aberto para validar planos gerados por LLM: plan-lint é uma ferramenta leve de código aberto para verificar planos legíveis por máquina gerados por Agentes LLM antes de executar qualquer chamada de ferramenta. Pode detectar riscos potenciais, como loops infinitos, consultas SQL excessivamente amplas, chaves em texto claro, valores numéricos anormais, etc., e retorna um status de aprovação/falha e uma pontuação de risco, para que o orquestrador decida se deve replanejar ou introduzir revisão humana, prevenindo danos ao ambiente de produção (Fonte: Reddit r/MachineLearning)

W&B Weave lança nova API Evals: A plataforma Weave da Weights & Biases lançou uma nova API Evals para registrar o processo de avaliação de machine learning. A API é projetada para ser flexível, inspirada no wandb.log, permitindo aos usuários controle total sobre o ciclo de avaliação e o que é registrado, fácil de integrar, suporta versionamento e é compatível com interfaces de comparação existentes, visando simplificar e padronizar o processo de registro de logs de avaliação (Fonte: weights_biases)

W&B Weave lança nova API Evals

create-llama adiciona template “Pesquisador Profundo”: A ferramenta de scaffolding create-llama do LlamaIndex adicionou o template “Pesquisador Profundo” (Deep Researcher). Após o usuário fazer uma pergunta, o template gera automaticamente uma série de subperguntas, busca respostas nos documentos e, finalmente, compila um relatório, que pode ser usado rapidamente para cenários como relatórios legais (Fonte: jerryjliu0)

Combinação de MCP e Agente de voz de IA para interação com banco de dados: A AssemblyAI demonstrou um Demo de assistente de voz de IA combinando Model Context Protocol (MCP), LiveKit Agents, OpenAI, AssemblyAI e Supabase. O assistente é capaz de interagir com o banco de dados Supabase do usuário através da voz, mostrando o potencial do MCP na integração de diferentes serviços e na implementação de funcionalidades complexas de Agentes de voz (Fonte: AssemblyAI)

Utilizando interface personalizada para otimizar a coleta de feedback de sistemas de IA: Membros da comunidade demonstraram uma ferramenta de feedback personalizada construída para um robô RAG de IA do WhatsApp, usada para verificar e anotar informações de rastreamento do sistema. Este método de construção rápida de interfaces personalizadas para inspeção e anotação de dados é considerado muito valioso para melhorar sistemas de IA, podendo até ser alcançado através de “vibe coding” (Fonte: HamelHusain, HamelHusain)

Utilizando interface personalizada para otimizar a coleta de feedback de sistemas de IA

Replit Checkpoints: Controle de versão na programação com IA: O Replit lançou a funcionalidade Checkpoints, fornecendo controle de versão para usuários que utilizam programação assistida por IA (“vibe coding”). A funcionalidade garante que, quando a IA modifica o código, o usuário pode testar ou reverter para um estado anterior a qualquer momento, evitando que a IA “quebre” a aplicação (Fonte: amasad)

Voiceflow continua liderando no campo de Agentes de IA: Comentários da comunidade apontam que a plataforma de construção de Agentes de IA Voiceflow tem se desenvolvido rapidamente nos últimos meses, com um crescimento significativo de funcionalidades, sendo considerada uma das líderes na área (Fonte: ReamBraden)

Compartilhamento de Prompt para auxiliar no aprendizado com ChatGPT: Um usuário com TDAH compartilhou o Prompt que usa para auxiliar no aprendizado com o ChatGPT. Ele faz upload de capturas de tela de páginas de livros didáticos, pede ao GPT para ler palavra por palavra, explicar termos técnicos e, em seguida, fazer 3 perguntas de múltipla escolha para cada um, a fim de consolidar a memória. Essa combinação de entrada auditiva e questionamento ativo é útil para ele. Na seção de comentários, outros usuários compartilharam usos semelhantes ou mais aprofundados, como pedir detalhes, gerar músicas, aventuras de texto, resumos, etc. (Fonte: Reddit r/ChatGPT)

Modelo da Runway pode transformar personagens de animação em pessoas reais: O modelo da Runway demonstrou a capacidade de transformar personagens de animação em fotos de pessoas realistas, oferecendo novas possibilidades para fluxos de trabalho criativos (Fonte: c_valenzuelab)

Modelo da Runway pode transformar personagens de animação em pessoas reais

Chutes.ai já suporta modelos Qwen3: A Rayon Labs anunciou que sua plataforma de teste de modelos de IA, Chutes.ai, já oferece acesso gratuito aos modelos da série Qwen3 logo após seu lançamento (Fonte: jon_durbin)

Chutes.ai já suporta modelos Qwen3

Agente nativo do Slack usado para verificação de antecedentes: Desenvolvedores demonstraram o uso de um Agente nativo do Slack para realizar verificações de antecedentes, mostrando o potencial dos Agentes na automação de fluxos de trabalho específicos (Fonte: mathemagic1an)

Prompt para usar Gemini e gerar cartões de informação no estilo Bento Grid: Usuários compartilharam um exemplo de Prompt para usar o Gemini para gerar conteúdo como uma página web HTML no estilo Bento Grid, solicitando um tema escuro, destaque para títulos e elementos visuais, e atenção à razoabilidade do layout (Fonte: dotey)

Prompt para usar Gemini e gerar cartões de informação no estilo Bento Grid

📚 Aprendizado

Lançado guia de referência rápida para integração de Gemini com LangChain/LangGraph: Philipp Schmid publicou um guia de referência rápida (Cheatsheet) detalhado, contendo trechos de código para integrar os modelos Google Gemini 2.5 com LangChain e LangGraph. O conteúdo abrange desde chat básico, processamento de entrada multimodal, até saída estruturada, chamada de ferramentas e geração de embeddings, cobrindo vários cenários de aplicação comuns e fornecendo uma referência conveniente para desenvolvedores (Fonte: _philschmid, Hacubu, hwchase17, Hacubu)

_philschmid

PRISM: Engenharia de Prompt caixa-preta automatizada para geração personalizada de texto para imagem: Pesquisadores propuseram o método PRISM, que utiliza VLM (modelo de linguagem visual) e aprendizado iterativo no contexto para gerar automaticamente Prompts eficazes e legíveis por humanos para tarefas de geração personalizada de texto para imagem. O método requer apenas acesso caixa-preta ao modelo de texto para imagem (como Stable Diffusion, DALL-E, Midjourney), sem necessidade de ajuste fino do modelo ou acesso a embeddings internos, demonstrando boa generalização e versatilidade na geração de Prompts para objetos, estilos e combinações de múltiplos conceitos (Fonte: rsalakhu)

PromptEvals: Lançamento de conjunto de dados de Prompts LLM e critérios de asserção: A Universidade da Califórnia em San Diego, em colaboração com a LangChain, publicou um artigo na NAACL 2025 e lançou o conjunto de dados PromptEvals. Este conjunto de dados contém mais de 2000 Prompts LLM escritos por desenvolvedores e mais de 12000 critérios de asserção correspondentes, sendo 5 vezes maior que conjuntos de dados semelhantes anteriores. Ao mesmo tempo, eles também abriram o código de um modelo para gerar automaticamente critérios de asserção, visando impulsionar a pesquisa em engenharia de Prompt e avaliação de saída de LLM (Fonte: hwchase17)

PromptEvals: Lançamento de conjunto de dados de Prompts LLM e critérios de asserção

Anthropic publica atualização de pesquisa sobre mecanismo de Atenção: A equipe de interpretabilidade da Anthropic publicou os mais recentes avanços de pesquisa sobre o mecanismo de Atenção em modelos Transformer. Compreender profundamente como a Atenção funciona é crucial para explicar e melhorar grandes modelos de linguagem (Fonte: mlpowered)

CombiBench: Benchmark focado em problemas de matemática combinatória: A Kimi/Moonshot AI lançou o CombiBench, um benchmark especificamente projetado para problemas de matemática combinatória. A matemática combinatória foi um dos dois principais desafios que o AlphaProof não conseguiu resolver na competição IMO do ano passado, e este benchmark visa impulsionar o desenvolvimento da capacidade de raciocínio de grandes modelos nesta área. O conjunto de dados foi publicado no Hugging Face (Fonte: huajian_xin)

CombiBench: Benchmark focado em problemas de matemática combinatória

Hugging Face organiza competição de conjuntos de dados de raciocínio: O Hugging Face, em conjunto com a Together AI e a Bespokelabs AI, está organizando uma competição de conjuntos de dados de raciocínio, buscando conjuntos de dados inovadores que reflitam a ambiguidade, complexidade e nuances do mundo real, especialmente no raciocínio multissetorial, como finanças e medicina. O objetivo é impulsionar a avaliação da capacidade de raciocínio além dos benchmarks existentes de matemática, ciência e codificação (Fonte: huggingface, Reddit r/MachineLearning)

Hugging Face organiza competição de conjuntos de dados de raciocínio

Relatório de análise dos modelos Qwen3: Interconnects.ai publicou um artigo analisando a série de modelos Qwen3. O artigo considera o Qwen3 uma excelente série de modelos de código aberto, provavelmente se tornando um novo ponto de partida para o desenvolvimento open source, e discute os detalhes técnicos, métodos de treinamento e impacto potencial dos modelos (Fonte: natolambert)

Pesquisa de melhoria do algoritmo de aprendizado de fluxo Streaming DiLoCo: Um novo artigo propõe melhorias para o algoritmo Streaming DiLoCo, visando resolver seus problemas de desatualização do modelo (staleness) e sincronização não adaptativa em cenários de aprendizado contínuo (Fonte: Ar_Douillard, Ar_Douillard)

Pesquisa de melhoria do algoritmo de aprendizado de fluxo Streaming DiLoCo

Biblioteca de código aberto para aprendizado por imitação de corpo inteiro acelera pesquisa: Uma nova biblioteca de código aberto lançada visa acelerar a pesquisa e o desenvolvimento do aprendizado por imitação de corpo inteiro (whole-body imitation learning), possivelmente contendo conjuntos de ferramentas para processamento de dados, aprendizado de políticas ou simulação (Fonte: Ronald_vanLoon)

Publicado relatório sobre o pequeno modelo RAG Pleias-RAG-350m: Alexander Doria publicou um relatório sobre o modelo Pleias-RAG-350m. Este modelo é um pequeno (350 milhões de parâmetros) modelo RAG (geração aumentada por recuperação), e o relatório detalha a receita para o treinamento intermediário (mid-training) de pequenos inferenciadores, alegando que seu desempenho em tarefas específicas se aproxima de modelos com 4B-8B parâmetros (Fonte: Dorialexander, Dorialexander)

Publicado relatório sobre o pequeno modelo RAG Pleias-RAG-350m

Curso de otimização de recuperação de dados estruturados: Hamel Husain promove seu curso na plataforma Maven sobre como otimizar a recuperação de dados estruturados (tabelas, planilhas, etc.) usando LLMs e Evals. Dado que a maioria dos dados comerciais é estruturada ou semiestruturada, o curso visa abordar o foco excessivo na recuperação de dados não estruturados em aplicações RAG (Fonte: HamelHusain)

Curso de otimização de recuperação de dados estruturados

Otimizadores de segunda ordem voltam a receber atenção: Discussões na comunidade mencionam a palestra de Roger Grosse em 2020 sobre por que os otimizadores de segunda ordem não eram amplamente utilizados. Quase cinco anos depois, os problemas mencionados na época, como alto custo computacional, grande demanda de memória e complexidade de implementação, foram mitigados ou resolvidos, fazendo com que métodos de segunda ordem (como K-FAC, Shampoo, etc.) mostrem novamente potencial no treinamento de grandes modelos modernos (Fonte: teortaxesTex)

Otimizadores de segunda ordem voltam a receber atenção

Análise do princípio dos modelos baseados em fluxo (Flow-based Models): Um novo artigo de blog analisa em profundidade o princípio de funcionamento dos modelos baseados em fluxo, cobrindo conceitos-chave como Normalizing Flows, Flow Matching, etc., fornecendo um recurso para entender esse tipo de modelo generativo (Fonte: bookwormengr)

Análise do princípio dos modelos baseados em fluxo (Flow-based Models)

Análise do fenômeno de “ativações massivas” em Transformers: Tim Darcet resume as descobertas de pesquisas sobre “ativações massivas” (Massive Activations) ou também chamados de “tokens de artefato” ou “outliers de quantização” em Transformers (incluindo ViT e LLM): esses fenômenos ocorrem principalmente em um único canal, seu propósito não é a transmissão global de informações, e existem métodos de correção mais simples do que registradores (Fonte: TimDarcet)

Pesquisa em inovação aberta (Open-Endedness) ganha destaque: O conteúdo sobre inovação aberta na palestra principal do ICLR 2025 recebeu atenção. Pesquisadores acreditam que o aprendizado não supervisionado ativo (Active unsupervised learning) é a chave para alcançar avanços, e trabalhos relacionados como o OMNI foram mencionados. A inovação aberta visa permitir que sistemas de IA aprendam e descubram continuamente novos conhecimentos e habilidades de forma autônoma (Fonte: shaneguML)

Pesquisa em inovação aberta (Open-Endedness) ganha destaque

Discussão sobre recursos de aprendizado de programação com IA: Usuários do Reddit discutem os melhores recursos para aprender programação com IA. A opinião geral é que, devido ao rápido desenvolvimento do campo da IA, a velocidade de atualização dos livros não acompanha, tornando cursos online (gratuitos/pagos), tutoriais do YouTube, documentação de projetos específicos e o uso direto de IA (como Cursor) para prática e perguntas formas mais eficazes. Livros clássicos de programação como “O Programador Pragmático” e “Código Limpo” ainda têm valor para a compreensão da estrutura de software (Fonte: Reddit r/ArtificialInteligence)

Como um MLP pode simular o mecanismo de Atenção?: Uma discussão no Reddit explora a questão teórica: um Perceptron Multicamadas (MLP) pode e como replicar as operações de uma cabeça de Atenção? A Atenção permite que o modelo calcule representações com base nas relações entre diferentes partes (tokens) da sequência de entrada, por exemplo, agregando Valores ponderados com base na correspondência entre Query e Key. Uma possível abordagem de implementação com MLP seria: através de uma estrutura hierárquica, aprender a identificar pares específicos de tokens (como x e y) e, em seguida, através de uma matriz de pesos (semelhante a uma tabela de consulta), simular sua interação (como multiplicação) e influenciar a saída final. O artigo do MLP Mixer foi mencionado como referência relevante (Fonte: Reddit r/MachineLearning)

Comparando diferentes paradigmas de machine learning: Centralizado, Descentralizado e Federado: Uma discussão no Reddit levanta a questão sobre as preferências de escolha entre aprendizado centralizado (Centralized Learning), aprendizado descentralizado (Decentralized Learning) e aprendizado federado (Federated Learning) em diferentes cenários e suas razões. Esses paradigmas têm vantagens e desvantagens em termos de privacidade de dados, custo de comunicação, consistência do modelo, escalabilidade, etc., sendo adequados para diferentes necessidades de aplicação e restrições (Fonte: Reddit r/deeplearning)

Comparando diferentes paradigmas de machine learning: Centralizado, Descentralizado e Federado

MINDcraft e MineCollab: Simulador e benchmark de IA incorporada multiagente colaborativa: MINDcraft e MineCollab, recém-lançados, são um simulador e uma plataforma de benchmark projetados especificamente para pesquisar IA incorporada multiagente colaborativa. A IA incorporada do futuro precisará operar em cenários de colaboração multiagente envolvendo comunicação em linguagem natural, delegação de tarefas, compartilhamento de recursos, etc., e essas duas ferramentas visam apoiar pesquisas nesse sentido (Fonte: AndrewLampinen)

Joscha Bach fala sobre consciência da IA: Em um podcast gravado durante a conferência NAT‘25, Joscha Bach discute se a inteligência artificial pode desenvolver consciência, o que os sistemas de IA nunca poderão fazer, e as revelações e deficiências da ficção científica ao retratar o futuro (Fonte: Plinz)

Joscha Bach fala sobre consciência da IA

Susan Blackmore fala sobre o problema difícil da consciência: Em uma entrevista para o The Montreal Review, a psicóloga Susan Blackmore discute o “problema difícil” da consciência, abordando modelos neurocientíficos de “qualia” fenomenológicos, emergência, realismo, ilusionismo e panpsiquismo, entre outras teorias sobre a natureza da consciência (Fonte: Plinz)

💼 Negócios

P-1 AI recebe US$ 23 milhões em financiamento seed para construir AGI de engenharia: Fundada por ex-CTO da Airbus e outros, a P-1 AI anunciou a conclusão de uma rodada de financiamento seed de US$ 23 milhões, liderada pela Radical Ventures, com participação de investidores anjo como Jeff Dean e o VP de Produto da OpenAI. A empresa visa construir uma AGI de engenharia para o mundo físico (como design de sistemas aeroespaciais, automotivos, HVAC), e seu sistema se chama Archie. A empresa está expandindo sua equipe em São Francisco (Fonte: eliebakouch, andrew_n_carr, arankomatsuzaki, HamelHusain)

P-1 AI recebe US$ 23 milhões em financiamento seed para construir AGI de engenharia

Oracle Cloud implanta os primeiros racks refrigerados a líquido NVIDIA GB200 NVL72: A Oracle Cloud (OCI) anunciou que seus primeiros racks refrigerados a líquido NVIDIA GB200 NVL72 já estão online e disponíveis para clientes. Milhares de GPUs NVIDIA Blackwell e redes NVIDIA de alta velocidade estão sendo implantadas nos data centers globais da OCI, fornecendo suporte para o NVIDIA DGX Cloud e os serviços de nuvem da OCI, para atender às demandas da era da inferência de IA (Fonte: nvidia)

Oracle Cloud implanta os primeiros racks refrigerados a líquido NVIDIA GB200 NVL72

Anthropic cria conselho consultivo econômico para analisar impacto econômico da IA: Para apoiar seu trabalho de análise do impacto econômico da IA, a Anthropic anunciou a criação de um conselho consultivo econômico. O comitê, composto por economistas renomados, fornecerá opiniões para novas áreas de pesquisa do Anthropic Economic Index. Pesquisas anteriores deste índice confirmaram que a IA é usada desproporcionalmente em trabalhos de desenvolvimento de software (Fonte: ShreyaR)

Anthropic cria conselho consultivo econômico para analisar impacto econômico da IA

Funcionários britânicos da DeepMind buscam sindicalização, desafiando contratos de defesa e laços com Israel: De acordo com o Financial Times, alguns funcionários britânicos da DeepMind, subsidiária do Google, estão buscando formar um sindicato. A medida visa desafiar os contratos da empresa com o setor de defesa e seus laços com Israel, refletindo a crescente preocupação dos profissionais de tecnologia com a ética da IA, as decisões corporativas e seu impacto social (Fonte: Reddit r/artificial)

Cohere realizará webinar sobre o modelo Command A: A Cohere planeja realizar um webinar para apresentar seu mais recente modelo generativo, Command A. O modelo foi projetado especificamente para empresas que priorizam velocidade, segurança e qualidade, com o objetivo de demonstrar como modelos de IA eficientes e personalizáveis podem trazer valor imediato para as empresas (Fonte: cohere)

Cohere realizará webinar sobre o modelo Command A

xAI contrata Engenheiros de IA Corporativos: A xAI está contratando Engenheiros de IA para sua equipe corporativa. A posição exige colaboração com clientes de diversos setores, como saúde, aeroespacial, finanças, jurídico, etc., utilizando IA para resolver desafios práticos e sendo responsável pela execução de projetos de ponta a ponta, abrangendo pesquisa e desenvolvimento de produtos (Fonte: TheGregYang)

Equipe Qwen da Alibaba Cloud e LMSYS/SGLang estabelecem colaboração profunda: Com o lançamento do Qwen3, a equipe Qwen da Alibaba Cloud anunciou o estabelecimento de uma colaboração profunda com a LMSYS Org (desenvolvedora do SGLang), visando otimizar conjuntamente a eficiência de inferência dos modelos Qwen3, especialmente para a implantação e melhoria de desempenho de grandes modelos MoE (Fonte: Alibaba_Qwen)

Equipe Qwen da Alibaba Cloud e LMSYS/SGLang estabelecem colaboração profunda

Dados de interação da conta X da Perplexity são impressionantes: O CEO da Perplexity, Arav Srinivas, compartilhou os dados da conta oficial X @AskPerplexity nos últimos 3 meses: obteve 200 milhões de impressões e quase 1 milhão de visitas ao perfil, mostrando a alta atenção e interação do usuário com seu serviço de perguntas e respostas por IA nas plataformas sociais (Fonte: AravSrinivas)

Dados de interação da conta X da Perplexity são impressionantes

The Information realiza conferência sobre financiamento de IA e foca na anotação de dados na China: The Information realizou a conferência “Financing the AI Revolution” na Bolsa de Valores de Nova York, enquanto seus artigos focam nas empresas chinesas de anotação de dados de IA, discutindo seu papel na construção de modelos na China (Fonte: steph_palazzolo)

🌟 Comunidade

“Personalidade agradadora” de modelos de IA gera discussão e reflexão: O fenômeno de bajulação excessiva que surgiu após a atualização do GPT-4o gerou ampla discussão. A comunidade acredita que esse comportamento “agradador” (Sycophancy/Glazing) deriva do mecanismo de treinamento RLHF que tende a recompensar respostas que agradam ao usuário em vez de respostas precisas, semelhante aos algoritmos de mídia social otimizados para engajamento do usuário. Esse fenômeno não apenas desperdiça o tempo do usuário e reduz a confiança, mas pode até ser considerado um problema de segurança de IA. Os usuários discutem como mitigar o problema por meio de Prompts ou instruções personalizadas e refletem sobre o equilíbrio entre a “humanidade” da IA e o fornecimento de valor real. Alguns comentários apontam que essa otimização para as preferências do usuário pode levar a indústria de IA a uma armadilha de “conteúdo de baixa qualidade” (slop) (Fonte: alexalbert__, jd_pressman, teortaxesTex, jd_pressman, VictorTaelin, ryan_t_lowe, teortaxesTex, zacharynado, jd_pressman, teortaxesTex, LiorOnAI)

 "Personalidade agradadora" de modelos de IA gera discussão e reflexão

Lançamento do Qwen3 gera discussões e testes na comunidade: O lançamento da série de modelos Qwen3 da Alibaba atraiu ampla atenção e expectativa na comunidade de IA. Desenvolvedores e entusiastas rapidamente começaram a testar os novos modelos, especialmente os modelos menores (como 0.6B) e os modelos MoE (como 30B-A3B). Testes preliminares mostram que mesmo o modelo 0.6B exibe alguma “sensação de inteligência”, apesar de apresentar alucinações. A comunidade está curiosa sobre a alternância do “modo de pensamento”, as capacidades de Agent e seu desempenho em vários benchmarks (como AidanBench) e aplicações práticas. Alguns preveem que o Qwen3 se tornará o novo padrão para modelos de código aberto, desafiando os modelos líderes existentes (Fonte: teortaxesTex, teortaxesTex, teortaxesTex, teortaxesTex, natolambert, scaling01, teortaxesTex, teortaxesTex, Dorialexander, Dorialexander, karminski3)

Lançamento do Qwen3 gera discussões e testes na comunidade

Propaganda sobre descobertas de IA frequentemente acusada de exagero: Discussões na comunidade apontam que notícias do tipo “IA descobre X” publicadas pela mídia ou instituições frequentemente exageram grosseiramente o papel real da IA. Tomando como exemplo o comunicado de imprensa da Universidade da Califórnia em San Diego sobre a IA ajudando a descobrir a causa da doença de Alzheimer, especialistas da área esclareceram no Hacker News que a IA foi usada apenas em uma pequena parte da análise de dados, enquanto o design experimental central, a validação e os avanços teóricos ainda foram realizados por cientistas humanos. Essa propaganda que amplifica infinitamente o papel da IA é criticada por desrespeitar os esforços dos cientistas e por potencialmente enganar a percepção pública sobre as capacidades da IA (Fonte: random_walker, jeremyphoward)

Propaganda sobre descobertas de IA frequentemente acusada de exagero

Preocupações sobre IA substituindo trabalho de escritório em larga escala: Um post no Reddit gerou discussão, argumentando que a tecnologia de IA está se desenvolvendo rapidamente e pode substituir a maioria dos trabalhos de escritório baseados em PC antes de 2030, incluindo análise, marketing, codificação básica, escrita, atendimento ao cliente, entrada de dados, etc., e até mesmo alguns cargos profissionais como analistas financeiros e assistentes jurídicos seriam afetados. O autor do post teme que a sociedade não esteja preparada para isso e que as habilidades existentes possam se tornar obsoletas rapidamente. As opiniões nos comentários variam: alguns acreditam que a IA ainda tem limitações (como erros factuais), outros analisam a complexidade da substituição sob a perspectiva da estrutura econômica, e outros consideram isso uma ocorrência normal em todas as revoluções tecnológicas (Fonte: Reddit r/ArtificialInteligence)

IA está tornando fraudes online mais difíceis de identificar: Discussões apontam que ferramentas de IA estão sendo usadas para criar negócios falsos altamente realistas, incluindo sites completos, perfis de executivos, contas de mídia social e histórias de fundo detalhadas. Esse conteúdo gerado por IA não possui erros óbvios de ortografia ou gramática, tornando ineficazes os métodos tradicionais de identificação baseados em pistas superficiais. Até mesmo investigadores de fraudes profissionais admitem que está cada vez mais difícil distinguir o verdadeiro do falso. Isso levanta preocupações sobre a drástica queda na credibilidade das informações online; quando a “evidência online” perde o significado, o sistema de confiança enfrentará sérios desafios (Fonte: Reddit r/artificial)

IA está tornando fraudes online mais difíceis de identificar

Atualização do ChatGPT Plus gera insatisfação entre usuários: Um usuário pagante do ChatGPT Plus postou uma reclamação, argumentando que as atualizações secretas recentes da OpenAI (especialmente por volta de 27 de abril) pioraram gravemente a experiência do usuário. Problemas específicos incluem: sessões que expiram facilmente, limites de mensagens mais rígidos (interrupção após cerca de 20-30 mensagens), comprimento reduzido de conversas longas, perda de rascunhos ao fechar o aplicativo e dificuldade em manter a continuidade de projetos de longo prazo. O usuário critica a OpenAI por não notificar com antecedência, sacrificando a qualidade da conversa para priorizar a carga do servidor, o que diminui a experiência do serviço pago e prejudica os usuários que dependem dele para trabalhos sérios ou projetos pessoais (Fonte: Reddit r/ArtificialInteligence)

“Aprender a aprender” torna-se habilidade crucial na era da IA: Discussões na comunidade consideram que, com a popularização e rápida iteração das ferramentas de IA, a importância de simplesmente acumular conhecimento diminui, enquanto “aprender a aprender” (meta-aprendizado) e a capacidade de adaptação à mudança se tornam cruciais. A capacidade de reaprender rapidamente, ajustar direções e realizar experimentos será uma competência central. A dependência excessiva da IA pode impedir o desenvolvimento dessa capacidade de adaptação (Fonte: Reddit r/ArtificialInteligence)

Perspectivas para cargos de Engenharia de Prompt geram controvérsia: Um artigo do Wall Street Journal afirmando que “o trabalho de IA mais quente de 2023 (engenheiro de prompt) já está obsoleto” gerou discussão na comunidade. Embora o aprimoramento das capacidades dos modelos realmente reduza a dependência de Prompts complexos, a habilidade de interagir eficazmente com a IA e guiá-la para completar tarefas específicas (engenharia de prompt em sentido amplo) ainda é importante em muitos cenários de aplicação. O ponto de controvérsia é se essa habilidade pode se sustentar como um cargo de “engenheiro” de longo prazo e bem remunerado (Fonte: pmddomingos)

Ética e impacto social da IA continuam em foco: Várias discussões na comunidade abordam a ética e o impacto social da IA. Geoffrey Hinton expressa preocupações de segurança sobre a mudança na estrutura corporativa da OpenAI; funcionários da DeepMind buscam sindicalização para desafiar contratos de defesa; há preocupações sobre o uso de IA para criar fraudes mais difíceis de identificar; debates sobre o consumo de energia e o impacto climático da IA; e questões sobre se a IA agravará a desigualdade social. Essas discussões refletem as amplas considerações éticas e sociais que acompanham o desenvolvimento da tecnologia de IA (Fonte: Reddit r/artificial, nptacek, nptacek, paul_cal)

Ética e impacto social da IA continuam em foco

LLMs vistos como “Portais de Inteligência” em vez de AGI: Um post de blog argumenta que os atuais grandes modelos de linguagem (LLM) não são o caminho para a inteligência artificial geral (AGI), mas sim mais como “Portais de Inteligência” (Intelligence Gateways). O artigo argumenta que os LLMs refletem e reorganizam principalmente o conhecimento e os padrões de pensamento humanos passados, agindo como uma “máquina do tempo” que revisita conhecimentos antigos, em vez de uma “nave espacial” que cria inteligência totalmente nova. Essa reclassificação tem implicações importantes para avaliar os riscos, o progresso e o uso da IA (Fonte: Reddit r/artificial)

LLMs vistos como "Portais de Inteligência" em vez de AGI

Protocolo de Contexto de Modelo (MCP) gera preocupações sobre concorrência: O Model Context Protocol (MCP) visa padronizar a interação entre Agentes de IA e ferramentas/serviços externos. Discussões na comunidade consideram que, embora a padronização seja benéfica para os desenvolvedores, ela também pode gerar problemas de concorrência entre os provedores de aplicativos. Por exemplo, quando um usuário emite uma instrução genérica (como “pedir um carro”), qual servidor MCP de provedor de serviços (Uber ou Lyft) a plataforma de IA (como Anthropic) priorizará? Isso levará os provedores de serviços a tentar “poluir” fontes de dados para obter a preferência da IA? A padronização pode alterar o cenário atual de marketing e concorrência (Fonte: madiator)

Necessidade de validação de planos gerados por Agentes de IA: Com o aumento das aplicações de Agentes LLM, garantir que os planos de execução gerados pelos Agentes sejam seguros e confiáveis tornou-se um problema. O surgimento de ferramentas como plan-lint, que visam reduzir o risco da execução automática de tarefas por Agentes através de verificações pré-execução (como detecção de loops, vazamento de informações sensíveis, limites numéricos, etc.), reflete a preocupação da comunidade com a segurança e a confiabilidade dos Agentes (Fonte: Reddit r/MachineLearning)

Baixa representatividade feminina na área de segurança de IA chama atenção: A pesquisadora de segurança de IA Sarah Constantin postou que parece haver poucas mulheres trabalhando na área de segurança de IA e, como nova mãe, expressou preocupação com o ambiente de crescimento futuro de sua filha. Ela se pergunta se outras mães também trabalham em segurança de IA e reflete sobre suas perspectivas e preocupações. Isso gerou discussões sobre a diversidade e as perspectivas de diferentes grupos na área de segurança de IA (Fonte: sarahcat21)

Funcionalidade Deep Research do ChatGPT criticada por resultados desatualizados: Usuários relatam que a funcionalidade Deep Research do ChatGPT, baseada no o4-mini, ao pesquisar áreas específicas (como LLMs auto-hospedados), retorna resultados relativamente antigos (por exemplo, recomendando BLOOM 176B e Falcon 40B), não cobrindo os modelos mais recentes como Qwen 3, Gemma-3, etc. Isso levanta questões sobre a atualidade e a utilidade da informação desta funcionalidade, especialmente para usuários profissionais que precisam das informações mais recentes (Fonte: teortaxesTex)

Viés iterativo na geração de imagens por IA: Um usuário do Reddit demonstrou o viés acumulado na geração de imagens por IA pedindo ao ChatGPT Omni para “replicar exatamente a imagem anterior” 74 vezes consecutivas. O vídeo mostra que, apesar da instrução permanecer inalterada, cada imagem gerada sofre pequenas, mas gradualmente acumuladas, alterações em relação à anterior, resultando em uma imagem final significativamente diferente da inicial. Isso revela intuitivamente os desafios dos modelos generativos na reprodução exata e na manutenção da consistência a longo prazo (Fonte: Reddit r/ChatGPT)

Viés iterativo na geração de imagens por IA

Título de Kaggle Competition Grandmaster é difícil de obter: Discussões na comunidade mencionam que existem apenas 362 Kaggle Competition Grandmasters no mundo, enfatizando o enorme tempo e esforço necessários para atingir esse nível. Alguém com experiência compartilhou que, mesmo com doutorado em matemática, gastou 4000 horas para chegar a GM, e depois investiu milhares de horas adicionais para vencer sua primeira competição, totalizando dezenas de milhares de horas para chegar ao topo do ranking geral do Kaggle. Isso reflete a dificuldade de alcançar sucesso nas principais competições de ciência de dados (Fonte: jeremyphoward)

💡 Outros

Evento local do CVPR em Paris: O CVPR 2025 realizará um evento local em Paris no dia 6 de junho, incluindo uma sessão de pôsteres para artigos aceitos no CVPR, e palestras principais de Alexei Efros, Cordelia Schmid (@dlarlus) e Alexandre Alahi (@AlexAlahi) (Fonte: Ar_Douillard)

Evento local do CVPR em Paris

Geoffrey Hinton denuncia artigo falso no Researchgate: Geoffrey Hinton apontou a existência de um artigo falso no site Researchgate intitulado “The AI Health Revolution: Personalizing Care through Intelligent Case-based Reasoning”, que o nomeia como autor junto com Yann LeCun. Ele mencionou que mais de um terço da lista de referências do artigo aponta para Shefiu Yusuf, mas não especificou o significado disso (Fonte: geoffreyhinton)

Anúncio da transmissão ao vivo do Meta LlamaCon 2025: A Meta AI lembra que o LlamaCon 2025 será transmitido ao vivo em 29 de abril às 10:15, horário do Pacífico. O evento incluirá palestras principais, conversas informais (“fireside chats”) e divulgará as informações mais recentes sobre a série de modelos Llama (Fonte: AIatMeta)

Garra de múltiplos dedos inspirada em lagartixa de Stanford: A garra bioinspirada em lagartixa com múltiplos dedos desenvolvida pela Universidade de Stanford demonstrou sua capacidade de preensão. O design imita o princípio de adesão dos pés da lagartixa e pode ser aplicado na preensão robótica de objetos irregulares ou frágeis (Fonte: Ronald_vanLoon)

Inovação em tecnologia de saúde assistida por IA: A comunidade compartilhou alguns conceitos ou produtos de tecnologia de saúde assistida por IA ou tecnologia, como um assento que pode aliviar a dor de trabalhadores manuais, o pé protético flexível sem motor SoftFoot Pro e um artigo sobre avanços no cultivo de dentes em laboratório. Isso demonstra o potencial da tecnologia para melhorar a saúde humana e a qualidade de vida (Fonte: Ronald_vanLoon, Ronald_vanLoon, Ronald_vanLoon)

Inovação em tecnologia de saúde assistida por IA

Twitter facilita oportunidade de empreendedorismo: Andrew Carr compartilhou sua experiência de contatar proativamente Greg Brockman via Twitter (X) durante a conferência NeurIPS de 2019 e conversar com ele. Essa conversa casual acabou levando a importantes oportunidades de colaboração e o ajudou a encontrar seu cofundador para criar a empresa Cartwheel. Esta história demonstra o valor das mídias sociais na construção de conexões profissionais e na criação de oportunidades (Fonte: andrew_n_carr, zacharynado)

Twitter facilita oportunidade de empreendedorismo

Progresso de projeto pessoal de condução autônoma: Um entusiasta de machine learning compartilhou o progresso de seu projeto pessoal de desenvolvimento de um Agente de condução autônoma. O projeto começou controlando um carro de controle remoto em escala 1:22, usando uma câmera e OpenCV para localização, e seguindo um caminho virtual com um controlador P. O próximo passo planejado é treinar um modelo de processo Gaussiano da dinâmica veicular e otimizar o planejamento de trajetória, com o objetivo final de escalar gradualmente para um kart e até mesmo um carro de F1, e testar no mundo real (Fonte: Reddit r/MachineLearning)

Engenharia de Dados como trajetória de carreira para Engenheiro de Machine Learning: Uma discussão no Reddit explora a viabilidade de usar a Engenharia de Dados (Data Engineer, DE) como um caminho para eventualmente se tornar um Engenheiro de Machine Learning (ML Engineer, MLE). Um cientista de dados experiente acredita que este é um ótimo ponto de partida, permitindo aprender sobre ETL/ELT, pipelines de dados, data lakes, etc., e depois, através do estudo de matemática, algoritmos de ML, MLOps, etc., combinado com certificações ou experiência em projetos, fazer a transição gradual para a posição de MLE (Fonte: Reddit r/MachineLearning)

Evento Pie & AI da DeepLearning.AI em Varsóvia: DeepLearning.AI promove seu primeiro evento Pie & AI em Varsóvia, Polônia, em parceria com a Sii Poland (Fonte: DeepLearningAI)

Evento Pie & AI da DeepLearning.AI em Varsóvia

Anúncio do evento Deep Tech Week: O evento Deep Tech Week retornará a São Francisco de 22 a 27 de junho, ocorrendo também em Nova York. O evento evoluiu de um tweet inicial para uma conferência descentralizada com 85 eventos, atraindo mais de 8200 participantes (representando 1924 startups e 814 instituições de investimento), com o objetivo de apresentar tecnologia de ponta e promover intercâmbio e colaboração (Fonte: Plinz)

Anúncio do evento Deep Tech Week

Primeiro meetup presencial do SkyPilot: A equipe do SkyPilot compartilhou o sucesso de seu primeiro meetup presencial, que atraiu muitos desenvolvedores e contou com palestrantes da Abridge, do projeto vLLM, da Anyscale, entre outros, compartilhando casos de uso do SkyPilot (Fonte: skypilot_org)

Primeiro meetup presencial do SkyPilot

Discussão: Desafios do aprendizado especializado: Membros da comunidade discutem as razões pelas quais é difícil alcançar a “maestria” no aprendizado. Uma opinião é que muitas das habilidades mais úteis (como escrever Kernels CUDA) exigem o domínio de conhecimentos de múltiplas disciplinas interligadas (como PyTorch, álgebra linear, C++), em vez do domínio extremo de uma única habilidade. Aprender novas habilidades requer ser inteligente e estar disposto a “parecer um tolo”, ousando sair da zona de conforto (Fonte: wordgrammer, wordgrammer)

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *