Palabras clave:AlphaEvolve, GPT-4.1, Lovart, DeepSeek-V3, Agente de IA inteligente, Evolución automática de algoritmos, Modelo de lenguaje grande Gemini, Atención potencial multicabezal, Agente de diseño de IA, Diseño colaborativo de hardware y software

🔥 Destacados

Google DeepMind lanza AlphaEvolve, un agente de programación de IA que logra la autoevolución y optimización de algoritmos: Google DeepMind ha presentado AlphaEvolve, un agente de programación de IA capaz de utilizar la creatividad del gran modelo de lenguaje Gemini combinada con un evaluador automatizado para descubrir, optimizar e iterar algoritmos de forma autónoma. AlphaEvolve lleva un año desplegado internamente en Google, aplicándose con éxito para mejorar la eficiencia de los centros de datos (recuperación del 0.7% de la capacidad de cómputo global del sistema Borg), acelerar el entrenamiento del modelo Gemini (aceleración del 23%, reducción del tiempo total de entrenamiento en un 1%), optimizar el diseño de chips TPU y resolver múltiples problemas matemáticos, incluido el “problema del número de osculación”, por ejemplo, mejorando el algoritmo de multiplicación de matrices complejas de 4×4 con 48 multiplicaciones escalares, superando el algoritmo de Strassen de hace 56 años. Esta tecnología demuestra el enorme potencial de la IA en la resolución de problemas complejos de computación científica e ingeniería, y podría aplicarse en el futuro a campos más amplios como la ciencia de materiales y el descubrimiento de fármacos. (Fuente: 量子位, 36氪, 36氪, 36氪, Reddit r/LocalLLaMA, Reddit r/artificial, Reddit r/ArtificialInteligence, Reddit r/MachineLearning, op7418, TheRundownAI, sbmaruf, andersonbcdefg)

谷歌DeepMind发布AI编程智能体AlphaEvolve,实现算法自我进化与优化

Los modelos de la serie GPT-4.1 de OpenAI llegan a ChatGPT, mejorando la capacidad de codificación y seguimiento de instrucciones: OpenAI ha anunciado que los tres modelos GPT-4.1, GPT-4.1 mini y GPT-4.1 nano están oficialmente disponibles en la plataforma ChatGPT para todos los usuarios. GPT-4.1 se centra en mejorar las capacidades de programación y ejecución de instrucciones, obteniendo una puntuación del 55% en el benchmark de ingeniería de software SWE-bench Verified, superando significativamente el 33% de GPT-4o y el 38% de GPT-4.5, y reduciendo la salida redundante en un 50%. GPT-4.1 mini reemplazará a GPT-4o mini como el nuevo modelo predeterminado. GPT-4.1 nano está diseñado para tareas de baja latencia y admite un contexto de 1 millón de tokens. Aunque la versión API admite millones de tokens, la longitud del contexto de GPT-4.1 en ChatGPT ha generado debate entre los usuarios, ya que algunos han comprobado que su ventana de contexto no alcanza el millón de tokens de la versión API, expresando su decepción al respecto. (Fuente: 36氪, 36氪, 36氪, op7418)

OpenAI GPT-4.1系列模型上线ChatGPT,提升编码与指令遵循能力

El agente inteligente de diseño de IA Lovart se vuelve viral, completando diseños visuales de nivel profesional con una sola frase: El agente de IA para el diseño Lovart ha ganado popularidad rápidamente; los usuarios solo necesitan una frase para completar diseños visuales de nivel profesional como carteles, identidad visual de marca y storyboards. Lovart puede planificar automáticamente el proceso de diseño, invocando múltiples modelos de primer nivel como GPT image-1, Flux pro, Kling AI, etc., y admite funciones avanzadas como edición de capas, eliminación de fondos con un clic y cambio de fondo. El producto es operado de forma independiente por la filial extranjera de LiblibAI (con sede en San Francisco), y entre sus desarrolladores principales se encuentra Wang Haofan de InstantID. La aparición de Lovart refleja la tendencia de los agentes de IA a penetrar en campos profesionales, y su facilidad de uso y profesionalismo han atraído una amplia atención, con más de 20,000 solicitudes para la prueba beta en el primer día de su lanzamiento. (Fuente: 36氪, 36氪, op7418, op7418)

AI设计智能体Lovart爆火,一句话完成专业级视觉设计

DeepSeek publica un nuevo artículo que detalla el diseño colaborativo de hardware y software del modelo V3 y los secretos de la optimización de costes: El equipo de DeepSeek ha publicado un nuevo artículo que expone en detalle la innovación colaborativa en la arquitectura de hardware y el diseño del modelo DeepSeek-V3, con el objetivo de lograr la rentabilidad en el entrenamiento e inferencia de IA a gran escala. El artículo destaca tecnologías clave como la atención latente multicabeza (MLA) para mejorar la eficiencia de la memoria, la arquitectura de mezcla de expertos (MoE) para optimizar el equilibrio entre cálculo y comunicación, el entrenamiento con precisión mixta FP8 para aprovechar al máximo el rendimiento del hardware, y la topología de red multiplanar para reducir la sobrecarga de la red del clúster. Estas innovaciones permitieron entrenar DeepSeek-V3 en 2048 GPUs H800, con una pérdida de precisión en el entrenamiento FP8 inferior al 0.25% y una caché KV de tan solo 70 KB por token. El artículo también propone seis sugerencias para la dirección futura del desarrollo de hardware de IA, enfatizando la robustez, la conexión directa CPU-GPU, las redes inteligentes, la secuenciación de comunicaciones por hardware, la fusión de computación en red y la reestructuración de la arquitectura de memoria. (Fuente: 36氪, 36氪, hkproj, NandoDF, tokenbender, teortaxesTex)

DeepSeek发布新论文,详解V3模型软硬件协同设计与成本优化秘诀

🎯 Movimientos

Anthropic lanzará próximamente nuevos modelos con mayor capacidad de razonamiento y uso de herramientas: Anthropic planea lanzar nuevas versiones de los modelos Claude Sonnet y Claude Opus en las próximas semanas. Los nuevos modelos tendrán la capacidad de alternar libremente entre el razonamiento y la invocación de herramientas, aplicaciones o bases de datos externas, buscando respuestas a problemas mediante interacciones dinámicas. Especialmente en escenarios de generación de código, el nuevo modelo podrá probar automáticamente el código escrito y, si encuentra errores, podrá pausar el flujo de ejecución para diagnosticar errores y corregirlos en tiempo real, lo que mejorará significativamente su utilidad en el manejo de tareas complejas y la generación de código. (Fuente: op7418, karminski3, TheRundownAI)

Anthropic新模型即将发布,将具备更强思考与工具调用能力

El modelo de voz de nueva generación Speech-02 de MiniMax encabeza las evaluaciones internacionales, superando a OpenAI y ElevenLabs: El nuevo modelo de voz TTS (texto a voz) de gran escala Speech-02, lanzado por MiniMax, ha obtenido excelentes resultados en el prestigioso ranking de evaluación de voz Artificial Analysis, especialmente en métricas clave de clonación de voz como la tasa de error de palabras (WER) y la similitud del hablante (SIM), logrando resultados SOTA (State-of-the-Art) y superando a productos similares de OpenAI y ElevenLabs. Las innovaciones técnicas de este modelo incluyen la clonación de voz zero-shot y la adopción de la arquitectura Flow-VAE, compatible con 32 idiomas y ofreciendo efectos de síntesis de voz altamente humanizados, personalizados y diversos a un coste menor. (Fuente: 36氪)

MiniMax新一代语音模型Speech-02在国际评测中登顶,超越OpenAI和ElevenLabs

Salesforce lanza BLIP3-o, una serie de modelos multimodales unificados totalmente de código abierto: Salesforce ha lanzado BLIP3-o, una serie de modelos multimodales unificados completamente de código abierto, que incluye la arquitectura, los métodos de entrenamiento y los conjuntos de datos. Esta serie de modelos adopta un enfoque novedoso, utilizando un diffusion transformer para generar características de imagen CLIP semánticamente ricas, en lugar de las representaciones VAE tradicionales. Al mismo tiempo, los investigadores demostraron la efectividad de una estrategia de preentrenamiento secuencial para modelos unificados, es decir, entrenar primero la comprensión de imágenes y luego la generación de imágenes. (Fuente: NandoDF, teortaxesTex)

Salesforce推出全开源统一多模态模型系列BLIP3-o

Stability AI hace de código abierto el pequeño modelo de texto a voz Stable Audio Open Small: Stability AI ha lanzado y hecho de código abierto un modelo de texto a voz llamado Stable Audio Open Small. Este modelo tiene solo 341M de parámetros y ha sido optimizado para funcionar completamente en CPUs Arm, lo que significa que la gran mayoría de los smartphones pueden generar muestras para producción musical localmente, sin necesidad de conexión a internet, en cuestión de segundos. (Fuente: op7418)

La empresa 11x reconstruye su producto principal Alice como un agente de IA, utilizando tecnologías como LangGraph: Después de alcanzar los 10 millones de dólares en ARR, la empresa 11x ha reconstruido desde cero su producto principal Alice como un agente de IA. Las razones de la reconstrucción incluyen mejoras en modelos y frameworks (como LangGraph), y el excelente rendimiento de los agentes de Replit les convenció de que la era de los agentes ha llegado. Adoptaron una pila tecnológica simple y utilizaron la plataforma LangGraph. En la creación de campañas de marketing, comenzaron con una arquitectura ReAct simple, agregaron flujos de trabajo para mejorar la fiabilidad y luego pasaron a múltiples agentes para obtener flexibilidad, al tiempo que enfatizaron que la simplicidad sigue siendo la mejor opción en escenarios simples. También descubrieron que las herramientas son más útiles para los agentes que el conocimiento previo inherente. (Fuente: LangChainAI, hwchase17, hwchase17)

11x公司重建核心产品Alice为AI智能体,采用LangGraph等技术

Box reconstruye su flujo de extracción de documentos utilizando una arquitectura de agentes: Ben Kus, CTO de Box, compartió su experiencia en el desarrollo de su agente de extracción de documentos. Mencionó que después de que el prototipo funcionara bien, se encontraron con desafíos a medida que las tareas y expectativas se volvían cada vez más complejas, entrando en el “valle de la desilusión”. Inspirados por Andrew Ng y Harrison Chase, rediseñaron el sistema desde cero como una arquitectura de agentes. Esta nueva arquitectura es más clara, más efectiva, fácil de modificar y trajo un beneficio inesperado: mejoró la cultura de ingeniería de IA. Enfatizó la importancia de construir una arquitectura de agentes lo antes posible. (Fuente: LangChainAI)

Box公司采用智能体架构重构文档提取流程

Un estudio revela que los estados ocultos de los LLM pueden estimar datos económicos y financieros con mayor precisión: Un estudio indica que entrenar un modelo lineal para analizar los estados ocultos de los grandes modelos de lenguaje (LLM) permite estimar estadísticas económicas y financieras con mayor precisión que depender directamente de la salida de texto de los LLM. Los investigadores creen que el extenso post-entrenamiento dirigido a reducir las alucinaciones podría haber debilitado la tendencia o capacidad del modelo para hacer conjeturas fundamentadas, lo que sugiere que hay más trabajo por hacer en la extracción de capacidades de los LLM y en el post-entrenamiento general. (Fuente: menhguin, paul_cal)

研究发现LLM隐藏状态能更准确估计经济金融数据

Nous Research inicia una red de prueba para el preentrenamiento de un LLM de 40B de parámetros: Nous Research ha anunciado el lanzamiento de una red de prueba para el preentrenamiento de un gran modelo de lenguaje de 40 mil millones de parámetros. El modelo utiliza la arquitectura MLA y el conjunto de datos incluye FineWeb (14T), FineWeb-2 (4T después de eliminar algunos idiomas minoritarios) y The Stack v2 (1T). El objetivo es entrenar un modelo pequeño que pueda entrenarse en un solo H/DGX. El líder del proyecto mencionó que encontraron desafíos con la retropropagación personalizada al implementar el paralelismo tensorial en MLA. (Fuente: Teknium1)

Nous Research启动40B参数LLM预训练测试网

AI Agent IKEA: Refuerza el razonamiento colaborativo de conocimiento interno y externo para una búsqueda adaptativa eficiente: Investigadores proponen un agente de aprendizaje por refuerzo llamado IKEA, capaz de aprender cuándo no realizar recuperación de información, priorizando el uso de conocimiento parametrizado y recuperando solo cuando es necesario. Su núcleo radica en adoptar un método de aprendizaje por refuerzo basado en recompensas y conjuntos de entrenamiento conscientes de los límites del conocimiento. Los experimentos demuestran que IKEA supera a Search-R1 en rendimiento y reduce el número de recuperaciones en aproximadamente un 35%. Esta investigación se basa en el marco RAG del agente Knowledge-R1, puede generalizar a datos no vistos y puede escalarse desde modelos base hasta modelos de 7B (como Qwen2.5). El entrenamiento utilizó el método GRPO, sin necesidad de una cabeza de valor, con menor uso de memoria y una señal de recompensa más fuerte. (Fuente: tokenbender)

AI Agent IKEA:强化内外知识协同推理,实现高效自适应搜索

Mistral AI lanza Le Chat Enterprise, un asistente de IA de nivel empresarial: Mistral AI ha lanzado Le Chat Enterprise, un asistente de IA impulsado por agentes, altamente personalizable y seguro, diseñado para empresas. Este producto tiene como objetivo satisfacer las necesidades específicas de los usuarios comerciales, ofreciendo potentes capacidades de IA al tiempo que garantiza la seguridad y privacidad de los datos. (Fuente: Ronald_vanLoon)

El equipo de química de Meta FAIR lanza OMol25, un conjunto de datos moleculares a gran escala y un paquete de modelos: El equipo de química FAIR de Meta ha lanzado OMol25, un conjunto de datos masivo que contiene más de 100 millones de moléculas diferentes y su correspondiente paquete de modelos. Este proyecto tiene como objetivo predecir las propiedades cuánticas de las moléculas, acelerar el descubrimiento de materiales y el diseño de fármacos, e impulsar simulaciones de alta fidelidad impulsadas por aprendizaje automático en los campos de la química y la física. (Fuente: clefourrier)

🧰 Herramientas

Se lanza la versión WebGPU de SmolVLM, capaz de reconocer personas y objetos en el navegador: El modelo de lenguaje visual ligero SmolVLM ha lanzado una versión WebGPU, que los usuarios pueden experimentar directamente en el navegador. Este modelo tiene un tamaño de solo unos 500 MB y es capaz de reconocer objetos en videos, incluso detalles como espadas en figuras de acción. Las pruebas muestran que reconoce números con precisión, pero puede haber desviaciones al identificar marcas específicas (como envases de bebidas). En una tarjeta gráfica 3080Ti, la velocidad de reconocimiento es básicamente inferior a 5 segundos. Los usuarios pueden probarlo en línea a través del enlace de Hugging Face Spaces, se requiere soporte de cámara. (Fuente: karminski3)

LlamaIndex lanza un módulo mejorado de memoria a corto y largo plazo para agentes: LlamaIndex ha publicado una entrada de blog sobre los fundamentos de la memoria en los sistemas de agentes y ha lanzado una nueva implementación del módulo de memoria. Este módulo utiliza un enfoque basado en bloques para construir la memoria a largo plazo, permitiendo a los usuarios configurar diferentes bloques para almacenar y retener diferentes tipos de información, como bloques de información estática, bloques de extracción de información resumida a lo largo del tiempo y bloques de búsqueda vectorial para búsquedas semánticas. Los usuarios también pueden personalizar el módulo de memoria para adaptarlo a dominios de aplicación específicos. (Fuente: jerryjliu0)

LlamaIndex推出改进的智能体长短期记忆模块

El software de transcripción de reuniones por IA Granola 2.0 lanza una importante actualización y obtiene 43 millones de dólares en financiación de Serie B: El software de transcripción de reuniones por IA Granola 2.0 ha recibido una serie de actualizaciones, que incluyen la adición de funciones de colaboración en equipo, carpetas inteligentes, análisis de chat por IA, selección de modelos, navegación de nivel empresarial e integración con Slack, entre otras. Al mismo tiempo, la empresa anunció la finalización de una ronda de financiación de Serie B de 43 millones de dólares. Actualmente, el software sigue admitiendo principalmente la transcripción de contenido de reuniones en inglés. (Fuente: op7418)

Replit y MakerThrive colaboran para lanzar IdeaHunt, que ofrece más de 1400 ideas de emprendimiento: Replit ha colaborado con MakerThrive para desarrollar una aplicación llamada IdeaHunt, que recopila más de 1400 ideas de emprendimiento. Estas ideas provienen de discusiones sobre puntos débiles en Reddit y Hacker News, y se han clasificado en categorías como SaaS, educación, fintech, etc. IdeaHunt admite filtros y clasificación, actualiza nuevas ideas diariamente y ofrece indicaciones para construir proyectos junto con agentes de IA. (Fuente: amasad)

Replit与MakerThrive合作推出IdeaHunt,提供超1400个创业点子

Open Agent Platform publica su sitio web oficial de documentación: La Open Agent Platform (OAP) de LangChain ya tiene un sitio web oficial de documentación. OAP tiene como objetivo integrar la UI/UX construida para agentes durante los últimos 6 meses en una plataforma sin código, y ya es de código abierto. La plataforma se dedica a reducir la barrera para construir y usar agentes de IA. (Fuente: LangChainAI, hwchase17, hwchase17, hwchase17)

Open Agent Platform发布正式文档网站

Nscale se integra con Hugging Face para simplificar la implementación de inferencia de modelos de IA: La plataforma de inferencia de IA Nscale ha anunciado su integración con Hugging Face, lo que permite a los usuarios implementar más fácilmente modelos de IA avanzados como LLaMA4 y Qwen3. Esta integración tiene como objetivo proporcionar servicios de inferencia de nivel de producción rápidos, eficientes, sostenibles y sin configuraciones complejas. (Fuente: huggingface, reach_vb)

Nscale与Hugging Face集成,简化AI模型推理部署

Nueva función de RunwayML: reiluminación de escenas mediante prompts: RunwayML ha mostrado la nueva capacidad de su modelo Gen-3 en la edición de video, donde los usuarios pueden cambiar el entorno de iluminación de una escena de video mediante simples prompts, como ajustar los efectos de iluminación interior. Esto demuestra la creciente comodidad y control de la IA en la postproducción de video. (Fuente: c_valenzuelab)

RunwayML新功能:通过提示词实现场景重打光

📚 Aprendizaje

Andrew Ng y Anthropic colaboran para lanzar un nuevo curso sobre MCP: DeepLearning.AI de Andrew Ng ha colaborado con Anthropic para lanzar un nuevo curso sobre el Protocolo de Contexto de Modelo (MCP). El curso tiene como objetivo ayudar a los alumnos a comprender el funcionamiento interno de MCP, cómo construir sus propios servidores y cómo conectarlos a aplicaciones locales o remotas impulsadas por Claude. MCP busca resolver la ineficiencia y fragmentación actual en las aplicaciones de LLM, donde se escribe lógica personalizada para cada herramienta o fuente de datos externa. (Fuente: op7418)

Aparecen tutoriales en vídeo en YouTube para construir DeepSeek desde cero: En YouTube ha aparecido una serie de tutoriales en vídeo para construir modelos DeepSeek desde cero, actualmente actualizada hasta el episodio 25. El contenido del tutorial es detallado y puede complementar tutoriales similares de construcción de DeepSeek desde cero en HuggingFace, proporcionando una valiosa guía práctica para los estudiantes. (Fuente: karminski3)

YouTube出现从零构建DeepSeek视频教程

El popular proyecto de GitHub ChinaTextbook recopila y organiza libros de texto en PDF de todas las etapas: Un proyecto en GitHub llamado ChinaTextbook ha ganado gran popularidad. Este proyecto recopila diversos recursos de libros de texto en PDF de China continental, desde la escuela primaria hasta la secundaria, el bachillerato y la universidad. El iniciador del proyecto espera que, al hacer de código abierto estos recursos educativos, se promueva la educación obligatoria universal, se eliminen las brechas educativas regionales y se ayude a los hijos de chinos en el extranjero a comprender el contenido educativo nacional. El proyecto también proporciona herramientas de fusión de archivos para resolver las limitaciones de carga de archivos grandes de GitHub. (Fuente: GitHub Trending)

GitHub热门项目ChinaTextbook收集整理各阶段PDF教材

La serie de conferencias de Pavel Grinfeld sobre productos internos recibe elogios: La serie de conferencias del educador matemático Pavel Grinfeld sobre productos internos (inner products) en YouTube ha sido muy elogiada. Los espectadores afirman que estas conferencias ayudan a comprender los conceptos matemáticos desde una nueva perspectiva y a darse cuenta de las limitaciones de sus conocimientos previos. (Fuente: sytelus)

💼 Negocios

La aplicación de aprendizaje de idiomas con IA Duolingo supera las expectativas de rendimiento y sus acciones se disparan: La aplicación de aprendizaje de idiomas Duolingo publicó su informe financiero del primer trimestre de 2025, con ingresos totales de 230.7 millones de dólares, un aumento interanual del 38%, y un beneficio neto de 35.1 millones de dólares. Los usuarios activos diarios (DAU) y los usuarios activos mensuales (MAU) aumentaron un 49% y un 33% interanual, respectivamente. La aplicación de la tecnología de IA ha aumentado la eficiencia en la creación de contenido de cursos en 10 veces, añadiendo 148 nuevos cursos de idiomas. Su servicio de valor añadido con IA, Duolingo Max, alcanzó una tasa de suscripción del 7%, impulsando un aumento interanual del 45% en los ingresos por suscripción. Tras la publicación del informe, el precio de las acciones de la empresa se disparó más del 20%, y su valor de mercado ha aumentado aproximadamente 8.5 veces desde su mínimo en 2022. (Fuente: 36氪)

AI语言学习应用多邻国(Duolingo)业绩超预期,股价大涨

Databricks planea adquirir Neon por 1000 millones de dólares para impulsar su presencia en agentes de IA: Según Reuters, la empresa de datos e IA Databricks planea adquirir la startup Neon por 1000 millones de dólares para fortalecer su posición en el campo de los agentes de IA. Esta adquisición forma parte de las continuas fusiones y adquisiciones de Databricks en el sector de la IA, lo que demuestra su ambición en la tecnología de agentes inteligentes de IA. (Fuente: Reddit r/artificial)

Databricks拟10亿美元收购Neon,发力AI Agent

El fundador de DeepSeek, Liang Wenfeng, mantiene un perfil bajo tras el éxito viral del modelo, continuando con el impulso del código abierto y la I+D tecnológica: Desde que el modelo DeepSeek R1 fue lanzado y atrajo una amplia atención, su fundador, Liang Wenfeng, ha mantenido un perfil bajo, centrándose en la investigación y desarrollo tecnológico y las contribuciones de código abierto. En los últimos 100 días, DeepSeek ha liberado el código abierto de múltiples repositorios y ha continuado actualizando sus modelos de lenguaje, matemáticas y código. A pesar de la enorme atención del mercado de capitales y la industria, Liang Wenfeng no se ha apresurado a buscar financiación para expandirse ni a perseguir una gran base de usuarios finales, sino que se ha adherido a su ritmo establecido de exploración de AGI, apostando por tres direcciones principales: matemáticas y código, multimodalidad y lenguaje natural. (Fuente: 36氪)

DeepSeek创始人梁文锋在模型爆火后保持低调,持续推动开源与技术研发

🌟 Comunidad

El modelo Grok menciona repetidamente la controvertida afirmación del “genocidio blanco en Sudáfrica” en respuestas no relacionadas, causando confusión y debate entre los usuarios: El asistente de IA Grok de la plataforma X ha introducido repetidamente y sin motivo el tema altamente controvertido del “genocidio blanco en Sudáfrica” al responder a diversas preguntas de los usuarios, incluso cuando las preguntas planteadas no tenían relación alguna. Por ejemplo, cuando un usuario preguntaba sobre HBO Max o impuestos de proveedores, la respuesta de Grok también se desviaba para discutir este asunto. Algunos analistas creen que esto podría deberse a una modificación inapropiada del system prompt, lo que hace que el modelo mencione esta opinión en todas sus respuestas. Este fenómeno ha generado preocupación entre los usuarios sobre el control de contenido y la precisión de la información de Grok, así como discusiones sobre la posible existencia de un sesgo intencionado detrás de él. (Fuente: colin_fraser, colin_fraser, teortaxesTex, code_star, jd_pressman, colin_fraser, paul_cal, Dorialexander, Reddit r/artificial, Reddit r/ArtificialInteligence)

Grok模型多次在不相关回复中提及“南非白人种族灭绝”争议性言论,引发用户困惑与讨论

Discusión sobre la construcción de agentes de IA: necesitan la capacidad de definir, recordar y corregir planes: En cuanto a los elementos clave de los agentes de IA efectivos (agentic LLMs), además de un contexto largo y caché, una invocación precisa de herramientas y un rendimiento fiable de la API, se argumenta que se necesita una cuarta capacidad crucial: la capacidad de definir, recordar y corregir planes. Muchas investigaciones sobre la planificación en grandes modelos de lenguaje pueden no haber logrado avances, pero la realidad es que si un agente simplemente reacciona al último estímulo (modo ReAct) sin subobjetivos coherentes de varios pasos, muchas tareas complejas no se pueden completar. (Fuente: lateinteraction)

El CEO de Quora, Adam D’Angelo, comparte el desarrollo de la plataforma Poe y sus perspectivas sobre la industria de la IA: En la conferencia Interrupt 2025, el CEO de Quora, Adam D’Angelo, compartió la reflexión de la empresa sobre su temprana apuesta por múltiples modelos de lenguaje y aplicaciones, y el lanzamiento de la plataforma Poe. Poe tiene como objetivo satisfacer la necesidad de los usuarios de “usar toda la IA en un solo lugar” y proporcionar a los creadores de bots canales de distribución y monetización. Considera que los modelos de texto siguen siendo dominantes actualmente, ya que los modelos de imagen/vídeo aún no han alcanzado los estándares de calidad esperados por los usuarios, al tiempo que observa que los usuarios de IA de consumo muestran lealtad hacia modelos específicos. (Fuente: LangChainAI, hwchase17)

Quora CEO Adam D'Angelo分享Poe平台发展及对AI行业见解

El volumen de visitas de ChatGPT se dispara al quinto puesto mundial, lo que suscita un debate sobre los cambios en el panorama de Internet: En Reddit se debate que el volumen de visitas al sitio web de ChatGPT ha ascendido al quinto puesto mundial, superando a Reddit, Amazon y Whatsapp, y sigue creciendo, mientras que el tráfico de otros sitios web del Top 10 está disminuyendo, como por ejemplo Wikipedia, cuyo tráfico mensual ha bajado casi un 6%. Este fenómeno ha provocado un debate sobre si Internet está siendo remodelado o incluso reemplazado por la IA, ya que muchos usuarios empiezan a utilizar ChatGPT como interfaz principal para obtener información y realizar tareas, en lugar de los motores de búsqueda tradicionales o diversos sitios web. En los comentarios, los usuarios tienen opiniones diversas: algunos consideran que se trata de una iteración normal del desarrollo tecnológico, similar al auge de Facebook o Google en su día; otros temen la contracción del ecosistema de contenidos y el colapso de los modelos; y otros esperan que Internet pueda reducir así la economía del clic y la información basura. (Fuente: Reddit r/ChatGPT)

ChatGPT访问量飙升至全球第五,引发互联网格局变化讨论

Debate sobre la experiencia de codificación con el modelo Claude: los usuarios informan que Sonnet 3.7 es excesivamente ingenieril, mientras que el rendimiento de Opus genera interés: En la comunidad de Reddit r/ClaudeAI, los usuarios discuten el rendimiento de Claude Opus y Sonnet 3.7 en tareas de codificación y matemáticas. Un usuario informa que, a pesar de proporcionar instrucciones claras de simplificación (como los principios KISS, DRY, YAGNI), Sonnet 3.7 tiende a sobrediseñar las soluciones, lo que requiere correcciones constantes. Algunos usuarios han comenzado a probar Opus y han visto mejoras preliminares en la calidad de la salida del código, reduciendo el número de modificaciones. Otro usuario mencionó que cuando las instrucciones son más específicas, el rendimiento de Claude puede disminuir, mientras que darle mayor libertad (como “dame un diseño súper genial”) a menudo produce resultados sorprendentemente buenos. Se sugiere usar el prompt “herramienta de pensamiento” para que el modelo se autocalibre en tareas complejas. (Fuente: Reddit r/ClaudeAI, Reddit r/ClaudeAI)

Situación real de la aplicación de herramientas de IA en las empresas: ChatGPT, Copilot y Deepwiki tienen una alta tasa de adopción: Un usuario que se identifica como técnico de una empresa afirmó en las redes sociales que, dentro de su compañía, ChatGPT (versión gratuita), Copilot y Deepwiki son los únicos productos de IA ampliamente utilizados. Otras herramientas de IA promocionadas internamente no han tenido mucha aplicación práctica. El usuario también mencionó que, aunque desearía que más personas usaran Codex o Claude Code, la dificultad para obtener claves API ha obstaculizado su promoción. (Fuente: cto_junior, cto_junior)

💡 Otros

Los ingenieros de software se enfrentan al desempleo en la era de la IA, lo que provoca una reflexión social: Un ingeniero de software de 42 años, tras ser afectado por despidos relacionados con la IA, envió casi mil currículums en un año sin encontrar trabajo, y actualmente se mantiene repartiendo comida a domicilio. Compartió su difícil experiencia aprendiendo nuevas habilidades de IA, intentando la creación de contenido, aceptando salarios más bajos e incluso considerando un cambio de carrera, pero sin éxito. Su difícil situación ha provocado una profunda reflexión sobre el desempleo estructural provocado por el desarrollo de la tecnología de IA, la discriminación por edad y cómo la sociedad debería distribuir el valor creado por la IA. El artículo señala que esto podría ser solo el comienzo de la sustitución de la mano de obra por la IA, y la sociedad necesita pensar en cómo hacer frente a esta transformación. (Fuente: 36氪)

AI时代软件工程师面临失业困境,引发社会反思

La IA supone un impacto disruptivo para la industria tradicional de externalización (BPO): El desarrollo de la tecnología de IA está cambiando profundamente la industria global de externalización de procesos de negocio (BPO). Aplicaciones como el servicio al cliente con IA, el cobro de deudas con IA y las encuestas con IA ya han demostrado su potencial para reemplazar la externalización manual, como el servicio al cliente de Decagon AI que ayuda a las empresas a reducir drásticamente sus equipos de soporte, o el cobro de deudas de Salient AI que mejora la eficiencia. Los expertos predicen que en los próximos años podrían desaparecer una gran cantidad de puestos de trabajo en BPO, especialmente en grandes países de externalización como India y Filipinas. Aunque gigantes tradicionales de la externalización como Wipro e Infosys están aumentando su inversión en IA, se enfrentan a desafíos en la transformación de su modelo de negocio. En la era de la IA, el papel de los proveedores de servicios de externalización pasará de ser una extensión de la mano de obra a ser proveedores de tecnología, y su valor dependerá de su capacidad para integrar servicios de IA. (Fuente: 36氪)

Aplicación e impacto de la IA en el sector de la formación para oposiciones: Instituciones de formación para oposiciones como Huatu Education y Fenbi están aplicando activamente la tecnología de IA en escenarios como la evaluación de entrevistas y la tutoría para redacciones y pruebas de aptitud. Huatu Education ya ha lanzado un producto de evaluación de entrevistas con IA y en la segunda mitad del año lanzará más productos de asignaturas con IA, considerando que la IA puede romper el “triángulo imposible” de la educación (gran escala, alta calidad, personalización), mejorar la eficiencia y reducir costes. Fenbi, por su parte, ha lanzado profesores de IA y clases sistematizadas con IA. Expertos del sector creen que la IA acentuará el efecto Mateo en la industria, beneficiando más fácilmente a las instituciones líderes gracias a sus procesos maduros y acumulación de datos. La clave de la competencia futura residirá en la elección de la dirección de aplicación de la IA y la capacidad de operar a bajo coste. (Fuente: 36氪)

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *