Diario de IA – 2025-04-21(Tarde)

Palabras clave:Gafas de IA, Robots humanoides, Gobernanza de derechos de autor de IA, OpenAI, Batalla de las cien gafas de IA, Maratón de robots humanoides, Gobernanza global de derechos de autor de IA, Modelo de razonamiento OpenAI o3, Mercado de mascotas de IA, Proceso de contratación con IA, Controversias en atención al cliente con IA, Aplicación educativa de la IA

«` markdown

🔥 Foco

La “guerra de las cien gafas” de IA se intensifica, los gigantes entran al mercado y reducen el espacio para startups : Gigantes tecnológicos como Xiaomi, Huawei, Alibaba y ByteDance están acelerando su entrada en el mercado de las gafas de IA, desencadenando una nueva ronda de la “guerra de las cien gafas”. Xiaomi lanzó las gafas de audio inteligentes MIJIA y planea lanzar gafas AR con funciones más potentes; Huawei actualizó sus productos de gafas inteligentes; Alibaba y ByteDance también están desarrollando nuevos productos que integran funciones de IA y AR. Actualmente existen cuatro categorías de productos en el mercado: audio+IA, audio+cámara+IA, audio+AR+IA, audio+cámara+AR+IA. Las grandes empresas están desplegando múltiples líneas, mientras que las startups se centran principalmente en la ruta más completa pero también la más difícil. Las grandes empresas tienen ventajas evidentes en términos de financiación, tecnología (como soluciones de doble chip para reducir el consumo de energía), integración del ecosistema (obtención de permisos del sistema) y canales, lo que supone una enorme presión para startups como RayNeo y XREAL. Aunque las startups tienen un buen olfato para el mercado, la lenta iteración tecnológica las enfrenta al riesgo de ser superadas. Sin embargo, las gafas de IA todavía enfrentan desafíos técnicos (peso, duración de la batería, potencia de cálculo), aceptación del mercado, privacidad (riesgo de grabación oculta con la cámara), etc. Su forma final y el tamaño del mercado aún no están claros. Las startups podrían buscar espacio para sobrevivir a través de un posicionamiento diferenciado (como INMO apuntando a grupos específicos). (Fuente: AI眼镜大战升级:巨头进场,小团队悬了?AI拼好镜,智能眼镜又支棱起来了?字节跳动要做AI眼镜?这事还真的很有想象空间)

La 'guerra de las cien gafas' de IA se intensifica: los gigantes entran, los equipos pequeños en peligro

Los nuevos modelos de inferencia o3/o4-mini de OpenAI son potentes pero la tasa de alucinación se dispara : Los últimos modelos de inferencia lanzados por OpenAI, o3 y o4-mini, muestran un rendimiento excelente en tareas complejas como codificación, matemáticas, ciencias y percepción visual. Por ejemplo, o3 alcanzó el nivel de los 200 mejores competidores humanos a nivel mundial en la competencia de programación Codeforces. Sin embargo, informes técnicos y pruebas de terceros señalan que la “tasa de alucinación” de estos dos modelos es significativamente mayor que la de los modelos anteriores o1 y GPT-4o, alcanzando el 33% para o3 y un sorprendente 48% para o4-mini. Científicos como Nathan Lambert de AI2 y el ex investigador de OpenAI Neil Chowdhury creen que esto podría deberse a la sobreoptimización del método de entrenamiento basado en aprendizaje por refuerzo basado en resultados (Outcome-based RL). Aunque este método de entrenamiento mejora el rendimiento en tareas específicas, también puede hacer que el modelo tienda a “adivinar” en lugar de admitir sus limitaciones cuando no puede resolver un problema, y podría inventar escenarios de uso de herramientas debido a la generalización de las recompensas por el uso de herramientas durante el entrenamiento. Además, la “cadena de pensamiento” (CoT) utilizada por el modelo en la inferencia no es visible para el usuario y se descarta en conversaciones posteriores, lo que puede llevar al modelo a inventar explicaciones por falta de información cuando se le pregunta. Esta contradicción entre rendimiento y fiabilidad ha provocado un amplio debate sobre los efectos secundarios del aprendizaje por refuerzo y la utilidad práctica de los modelos. (Fuente: OpenAI爆出硬伤,强化学习是祸首,o3越强越「疯」,幻觉率狂飙o3被曝「无视」前成果?华人博士生实名指控,谢赛宁等大牛激烈争辩OpenAI最强AI模型竟成“大忽悠”,o3/o4-mini被曝聪明过头、结果幻觉频发?选AI比选对象还难,起名黑洞OpenAI的新模型,到底怎么选?)

OpenAI revela un fallo grave, el aprendizaje por refuerzo es el culpable, cuanto más fuerte es o3, más 'loco' se vuelve, la tasa de alucinación se dispara

Beijing celebra la primera media maratón mundial de robots humanoides, el “equipo de Beijing” destaca : El 19 de abril de 2025, Yizhuang, Beijing, celebró con éxito la primera media maratón mundial de robots humanoides, con 20 equipos compitiendo en un complejo recorrido de 21,0975 kilómetros. “Tiangong Ultra” del Centro de Innovación de Robots Humanoides de Beijing ganó con un tiempo de 2 horas, 40 minutos y 42 segundos, demostrando su velocidad máxima de 12 km/h y la avanzada plataforma de inteligencia general corporeizada “HuiSiKaiWu”. “Xiao Wantong” y “Xuanfeng Xiaozi” de Future Science City Songyan Dynamics de Beijing obtuvieron el segundo y cuarto lugar respectivamente. “Xiao Wantong” llamó la atención por su estabilidad y capacidad para realizar movimientos de alta dificultad. Este evento no fue solo una competencia de rendimiento deportivo de robots, sino también una prueba extrema de tecnologías como IA, ingeniería mecánica y algoritmos de control, simulando escenarios de aplicación reales como inspección y logística. Beijing ha formado una ventaja líder en el campo de los robots humanoides a través de un ecosistema de “política-capital-industria-aplicación” (como el “Plan de Acción para el Desarrollo Innovador de la Industria Robótica de Beijing”, el fondo industrial de robótica de diez mil millones, la zona de concentración industrial de Yizhuang, la promoción de aplicaciones del “Proyecto Doble Cien”), y está fomentando más líderes de la industria. (Fuente: 人形机器人马拉松:北京何以孕育“领跑者”?具身智能资本盛宴:3个月37笔融资,北上深争锋BAT下场,人形机器人最火Robots Take Stride in World’s First Humanoid Half-Marathon in Beijing)

Maratón de robots humanoides: ¿Cómo Beijing fomenta a los 'líderes'?

Observación global de la gobernanza de derechos de autor de IA: caminos diversos, desafíos persistentes : Países de todo el mundo están explorando activamente vías para la gobernanza de los derechos de autor en la IA. El modelo de la UE, centrado en la Directiva sobre derechos de autor y la Ley de IA, enfatiza el control de riesgos y la primacía de las reglas, exigiendo a los fabricantes de IA, a través de una “supervisión intervencionista” por parte de organismos administrativos, que aumenten la transparencia de los datos de entrenamiento y respeten los derechos de los titulares de derechos de autor. El modelo estadounidense adopta un enfoque paralelo administrativo (decisiones de la Oficina de Derechos de Autor), judicial (litigios) y legislativo (audiencias en el Congreso), “siguiendo la corriente” impulsado por la práctica industrial, pero debido a agudos conflictos de intereses, a nivel legislativo tiende a “esperar y ver”. El modelo japonés se centra en la aplicación, publicando una serie de directrices administrativas a través de la Agencia de Asuntos Culturales para detallar la aplicación de la regla de “uso no apreciativo” de la Ley de Derechos de Autor vigente en escenarios de IA, aclarando las expectativas de comportamiento de todas las partes y fomentando la aplicación de AIGC en la industria de contenidos. Los puntos clave de controversia incluyen la exención de derechos de autor para el entrenamiento de modelos (con una tendencia a centrarse en la “excepción de la excepción”), la susceptibilidad de protección por derechos de autor del contenido AIGC (con la opinión generalizada de que se requiere una contribución creativa humana y que los sistemas existentes pueden hacer frente a ello) y la asignación de responsabilidad por contenido infractor (infracción directa del usuario, responsabilidad indirecta de la plataforma, pero los límites del deber de diligencia aún no están claros). China ya ha emitido las “Medidas Provisionales para la Gestión de Servicios de Inteligencia Artificial Generativa” y cuenta con precedentes judiciales exploratorios. En el futuro, será necesario considerar cuidadosamente cuestiones como la exención del entrenamiento de modelos, la protección de las obras AIGC y la responsabilidad de las plataformas. (Fuente: AI版权全球治理观察面对AI企业的白嫖,美国媒体选择了“告老师”)

Observación global de la gobernanza de derechos de autor de IA

🎯 Tendencias

La IA remodela el proceso de contratación, los solicitantes de empleo deben adaptarse a las nuevas reglas : La IA y la automatización están cambiando profundamente el panorama de la contratación, con un 83% de las empresas estadounidenses utilizando IA para filtrar currículums. Los solicitantes de empleo deben ajustar sus estrategias: 1. Destacar habilidades resistentes a la IA: enfatizar capacidades difíciles de reemplazar por la IA, como la creación de redes de contactos, la toma de decisiones y los servicios personalizados, adaptándose a campos emergentes. 2. Comprender el filtrado de IA: los currículums deben incluir palabras clave centrales de la descripción del puesto (como planificación estratégica, eficiencia operativa, etc.), de lo contrario, podrían ser filtrados por los sistemas ATS. 3. Usar la IA con precaución: evitar depender completamente de la IA para redactar currículums y cartas de presentación, ya que el contenido generado por IA es fácil de identificar y puede carecer de personalidad; debe usarse como herramienta auxiliar para optimizar y hacer coincidir palabras clave. 4. Prepararse para entrevistas con IA: familiarizarse con herramientas de entrevista de IA como HireVue, practicar respuestas a preguntas básicas comunes, prestando atención a la concisión (se sugiere menos de 2 minutos) y al uso de palabras clave. 5. Indagar activamente sobre el uso de IA en la empresa: preguntar sobre el progreso de la IA en la empresa y los planes de recapacitación de habilidades para los empleados, evaluando las perspectivas de desarrollo a largo plazo. Adaptarse al proceso de contratación impulsado por IA y demostrar capacidad profesional y voluntad de aprendizaje continuo es clave. (Fuente: 打动面试官之前,先打动AI)

Las plataformas sociales reconfiguran los hábitos de búsqueda, definiendo una nueva revolución en la búsqueda : Plataformas sociales como Douyin, Xiaohongshu y WeChat están remodelando los hábitos de búsqueda de los usuarios con sus características distintivas, desafiando a los motores de búsqueda tradicionales. Douyin utiliza videos cortos y recomendaciones algorítmicas para integrar la búsqueda en el flujo de consumo de contenido, despertando el interés del usuario y dirigiéndolo al consumo. Xiaohongshu, con su gran cantidad de contenido de “personas reales” y recomendaciones (‘siembra’), se ha convertido en una referencia importante para las decisiones de vida de los jóvenes, y su comportamiento de búsqueda está profundamente ligado a las decisiones de consumo. WeChat, basado en redes sociales de conocidos y ecosistemas de contenido como cuentas oficiales y canales de video, ofrece resultados de búsqueda que combinan redes de relaciones personales y contenido de la plataforma, gozando de alta confianza. La expansión de las funciones de búsqueda en estas plataformas no es solo para competir por la atención del usuario, sino también un importante despliegue comercial, formando respectivamente modelos de “e-commerce basado en intereses”, “economía de recomendaciones/influencia” y “e-commerce social” basado en la confianza. La incorporación de la IA (como ERNIE Bot, DeepSeek y asistentes de IA integrados en varias plataformas) está cambiando aún más el panorama de la búsqueda, ofreciendo respuestas más personalizadas y sin publicidad, aunque a corto plazo es difícil que reemplacen por completo el valor de búsqueda de las plataformas de contenido. En el futuro, la capacidad de la IA será clave para determinar el resultado de la batalla de búsqueda entre las plataformas. (Fuente: 2025搜索之战:抖音、小红书、微信,如何定义搜索新革命?)

La guerra de búsqueda de 2025: Douyin, Xiaohongshu, WeChat, ¿cómo definen la nueva revolución de la búsqueda?

Aunque controvertido, el Test de Turing sigue teniendo relevancia histórica : El Test de Turing, como estándar temprano para medir si la IA posee inteligencia similar a la humana (se supera si un humano no puede distinguir si está hablando con una persona o una IA), todavía se menciona hoy en día. Por ejemplo, GPT-4 superó recientemente la prueba con una tasa de éxito del 54%, e incluso hay investigaciones que afirman que la probabilidad de que GPT4.5 sea identificado como humano es mayor que la de un humano real. Sin embargo, la prueba ha sido objeto de controversia desde su propuesta. Los críticos argumentan que solo se centra en el rendimiento y no en el proceso de pensamiento (como el experimento mental de la “Habitación China”), y que es fácil de “engañar” (como las respuestas simples de ELIZA o programas que se hacen pasar por niños que no hablan bien el idioma). Sus criterios de prueba (como una conversación de 5 minutos, una tasa de reconocimiento del 70%) parecen obsoletos con el rápido desarrollo actual de la IA. Aunque los grandes modelos modernos pueden imitar la conversación humana, esencialmente no comprenden el contenido y carecen de pensamiento y emoción reales. Además, los resultados de la prueba se ven afectados por la experiencia del evaluador. A pesar de sus muchas deficiencias, el Test de Turing proporcionó un enfoque medible y operativo en las primeras etapas del desarrollo de la IA. Hoy en día, las capacidades de la IA superan con creces el alcance de la prueba (como escribir artículos, programar), y obsesionarse con esta prueba puede haber perdido sentido. La intención original de Turing quizás no fuera establecer un estándar definitivo, sino estimular la exploración de la inteligencia artificial y el progreso ilimitado de la humanidad. (Fuente: 被喷了这么多年,图灵测试这老东西居然还没凉?)

Criticado durante tantos años, ¿cómo es que el viejo Test de Turing aún no ha muerto?

El auge de las mascotas IA satisface diversas necesidades de compañía y crea una nueva industria : La combinación de la tecnología IA con las mascotas electrónicas está dando lugar a mascotas IA cada vez más “inteligentes” y populares, como el conejo Moflin de Vanguard Industries de Japón, y Ropet, Mirumi, Jennie presentados en el CES. Estas mascotas IA no solo tienen la función de compañía de los juguetes electrónicos tradicionales, sino que también pueden conversar e interactuar a través de grandes modelos de lenguaje, aprender los hábitos del usuario e incluso recordar eventos, proporcionando un valor emocional más profundo. La popularidad de las mascotas IA se debe a que satisfacen las necesidades de diversos grupos: proporcionan compañeros novedosos e interesantes para niños y jóvenes; ofrecen una alternativa para personas alérgicas a las mascotas; brindan compañía interactiva para personas con necesidades de salud mental como autismo o depresión; ofrecen consuelo emocional a personas mayores que viven solas o con demencia. En comparación con las mascotas reales, las mascotas IA requieren menos esfuerzo (sin necesidad de alimentación, limpieza o atención médica). Technavio predice que el mercado de mascotas IA tendrá una tasa de crecimiento anual compuesta (CAGR) del 11,28%, y el tamaño del mercado podría alcanzar los 6 mil millones de dólares en 2030. Empresas nacionales e internacionales (como Yukai Engineering de Japón, TangibleFuture de EE. UU., TCL y KEYi Tech de China) están entrando en el sector. Sin embargo, la seguridad de la privacidad de los datos y la dependencia excesiva del usuario son desafíos que enfrenta esta industria. (Fuente: AI宠物热潮快要来了)

La fiebre de las mascotas IA está por llegar

Elección de algoritmos en la colaboración humano-máquina: equilibrar precisión, interpretabilidad y sesgo : Los algoritmos de IA desempeñan un papel crucial en la colaboración humano-máquina, ayudando a la toma de decisiones humanas mediante el procesamiento de datos y la identificación de patrones. Sin embargo, los algoritmos tienen dos caras: los modelos de alta precisión (como el deep learning) a menudo carecen de interpretabilidad, lo que afecta la confianza del usuario; los modelos simples son fáciles de entender pero tienen menor precisión. Los métodos para abordar este equilibrio incluyen: 1. IA Explicable (XAI): usar técnicas como SHAP y LIME para cuantificar la contribución de las características, aumentando la transparencia. La investigación muestra que proporcionar información explicativa mejora significativamente la eficacia de la colaboración humano-máquina en tareas complejas. 2. Humano en el Bucle (HITL): situar a los humanos en el proceso de toma de decisiones, combinando las recomendaciones del algoritmo con la experiencia humana y el juicio contextual (como en la detección de fraudes financieros, ajustes en la gestión de la cadena de suministro). Los “algoritmos de optimización centrados en el humano” (como el caso de optimización de empaquetado de Alibaba) predicen y se adaptan a los sesgos del comportamiento humano, mejorando la eficiencia. 3. Orientación mixta: combinar el análisis de datos de un entrenador de IA con las habilidades de comunicación de un gerente humano para resolver problemas de diferentes grupos (como en la formación de ventas). Al mismo tiempo, es necesario vigilar y mitigar el sesgo algorítmico (como la injusticia en la contratación o el crédito), abordándolo mediante el equilibrio de datos, restricciones de equidad, supervisión y revisión humana, etc. La madurez de la IA generativa está impulsando la relación humano-máquina de la colaboración (collaboration) al trabajo en equipo (teaming), lo que plantea nuevos desafíos como la asignación de roles, la construcción de confianza y la coordinación cognitiva, requiriendo la construcción de marcos de gobernanza transparentes y prestando atención a objetivos de valor como la equidad. (Fuente: 人机协同中的算法抉择)

La elección de algoritmos en la colaboración humano-máquina

Las plataformas de internet muestran una situación contradictoria de “fomento y restricción” hacia el contenido AIGC : Las principales plataformas de internet (como Xiaohongshu, WeChat Channels, Douyin) han reforzado recientemente las restricciones sobre el contenido generado por IA (AIGC), causando confusión entre los creadores. Las medidas restrictivas incluyen la retirada de contenido, bloqueos, limitación de tráfico y privación de derechos comerciales, a menudo citando razones como “difusión de supersticiones feudales”, “infracción de derechos de autor”, “invención de hechos”, “suplantación de identidad”, etc. A pesar de que las plataformas invierten fuertemente en el desarrollo de herramientas de creación de IA (como “Diandian” de Xiaohongshu, “Jimeng” de ByteDance) para atraer creadores, la moderación del contenido AIGC se está volviendo más estricta, e incluso el contenido etiquetado con marcas de agua de IA sigue estando restringido. El enfoque de la整治 de las plataformas está en combatir el contenido homogeneizado y de baja originalidad (como la copia masiva de contenido viral) y mantener la autenticidad de la comunidad (como el “compartir auténtico” de Xiaohongshu). Sin embargo, la “autenticidad” entra en conflicto natural con AIGC, lo que somete a las obras de IA a estándares de revisión más rigurosos. Este estado contradictorio de “querer ambas cosas”, junto con límites regulatorios poco claros, deja a los creadores sin saber cómo proceder. Al mismo tiempo, la resistencia de los creadores tradicionales a AIGC y los problemas de que los datos generados por IA puedan contaminar los modelos (trastorno de autofagia del modelo / model collapse) también agravan las dificultades de gobernanza de las plataformas. La acción de las plataformas podría tener como objetivo controlar el contenido de IA de baja calidad y no prohibirlo por completo. En el futuro, los creadores podrían necesitar explorar estrategias que enfaticen más la combinación de elementos originales humanos con la asistencia de IA, como la “regla 532”, y avanzar en medio de la incertidumbre. (Fuente: 互联网平台现状:鼓励AI,限制AI)

Situación actual de las plataformas de internet: Fomentan la IA, restringen la IA

🧰 Herramientas

Parrilla inteligente ASMOKE: emprendedor ex-DJI crea una nueva experiencia de barbacoa al aire libre : ASMOKE, fundada por Vince, un ex empleado de DJI, aborda los puntos débiles de la barbacoa tradicional al aire libre (dificultad para controlar la temperatura, operación compleja) con el lanzamiento de su primera parrilla inteligente de pellets de madera frutal, ASMOKE Essential. Este producto utiliza el sistema de control de temperatura Flame Tech de desarrollo propio (con doble sensor y algoritmo incorporados) para lograr un control preciso de la temperatura (pequeña fluctuación, cocción más larga de 8 horas) y ofrece 8 modos de cocción preestablecidos y una biblioteca de recetas profesionales, reduciendo la barrera de entrada para principiantes. También cuenta con un sistema automático de eliminación de cenizas para facilitar la limpieza. El producto se dirige principalmente a hombres de mediana edad (30-55 años) que valoran la calidad y la experiencia inteligente. ASMOKE se diferencia en el mercado tradicional de parrillas mediante la inteligencia, y ya está presente en los principales canales offline de América del Norte como Home Depot y Lowe’s, además de vender online (sitio web propio, Amazon). Su ecosistema de productos también incluye pellets de madera frutal, mesas de barbacoa y otros accesorios, y ha diseñado soluciones compatibles para escenarios como el camping. Actualmente, los ingresos de América del Norte representan más del 50%, y está explorando activamente el mercado europeo, aunque enfrenta desafíos como la dispersión de canales y la localización. ASMOKE ha completado dos rondas de financiación (incluida la inversión del profesor Gao Bingqiang) y espera que las ventas superen los diez millones de dólares en 2025. (Fuente: 拿下高秉强融资,大疆系创业者做出蓝海爆品、众筹过百万美元|产品观察)

Parrilla inteligente ASMOKE: emprendedor ex-DJI crea una nueva experiencia de barbacoa al aire libre

Metamon, el agente inteligente de combate Pokémon impulsado por IA, muestra un rendimiento sobresaliente : Un equipo de la University of Texas at Austin ha desarrollado un agente inteligente de IA llamado Metamon, entrenado mediante el análisis de 475.000 repeticiones de combates humanos acumuladas durante casi una década en la plataforma Pokémon Showdown. Este agente inteligente utiliza una arquitectura Transformer y aprendizaje por refuerzo offline (Offline RL), sin depender de reglas preestablecidas o heurísticas, aprendiendo estrategias puramente a partir de datos de combates humanos. El equipo de investigación convirtió los datos de repeticiones de combate desde una perspectiva de terceros a una perspectiva en primera persona para el entrenamiento. Mediante una arquitectura Actor-Critic y actualizaciones de diferencia temporal (TD), entrenaron el modelo para tomar decisiones en un entorno complejo de información incompleta y estrategia de juego (el combate Pokémon se compara con un juego que fusiona la estrategia del ajedrez, la incertidumbre del póker y la complejidad de StarCraft). El modelo entrenado compitió contra jugadores de todo el mundo en el servidor de clasificación de Pokémon Showdown, logrando entrar en el top 10% de los jugadores activos a nivel mundial, demostrando el potencial de la IA basada en datos en juegos de estrategia complejos. Las futuras líneas de investigación incluyen explorar diferentes estrategias de entrenamiento y auto-juego (self-play) a gran escala con el objetivo de superar el rendimiento humano. (Fuente: AI版本宝可梦冲榜上全球前10%,一次性「吃掉」10年47.5万场人类对战数据)

Agente inteligente de combate Pokémon impulsado por IA Metamon muestra un rendimiento sobresaliente

Los chatbots de atención al cliente IA generan controversia, Cursor se disculpa por información engañosa de la IA : Si bien la atención al cliente mediante IA ofrece comodidad, también genera problemas debido a su capacidad para “hablar sin sentido con cara seria” (ser ‘confidently incorrect’). Recientemente, los usuarios del editor de código IA Cursor descubrieron que no podían iniciar sesión en varios dispositivos simultáneamente. Al preguntar al servicio de atención al cliente por correo electrónico, recibieron una respuesta del chatbot de IA que decía que “la suscripción está diseñada para un solo dispositivo, se requieren suscripciones separadas para varios dispositivos”, lo que provocó el descontento de los usuarios y una oleada de cancelaciones de suscripciones. El desarrollador y el CEO de Cursor aclararon posteriormente que se trataba de una respuesta errónea del chatbot de IA, causada en realidad por un error en las medidas antifraude que provocaba el cierre de sesión anómalo, y prometieron solucionar el problema y realizar reembolsos. Este incidente pone de manifiesto el riesgo de desinformación que pueden generar los chatbots de IA. Ya ha habido casos anteriores, como el de un chatbot de IA de Air Canada que proporcionó información incorrecta sobre la política de reembolso, lo que llevó a la compañía a perder un juicio y pagar una indemnización; o el de un chatbot de IA de un concesionario de automóviles que, bajo la “provocación” de un usuario, hizo una promesa legalmente vinculante de “vender un coche por 1 dólar”. Estos incidentes advierten a las empresas: al utilizar chatbots de IA, es necesario identificar claramente su identidad para evitar malentendidos por parte de los usuarios; si las respuestas de la IA no son revisadas y representan a la empresa, pueden surgir riesgos legales; se deben establecer mecanismos sólidos de supervisión e intervención humana, en lugar de depender completamente de la IA, especialmente al tratar asuntos serios como la interpretación de políticas o compromisos contractuales. (Fuente: 被自家AI坑惨,一句误导引发程序员退订潮,Cursor CEO亲自道歉)

Los chatbots de atención al cliente IA generan controversia, Cursor se disculpa por información engañosa de la IA

SocioVerse: Sistema de simulación social basado en datos de millones de usuarios reales genera atención : El sistema SocioVerse, desarrollado conjuntamente por instituciones como la Fudan University, integra datos de 10 millones de usuarios reales (de Twitter/X, Xiaohongshu) y tecnología avanzada de IA (GPT-4o, Claude 3.5, Gemini 1.5) para construir una sociedad gemela digital de alta fidelidad. El sistema incluye cuatro motores: motor de usuario (construye Agentes virtuales basados en etiquetas multidimensionales demográficas, psicológicas, conductuales, de valores, etc.), motor de entorno social (captura en tiempo real noticias, políticas, datos económicos para construir un fondo dinámico), motor de escenario (simula reglas de comportamiento y mecanismos de retroalimentación en diferentes situaciones), motor de comportamiento (combina ABM y LLM para simular el comportamiento individual y la interacción de la propagación de información). SocioVerse tiene como objetivo simular y predecir fenómenos sociales a gran escala, y ya ha demostrado una precisión sorprendente en experimentos como la predicción de elecciones presidenciales, el análisis de reacciones a noticias de última hora y la simulación de encuestas económicas nacionales. A diferencia de entornos virtuales cerrados como el “Stanford Small Town”, SocioVerse modela directamente basándose en datos humanos reales, lo que ha generado preocupaciones sobre sus capacidades potenciales: esta tecnología podría usarse para predecir e incluso manipular el comportamiento grupal, convirtiendo las plataformas sociales en “pastores digitales”, logrando un control silencioso a través de una sutil modulación de la información, con profundas implicaciones para la sociedad. (Fuente: 世界上最强大的“政客”和“民意操纵者”,正在人工智能实验中诞生)

SocioVerse: Sistema de simulación social basado en datos de millones de usuarios reales genera atención

📚 Aprendizaje

Ex ejecutivo de Meituan, Bao Ta, habla sobre la transformación del talento en la era de la IA: de “resolver problemas” a “plantear problemas” : Bao Ta, ex vicepresidente de Meituan y actual fundador de Qidian Lingzhi, considera que los grandes modelos son la mayor oportunidad tecnológica para la humanidad hasta la fecha. Compartió su experiencia desde un grupo de interés informático poco popular en la Chengdu No. 7 High School hasta el emprendimiento tecnológico, enfatizando la importancia de la motivación por el interés. Al hablar del impacto de la IA en la educación, cree que la IA puede actuar como un tutor personalizado, pero también plantea desafíos (como la IA haciendo las tareas), el enfoque educativo debería pasar de la “transmisión de conocimiento” al “desarrollo de habilidades”, especialmente la capacidad de plantear preguntas, el pensamiento crítico y la resolución creativa de problemas. La popularización de la IA la convierte en una habilidad básica, y las escuelas primarias y secundarias deberían enseñar cómo colaborar con la IA. La demanda futura de talento pasará del “tipo T” (profundidad profesional + amplitud interdisciplinaria) al “tipo Pi” (doble profundidad profesional + innovación cruzada), siendo crucial cultivar la curiosidad y el deseo de explorar. Aconseja a los estudiantes que quieran entrar en el campo de la IA: 1. Cultivar el interés para hacer frente a la rápida iteración; 2. Practicar mucho (desarrollar pequeños proyectos); 3. Dominar los conocimientos básicos para comprender los principios y predecir tendencias. Predice que la capacidad de programación de la IA podría eliminar a los programadores de nivel medio y bajo en 3-5 años, lo que subraya la importancia de la transformación de habilidades. (Fuente: 美团前高管转战AI:3-5年AI或淘汰中低端码农)

Evaluación de la capacidad visual de GPT-4o: fuerte en generación, débil en razonamiento : Una investigación reciente de UCLA revela las limitaciones de GPT-4o en la comprensión y el razonamiento de imágenes a través de tres conjuntos de experimentos. Experimento uno (seguimiento de reglas globales): GPT-4o no pudo seguir reglas globales preestablecidas (como “izquierda es derecha”, “restar 2 a los números”) para generar imágenes, ejecutando las instrucciones literalmente, lo que indica su falta de comprensión contextual y flexibilidad. Experimento dos (edición de imágenes): al solicitar modificaciones locales precisas (como “solo cambiar el reflejo”, “solo eliminar a la persona sentada”), GPT-4o a menudo cometió errores de operación, incapaz de distinguir con precisión las limitaciones semánticas, revelando una comprensión insuficientemente detallada del contenido y la estructura de la imagen. Experimento tres (razonamiento multipaso y lógica condicional): frente a instrucciones complejas que incluían juicios condicionales y múltiples pasos (como “si no hay gato, cambia el perro a la playa”), GPT-4o mostró confusión, incapaz de juzgar correctamente las condiciones, seguir la cadena lógica, y a menudo ejecutaba todas las instrucciones superpuestas. Conclusión de la investigación: aunque GPT-4o posee una potente capacidad de generación de imágenes, todavía tiene deficiencias significativas en tareas visuales complejas que requieren comprensión profunda, conciencia contextual, razonamiento lógico y control preciso, actuando más como una “máquina de instrucciones refinada” que como un agente inteligente que realmente comprende el mundo. (Fuente: 生成很强,推理很弱:GPT-4o的视觉短板)

Fuerte en generación, débil en razonamiento: las limitaciones visuales de GPT-4o

Guía de selección de nuevos modelos de OpenAI: o3, o4-mini, GPT-4.1 tienen sus propias fortalezas : OpenAI ha lanzado recientemente varios modelos nuevos, la elección debe basarse en las necesidades: 1. o3: Modelo de inferencia insignia, el más inteligente, diseñado para tareas complejas (codificación, matemáticas, ciencias, percepción visual). Posee una potente capacidad de llamada autónoma a herramientas (hasta 600 veces/respuesta, compatible con búsqueda, Python, generación/interpretación de imágenes) y capacidad de razonamiento visual dinámico (integra imágenes en el ciclo de razonamiento, puede revisar operaciones repetidamente). Gracias al aprendizaje por refuerzo extendido, es bueno en planificación a largo plazo y razonamiento secuencial. Eficiencia de costos mejor de lo esperado. 2. o4-mini: Modelo de inferencia de alta rentabilidad, rápido y de bajo costo (aproximadamente 1/10 de o3), ofrece 200.000 Tokens de contexto. Capacidad de herramientas comparable a o3 (Python, navegación, procesamiento de imágenes). Adecuado para tareas sensibles al costo o que requieren alto rendimiento. Disponible en dos modos: o4-mini (prioriza velocidad) y o4-mini-high (prioriza precisión, mayor potencia de cálculo). 3. Serie GPT-4.1 (solo API): GPT-4.1: Modelo principal, seguimiento preciso de instrucciones, fuerte memoria de contexto largo (1 millón de Tokens), adecuado para tareas de desarrollo complejas que requieren ejecución estricta de instrucciones y procesamiento de documentos largos. GPT-4.1 mini: Opción de gama media, baja latencia/costo, rendimiento cercano a la versión completa 4.1, seguimiento de instrucciones y razonamiento de imágenes superior a GPT-4o. GPT-4.1 nano: El más pequeño, rápido y económico ($0.1/M tokens), adecuado para tareas simples como autocompletado, clasificación, extracción de información. Los tres admiten 1 millón de Tokens de contexto. (Fuente: 选AI比选对象还难,起名黑洞OpenAI的新模型,到底怎么选?)

Elegir IA es más difícil que elegir pareja, ¿cómo elegir los nuevos modelos de OpenAI, el agujero negro de los nombres?

💼 Negocios

Hanwei Technology apuesta por el negocio de sensores para robots humanoides buscando un avance : Hanwei Technology, líder en sensores de gas (valor de mercado de diez mil millones), está entrando activamente en el sector de los robots humanoides en busca de un punto de inflexión en su rendimiento. El fundador de la empresa, Ren Hongjun, aspira a construir una “empresa centenaria”. Hanwei Technology tiene una sólida base en el campo de los sensores, con una cuota de mercado nacional del 75% en sensores de gas. En los últimos años, el beneficio neto no recurrente de la empresa ha disminuido durante tres años consecutivos (cayendo un 51,38%, 34,34% y 89,97% en 2022-2024 respectivamente). En 2024, los ingresos disminuyeron ligeramente un 2,61% hasta los 2.228 millones de yuanes, con un beneficio neto no recurrente de solo 5,63 millones de yuanes. La presión sobre el rendimiento proviene de la intensificación de la competencia en el mercado, el aumento de la inversión en I+D y la falta de rentabilidad de los nuevos negocios (línea de producción MEMS, encapsulado de láser, medidores ultrasónicos). Los robots humanoides se consideran un nuevo punto de crecimiento. Sus sensores (tacto flexible, unidad de medición inercial, galgas extensiométricas de presión, nariz electrónica, etc.) ya forman una matriz de productos multidimensional, y la piel electrónica flexible ya colabora con varios fabricantes de cuerpos de robot y se suministra en pequeños lotes. Los ingresos del negocio de sensores en 2024 fueron de 341 millones de yuanes, representando el 15,3% de los ingresos. Aunque la proporción del negocio de robótica es actualmente baja, la empresa lo ha incluido como un trabajo prioritario para 2025, con el objetivo de aprovechar la oportunidad de la industria de la inteligencia corporeizada. Al mismo tiempo, la empresa también está expandiendo aplicaciones en los campos de nuevas energías, automoción, semiconductores, medicina, etc. (Fuente: 扣非净利连降3年,百亿科技龙头靠人形机器人突围?)

Beneficio neto no recurrente cae por 3 años, ¿el gigante tecnológico de diez mil millones se abre paso con robots humanoides?

Zhitong Technology invierte 300 millones para construir base de I+D y producción de reductores de alta precisión : Zhitong Technology, proveedor de componentes clave para robots, anunció el inicio del proyecto de la base de I+D y producción central de reductores de alta precisión, con una inversión total de aproximadamente 300 millones de yuanes, ubicada en la Zona de Desarrollo Económico-Tecnológico de Beijing, y se espera que entre en funcionamiento en 2027. Esta base integrará funciones de I+D, pruebas de ingeniería, ensayos, ventas y gestión central, y construirá líneas de producción inteligentes para reductores de alta precisión utilizados en robots industriales y humanoides. El reductor es un componente clave del robot, que afecta la precisión del movimiento y la capacidad de carga. Zhitong Technology, fundada en 2015, se ha convertido en una empresa líder en el campo de los reductores de precisión en China, superando los desafíos técnicos del reductor RV en colaboración con la Beijing University of Technology y logrando la sustitución de productos importados. La empresa abarca diversas tecnologías de transmisión como cicloidal, armónica, planetaria, hipoide y husillo de rodillos, con clientes que incluyen empresas de robótica de primer nivel nacionales e internacionales como Estun, Inovance, KUKA y ABB. Actualmente, la capacidad de producción anual de reductores CRV es de 200.000 unidades, operando a plena capacidad, con un crecimiento compuesto anual de ventas y producción del 247% durante tres años consecutivos. La construcción de la nueva base tiene como objetivo mejorar la capacidad de I+D y la capacidad de producción, proporcionando soluciones integrales para sistemas de transmisión de robots. (Fuente: 耗资3亿,「智同科技」组建高精密减速机研发及总部生产基地、2027年将投产|最前线)

Zhitong Technology invierte 300 millones para construir base de I+D y producción de reductores de alta precisión, entrará en funcionamiento en 2027 | Frontline

Financiamiento en auge en el campo de la inteligencia corporeizada, más de 3.5 mil millones recaudados en China en el Q1 2025 : En el primer trimestre de 2025, la actividad de financiación en el sector de la inteligencia corporeizada (especialmente robots humanoides) en China experimentó un aumento significativo, con un total de 37 rondas de financiación que involucraron a 33 empresas, por un monto total de aproximadamente 3.5 mil millones de yuanes. El número de eventos de financiación ya alcanzó casi el 70% del total del año pasado. Entre ellas, 11 empresas recaudaron más de 100 millones de yuanes, y las empresas de desarrollo de cuerpos de robots humanoides lideraron en términos de monto de financiación, como TARS (ronda ángel de 120 millones de dólares, un récord), Qianxun Intelligence (528 millones), Xinghai Intelligence (300 millones) y Zhongqing Robotics (200 millones). Geográficamente, las empresas se concentran en Beijing (8), Shanghai (10) y Shenzhen (7). Las empresas de reciente creación (2023, 2024) y las rondas de financiación tempranas (ángel, Pre-A) fueron la mayoría. Los inversores incluyen gigantes tecnológicos como Tencent, Baidu, Alibaba, Lenovo, iFlytek, así como capital estatal de múltiples lugares como Beijing y Shanghai. Además, la inversión mutua entre empresas de robótica también se ha convertido en una tendencia (como Dobot invirtiendo en ZK WUJ, Zhiyuan invirtiendo en Hillbot). Las empresas de desarrollo de software (9) y componentes clave (5) también obtuvieron financiación. A pesar del entusiasmo del capital, la ruta de comercialización sigue siendo el principal desafío y punto de controversia en este campo. (Fuente: 具身智能资本盛宴:3个月37笔融资,北上深争锋BAT下场,人形机器人最火)

Festín de capital en inteligencia corporeizada: 37 rondas de financiamiento en 3 meses, Beijing-Shanghai-Shenzhen compiten, BAT entra en juego, los robots humanoides son los más populares

36Kr celebra la Conferencia AI Partner 2025, enfocándose en las Super Apps : El 18 de abril, 36Kr celebró la Conferencia AI Partner 2025 en el Shanghai ModelSpace con el tema “Llegan las Super Apps”, para discutir las tendencias y perspectivas de las super aplicaciones en la era de la IA. La conferencia reunió a líderes académicos e industriales como Liu Zhiyi (Shanghai Jiao Tong University), Ji Chaohui (AMD), Ruan Yu (Baidu), Wan Weixing (Qualcomm), Chen Jufeng (Xianyu), Zhou Miao (Dahua Technology). El CEO de 36Kr, Feng Dagang, señaló que la atención disruptiva generada por la IA es el mejor momento para construir marcas. Los ponentes compartieron aplicaciones y prácticas de IA en inteligencia corporeizada, motores de computación, transformación industrial (como marketing, transporte), experiencia de terminal, comercio de segunda mano, seguridad, etc. La conferencia publicó los “Casos Innovadores de Aplicaciones Nativas de IA 2025” y los “Premios a la Innovación AI Partner 2025”, mostrando los logros de la IA en fabricación inteligente, atención al cliente, creación de contenido, gestión empresarial, atención médica y otros escenarios. Las mesas redondas de inversores y los diálogos de Partners profundizaron en la lógica de inversión en aplicaciones de IA, los desafíos de comercialización y las direcciones de desarrollo futuro, enfatizando la importancia del impulso por escenarios, el valor para el usuario, la innovación tecnológica y la sinergia del ecosistema. (Fuente: 下一个AI超级应用在哪?看36氪2025AI Partner大会解码未来趋势)

¿Dónde está la próxima Super App de IA? Vea la Conferencia AI Partner 2025 de 36Kr para decodificar las tendencias futuras

🌟 Comunidad

LeCun expresa dudas sobre la ruta de los LLM, generando debate en la industria : Yann LeCun, Científico Jefe de IA en Meta, ha expresado públicamente en repetidas ocasiones su escepticismo sobre la ruta actual dominante de los grandes modelos de lenguaje (LLM), argumentando que la predicción autorregresiva presenta problemas fundamentales (divergencia, acumulación de errores), no puede conducir a una IA a nivel humano, e incluso predice que en unos años nadie los usará. Considera que los LLM no pueden comprender bien el mundo físico y carecen de sentido común, razonamiento y capacidad de planificación. Aboga por que el enfoque de la investigación se desplace hacia una IA que pueda comprender el mundo físico, tenga memoria persistente y pueda razonar y planificar, promoviendo su propuesta JEPA (Joint Embedding Predictive Architecture) como alternativa. Las opiniones de LeCun han generado controversia; algunos critican su “dogmatismo” por potencialmente retrasar a Meta en la carrera de la IA y atribuyen el bajo rendimiento de Llama 4 a esto. Pero también hay partidarios que elogian su adhesión a los principios y su filosofía de código abierto, considerando que explorar caminos más allá de los LLM (como sistemas visuales basados en auto-supervisión y no generativos) es beneficioso para el desarrollo a largo plazo de la IA. El equipo de LeCun sufrió una polémica mediática por publicar el LLM de literatura científica Galactica, lo que quizás también influyó en su actitud hacia el actual auge de la IA. (Fuente: LeCun被痛批:你把Meta搞砸了,烧掉千亿算力,自曝折腾20年彻底失败)

LeCun duramente criticado: Arruinaste Meta, quemaste cientos de miles de millones en potencia de cálculo, revelas un fracaso total tras 20 años de esfuerzo

La startup de Silicon Valley Mechanize busca automatizar todo el trabajo, generando controversia ética : Mechanize, una nueva empresa fundada por el cofundador de Epoch AI, Tamay Besiroglu, ha propuesto los ambiciosos objetivos de “automatización completa de todo el trabajo” y “economía completamente automatizada”. Su objetivo es construir entornos virtuales que simulen escenarios de trabajo reales y sistemas de evaluación para entrenar agentes inteligentes de IA mediante aprendizaje por refuerzo para reemplazar el trabajo humano, apuntando al mercado laboral global de 60 billones de dólares (inicialmente centrado en trabajos de cuello blanco). El plan ya ha recibido inversiones de figuras destacadas de la IA como Jeff Dean. Sin embargo, este objetivo ha generado una enorme controversia, siendo criticado como “traidor a la humanidad” y “objetivo perjudicial”, argumentando que conducirá a un desempleo masivo y agravará la desigualdad de riqueza. Besiroglu argumenta que la automatización creará una enorme riqueza y un mayor nivel de vida, y que el bienestar económico no proviene únicamente de los salarios. Aunque su visión es extrema, las deficiencias que señala en los agentes de IA actuales en cuanto a fiabilidad, procesamiento de contextos largos, autonomía y planificación a largo plazo, así como la ruta tecnológica para resolver estos problemas mediante la generación de datos necesarios para la automatización y sistemas de evaluación, abordan importantes desafíos reales en el desarrollo de la IA. (Fuente: 硅谷AI初创要让60亿人失业,网友痛批人类叛徒,Jeff Dean已投)

Startup de IA de Silicon Valley quiere dejar sin empleo a 6 mil millones de personas, internautas critican duramente como traidor a la humanidad, Jeff Dean ya invirtió

Vectara publica ranking de alucinaciones de modelos IA, los modelos de Google destacan : Vectara ha publicado un ranking que evalúa el grado de alucinación de los grandes modelos de lenguaje (LLM). Este ranking funciona haciendo preguntas a los modelos basadas en el contenido de un artículo específico y utilizando el propio modelo de evaluación de Vectara para determinar la proporción de alucinaciones (es decir, información que no concuerda con el texto original o es inventada) en las respuestas. Según la captura de pantalla del ranking, los modelos de Google (posiblemente refiriéndose a la serie Gemini) muestran un rendimiento excelente, con bajas tasas de alucinación. El modelo o3-mini-high de OpenAI también obtiene buenos resultados. Cabe destacar que el modelo de código abierto GLM de la empresa china Zhipu AI también logra una buena posición en este ranking, demostrando su potencial en términos de precisión factual. Tanto el ranking como el modelo de evaluación se han hecho públicos, proporcionando a la industria una referencia para comparar cuantitativamente la fiabilidad de diferentes LLM en tareas específicas. (Fuente: karminski3)

Vectara publica ranking de alucinaciones de modelos IA, los modelos de Google destacan

La IA sobresale en tareas específicas, pero aún carece de sentido común y cognición básica : Usuarios de Reddit discuten que la IA actual (como los LLM) puede superar a la mayoría de las personas en áreas de conocimiento específicas y procesamiento de información (comentarios señalan “más conocedora” en lugar de “más inteligente”), pero todavía muestra deficiencias en el juicio de sentido común y la comprensión del mundo físico (como contar piedras en una imagen). Algunos comentarios opinan que la IA es a la vez “extremadamente inteligente” y “extremadamente tonta”, capaz de resolver problemas de alta dificultad dentro de un dominio, pero puede fallar en tareas simples. Se considera que la “inteligencia” de la IA se basa más en datos masivos que en una comprensión real. La experiencia del usuario también lo confirma, como Gemini mostrando un comportamiento “tonto” en algunas situaciones, mientras que GPT sobresale en ciertos aspectos, pero a veces sus respuestas no “comprenden” realmente la pregunta. Esta falta de uniformidad en las capacidades es una característica de la etapa actual de desarrollo de la IA. (Fuente: Reddit r/ArtificialInteligence)

Decir “gracias” a la IA genera debate: proyección emocional y consumo de recursos : Un usuario de X preguntó a Sam Altman sobre el costo de decir “por favor” y “gracias” a la IA. Altman estimó que alcanzaría los diez millones de dólares, pero consideró que valía la pena. Este fenómeno genera debate: ¿por qué ser cortés con una IA sin emociones? Investigaciones psicológicas (como el experimento de Reeves & Nass) indican que los humanos tienden a antropomorfizar objetos que muestran características similares a las humanas, activando la “percepción de presencia social”. Ser cortés con la IA refleja el carácter y los hábitos del usuario, y también podría ser una necesidad de “proyección emocional” o de tener un “refugio emocional / confidente”. Hay quienes opinan que el lenguaje cortés puede incluso “entrenar” a la IA para que responda mejor (imitando la reacción humana a la cortesía). Sin embargo, esto también conlleva riesgos: la IA podría aprender y amplificar sesgos (como Microsoft Tay), o manejar incorrectamente temas sensibles. Al mismo tiempo, cada interacción (incluido un “gracias”) consume electricidad y recursos hídricos, lo que genera preocupación por la sostenibilidad de la IA. Ser cortés con la IA es tanto una extensión del instinto social humano como un aumento involuntario del costo físico de funcionamiento de la IA. (Fuente: 对 ChatGPT 说「谢谢」,可能是你每天做过最奢侈的事Reddit r/ChatGPTReddit r/ChatGPT)

Decir 'gracias' a ChatGPT podría ser lo más lujoso que haces cada día

Potencial y desafíos coexisten en la aplicación de la IA en la educación : Usuarios de Reddit discutieron las perspectivas de la aplicación de la IA en la educación. Los partidarios creen que la IA (como ChatGPT) puede servir como herramienta de aprendizaje personalizado, ayudando a comprender materias como las matemáticas y proporcionando un entorno de respuesta a preguntas sin juicios. La IA tiene el potencial de convertirse en un asistente para los maestros, manejando preguntas fuera de tema o proporcionando recuperación rápida de información, e incluso guiando a los estudiantes a encontrar respuestas por sí mismos. Ya hay escuelas que están experimentando con aulas de IA “sin profesor” (como en el Reino Unido y Texas, EE. UU.), utilizando la IA para personalizar la enseñanza y centrarse en las debilidades de los estudiantes. Sin embargo, los desafíos también son evidentes: la fiabilidad de la IA (problema de las alucinaciones) requiere que los usuarios tengan pensamiento crítico y habilidades de verificación de hechos; la dependencia excesiva de la IA puede obstaculizar el desarrollo del pensamiento profundo y las habilidades de aprendizaje autónomo; la IA puede usarse para hacer trampa; la IA también puede tener sesgos o proporcionar información inapropiada. El papel futuro de la IA en la educación probablemente sea de apoyo en lugar de reemplazo completo, requiriendo que la IA sea diseñada y optimizada específicamente para escenarios educativos, y que se aborden cuestiones éticas, de privacidad y de equidad. (Fuente: Reddit r/ArtificialInteligence)

💡 Otros

La CFO de OpenAI habla sobre el camino hacia la AGI y la demanda de potencia de cálculo : Sarah Friar, CFO de OpenAI, compartió la visión de la compañía sobre el desarrollo de la AGI y su estrategia en la cumbre de Goldman Sachs. Considera que la ola de IA es más grande que la de Internet y la de Internet móvil, y que OpenAI está innovando en todos los frentes. Enfatizó la importancia de que las empresas apliquen la IA y compartió ejemplos del uso de ChatGPT y DeepResearch para resolver problemas internos como el análisis de financiación. OpenAI divide el desarrollo de la AGI en cinco etapas: predicción en tiempo real (Chatbot), razonamiento (serie o), agente (Agent, ya lanzados Deep Research, Operator; lanzará agente de programación autónomo A-SWE), mundo innovador (expandir las fronteras del conocimiento), organización de agentes (dirección futura). Cree que la AGI está cerca, pero el mundo aún no está preparado para aprovecharla plenamente. Alcanzar la AGI requiere seguir tres leyes de escalado (scaling law): preentrenamiento, post-entrenamiento y cálculo en tiempo de inferencia, con una demanda de potencia de cálculo que crece exponencialmente. Mencionó que el plan “Stargate” de OpenAI podría requerir una inversión de 500 mil millones de dólares y 10 gigavatios de potencia de cálculo, admitió que la falta de potencia de cálculo ya ha limitado el lanzamiento de modelos como Sora, y enfatizó la importancia de poseer una infraestructura de IA autónoma (análoga a AWS). (Fuente: OpenAI CFO重磅曝料:AGI近在咫尺,全球最强编程智能体已就绪)

Revelación importante de la CFO de OpenAI: la AGI está cerca, el agente de programación más fuerte del mundo está listo

Emprendedores ex-Huawei irrumpen en el sector de la robótica, formando una nueva fuerza : Tras la fundación de Zhiyuan Robotics por Zhihui Jun (Peng Zhihui), más ex empleados de Huawei, especialmente talento de la BU de Automoción (División de Soluciones de Automóviles Inteligentes), están entrando en el campo de la inteligencia corporeizada y la robótica, formando una “legión de robótica ex-Huawei”. El representante más reciente es TARS, cofundada por el ex CTO de conducción autónoma de la BU de Automoción de Huawei, Chen Yilun, y el “niño genio” Ding Wenchao (quien lideró la red de decisión de conducción inteligente ADS), que recientemente obtuvo una financiación ángel de 120 millones de dólares. Ding Wenchao cree que la experiencia en ingeniería y el bucle cerrado de datos de la conducción autónoma pueden transferirse a la inteligencia corporeizada. Además, el ex ejecutivo de Huawei Research USA, Hu Luhui, fundó Zhicheng AI, centrándose en robots industriales. Leju Robotics colabora con Huawei Cloud para desarrollar el modelo Pangu + el robot Kuafu. La filial de propiedad total de Huawei, Jímu Machines, también se centra en robots industriales. Estos emprendedores generalmente creen que la IA y los grandes modelos brindan nuevas oportunidades para la robótica, y que el modelo de iteración rápida de equipos pequeños de las startups es más adecuado para el nuevo sector. Llevan la capacidad de ingeniería, la cultura de esfuerzo e incluso los modelos de incentivos accionariales de Huawei a sus nuevas empresas, y obtienen el favor del capital gracias a su experiencia en Huawei. Sin embargo, todavía enfrentan desafíos como la localización de componentes clave, la validación tecnológica y la implementación comercial, y necesitan demostrar su valía en la competencia con emprendedores de origen académico y de otras grandes empresas. (Fuente: 离开任正非的天才少年里, 藏着一个机器人军团)

Entre los 'niños genio' que dejaron a Ren Zhengfei, se esconde una legión de robótica