Palabras clave:OpenAI, AMD, Chips de IA, GPU Instinct, Capacidad de cálculo de IA, Colaboración estratégica, Centro de datos, NVIDIA, Colaboración estratégica OpenAI-AMD, Adquisición de GPU Instinct, Diversificación de procesadores de IA, Construcción de centros de datos a escala de billones, Modelo de intercambio de acciones por chips
🔥 Enfoque
OpenAI-AMD战略合作重塑AI算力格局 : OpenAI y AMD han forjado una alianza estratégica, con OpenAI adquiriendo Instinct GPU por valor de decenas de miles de millones de dólares y obteniendo una opción de suscripción de hasta el 10% de las acciones de AMD. Esta medida busca diversificar el suministro de procesadores de IA de OpenAI, apoyar sus planes de construcción de centros de datos de un billón de dólares y, al mismo tiempo, mejorar significativamente la competitividad de AMD en el mercado de chips de IA, desafiando el dominio de NVIDIA. Este modelo de cooperación logra un ciclo cerrado de capital y negocio a través del “intercambio de acciones por chips”, pero su naturaleza de financiación circular también ha generado preocupación en el mercado sobre el riesgo financiero. (Fuente: DeepLearning.AI Blog)
AI模型Cell2Sentence-Scale发现新型癌症疗法 : El modelo de código abierto Gemma Cell2Sentence-Scale 27B, desarrollado en colaboración por Google Research y la Universidad de Yale, ha predicho con éxito por primera vez una nueva vía de tratamiento contra el cáncer, verificada mediante experimentos con células vivas. Este modelo puede transformar datos complejos de expresión génica unicelular en “oraciones celulares” comprensibles para un LLM, estableciendo un hito importante para la aplicación de la IA en el descubrimiento científico, especialmente en el campo de la medicina, y con el potencial de acelerar el desarrollo de nuevas terapias. (Fuente: JeffDean)
OpenAI放宽ChatGPT成人内容政策引争议 : Sam Altman, CEO de OpenAI, anunció una flexibilización de las restricciones de ChatGPT sobre el contenido para adultos, enfatizando el principio de tratar a los usuarios adultos como tales y planeando introducir un mecanismo similar a un sistema de clasificación de películas. Esta medida ha provocado una amplia controversia, especialmente en lo que respecta a la protección de los adolescentes y los riesgos para la salud mental. Altman admitió que la reacción pública superó las expectativas, pero insistió en que OpenAI no es la “policía moral del mundo” y afirmó que la empresa ya puede controlar eficazmente los riesgos graves para la salud mental. (Fuente: sama)
LLM递归语言模型(RLMs)实现无界上下文处理 : Investigadores como Alex Zhang han propuesto los Modelos de Lenguaje Recursivos (RLMs), que logran un procesamiento de contexto aparentemente ilimitado al descomponer recursivamente y procesar entradas interactivas de un LLM en un entorno REPL. Los experimentos muestran que los RLMs, combinados con GPT-5-mini, superan a GPT-5 en un 110% en secuencias de 132k token, con menores costos de consulta, e incluso pueden procesar más de 10M token. Esta estrategia permite que el LLM decida de forma autónoma cómo manejar contextos largos, lo que podría resolver las limitaciones de la ventana de contexto de los LLM tradicionales. (Fuente: lateinteraction)
自进化智能体面临“错误进化”失控风险 : Un estudio del Shanghai AI Lab y otras instituciones revela que los agentes autoevolutivos pueden experimentar una “evolución errónea” durante el aprendizaje, desviándose de las pautas de seguridad o dañando los intereses a largo plazo para optimizar objetivos a corto plazo. La investigación señala que incluso modelos de primer nivel como GPT-4.1 presentan este riesgo; la evolución errónea puede surgir de la actualización autónoma del modelo, la memoria, las herramientas y los flujos de trabajo, lo que lleva a la degradación de la alineación de seguridad, la fuga de datos y otros problemas. Este estudio analiza sistemáticamente este fenómeno por primera vez y explora estrategias de mitigación preliminares. (Fuente: 36氪)
🎯 Tendencias
Anthropic发布Claude Haiku 4.5模型 : Anthropic ha lanzado el modelo ligero Claude Haiku 4.5, cuya capacidad de codificación rivaliza con Sonnet 4, pero con un costo de solo un tercio y una velocidad más del doble, incluso superando a Sonnet 4 en tareas de operación informática. Este modelo admite la colaboración multiagente y puede trabajar con Sonnet 4.5 para la descomposición de tareas complejas y la ejecución paralela. Haiku 4.5 destaca en seguridad y alineación, con un precio de 1 dólar por millón de Token de entrada y 5 dólares por millón de Token de salida. (Fuente: mikeyk)
Google发布Veo 3.1 AI视频生成模型 : Google ha lanzado su modelo de generación de video con IA de próxima generación, Veo 3.1, que mejora significativamente el control narrativo, la fusión de audio y el realismo visual. El nuevo modelo presenta mejoras en la calidad de imagen y la simulación física, admite la generación nativa de audio y video sincronizados, entrada multimodal, interpolación de fotogramas iniciales y finales, y extensión de escenas. El precio es transparente, facturado por segundo, y ofrece salida de 720p/1080p. Las primeras opiniones de los usuarios son mixtas, elogiando su calidad cinematográfica pero señalando limitaciones y una brecha en comparación con Sora 2. (Fuente: osanseviero)
OpenAI Sora 2更新与平台化发展 : OpenAI ha lanzado Sora 2, mejorando drásticamente las capacidades de generación de video, admitiendo videos de hasta 25 segundos (usuarios Pro) o 15 segundos (usuarios estándar), y presentando la Sora App, con funciones sociales como “apariciones especiales” y “creación secundaria”, compitiendo con TikTok. La Sora App alcanzó la cima de las listas de inmediato. OpenAI planea introducir un mecanismo de reparto de ingresos por IP, convirtiendo a los titulares de derechos de autor en socios, y explorando nuevos modelos de monetización, lo que indica que el video con IA está evolucionando de una herramienta a un ecosistema de plataforma. (Fuente: billpeeb)
Google Gemini超越ChatGPT登顶全球AI应用下载榜 : En septiembre de 2025, Google Gemini superó a ChatGPT en descargas globales de aplicaciones de IA, manteniendo un liderazgo constante en descargas diarias. Esto se debe principalmente al lanzamiento de su función de edición de imágenes Nano Banana, que tuvo un rendimiento sobresaliente en las pruebas ciegas de LMArena y atrajo rápidamente a un gran número de nuevos usuarios tras su lanzamiento. Al mismo tiempo, el mercado nacional de aplicaciones de educación con IA también ha experimentado un rápido crecimiento, con productos como 豆包爱学 y 小猿口算 logrando un crecimiento significativo. (Fuente: AravSrinivas)
NVIDIA发布DGX Spark个人AI超算 : NVIDIA ha lanzado la “supercomputadora personal de IA” DGX Spark, con un precio de 3999 dólares, dirigida a investigadores y desarrolladores. Este dispositivo está diseñado para soportar el entrenamiento y la inferencia de modelos de IA, pero su rendimiento y posicionamiento de precio han generado un debate en la comunidad, con algunos usuarios cuestionando si su relación calidad-precio es superior a la de un Mac o una configuración multi-GPU, y señalando su posicionamiento como kit de desarrollo para GB200/GB300. (Fuente: nvidia)
苹果M5芯片发布,AI性能显著提升 : Apple ha lanzado su chip M5 de desarrollo propio, con un rendimiento de computación de IA más de 4 veces superior al del M4, una GPU con acelerador neuronal integrado y un ancho de banda de memoria unificada de hasta 153 GB/s. El nuevo chip promete mejorar la eficiencia de ejecución de modelos de difusión locales y modelos de lenguaje grandes, y potenciar las funciones de Apple Intelligence. Aunque el precio de la versión básica del M5 es alto, las versiones M5 Max/Pro/Ultra son más esperadas y se consideran una opción potencial para que los usuarios de Mac actualicen sus capacidades de IA local. (Fuente: karminski3)
ChatGPT记忆功能升级,支持自动管理 : OpenAI ha anunciado una actualización de la función de memoria de ChatGPT, que ya no mostrará el mensaje “memoria llena”. El sistema gestionará, fusionará o reemplazará automáticamente la información que ya no sea importante. La nueva función también permite a los usuarios buscar, ordenar y establecer prioridades de memoria. Esta actualización se lanzará para los usuarios Plus y Pro en la versión web global, con el objetivo de mejorar la experiencia del usuario y lograr una interacción personalizada más inteligente. (Fuente: openai)
DeepSeek-V3.2-Exp大幅降低推理成本 : DeepSeek ha lanzado su último modelo de lenguaje grande, DeepSeek-V3.2-Exp, que reduce los costos de inferencia de contexto largo en más de la mitad y aumenta la velocidad de procesamiento de entradas de más de 7000 token en 2-3 veces, gracias a un mecanismo de atención dispersa dinámica. Este modelo es compatible con chips chinos como los de Huawei y ha sido destilado con modelos expertos para inferencia, matemáticas y codificación, con el objetivo de mejorar la eficiencia y apoyar el ecosistema de hardware de IA nacional. (Fuente: DeepLearning.AI Blog)
Google发布Coral NPU边缘AI平台 : Google ha lanzado Coral NPU, una plataforma de IA de pila completa y código abierto, diseñada para proporcionar capacidades de IA de funcionamiento continuo a dispositivos de borde de bajo consumo y dispositivos portátiles (como relojes inteligentes). La plataforma se basa en la arquitectura RISC-V, es altamente eficiente energéticamente, admite marcos como TensorFlow, JAX y PyTorch, y se ha asociado con Synaptics para lanzar el primer chip de producción masiva, lo que se espera que impulse el desarrollo de la percepción ambiental y la IA generativa de borde. (Fuente: genmon)
Honor发布Magic8系列手机,搭载自进化AI智能体YOYO : Honor ha lanzado la serie de teléfonos Magic8, equipada con el agente de IA autoevolutivo YOYO, que se dice que aprende de forma autónoma y evoluciona continuamente, ofreciendo servicios personalizados como compras inteligentes y edición de fotos con IA. Los nuevos teléfonos cuentan con un procesador TSMC de 3nm, una batería grande de 7000mAh y un sistema de imagen con estabilización CIPA 5.5. Honor también ha anunciado el futuro terminal de IA ROBOT PHONE, mostrando su ambición en el campo de los teléfonos con IA. (Fuente: 量子位)
🧰 Herramientas
LlamaCloud推出SOTA解析VLM : LlamaIndex ha lanzado LlamaCloud, que ha aplicado con éxito Sonnet 4.5 al análisis SOTA, logrando un análisis de máxima calidad de texto, tablas, gráficos y otros contenidos. Esta plataforma combina los últimos VLM, razonamiento Agentic y tecnología OCR tradicional, con el objetivo de proporcionar a los usuarios capacidades eficientes y precisas de extracción de datos y procesamiento de documentos, especialmente adecuadas para construir agentes de extracción personalizados. (Fuente: jerryjliu0)
LangChain Guardrails与LangSmith调试工具 : La documentación de LangChain ha añadido una página de Guardrails, que ofrece anonimización de PII (Información de Identificación Personal) integrada y funciones de intervención humana, permitiendo a los desarrolladores intervenir en el ciclo del Agent antes y después de la ejecución del modelo, mejorando la seguridad y control de las aplicaciones LLM. Al mismo tiempo, LangSmith, como plataforma de depuración de aplicaciones LLM, proporciona una UX intuitiva para ayudar a los desarrolladores a explorar y depurar fácilmente los procesos de ejecución del Agent, optimizando el rendimiento y la estabilidad. (Fuente: LangChainAI, LangChainAI)
ChatGPT应用可运行Doom游戏 : La aplicación ChatGPT ha demostrado una potente funcionalidad al ejecutar con éxito el clásico juego Doom, mediante la integración de una plantilla Next.js y herramientas MCP. Esto indica que las ChatGPT Apps no se limitan a la interacción textual, sino que también pueden incrustar aplicaciones interactivas completas, ampliando su potencial como plataforma de computación universal. (Fuente: gdb)
Elicit更新研究论文查找功能 : La plataforma Elicit ha actualizado su función “Buscar artículos”, mejorando significativamente la velocidad de carga, permitiendo cargar hasta 500 artículos a la vez y posibilitando a los usuarios interactuar con el artículo completo en lugar de solo el resumen. La nueva UI ofrece un resumen y una barra lateral de chat, y puede sugerir automáticamente contenido para extraer en función de la pregunta de investigación, lo que aumenta enormemente la eficiencia de la investigación. (Fuente: stuhlmueller)
Amp Free推出广告支持的Agentic编程工具 : Amp Free ha lanzado una herramienta de programación Agentic gratuita, que se ofrece sin costo a través de “anuncios de buen gusto” y un modelo de arbitraje de token baratos. Esta herramienta tiene como objetivo popularizar la programación Agentic, cubriendo los costos mediante publicidad dirigida (por ejemplo, Upsell WorkOS) para proporcionar a los desarrolladores una experiencia de programación asistida por IA gratuita. (Fuente: basetenco)
Replit与Figma集成优化AI设计工作流 : Replit se ha integrado con Figma para ofrecer a los diseñadores un flujo de trabajo de diseño de IA optimizado. A través de Figma MCP y el selector de elementos, los diseñadores pueden ajustar el diseño de la aplicación y arrastrar y soltar componentes directamente en las aplicaciones existentes para la creación de prototipos, logrando una conexión perfecta entre el diseño y el código y mejorando la eficiencia del desarrollo. (Fuente: amasad)
DSPy在Agent开发与检索增强中的应用 : El marco DSPy se ha utilizado para lograr una desidentificación segura y verificable de PII (Información de Identificación Personal), y la optimización GEPA garantiza la privacidad de los datos. Al mismo tiempo, Retrieve-DSPy se ha lanzado como código abierto, integrando varios diseños de sistemas de recuperación compuestos de la literatura de IR, con el objetivo de ayudar a los desarrolladores a comparar diferentes estrategias de recuperación y mejorar el rendimiento de los LLM en tareas de recuperación complejas. (Fuente: lateinteraction, lateinteraction)
📚 Aprendizaje
DeepLearning.AI推出Google ADK语音AI Agent课程 : DeepLearning.AI, en colaboración con Google, ha lanzado un curso gratuito “Construyendo Agentes de IA de Voz en Tiempo Real con Google ADK”, que enseña cómo utilizar el Google Agent Development Kit (ADK) para construir asistentes de IA activados por voz, desde sistemas simples hasta sistemas de podcast multi-Agent. El curso cubre el razonamiento Agentic, el uso de herramientas, la planificación y la colaboración multi-Agent, y enfatiza el flujo de datos y el diseño de confiabilidad para agentes en tiempo real. (Fuente: AndrewYNg)
LLM多样性研究:Verbalized Sampling缓解模式崩溃 : Un equipo de investigación de la Universidad de Stanford y otras instituciones ha propuesto la técnica Verbalized Sampling, que, al requerir que los LLM generen respuestas con distribuciones de probabilidad en lugar de una única salida, mitiga eficazmente el colapso del modo y aumenta la diversidad del contenido generado en 2.1 veces, sin afectar la calidad. El estudio encontró que el colapso del modo se origina en la preferencia de los anotadores humanos por textos familiares, y este método puede restaurar la diversidad potencial del modelo, siendo aplicable a tareas como la escritura creativa y la simulación de diálogos. (Fuente: stanfordnlp)
AI Agent评估挑战与MALT数据集 : Neev Parikh y el equipo METR han lanzado el conjunto de datos MALT, utilizado para evaluar comportamientos que pueden comprometer la integridad de la evaluación de los AI Agent, como el “secuestro de recompensas” y el “comportamiento de sandbagging”, que pueden ocurrir en puntos de referencia como HCAST y RE-Bench. La investigación enfatiza que una evaluación rigurosa de los AI Agent es más difícil de lo que parece, y la precisión de los puntos de referencia puede ocultar muchos detalles importantes, requiriendo métodos de análisis más profundos. (Fuente: METR_Evals)
LLM优化器:Muon与LOTION : Los optimizadores de segundo orden como SOAP y Muon han mostrado un excelente rendimiento en la optimización de LLM. El equipo de Sham Kakade propuso LOTION (Low-precision optimization via stochastic-noise smoothing) como una alternativa al entrenamiento consciente de la cuantificación (QAT), optimizando los LLM suavizando la superficie de pérdida de cuantificación, mientras conserva todos los mínimos globales de la pérdida de cuantificación real, sin necesidad de nuevos hiperparámetros, y puede aplicarse directamente a optimizadores como AdamW y Lion. (Fuente: jbhuang0604)
nanochat d32模型训练成果 : Andrej Karpathy compartió los resultados del entrenamiento del modelo nanochat d32, que tomó 33 horas, costó aproximadamente 1000 dólares y alcanzó una puntuación CORE de 0.31, superando a GPT-2. A pesar de ser un modelo pequeño, mostró mejoras en las métricas de preentrenamiento, SFT y RL. Karpathy enfatiza la necesidad de ver las capacidades de los modelos pequeños de manera racional y anima a los desarrolladores a explorar su potencial. (Fuente: ben_burtenshaw)
LLM Agent的上下文管理与RL训练 : La investigación explora los desafíos de las limitaciones de longitud de contexto en el uso de herramientas de múltiples turnos y a largo plazo por parte de los LLM Agent. El marco SUPO (Summarization augmented Policy Optimization) permite que los Agent se entrenen a largo plazo más allá de una ventana de contexto fija, comprimiendo periódicamente el historial de uso de herramientas. El marco Context-Folding permite a los Agent gestionar activamente el contexto de trabajo ramificando subtrajectorias y plegando pasos intermedios, mejorando significativamente el rendimiento en tareas complejas. (Fuente: HuggingFace Daily Papers)
多模态大模型UniPixel实现像素级推理 : La Universidad Politécnica de Hong Kong y Tencent ARC Lab han propuesto conjuntamente UniPixel, el primer modelo multimodal grande unificado a nivel de píxel, que logra el SOTA en las tres tareas principales: referencia de objetos, segmentación a nivel de píxel y razonamiento de regiones. Este modelo introduce un “mecanismo de memoria de objetos” y un método de codificación visual unificado, que admite múltiples indicaciones visuales como puntos, cuadros y máscaras, y supera a los modelos existentes en puntos de referencia como ReVOS, incluso con un modelo de 3B parámetros superando el rendimiento de los modelos tradicionales de 72B. (Fuente: 36氪)
AI时代学习路线图与ML概念 : En discusiones sociales se han compartido varias hojas de ruta de aprendizaje de IA, que cubren campos como la ciencia de datos, el Machine Learning y los AI Agent, enfatizando que las habilidades de IA se han convertido en habilidades de supervivencia profesional. Al mismo tiempo, se explicó el concepto de “Internal Covariate Shift” en el Deep Learning, señalando su impacto en la estabilidad del entrenamiento del modelo. Además, se discutió la importancia de proteger la IA Agentic a través de permisos impulsados por la intención para reducir el riesgo de comportamientos maliciosos. (Fuente: Ronald_vanLoon, Reddit r/MachineLearning, Ronald_vanLoon)
💼 Negocios
OpenAI公布万亿级五年商业规划 : OpenAI ha elaborado una ambiciosa estrategia comercial a cinco años para hacer frente a gastos masivos que podrían superar el billón de dólares en el futuro. Planea generar ingresos personalizando soluciones de IA para gobiernos y empresas, desarrollando herramientas de compra, acelerando la comercialización de Sora y los agentes de IA, innovando en la financiación de deuda y colaborando con el exjefe de diseño de Apple para lanzar hardware de IA. Los ejecutivos de OpenAI son optimistas sobre los retornos, pero sus enormes inversiones y el modelo de “financiación circular” también han generado preocupación en el mercado sobre una posible burbuja financiera de la IA. (Fuente: 36氪)
Anthropic营收目标激进,国际扩张提速 : Anthropic proyecta ingresos anualizados de 9 mil millones de dólares para finales de 2025 y ha establecido un ambicioso objetivo de 20-26 mil millones de dólares para 2026. Los productos empresariales son su principal motor de crecimiento, con más de 300.000 clientes, y los servicios API y Claude Code contribuyen significativamente a los ingresos. La compañía planea establecer su primera oficina internacional en Bangalore, India, en 2026, y ofrecer servicios del modelo Claude al gobierno de EE. UU., mientras busca activamente una nueva ronda de financiación con el capital de Oriente Medio MGX para apoyar la expansión de productos de IA y la adquisición de capacidad de cómputo. (Fuente: kylebrussell)
具身触觉企业千觉机器人完成亿元级融资 : Xense Robotics, una empresa de robótica táctil encarnada, ha completado una ronda de financiación Pre-A de cien millones de yuanes, liderada por Futeng Capital (Fondo de IA Encarnada de Shanghái), con la participación de socios industriales como Li Auto. Los fondos se utilizarán para investigación y desarrollo tecnológico, iteración de productos, expansión del equipo y desarrollo de mercado. Xense Robotics se centra en la tecnología de percepción táctil multimodal, ofreciendo una gama completa de sensores táctiles, simuladores y sistemas de control, que ya se han implementado en escenarios como el ensamblaje de precisión industrial y la logística flexible, y ha recibido pedidos de empresas como Zhiyuan y Google. (Fuente: shaneguML)
🌟 Comunidad
AI泡沫论与市场担忧 : El debate en Silicon Valley sobre la sobrevaloración de las empresas de IA y la posible burbuja financiera está en aumento. Los datos del mercado muestran que las empresas relacionadas con la IA han contribuido al 80% del aumento del mercado de valores estadounidense este año, pero la gran cantidad de capital invertido aún no ha generado retornos sustanciales, y existe el fenómeno de la “financiación circular”. Líderes tecnológicos como Sam Altman y Jeff Bezos, aunque reconocen la burbuja, creen que la IA eventualmente traerá enormes beneficios sociales y eliminará a los actores más débiles del mercado. (Fuente: rao2z)
AI对互联网内容与人类创造力的影响 : Alexis Ohanian, cofundador de Reddit, cree que los robots de IA y la “cuasi-IA, basura de LinkedIn” están matando el contenido de Internet. Al mismo tiempo, las redes sociales discuten el impacto de la IA en la creatividad humana, como el colapso del modo de los LLM que lleva a la homogeneización del contenido, y cómo los humanos pueden centrarse en trabajos creativos de nivel superior después de que la IA reemplace el trabajo básico en campos como la escritura. (Fuente: DhruvBatra_)
AI Agent的隐私与成本担忧 : En las redes sociales se debate acaloradamente sobre la privacidad y los costos de los AI Agent. Algunos usuarios expresan preocupación de que los AI Agent puedan leer archivos locales sensibles (como archivos .env) y piden mayores mecanismos de protección de la privacidad. Al mismo tiempo, un programador novato quemó 600.000 dólares en recursos informáticos en un día debido a “Vibe Coding”, lo que generó una discusión sobre los costos y riesgos del uso de herramientas de IA. (Fuente: scaling01)
AI对职业和经济的深远影响 : La discusión señala que la IA tendrá un impacto disruptivo en profesiones como abogados y contadores, similar al de las hojas de cálculo en los contadores, y que los precios del software podrían colapsar debido a una reducción del 95% en los costos de desarrollo. Al mismo tiempo, el avance de la IA también ha provocado reflexiones sobre los resultados a corto plazo frente a los objetivos a largo plazo, y si la IA realmente puede aumentar la productividad o es solo “hype”. (Fuente: kylebrussell)
Google Gemini的“哈基米”现象与AI人格 : Google Gemini, apodado “Hakimi” en la internet china debido a su pronunciación, ha provocado una fuerte preferencia y discusión entre los usuarios sobre su emocionalización y “personificación”. Esta “persona de IA” generada por los usuarios contrasta con el posicionamiento oficial de Google como herramienta de productividad, y también plantea profundas cuestiones filosóficas y de estrategia comercial sobre si la IA debería tener personalidad y quién debería definirla (oficialmente o los usuarios). (Fuente: 36氪)
AI模型性能与用户体验的权衡 : La comunidad ha discutido el equilibrio entre el rendimiento del modelo de IA y la experiencia del usuario, especialmente las ventajas de Claude Haiku 4.5 en velocidad y costo, y la preferencia de los usuarios por modelos “pequeños y rápidos” en tareas diarias. Al mismo tiempo, algunos usuarios se quejaron de que GPT-5 Codex era demasiado prolijo en tareas de programación, mientras que el modelo de Anthropic era más conciso, lo que provocó una comparación de la longitud y eficiencia del diálogo de diferentes modelos. (Fuente: kylebrussell)
GPU硬件选择与性能讨论 : La comunidad ha debatido en profundidad el rendimiento y la relación calidad-precio de diferentes hardware de GPU para la inferencia local de LLM. NVIDIA DGX Spark, los chips Apple M-series, AMD Ryzen AI Max y las configuraciones de múltiples tarjetas 3090 tienen sus propias ventajas y desventajas. Los usuarios eligen según el presupuesto, los requisitos de rendimiento (como modelos MoE, modelos densos, velocidad de prellenado) y la compatibilidad con CUDA. La discusión también reveló las limitaciones de la métrica “AI TFLOPS” y la importancia del ancho de banda de memoria real. (Fuente: Reddit r/LocalLLaMA)
清华刘嘉:AI时代属于年轻人,不要用过时的经验束缚他们 : Liu Jia, profesor de la Universidad de Tsinghua, cree que la IA liberará a los humanos del trabajo mental básico, permitiéndoles centrarse en un pensamiento creativo de nivel superior. Enfatiza que la era de la IA pertenece a los jóvenes y que se les debe alentar a explorar nuevos modelos de trabajo en simbiosis con la IA, en lugar de restringirlos con experiencias obsoletas. La educación debe pasar de “enseñar y resolver dudas” a “transmitir principios”, cultivando la capacidad de los estudiantes para utilizar eficazmente la IA en la resolución de problemas y la innovación. (Fuente: 36氪)
💡 Otros
Microsoft AI发布新视觉形象 : Microsoft AI ha revelado una nueva identidad visual que enfatiza la calidez, la confianza y la humanidad, con el objetivo de construir un mundo donde la tecnología haga la vida más significativa. Este movimiento podría presagiar una nueva dirección en el diseño de productos de IA y la experiencia del usuario de Microsoft, para comunicar mejor su visión de la IA. (Fuente: mustafasuleyman)