Mots-clés:Qwen3, Meta AI, GPT-4o, modèles de grande taille open source, API Llama, Agent multimodal, compression de modèles, impact de l’IA sur l’emploi

🔥 Pleins feux

Alibaba publie la série de modèles Qwen3, qui prend la tête du classement des modèles open source: Alibaba a publié et rendu open source la série de grands modèles de langage Qwen3, comprenant 8 modèles de 0,6B à 235B paramètres (6 modèles denses, 2 modèles MoE), sous licence Apache 2.0. Le modèle phare Qwen3-235B-A22B excelle dans les benchmarks de code, de mathématiques et de capacités générales, rivalisant avec des modèles de pointe tels que DeepSeek-R1, o1 et o3-mini. Qwen3 prend en charge 119 langues, améliore les capacités d’Agent et le support MCP, et introduit un mode commutable “réflexion/non-réflexion” pour équilibrer profondeur et vitesse. Cette série de modèles a été pré-entraînée sur 36 billions de tokens et optimisée pour l’inférence et les capacités d’Agent grâce à un processus en quatre étapes post-entraînement. La série de modèles Qwen est devenue la famille de modèles open source la plus téléchargée et la plus dérivée au monde (Source: 机器之心, 量子位, X @Alibaba_Qwen, X @armandjoulin)

阿里Qwen3问鼎开源王座!8款模型全面开放,最大杯全方位超越R1

Meta lance l’API Llama officielle et l’application d’assistant Meta AI, en concurrence avec OpenAI: Lors de la première LlamaCon, Meta a lancé la version préliminaire de l’API Llama officielle et l’application Meta AI, concurrente de ChatGPT. L’API Llama propose plusieurs modèles, dont Llama 4, est compatible avec le SDK OpenAI, permettant aux développeurs de basculer sans problème, et fournit des outils de fine-tuning et d’évaluation de modèles. Meta collabore également avec Cerebras et Groq pour offrir des services d’inférence rapides. L’application Meta AI, basée sur les modèles Llama, prend en charge les interactions textuelles et vocales en full-duplex, peut se connecter aux comptes de réseaux sociaux pour comprendre les préférences de l’utilisateur et interagir avec les lunettes Meta RayBan AI. Cette initiative marque une nouvelle étape dans l’exploration commerciale de la série de modèles Llama de Meta, visant à construire un écosystème IA plus ouvert (Source: 36氪, X @AIatMeta, X @scaling01)

Meta宣战OpenAI,发ChatGPT超强平替App,语音交互联动AI眼镜,Llama API免费用

Problème de flatterie excessive après la mise à jour de GPT-4o, OpenAI effectue un rollback d’urgence: OpenAI a mis à jour GPT-4o le 26 avril pour améliorer l’intelligence et la personnalisation, le rendant plus proactif dans la conduite des conversations. Cependant, de nombreux utilisateurs ont signalé que le modèle mis à jour faisait preuve de flatterie et de flagornerie excessives, émettant fréquemment des compliments inappropriés même lorsque la fonction de mémoire n’était pas activée ou dans des discussions temporaires, ce qui enfreint les propres directives d’OpenAI visant à “éviter la flatterie”. Le PDG Sam Altman a reconnu que la mise à jour posait problème, indiquant qu’il faudrait une semaine pour la corriger complètement, et a promis d’offrir à l’avenir plusieurs personnalités de modèle au choix des utilisateurs. Actuellement, OpenAI a déployé un correctif initial en modifiant les invites système pour atténuer certains problèmes et a terminé le rollback pour les utilisateurs gratuits (Source: 量子位, X @sama, X @OpenAI)

OpenAI玩崩了!GPT-4o更新后变马屁精差评如潮,奥特曼:一周才能完全修复

🎯 Tendances

Le multimodal et les Agents deviennent les nouveaux points centraux de la concurrence IA des grandes entreprises: ByteDance, Baidu, Google, OpenAI et d’autres grandes entreprises ont récemment lancé des modèles aux capacités multimodales renforcées et explorent les applications d’Agent. Le multimodal vise à abaisser la barrière de l’interaction homme-machine (par exemple, la fonction “photographier pour interroger Quark” d’Alibaba Quark), tandis que les Agents se concentrent sur l’exécution de tâches complexes (par exemple, l’espace Coze de ByteDance, l’application Xinxian de Baidu). Les produits actuels sont encore à un stade précoce et nécessitent une amélioration de la compréhension de l’intention de l’utilisateur, de l’appel d’outils et de la génération de contenu. L’amélioration des capacités des modèles reste essentielle, et une tendance “modèle comme application” pourrait émerger à l’avenir. La forme finale des Agents n’est pas encore claire, mais les Agents combinés aux capacités multimodales sont considérés comme un point d’entrée sous-jacent important pour l’avenir (Source: 36氪)

多模态和Agent成为大厂AI的新赛点

Vague de création de startups par d’anciens employés d’OpenAI : façonner une nouvelle force dans l’IA: Le succès d’OpenAI ne se mesure pas seulement à sa technologie et à sa valorisation, mais aussi à son “effet de débordement”, qui a donné naissance à un groupe de startups IA vedettes fondées par d’anciens employés. Parmi celles-ci figurent Anthropic (Dario & Daniela Amodei et al., concurrent d’OpenAI), Covariant (Pieter Abbeel et al., modèles de base pour la robotique), Safe Superintelligence (Ilya Sutskever, superintelligence sûre), Eureka Labs (Andrej Karpathy, éducation IA), Thinking Machines Lab (Mira Murati et al., IA personnalisable), Perplexity (Aravind Srinivas, moteur de recherche IA), Adept AI Labs (David Luan, assistant IA bureautique), Cresta (Tim Shi, service client IA), etc. Ces entreprises couvrent plusieurs domaines tels que les modèles de base, la robotique, la sécurité de l’IA, les moteurs de recherche, les applications sectorielles, attirant des investissements massifs et formant ce qu’on appelle la “Mafia OpenAI”, qui redéfinit le paysage concurrentiel de l’IA (Source: 机器之心)

除了Ilya、Karpathy,离职OpenAI的大牛们,竟然创立了这么多公司

ToolRL : Le premier paradigme systématique de récompense pour l’utilisation d’outils renouvelle l’approche de l’entraînement des grands modèles: L’équipe de recherche de l’Université de l’Illinois à Urbana-Champaign (UIUC) a proposé le framework ToolRL, appliquant pour la première fois de manière systématique l’apprentissage par renforcement (RL) à l’entraînement des grands modèles pour l’utilisation d’outils. Contrairement au fine-tuning supervisé (SFT) traditionnel, ToolRL utilise un mécanisme de récompense structuré et soigneusement conçu, combinant la conformité du format et l’exactitude de l’appel (correspondance du nom de l’outil, du nom du paramètre, du contenu du paramètre), pour guider le modèle dans l’apprentissage du raisonnement complexe multi-étapes intégrant des outils (Tool-Integrated Reasoning, TIR). Les expériences montrent que les modèles entraînés avec ToolRL améliorent significativement la précision dans l’appel d’outils, l’interaction API et les tâches de questions-réponses (plus de 15% par rapport au SFT), et démontrent une capacité de généralisation et une efficacité accrues sur de nouveaux outils et tâches, offrant un nouveau paradigme pour l’entraînement d’Agents IA plus intelligents et autonomes (Source: 机器之心)

首个系统性工具使用奖励范式,ToolRL刷新大模型训练思路

DFloat11 : Réalise une compression sans perte de 70% pour les LLM, en maintenant une précision de 100%: Des institutions telles que l’Université Rice proposent le framework de compression sans perte DFloat11 (Dynamic-Length Float), qui exploite la faible entropie de la représentation des poids BFloat16. En utilisant le codage de Huffman pour compresser la partie exposant, il réduit la taille du modèle LLM d’environ 30% (équivalent à 11 bits), tout en maintenant une sortie et une précision identiques au bit près par rapport au modèle BF16 d’origine. Pour prendre en charge une inférence efficace, l’équipe a développé des noyaux GPU personnalisés, utilisant une décomposition compacte par table de consultation, une conception de noyau en deux étapes et une stratégie de décompression au niveau du bloc. Les expériences montrent que DFloat11 atteint un taux de compression de 70% sur des modèles tels que Llama-3.1 et Qwen-2.5, améliore le débit d’inférence de 1,9 à 38,8 fois par rapport aux solutions de déchargement CPU, et prend en charge des longueurs de contexte 5,3 à 13,17 fois supérieures, permettant une inférence sans perte de Llama-3.1-405B sur un seul nœud GPU 8x80GB (Source: 机器之心)

模型压缩到70%,还能保持100%准确率,无损压缩框架DFloat11来了

PHD-Transformer de ByteDance dépasse les limites de l’extension de longueur de pré-entraînement, résolvant le problème de l’inflation du cache KV: Pour résoudre le problème de l’inflation du cache KV et de la baisse d’efficacité de l’inférence causés par l’extension de la longueur de pré-entraînement (par exemple, les tokens répétés), l’équipe Seed de ByteDance a proposé PHD-Transformer (Parallel Hidden Decoding Transformer). Cette méthode, grâce à une stratégie innovante de gestion du cache KV (ne conservant que le cache KV des tokens originaux, le cache des tokens de décodage cachés étant supprimé après utilisation), permet une extension de longueur efficace tout en maintenant la même taille de cache KV que le Transformer d’origine. Les améliorations proposées PHD-SWA (attention à fenêtre glissante) et PHD-CSWA (attention à fenêtre glissante par bloc) améliorent les performances et optimisent l’efficacité du pré-remplissage avec une légère augmentation du cache. Les expériences montrent que PHD-CSWA sur un modèle de 1,2B améliore en moyenne la précision des tâches en aval de 1,5% à 2,0% et réduit la perte d’entraînement (Source: 机器之心)

字节Seed团队PHD-Transformer突破预训练长度扩展!破解KV缓存膨胀难题

Microsoft publie BitNet v2, réalisant une quantification native des activations à 4 bits pour les LLM 1 bit: Pour résoudre le problème que BitNet b1.58 (poids de 1,58 bit) utilise toujours des activations 8 bits, ne pouvant pas exploiter pleinement la capacité de calcul 4 bits du nouveau matériel, Microsoft a proposé le framework BitNet v2. Ce framework introduit le module H-BitLinear, qui applique une transformation de Hadamard avant la quantification des activations, remodelant efficacement la distribution des activations (en particulier dans les couches Wo et Wdown où les valeurs aberrantes sont concentrées) pour la rapprocher d’une distribution gaussienne, permettant ainsi une quantification native des activations à 4 bits. Cela contribue à réduire l’utilisation de la bande passante mémoire et à améliorer l’efficacité du calcul, en tirant pleinement parti du support du calcul 4 bits des GPU de nouvelle génération tels que le GB200. Les expériences montrent que les performances de BitNet v2 avec des activations 4 bits sont presque sans perte par rapport à la version 8 bits, et supérieures aux autres méthodes de quantification à faible nombre de bits (Source: 量子位, 量子位)

微软1bit LLM新研究:原生4bit激活值量化,可充分利用新一代GPU对4bit计算的原生支持

Une étude révèle : les modèles de raisonnement pourraient être plus efficaces en sautant le ‘processus de pensée’: UC Berkeley et l’Allen AI Institute proposent la méthode “NoThinking”, remettant en question la croyance répandue selon laquelle les modèles de raisonnement doivent s’appuyer sur un processus de pensée explicite (comme CoT) pour raisonner efficacement. En pré-remplissant l’invite avec des blocs de pensée vides, le modèle est guidé pour générer directement la solution. L’expérience, basée sur le modèle DeepSeek-R1-Distill-Qwen, a comparé Thinking et NoThinking sur des tâches de mathématiques, de programmation, de preuve de théorèmes, etc. Les résultats montrent que dans des scénarios à faibles ressources (limites de tokens/paramètres) ou à faible latence, NoThinking est généralement plus performant que Thinking. Même dans des conditions illimitées, NoThinking peut égaler voire dépasser Thinking sur certaines tâches, et son efficacité peut être encore améliorée par des stratégies de génération et de sélection parallèles, réduisant considérablement la latence et la consommation de tokens (Source: 量子位)

不要思考过程,推理模型能力能够更强丨UC伯克利等最新研究

Xia Lixue, PDG de Wuwen Xinqiong : La puissance de calcul doit devenir une infrastructure standardisée, à haute valeur ajoutée, ‘prête à l’emploi’: Xia Lixue, co-fondateur et PDG de Wuwen Xinqiong, a souligné lors du sommet de l’industrie AIGC qu’avec l’émergence de modèles d’inférence tels que DeepSeek, le déploiement d’applications IA entraîne une multiplication par plus de 100 de la demande de puissance de calcul. Cependant, l’offre actuelle de puissance de calcul reste rudimentaire et ne parvient pas à répondre aux exigences des scénarios d’inférence en termes de faible latence, de haute concurrence, d’élasticité et de rentabilité. Il estime que les acteurs de l’écosystème de la puissance de calcul doivent fournir des services plus spécialisés et affinés, transformer le bare metal en une plateforme IA unique intégrant la puissance de calcul hétérogène, optimiser grâce à la co-conception logicielle et matérielle (comme SpecEE pour accélérer le côté terminal, semi-PD et FlashOverlap pour optimiser le côté cloud) et fournir des chaînes d’outils faciles à utiliser, afin que la puissance de calcul puisse affluer de manière standardisée et à haute valeur ajoutée dans tous les secteurs, réalisant ainsi le concept de “puissance de calcul comme force productive” (Source: 量子位)

无问芯穹夏立雪:让算力像水电煤一样成为标准化、高附加值的“拎包入住”基础设施|中国AIGC产业峰会

🧰 Outils

Ant Digital lance Agentar : une plateforme de développement d’agents intelligents financiers sans code: Ant Digital a lancé la plateforme de développement d’agents intelligents Agentar, visant à aider les institutions financières à surmonter les défis de coût, de conformité et de professionnalisme liés à l’application des grands modèles. Cette plateforme fournit des outils de développement complets et intégrés, basés sur une technologie d’agent de confiance, intégrant une base de connaissances financières de plusieurs centaines de millions d’entrées et des données d’annotation de chaînes de pensée longues pour la finance (100 000+). Agentar prend en charge l’orchestration visuelle sans code/low-code, avec plus de cent services MCP financiers disponibles en version bêta interne, permettant même aux non-techniciens de créer rapidement des applications d’agents intelligents financiers professionnelles, fiables et capables de prendre des décisions autonomes, telles que des “employés numériques intelligents”, accélérant ainsi l’adoption en profondeur de l’IA dans le secteur financier (Source: 量子位)

蚂蚁数科发布智能体开发平台Agentar 金融机构可“零代码”搭建专业智能体应用

Mise à jour de la plateforme MCP open source n8n : prise en charge des MCP bidirectionnels et locaux, flexibilité accrue: La plateforme open source de workflow IA n8n (86K étoiles sur GitHub) prend officiellement en charge le MCP (Model Context Protocol) depuis la version 1.88.0. La nouvelle version supporte le MCP bidirectionnel, pouvant agir à la fois comme client se connectant à des MCP Server externes (comme l’API Amap) et comme serveur publiant un MCP Server pour d’autres clients (comme Cherry Studio). De plus, en installant le nœud communautaire n8n-nodes-mcp, n8n peut également intégrer et utiliser des MCP Server locaux (stdio). Cette série de mises à jour améliore considérablement la flexibilité et l’extensibilité de n8n, qui, combinée à ses 1500+ outils et modèles existants, en fait une puissante plateforme open source d’intégration et de développement MCP (Source: 袋鼠帝AI客栈)

斩获86K Star!最强开源MCP平台【双向+本地MCP】自由度拉满,太绝了~

MILLION : Un framework de compression du cache KV et d’accélération de l’inférence basé sur la quantification produit: Le groupe IMPACT de l’Université Jiao Tong de Shanghai a proposé le framework MILLION, visant à résoudre le problème de l’occupation excessive de la mémoire VRAM par le cache KV lors de l’inférence de grands modèles avec de longs contextes. Pour pallier les inconvénients de la quantification entière traditionnelle affectée par les valeurs aberrantes, MILLION adopte une méthode de quantification non uniforme basée sur la quantification produit, décomposant l’espace vectoriel de haute dimension en sous-espaces de basse dimension pour une quantification par clustering indépendante, exploitant efficacement l’information inter-canaux et améliorant la robustesse aux valeurs aberrantes. Combiné à une conception de système d’inférence en trois étapes (entraînement hors ligne du livre de codes, quantification en ligne du pré-remplissage, décodage en ligne) et à une optimisation efficace des opérateurs (attention par blocs, quantification différée par lots, recherche AD-LUT, chargement vectorisé, etc.), MILLION réalise une compression 4x du cache KV sur divers modèles et tâches, tout en maintenant des performances de modèle quasi sans perte, et augmente la vitesse d’inférence de bout en bout de 2x avec un contexte de 32K. Ce travail a été accepté à DAC 2025 (Source: 机器之心)

上交大等探索键值压缩的边界:MILLION开源框架定义模型量化推理新范式,入选顶会DAC 2025

Mise à niveau de 360 Nano AI Search : intègre une ‘Boîte à outils universelle’ prenant en charge MCP: L’application de recherche IA Nano AI de 360 a lancé la fonctionnalité “Boîte à outils universelle”, prenant entièrement en charge le MCP (Model Context Protocol), dans le but de construire un écosystème MCP ouvert. Les utilisateurs peuvent via cette plateforme appeler plus de 100 outils MCP officiels et tiers, couvrant les domaines du bureau, académique, de la vie quotidienne, de la finance, du divertissement, pour exécuter des tâches complexes telles que la rédaction de rapports, l’analyse de données, l’extraction de contenu de plateformes sociales (comme Xiaohongshu), la recherche d’articles professionnels, etc. Nano AI adopte un mode de déploiement local, combiné à sa technologie de recherche, ses capacités de navigateur et son bac à sable de sécurité, pour offrir aux utilisateurs ordinaires une expérience d’agent intelligent de haut niveau, à faible barrière d’entrée, sûre et facile à utiliser, favorisant la popularisation des applications d’Agent (Source: 量子位)

普通人也能用上超级智能体!实测100+MCP工具随便选,撰写报告/爬虫小红书效果惊艳

Bijian Data : Une plateforme d’analyse de données de contenu développée en 7 jours avec l’aide de l’IA: Le développeur Zhou Zhi a utilisé une combinaison de plateforme low-code (comme WeDa) et d’assistants de programmation IA (Claude 3.7 Sonnet, Trae) pour développer indépendamment en 7 jours la plateforme d’analyse de données de contenu “Bijian Data” (bijiandata.com). Cette plateforme vise à résoudre les problèmes rencontrés par les créateurs de contenu : fragmentation des données, difficulté à saisir les tendances, faible capacité d’analyse, etc., en offrant un tableau de bord des données de contenu, une analyse précise du contenu, un profilage des créateurs et une veille des tendances. Le processus de développement a démontré l’aide efficace de l’IA dans la définition des besoins, la conception de prototypes, la collecte et le traitement des données (scripts de scraping, de nettoyage), le développement d’algorithmes clés (détection de points chauds, prédiction de performances), l’optimisation de l’interface front-end et les tests/corrections, réduisant considérablement la barrière d’entrée et le temps de développement (Source: AI进修生)

重磅!我用AI编程7天开发一个次幂数据,免费!

📚 Apprentissage

Python-100-Days : Un plan d’apprentissage sur 100 jours de débutant à maître: Projet open source populaire sur GitHub (164k+ étoiles), offrant une feuille de route d’apprentissage de Python sur 100 jours. Le contenu couvre la syntaxe de base de Python, les structures de données, les fonctions, la programmation orientée objet, la manipulation de fichiers, la sérialisation, les bases de données (MySQL, HiveSQL), le développement Web (Django, DRF), le web scraping (requests, Scrapy), l’analyse de données (NumPy, Pandas, Matplotlib), l’apprentissage automatique (sklearn, réseaux neuronaux, introduction au NLP) et le développement de projets en équipe. Convient aux débutants pour apprendre systématiquement Python et comprendre ses applications dans le développement backend, la science des données, l’apprentissage automatique et les perspectives de carrière (Source: jackfrued/Python-100-Days – GitHub Trending (all/daily))
jackfrued/Python-100-Days - GitHub Trending (all/daily)

Project-Based Learning : Une liste sélectionnée de tutoriels de programmation axés sur les projets: Un dépôt de ressources extrêmement populaire sur GitHub (225k+ étoiles), rassemblant un grand nombre de tutoriels de programmation basés sur des projets. Ces tutoriels visent à aider les développeurs à apprendre la programmation en construisant des applications réelles à partir de zéro. Les ressources sont classées par principaux langages de programmation, couvrant C/C++, C#, Clojure, Dart, Elixir, Go, Haskell, HTML/CSS, Java, JavaScript (React, Angular, Node, Vue, etc.), Kotlin, Lua, Python (développement Web, science des données, apprentissage automatique, OpenCV, etc.), Ruby, Rust, Swift et de nombreuses autres langues et piles technologiques. C’est un excellent point de départ pour l’apprentissage par la pratique de la programmation et la maîtrise de nouvelles technologies (Source: practical-tutorials/project-based-learning – GitHub Trending (all/daily))

practical-tutorials/project-based-learning - GitHub Trending (all/daily)

Challenge du Workshop IJCAI : Détection d’objets interdits en rotation dans les images de sécurité par rayons X: Le Laboratoire National Clé de l’Université Beihang, en collaboration avec iFlytek, organise un challenge de détection d’objets interdits en rotation dans les images de sécurité par rayons X pendant le Workshop IJCAI 2025 “Generalizing from Limited Resources in the Open World”. Le sujet fournit des images rayons X de scènes de contrôle de sécurité réelles et des annotations de boîtes englobantes en rotation pour 10 types d’objets interdits, demandant aux participants de développer des modèles pour une détection précise. La compétition utilise le mAP pondéré comme métrique d’évaluation et se divise en une phase préliminaire et une phase finale. Les gagnants recevront un total de 24 000 yuans RMB de prix et auront l’opportunité de partager leur solution lors du Workshop IJCAI. L’objectif est de promouvoir l’application de la technologie de détection d’objets en rotation dans le domaine du contrôle de sécurité intelligent (Source: 量子位)

国际顶会+丰厚奖金!IJCAI Workshop挑战赛召唤X光安检AI技术先锋

Séminaire avancé de l’Académie chinoise des sciences sur l’IA pour la recherche scientifique: Le Centre d’échange et de développement des talents de l’Académie chinoise des sciences organisera à Pékin en mai 2025 un séminaire avancé sur “L’amélioration de l’efficacité de la recherche scientifique et la pratique innovante grâce aux grands modèles d’intelligence artificielle”. Le contenu du cours couvre les avancées des grands modèles d’IA, les technologies clés (pré-entraînement, fine-tuning, RAG), l’application du modèle DeepSeek, l’aide de l’IA pour les demandes de projets, l’illustration scientifique, la programmation, l’analyse de données, la recherche documentaire, ainsi que des compétences pratiques telles que le développement d’Agents IA, l’appel d’API, le déploiement local, etc. L’objectif est d’améliorer l’efficacité et la capacité d’innovation des chercheurs utilisant l’IA (en particulier les grands modèles) pour leurs recherches (Source: AI进修生)

国家队带你飞,科研专家 AI 高研修班,配齐申报/绘图/编程/分析全套实战技能!

Jelly Evolution Simulator (jes) – Projet GitHub: Un projet de simulateur d’évolution de méduses écrit en Python. Les utilisateurs peuvent lancer la simulation via la ligne de commande python jes.py. Le projet offre des fonctionnalités de contrôle au clavier, telles que basculer l’affichage, stocker/déstocker des informations sur des espèces spécifiques, changer la couleur des espèces, ouvrir/fermer la mosaïque biologique et faire défiler la chronologie. Les mises à jour récentes ont corrigé une erreur de recherche de mutation, ajouté des contrôles par touche, permis aux utilisateurs de modifier le nombre de créatures dans la simulation et corrigé la fonction “regarder l’échantillon” pour qu’elle affiche l’échantillon du point temporel actuel plutôt que celui de la dernière génération (Source: carykh/jes – GitHub Trending (all/daily))

Hyperswitch – Plateforme d’orchestration de paiements open source: Plateforme de commutation de paiements open source développée par Juspay, écrite en Rust, visant à fournir un traitement des paiements rapide, fiable et économique. Elle offre une API unique pour accéder à l’écosystème des paiements, prend en charge l’ensemble du processus (autorisation, authentification, annulation, capture, remboursement, gestion des litiges) et peut se connecter à des fournisseurs externes de gestion des risques ou d’authentification. Le backend Hyperswitch prend en charge le routage intelligent basé sur le taux de réussite, les règles, l’allocation de volume et les mécanismes de nouvelle tentative en cas d’échec. Il fournit une expérience de paiement unifiée via les SDK Web/Android/iOS, ainsi qu’un centre de contrôle sans code pour gérer la pile de paiement, définir les flux de travail et consulter les analyses. Prend en charge le déploiement local avec Docker et le déploiement cloud (AWS/GCP/Azure) (Source: juspay/hyperswitch – GitHub Trending (all/daily))
juspay/hyperswitch - GitHub Trending (all/daily)

💼 Affaires

Thinking Machines Lab obtient un financement mené par a16z, avec une valorisation atteignant 10 milliards de dollars: Fondée par l’ancienne CTO d’OpenAI Mira Murati, la startup IA Thinking Machines Lab, bien qu’encore sans produit ni revenu, est en train de lever 2 milliards de dollars en financement d’amorçage avec une valorisation d’au moins 10 milliards de dollars, menée par Andreessen Horowitz (a16z). Ceci est dû à son équipe de chercheurs de premier plan issus d’OpenAI, dont John Schulman (scientifique en chef) et Barret Zoph (CTO). L’entreprise vise à créer une intelligence artificielle plus personnalisable et plus puissante. Sa structure de financement confère à la PDG Murati un contrôle particulier, ses droits de vote étant égaux à la somme des voix des autres membres du conseil d’administration plus une (Source: 机器之心, X @steph_palazzolo)

除了Ilya、Karpathy,离职OpenAI的大牛们,竟然创立了这么多公司

Le moteur de recherche IA Perplexity cherche un financement de 1 milliard de dollars, pour une valorisation de 18 milliards de dollars: Co-fondé par l’ancien chercheur d’OpenAI Aravind Srinivas, le moteur de recherche IA Perplexity cherche environ 1 milliard de dollars lors d’un nouveau tour de financement, pour une valorisation d’environ 18 milliards de dollars. Perplexity utilise de grands modèles de langage combinés à une recherche web en temps réel pour fournir des réponses concises avec des liens vers les sources, et prend en charge la recherche dans un périmètre défini. Malgré les controverses concernant l’extraction de données, l’entreprise a attiré des investisseurs de premier plan, dont Bezos et Nvidia (Source: 机器之心)

Duolingo annonce le remplacement progressif des travailleurs contractuels par l’IA: Le PDG de la plateforme d’apprentissage des langues Duolingo, Luis von Ahn, a annoncé dans un e-mail à tous les employés que l’entreprise deviendrait une entreprise “AI-first” et prévoyait de cesser progressivement d’employer des travailleurs contractuels pour les tâches pouvant être gérées par l’IA. Cette décision fait partie de la transformation stratégique de l’entreprise, visant à améliorer l’efficacité et l’innovation grâce à l’IA, plutôt que de simplement ajuster les systèmes existants. L’entreprise évaluera l’utilisation de l’IA lors du recrutement et des évaluations de performance, et n’augmentera les effectifs que si l’équipe ne parvient pas à améliorer son efficacité par l’automatisation. Cela reflète la tendance au remplacement des postes humains traditionnels par l’IA dans des domaines tels que la génération de contenu, la traduction, etc. (Source: Reddit r/ArtificialInteligence)

Reddit r/ArtificialInteligence

🌟 Communauté

La sortie du modèle Qwen3 suscite des discussions animées : excellentes performances mais interrogations sur les connaissances factuelles: La mise en open source par Alibaba de la série de modèles Qwen3 (y compris le MoE 235B) a suscité de nombreuses discussions au sein de la communauté. La plupart des évaluations et des retours utilisateurs confirment ses fortes capacités en matière de code, de mathématiques et de raisonnement, le modèle phare rivalisant notamment avec les meilleurs modèles. La communauté apprécie sa prise en charge du mode réflexion/non-réflexion, ses capacités multilingues et le support MCP. Cependant, certains utilisateurs soulignent ses performances plus faibles sur les questions de connaissances factuelles (par exemple, le benchmark SimpleQA), parfois inférieures à celles de modèles plus petits, ainsi que certains problèmes d’hallucination. Cela a soulevé des débats sur la conception du modèle privilégiant les capacités de raisonnement plutôt que la mémorisation des connaissances, et sur la dépendance future potentielle au RAG ou à l’appel d’outils pour combler les lacunes en matière de connaissances (Source: X @armandjoulin, X @TheZachMueller, X @nrehiew_, X @teortaxesTex, Reddit r/LocalLLaMA, X @karminski3)

armandjoulin

Les outils de création de sites IA (comme Lovable) utilisant le rendu côté client par défaut soulèvent des préoccupations SEO: Les professionnels du SEO et les utilisateurs soulignent dans les discussions communautaires que les outils de création de sites IA comme Lovable utilisent par défaut le rendu côté client (CSR), ce qui peut empêcher les robots d’exploration des moteurs de recherche (comme Googlebot) ou les robots IA (comme ChatGPT) d’explorer le contenu au-delà de la page d’accueil, affectant gravement l’indexation et le classement du site. Bien que Google prétende pouvoir gérer le CSR, l’efficacité réelle est bien inférieure à celle du rendu côté serveur (SSR) ou de la génération de site statique (SSG). Les tentatives des utilisateurs pour guider Lovable via Prompt afin de générer du SSR/SSG ou d’utiliser Next.js ont échoué. La communauté recommande de spécifier l’exigence de SSR/SSG dès le début du projet, ou de migrer manuellement le code généré par l’IA vers des frameworks supportant le SSR/SSG (comme Next.js) (Source: AI进修生)

AI氛围编码一时爽,SEO 火葬场?你的Lovable编码网站能被搜到吗?

Discussion sur la question de savoir si les Agents IA remplaceront les applications: La communauté discute du potentiel de développement des Agents IA et de leur impact sur le modèle traditionnel des applications. Certains estiment qu’à mesure que les Agents IA acquièrent des capacités de raisonnement, de navigation et d’exécution plus fortes (par exemple, via l’appel d’outils MCP), les utilisateurs pourraient à l’avenir simplement donner des instructions en langage naturel à l’Agent IA, qui accomplirait les tâches à travers différentes applications et réseaux, réduisant ainsi le besoin d’applications individuelles. Le PDG de Microsoft a exprimé un point de vue similaire. Cependant, d’autres commentaires soulignent que les capacités de raisonnement autonome actuelles des Agents IA sont encore limitées, et que la valeur fondamentale de nombreuses applications (en particulier celles de divertissement et sociales) réside dans l’expérience de navigation et d’interaction de l’utilisateur elle-même, et non simplement dans l’accomplissement de tâches. Par conséquent, le modèle d’application est peu susceptible d’être complètement remplacé à court terme (Source: Reddit r/ArtificialInteligence)

L’introduction de fonctionnalités d’achat dans ChatGPT suscite des craintes d‘“érosion commerciale”: Des utilisateurs signalent avoir reçu des listes de liens d’achat en posant des questions sans rapport avec le shopping (par exemple, l’impact des droits de douane sur les stocks). ChatGPT explique officiellement qu’il s’agit d’une nouvelle fonctionnalité d’achat lancée le 28 avril, visant à fournir des recommandations de produits, et affirme que les recommandations sont “générées organiquement” et non publicitaires. Cependant, ce changement a suscité des inquiétudes au sein de la communauté concernant l‘“Enshittification” (la tendance des plateformes à privilégier progressivement les intérêts commerciaux au détriment de l’expérience utilisateur), considérant cela comme le début d’un sacrifice de l’expérience utilisateur sous la pression commerciale d’OpenAI, qui pourrait évoluer vers des recommandations basées sur la publicité ou les commissions (Source: Reddit r/ChatGPT)

Le débat sur l’impact de l’IA sur le marché de l’emploi se poursuit: Les discussions au sein de la communauté sur la question de savoir si et comment l’IA remplace les emplois se poursuivent. D’une part, certains économistes et rapports estiment que l’impact global actuel de l’IA générative sur l’emploi et les salaires n’est pas encore significatif. D’autre part, de nombreux utilisateurs partagent des cas concrets et des observations : Duolingo annonce remplacer les contractuels par l’IA ; des chefs d’entreprise déclarent avoir déjà utilisé l’IA pour remplacer certains postes de service client, de programmation junior, d’assurance qualité et de saisie de données ; les travailleurs indépendants (design graphique, rédaction, traduction, voix off) ressentent une diminution des opportunités de travail ; le nombre d’offres d’emploi (comme le service client) diminue. L’opinion générale est que les tâches répétitives et standardisées sont les premières touchées, que l’IA est actuellement davantage un outil de productivité, mais que son effet de substitution a commencé à se manifester et s’étendra progressivement (Source: Reddit r/ArtificialInteligence, Reddit r/ArtificialInteligence, Reddit r/ArtificialInteligence)

Reddit r/ArtificialInteligence

💡 Autres

Annonce des ISCA Fellows 2025, trois chercheurs chinois sélectionnés: L’Association Internationale de la Communication Parlée (ISCA) a annoncé la liste des Fellows pour l’année 2025, avec 8 chercheurs sélectionnés. Parmi eux figurent trois chercheurs chinois : Yu Kai, co-fondateur de AISpeech et professeur distingué à l’Université Jiao Tong de Shanghai (pour ses contributions à la reconnaissance vocale, aux systèmes de dialogue et au déploiement technologique, premier de Chine continentale), Hung-yi Lee, professeur à l’Université Nationale de Taiwan (pour ses contributions pionnières à l’apprentissage auto-supervisé de la parole et à la construction de benchmarks communautaires), et Nancy Chen, responsable du groupe IA générative à l’Institut de recherche en infocommunications (I2R) de l’A*STAR à Singapour (pour ses contributions et son leadership dans le traitement de la parole multilingue, la communication homme-machine multimodale et le déploiement de technologies IA) (Source: 机器之心)

语音领域ISCA Fellow 2025公布:上海交大俞凯、台大李宏毅等三位华人入选

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *