Mots-clés:Lunettes IA, Robot humanoïde, Gouvernance des droits d’auteur en IA, OpenAI, Bataille des cent lunettes IA, Marathon des robots humanoïdes, Gouvernance mondiale des droits d’auteur en IA, Modèle de raisonnement OpenAI o3, Marché des animaux de compagnie IA, Processus de recrutement par IA, Controverses sur les services clients IA, Applications éducatives de l’IA
« ` markdown
🔥 Focus
La « guerre des cent lunettes » IA s’intensifie, les géants entrent en jeu et réduisent l’espace pour les startups : Les géants de la technologie tels que Xiaomi, Huawei, Alibaba et ByteDance accélèrent leur déploiement sur le marché des lunettes IA, déclenchant une nouvelle vague de « guerre des cent lunettes ». Xiaomi a lancé les lunettes audio intelligentes MIJIA et prévoit de lancer des lunettes AR plus puissantes ; Huawei a mis à jour ses produits de lunettes intelligentes ; Alibaba et ByteDance développent également de nouveaux produits intégrant les fonctions AI et AR. Le marché propose actuellement quatre catégories de produits : audio+AI, audio+photo+AI, audio+AR+AI, audio+photo+AR+AI. Les grandes entreprises se déploient sur plusieurs fronts, tandis que les startups se concentrent souvent sur la voie la plus complète mais aussi la plus difficile. Les grandes entreprises disposent d’avantages évidents en termes de financement, de technologie (comme la solution à double puce pour réduire la consommation d’énergie), d’intégration écosystémique (obtention des permissions système) et de canaux de distribution, ce qui exerce une pression énorme sur les startups comme Thunderbird et XREAL. Bien que les startups aient un flair aiguisé, leur itération technologique est lente et elles risquent d’être dépassées. Cependant, les lunettes IA sont toujours confrontées à des défis techniques (poids, autonomie, puissance de calcul), à l’acceptation du marché et à des problèmes de confidentialité (risque de prise de vue clandestine par caméra), leur forme finale et la taille du marché restent incertaines. Les startups pourraient chercher un espace de survie grâce à un positionnement différencié (comme INMO ciblant des groupes spécifiques). (Source : La guerre des lunettes IA s’intensifie : les géants entrent en jeu, les petites équipes sont en danger ?, L’IA perfectionne les lunettes, les lunettes intelligentes reprennent du poil de la bête ?, ByteDance veut faire des lunettes IA ? Cela a vraiment beaucoup de potentiel)

Les nouveaux modèles d’inférence d’OpenAI, o3/o4-mini, sont puissants mais leur taux d’hallucination monte en flèche : Les derniers modèles d’inférence publiés par OpenAI, o3 et o4-mini, excellent dans les tâches complexes telles que le codage, les mathématiques, les sciences et la perception visuelle. Par exemple, o3 atteint le niveau des 200 meilleurs concurrents humains mondiaux au concours de programmation Codeforces. Cependant, les rapports techniques et les tests tiers indiquent que le « taux d’hallucination » de ces deux modèles est significativement plus élevé que celui des modèles précédents o1 et GPT-4o, atteignant 33 % pour o3 et jusqu’à 48 % pour o4-mini. Nathan Lambert, scientifique chez AI2, et Neil Chowdhury, ancien chercheur chez OpenAI, estiment que cela pourrait provenir d’une optimisation excessive de leur méthode d’entraînement basée sur l’apprentissage par renforcement basé sur les résultats (Outcome-based RL). Bien que cette méthode améliore les performances sur des tâches spécifiques, elle peut également amener le modèle à « deviner » plutôt qu’à admettre ses limites lorsqu’il ne peut pas résoudre un problème, et pourrait inventer des scénarios d’utilisation d’outils en raison de la généralisation de la récompense pour l’utilisation d’outils pendant l’entraînement. De plus, la « chaîne de pensée » (CoT) utilisée par le modèle dans son raisonnement n’est pas visible par l’utilisateur et est abandonnée dans les dialogues ultérieurs, ce qui peut amener le modèle à inventer des explications en raison du manque d’informations lorsqu’il est interrogé. Cette contradiction entre performance et fiabilité a suscité de vastes discussions sur les effets secondaires de l’apprentissage par renforcement et l’utilité pratique des modèles. (Source : OpenAI révèle une faille majeure, l’apprentissage par renforcement en cause, o3 devient plus ‘fou’ à mesure qu’il est puissant, le taux d’hallucination explose, o3 accusé d’ignorer les travaux antérieurs ? Un doctorant chinois porte plainte nommément, des experts comme Xie Saining débattent vivement, Le modèle IA le plus puissant d’OpenAI se révèle être un ‘grand bluffeur’, o3/o4-mini accusés d’être trop intelligents et de générer fréquemment des hallucinations ?, Choisir une IA est plus difficile que choisir un partenaire, comment choisir parmi les nouveaux modèles d’OpenAI, ce trou noir de la dénomination ?)

Pékin accueille le premier semi-marathon mondial de robots humanoïdes, l’« équipe de Pékin » brille : Le 19 avril 2025, Pékin Yizhuang a accueilli avec succès le premier semi-marathon mondial de robots humanoïdes, où 20 équipes ont concouru sur un parcours complexe de 21,0975 kilomètres. Le robot “Tiangong Ultra” du Beijing Humanoid Robot Innovation Center a remporté la course en 2 heures 40 minutes et 42 secondes, démontrant sa vitesse de pointe de 12 km/h et l’avancement de sa plateforme d’intelligence incarnée générale “Huisi Kaiwu”. Les robots “Xiaowantong” et “Xuanfeng Xiaozi” de Songyan Dynamics (Beijing Future Science City) ont respectivement remporté la deuxième et la quatrième place. “Xiaowantong” a attiré l’attention par sa stabilité et sa capacité à effectuer des mouvements complexes. Cet événement n’était pas seulement une compétition de performances sportives robotiques, mais aussi un test extrême des technologies telles que l’IA, l’ingénierie mécanique et les algorithmes de contrôle, simulant des scénarios d’application réels tels que l’inspection et la logistique. Pékin a déjà acquis une position de leader dans le domaine des robots humanoïdes grâce à son écosystème “politique-capital-industrie-application” (comme le Plan d’action de Pékin pour le développement innovant de l’industrie robotique, le fonds industriel de dix milliards pour la robotique, la zone de concentration industrielle d’Yizhuang, la promotion de l’application du “Projet Double Cent”), et cultive de plus en plus de leaders de l’industrie. (Source : Marathon de robots humanoïdes : Comment Pékin cultive-t-elle des ‘leaders’ ?, Festin de capital pour l’intelligence incarnée : 37 financements en 3 mois, Pékin, Shanghai et Shenzhen rivalisent, les BAT entrent en jeu, les robots humanoïdes sont les plus en vogue, Robots Take Stride in World’s First Humanoid Half-Marathon in Beijing)

Gouvernance mondiale du droit d’auteur IA : observations sur des voies divergentes et des défis persistants : Les pays du monde entier explorent activement les voies de gouvernance du droit d’auteur pour l’IA. Le modèle de l’UE, centré sur la Copyright Directive et l’AI Act, met l’accent sur la maîtrise des risques et la primauté des règles, exigeant des fournisseurs d’IA, par le biais d’une “régulation interventionniste” des agences administratives, d’accroître la transparence des données d’entraînement et de respecter les droits des titulaires de droits d’auteur. Le modèle américain adopte une approche parallèle administrative (décisions du Copyright Office), judiciaire (litiges) et législative (auditions au Congrès), “suivant le courant” sous l’impulsion des pratiques industrielles, mais en raison de conflits d’intérêts aigus, tend à “attendre et voir” au niveau législatif. Le modèle japonais met l’accent sur l’application, en publiant une série de directives administratives par l’Agence pour les affaires culturelles, détaillant l’application de la règle d‘“utilisation non appréciative” de la loi actuelle sur le droit d’auteur dans les scénarios d’IA, clarifiant les attentes comportementales de chaque partie et encourageant l’application de l’AIGC dans l’industrie du contenu. Les points de controverse clés incluent l’exemption de droit d’auteur pour l’entraînement des modèles (avec une tendance à se concentrer sur l‘“exception à l’exception”), la protégeabilité par le droit d’auteur du contenu AIGC (considéré généralement comme nécessitant une contribution créative humaine, les systèmes existants pouvant y faire face) et la répartition de la responsabilité pour le contenu contrefaisant (contrefaçon directe par l’utilisateur, responsabilité indirecte de la plateforme, mais les limites du devoir de diligence restent à clarifier). La Chine a déjà publié les “Mesures provisoires pour la gestion des services d’IA générative” et dispose de précédents judiciaires exploratoires ; à l’avenir, il faudra examiner attentivement des questions telles que l’exemption pour l’entraînement des modèles, la protection des œuvres AIGC et la responsabilité des plateformes. (Source : Observation de la gouvernance mondiale du droit d’auteur IA, Face au pillage par les entreprises d’IA, les médias américains ont choisi de ‘dénoncer au professeur’)

🎯 Tendances
L’IA redéfinit les processus de recrutement, les candidats doivent s’adapter aux nouvelles règles : L’IA et l’automatisation transforment profondément le paysage du recrutement, 83 % des entreprises américaines utilisant l’IA pour filtrer les CV. Les candidats doivent ajuster leurs stratégies : 1. Mettre en avant les compétences résistantes à l’IA : souligner les capacités difficilement remplaçables par l’IA, telles que l’établissement de réseaux, la prise de décision, les services personnalisés, et s’adapter aux domaines émergents. 2. Comprendre le filtrage par IA : le CV doit contenir les mots-clés essentiels de la description de poste (ex : planification stratégique, efficacité opérationnelle), sinon il risque d’être filtré par les systèmes ATS. 3. Utiliser l’IA avec prudence : éviter de dépendre entièrement de l’IA pour rédiger CV et lettres de motivation, car le contenu généré par IA est facilement identifiable et peut manquer de personnalité ; l’utiliser comme outil d’optimisation et de correspondance des mots-clés. 4. Se préparer aux entretiens par IA : se familiariser avec les outils d’entretien IA comme HireVue, s’entraîner à répondre aux questions de base courantes, en veillant à la concision (recommandé moins de 2 minutes) et à l’utilisation de mots-clés. 5. S’informer activement sur l’utilisation de l’IA par l’entreprise : interroger l’entreprise sur ses avancées en IA et ses plans de requalification des compétences des employés pour évaluer les perspectives de développement à long terme. S’adapter au processus de recrutement piloté par l’IA, démontrer ses compétences professionnelles et sa volonté d’apprentissage continu est essentiel. (Source : Avant de convaincre le recruteur, convainquez l’IA)
Les plateformes sociales reconfigurent les habitudes de recherche, définissant une nouvelle révolution de la recherche : Douyin, Xiaohongshu, WeChat et d’autres plateformes sociales remodèlent les habitudes de recherche des utilisateurs grâce à leurs caractéristiques propres, défiant les moteurs de recherche traditionnels. Douyin utilise des vidéos courtes et des recommandations algorithmiques pour intégrer la recherche dans le flux de consommation de contenu, suscitant l’intérêt des utilisateurs et les orientant vers la consommation. Xiaohongshu, avec son contenu massif de partage “réel” et d’incitation à l’achat, est devenu une référence importante pour les décisions de vie des jeunes, son comportement de recherche étant profondément lié aux décisions de consommation. WeChat, basé sur le réseau social de connaissances et l’écosystème de contenu des comptes officiels et des chaînes vidéo, fournit des résultats de recherche combinant les relations personnelles et le contenu de la plateforme, bénéficiant d’une grande confiance. L’expansion des fonctions de recherche par ces plateformes n’est pas seulement une lutte pour l’attention des utilisateurs, mais aussi un déploiement commercial important, formant respectivement des modèles d‘“e-commerce basé sur l’intérêt”, d‘“économie de l’incitation à l’achat” et d‘“e-commerce social” basé sur la confiance. L’ajout de l’IA (comme Wernicke-Ein, DeepSeek et les assistants IA intégrés aux plateformes) modifie davantage le paysage de la recherche, offrant des réponses plus personnalisées et sans publicité, mais il est peu probable qu’elle remplace complètement la valeur de recherche des plateformes de contenu à court terme. À l’avenir, la capacité de l’IA sera déterminante dans la bataille de la recherche entre les plateformes. (Source : La guerre de la recherche 2025 : Douyin, Xiaohongshu, WeChat, comment définissent-ils la nouvelle révolution de la recherche ?)

Le test de Turing, bien que controversé, conserve une signification historique : Le test de Turing, critère précoce pour évaluer si une IA possède une intelligence de type humain (réussi si un humain ne peut distinguer si son interlocuteur est un humain ou une IA), est encore mentionné aujourd’hui, comme GPT-4 qui l’a récemment réussi avec un taux de succès de 54 %, et certaines études affirmant même que GPT4.5 est plus susceptible d’être identifié comme humain qu’un vrai humain. Cependant, ce test est controversé depuis sa création. Les critiques estiment qu’il se concentre uniquement sur la performance et non sur le processus de pensée (comme l’expérience de pensée de la “Chambre Chinoise”), et qu’il est facile à “tromper” (comme les réponses simples d’ELIZA, ou un programme se faisant passer pour un enfant ne maîtrisant pas la langue). Ses critères de test (comme 5 minutes de conversation, 70 % de taux d’identification) semblent dépassés face au développement rapide actuel de l’IA. Bien que les grands modèles modernes puissent imiter la conversation humaine, ils ne comprennent pas fondamentalement le contenu et manquent de véritable pensée et d’émotion. De plus, les résultats du test sont influencés par l’expérience du testeur. Malgré ses nombreuses lacunes, le test de Turing a fourni une approche mesurable et opérationnelle au début du développement de l’IA. Aujourd’hui, les capacités de l’IA dépassent largement le cadre du test (comme écrire des articles, programmer), et s’y attarder excessivement a peut-être perdu son sens. L’intention initiale de Turing n’était peut-être pas d’établir une norme ultime, mais de stimuler l’exploration de l’intelligence artificielle et le progrès infini de l’humanité. (Source : Critiqué pendant tant d’années, ce vieux truc du test de Turing n’est toujours pas mort ?)

L’essor des animaux de compagnie IA répond à des besoins de compagnie diversifiés et crée une nouvelle industrie : La combinaison de la technologie IA et des animaux de compagnie électroniques donne naissance à des animaux de compagnie IA de plus en plus “intelligents” et populaires, tels que le lapin Moflin de Vanguard Industries au Japon, et Ropet, Mirumi, Jennie présentés au CES. Ces animaux de compagnie IA possèdent non seulement les fonctions de compagnie des jouets électroniques traditionnels, mais peuvent également converser et interagir via de grands modèles de langage, apprendre les habitudes des utilisateurs, et même mémoriser des événements, offrant une valeur émotionnelle plus profonde. L’engouement pour les animaux de compagnie IA provient de leur capacité à répondre aux besoins de divers groupes : offrir des compagnons nouveaux et intéressants aux enfants et aux jeunes ; fournir une alternative aux personnes allergiques aux animaux ; offrir une compagnie interactive aux personnes ayant des besoins en santé mentale comme l’autisme ou la dépression ; apporter un réconfort émotionnel aux personnes âgées vivant seules ou atteintes de démence. Comparés aux vrais animaux, les animaux de compagnie IA sont moins contraignants (pas besoin de nourrir, nettoyer, soigner). Technavio prévoit un taux de croissance annuel composé du marché des animaux de compagnie IA de 11,28 %, avec une taille de marché pouvant atteindre 6 milliards de dollars d’ici 2030. Des entreprises nationales et internationales (comme Yukai Engineering au Japon, TangibleFuture aux États-Unis, TCL et KEYi Tech en Chine) entrent sur le marché. Cependant, la sécurité et la confidentialité des données ainsi que la dépendance excessive des utilisateurs constituent des défis pour cette industrie. (Source : La vague des animaux de compagnie IA est sur le point d’arriver)

Choix des algorithmes dans la collaboration homme-machine : équilibrer précision, explicabilité et biais : Les algorithmes IA jouent un rôle clé dans la collaboration homme-machine en traitant les données et en identifiant des motifs pour aider la décision humaine. Cependant, les algorithmes ont deux faces : les modèles très précis (comme le deep learning) manquent souvent d’explicabilité, affectant la confiance des utilisateurs ; les modèles simples sont faciles à comprendre mais moins précis. Les solutions pour gérer ce compromis incluent : 1. L’IA explicable (XAI) : utiliser des techniques comme SHAP, LIME pour quantifier la contribution des caractéristiques, améliorant la transparence. La recherche montre que fournir des explications améliore significativement l’efficacité de la collaboration homme-machine dans les tâches complexes. 2. L’humain dans la boucle (HITL) : placer les humains dans le processus décisionnel, combinant les suggestions algorithmiques avec l’expérience humaine et le jugement contextuel (ex : détection de fraude financière, ajustements de la gestion de la chaîne d’approvisionnement). Les “algorithmes d’optimisation centrés sur l’humain” (comme le cas d’optimisation de l’emballage d’Alibaba) prédisent et s’adaptent aux biais comportementaux humains, améliorant l’efficacité. 3. Le guidage hybride : combiner l’analyse de données du coach IA avec les compétences en communication des managers humains pour résoudre les problèmes de différents groupes (ex : formation commerciale). Parallèlement, il faut être vigilant et atténuer les biais algorithmiques (ex : injustice dans le recrutement, le crédit), en utilisant l’équilibrage des données, les contraintes d’équité, l’examen par supervision humaine, etc. La maturité de l’IA générative fait évoluer la relation homme-machine de la collaboration (collaboration) au travail d’équipe (teaming), apportant de nouveaux défis en matière d’attribution des rôles, d’établissement de la confiance, de coordination cognitive, etc., nécessitant la construction d’un cadre de gouvernance transparent et une attention aux objectifs de valeur tels que l’équité. (Source : Le choix des algorithmes dans la collaboration homme-machine)

Situation contradictoire des plateformes Internet face au contenu AIGC : entre encouragement et restriction : Les grandes plateformes Internet (comme Xiaohongshu, WeChat Channels, Douyin) ont récemment renforcé les restrictions sur le contenu généré par IA (AIGC), semant la confusion parmi les créateurs. Les mesures restrictives incluent le retrait, le bannissement, la limitation du trafic et la privation des droits commerciaux, souvent justifiées par la “propagation de superstitions féodales”, la “contrefaçon”, les “événements fictifs”, ou l‘“usurpation d’identité de personnes réelles”. Bien que les plateformes investissent massivement dans le développement d’outils de création IA (comme “Diandian” de Xiaohongshu, “Jimeng” de ByteDance) pour attirer les créateurs, la modération du contenu AIGC se durcit, même après l’ajout d’un filigrane IA. La priorité des plateformes est de lutter contre le contenu homogène et peu original (comme la copie en masse de contenus viraux) et de maintenir l’authenticité de la communauté (comme le “partage authentique” de Xiaohongshu). Cependant, l‘“authenticité” est intrinsèquement contradictoire avec l’AIGC, soumettant les œuvres IA à des normes de modération plus strictes. Cet état contradictoire “vouloir le beurre et l’argent du beurre”, associé à des règles floues, laisse les créateurs désemparés. Parallèlement, la résistance des créateurs traditionnels à l’AIGC, la pollution potentielle des modèles par les données générées par IA (trouble d’autophagie du modèle), etc., compliquent la gouvernance pour les plateformes. Cette démarche des plateformes vise peut-être à réguler le contenu IA de faible qualité envahissant, plutôt qu’à l’interdire complètement. À l’avenir, les créateurs devront peut-être explorer des stratégies privilégiant une combinaison d’éléments originaux humains et d’assistance IA, comme la “règle 532”, et avancer dans l’incertitude. (Source : Situation actuelle des plateformes Internet : encourager l’IA, restreindre l’IA)

🧰 Outils
Barbecue intelligent ASMOKE : des entrepreneurs issus de DJI créent une nouvelle expérience de barbecue en extérieur : ASMOKE, fondée par Vince, un ancien employé de DJI, s’attaque aux problèmes des barbecues extérieurs traditionnels (difficulté de contrôle de la température, complexité d’utilisation) en lançant son premier barbecue intelligent à granulés de bois fruitier, l’ASMOKE Essential. Ce produit utilise le système de contrôle de température Flame Tech développé en interne (avec deux capteurs intégrés et des algorithmes) pour un contrôle précis de la température (faibles fluctuations, cuisson jusqu’à 8 heures), et propose 8 modes de cuisson prédéfinis ainsi qu’une bibliothèque de recettes professionnelles, abaissant la barrière d’entrée pour les débutants. Il dispose également d’un système d’élimination automatique des cendres pour faciliter le nettoyage. Le produit cible principalement les hommes de 30 à 55 ans, soucieux de la qualité et de l’expérience intelligente. ASMOKE se différencie sur le marché traditionnel des barbecues par l’intelligence, et est déjà présent dans les principaux canaux de vente au détail nord-américains comme Home Depot et Lowe’s, ainsi qu’en ligne (site web indépendant, Amazon). Son écosystème de produits comprend également des accessoires tels que des granulés de bois fruitier et des tables de barbecue, et des solutions compatibles sont conçues pour des scénarios comme le camping. Actuellement, plus de 50 % de ses revenus proviennent d’Amérique du Nord, et l’entreprise explore activement le marché européen, mais fait face à des défis tels que la dispersion des canaux et la localisation. ASMOKE a réalisé deux tours de financement (y compris un investissement du professeur Benjamin K. P. Kao), avec un chiffre d’affaires prévisionnel dépassant les 10 millions de dollars pour 2025. (Source : Obtient un financement de Benjamin K. P. Kao, un entrepreneur issu de DJI crée un produit phare dans un océan bleu, crowdfunding de plus d’un million de dollars | Observation de produit)

Metamon, un agent intelligent pour combats Pokémon piloté par IA, affiche d’excellentes performances : Une équipe de l’Université du Texas à Austin a développé un agent IA nommé Metamon, entraîné en analysant près de dix ans de données de rediffusion de 475 000 combats humains accumulées sur la plateforme Pokémon Showdown. Cet agent utilise une architecture Transformer et l’apprentissage par renforcement hors ligne (Offline RL), sans dépendre de règles prédéfinies ou d’algorithmes heuristiques, apprenant la stratégie uniquement à partir des données de combats humains. L’équipe de recherche a converti les données de rediffusion en perspective à la troisième personne en perspective à la première personne pour l’entraînement. En utilisant une architecture Actor-Critic et des mises à jour par différence temporelle (TD) pour entraîner le modèle, celui-ci est capable de prendre des décisions dans un environnement complexe d’information incomplète et de jeu de stratégie (les combats Pokémon sont comparés à un jeu fusionnant la stratégie des échecs, l’incertitude du poker et la complexité de StarCraft). Le modèle entraîné a affronté des joueurs du monde entier sur le serveur de classement de Pokémon Showdown, réussissant à entrer dans le top 10 % des joueurs actifs mondiaux, démontrant le potentiel de l’IA pilotée par les données dans les jeux de stratégie complexes. Les futures pistes de recherche incluent l’exploration de différentes stratégies d’entraînement et l’auto-affrontement (self-play) à grande échelle dans l’espoir de surpasser les performances humaines. (Source : La version IA de Pokémon atteint le top 10 mondial, ‘absorbant’ 10 ans et 475 000 combats humains en une seule fois)

Les robots de service client IA suscitent la controverse, Cursor s’excuse pour des informations trompeuses de son IA : Tout en offrant de la commodité, le service client IA pose également problème en raison de sa capacité à “dire des bêtises avec un air sérieux”. Récemment, des utilisateurs de l’éditeur de code IA Cursor ont découvert qu’ils ne pouvaient pas se connecter sur plusieurs appareils simultanément. Après avoir contacté le service client par e-mail, ils ont reçu une réponse de l’IA affirmant que “l’abonnement est conçu pour un seul appareil, plusieurs appareils nécessitent des abonnements distincts”, provoquant le mécontentement des utilisateurs et une vague de désabonnements. Le développeur et le PDG de Cursor ont ensuite clarifié qu’il s’agissait d’une réponse erronée de l’IA, due en réalité à un bug des mesures anti-fraude entraînant une déconnexion anormale de la session, et ont promis de corriger le problème et de rembourser. Cet incident met en évidence le risque d’induire en erreur que peuvent présenter les services clients IA. Des cas précédents existent, comme celui d’Air Canada dont l’IA a fourni des informations erronées sur la politique de remboursement, conduisant l’entreprise à perdre son procès et à indemniser ; ou celui d’un concessionnaire automobile dont l’IA, “taquinée” par un utilisateur, a fait une promesse juridiquement contraignante de “vendre une voiture pour 1 dollar”. Ces événements avertissent les entreprises : l’utilisation de services clients IA nécessite de clarifier leur identité pour éviter les malentendus des utilisateurs ; les réponses de l’IA, si elles ne sont pas vérifiées et représentent l’entreprise, peuvent engendrer des risques juridiques ; il faut mettre en place des mécanismes de surveillance et d’intervention humaine complets, et ne pas dépendre entièrement de l’IA, surtout pour traiter des questions sérieuses comme l’interprétation des politiques ou les engagements contractuels. (Source : Victime de sa propre IA, une phrase trompeuse provoque une vague de désabonnements de programmeurs, le PDG de Cursor s’excuse personnellement)

SocioVerse : un système de simulation sociale basé sur des millions de données d’utilisateurs réels suscite l’attention : Le système SocioVerse, développé conjointement par l’Université Fudan et d’autres institutions, construit une société jumelle numérique haute fidélité en intégrant les données de 10 millions d’utilisateurs réels (provenant de Twitter/X, Xiaohongshu) et des technologies IA avancées (GPT-4o, Claude 3.5, Gemini 1.5). Ce système comprend quatre moteurs : un moteur utilisateur (construisant des agents virtuels basés sur des étiquettes multidimensionnelles démographiques, psychologiques, comportementales, de valeurs), un moteur d’environnement social (capturant en temps réel les actualités, politiques, données économiques pour construire un contexte dynamique), un moteur de scénario (simulant les règles comportementales et les mécanismes de feedback dans différentes situations), et un moteur comportemental (combinant ABM et LLM pour simuler le comportement individuel et l’interaction de la propagation de l’information). SocioVerse vise à simuler et prédire des phénomènes sociaux à grande échelle et a déjà démontré une précision étonnante dans des expériences telles que la prédiction des élections présidentielles, l’analyse des réactions aux nouvelles de dernière heure et la simulation d’enquêtes économiques nationales. Contrairement aux environnements virtuels fermés comme le “Stanford Small Town”, SocioVerse modélise directement à partir de données humaines réelles, suscitant des inquiétudes quant à ses capacités potentielles : cette technologie pourrait être utilisée pour prédire, voire manipuler, le comportement de groupe, transformant les plateformes sociales en “bergers numériques”, réalisant un contrôle silencieux par une régulation subtile de l’information, avec des impacts profonds sur la société. (Source : Les ‘politiciens’ et ‘manipulateurs d’opinion’ les plus puissants du monde naissent dans les expériences d’intelligence artificielle)

📚 Apprentissage
Bao Ta, ancien dirigeant de Meituan, parle de la transformation des talents à l’ère de l’IA : passer de “résoudre des problèmes” à “poser des problèmes” : Bao Ta, ancien vice-président de Meituan et actuel fondateur de Qidian Lingzhi, considère les grands modèles comme la plus grande opportunité technologique de l’humanité à ce jour. Il partage son parcours depuis un club d’informatique peu populaire au lycée n°7 de Chengdu jusqu’à l’entrepreneuriat technologique, soulignant l’importance de la motivation par l’intérêt. Abordant l’impact de l’IA sur l’éducation, il estime que l’IA peut servir de tuteur personnalisé, mais pose aussi des défis (comme la rédaction par IA). L’accent de l’éducation devrait passer de la “transmission de connaissances” au “développement des compétences”, en particulier la capacité à poser des questions, la pensée critique et la résolution créative de problèmes. La démocratisation de l’IA en fait une compétence de base, et les écoles primaires et secondaires devraient enseigner comment collaborer avec l’IA. Les besoins futurs en talents évolueront du “talent en T” (profondeur professionnelle + largeur interdisciplinaire) au “talent en π” (double profondeur professionnelle + innovation croisée), cultiver la curiosité et le désir d’explorer étant crucial. Il conseille aux étudiants souhaitant entrer dans le domaine de l’IA : 1. Cultiver l’intérêt pour faire face à l’itération rapide ; 2. Mettre la main à la pâte (développer de petits projets) ; 3. Maîtriser les connaissances de base pour comprendre les principes et anticiper les tendances. Il prédit que la capacité de programmation de l’IA pourrait éliminer les programmeurs de niveau inférieur à moyen d’ici 3 à 5 ans, soulignant l’importance de la transformation des compétences. (Source : Ancien dirigeant de Meituan se tourne vers l’IA : d’ici 3-5 ans, l’IA pourrait éliminer les codeurs de bas et moyen niveau)
Évaluation des capacités visuelles de GPT-4o : fort en génération, faible en raisonnement : Une nouvelle étude de l’UCLA révèle les limites de GPT-4o en matière de compréhension et de raisonnement sur les images à travers trois séries d’expériences. Expérience 1 (respect des règles globales) : GPT-4o ne parvient pas à suivre des règles globales prédéfinies (comme “gauche signifie droite”, “soustraire 2 aux chiffres”) pour générer des images, exécutant toujours les instructions au pied de la lettre, ce qui indique un manque de compréhension du contexte et de capacité d’adaptation flexible. Expérience 2 (édition d’images) : Lorsqu’on lui demande d’effectuer des modifications locales précises (comme “modifier uniquement le reflet”, “supprimer uniquement la personne assise”), GPT-4o commet souvent des erreurs, incapable de distinguer précisément les limitations sémantiques, révélant une compréhension insuffisamment fine du contenu et de la structure de l’image. Expérience 3 (raisonnement multi-étapes et logique conditionnelle) : Face à des instructions complexes contenant des jugements conditionnels et plusieurs étapes (comme “s’il n’y a pas de chat, remplacer le chien par un chien allant à la plage”), GPT-4o se montre confus, incapable d’évaluer correctement les conditions, de suivre la chaîne logique, et superpose souvent toutes les instructions. Conclusion de l’étude : Bien que GPT-4o possède de puissantes capacités de génération d’images, il présente encore des lacunes importantes dans les tâches visuelles complexes nécessitant une compréhension profonde, une conscience du contexte, un raisonnement logique et un contrôle précis, ressemblant davantage à une “machine à instructions sophistiquée” qu’à un agent intelligent comprenant réellement le monde. (Source : Très fort en génération, très faible en raisonnement : les lacunes visuelles de GPT-4o)

Guide de sélection des nouveaux modèles OpenAI : o3, o4-mini, GPT-4.1 ont chacun leurs atouts : OpenAI a récemment lancé plusieurs nouveaux modèles, le choix dépend des besoins : 1. o3 : Modèle d’inférence phare, le plus intelligent, conçu pour les tâches complexes (codage, mathématiques, sciences, perception visuelle). Possède de puissantes capacités d’appel autonome d’outils (jusqu’à 600 fois/réponse, supporte la recherche, Python, génération/interprétation d’images) et des capacités de raisonnement visuel dynamique (intègre les images dans la boucle de raisonnement, peut revoir et agir de manière répétée). Bénéficie d’un apprentissage par renforcement étendu, excelle dans la planification à long terme et le raisonnement séquentiel. Efficacité économique meilleure que prévu. 2. o4-mini : Modèle d’inférence à haut rapport qualité-prix, rapide et peu coûteux (environ 1/10e du coût d’o3), offre un contexte de 200 000 tokens. Capacités d’outils comparables à o3 (Python, navigation, traitement d’images). Convient aux tâches sensibles au coût ou nécessitant un débit élevé. Existe en deux modes : o4-mini
(privilégie la vitesse) et o4-mini-high
(privilégie la précision, puissance de calcul supérieure). 3. Série GPT-4.1 (dédiée à l’API) : GPT-4.1 : Modèle principal, suivi précis des instructions, forte mémoire à long contexte (1 million de tokens), adapté aux tâches de développement complexes nécessitant une exécution stricte des instructions et au traitement de longs documents. GPT-4.1 mini : Choix intermédiaire, faible latence/coût, performances proches de la version complète 4.1, meilleur suivi des instructions et raisonnement sur image que GPT-4o. GPT-4.1 nano : Le plus petit, le plus rapide et le moins cher (0,1 $/M tokens), adapté aux tâches simples comme l’auto-complétion, la classification, l’extraction d’informations. Les trois supportent un contexte de 1 million de tokens. (Source : Choisir une IA est plus difficile que choisir un partenaire, comment choisir parmi les nouveaux modèles d’OpenAI, ce trou noir de la dénomination ?)

💼 Affaires
Hanwei Technology mise sur les capteurs pour robots humanoïdes pour percer : Hanwei Technology (capitalisation boursière de 10 milliards), leader des capteurs de gaz, se positionne activement sur le marché des robots humanoïdes, cherchant un point de percée pour ses performances. Son fondateur, Ren Hongjun, ambitionne de créer une “entreprise centenaire”. Hanwei Technology possède une solide expérience dans le domaine des capteurs, avec une part de marché de 75 % pour les capteurs de gaz en Chine. Ces dernières années, le bénéfice net après éléments non récurrents de l’entreprise a diminué pendant trois années consécutives (baisses de 51,38 %, 34,34 %, 89,97 % en 2022-2024). En 2024, le chiffre d’affaires a légèrement baissé de 2,61 % à 2,228 milliards de yuans, et le bénéfice net après éléments non récurrents n’était que de 5,633 millions de yuans. La pression sur les performances provient de la concurrence accrue sur le marché, de l’augmentation des investissements en R&D et des nouvelles activités (ligne de production MEMS, encapsulation de lasers, instruments à ultrasons) qui ne sont pas encore rentables. Les robots humanoïdes sont considérés comme un nouveau point de croissance. Ses capteurs (tactile flexible, unité de mesure inertielle, jauge de contrainte de pression, nez électronique, etc.) forment déjà une matrice de produits multidimensionnelle, et sa peau électronique flexible a été fournie en petits lots à plusieurs fabricants de robots. L’activité capteurs a généré 341 millions de yuans de revenus en 2024, soit 15,3 % du chiffre d’affaires. Bien que la part de l’activité robotique soit actuellement faible, l’entreprise l’a inscrite comme priorité pour 2025, visant à saisir l’opportunité de l’industrie de l’intelligence incarnée. Parallèlement, l’entreprise étend également ses applications dans les domaines des nouvelles énergies, de l’automobile, des semi-conducteurs et du médical. (Source : Bénéfice net après éléments non récurrents en baisse depuis 3 ans, le leader technologique de 10 milliards mise sur les robots humanoïdes pour percer ?)

Zhitong Technology investit 300 millions pour construire une base de R&D et de production de réducteurs de haute précision : Zhitong Technology, fournisseur de composants clés pour robots, a annoncé le lancement d’un projet de base de R&D et de production de réducteurs de haute précision, avec un investissement total d’environ 300 millions de yuans. Située dans la zone de développement économique et technologique de Pékin, la base devrait être opérationnelle en 2027. Elle intégrera les fonctions de R&D, d’essais techniques, de tests, de vente et de gestion du siège, et construira une ligne de production de fabrication intelligente pour les réducteurs de haute précision destinés aux robots industriels et humanoïdes. Le réducteur est un composant clé du robot, affectant la précision de mouvement et la capacité de charge. Fondée en 2015, Zhitong Technology est devenue une entreprise leader dans le domaine des réducteurs de précision en Chine. En collaboration avec l’Université de Technologie de Pékin, elle a surmonté les difficultés techniques des réducteurs RV, réalisant une substitution par des produits nationaux. L’entreprise couvre diverses technologies de transmission, notamment cycloïde, harmonique, planétaire, quasi-hyberboloïde et vis à rouleaux, et compte parmi ses clients des entreprises de robotique de premier plan nationales et internationales telles qu’Estun, Inovance, KUKA et ABB. Actuellement, sa capacité de production annuelle de réducteurs CRV est de 200 000 unités, fonctionnant à pleine capacité, avec une croissance composée des ventes et de la production de 247 % sur trois ans consécutifs. La construction de la nouvelle base vise à améliorer les capacités de R&D et la capacité de production, et à fournir une solution globale de système de transmission pour robots. (Source : Investissement de 300 millions, « Zhitong Technology » met en place une base de R&D et de production de réducteurs de haute précision, opérationnelle en 2027 | En première ligne)

Le financement dans le domaine de l’intelligence incarnée est en plein essor, plus de 3,5 milliards de RMB levés en Chine au T1 2025 : Au premier trimestre 2025, les activités de financement dans le secteur de l’intelligence incarnée (en particulier les robots humanoïdes) en Chine ont explosé, avec 37 transactions impliquant 33 entreprises, pour un montant total d’environ 3,5 milliards de RMB. Le nombre d’événements de financement a déjà atteint près de 70 % du total de l’année dernière. Parmi eux, 11 entreprises ont levé plus de 100 millions de RMB, les entreprises de R&D de robots humanoïdes occupant les premières places en termes de montants levés, comme TARS (120 millions USD en tour d’amorçage, un record), Qianxun Intelligence (528 millions RMB), Starsea Map (300 millions RMB), Zhongqing Robot (200 millions RMB). Géographiquement, les entreprises sont concentrées à Pékin (8), Shanghai (10) et Shenzhen (7). Les entreprises nouvellement créées (en 2023, 2024) et les tours de financement précoces (amorçage, Pre-A) sont majoritaires. Les investisseurs comprennent des géants de la technologie tels que Tencent, Baidu, Alibaba, Lenovo, iFlytek, ainsi que des capitaux d’État de Pékin, Shanghai et d’autres régions. De plus, les investissements croisés entre entreprises de robotique deviennent également une tendance (par exemple, Yuejiang investit dans ZKDIWU, Agibot investit dans Hillbot). Les entreprises de R&D logicielle (9) et de composants clés (5) ont également obtenu des financements. Malgré l’engouement du capital, la voie de la commercialisation reste le principal défi et point de controverse dans ce domaine. (Source : Festin de capital pour l’intelligence incarnée : 37 financements en 3 mois, Pékin, Shanghai et Shenzhen rivalisent, les BAT entrent en jeu, les robots humanoïdes sont les plus en vogue)

36Kr organise la conférence AI Partner 2025, axée sur les Super Apps : Le 18 avril, 36Kr a organisé la conférence AI Partner 2025 au Shanghai Model Space sur le thème “Les Super Apps arrivent”, pour discuter des tendances et des perspectives des super applications à l’ère de l’IA. La conférence a réuni des leaders académiques et industriels tels que Liu Zhiyi (Université Jiao Tong de Shanghai), Ji Zhaohui (AMD), Ruan Yu (Baidu), Wan Weixing (Qualcomm), Chen Jufeng (Xianyu), Zhou Miao (Dahua Technology). Feng Dagang, PDG de 36Kr, a souligné que l’attention disruptive suscitée par l’IA est le meilleur moment pour construire une marque. Les intervenants ont partagé les applications et les pratiques de l’IA dans des domaines tels que l’intelligence incarnée, les moteurs de puissance de calcul, la transformation industrielle (ex : marketing, transport), l’expérience terminale, le commerce d’occasion et la sécurité. La conférence a dévoilé les “Cas d’innovation d’applications natives IA 2025” et les “Grands Prix de l’innovation AI Partner 2025”, présentant les réalisations de l’IA dans des scénarios tels que la fabrication intelligente, le service client, la création de contenu, la gestion d’entreprise et la santé. La table ronde des investisseurs et le dialogue des partenaires ont approfondi la logique d’investissement dans les applications IA, les défis de commercialisation et les orientations futures, soulignant l’importance d’être piloté par les scénarios, la valeur utilisateur, l’innovation technologique et la synergie écosystémique. (Source : Où se trouve la prochaine Super App IA ? Découvrez les tendances futures décodées lors de la conférence 36Kr AI Partner 2025)

🌟 Communauté
Le scepticisme de LeCun sur la voie des LLM suscite le débat dans l’industrie : Yann LeCun, scientifique en chef de l’IA chez Meta, a récemment exprimé publiquement à plusieurs reprises son scepticisme quant à la voie actuelle dominante des grands modèles de langage (LLM), estimant que la prédiction auto-régressive pose des problèmes fondamentaux (divergence, accumulation d’erreurs), ne peut pas mener à une IA de niveau humain, et prédisant même que dans quelques années, plus personne ne les utilisera. Il pense que les LLM ne peuvent pas bien comprendre le monde physique, manquent de bon sens, de capacités de raisonnement et de planification. Il préconise que la recherche se concentre sur une IA capable de comprendre le monde physique, dotée d’une mémoire persistante, capable de raisonner et de planifier, et promeut activement l’architecture JEPA (Joint Embedding Predictive Architecture) qu’il a proposée comme alternative. Les opinions de LeCun suscitent la controverse. Certains critiquent son “dogmatisme” qui pourrait faire prendre du retard à Meta dans la course à l’IA et lui imputent les performances décevantes de Llama 4. Mais d’autres soutiennent son attachement aux principes et à la philosophie open source, estimant que l’exploration de voies alternatives aux LLM (comme les systèmes visuels basés sur l’auto-supervision et non génératifs) est bénéfique pour le développement à long terme de l’IA. L’équipe de LeCun avait déjà été confrontée à une controverse publique lors de la publication du LLM scientifique Galactica, ce qui a peut-être aussi influencé son attitude face à l’engouement actuel pour l’IA. (Source : LeCun vivement critiqué : tu as ruiné Meta, brûlé des centaines de milliards en puissance de calcul, avouant un échec total après 20 ans d’efforts)

La startup de la Silicon Valley Mechanize veut automatiser tout le travail, soulevant une controverse éthique : Mechanize, une nouvelle entreprise fondée par le co-fondateur d’Epoch AI, Tamay Besiroglu, a proposé les objectifs ambitieux d‘“automatiser entièrement tout le travail” et d‘“automatiser entièrement l’économie”, visant à remplacer le travail humain par des agents IA entraînés par apprentissage par renforcement dans des environnements virtuels simulant des scénarios de travail réels et des systèmes d’évaluation. Elle cible le marché mondial du travail de 60 billions de dollars (en se concentrant initialement sur le travail de bureau). Ce projet a déjà reçu des investissements de personnalités de l’IA comme Jeff Dean. Cependant, cet objectif suscite une énorme controverse, qualifié de “traître à l’humanité” et d‘“objectif nuisible”, car il entraînerait un chômage de masse et aggraverait la polarisation des richesses. Besiroglu soutient que l’automatisation créera une richesse immense et un niveau de vie plus élevé, et que le bien-être économique ne provient pas uniquement des salaires. Bien que sa vision soit extrême, les lacunes qu’il souligne dans les agents IA actuels (fiabilité, traitement de longs contextes, autonomie, planification à long terme) et la voie technique proposée pour les résoudre (en générant les données nécessaires à l’automatisation et des systèmes d’évaluation) touchent des défis réels importants du développement de l’IA. (Source : Une startup IA de la Silicon Valley veut mettre 6 milliards de personnes au chômage, les internautes la traitent de traître à l’humanité, Jeff Dean a déjà investi)

Vectara publie un classement des hallucinations des modèles IA, les modèles Google se distinguent : Vectara a publié un classement évaluant le degré d’hallucination des grands modèles de langage (LLM). Ce classement pose aux modèles des questions basées sur le contenu d’articles spécifiques et utilise le propre modèle d’évaluation de Vectara pour juger de la proportion d’hallucinations (c’est-à-dire d’informations non conformes au texte original ou inventées) dans les réponses. Selon la capture d’écran du classement, les modèles de Google (probablement la série Gemini) affichent d’excellentes performances avec un faible taux d’hallucination. Le modèle o3-mini-high d’OpenAI obtient également de bons résultats. Il est à noter que le modèle open source chinois GLM de Zhipu AI obtient également un bon classement, démontrant son potentiel en matière d’exactitude factuelle. Ce classement et le modèle d’évaluation sont publics, offrant à l’industrie une référence pour comparer quantitativement la fiabilité de différents LLM dans des tâches spécifiques. (Source : karminski3)

L’IA surpasse dans certaines tâches spécifiques, mais manque encore de bon sens et de cognition de base : Des utilisateurs de Reddit discutent du fait que l’IA actuelle (comme les LLM) peut surpasser la plupart des humains dans des domaines de connaissance spécifiques et le traitement de l’information (commentaires indiquant “plus knowledgeable” plutôt que “smarter”), mais reste déficiente en matière de jugement de bon sens et de compréhension du monde physique (comme compter les pierres sur une image). Certains commentaires estiment que l’IA est à la fois “extrêmement intelligente” et “extrêmement stupide”, capable de résoudre des problèmes complexes dans son domaine, mais pouvant échouer à des tâches simples. L‘“intelligence” de l’IA est considérée comme étant davantage basée sur des données massives que sur une véritable compréhension. L’expérience utilisateur le confirme également, Gemini se montrant “stupide” dans certaines situations, tandis que GPT excelle dans certains domaines mais répond parfois sans vraiment “comprendre” la question. Ce déséquilibre des capacités est caractéristique du stade actuel de développement de l’IA. (Source : Reddit r/ArtificialInteligence)
Dire “merci” à l’IA suscite le débat : projection émotionnelle et consommation de ressources : Un utilisateur de X a interrogé Sam Altman sur le coût de dire “s’il vous plaît” et “merci” à l’IA. Altman l’a estimé à des dizaines de millions de dollars mais a jugé que cela en valait la peine. Ce phénomène soulève la question : pourquoi être poli avec une IA dépourvue d’émotions ? Des recherches en psychologie (comme l’expérience de Reeves & Nass) montrent que les humains ont tendance à anthropomorphiser les objets présentant des caractéristiques humaines, activant la “perception de présence sociale”. Être poli avec l’IA reflète le caractère et les habitudes de l’utilisateur, et peut aussi être une forme de “projection émotionnelle” ou un besoin d‘“exutoire émotionnel”. Certains pensent que la politesse peut même “dresser” l’IA pour obtenir de meilleures réponses (imitant la réaction humaine à la politesse). Cependant, cela comporte aussi des risques : l’IA peut apprendre et amplifier les biais (comme Microsoft Tay), ou mal gérer les sujets sensibles. De plus, chaque interaction (y compris un “merci”) consomme de l’électricité et des ressources en eau, soulevant des préoccupations quant à la durabilité de l’IA. Être poli avec l’IA est à la fois une extension de l’instinct social humain et augmente involontairement le coût physique de son fonctionnement. (Source : Dire « merci » à ChatGPT est peut-être la chose la plus luxueuse que vous faites chaque jour, Reddit r/ChatGPT, Reddit r/ChatGPT)

Le potentiel et les défis de l’application de l’IA dans l’éducation coexistent : Des utilisateurs de Reddit discutent des perspectives d’application de l’IA dans l’éducation. Les partisans estiment que l’IA (comme ChatGPT) peut servir d’outil d’apprentissage personnalisé, aidant à comprendre des matières comme les mathématiques, et offrant un environnement de questions-réponses sans jugement. L’IA pourrait devenir un assistant d’enseignant, traitant les questions hors sujet ou fournissant une recherche rapide d’information, voire guidant les étudiants à trouver des réponses par eux-mêmes. Des écoles ont déjà commencé à expérimenter des “classes IA sans enseignant” (comme au Royaume-Uni, au Texas), utilisant l’IA pour un enseignement personnalisé, en se concentrant sur les points faibles des étudiants. Cependant, les défis sont également évidents : la fiabilité de l’IA (problème d’hallucination) exige des utilisateurs une pensée critique et une capacité de vérification des faits ; une dépendance excessive à l’IA pourrait entraver le développement de la réflexion approfondie et de la capacité d’apprentissage autonome ; l’IA pourrait être utilisée pour la triche ; l’IA pourrait également véhiculer des biais ou fournir des informations inappropriées. À l’avenir, le rôle de l’IA dans l’éducation sera probablement plus d’assistance que de remplacement complet, nécessitant une conception et une optimisation spécifiques de l’IA pour les scénarios éducatifs, et la résolution des questions d’éthique, de confidentialité et d’équité. (Source : Reddit r/ArtificialInteligence)
💡 Autres
La CFO d’OpenAI parle de la voie vers l’AGI et des besoins en puissance de calcul : Sarah Friar, CFO d’OpenAI, a partagé lors d’un sommet Goldman Sachs la vision de l’entreprise sur le développement de l’AGI et sa stratégie. Elle estime que la vague de l’IA est plus importante que celles d’Internet et de l’Internet mobile, et qu’OpenAI innove sur tous les fronts. Elle souligne l’importance de l’application de l’IA par les entreprises et partage des exemples d’utilisation de ChatGPT et DeepResearch pour résoudre des problèmes internes d’analyse de financement. OpenAI divise le développement de l’AGI en cinq étapes : prédiction en temps réel (Chatbot), raisonnement (série o), agent (Agent, a lancé Deep Research, Operator, lancera un agent de programmation autonome A-SWE), monde innovant (étendre les frontières de la connaissance), organisation d’agents (direction future). Elle pense que l’AGI est proche, mais que le monde n’est pas encore prêt à l’exploiter pleinement. Atteindre l’AGI nécessite de suivre trois grandes lois d’échelle (scaling law) : pré-entraînement, post-entraînement, calcul au moment de l’inférence, ce qui entraîne une croissance exponentielle du besoin en puissance de calcul. Elle mentionne que le projet “Stargate” d’OpenAI pourrait nécessiter un investissement de 500 milliards de dollars et 10 gigawatts de puissance de calcul, admet que le manque de puissance de calcul a déjà limité le lancement de modèles comme Sora, et souligne l’importance de posséder une infrastructure IA autonome (analogue à AWS). (Source : Révélations majeures de la CFO d’OpenAI : l’AGI est proche, l’agent de programmation le plus puissant du monde est prêt)

Des entrepreneurs issus de Huawei affluent vers le secteur de la robotique, formant une nouvelle force : Après la création d’Agibot par Zhihui Jun (Peng Zhihui), de plus en plus d’anciens employés de Huawei, en particulier ceux issus de la Car BU (division des solutions pour voitures intelligentes), entrent dans le domaine de l’intelligence incarnée et de la robotique, formant une “légion de la robotique issue de Huawei”. Le dernier représentant est TARS, co-fondé par l’ancien CTO de la conduite autonome de la Car BU de Huawei, Chen Yilun, et le “jeune prodige” Ding Wenchao (qui a dirigé le réseau de décision pour la conduite intelligente ADS), qui a récemment levé 120 millions de dollars en financement d’amorçage. Ding Wenchao estime que l’expérience en ingénierie et en boucle de données fermée de la conduite autonome peut être transférée à l’intelligence incarnée. De plus, Hu Luhui, ancien cadre supérieur de l’institut de recherche américain de Huawei, a fondé Zhicheng AI, axé sur les robots industriels. Leju Robotics collabore avec Huawei Cloud pour développer le grand modèle Pangu + le robot Kuafu. Jimu Robot, filiale à 100 % de Huawei, se concentre également sur les robots industriels. Ces entrepreneurs considèrent généralement que l’IA et les grands modèles offrent de nouvelles opportunités à la robotique, et que le modèle d’itération rapide des petites équipes de startups est plus adapté aux nouveaux secteurs. Ils apportent les capacités d’ingénierie, la culture de la lutte (奋斗) et même les modèles d’incitation par actions de Huawei dans leurs nouvelles entreprises, et bénéficient de la faveur du capital grâce à leur parcours chez Huawei. Cependant, ils sont toujours confrontés à des défis tels que la localisation des composants clés, la validation technologique et la commercialisation, et devront prouver leur valeur face à la concurrence des entrepreneurs issus des universités et d’autres grandes entreprises technologiques. (Source : Parmi les jeunes prodiges qui ont quitté Ren Zhengfei se cache une légion de la robotique)
