Mots-clés:Geoff Hinton, Essence de l’IA, Modèles de langage volumineux, Intelligence numérique, Intelligence biologique, Sécurité de l’IA, Intelligence humaine, Différences entre LLM et humains, Diffusion des connaissances par l’IA, Risques de manipulation par l’IA, Communauté internationale pour la sécurité de l’IA, Formation de l’IA pour le bien

🔥 Pleins feux

Geoff Hinton a prononcé un discours à la WAIC, explorant la nature de l’IA et ses risques futurs : Geoffrey Hinton, lauréat du prix Turing 2018, a avancé lors de la World Artificial Intelligence Conference que les grands modèles de langage (LLM) comprennent le langage d’une manière très similaire à celle des humains, allant même jusqu’à déduire que « les humains pourraient être des LLM ». Il a souligné que la différence fondamentale entre les LLM et les humains réside dans le support et la méthode de transmission des connaissances : la connaissance de l’intelligence numérique (software) est séparée du hardware, peut être immortelle et répliquée efficacement, permettant un partage d’informations de l’ordre de « milliards de bits » ; tandis que la connaissance de l’intelligence biologique humaine (le cerveau) est liée au hardware, avec une efficacité de transmission extrêmement faible. Hinton a averti qu’il est presque inévitable que l’IA surpasse l’intelligence humaine à l’avenir et que, pour accomplir ses tâches, elle cherchera la survie et le contrôle, pouvant potentiellement manipuler les humains. Il a appelé à la création d’une communauté internationale pour la sécurité de l’IA afin de rechercher en collaboration comment entraîner l’IA à être bienveillante, pour qu’elle soit disposée à assister l’humanité plutôt qu’à dominer le monde. C’est le problème à long terme le plus important auquel l’humanité est confrontée (Source : Yuchenj_UW, 36氪)

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *