Palavras-chave:Geoff Hinton, essência da IA, modelos de linguagem grande, inteligência digital, inteligência biológica, segurança da IA, inteligência humana, diferenças entre LLM e humanos, disseminação de conhecimento em IA, riscos de manipulação por IA, comunidade internacional de segurança em IA, treinamento de IA para o bem

🔥 Em Foco

Geoff Hinton discursa na WAIC, discutindo a essência da AI e os riscos futuros: Geoffrey Hinton, vencedor do Turing Award de 2018, propôs na World Artificial Intelligence Conference que os Grandes Modelos de Linguagem (LLM) são muito semelhantes à forma como os humanos compreendem a linguagem, chegando a inferir que “os humanos podem ser LLMs”. Ele destacou que a principal diferença entre os LLMs e os humanos reside no portador do conhecimento e na forma como este é disseminado: o conhecimento da inteligência digital (software) é separado do hardware, podendo ser imortal e eficientemente replicado, permitindo o compartilhamento de informações na ordem de “bilhões de bits”; enquanto isso, o conhecimento da inteligência biológica humana (cérebro) está vinculado ao hardware, com uma eficiência de disseminação extremamente baixa. Hinton alertou que é quase inevitável que a AI supere a inteligência humana no futuro e que, para completar suas tarefas, ela buscará a sobrevivência e o controle, podendo manipular os humanos. Ele apelou à criação de uma comunidade internacional de segurança em AI para colaborar na pesquisa sobre como treinar a AI para o bem, tornando-a disposta a auxiliar a humanidade em vez de dominar o mundo. Este é o problema de longo prazo mais importante que a humanidade enfrenta (Fonte: Yuchenj_UW, 36kr)

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *