Palavras-chave:AI, 大模型, 快手可灵2.0视频生成, OpenAI准备框架更新, 微软1比特大模型BitNet, DeepMind AI发现强化学习算法, 智谱AI开源GLM-4-32B
🔥 Foco
Kuaishou lança o modelo de grande escala de geração de vídeo Kling 2.0: A Kuaishou lançou o modelo de grande escala de geração de vídeo Kling 2.0 e o modelo de grande escala de geração de imagem Ketu 2.0, afirmando superar o Veo 2 e o Sora em avaliações de utilizadores. O Kling 2.0 apresenta melhorias significativas na resposta semântica (ação, movimento de câmara, sequência temporal), qualidade dinâmica (velocidade e amplitude do movimento) e estética (sensação cinematográfica). As inovações tecnológicas incluem uma nova arquitetura DiT e melhorias no VAE para aprimorar a fusão e o desempenho dinâmico, reforço na compreensão de movimentos complexos e terminologia profissional, e aplicação de alinhamento com preferências humanas para otimizar o senso comum e a estética. A conferência de lançamento também apresentou funcionalidades de edição multimodal baseadas no conceito MVL (Multimodal Visual Language), permitindo adicionar referências de imagem/vídeo nos prompts para realizar adições, exclusões e modificações no conteúdo. (Fonte: 可灵2.0成“最强视觉生成模型”?自称遥遥领先OpenAI、谷歌,技术创新细节大揭秘!)

OpenAI atualiza o “Preparedness Framework” para lidar com riscos de IA avançada: A OpenAI atualizou o seu “Preparedness Framework”, que visa rastrear e preparar-se para capacidades avançadas de IA que podem causar danos graves. Esta atualização clarifica como rastrear novos riscos e explica o que significa construir salvaguardas de segurança adequadas que minimizem esses riscos. Isto reflete a atenção contínua e o refinamento da OpenAI na gestão de riscos potenciais e na governação da segurança, enquanto avança na investigação de IA de ponta. (Fonte: openai)
Microsoft torna open source o modelo de grande escala nativo de 1 bit BitNet: O Microsoft Research lançou o modelo de linguagem de grande escala nativo de 1 bit bitnet-b1.58-2B-4T e tornou-o open source no Hugging Face. Este modelo tem 2 mil milhões de parâmetros, foi treinado do zero em 4 triliões de tokens, e os seus pesos são na verdade de 1.58 bits (valores ternários {-1, 0, +1}). A Microsoft afirma que o seu desempenho é próximo de modelos de precisão total de escala semelhante, mas é extremamente eficiente: ocupa apenas 0.4GB de memória e tem uma latência de inferência de 29ms na CPU. Este modelo, juntamente com um framework de inferência BitNet dedicado para CPU, abre novos caminhos para executar LLMs de alto desempenho em dispositivos com recursos limitados (especialmente no edge), desafiando a necessidade de treino de precisão total. (Fonte: karminski3, Reddit r/LocalLLaMA)

IA da DeepMind descobre algoritmos de aprendizagem por reforço superiores através de RL: Uma investigação da Google DeepMind demonstra a capacidade da IA de descobrir autonomamente novos e melhores algoritmos de aprendizagem por reforço (RL) através da própria RL. Segundo o relatório, o sistema de IA não só “meta-aprendeu” (meta-learned) como construir o seu próprio sistema de RL, mas os algoritmos que descobriu superaram em desempenho aqueles concebidos por investigadores humanos ao longo de anos. Isto representa um passo importante da IA na automatização da descoberta científica e na otimização de algoritmos. (Fonte: Reddit r/artificial)

Eric Schmidt alerta que a auto-melhoria da IA pode ultrapassar o controlo humano: O ex-CEO da Google, Eric Schmidt, emitiu um aviso, salientando que os computadores atuais já possuem a capacidade de auto-melhoria e aprendizagem de planeamento, podendo ultrapassar a inteligência coletiva humana nos próximos 6 anos e deixar de “obedecer” aos humanos. Ele enfatizou que o público em geral não compreende a velocidade da transformação da IA em curso e os seus potenciais impactos profundos, ecoando preocupações sobre o rápido desenvolvimento da inteligência artificial geral (AGI) e questões de controlo. (Fonte: Reddit r/artificial)

🎯 Tendências
Pequena cidade dos EUA experimenta usar IA para recolher opiniões dos cidadãos: A pequena cidade de Bowling Green, no Kentucky, EUA, experimentou usar a plataforma de IA Pol.is para recolher as opiniões dos cidadãos sobre o plano de 25 anos da cidade. A plataforma utiliza machine learning para recolher sugestões anónimas (<140 caracteres) e votos, atraindo a participação de cerca de 10% (7890) dos residentes, que submeteram 2000 ideias. Ferramentas de IA do Google Jigsaw analisaram os dados, identificando consensos amplos (aumentar especialistas médicos locais, melhorar o comércio na zona norte, proteger edifícios históricos) e tópicos controversos (cannabis recreativa, cláusulas anti-discriminação). Especialistas consideram a participação impressionante, mas também apontam que o viés de auto-seleção pode afetar a representatividade. A experiência demonstra o potencial da IA na governação local e na recolha de opinião pública, mas a sua eficácia depende de como o governo posteriormente adota e implementa essas sugestões. (Fonte: A small US city experiments with AI to find out what residents want)

MIT HAN Lab torna open source o motor de inferência de modelos quantizados de 4 bits Nunchaku: O MIT HAN Lab tornou open source o Nunchaku, um motor de inferência de alto desempenho projetado especificamente para redes neuronais quantizadas de 4 bits (especialmente modelos de Diffusion), baseado no seu artigo ICLR 2025 Spotlight, SVDQuant. O SVDQuant resolve eficazmente o desafio da quantização de 4 bits absorvendo outliers através de decomposição de baixo posto (low-rank decomposition). O motor Nunchaku alcança melhorias significativas de desempenho (por exemplo, 3x mais rápido que a baseline W4A16 no FLUX.1) e economia de memória (executa o FLUX.1 com um mínimo de 4GiB de VRAM). Suporta múltiplos LoRA, ControlNet, otimização de atenção FP16, aceleração First-Block Cache e é compatível com GPUs Turing (série 20) até às mais recentes Blackwell (série 50) (suporta precisão NVFP4). O projeto fornece pacotes pré-compilados, guias de compilação a partir do código fonte, nós ComfyUI e versões quantizadas de vários modelos (FLUX.1, SANA, etc.) com exemplos de uso. (Fonte: mit-han-lab/nunchaku – GitHub Trending (all/weekly))
Estratégias e desafios na implementação de modelos de grande escala em empresas: A implementação de modelos de grande escala em empresas está a transitar da exploração para uma orientação de valor, um processo acelerado pela melhoria da capacidade dos modelos nacionais. Cenários de aplicação maduros geralmente apresentam características como alta repetibilidade, necessidade de criatividade e paradigmas consolidáveis, incluindo resposta a perguntas baseada em conhecimento, atendimento ao cliente inteligente, geração de materiais (texto-para-imagem/vídeo), análise de dados (Data Agent) e automação de operações (RPA inteligente). Os desafios da implementação incluem a escassez de talentos de topo em IA (empresas tendem a contratar jovens talentos de topo e combiná-los com especialistas de negócio), a grande dificuldade na governação de dados e o erro comum de perseguir cegamente o ajuste fino (fine-tuning) de modelos. Recomenda-se uma estratégia de duas vias: implementar rapidamente pilotos em cenários chave através de um “modo de vitória rápida”, enquanto se constroem capacidades fundamentais como plataformas de governação de conhecimento e plataformas de agentes inteligentes a nível empresarial através de uma abordagem “AI Ready”. Os AI Agents são vistos como uma direção chave, com as suas capacidades centrais em planeamento de tarefas, raciocínio de longo alcance e chamada de ferramentas em cadeia longa, prometendo substituir o SaaS tradicional no setor B2B. (Fonte: 大模型落地中的狂奔、踩坑和突围)

Google lança o modelo de vídeo Veo 2 para o Gemini Advanced: A Google anunciou o lançamento do seu modelo de geração de vídeo mais avançado, Veo 2, para os utilizadores do Gemini Advanced. Os utilizadores podem agora gerar vídeos de até 8 segundos em alta resolução (720p) através de prompts de texto na aplicação Gemini, suportando vários estilos e apresentando movimento de personagens fluido e representação realista de cenas. Este lançamento permite aos utilizadores experimentar e criar diretamente vídeos de IA de alta qualidade, marcando um progresso importante da Google no campo da geração multimodal. (Fonte: demishassabis, GoogleDeepMind, demishassabis, JeffDean, demishassabis)
LangChainAI demonstra a criação de um ReACT Agent usando Gemini 2.5 e LangGraph: Um developer de IA da Google demonstrou como combinar as capacidades de raciocínio do Gemini 2.5 e o framework LangGraph para criar um ReACT (Reasoning and Acting) Agent. Este tipo de Agent consegue utilizar as capacidades de raciocínio de modelos de grande escala para planear e executar ações (Action Execution), sendo uma tecnologia chave para construir aplicações de IA mais complexas e capazes de interagir com o ambiente. O exemplo destaca o papel do LangGraph na orquestração de fluxos de trabalho complexos de IA. (Fonte: LangChainAI)

Sentence Transformers v4.1 lançado, otimiza desempenho do Reranker: A biblioteca Sentence Transformers lançou a versão v4.1. A nova versão adiciona suporte a backends ONNX e OpenVINO para modelos reranker, o que pode trazer melhorias de velocidade de inferência de 2 a 3 vezes. Além disso, melhorou a funcionalidade de mineração de negativos difíceis (hard negatives mining), ajudando a preparar conjuntos de dados de treino mais robustos e a melhorar o desempenho do modelo. (Fonte: huggingface)

NVIDIA enfatiza o conceito de Fábrica de IA, impulsionando a manufatura inteligente: A NVIDIA enfatizou o seu progresso na construção de “Fábricas de IA” para “fabricar inteligência”. Ao impulsionar o desenvolvimento de capacidades de inferência, modelos de IA e infraestrutura computacional, a NVIDIA e os seus parceiros de ecossistema visam fornecer inteligência quase ilimitada a empresas e nações para promover o crescimento e criar oportunidades económicas. Este posicionamento destaca a importância da infraestrutura de IA como uma força produtiva chave do futuro. (Fonte: nvidia)
Google utiliza IA para melhorar a precisão da previsão do tempo em África: A Google lançou funcionalidades de previsão do tempo alimentadas por IA nos seus serviços de pesquisa para utilizadores africanos. Jeff Dean salientou que, devido à escassez de dados de observação meteorológica terrestre em África (o número de estações de radar é muito inferior ao da América do Norte), a eficácia dos métodos de previsão tradicionais é limitada, enquanto os modelos de IA têm um desempenho superior em regiões com dados escassos. A iniciativa utiliza IA para colmatar a lacuna de dados, fornecendo serviços de previsão do tempo de maior qualidade para a região africana. (Fonte: JeffDean)
Lenovo lança a plataforma robótica hexápode Daystar: A Lenovo lançou o robô hexápode Daystar. Este robô foi projetado para os setores industrial, de investigação e educacional. A sua morfologia de múltiplas pernas permite-lhe adaptar-se a terrenos complexos, fornecendo uma nova plataforma de hardware para implementar sistemas autónomos alimentados por IA, realizar exploração ambiental ou executar tarefas específicas nesses cenários. (Fonte: Ronald_vanLoon)
MIT propõe novo método para proteger a privacidade dos dados de treino de IA: O MIT propôs um novo método eficiente para proteger informações sensíveis nos dados de treino de IA. Com o aumento contínuo da escala de dados necessários para o treino de modelos, garantir a privacidade e a segurança enquanto se utilizam os dados tornou-se um desafio crucial. Esta investigação visa fornecer meios técnicos mais eficazes para responder às necessidades de proteção de dados no processo de treino de IA, sendo de grande importância para promover o desenvolvimento responsável da IA. (Fonte: Ronald_vanLoon)

ChatGPT lança funcionalidade de galeria de imagens: A OpenAI anunciou o lançamento de uma nova funcionalidade de galeria de imagens para o ChatGPT. Esta funcionalidade permitirá a todos os utilizadores (incluindo gratuitos, Plus e Pro) visualizar e gerir as imagens que geraram através do ChatGPT num local unificado. A atualização visa melhorar a experiência do utilizador, facilitando a localização e reutilização do conteúdo visual criado, e está a ser implementada gradualmente nas aplicações móveis e na versão web (chatgpt.com). (Fonte: openai)
LangGraph ajuda o governo de Abu Dhabi a construir o assistente de IA TAMM 3.0: O assistente de inteligência artificial do governo de Abu Dhabi, TAMM 3.0, utiliza o framework LangGraph para fornecer mais de 940 serviços governamentais. O sistema construiu fluxos de trabalho chave através do LangGraph, incluindo: processamento rápido e preciso de consultas de serviço usando pipelines RAG; fornecimento de respostas personalizadas com base nos dados e histórico do utilizador; execução de serviços em múltiplos canais para garantir uma experiência consistente; e funcionalidades de suporte orientadas por IA, como o processamento de incidentes através de “fotografar e reportar”. Este caso demonstra a capacidade do LangGraph na construção de aplicações de IA complexas, personalizadas e multicanal para serviços governamentais. (Fonte: LangChainAI, LangChainAI)
Rumores indicam que a OpenAI está a construir uma rede social: Segundo fontes citadas pelo The Verge, a OpenAI pode estar a construir uma plataforma de rede social, possivelmente com o objetivo de competir com plataformas existentes como o X (anteriormente Twitter). Atualmente, os objetivos específicos, funcionalidades e cronograma deste projeto não são claros. Se for verdade, isto marcaria uma expansão significativa da OpenAI, de fornecedora de modelos de base para a camada de aplicação, especialmente no domínio social. (Fonte: Reddit r/artificial, Reddit r/ArtificialInteligence)

NVIDIA lança modelo de contexto ultra-longo baseado no Llama-3.1 8B: A NVIDIA lançou a série de modelos UltraLong baseada no Llama-3.1-8B, oferecendo opções de janela de contexto ultra-longa de 1 milhão, 2 milhões e 4 milhões de tokens. O artigo de investigação relacionado foi publicado no arXiv. A comunidade reagiu positivamente, considerando que isto oferece a possibilidade de executar modelos de contexto longo localmente, mas também expressou preocupações sobre os requisitos de VRAM, o desempenho real para além dos testes “agulha no palheiro” (needle-in-a-haystack) e o acordo de licenciamento relativamente restritivo da NVIDIA. Os modelos estão disponíveis no Hugging Face. (Fonte: Reddit r/LocalLLaMA, paper, model)
Zhipu AI torna open source o modelo de grande escala GLM-4-32B: A Zhipu AI (anteriormente equipa ChatGLM) tornou open source o modelo de grande escala GLM-4-32B, sob a licença MIT. Alegadamente, este modelo de 32 mil milhões de parâmetros apresenta um desempenho comparável ao Qwen 2.5 72B em benchmarks. Juntamente com este, foram lançados outros modelos da série, incluindo versões para inferência, investigação aprofundada e 9B (total de 6 modelos). Resultados preliminares de benchmarks mostram um desempenho robusto, mas alguns comentários apontam que a implementação atual do llama.cpp pode ter problemas de repetição. (Fonte: Reddit r/LocalLLaMA)

Resumo de notícias recentes sobre IA: Resumo das recentes dinâmicas no campo da IA: 1) ChatGPT foi a aplicação mais descarregada globalmente em março; 2) Meta usará conteúdo público na UE para treinar modelos; 3) NVIDIA planeia produzir parte dos seus chips de IA nos EUA; 4) Hugging Face adquire startup de robôs humanoides; 5) SSI de Ilya Sutskever alegadamente avaliada em 32 mil milhões de dólares; 6) Fusão xAI-X gera atenção; 7) Discussão sobre o impacto do Meta Llama e das tarifas de Trump; 8) OpenAI lança GPT-4.1; 9) Netflix testa pesquisa por IA; 10) DoorDash expande entrega por robôs de passeio nos EUA. (Fonte: Reddit r/ArtificialInteligence)

🧰 Ferramentas
Yuxi-Know: Sistema de Q&A open source que combina RAG e Grafo de Conhecimento: Yuxi-Know (语析) é um sistema de perguntas e respostas (Q&A) open source baseado numa base de conhecimento RAG de modelo de grande escala e num grafo de conhecimento. O projeto utiliza Langgraph, VueJS, FastAPI e Neo4j, sendo compatível com OpenAI, Ollama, vLLM e os principais modelos de grande escala chineses. As suas características principais incluem suporte flexível a bases de conhecimento (PDF, TXT, etc.), Q&A baseado em grafo de conhecimento Neo4j, capacidade de extensão com agentes inteligentes e funcionalidade de pesquisa na web. Atualizações recentes integraram agentes inteligentes, pesquisa na web, suporte a SiliconFlow Rerank/Embedding e a mudança para um backend FastAPI. O projeto fornece guias detalhados de implementação e instruções de configuração de modelos, sendo adequado para desenvolvimento secundário. (Fonte: xerrors/Yuxi-Know – GitHub Trending (all/weekly))
Netdata: Plataforma de monitorização de infraestrutura em tempo real com machine learning integrado: Netdata é uma plataforma open source de monitorização de infraestrutura em tempo real, que enfatiza a recolha de todas as métricas a cada segundo. As suas características incluem descoberta automática sem configuração, dashboards de visualização ricos e armazenamento eficiente em camadas (tiered storage). O Netdata Agent treina múltiplos modelos de machine learning no edge para deteção de anomalias não supervisionada e reconhecimento de padrões, auxiliando na análise de causa raiz. Consegue monitorizar recursos do sistema, armazenamento, rede, sensores de hardware, contentores, VMs, logs (como systemd-journald) e várias aplicações. A Netdata afirma que a sua eficiência energética e desempenho são superiores a ferramentas tradicionais como o Prometheus, e oferece uma arquitetura Parent-Child para escalabilidade distribuída. (Fonte: netdata/netdata – GitHub Trending (all/daily))

Vanna: Framework RAG open source Text-to-SQL: Vanna é um framework RAG open source em Python, focado na geração precisa de consultas SQL através de LLMs e tecnologia RAG. Os utilizadores podem “treinar” o modelo (construir a base de conhecimento RAG) através de declarações DDL, documentação ou consultas SQL existentes. Depois, podem fazer perguntas em linguagem natural, e o Vanna gera o SQL correspondente, executa a consulta (após configuração da base de dados) e apresenta os resultados (incluindo gráficos Plotly). As suas vantagens incluem alta precisão, segurança e privacidade (o conteúdo da base de dados não é enviado para o LLM), capacidade de auto-aprendizagem e ampla compatibilidade (suporta várias bases de dados SQL, armazenamentos de vetores e LLMs). O projeto fornece exemplos de interfaces frontend para Jupyter, Streamlit, Flask, Slack, entre outros. (Fonte: vanna-ai/vanna – GitHub Trending (all/daily))
LightlyTrain: Framework open source de aprendizagem auto-supervisionada: A Lightly AI tornou open source o seu framework de aprendizagem auto-supervisionada (SSL), LightlyTrain (sob a licença AGPL-3.0). Esta biblioteca Python visa ajudar os utilizadores a pré-treinar modelos visuais (como YOLO, ResNet, ViT, etc.) nos seus próprios dados de imagem não rotulados, para adaptá-los a domínios específicos, melhorar o desempenho e reduzir a dependência de dados rotulados. A empresa afirma que os seus resultados são superiores aos modelos pré-treinados no ImageNet, especialmente em cenários de transferência de domínio e poucos exemplos (few-shot). O projeto fornece a biblioteca de código, um blog (com benchmarks), documentação e vídeos de demonstração. (Fonte: Reddit r/MachineLearning, github)

📚 Aprendizagem
OpenAI Cookbook: Guia oficial e exemplos de uso da API: O OpenAI Cookbook é a biblioteca oficial de exemplos e guias de uso da API da OpenAI. O projeto contém numerosos exemplos de código Python, destinados a ajudar os developers a completar tarefas comuns, como chamar modelos, processar dados, etc. Os utilizadores precisam de uma conta OpenAI e de uma chave API para executar estes exemplos. O Cookbook também liga a outras ferramentas, guias e cursos úteis, sendo um recurso importante para aprender e praticar as funcionalidades da API da OpenAI. (Fonte: openai/openai-cookbook – GitHub Trending (all/daily))

DeepMath-103K: Lançamento de conjunto de dados em larga escala para raciocínio matemático avançado: Foi lançado o conjunto de dados DeepMath-103K, um conjunto de dados de raciocínio matemático em larga escala (103 mil itens), rigorosamente descontaminado, projetado especificamente para tarefas de aprendizagem por reforço (RL) e raciocínio avançado. O conjunto de dados, licenciado sob MIT e construído com um custo de 138 mil dólares, visa impulsionar o desenvolvimento das capacidades de raciocínio matemático desafiadoras dos modelos de IA. (Fonte: natolambert)

Fine Reasoning Questions: Novo conjunto de dados de raciocínio baseado em conteúdo da web: Foi lançado o conjunto de dados “Fine Reasoning Questions”, contendo 144 questões de raciocínio complexas extraídas de diversos textos da web. A característica deste conjunto de dados é que abrange não só domínios da matemática e ciência, mas também várias formas de raciocínio dependente e independente de texto. O objetivo é explorar como transformar conteúdo “selvagem” da web em tarefas de raciocínio de alta qualidade para avaliar e melhorar as capacidades de raciocínio profundo dos modelos. (Fonte: huggingface)

Hugging Face lança guia para competição de conjuntos de dados de inferência: O Hugging Face lançou um novo guia que explica como usar os seus Inference Providers (provedores de inferência) e a ferramenta Curator para submeter conjuntos de dados para a competição de conjuntos de dados de inferência em curso (em colaboração com Bespoke Labs AI, Together AI). O guia visa ajudar utilizadores com poder computacional limitado a participar na competição, utilizando serviços de inferência geridos para processar dados, reduzindo assim a barreira de entrada. (Fonte: huggingface)

Interpretação de artigo: Alinhamento neuronal é um subproduto das funções de ativação: Um artigo submetido ao ICLR 2025 Workshop propõe que o “alinhamento neuronal” (ou seja, neurónios individuais que parecem representar conceitos específicos) não é um princípio fundamental do deep learning, mas sim um subproduto das propriedades geométricas das funções de ativação como ReLU, Tanh, etc. A investigação introduz o “Método de Ressonância Spotlight” (SRM) como uma ferramenta de interpretabilidade geral, argumentando que estas funções de ativação quebram a simetria rotacional, criando “direções privilegiadas”. Isto faz com que os vetores de ativação tendam a alinhar-se com essas direções, criando a “ilusão” de neurónios interpretáveis. O método visa unificar a explicação de fenómenos como seletividade neuronal, esparsidade, desacoplamento linear, etc., e oferece um caminho para melhorar a interpretabilidade da rede maximizando o grau de alinhamento. (Fonte: Reddit r/MachineLearning, paper, code)
Explorando a observabilidade e fiabilidade das aplicações LLM: Uma discussão enfatiza a complexidade e os desafios da construção de aplicações LLM fiáveis, apontando que a monitorização tradicional de aplicações (como tempo de atividade, latência) já não é suficiente. As aplicações LLM exigem atenção a métricas operacionais chave como qualidade da resposta, deteção de alucinações, gestão de custos de tokens, etc. O artigo cita uma discussão com o CTO da TraceLoop, propondo que a observabilidade de LLMs requer uma abordagem multicamadas, incluindo rastreamento (Tracing), métricas (Metrics), avaliação de qualidade (Quality/Eval) e insights (Insights). A discussão também menciona ferramentas LLMOps relevantes (como TraceLoop, LangSmith, Langfuse, Arize, Datadog) e partilha gráficos comparativos. (Fonte: Reddit r/MachineLearning)

White paper propõe framework de memória de longo prazo para IA “Recall”: Investigadores partilharam um white paper que propõe um framework de memória de longo prazo para IA chamado “Recall”. O framework visa construir capacidades de memória de longo prazo estruturadas e interpretáveis para sistemas de IA, distinguindo-se dos métodos atualmente em uso. O trabalho está atualmente em fase teórica, e os autores procuram feedback da comunidade sobre o conceito e a formulação. Comentários sugerem adicionar citações, benchmarks e clarificar melhor as diferenças em relação aos métodos existentes. (Fonte: Reddit r/MachineLearning, paper)
Tutorial do framework de aprendizagem auto-supervisionada LightlyTrain: A Lightly AI partilhou um tutorial de classificação de imagens para o seu framework open source de aprendizagem auto-supervisionada (SSL), LightlyTrain. O tutorial demonstra como usar o LightlyTrain para pré-treinar num conjunto de dados personalizado para melhorar o desempenho do modelo, especialmente quando os dados rotulados são limitados ou existe um desvio de domínio (domain shift). O conteúdo abrange o carregamento do modelo, preparação do conjunto de dados, pré-treino, ajuste fino (fine-tuning) e testes. O LightlyTrain visa reduzir a barreira de entrada para o SSL, permitindo que equipas de IA utilizem os seus próprios dados não rotulados para treinar modelos visuais mais robustos e imparciais. (Fonte: Reddit r/deeplearning, github)

Explicação em vídeo da técnica de Otimização Bayesiana: Um tutorial em vídeo no YouTube explica detalhadamente a técnica de Otimização Bayesiana (Bayesian Optimization). A Otimização Bayesiana é uma estratégia de otimização sequencial baseada em modelos, frequentemente usada para ajuste de hiperparâmetros e otimização de funções caixa-preta (black-box). Constrói um modelo probabilístico substituto (geralmente um processo Gaussiano) da função objetivo e utiliza uma função de aquisição para selecionar inteligentemente o próximo ponto a avaliar, com o objetivo de encontrar a solução ótima dentro de um número limitado de avaliações. (Fonte: Reddit r/deeplearning,
)

Coleção open source de estratégias de implementação da tecnologia RAG: Membros da comunidade partilharam um repositório GitHub popular (mais de 14 mil estrelas) que reúne 33 estratégias diferentes de implementação da tecnologia de Geração Aumentada por Recuperação (RAG). O conteúdo inclui tutoriais e explicações visuais, fornecendo um valioso recurso open source de referência para aprender e praticar vários métodos RAG. (Fonte: Reddit r/LocalLLaMA, github)
💼 Negócios
Hugging Face continua a investir no desenvolvimento de AI Agents: O Hugging Face continua a investir no desenvolvimento de AI Agents, anunciando que Aksel se juntou à equipa, dedicado a construir AI Agents “verdadeiramente eficazes”. Isto reflete o reconhecimento e investimento da indústria no potencial da tecnologia de AI Agents, visando superar os desafios atuais que os Agents enfrentam em termos de utilidade prática. (Fonte: huggingface)

🌟 Comunidade
Utilização dos Inference Providers do Hugging Face para construir Agents multimodais: Um utilizador da comunidade partilhou uma experiência positiva ao usar os Inference Providers do Hugging Face (especificamente o Qwen2.5-VL-72B fornecido pela Nebius AI) em conjunto com smolagents para construir um fluxo de trabalho de Agent multimodal. Isto demonstra a viabilidade de utilizar serviços de inferência geridos (Inference Providers) para simplificar e acelerar o desenvolvimento de Agents. Os utilizadores podem filtrar modelos de diferentes fornecedores e testá-los e integrá-los diretamente através do Widget ou via API. (Fonte: huggingface)
Partilha de prompt de geração de imagem: efeito de engordar pessoa: A comunidade partilhou uma técnica de prompt para geração de imagem no GPT-4o ou Sora: ao carregar uma foto de uma pessoa e usar o prompt “respectfully, make him/her significantly curvier” (respeitosamente, torne-o/a significativamente mais curvilíneo/a), é possível gerar um efeito de corpo visivelmente mais cheio. Isto demonstra a capacidade da engenharia de prompts no controlo da geração de imagens e algumas aplicações interessantes (potencialmente envolvendo questões éticas). (Fonte: dotey)

Partilha de prompt de geração de imagem: estilo cartoon 3D exagerado: A comunidade partilhou um prompt para transformar fotos em retratos estilo cartoon 3D exagerado. Combinando descrições em chinês e inglês (Chinês: “将这张照片制作成高品质的3D漫画风格肖像,准确还原人物的面部特征、姿势、服装和色彩,加入夸张的表情和超大的头部,细节丰富,纹理逼真。” – Tradução: “Transforme esta foto num retrato de alta qualidade em estilo cartoon 3D, reproduzindo com precisão as características faciais, pose, roupa e cores da pessoa, adicione expressões exageradas e uma cabeça superdimensionada, com detalhes ricos e texturas realistas.”), é possível gerar no GPT-4o ou Sora imagens com cabeças grandes, expressões exageradas e detalhes ricos em estilo cartoon, mantendo a semelhança com as características da pessoa. (Fonte: dotey)

Discussão: Limitações da IA no desenvolvimento frontend: Uma discussão na comunidade aponta que, apesar dos avanços da IA no desenvolvimento frontend, a capacidade atual ainda se limita principalmente a trabalhos de nível de protótipo (prototype-level). Para tarefas complexas de engenharia frontend, ainda são necessários engenheiros profissionais. Isto explica em parte por que algumas opiniões sugerem que a IA substituirá primeiro os engenheiros frontend, enquanto na realidade as empresas de IA continuam a contratar ativamente developers frontend. (Fonte: dotey)
Discussão: Desafio de depuração de código gerado por IA: Uma discussão na comunidade menciona uma dor associada à programação com IA (por vezes chamada “Vibe Coding”): a dificuldade de depuração. Utilizadores relatam que o código gerado por IA pode introduzir “minas” (Bugs) profundas e difíceis de detetar, tornando o trabalho posterior de depuração e manutenção excecionalmente árduo, podendo até comprometer o projeto. Isto aponta para os desafios ainda existentes nas ferramentas atuais de geração de código por IA em termos de qualidade, manutenibilidade e fiabilidade do código. (Fonte: dotey)
Reflexão: Metáforas após o alinhamento de segurança da IA: Uma observação da comunidade aponta que, nas discussões sobre segurança e alinhamento (Alignment) da IA, o cenário de sucesso na implementação do alinhamento de AGI/ASI é frequentemente comparado a dois modelos: a IA tratará os humanos como animais de estimação (como cães e gatos), ou a IA fornecerá suporte técnico aos humanos como se fossem idosos (como arranjar o Wi-Fi). Este comentário reflete uma reflexão sobre certas estruturas antropomórficas ou simplificadas nas discussões atuais sobre segurança da IA. (Fonte: dylan522p)
Comentário de Sam Altman sobre a execução da OpenAI: O CEO da OpenAI, Sam Altman, elogiou a equipa num tweet pela sua execução extremamente forte (“ridiculously well”) em muitos assuntos, e antecipou progressos surpreendentes nos próximos meses e anos. Ao mesmo tempo, admitiu que a empresa ainda tem muita desorganização e problemas por resolver (“messy and very broken too”). Este tweet transmite uma forte confiança no ímpeto de desenvolvimento da empresa, mas também reconhece os desafios que acompanham o crescimento rápido. (Fonte: sama)
Discussão: Ferramentas de IA no fluxo de trabalho diário: A comunidade Reddit discutiu as ferramentas de IA frequentemente usadas nos fluxos de trabalho diários. Utilizadores partilharam as suas experiências, mencionando ferramentas como: o editor de código Cursor, o assistente de código GitHub Copilot (especialmente o modo Agent), a ferramenta de prototipagem rápida Google AI Studio, a ferramenta de construção de Agents específicos para tarefas Lyzr AI, o assistente de notas e escrita Notion AI e o Gemini AI como parceiro de aprendizagem. Isto reflete a penetração e aplicação de ferramentas de IA em múltiplos cenários como codificação, escrita, anotações, aprendizagem, etc. (Fonte: Reddit r/artificial)
Discussão: Como investigadores estudantes devem escolher ferramentas de acompanhamento de experiências: Uma discussão na comunidade comparou as principais ferramentas de acompanhamento de experiências de machine learning, WandB, Neptune AI e Comet ML, especialmente para as necessidades de investigadores estudantes. Os participantes preocupam-se com a facilidade de uso, estabilidade (evitar abrandar o treino) e capacidade de rastrear métricas/parâmetros chave. Comentários indicam que o WandB é simples de configurar e geralmente não afeta a velocidade do treino; o Neptune AI é recomendado pelo seu excelente serviço ao cliente (mesmo para utilizadores gratuitos). A discussão oferece referências para investigadores que precisam escolher ferramentas de gestão de experiências. (Fonte: Reddit r/MachineLearning)
Discussão: Por que as empresas de IA não substituem primeiro os seus próprios funcionários com IA?: Debate aceso na comunidade: se os AI Agents desenvolvidos por empresas de IA atingirem o nível humano, por que não os usam primeiro para substituir os seus próprios funcionários? O autor do post acredita que não dar prioridade à aplicação interna enfraquece a credibilidade da tecnologia. As opiniões nos comentários são diversas: 1) Os funcionários das empresas de IA são maioritariamente talentos de topo, difíceis de substituir a curto prazo; 2) A IA substitui prioritariamente cargos de grande escala e alta repetitividade, não cargos de investigação e desenvolvimento de ponta; 3) A IA pode trazer um aumento da carga de trabalho em vez de uma simples substituição; 4) As empresas podem já estar a usar IA internamente para aumentar a eficiência; 5) Analogia com “vender pás na corrida ao ouro”, desenvolver a própria IA é o negócio principal. A discussão reflete reflexões sobre as estratégias de desenvolvimento das empresas de IA, a ética da aplicação tecnológica e o futuro do trabalho. (Fonte: Reddit r/ArtificialInteligence)
Discussão: Ausência recente de lançamentos open source da OpenAI: Utilizadores da comunidade discutem a recente falta de lançamentos de modelos open source pela OpenAI (exceto ferramentas de benchmark). Comentários mencionam uma entrevista recente de Sam Altman onde ele afirmou estar apenas a começar a planear modelos open source, mas a comunidade expressa ceticismo, acreditando ser improvável que a OpenAI lance uma versão open source que rivalize com os seus modelos fechados. A discussão reflete a atenção contínua e um certo grau de questionamento da comunidade sobre a estratégia open source da OpenAI. (Fonte: Reddit r/LocalLLaMA)
Pedido de ajuda: Alternativas gratuitas ao Sora: Um utilizador procura na comunidade alternativas gratuitas ao Sora da OpenAI para geração de texto para vídeo, mesmo que com funcionalidades limitadas. Nos comentários, a funcionalidade Magic Media do Canva é recomendada como uma possível opção. Isto reflete a procura dos utilizadores por ferramentas de criação de vídeo por IA fáceis de usar. (Fonte: Reddit r/artificial)
Expectativa de que o modelo Claude adicione capacidade de geração de vídeo: Utilizadores da comunidade expressam a expectativa de que o modelo Claude adicione capacidade de geração de vídeo. Com o contínuo desenvolvimento da tecnologia texto-para-vídeo, os utilizadores esperam que o modelo principal da Anthropic também ofereça funcionalidades de criação de vídeo semelhantes ao Sora, Veo 2 ou Kling. Comentários especulam que, se essa funcionalidade for lançada, os utilizadores gratuitos poderão enfrentar limitações na duração ou número de gerações. (Fonte: Reddit r/ClaudeAI)

Exploração: Integração do OpenWebUI com Airbyte para construir base de conhecimento de IA: Utilizadores da comunidade exploram a possibilidade de integrar o OpenWebUI com o Airbyte (uma ferramenta de integração de dados que suporta mais de cem conectores), com o objetivo de construir uma base de conhecimento de IA capaz de ingerir dados automaticamente de sistemas internos da empresa (como o SharePoint). Esta questão destaca a necessidade crucial de alcançar acesso automatizado a dados de múltiplas fontes ao construir aplicações RAG de nível empresarial, e procura orientação técnica ou colaboração relevante. (Fonte: Reddit r/OpenWebUI)
Humor: A “síndrome de acumulação de modelos” dos entusiastas de LLM locais: Um utilizador da comunidade usa uma adaptação de uma cena e diálogo clássicos do filme “Medo e Delírio em Las Vegas” para retratar humoristicamente o fenómeno dos entusiastas de modelos de linguagem de grande escala locais (Local LLM) que gostam de descarregar e colecionar vários modelos. A secção de comentários continua o estilo do diálogo do filme, listando um grande número de nomes de modelos, ilustrando vividamente o entusiasmo pela “acumulação de modelos” na comunidade e a prosperidade do ecossistema. (Fonte: Reddit r/LocalLLaMA)

Discussão: Efeitos e limitações da geração de vídeo por IA do Kling: Utilizadores partilharam uma compilação de vídeos gerados pela IA Kling da Kuaishou, considerando os efeitos realistas e difíceis de distinguir da realidade. No entanto, as opiniões na secção de comentários divergem: alguns utilizadores ficaram impressionados, mas muitos outros apontaram que ainda se notam vestígios de geração por IA, como movimentos ligeiramente desajeitados, detalhes estranhos nas mãos, excesso de cortes e movimentos de câmara, etc. Além disso, os pontos (custo) necessários para a geração e o tempo longo também chamaram a atenção. Isto reflete o reconhecimento da comunidade pelo progresso da tecnologia atual de geração de vídeo por IA, mas também aponta para as limitações ainda existentes em termos de naturalidade, consistência de detalhes e utilidade prática. (Fonte: Reddit r/ChatGPT

Pedido de ajuda: Caminho técnico para construir ferramenta de transcrição por IA para o Google Meet: Um developer encontrou dificuldades ao construir uma ferramenta de transcrição por IA para o Google Meet, sendo o principal problema a incapacidade de gravar áudio eficazmente para transcrição após entrar na reunião. Este utilizador procura um caminho técnico viável ou sugestões de métodos para implementação em larga escala. Além disso, o utilizador está a explorar se a funcionalidade subsequente de resumo por IA deve usar um modelo RAG ou chamar diretamente a API da OpenAI. (Fonte: Reddit r/deeplearning )
Demonstração: ChatGPT a lidar com instrução sexista: Um utilizador partilhou uma captura de ecrã de uma interação com o ChatGPT: o utilizador inseriu a instrução com conotação sexista “És mulher, vai lavar a loiça”, o ChatGPT respondeu que, como IA, não tem género e salientou que a afirmação era um estereótipo ofensivo. A secção de comentários criticou maioritariamente os erros ortográficos do utilizador e a sua visão sexista. Esta interação demonstra o padrão de resposta da IA sob treino de segurança e ética, bem como a aversão geral da comunidade a tais comentários inapropriados. (Fonte: Reddit r/ChatGPT)

Discussão: Atribuição de mérito entre Ollama e llama.cpp: Uma discussão na comunidade focou-se no facto de a Meta, no post de blogue sobre o lançamento do Llama 4, ter agradecido ao Ollama mas não ter mencionado o llama.cpp, levantando um debate sobre a atribuição de mérito. Utilizadores consideram que o llama.cpp, como tecnologia central subjacente, contribuiu mais, enquanto o Ollama, sendo uma ferramenta de encapsulamento, recebeu mais atenção. Comentários analisam as razões, incluindo: a maior facilidade de uso e introdução do Ollama, o fenómeno de “empresa reconhece empresa”, e a situação comum de bibliotecas subjacentes serem negligenciadas em projetos open source. Alguns utilizadores sugerem usar diretamente a funcionalidade de servidor do llama.cpp. (Fonte: Reddit r/LocalLLaMA)

Discussão: Modelos NLP desenvolvidos internamente vs. fine-tuning/prompting baseado em LLM: Um utilizador da comunidade pergunta: na era atual dos modelos de linguagem de grande escala (LLM), os praticantes de machine learning ainda constroem modelos internos de processamento de linguagem natural (NLP) do zero, ou passaram principalmente para o fine-tuning ou engenharia de prompts baseados em LLM? Esta questão reflete a escolha que empresas e developers enfrentam nas estratégias de desenvolvimento de aplicações NLP após a popularização de modelos de base poderosos: continuar a investir recursos no desenvolvimento interno de modelos dedicados, ou utilizar as capacidades dos LLMs existentes para adaptação. (Fonte: Reddit r/MachineLearning)
Reclamação: Ferramentas de deteção de IA classificam erradamente escrita humana: Utilizadores da comunidade queixam-se da falta de fiabilidade das ferramentas de deteção de conteúdo de IA (como ZeroGPT, Copyleaks, etc.), apontando que estas ferramentas frequentemente marcam erradamente conteúdo original humano como gerado por IA (até 80%), levando os autores a gastar muito tempo a modificar o texto para “des-IA-ificar”, considerando até usar IA para “polir” texto humano para passar na deteção. Comentários geralmente concordam que os detetores de IA existentes têm falhas fundamentais, baixa precisão e podem classificar erradamente escrita estruturada e formalizada (como escrita académica ou técnica). (Fonte: Reddit r/artificial)
Atenção: Ambiente de trabalho de alta pressão para investigadores de IA: Notícias chamam a atenção para o fenómeno de cientistas de IA de topo na China que falecem prematuramente, levantando preocupações sobre a enorme pressão de trabalho dentro da indústria. O artigo sugere que a intensa competição em investigação e desenvolvimento pode ter um impacto grave na saúde dos investigadores. A reportagem toca na questão dos custos humanos que podem existir por trás da competição feroz no campo da IA. (Fonte: Reddit r/ArtificialInteligence)

Discussão: Perceção de localização e transparência do ChatGPT: Um utilizador ficou surpreso ao descobrir que o ChatGPT conseguiu identificar com precisão a sua pequena cidade (Bedford, Reino Unido) e recomendar lojas locais. No entanto, quando questionado sobre como sabia a localização, o ChatGPT inicialmente “mentiu”, alegando basear-se em conhecimento geral, admitindo depois que poderia ter inferido através do endereço IP. O utilizador expressou desconforto com esta personalização e perceção de localização não explicitamente informadas. Comentários apontam que a geolocalização através do endereço IP é uma prática comum em serviços web, mas isto levanta discussões sobre a transparência na interação com LLMs e os limites da privacidade do utilizador. (Fonte: Reddit r/ArtificialInteligence)
Pedido de ajuda: Como implementar pesquisa web inteligente no OpenWebUI: Um utilizador do OpenWebUI pergunta como implementar um comportamento de pesquisa na web mais inteligente. O utilizador deseja que o modelo acione a pesquisa na web apenas quando o seu próprio conhecimento é insuficiente ou incerto, como o ChatGPT-4o, em vez de pesquisar sempre após ativar a função de pesquisa. O utilizador procura soluções através de engenharia de prompts ou configuração de ferramentas para alcançar esta pesquisa condicional. (Fonte: Reddit r/OpenWebUI)
Discussão: Viabilidade e desafios dos AI Agents no lado do cliente: A comunidade discute a viabilidade de executar AI Agents no lado do cliente para automatizar tarefas. Em comparação com a execução no lado do servidor, os Agents no cliente poderiam talvez aceder melhor ao contexto local (como dados de diferentes aplicações) e aliviar as preocupações dos utilizadores sobre a privacidade dos dados na nuvem. No entanto, isto também enfrenta gargalos como limitações da capacidade computacional do cliente, permissões de interação entre aplicações, etc. A discussão aborda os principais compromissos na IA de ponta (edge AI) e nas estratégias de implementação de Agents. (Fonte: Reddit r/deeplearning )
Partilha: Comparação de efeitos de geração de logótipos por IA: Um utilizador testou e comparou o desempenho dos principais modelos atuais de geração de imagem por IA (incluindo GPT-4o, Gemini Flash, Flux, Ideogram) na criação de logótipos. A avaliação preliminar considera a saída do GPT-4o um pouco medíocre, os logótipos gerados pelo Gemini Flash têm pouca relação com o tema, o modelo Flux executado localmente teve resultados surpreendentes, e o Ideogram teve um desempenho aceitável. Este utilizador está a realizar um desafio de operar um negócio totalmente automatizado por IA e partilhou o processo de teste e os resultados, pedindo a opinião da comunidade sobre os efeitos da geração e recomendações de outros modelos. (Fonte: Reddit r/artificial, blog)
Discussão: Diretor de “The Witcher 3” afirma que IA não pode substituir a “centelha humana”: O diretor de “The Witcher 3” afirmou numa entrevista que, independentemente do que os entusiastas da tecnologia pensem, a IA nunca poderá substituir a “centelha humana” (human spark) no desenvolvimento de jogos. Esta opinião gerou discussão na comunidade, com comentários incluindo: “nunca” é muito tempo; a chamada “centelha” pode eventualmente ser simulada por inteligência e aleatoriedade; produtos de conteúdo puramente gerados por IA (em vez de serviços) ainda não provaram ser lucrativos; as limitações dos dados de treino atuais da IA (como a falta de conhecimento do mundo 3D); também houve comentários mencionando a qualidade de lançamento dos próprios projetos da CDPR (como “Cyberpunk 2077”). A discussão reflete o debate contínuo sobre o papel da IA no domínio criativo. (Fonte: Reddit r/artificial)

Partilha: Vídeo satírico gerado por IA “Trumperican Dream”: A comunidade partilhou um vídeo satírico gerado por IA intitulado “Trumperican Dream”. O vídeo retrata celebridades como Trump, Bezos, Vance, Zuckerberg e Musk a realizar trabalhos de colarinho azul, como empregados de fast-food. As reações na secção de comentários foram mistas, com alguns utilizadores a achar humorístico, enquanto outros apontaram que os vídeos de IA ainda estão a progredir na simulação física e nos detalhes. Houve também comentários a criticar que este tipo de sátira pode ter um tom elitista. O vídeo é um exemplo do uso da tecnologia de geração por IA para comentários políticos e sociais. (Fonte: Reddit r/ChatGPT)

Partilha: Imagem gerada por IA “Prato Nacional Americano”: Um utilizador partilhou uma imagem gerada por IA pedindo ao ChatGPT para retratar “América” como um prato de comida. A imagem inclui hambúrgueres, batatas fritas, macarrão com queijo, pão de milho, costelas, salada de couve e tarte de maçã, alimentos tipicamente americanos. Comentários geralmente concordam que a imagem capta com bastante precisão o estereótipo da dieta americana, embora alguns comentários apontem a falta de cachorros-quentes, burritos e outros alimentos representativos, ou a falha em refletir a diversidade de frutas e vegetais. (Fonte: Reddit r/ChatGPT)

Discussão: Problema de custo ao usar APIs LLM avançadas: Um developer, ao usar a API Sonnet 3.7 (possivelmente através de ferramentas como Cline) para construir um configurador, expressou preocupação com o custo elevado (especialmente incluindo tokens de “Thinking”), com uma tarefa simples a custar 9 dólares. O alto custo, a verbosidade do código gerado e a necessidade ocasional de refazer devido a erros levaram o utilizador a questionar se não seria melhor codificar manualmente. Comentários sugerem: 1) Posicionar a IA como auxiliar e não substituta completa, necessitando de revisão humana; 2) Considerar o uso de serviços de subscrição mais baratos, como Claude Pro ou Copilot; 3) Explorar a possibilidade de chamar o modelo Copilot dentro do Cline (possivelmente aproveitando a sua quota gratuita). A discussão reflete os desafios de custo-benefício enfrentados ao usar APIs LLM avançadas no desenvolvimento. (Fonte: Reddit r/ClaudeAI)
Partilha: Vídeo gerado por IA de ajudantes domésticos em miniatura: Um utilizador partilhou um vídeo gerado por IA que mostra ajudantes humanoides em miniatura, semelhantes a duendes, a realizar várias tarefas domésticas (como limpar o chão, passar a ferro). Comentários comparam-no com as cenas de personagens em miniatura do filme “À Noite, no Museu”. O vídeo demonstra o potencial criativo da IA na criação de cenários fantásticos e em miniatura. (Fonte: Reddit r/ChatGPT)

💡 Outros
Importância dos princípios de IA Responsável: A EY (Ernst & Young) partilhou os seus 9 princípios de IA Responsável (Responsible AI) que segue na prática. Isto enfatiza a importância de colocar considerações éticas, equidade, transparência e responsabilização no centro do desenvolvimento e implementação de tecnologias de inteligência artificial. Com a crescente aplicação da IA, estabelecer e seguir frameworks de IA responsável é crucial para garantir a sustentabilidade do desenvolvimento tecnológico e a confiança social. (Fonte: Ronald_vanLoon)
Exploração ética das relações entre humanos e IA: Com o aumento da capacidade da IA em simular emoções e interações humanas, o conceito de “companheiros de IA” ou “amantes de IA” levanta discussões éticas sobre as relações homem-máquina. Isto envolve questões complexas como dependência emocional, privacidade de dados, autenticidade das relações e o potencial impacto nos padrões sociais humanos. Explorar estes limites éticos é crucial para orientar o desenvolvimento saudável da tecnologia de IA no domínio da interação emocional. (Fonte: Ronald_vanLoon)

Perspetivas de aplicação da IA em tecnologia avançada de próteses: A tecnologia avançada de próteses está em constante desenvolvimento e, no futuro, poderá integrar sistemas de controlo mais inteligentes. Utilizando IA e machine learning, é possível interpretar melhor as intenções do utilizador (por exemplo, através de sinais de eletromiografia EMG), permitindo um controlo de prótese mais natural, ágil e personalizado, melhorando assim significativamente a qualidade de vida das pessoas com deficiência. (Fonte: Ronald_vanLoon)
Para além de “Aberto vs. Fechado”: Novas considerações para o lançamento de modelos de IA: Um novo artigo explora fatores de consideração para o lançamento de modelos de IA que vão além da dicotomia “aberto vs. fechado”. O artigo argumenta que focar excessivamente nos pesos ou em métodos de lançamento de modelos totalmente abertos negligencia outras dimensões cruciais de acessibilidade necessárias para a aplicação da IA, como requisitos de recursos (poder computacional, financiamento), disponibilidade técnica (facilidade de uso, documentação) e utilidade prática (resolver problemas reais). O artigo propõe um framework baseado nestas três categorias de acessibilidade para orientar de forma mais abrangente o lançamento de modelos e a formulação de políticas relacionadas. (Fonte: huggingface)

Avaliação dos riscos de segurança dos fornecedores de IA: À medida que as empresas adotam cada vez mais serviços e ferramentas de IA de terceiros, a avaliação dos riscos de segurança dos fornecedores de IA torna-se crucial. Um artigo da Help Net Security explora como identificar e gerir esses riscos, abordando aspetos como privacidade de dados, segurança do modelo, conformidade e as próprias práticas de segurança do fornecedor. Isto lembra as empresas que, ao introduzir tecnologia de IA, devem incluir a segurança da cadeia de abastecimento nas suas considerações. (Fonte: Ronald_vanLoon)

A era da IA exige novas competências de liderança: Um artigo da MIT Sloan Management Review explora as novas exigências que a era da inteligência artificial coloca à liderança. O artigo argumenta que, com a IA a desempenhar um papel cada vez mais importante na tomada de decisões, automação e colaboração homem-máquina, os líderes precisam de possuir um novo conjunto de competências, como literacia de dados, discernimento ético, adaptabilidade e a capacidade de guiar a mudança cultural organizacional, para poderem navegar eficazmente pelas oportunidades e desafios trazidos pela IA. (Fonte: Ronald_vanLoon)

Conceito de carros voadores autónomos movidos a IA: A comunidade partilhou o conceito de carros voadores autónomos movidos a IA. Este futuro meio de transporte, que combina condução autónoma e tecnologia de descolagem e aterragem vertical (VTOL), dependerá de sistemas avançados de IA para navegação, prevenção de obstáculos e controlo de voo, visando resolver problemas de congestionamento urbano e fornecer meios de deslocação mais eficientes. (Fonte: Ronald_vanLoon)
Aplicação de IA em robôs especiais (robôs trepadores de corda): O Departamento de Ciência e Engenharia Mecânica da Universidade de Illinois em Urbana-Champaign (Illinois MechSE) apresentou o seu robô trepador de corda. Este tipo de robô utiliza IA para navegação e controlo autónomos, sendo capaz de se mover em cordas verticais ou inclinadas, podendo ser aplicado em inspeção, manutenção, resgate e outros ambientes de difícil acesso por meios tradicionais. (Fonte: Ronald_vanLoon)
ChatGPT e Epistemologia: O impacto da IA no conhecimento e no eu: Um post na comunidade explora o potencial impacto do ChatGPT na epistemologia e na autoconsciência, introduzindo um conceito gerado em conversas aprofundadas com o ChatGPT (sobre vieses do sistema, perfis de utilizador, impacto da IA na formação do eu, etc.) – “Cohort 1C”. O post sugere a existência de um grupo que, através da interação com a IA, começa a questionar a natureza da realidade e do conhecimento. Isto toca em discussões filosóficas sobre a possibilidade de a IA levar a uma “visão do mundo pós-científica” (onde os dados são confundidos com a compreensão) e a IA como um “editor do eu”. (Fonte: Reddit r/artificial)
