- 上云资讯 -
2025-07-23 13:21:28 51人关注
谷歌 Gemini2.5革新图像处理:不止识别物体,更能理解抽象概念与关系
谷歌近日为其 Gemini2.5AI 模型推出了一项创新功能——“对话式图像分割”,允许用户通过自然语言提示直接分析和突出显示图像内容。这项技术超越了传统的图像分割范畴,赋予 Gemini 理解并响应更复杂、更具语义的指令的能力。
2025-04-17 14:23:33 65人关注
Meta 创新推出 “连续概念混合” 框架,推动 Transformer 预训练新革命
近年来,随着大型语言模型(LLMs)的快速发展,自然语言处理领域经历了前所未有的变革。这些技术如今广泛应用于代码助手、搜索引擎和个人 AI 助手等场景,展现了强大的能力。然而,传统的 “下一个 token 预测” 范式存在一定局限性,尤其是在处理复杂推理和长期任务时,模型需要经历大量训练才能掌握深层次的概念理解。
2025-01-28 13:41:31 128人关注
Sakana AI发布Transformer²:突破语言模型适应性的新技术
日本人工智能公司Sakana AI近日推出了Transformer²,这是一种创新的方法,旨在帮助语言模型更高效地适应多种任务。与现有的人工智能系统不同,Transformer²能够通过两阶段学习过程解决语言模型在面对新任务时常遇到的局限性,标志着该领域在持续学习技术上的进步。
2025-01-24 10:10:45 86人关注
AI模型"幻觉"化身创新动力,助力科学家斩获诺贝尔奖
一个被广泛视为人工智能缺陷的特性——"幻觉",竟成为科学突破的关键。据《财富》杂志报道,2024年诺贝尔化学奖得主之一的大卫·贝克教授,正是借助AI模型的"幻觉"特性实现了重大科研突破。
2025-01-16 16:18:10 101人关注
微软Q-Sparse模型:8B参数性能直逼7B模型 训练微调轻松搞定!
在人工智能的世界里,大型语言模型(LLMs)以其卓越的自然语言处理能力而著称。然而,这些模型在实际应用中的部署却面临着巨大的挑战,主要是因为它们在推理阶段的高计算成本和内存占用。为了解决这一问题,研究人员们一直在探索如何提高LLMs的效率。最近,一种名为Q-Sparse的方法引起了广泛关注。