- 上云资讯 -
2025-04-17 14:23:33 66人关注
Meta 创新推出 “连续概念混合” 框架,推动 Transformer 预训练新革命
近年来,随着大型语言模型(LLMs)的快速发展,自然语言处理领域经历了前所未有的变革。这些技术如今广泛应用于代码助手、搜索引擎和个人 AI 助手等场景,展现了强大的能力。然而,传统的 “下一个 token 预测” 范式存在一定局限性,尤其是在处理复杂推理和长期任务时,模型需要经历大量训练才能掌握深层次的概念理解。
2025-01-19 21:36:31 78人关注
韩国团队提出全新Transformer架构 可让大模型解码提速20倍
Transformer模型虽然强大,但它在解码时的效率问题一直是让人头疼的事儿。不过,韩国科学技术研究院、LG和DeepMind的研究人员们,这次可是给我们带来了一个惊喜——他们提出了一种新的Transformer架构,叫做Block Transformer,直接让解码速度提升了10到20倍!
Korean AI团队 Transformer加速技术 20倍性能提升 Transformer模型优化 AI计算效率提升