2024-12-29 15:24:34
53人关注
清华与微软联手打造Differential Transformer,让 AI 的注意力更集中,精度飙升30%!
最近大语言模型(LLM)发展迅猛,其中Transformer模型功不可没。Transformer的核心是注意力机制,它像一个信息过滤器,让模型关注句子中最重要的部分。但即使是强大的Transformer,也会被无关信息干扰,就好比你在图书馆想找本书,结果被一堆无关的书淹没,效率自然低下。
清华微软合作
差分Transformer
Transformer技术
清华微软研究项目
差分Transformer应用