- 上云资讯 -
阿里云云原生
阿里云开发者
腾讯云开发者
火山引擎开发者社区
魔搭ModelScope社区
微软科技
Azure云科技
Zilliz
OpenAI
Anthropic
Gemini
LangChain
Hugging Face
Mistral
2025-01-03 07:27:36 156人关注
新微调框架 LoRA-Dash:高效应对特任务,算力需求大幅降低
近日,来自上海交通大学和哈佛大学的研究团队推出了一种全新的模型微调方法 ——LoRA-Dash。这个新方法声称比现有的 LoRA 方法更加高效,特别是在特定任务的微调中,它可以在参数量减少8到16倍的情况下,依然达到相同的效果。这无疑是对那些需要大量计算资源的微调任务的一次重大突破。