LetsClouds-Logo
AI对话 上云服务 上云资讯 解决方案 关于我们
售前咨询 021-50583875
微信二维码

微信扫码

添加专属顾问

- 上云资讯 -

阿里云云原生 阿里云开发者 腾讯云开发者 火山引擎开发者社区 魔搭ModelScope社区 微软科技 Azure云科技 Zilliz OpenAI Anthropic Gemini LangChain Hugging Face Mistral

2025-03-22 08:11:30 85人关注

腾讯申请“大语言模型训练方法”专利,提升模型泛化能力与准确性

天眼查App显示,腾讯科技(深圳)有限公司近日申请了一项名为“大语言模型的训练方法、装置、计算机设备及存储介质”的专利。这项专利的摘要揭示了该方法通过引入第一摘要文本和第二摘要文本,在大语言模型的训练过程中为模型提供更多可学习的信息。

腾讯专利 大语言模型训练 大模型训练技术 腾讯大模型专利 语言模型训练方法

2025-02-09 10:25:45 129人关注

腾讯发布大语言模型训练新专利,提升模型泛化与准确性

近日,腾讯科技(深圳)有限公司在天眼查 App 上公布了一项关于大语言模型的训练方法及相关设备的专利。这项专利的名称为 “大语言模型的训练方法、装置、计算机设备及存储介质”,旨在通过创新的训练方式,提升大语言模型的学习能力和准确性。

腾讯新专利 语言模型训练 训练精度提升 大模型技术 专利技术解析 AI模型优化

2024-12-30 09:17:41 179人关注

5.7万亿个优质tokens的诞生:大语言模型训练的 “神秘宝藏” TxT360

在 AI 的世界里,数据就像是金矿,越丰富越闪亮。最近,LLM360推出了一个令人瞩目的数据集 TxT360,专为大语言模型训练量身定做。这个庞然大物不仅收录了来自各行各业的高质量文本数据,更是经历了一场全球范围的去重大作战,最终汇聚成5.7万亿个优质 tokens,真可谓是 “数据界的百宝箱”!

LLM训练 5-7万亿tokens 大模型训练数据 LLM训练规模 LLM训练token需求

推荐阅读

加载中...

上云服务

沪ICP备14033669号-10