LetsClouds-Logo
AI对话 上云服务 上云资讯 解决方案 关于我们
售前咨询 021-50583875
微信二维码

微信扫码

添加专属顾问

- 上云资讯 -

阿里云云原生 阿里云开发者 腾讯云开发者 火山引擎开发者社区 魔搭ModelScope社区 微软科技 Azure云科技 Zilliz OpenAI Anthropic Gemini LangChain Hugging Face Mistral

2025-06-07 18:13:41 133人关注

DeepSeek开源周第五天:6.6TiB/s炸场!3FS重新定义AI存储基建

中国AI领军企业DeepSeek在开源周收官之际投下技术"核弹",正式发布专为现代算力场景设计的高性能并行文件系统3FS(Fire-Flyer File System)及配套数据处理框架Smallpond。这套组合拳直击AI训练与推理的数据处理痛点,以6.6TiB/s的集群吞吐量创下行业新纪录,标志着分布式存储技术迈入新纪元。

DeepSeek开源 6.6TiB/s存储 3FS AI存储 AI存储技术 高性能存储解决方案

2025-05-27 08:24:17 90人关注

DeepSeek开源周第3天:发布DeepGEMM,FP8 GEMM库助力AI训练与推理

中国人工智能公司DeepSeek在其“开源周”第3天宣布推出DeepGEMM——一款支持FP8通用矩阵乘法(GEMM)的开源库。这一工具专为密集型和混合专家(MoE)矩阵运算设计,为DeepSeek V3和R1模型的训练与推理提供强大支持。官方消息通过X平台发布,迅速引发技术社区的热烈反响。

DeepSeek开源周 DeepGemm FP8训练 AI推理优化 AI训练加速 开源AI模型

2025-05-22 14:18:20 66人关注

DeepSeek开源周第二日:首个面向MoE模型的开源EP通信库

Deepseek 公布了开源周第二天的产品,首个面向MoE模型的开源EP通信库,支持实现了混合专家模型训练推理的全栈优化。

DeepSeek开源周 MoE模型 EP通信库 开源通信库 MoE模型通信优化

2025-05-16 10:15:33 84人关注

DeepSeek 开源周首日:发布大模型加速利器FlashMLA 解码性能飙升至3000GB/s

DeepSeek 开源周首日正式开源其最新技术成果FlashMLA,这是一款专为英伟达Hopper架构GPU打造的高效多层注意力(Multi-Layer Attention)解码内核。该技术特别针对变长序列场景进行优化,可显著提升大模型推理性能。

DeepSeek开源周 FlashMLA 3000GBs 大模型开源技术 DeepSeek开源模型 高性能AI模型

2025-03-03 10:29:21 148人关注

DeepSeek开源周第六天:极致推理优化系统,提高GPU计算效率

在人工智能(AI)技术快速发展的今天,DeepSeek 团队推出了其全新的 DeepSeek-V3/R1推理系统。这一系统旨在通过更高的吞吐量和更低的延迟,推动 AGI(通用人工智能)的高效发展。为了实现这一目标,DeepSeek 采用了跨节点专家并行(Expert Parallelism,EP)技术,显著提高了 GPU 的计算效率,并在降低延迟的同时,扩展了批处理规模。

DeepSeek开源周报 GPU计算优化 DeepSeek技术更新 开源AI模型优化 高性能计算优化

推荐阅读

加载中...

上云服务

沪ICP备14033669号-10