- 上云资讯 -
2025-04-28 10:24:34 68人关注
全球最快推理速度模型!Qafind Labs 发布 ChatDLM 技术
近日,Qafind Labs发布了其最新研发的ChatDLM模型,这一创新成果在人工智能领域引起了广泛关注。ChatDLM是首个将“区块扩散(Block Diffusion)”和“专家混合(MoE)”深度融合的模型,其在GPU上实现了惊人的2,800tokens/s超高推理速度,支持131,072tokens的超大上下文窗口,开启了文档级生成和实时对话的新纪元。
2025-04-21 10:19:18 160人关注
字节跳动研究开源 ChatTS-14B:原生理解并随着时间的推移进行推理
字节跳动研究团队宣布开源 ChatTS-14B,这是一款专为时间序列数据理解和推理设计的140亿参数大型语言模型(LLM)。以 Apache2.0许可协议发布,ChatTS-14B 的开源引发了 AI 社区的广泛关注,被认为是时间序列分析与生成式 AI 结合的重大进展。
2025-04-12 10:41:40 29人关注
AI 模型隐瞒推理过程引发担忧,研究称其 “思考” 常常不可信
在教育中,我们常常被教导要 “展示你的思考过程”,而现在一些高端的 AI 模型声称能够做到这一点。然而,最新的研究却表明,这些模型有时会隐藏真实的推理过程,反而编造出复杂的解释。来自 Anthropic 的研究团队近期对模拟推理(SR)模型进行了深入研究,包括其自家开发的 Claude 系列和 DeepSeek 的 R1模型,发现这些模型在展示其 “思考” 时,常常不透露它们所依赖的外部信息或使用的捷径。
2025-03-21 10:37:26 83人关注
硅基流动宣布DeepSeek-R1&V3 API支持批量推理 价格暴降75%
硅基流动 SiliconCloud 平台即日起正式推出 DeepSeek-R1& V3API 的批量推理(Batch Inference)功能。用户现在可以通过批量 API 向 SiliconCloud 发送请求,摆脱实时推理速率的限制,并在预期24小时内完成大规模数据处理任务。
DeepSeek R1 V3 API 批量推理 API价格下调 DeepSeek R1 V3价格优化 大模型推理成本降低
2025-03-13 18:14:31 277人关注
DeepSeek-R1 模型幻觉问题严重,推理能力与准确性面临挑战
近日,Vectara 的机器学习团队对 DeepSeek 系列的两款模型进行了深入的幻觉测试,结果显示,DeepSeek-R1的幻觉率高达14.3%,显著高于其前身 DeepSeek-V3的3.9%。这表明,在增强推理的过程中,DeepSeek-R1产生了更多不准确或与原始信息不一致的内容。该结果引发了对推理增强大语言模型(LLM)产生幻觉率的广泛讨论。
2025-02-28 10:13:10 40人关注
谷歌 DeepMind 推新框架 InfAlign:提升语言模型推理对齐能力
生成式语言模型在从训练到实际应用的过程中面临着许多挑战。其中一个主要问题是如何在推理阶段使模型达到最佳表现。
2025-02-25 10:37:39 101人关注
新型语言模型 Huginn:突破推理界限 无需语言即可“思考”
近日,来自图宾根埃利斯研究所、马里兰大学和劳伦斯利弗莫尔国家实验室的研究团队,开发出名为 Huginn 的新型语言模型,该模型采用递归架构,显著提升了推理能力。与传统模型不同,Huginn 无需专门的“推理链”训练,便可在神经网络的“潜在空间”内自主推理,再输出结果。
2025-02-19 10:33:31 182人关注
NVIDIA联合高校发布 “FlashInfer”:提升大语言模型推理效率的全新内核库
随着大语言模型(LLM)在现代人工智能应用中的广泛应用,诸如聊天机器人和代码生成器等工具依赖于这些模型的能力。然而,随之而来的推理过程中的效率问题也日益突出。