- 上云资讯 -
2025-09-16 17:17:32 30人关注
Meta AI 发布 MobileLLM-R1:轻量级边缘推理模型,参数不足 10 亿,性能提升显著
Meta AI 近日推出了 MobileLLM-R1,这是一系列轻量级边缘推理模型,目前已在 Hugging Face 上发布。该系列模型参数范围从140M 到950M,专注于高效的数学、编码和科学推理,且在不足10亿的参数规模下实现了优秀的性能表现。
2025-09-16 12:25:32 37人关注
新工具来袭!BentoML发布llm-optimizer,助你轻松优化LLM推理性能
近日,知名开源项目 BentoML 推出了一款名为 llm-optimizer 的全新工具,旨在为开发者提供一种简单而高效的方法来优化大型语言模型(LLM)的推理性能。随着人工智能技术的迅速发展,LLM 的应用也越来越广泛,如何高效地部署和使用这些模型成为了不少开发者面临的挑战。llm-optimizer 的推出,无疑为这一问题提供了极具价值的解决方案。
2025-09-12 17:18:45 60人关注
挑战主流认知!蚂蚁、人大在2025外滩大会发布行业首个原生MoE扩散语言模型
蚂蚁集团和人民大学联合研发原生MoE架构扩散语言模型(dLLM) LLaDA-MoE,在约20T数据上完成了从零训练MoE架构的扩散语言模型,验证了工业级大规模训练的扩展性和稳定性;效果超过此前发布稠密扩散语言模型LLaDA1.0/1.5和Dream-7B,比肩等效自回归模型,并保有数倍的推理速度优势。模型将在近期完全开源,以推动全球AI社区在dLLM上的技术发展。
MoE架构扩散语言模型 LLaDA-MoE模型开源 dLLM技术发展 工业级大规模训练 扩散语言模型推理速度优势 AI社区技术推动
2025-09-11 16:13:29 63人关注
重磅!月之暗面开源革命性中间件 “Checkpoint Engine”,为 LLM 推理引擎带来新生机!
在人工智能领域,尤其是在大规模语言模型(LLM)的推理与训练中,模型权重的实时更新一直是一个技术挑战。最近,月之暗面(MoonshotAI)开源了一个名为 “Checkpoint Engine” 的新中间件,专为 LLM 推理引擎而设计。这一创新工具的发布,标志着在强化学习等应用场景中,模型的权重可以实现更为高效的原地热更新。
2025-09-04 13:22:41 129人关注
Meta 推出 DeepConf 技术,智能平衡大型语言模型的推理成本与准确性
近日,Meta AI 联合加州大学圣地亚哥分校(UCSD)推出了一种名为 Deep Think with Confidence(DeepConf) 的新技术,旨在帮助企业在大语言模型(LLM)的复杂推理任务中,有效降低算力成本的同时保持高准确率 。
大语言模型推理优化 DeepConf 技术解析 LLM 算力成本降低 复杂推理任务效率提升 Meta AI 与 UCSD 合作研究 企业级 AI 应用优化
2025-08-18 16:11:12 34人关注
人工智能能否真正构建软件?Zed 编辑器团队给出了答案!
开源代码编辑器 Zed 的开发团队发布了一篇引人关注的博文,题为《为什么 LLM 无法真正构建软件》。这篇文章由 Conrad Irwin 撰写,迅速引发了技术圈的热烈讨论,尤其是在 Hacker News 上,众多开发者纷纷发表看法,聚焦于 AI 辅助编程的本质。
开源代码编辑器 LLM 构建软件 AI 辅助编程本质 Zed 开发团队观点 Conrad Irwin 博文 Hacker News 技术讨论
2025-08-14 10:18:34 95人关注
微软重磅推出POML!全新AI标记语言颠覆提示工程,未来还是XML翻版?
近日,微软推出了一款全新的提示编排标记语言(POML,Prompt Orchestration Markup Language),专为大型语言模型(LLMs)的提示工程设计。据AIbase综合整理的网络信息,POML旨在解决传统提示开发中的痛点,通过结构化、可维护的方式提升AI应用的开发效率。然而,这一新语言是否只是XML的“翻版”,以及其复杂性是否会削弱实用性,引发了社区热议。
2025-08-13 13:18:18 62人关注
Anthropic 重磅升级!Claude Sonnet 4 模型可支持100万词元
人工智能初创公司 Anthropic 今天宣布,他们备受欢迎的 Claude Sonnet4语言模型(LLM)现已支持高达100万个上下文词元。这一更新使 Anthropic 成为继 Google Gemini 之后,第二家能提供如此长上下文支持的主流模型供应商。
AI大模型 Claude Sonnet4语言模型 Anthropic公司 上下文词元支持 LLM技术突破 Google Gemini竞争对手
2025-08-12 13:21:14 63人关注
英特尔发布 LLM-Scaler1.0,助力 AI 推理性能提升
英特尔于2025年8月宣布了其 “战斗矩阵” 项目的最新软件更新,并推出了 LLM-Scaler1.0容器,以优化 Intel Arc B 系列显卡的 AI 推理支持。
英特尔战斗矩阵项目 LLM-Scaler1.0容器 Intel Arc B系列显卡 AI推理优化 2025年英特尔软件更新
2025-08-09 13:30:27 162人关注
腾讯 WeKnora 开源:你的文档管理难题,让 AI 来解决
在信息爆炸的时代,处理复杂的文档资料一直是企业和研究者面临的挑战。现在,腾讯开源了一款基于大型语言模型(LLM)的全新文档理解与检索工具 WeKnora,旨在帮助用户高效地从 PDF、Word、图片等多种格式文档中提取和整合信息,构建统一的语义视图。
2025-08-09 10:29:23 80人关注
PyTorch 2.8重磅发布:量化LLM推理性能飞跃,Intel GPU 支持来袭!
近日,开源机器学习框架 PyTorch 迎来了全新版本2.8的正式发布。这一版本的发布备受关注,主要集中在提升量化大语言模型(LLM)的推理性能,尤其是在 Intel CPU 上的表现。此次更新不仅显著增强了在离线模式下的推理效率,还首次实验性支持了 Intel GPU 的分布式后端。
PyTorch 2.8 新特性 量化大语言模型推理性能提升 Intel CPU 推理优化 离线模式推理效率 Intel GPU 分布式后端支持 PyTorch 量化 LLM 优化
2025-07-25 12:43:32 182人关注
开源AI工具DailiCode横空出世:兼容多LLM模型,重构开发者工作流
近日,一款名为DailiCode的开源AI Agent CLI工具在GitHub引发关注。作为Gemini CLI的Fork版本,该工具以强大的多模型兼容性和丰富功能,为开发者打造了高效便捷的命令行AI助手新体验。
2025-07-21 14:20:21 113人关注
大语言模型的自信危机:为何GPT-4o轻易放弃正确答案?
最近,Google DeepMind 与伦敦大学的研究揭示了大语言模型(LLMs)在面对反对意见时的 “软弱” 表现。比如,像 GPT-4o 这样的先进模型,有时会显得非常自信,但一旦遇到质疑,它们就可能立即放弃正确答案。这种现象引发了研究人员的关注,他们探索了这种行为背后的原因。
大语言模型行为研究 LLMs 面对质疑表现 GPT-4o 自信度分析 语言模型软弱性原因 Google DeepMind 最新发现
2025-07-17 18:42:26 437人关注
谷歌 DeepMind 推出 MoR 架构:有望大幅提升大型语言模型的效率
在人工智能领域,大型语言模型(LLM)因其出色的表现而受到广泛关注,但其在部署时却面临着巨大的计算和内存开销问题。为了克服这一挑战,谷歌 DeepMind 最近推出了一种新架构 ——Mixture-of-Recursions(MoR),该架构被认为有潜力成为传统 Transformer 模型的 “杀手”。
大型语言模型 LLM 计算开销 LLM 内存优化 Mixture-of-Recursions 架构 MoR 替代 Transformer DeepMind 新模型架构
2025-07-17 08:44:45 463人关注
Kimi-2 已上线 LiveBench AI:超越 GPT-4.1,开源 AI 新王者诞生
近日,人工智能领域迎来了一项重要进展——Kimi-2 正式在 LiveBench AI 平台上线,并计划于次日在 ChatLLM 平台推出。这一消息迅速在业内引发广泛关注,Kimi-2以其卓越的性能和开源特性被认为是 AI 模型发展中的重要里程碑。以下是 AIbase 整理的关于 Kimi-2的最新动态和关键信息。
2025-07-10 14:38:14 186人关注
Hugging Face重磅开源SmolLM3:3B参数小模型媲美4B巨头,128K上下文引领高效AI新风潮!
近日,Hugging Face正式推出全新开源语言模型 SmolLM3,一款拥有3B参数的轻量级大语言模型(LLM),以其卓越性能和高效设计引发行业广泛关注。SmolLM3不仅在多项基准测试中超越同级别的Llama-3.2-3B和Qwen2.5-3B,甚至与更大规模的4B参数模型Gemma3性能相当。
Hugging Face SmolLM3 开源语言模型 轻量级大语言模型 3B参数模型 SmolLM3性能评测 SmolLM3基准测试
2025-07-09 11:38:27 132人关注
Hugging Face发布新一代小参数模型 SmolLM3:128K上下文,双模式推理
近日,全球知名的大模型开放平台 Hugging Face 正式发布了其最新开源模型 ——SmolLM3。这款模型拥有30亿参数,尽管参数量相对较小,但其性能显著超过了同类的开源模型,如 Llama-3.2-3B 和 Qwen2.5-3B。
Hugging Face最新开源模型 SmolLM3性能优势 30亿参数大模型 开源模型对比评测 小参数高性能模型 Hugging Face模型发布