- 上云资讯 -
2025-06-02 10:20:41 29人关注
Ollama v0.8发布!AI流式响应+实时搜索,本地模型也能秒变智能助手!
Ollama官方宣布推出其最新版本Ollama v0.8,为本地运行大型语言模型(LLM)带来了突破性升级。新版本引入了流式传输响应和工具调用功能,支持实时网络搜索等交互场景,显著提升了本地AI的实用性和灵活性。AIbase为您整理了Ollama v0.8的核心亮点及其对AI生态的影响。
2025-05-03 08:42:42 38人关注
昆仑万维旗下Opera接入DeepSeek R1模型 支持本地个性化部署
2月17日,昆仑万维旗下的Opera团队在Opera Developer中接入了DeepSeek R1系列模型,实现了本地个性化部署。这一举措标志着Opera在AI技术应用方面的进一步拓展,为用户提供了更强大的本地AI功能。
DeepSeek R1 本地部署 Opera DeepSeek R1 大模型本地化 AI模型部署 DeepSeek R1 部署指南
2025-01-24 12:32:31 58人关注
Hugging Face 推出小巧AI模型,助力设备性能提升
近期,人工智能开发平台 Hugging Face 团队发布了两款新型 AI 模型,SmolVLM-256M 和 SmolVLM-500M。他们自信地声称,这两款模型是目前为止体积最小的 AI 模型,能够同时处理图像、短视频和文本数据,尤其适合内存少于1GB 的设备如笔记本电脑。这一创新让开发者在处理大量数据时,能够以更低的成本实现更高的效率。
2025-01-22 04:34:33 76人关注
Nexa AI 发布 OmniAudio-2.6B:用于边缘部署的快速音频语言模型
Nexa AI近日推出了其全新的OmniAudio-2.6B音频语言模型,旨在满足边缘设备的高效部署需求。与传统的将自动语音识别(ASR)和语言模型分开的架构不同,OmniAudio-2.6B将Gemma-2-2b、Whisper Turbo以及定制的投影仪集成到一个统一框架中,这一设计消除了传统系统中各个组件链接所带来的低效率和延迟,特别适用于计算资源有限的设备。
2025-01-21 20:11:15 112人关注
Cohere 推出 Command R7B 模型:小型高效,可在低端设备运行
在快速发展的人工智能领域,Cohere 公司近日推出了其最新模型 Command R7B,标志着该公司在为企业提供高效解决方案方面又向前迈出了重要一步。作为 R 系列中最小、速度最快的模型,Command R7B 专注于支持快速原型开发和迭代,采用了检索增强生成(RAG)技术,提升了模型的准确性。
2025-01-16 18:28:27 37人关注
NVIDIA研究人员推Flextron框架:支持灵活AI模型部署 无需额外微调
在人工智能领域,大型语言模型(LLMs)如GPT-3和Llama-2已经取得了显著进展,能够准确理解和生成人类语言。然而,这些模型庞大的参数量使得它们在训练和部署过程中需要大量的计算资源,这对资源有限的环境构成了挑战。
2024-12-25 13:13:23 64人关注
GE医疗利用 AWS打造首个全身3D MRI模型,实现更精准医学影像解析
MRI 图像因其复杂性和数据量大,一直以来都是医学影像分析中的一大挑战。为了训练大型语言模型(LLM)进行 MRI 分析,开发者不得不将获取的图像切割为2D 图像,这样的处理虽然可行,但却限制了模型对复杂解剖结构的分析能力,尤其是在脑肿瘤、骨骼疾病或心血管疾病等复杂案例中。