#开源模型

Gemma 4 + TurboQuant:Google开源模型新方案,本地部署 LLM 内存降低 83%
在过去三年里,很多人认为模型越大越"聪明"。他们觉得参数越多性能越好,GPU 越多就越强。这个普遍认知本周被 Google 的开源模型 "Gemma 4" 彻底颠覆。 Gemma 是 Google 发布的一系列 open-weight 模型…
Kimi K2.6 正式发布:开源代码能力新标杆,智能体集群扩展至 300 个
前言 月之暗面正式上线并开源了新模型 Kimi K2.6。从官方公布的 benchmark 来看,代码能力追平或者超越 GPT 5.4 和 Opus 4.6,非常能打。当然与 A 厂刚发布的 Mythos 和 Opus 4.7 还有差距。 …
1-bit Bonsai 8B 大模型详解:8B 参数压缩至 1.15GB,手机也能跑 AI
你手机里装了多少个 App?如果我问你,能不能在手机上跑一个 80 亿参数的大语言模型,你大概率会摇头——毕竟一个常规的 8B 模型至少需要 16GB 显存,手机那点内存根本装不下。 但就在上周,一家来自 Calte…
Gemma 4 开源实测:31B 参数跻身全球前三,oMLX + Mac Mini 打造高性价比 AI 底座
Gemma 4 正式发布:31B 参数跻身全球前三 2026 年 4 月,Google DeepMind 正式发布 Gemma 4 系列开源模型。旗舰版 Gemma 4 31B 在 Arena AI 排行榜位列全球第三,能够与体量大出 20…
GLM-5.1 代码能力实测:SWE-Bench Pro 全球第一,长程任务可连续工作 8 小时
2026 年 4 月 8 日,智谱发布了 GLM-5.1 模型更新。官方博客披露的评测数据显示,这款开源模型在 SWE-Bench Pro(真实 GitHub 工程 Bug 修复)榜单上取得了 58.4 分,超越 GPT-5.4(57.7 …
GLM-5.1 技术报告:744B 参数开源模型,SWE-Bench Pro 58.4 分全球第一
  智谱于 2026 年 4 月 8 日正式开源 GLM-5.1,这是一款拥有 744B 总参数、40B 激活参数的混合专家模型(MoE),采用 MIT 开源协议。该模型在长程任务执行能力上取得显著突破,能够零人工介入独立工作超过…
谷歌发布 Gemma 4 全能模型,2 步教你在手机完美运行,离线且免费!
前几天,Google DeepMind 发布了 Gemma 4,这个新一代开源大模型家族。配合他们之前的 Google AI Edge Gallery App,你现在可以在手机上、完全离线地跑一个相当聪明的 AI。 Gemma 4 是一个能…
谷歌 Gemma 4 本地部署教程:Ollama 三步搞定零成本养虾
谷歌最新的开源模型 Gemma 4 原生支持 function calling,可以装在自己的电脑上并接入 OpenClaw,实现 token 成本归零。 关键亮点:Gemma 4 是 Gemma 家族第一次用 Apache 2.0 协议开…
Google Gemma 4 发布:31B 参数开源第一梯队,代码能力提升 19 倍,改用 Apache 2.0 许可证
今天凌晨,Google DeepMind 发布了新一代开源模型 Gemma 4,以 30B 左右的参数,逼近其他头部开源模型。 Gemma 是 Google 的开源模型系列,和闭源旗舰 Gemini 共享底层技术,权重完全公开,任何人可以…
MiroThinker 1.5:开源的“深度研究”智能体与模型实测、差异化与部署
作为一个长期评测AI产品的产品经理,我越来越不满足于“流畅回答”。 在投研、技术调研、健康风险核查这类容错率极低的场景里,“大概率正确”往往等于不可用。 过去一年,我把多款主流LLM用于深度研…