摘要: 基于E2B和E4B模型的边缘计算革新,Gemma 4系列在多模态能力、低延迟处理和生态无缝集成方面超越单纯参数规模。26B MoE模型通过仅激活3.8亿参数实现高速推理,31B密集模型追求极致质量。支持128K/256K长上下文,适配从Android设备到开发者工作站的全场景硬件,内置代码生成、视觉音频处理及140+语言原生支持,赋能自主代理、多模态任务和全球化应用开发。
讨论: 用户在M1 Max 32GB机器上通过LM Studio下载并测试了26B A4B Q4_K_M模型,发现其使用体验不稳定,无法持续发挥预期效果。作者指出过去两年间多数本地模型宣传与实际表现存在差距,尽管部分模型声称有用,但实际应用中仍难以保持一致性。
原文标题:Gemma 4: Byte for byte, the most capable open models
原文链接:https://blog.google/innovation-and-ai/technology/developers-tools/gemma-4/
讨论链接:https://news.ycombinator.com/item?id=47616244