返回列表
PrismML 发布 1-Bit Bonsai:全球首款商用 1 比特大语言模型,内存占用降低 14 倍
研究突破人工智能大语言模型硬件优化

PrismML 发布 1-Bit Bonsai:全球首款商用 1 比特大语言模型,内存占用降低 14 倍

PrismML 正式推出 1-Bit Bonsai 系列模型,这是全球首批具备商业可行性的 1 比特权重 LLM。该系列包含 8B、4B 及 1.7B 三种规格,旨在解决大型模型无法适配智能手机及数据中心能耗过高的问题。其中 8B 版本仅需 1.15GB 内存,性能却能媲美主流全精度 8B 模型,标志着端侧 AI 与机器人领域迎来重大突破。

Hacker News

核心要点

  • 极致压缩率:1-Bit Bonsai 8B 模型的内存占用仅为 1.15GB,较全精度模型缩小了 14 倍。
  • 卓越性能表现:运行速度提升 8 倍,能效提高 5 倍,且在基准测试中与领先的 8B 模型持平。
  • 端侧设备适配:1.7B 版本在 iPhone 17 Pro Max 上可达 130 tokens/s,4B 版本在 M4 Pro 上可达 132 tokens/s。
  • 高智能密度:通过 1 比特权重技术,实现了超过全精度 8B 模型 10 倍以上的智能密度。
  • 应用场景广泛:专为机器人、实时智能体(Agents)及边缘计算等对功耗和速度敏感的场景设计。

详细分析

突破性的 1 比特量化技术

PrismML 推出的 1-Bit Bonsai 系列解决了当前大模型部署的核心痛点:内存占用过高。通过将权重压缩至 1 比特,8B 参数规模的模型仅需 1.15GB 内存即可运行。这种“超高密度智能”技术不仅让模型能够轻松装入智能手机,还显著降低了数据中心的运行成本。1-Bit Bonsai 8B 在大幅减小体积的同时,依然在 IFEval、GSM8K、MMLU-Redux 等多项基准测试中保持了与全精度模型相当的准确度。

针对边缘计算与移动端的深度优化

该系列模型针对不同硬件平台进行了极致优化。1-Bit Bonsai 4B 版本在 M4 Pro 芯片上展现了惊人的 132 tokens/s 处理速度,而最轻量化的 1.7B 版本(仅 0.24GB 内存占用)在 iPhone 17 Pro Max 上也能达到 130 tokens/s。这种低延迟、低功耗的特性,使其成为实时机器人控制和移动端 AI 应用的理想选择,真正实现了“将大模型放进口袋”。

行业影响

PrismML 的这一发布标志着 AI 模型从“参数竞赛”转向“效率竞赛”。1-Bit Bonsai 的商用化证明了极低比特量化模型在保持高性能的同时,可以极大地降低硬件门槛。这将加速 AI 在机器人、可穿戴设备及各类边缘侧硬件中的普及,改变目前大模型过度依赖云端算力的现状,推动端侧 AI 时代的全面到来。

常见问题

什么是“智能密度”?

根据 PrismML 的定义,智能密度是指模型误差率的负对数除以模型大小。1-Bit Bonsai 8B 的智能密度是传统全精度 8B 模型的 10 倍以上,意味着它在单位存储空间内提供了更高的智能水平。

1-Bit Bonsai 8B 相比传统模型有哪些优势?

相比全精度 8B 模型,它拥有 14 倍更小的体积、8 倍的运行速度以及 5 倍的能效提升,且在主流基准测试中表现出色,适合对实时性要求极高的任务。

该模型支持哪些硬件平台?

目前官方数据显示,该系列模型在苹果 M4 Pro 芯片、iPhone 17 Pro Max 以及各类机器人和边缘计算平台上均有优异的性能表现。

相关新闻