大模型的应用场景不断拓展,从云端走向端侧已是大势所趋。端侧大模型的崛起,不仅满足了实时性、隐私保护和离线能力的需求,还在硬件性能提升、轻量化模型发展以及政策支持的多重推动下,展现出巨大的市场潜力。以Deepseek为例,上市首月便火爆全网,迅速在多个行业铺开。在汽车行业,20+车企官宣接入Deepseek,合作应用涵盖座舱、运营以及私有模型优化等多个领域。企业纷纷借助后训练与领域数据,定制私有模型,提升竞争力和价值。这一现象展示了大模型的强大潜力,也引发了行业对模型迭代和升级问题的思考。随着大模型训练的加速,升级问题逐渐浮出水面。基于压缩包来看,想要通过压缩来缩小包的大小基本是徒劳。原因是大模型的文件结构复杂,数据量庞大,而且本身已经经过高度压缩(量化),进一步压缩的难度极大且耗时。因此,完整的 OTA 升级包体积庞大,传输和更新过程缓慢。基于模型运用和升级包来看,不难发现,和海量的模型数据相比,迭代的数据只是微调,而要升级的却是全量。两者形成天然矛盾。差分升级成为在有限的端侧资源下实现高效升级的优解。在车联网场景下,差分升级不仅降低了流量成本,还实现了无感更新,极大提升了用户体验。对于车企而言,这意味着更低的运营成本和更快的产品迭代速度。在无网络或网络不稳定的环境下,差分升级仍能高效完成,确保模型的持续优化。差分升级技术的价值不仅限于车联网场景。随着端侧大模型的普及,越来越多的应用开始依赖本地化部署的AI模型。例如,手机端的语音助手、智能家居中的控制系统,都可以通过差分升级实现快速迭代。差分升级并不是一个全新的概念,它早已在手机应用、操作系统、汽车等众多领域得到广泛应用。艾拉比作为差分升级领域的领军者,把最新的基于大模型文件的差分升级算法最优效果和大家分享。我们通过比较在原始浮点格式和量化格式下的文件大小和差分效果发现,艾拉比在差分包大小和差分时间上均实现了双重突破。与某开源算法相比,艾拉比的ABDiff-M技术通过智能化的差分算法框架,能够精准识别大模型版本间的差异,生成极小的差分包,还显著缩短了升级时间,为行业带来了全新的解决方案。(开源信息见文末)我们选取市面最热门的模型,将某开源差分算法和艾拉比ABDiff-M进行比较,得到如下结果:
差分包大小:以DeepSeek的1.5B 4比特模型为例,ABDiff-M生成的差分包仅为90MB,而开源算法需要400MB,艾拉比差分包大小仅为原包的5.7%,是开源算法差分包的22.5%。对于8B 4比特模型,ABDiff-M的差分包大小为0.27GB,而开源算法需要1.35GB,艾拉比差分包大小为原包的5.2%,是开源算法差分包的19.9%。差分时间:以DeepSeek的1.5B 4比特模型为例,ABDiff-M的升级时间为开源算法的50%。8B 2比特模型的升级时间是开源算法的51%。
(1.5B uncensored即 thirdeyeai/DeepSeek-R1-Distill-Qwen-1.5B-uncensored )(8B Huihui即huihui-ai/DeepSeek-R1-Distill-Llama-8B-abliterated)
随着端侧大模型的广泛应用,差分升级技术的重要性愈发凸显。艾拉比的ABDiff-M算法通过智能化的差分框架和高效的压缩技术,不仅大幅减少了差分包的大小和升级时间,还支持多线程还原和流式升级,显著提升了端侧设备的升级效率。未来,随着硬件性能的进一步提升和模型优化技术的不断发展,端侧大模型的应用场景将进一步扩展。差分升级技术作为端侧大模型迭代的关键,将在未来发挥越来越重要的作用。1.5B: https://huggingface.co/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B1.5B uncensored: https://huggingface.co/thirdeyeai/DeepSeek-R1-Distill-Qwen-1.5B-uncensored8B: https://huggingface.co/deepseek-ai/DeepSeek-R1-Distill-Llama-8B8B Huihui: https://huggingface.co/huihui-ai/DeepSeek-R1-Distill-Llama-8B-abliterated