认识一下HIGGS - 一种由Yandex和领先的科技大学研究人员开发的新LLM压缩方法。

阿里云创新中心> 创业资讯> 认识一下HIGGS - 一种由Yandex和领先的科技大学研究人员开发的新LLM压缩方法。
0
0

认识一下HIGGS - 一种由Yandex和领先的科技大学研究人员开发的新LLM压缩方法。

齐思GPT 2025-04-12 00:00:00 88
来自Yandex和全球顶尖大学的研究人员开发了HIGGS,一种用于压缩大型语言模型(LLMs)的突破性方法。这种技术以在性能较弱设备上保持高性能并保持模型质量的能力脱颖而出。值得注意的是,HIGGS已被用于压缩一个庞大的6710亿参数模型DeepSeek R1,而没有明显的降级,这在量化方法领域是首次。现在HIGGS已在Hugging Face和GitHub上提供,其可访问性是一个改变游戏规则的因素,通过使先进的LLMs更加负担得起和可行,使其对更广泛的用户群体,包括小公司和个人研究人员,更加可及。
来自Yandex和全球顶尖大学的研究人员开发了HIGGS,一种用于压缩大型语言模型(LLMs)的突破性方法。这种技术以在性能较弱设备上保持高性能并保持模型质量的能力脱颖而出。值得注意的是,HIGGS已被用于压缩一个庞大的6710亿参数模型DeepSeek R1,而没有明显的降级,这在量化方法领域是首次。现在HIGGS已在Hugging Face和GitHub上提供,其可访问性是一个改变游戏规则的因素,通过使先进的LLMs更加负担得起和可行,使其对更广泛的用户群体,包括小公司和个人研究人员,更加可及。这一方法的重要性在arXiv上的一篇科学论文中进一步详细阐述,为那些对技术细节感兴趣的人提供了深入了解的机会。- 研究人员来自Yandex研究、俄罗斯国立高等经济学院、麻省理工学院、沙特阿拉伯国王科技大学和ISTA。 - 他们开发了一种名为HIGGS的新型压缩方法,用于压缩大型语言模型。 - HIGGS方法在性能上表现出色,即使在性能较弱的设备上也能保持较高的质量。 - 该方法可以快速测试和实施基于神经网络的新解决方案,节省开发时间和金钱。 - 这使得大型和小型公司、非营利实验室和研究机构、个人开发者和研究人员都能更容易地使用LLM。 - 该方法已经在Hugging Face和GitHub上可用。 - 可以在arXiv上阅读有关该方法的科学论文。

后缀.jpg

版权声明: 创新中心创新赋能平台中,除来源为“创新中心”的文章外,其余转载文章均来自所标注的来源方,版权归原作者或来源方所有,且已获得相关授权,若作者版权声明的或文章从其它站转载而附带有原所有站的版权声明者,其版权归属以附带声明为准。其他任何单位或个人转载本网站发表及转载的文章,均需经原作者同意。如果您发现本平台中有涉嫌侵权的内容,可填写「投诉表单」进行举报,一经查实,本平台将立刻删除涉嫌侵权内容。

评论

登录后可评论
上一篇:指数(@exponet_run)
下一篇:Blog Post