GPU训Llama 3.1疯狂崩溃,竟有大厂用CPU服务器跑千亿参数大模型?
Micheli
2024-08-02 00:00:00
84
在人工智能模型训练领域的一项令人惊讶的进展中,来自浪潮信息的一位研究工程师展示了传统上被认为不太适合此任务的CPU服务器可以有效地运行具有数十亿参数的大规模人工智能模型。
在人工智能模型训练领域的一项令人惊讶的进展中,来自浪潮信息的一位研究工程师展示了传统上被认为不太适合此任务的CPU服务器可以有效地运行具有数十亿参数的大规模人工智能模型。这一突破挑战了对高端GPU服务器的依赖,后者以速度快而闻名,但也以高昂的成本和偶尔的不可靠性而著称。通过采用创新技术,如张量并行和NF4量化,该工程师能够仅使用4个CPU在CPU服务器上优化一个数十亿参数的模型。这种方法不仅显著降低了成本,还利用了CPU服务器的优势,如更大的内存容量和CPU之间的高效数据传输。这一内容可能会改变行业部署大规模人工智能模型的方式,对于那些对人工智能硬件不断发展的人来说,这是一篇必读之文。- 大厂使用CPU服务器跑千亿参数大模型,因为GPU训练存在稳定性问题。
- GPU的供应不足,且基于GPU的云服务租用成本高昂。
- 通用服务器具备高内存容量和高带宽,适合运行大模型。
- 浪潮信息通过张量并行和NF4量化技术实现了千亿参数大模型的实时推理。
- 通用算力能够支持千亿参数大模型的运行,填补了行业空白。
- 通用算力的创举节约了建设成本,广泛应用于金融、医疗、教育等领域。
版权声明:
创新中心创新赋能平台中,除来源为“创新中心”的文章外,其余文章均来自所标注的来源,版权归原作者或来源方所有,且已获得相关授权,创新中心「创业资讯」平台不拥有其著作权,亦不承担相应法律责任。如果您发现本平台中有涉嫌侵权的内容,可填写
「投诉表单」进行举报,一经查实,本平台将立刻删除涉嫌侵权内容。