DeepSeek团队新作:把代码变成思维链,大模型推理各种能力全面提升
Micheli
2025-02-17 00:00:00
185
DeepSeek团队通过开发一种将代码转化为自然语言思维过程的方法,在人工智能领域取得了重大突破。他们创新的方法涉及将代码转化为名为CODEI/O的数据集。这个数据集是从超过80万个代码文件生成的,已经证明可以提高模型在代码相关任务以及一般推理任务中的表现。这项研究包括了上海交通大学和香港科技大学等知名机构的贡献,表明CODEI/O方法在各种规模的模型上都是有效的。这一进展可能会改变AI和机器学习领域的游戏规则,因为它展示了一种训练模型的新方法,可能会导致更复杂和多功能的AI系统。
DeepSeek团队通过开发一种将代码转化为自然语言思维过程的方法,在人工智能领域取得了重大突破。他们创新的方法涉及将代码转化为名为CODEI/O的数据集。这个数据集是从超过80万个代码文件生成的,已经证明可以提高模型在代码相关任务以及一般推理任务中的表现。这项研究包括了上海交通大学和香港科技大学等知名机构的贡献,表明CODEI/O方法在各种规模的模型上都是有效的。这一进展可能会改变AI和机器学习领域的游戏规则,因为它展示了一种训练模型的新方法,可能会导致更复杂和多功能的AI系统。- DeepSeek团队使用300多万个实例构建了数据集CODEI/O,对Qwen、Llama等模型进行了训练。
- 模型性能在各种类型的推理任务中都有全面提升,包括非代码类的推理任务。
- 作者从CodeMix、PyEdu-R等数据集中收集了80多万份代码文件,使用DeepSeek-V2.5模型进行预处理,生成了350万个样本实例。
- 作者利用DeepSeek-V2.5构建了自然语言思维链(CoT)的训练样本。
- 作者进一步利用了代码的可执行特性,合成了数据质量更高的CODEI/O++。
- 作者采用了两阶段训练策略,先用CODEI/O或CODEI/O++训练推理能力,再用通用指令数据集进行微调。
- Qwen-Coder在代码理解任务上取得了突破性进展,并在阅读理解和推理任务上有明显提升。
- DeepSeek-Coder在CODEI/O的训练下展现了均衡的进步,在各个维度上都实现了稳定的改进。
- Llama在LeetCode-O上的性能提升了将近150%。
- Gemma作为测试中最大的模型,展示了CODEI/O方法在大规模模型上的适用性,在多个关键领域取得了进步。
版权声明:
创新中心创新赋能平台中,除来源为“创新中心”的文章外,其余转载文章均来自所标注的来源方,版权归原作者或来源方所有,且已获得相关授权,若作者版权声明的或文章从其它站转载而附带有原所有站的版权声明者,其版权归属以附带声明为准。其他任何单位或个人转载本网站发表及转载的文章,均需经原作者同意。如果您发现本平台中有涉嫌侵权的内容,可填写
「投诉表单」进行举报,一经查实,本平台将立刻删除涉嫌侵权内容。
评论