ChatGLM-6B 是由清华大学团队开发的一个开源的、支持中英双语的对话语言模型,基于General Language Model (GLM) 架构,具有62 亿参数。结合模型量化技术,用户可以在单GPU 卡(A10 或者 V100)上进行部署。ChatGLM-6B 使用了和 ChatGPT 相似的技术,针对中文问答和对话进行了优化。经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈 强 化 学 习 等 技 术 的 加 持 , 62 亿 参 数 的ChatGLM-6B 已经能生成相当符合人类偏好的回答。