reach_vb(@ClementDelangue):哇!Mistral刚刚发布了一个24B SOTA多语言、多模态LLM,具有128K上下文和Apache 2.0许可证🔥

阿里云创新中心> 创业资讯> reach_vb(@ClementDelangue):哇!Mistral刚刚发布了一个24B SOTA多语言、多模态LLM,具有128K上下文和Apache 2.0许可证🔥
0
0

reach_vb(@ClementDelangue):哇!Mistral刚刚发布了一个24B SOTA多语言、多模态LLM,具有128K上下文和Apache 2.0许可证🔥

齐思GPT 2025-03-18 00:00:00 156
在Hugging Face的联合创始人兼首席执行官Clement Delangue最近的一条推文中,他转发了有关Mistral发布一款开创性语言模型的公告。这款模型以其庞大的240亿参数而著称,使其成为自然语言处理领域的尖端工具。它的多语言和多模态功能使其能够理解和生成多种语言和格式的内容。此外,该模型拥有令人印象深刻的128,000个标记上下文窗口,可以处理大段文本。
在Hugging Face的联合创始人兼首席执行官Clement Delangue最近的一条推文中,他转发了有关Mistral发布一款开创性语言模型的公告。这款模型以其庞大的240亿参数而著称,使其成为自然语言处理领域的尖端工具。它的多语言和多模态功能使其能够理解和生成多种语言和格式的内容。此外,该模型拥有令人印象深刻的128,000个标记上下文窗口,可以处理大段文本。这次发布尤为重要的地方在于,Mistral将该模型以宽松的Apache 2.0许可证提供,这可能对希望在人工智能领域进行创新但受到限制性许可障碍的开发人员和研究人员产生广泛影响。这条推文可能会引起人工智能社区中那些热衷于探索语言模型最新进展的人的极大兴趣。- Mistral发布了一款具有128K上下文的24B SOTA多语言、多模态LLM。 - 该LLM采用Apache 2.0许可证。

后缀.jpg

版权声明: 创新中心创新赋能平台中,除来源为“创新中心”的文章外,其余转载文章均来自所标注的来源方,版权归原作者或来源方所有,且已获得相关授权,若作者版权声明的或文章从其它站转载而附带有原所有站的版权声明者,其版权归属以附带声明为准。其他任何单位或个人转载本网站发表及转载的文章,均需经原作者同意。如果您发现本平台中有涉嫌侵权的内容,可填写「投诉表单」进行举报,一经查实,本平台将立刻删除涉嫌侵权内容。

评论

登录后可评论
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等

登录插画

登录以查看您的控制台资源

管理云资源
状态一览
快捷访问