xenovacom(@ClementDelangue):这是Transformers.js有史以来速度最快的版本!在浏览器中本地运行一个1.7B的LLM模型,每秒处理超过130个token,无需服务器支持。支持WebGPU加速的浏览器内推理功能,优化了ONNX模型的导出,并提供了带有KV缓存的多轮对话功能。

阿里云创新中心> 创业资讯> xenovacom(@ClementDelangue):这是Transformers.js有史以来速度最快的版本!在浏览器中本地运行一个1.7B的LLM模型,每秒处理超过130个token,无需服务器支持。支持WebGPU加速的浏览器内推理功能,优化了ONNX模型的导出,并提供了带有KV缓存的多轮对话功能。
0

xenovacom(@ClementDelangue):这是Transformers.js有史以来速度最快的版本!在浏览器中本地运行一个1.7B的LLM模型,每秒处理超过130个token,无需服务器支持。支持WebGPU加速的浏览器内推理功能,优化了ONNX模型的导出,并提供了带有KV缓存的多轮对话功能。

齐思GPT 2025-04-23 00:00:00 54
在最近一条由clem 🤗 (@ClementDelangue)发布的推文中,对于那些对机器学习和自然语言处理感兴趣的人来说,有一个令人兴奋的进展。该推文分享了@xenovacom关于Transformers.js性能的更新,这是一个可以在浏览器中完全运行一个拥有1.7亿参数的语言模型(LLM)的库。引人注目的是它运行的印象速度,每秒超过130个标记,这标志着Transformers.js迄今为止的最快速率。这一进步意味着在运行复杂语言模型方面的可访问性和效率的飞跃,可能为直接在浏览器环境中工作的开发人员和
在最近一条由clem 🤗 (@ClementDelangue)发布的推文中,对于那些对机器学习和自然语言处理感兴趣的人来说,有一个令人兴奋的进展。该推文分享了@xenovacom关于Transformers.js性能的更新,这是一个可以在浏览器中完全运行一个拥有1.7亿参数的语言模型(LLM)的库。引人注目的是它运行的印象速度,每秒超过130个标记,这标志着Transformers.js迄今为止的最快速率。这一进步意味着在运行复杂语言模型方面的可访问性和效率的飞跃,可能为直接在浏览器环境中工作的开发人员和研究人员开辟新的可能性。如果你对人工智能和机器学习的最新进展感兴趣,这条推文可能值得你关注。-Transformers.js实现了有史以来最快的速度。 -它可以在浏览器中100%本地运行1.7B LLM。 -速度超过每秒130个令牌。

后缀.jpg

版权声明: 创新中心创新赋能平台中,除来源为“创新中心”的文章外,其余转载文章均来自所标注的来源方,版权归原作者或来源方所有,且已获得相关授权,若作者版权声明的或文章从其它站转载而附带有原所有站的版权声明者,其版权归属以附带声明为准。其他任何单位或个人转载本网站发表及转载的文章,均需经原作者同意。如果您发现本平台中有涉嫌侵权的内容,可填写「投诉表单」进行举报,一经查实,本平台将立刻删除涉嫌侵权内容。