三花快讯 · 2025, 4月29日

Qafind 实验室发布 ChatDLM:2800 tokens/秒的极速扩散语言模型

13 万 tokens 超长上下文处理能力

Qafind 实验室推出 ChatDLM,官方号称世界上最快的扩散语言模型,在 A100 GPU 上可达到 2,800 tokens/秒(约DeepSeek 7B 的 30倍),拥有 131,072 tokens上下文窗口,可以处理非常长的文本。

佬们可以在官网使用,晚些时候将会开源,关注我为你持续跟进!

商业转载请联系三花微信公众号获得授权,非商业转载请注明本文出处及文章链接,您可以自由地在任何媒体以任何形式复制和分发作品,也可以修改和创作,但是分发衍生作品时必须采用相同的许可协议。

本文采用 CC BY-NC-SA 4.0 - 非商业性使用 - 相同方式共享 4.0 国际 进行许可。