三花快讯 · 2024, 9月27日

WebGPU & MLC 实现:纯浏览器运行 Llama 3.2

首次运行需下载模型,提供1B和3B量化模型

webllm-llama-3.2 是基于 WebGPU & MLC 实现纯浏览器运行 Lama 3.2 的小应用,提供了几个量化的 1B 和 3B 模型,首次运行需要先下载模型。

商业转载请联系三花微信公众号获得授权,非商业转载请注明本文出处及文章链接,您可以自由地在任何媒体以任何形式复制和分发作品,也可以修改和创作,但是分发衍生作品时必须采用相同的许可协议。

本文采用 CC BY-NC-SA 4.0 - 非商业性使用 - 相同方式共享 4.0 国际 进行许可。

三花 AI 导航 Logo