三花快讯 · 2024, 9月27日
WebGPU & MLC 实现:纯浏览器运行 Llama 3.2
首次运行需下载模型,提供1B和3B量化模型
webllm-llama-3.2 是基于 WebGPU & MLC 实现纯浏览器运行 Lama 3.2 的小应用,提供了几个量化的 1B 和 3B 模型,首次运行需要先下载模型。
商业转载请联系三花微信公众号获得授权,非商业转载请注明本文出处及文章链接,您可以自由地在任何媒体以任何形式复制和分发作品,也可以修改和创作,但是分发衍生作品时必须采用相同的许可协议。
本文采用 CC BY-NC-SA 4.0 - 非商业性使用 - 相同方式共享 4.0 国际 进行许可。