昨晚 Meta 发布了 Llama 3 8B 和 70B 模型,Llama 3 指令调整模型针对对话/聊天用例进行了微调和优化,在常见基准测试中优于许多现有的开源聊天模型。比如,Gemma 7B 和 Mistral 7B。
Llama 3 模型将数据和规模提升到了新的高度。它是在 Meta 最近发布的两个定制的 24K GPU 集群上对超过 15T token 的数据进行训练的,这个训练数据集比 Llama 2 大 7 倍,包括多 4 倍的代码。这使得 Llama 模型的能力达到了目前的最高水平,它支持 8K 上下文长度,是 Llama 2 的两倍。
下面我将介绍 6 种方式,让你快速体验最新发布的 Llama 3!
在线体验 Llama 3
HuggingChat
https://huggingface.co/chat/
llama2.ai
https://www.llama2.ai/
本地体验 Llama 3
LM Studio
https://lmstudio.ai/
CodeGPT
https://marketplace.visualstudio.com/items?itemName=DanielSanMedium.dscodegpt&ssr=false
使用 CodeGPT 前,记得先使用 Ollama 拉取相应的模型。比如,拉取 llama3:8b 模型:ollama pull llama3:8b
。如果你本地尚未安装 ollama,可以阅读 “部署本地的大语言模型,只需几分钟!” 这篇文章。
Ollama
运行 Llama 3 8B 模型:
ollama run llama3
运行 Llama 3 70B 模型:
ollama run llama3:70b
Open WebUI & Ollama
https://pinokio.computer/item?uri=https://github.com/cocktailpeanutlabs/open-webui
赶紧去体验吧,欢迎留言分享你们的体验心得!
原文始发于微信公众号(全栈修仙之路):6 种方式快速体验最新发布的 Llama 3!
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
文章由极客之音整理,本文链接:https://www.bmabk.com/index.php/post/281324.html