Ollama 本地运行 Llama 2、Mistral、Gemma 和其他大型语言模型

Ollama 是一个开源的大型语言模型服务,提供了类似 OpenAI 的 API 接口和聊天界面,可以非常方便地部署最新版本的 GPT 模型并通过接口使用。支持热加载模型文件,无需重新启动即可切换不同的模型。
快速开始
进入 容器 列表,找到 Ollama 容器,点击进入终端运行并与 Llama 2 聊天:
ollama run llama2
模型库
Ollama 支持 ollama.com/library 上提供的一系列模型
以下是一些可以下载的示例模型:
Model | Parameters | Size | Download |
---|---|---|---|
Llama 2 | 7B | 3.8GB | ollama run llama2 |
Mistral | 7B | 4.1GB | ollama run mistral |
Dolphin Phi | 2.7B | 1.6GB | ollama run dolphin-phi |
Phi-2 | 2.7B | 1.7GB | ollama run phi |
Neural Chat | 7B | 4.1GB | ollama run neural-chat |
Starling | 7B | 4.1GB | ollama run starling-lm |
Code Llama | 7B | 3.8GB | ollama run codellama |
Llama 2 Uncensored | 7B | 3.8GB | ollama run llama2-uncensored |
Llama 2 13B | 13B | 7.3GB | ollama run llama2:13b |
Llama 2 70B | 70B | 39GB | ollama run llama2:70b |
Orca Mini | 3B | 1.9GB | ollama run orca-mini |
Vicuna | 7B | 3.8GB | ollama run vicuna |
LLaVA | 7B | 4.5GB | ollama run llava |
Gemma | 2B | 1.4GB | ollama run gemma:2b |
Gemma | 7B | 4.8GB | ollama run gemma:7b |
注意:您应该至少有 8 GB 可用 RAM 来运行 7B 型号,16 GB 来运行 13B 型号,32 GB 来运行 33B 型号。
延伸阅读
-
DeepSeek服务器“裸奔”互联网现漏洞 专家提醒:立即修改配置
连日来,伴随DeepSeek大模型在各领域的迅速流行,越来越多的公司和个人选择将该开源大模型私有化部署或本地部署。值得一提的是,进行此类部署的主流方式之一是使用开源大型语言模型服务工具“Ollama”
-
国产大模型deepseek-R1本地部署手册
近期deepseek多次冲上热搜,又是多模态支持,又是开源发布R1模型,最近还受到了网络攻击。这篇文章介绍下如何快速部署deepseek-R1,本地访问,因为目前提供了最低7B数据集的模型。部署方案
[广告]赞助链接:
关注数据与安全,洞悉企业级服务市场:https://www.ijiandao.com/
让资讯触达的更精准有趣:https://www.0xu.cn/

随时掌握互联网精彩
- 加密货币交易所Bybit被盗14亿美元后续:朝鲜黑客入侵SafeWallet实现攻击
- 微信内测查删单向好友功能上热搜 网友:不用转账测试了
- 本周招聘职位更新!简历投起来
- 第三代骁龙8cx计算平台,为移动PC而生
- 历史上的今天:第一台可编程机电子计算机诞生;硅谷先驱出生;饭否上线
- CISO 与安全供应商之间该怎么建立良好的关系
- 新年第一天,3000台Apache服务器宕机
- 网络尖刀蝉联九年腾讯TSRC年度优秀合作伙伴
- 硬件工程师年薪26万美元、软件工程师30万,在谷歌打工“香”吗?
- 在Z|贝壳找房(80万/年)、上海百胜(56万/年)招贤;9年IT、6年信安经验求职信安总监
- 1 分钟带你认识从 "�" 到 "锟斤拷"
- 众善之源 or 万恶之源?详析微服务的好与坏
赞助链接