Ollama-AI大模型本地运行工具,Windows安装详细步骤

一、关于Ollama

1.1 简介

Ollama是一个专为在本地环境中运行和定制大型语言模型而设计的工具。它提供了一个简单而高效的接口,用于创建、运行和管理这些模型,同时还提供了一个丰富的预构建模型库,可以轻松集成到各种应用程序中。Ollama的目标是使大型语言模型的部署和交互变得简单,无论是对于开发者还是对于终端用户。

Get up and running with large language models.

Ollama-AI大模型本地运行工具,Windows安装详细步骤
image

Ollama官网

Ollama-AI大模型本地运行工具,Windows安装详细步骤

1.2 功能特点

  • 能直接运行大模型,与大模型进行对话。
  • ollama 命令具有管理大模型的能力。
  • 利用 cpu 运行大模型。
  • 本地大模型安全可靠。
  • 终端直接开始聊天。
  • 社区提供了支持 web api 方式访问 WebUI。

本地运行能力:Ollama允许用户在本地机器上部署和运行语言模型,无需依赖外部服务器或云服务,这极大地提高了数据处理的隐私性和安全性。

多平台支持:Ollama支持多种操作系统,包括macOS、Windows和Linux,以及Docker环境,使得不同平台的用户都能轻松使用。

灵活的模型自定义:用户可以通过Ollama的Modelfile来定制模型参数和行为,实现模型的个性化设置,满足特定的应用需求。

丰富的API和库支持:Ollama提供了Python和JavaScript库,以及CLI和REST API,方便开发者集成到各种应用中。

模型库和导入支持:Ollama支持从多种格式导入模型,如GGUF、PyTorch和Safetensors,同时也提供了一个模型库,方便用户选择和使用。

Ollama支持多种操作系统,包括但不限于:

  • macOS:适用于所有现代版本的macOS。
  • Windows:支持Windows 10及更高版本。
  • Linux:支持多种Linux发行版,如Ubuntu、Fedora等。
  • Docker:通过Docker容器,Ollama可以在几乎任何支持Docker的环境中运行。

这种广泛的操作系统支持确保了Ollama的可用性和灵活性,使得不同环境下的用户都能轻松使用。

二、下载安装

2.1 下载

通过如下链接下载

Download Ollama on Windows

Ollama-AI大模型本地运行工具,Windows安装详细步骤

Ollama-AI大模型本地运行工具,Windows安装详细步骤

Ollama-AI大模型本地运行工具,Windows安装详细步骤

(由于网络原因,下载比较慢或失败,可私信获取安装包)

2.2 安装

双击安装包安装

Ollama-AI大模型本地运行工具,Windows安装详细步骤

2.3 验证

进入cmd或PowerShell界面,输入如下命令,显示版本则安装成功

 Ollama -v

Ollama-AI大模型本地运行工具,Windows安装详细步骤

三、大模型下载

下面介绍三种通过 Ollama 下载大模型到本地方式:

  1. 方式一:直接通过 Ollama 远程仓库下载,这是最直接的方式,也是最推荐、最常用的方式
  2. 方式二:如果已经有 GGUF 模型权重文件了,不想重新下载,也可以通过 Ollama 把该文件直接导入到本地(不推荐、不常用)
  3. 方式三:如果已经有 safetensors 模型权重文件,也不想重新下载,也可以通过 Ollama 把该文件直接导入到本地(不推荐、不常用)

3.1 远程仓库大模型列表

通过如下链接,进入ollama大模型仓库

library

Ollama-AI大模型本地运行工具,Windows安装详细步骤

这里以通义大模型为例,可以看到不同参数,对应模型大小。

Ollama-AI大模型本地运行工具,Windows安装详细步骤

3.2 通过命令执行下载并运行大模型

这里选择通义0.5b参数的模型:

下载命令

ollama pull qwen2:0.5b

下载+运行命令

ollama run qwen2:0.5b

Ollama-AI大模型本地运行工具,Windows安装详细步骤

Ollama-AI大模型本地运行工具,Windows安装详细步骤

3.3 测试—大模型对话

Ollama-AI大模型本地运行工具,Windows安装详细步骤

可以看到大模型在本地运行起来,并可以进行对话。后续教程会分享大模型应用,集成到java springboot项目中。

四、Ollama命令

Ollama作为一个开源的大型语言模型服务工具,提供了一系列的命令来帮助用户安装、配置、运行和管理大型语言模型。以下是一些基本的Ollama命令介绍:

【展示本地大模型列表:ollama list

>ollama list
NAME            ID              SIZE    MODIFIED
gemma2:9b       c19987e1e6e2    5.4 GB  7 days ago
qwen2:7b        e0d4e1163c58    4.4 GB  10 days ago

可以看到,上述有 2 个大模型,它们的名称(NAME)分别为gemma2:9bqwen2:7b

【删除单个本地大模型:ollama rm 本地模型名称

>ollama rm gemma2:9b
deleted 'gemma2:9b'

>
ollama list
NAME            ID              SIZE    MODIFIED
qwen2:7b        e0d4e1163c58    4.4 GB  10 days ago

通过rm命令删除了gemma2:9b大模型之后,再次通过list命令查看,本地只有qwen2:7b一个大模型了。

【启动本地模型:ollama run 本地模型名

>ollama run qwen2:0.5b
>>>

启动成功之后,就可以通过终端对话界面进行对话了(本命令下面也会讲到,其他详细暂且忽略)

【查看本地运行中模型列表:ollama ps

>ollama ps
NAME            ID              SIZE    PROCESSOR       UNTIL
qwen2:0.5b      6f48b936a09f    693 MB  100% CPU        4 minutes from now

通过ps命名可以看到,本地qwen2:0.5b大模型正在运行中。

Ollama-AI大模型本地运行工具,Windows安装详细步骤

【复制本地大模型:ollama cp 本地存在的模型名 新复制模型名

>ollama cp qwen2:0.5b Qwen2-0.5B
copied 'qwen2:0.5b' to 'Qwen2-0.5B'

>
ollama list
NAME                    ID              SIZE    MODIFIED
Qwen2-0.5B:latest       6f48b936a09f    352 MB  4 seconds ago
qwen2:0.5b              6f48b936a09f    352 MB  29 minutes ago
qwen2:7b                e0d4e1163c58    4.4 GB  10 days ago

上面cp命令,把本地qwen2:0.5b复制了一份,新模型名为Qwen2-0.5B


原文始发于微信公众号(技海拾贝):Ollama-AI大模型本地运行工具,Windows安装详细步骤

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

文章由极客之音整理,本文链接:https://www.bmabk.com/index.php/post/300550.html

(0)
小半的头像小半

相关推荐

发表回复

登录后才能评论
极客之音——专业性很强的中文编程技术网站,欢迎收藏到浏览器,订阅我们!