Skip to content

Ollama安装与使用

Ollama

介绍

Ollama 是一个开源的本地大语言模型部署与管理工具,2023 年底应运而生,核心作用是简化各类开源大语言模型在本地设备的部署、运行与管理流程,无需复杂环境配置

  • 提供 REST API 和 Python/JavaScript SDK,能轻松与 LangChain 等框架无缝集成,方便开发者将本地模型嵌入到自己的应用程序中。
  • 自动检测 GPU 并启用加速,若无 GPU 也可使用 CPU 运行
  • 丰富的模型兼容能力

安装Ollama

Ollama下载地址 。 文件大概1.2GB,可以使用下载工具提高速度。

安装方法一

  • 下载后双击安装包,运行安装。默认安装在C盘的用户目录下。

image-20251109155719954

安装方法二

  • 通过下面方法指定安装位置。
  • 进入安装包所在目录,打开CMD,输入下面命令
shell
OllamaSetup.exe /DIR="d:\some\location"

安装成功后查看版本:打开CMD,输入下面命令查看Ollama版本

shell
ollama -v

# 看到版本信息表示安装成功
C:\Users\zlj3>ollama -v
ollama version is 0.12.10

# 查看其它命令
ollama -h

设置Ollama

设置模型下载地址和网络访问

  • 打开Ollama主界面——Settings,Model location选择模型保存位置

  • 同时,打开“Expose Ollama to the network”

image-20251109171222902

下载运行模型

下载并运行模型步骤

  • 打开Ollama官网,选择模型。例如选择deepseek-r1:1.5b,点击复制按钮
  • 打开CMD,输入下面命令下载并运行模型
shell
ollama run deepseek-r1:1.5b
  • 等待下载完成,即可进行对话。
  • 按CTRL+D退出

常用命令

shell
# 查看已下载的模型
ollama list

# 查看正在运行的模型
ollama ps

# 下载指定模型。下载速度一般,不支持断点续传,建议利用晚上时间下载,第二天查看下载结果
ollama pull codegeex4:latest

# 停止运行指定模型
ollama stop codegeex4:latest

参考资料

调用Ollama

前提条件:下载并运行模型

Chatbox调用

Chatbox 是一款开源跨全平台的 AI 聊天客户端。下载安装教程:《Chatbox安装与使用》

Chatbox 调用Ollama

  • 设置——添加模型提供方——选择Ollama,填写运行Ollama主机的地址。例如:http://127.0.0.1:11434/v1/chat/completions
  • 点击获取,看到模型列表后,点击模型的加号

image-20251109171453312

  • Chatbox主界面——选择模型,开始聊天

image-20251110141248362

代码调用

安装 langchain

bash
pip install langchain

代码调用

python
from langchain.chat_models import init_chat_model

# 连接到Ollama API
MODEL = "deepseek-r1:7b"
BASE_URL = "http://127.0.0.1:11434/v1"
chat_model = init_chat_model(model=MODEL, model_provider="openai", base_url=BASE_URL)

# # 非流式提问
# query = "你是?"
# response = chat_model.invoke(query)
# response.pretty_print()

# 流式提问
query = "你能做什么?"
for chunk in chat_model.stream(query):
    print(chunk.text, end="", flush=True)

输出结果示例

bash
<think>

</think>

作为一个通用领域的人工智能,我可以帮助您回答问题,提供信息,或者进行愉快的聊天。您不管有什么话题都可以找我聊聊~