在 Open WebUI + Ollama 上运行 DeepSeek-R1-70B 实现调用

news/2025/2/9 3:55:59 标签: ollama, open webui

在 Open WebUI + Ollama 上运行 DeepSeek-R1-70B 实现调用

您可以使用 Open WebUI 结合 Ollama 来运行 DeepSeek-R1-70B 模型,并通过 Web 界面进行交互。以下是完整的部署步骤。


🟢 1. 安装 Ollama

Ollama 是一个本地化的大模型管理工具,它可以在本地运行 DeepSeek-R1-70B。

1.1 下载并安装 Ollama
  • Ubuntu / Debian
    curl -fsSL https://ollama.com/install.sh | sh
    
  • MacOS(Apple Silicon / Intel)
    brew install ollama
    
  • Windows
    参考官方安装指南:Ollama 官网
1.2 确保 Ollama 运行正常

运行以下命令,检查 Ollama 是否安装成功:

ollama -v

如果安装成功,将返回 Ollama 的版本号。


🟢 2. 下载 DeepSeek-R1-70B 模型

在终端中运行以下命令,下载 DeepSeek-R1-70B 模型:

ollama pull deepseek-r1:70b

⚠️ 注意:

  • DeepSeek-R1-70B 需要较高的显存(>=70GB),建议使用 A100 80GB 或 H100 80GB 级别的 GPU 运行。
  • 如果显存不足,可以使用 deepseek-r1:7b 版本:
    ollama pull deepseek-r1:7b
    

🟢 3. 运行 DeepSeek-R1-70B

启动 DeepSeek-R1-70B:

ollama run deepseek-r1:70b

如果您希望它 以 API 方式运行,可以执行:

ollama serve

默认情况下,Ollama API 监听 http://localhost:11434 端口。


🟢 4. 安装 Open WebUI

Open WebUI 提供了一个友好的 Web 界面来调用 Ollama 部署的模型。

4.1 启动 Open WebUI

运行以下 Docker 命令:

docker run -d \
  -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main
  • 这样 Open WebUI 就会运行在 http://localhost:3000
4.2 连接 Ollama
  1. 进入 http://localhost:3000
  2. 登录管理员账户(首次使用会提示创建账户)。
  3. 在左下角点击 “管理员面板” > 选择 “模型管理”
  4. “添加新模型” 处:
    • 模型名称deepseek-r1:70b
    • API 地址http://host.docker.internal:11434
    • 选择 “Ollama 兼容” 模型类型。
  5. 点击 “验证连接”,如果测试成功,说明模型已正确接入。
  6. 保存配置,返回主页,即可在 Web 界面调用 DeepSeek-R1-70B。

🟢 5. 进行 DeepSeek-R1-70B 调用

在 Open WebUI 界面:

  • 选择 deepseek-r1:70b
  • 输入您的问题
  • 点击 发送
  • 享受 DeepSeek-R1-70B 的智能回答 🎉

✅ 总结

  1. 安装 Ollama 并下载 deepseek-r1:70b
  2. 运行 Ollama API (ollama serve)。
  3. 安装 Open WebUI 并连接 Ollama。
  4. 在 Web 界面中使用 DeepSeek-R1-70B 进行推理。

💡 进阶优化

  • 使用 Docker Compose 启动 Open WebUI + Ollama

    version: "3"
    services:
      ollama:
        image: ollama/ollama
        container_name: ollama
        ports:
          - "11434:11434"
        restart: always
    
      open-webui:
        image: ghcr.io/open-webui/open-webui:main
        container_name: open-webui
        ports:
          - "3000:8080"
        depends_on:
          - ollama
        environment:
          - OLLAMA_BASE_URL=http://ollama:11434
        restart: always
    

    然后运行:

    docker compose up -d
    
  • 启用 Web 访问

    ollama serve --host 0.0.0.0
    

🎯 这样,您的 Open WebUI + Ollama + DeepSeek-R1-70B 就可以正常运行了! 🚀


http://www.niftyadmin.cn/n/5843767.html

相关文章

使用conda创建自己的python虚拟环境,与其他python版本独立区分

使用 Conda 创建和使用自己的运行环境非常简单,以下是详细步骤: 1. 安装 Anaconda 或 Miniconda 如果你尚未安装 Anaconda 或 Miniconda,可以访问 Anaconda 官网 或 Miniconda 官网 下载并安装。 2. 创建新的 Conda 虚拟环境 创建虚拟环境…

Vue Dom截图插件,截图转Base64 html2canvas

安装插件 npm install html2canvas --save插件使用 <template><div style"padding: 10px;"><div ref"imageTofile" class"box">发生什么事了</div><button click"toImage" style"margin: 10px;&quo…

PE/西瓜杯

PE 知识点1&#xff1a; PE文件&#xff08;Portable Executable&#xff0c;可移植可执行文件&#xff09;是Windows操作系统中用于可执行文件、动态链接库&#xff08;DLL&#xff09;和驱动程序等二进制文件的标准文件格式。 知识点2&#xff1a; PE文件头 DOS头&#xff1a…

mac下生成.icns图标

笔记原因&#xff1a; 今日需要在mac下开发涉及图标文件的使用及icons文件的生成&#xff0c;所以记录一下。 网络上都是一堆命令行需要打印太麻烦了&#xff0c;写一个一键脚本。 步骤一 将需要生成的png格式文件重命名为“pic.png” mv xxxx.png pic.png 步骤二 下载我…

【STM32系列】利用MATLAB配合ARM-DSP库设计IIR数字滤波器(保姆级教程)

ps.源码放在最后面 设计FIR数字滤波器可以看这里&#xff1a;利用MATLAB配合ARM-DSP库设计FIR数字滤波器&#xff08;保姆级教程&#xff09; 设计IIR滤波器 MATLAB配置 设计步骤 首先在命令行窗口输入"filterDesigner"&#xff0c;接着就会跳出以下界面&#xf…

解锁C#数据校验:从基础到实战的进阶之路

一、引言&#xff1a;数据校验为何如此重要&#xff1f; 在软件开发的广袤领域中&#xff0c;数据校验宛如一座坚固的堡垒&#xff0c;守护着系统的稳定与安全。它是确保数据质量的关键防线&#xff0c;能有效避免错误数据的流入&#xff0c;进而提升系统的整体性能和可靠性。…

JavaScript系列(61)--边缘计算应用开发详解

JavaScript边缘计算应用开发详解 &#x1f310; 今天&#xff0c;让我们深入探讨JavaScript的边缘计算应用开发。边缘计算是一种将计算和数据存储分布到更靠近数据源的位置的架构模式&#xff0c;它能够提供更低的延迟和更好的实时性能。 边缘计算基础架构 &#x1f31f; &am…

STM32-启动文件

STM32-启动文件 简介启动文件栈空间开辟堆空间开辟中断向量表定义复位程序 系统启动流程 简介 STM32 启动文件由 ST 官方提供&#xff0c;由汇编编写&#xff0c;是系统上电复位后执行的第一个程序。 启动文件主要做的工作。 1.初始化堆栈指针 SP _initial_sp 2.初始化程序计…