跳到主要内容

大模型配置指南

本指南将帮助您快速配置本地或远程大模型,以满足推理需求。

1. 本地模型配置

1.1 模型地址配置

默认情况下,Ollama 处于启用状态,系统会自动设置为本地地址。

  • 修改地址:支持手动更改为远程 Ollama 服务器。
  • 重置地址:点击 “重置” 按钮,恢复默认本地地址。
  • 检测可用模型:点击 “检查” 按钮,系统将探测 Ollama 服务器上的可用模型,并在界面上显示结果。

模型配置界面

1.2 模型下载

1.2.1 热门模型下载

  • 系统会根据设备的显存和内存情况,筛选适配的模型。
  • 选择合适的模型规格后,点击 “下载” 按钮开始下载。

Ollama 模型下载界面

1.2.2 URL 下载(支持 Hugging Face 和 Ollama)

2. Hugging Face 模型下载指南

DeepSeek R1 Distill 为例,下载流程如下:

  1. 访问模型主页:DeepSeek R1 Distill
  2. 复制 模型 ID(如 deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B)。
  3. Argo > 模型 URL 下载 页面粘贴模型 ID。
  4. 点击 “下载” 按钮,系统解析并显示模型信息。
  5. 默认量化方式为 q8_0,可根据需求调整。
  6. 确认信息后,点击 “OK” 开始下载。

示例截图:

Hugging Face 模型 ID 复制

解析 Hugging Face 模型信息

Hugging Face 模型下载中

3. Ollama 模型下载指南

DeepSeek R1 为例,下载流程如下:

  1. 访问模型主页:DeepSeek R1
  2. 复制 模型 ID(如 deepseek-r1)和 模型规格(如 14b)。
  3. Argo > 模型 URL 下载 页面粘贴相关信息。
  4. 点击 “下载” 按钮,即可开始下载。

示例截图:

Ollama 模型信息获取

解析 Ollama 模型信息

4. 模型 API 服务

Argo 支持多个 API 供应商,提供访问不同大模型的能力。

4.1 配置 API 访问

  • 输入 API Key 并保存。
  • 点击 “检查” 按钮,确保 API 可用。
  • 通过开关按钮启用或禁用 API 供应商。

4.2 SiliconFlow 配置

  • 访问 SiliconFlow 模型(如 Qwen/Qwen2.5-7B-InstructTHUDM/glm-4-9b-chat)。
  • 默认 API 地址:https://api.siliconflow.cn/v1
  • 需要 API Key 进行访问。
  • 采用 OpenAI 官方 Python SDK 进行调用。

SiliconFlow API 配置

4.3 OpenAI 配置

  • 访问 OpenAI 模型(如 gpt-4gpt-4o)。
  • 默认 API 地址:https://api.openai.com/v1
  • 需要 API Key 进行访问。
  • 如果使用代理服务,请手动修改 API URL。

4.4 Anthropic 配置

  • 访问 Anthropic 模型(如 claudesonnet)。
  • 默认 API 地址:https://api.anthropic.com
  • 需要 API Key 进行访问。
  • 支持代理,可手动修改 API URL。

4.5 自定义 OpenAI 兼容 API

  • 支持 OpenAI 兼容 API,可使用 OpenAI 官方 SDK 调用。
  • 需要提供 API KeyAPI URL,并可设置自定义名称。

OpenAI 兼容 API 配置

5. 结语

通过本指南,您可以快速配置并使用本地或云端大模型服务。