1. FluxNode API
文档
  • FluxNode API
    • 01-前言
    • 02-如何使用FluxNode
    • 03-Claude-Code配置教程
    • 04-Cursor配置教程
    • 05-Windsurf配置教程
    • 06-Cline配置教程
    • 07-Trae配置教程
    • 08-Aider配置教程
    • 09-Gemini-CLI配置教程
    • 10-OpenAI-Codex配置教程
    • 11-Cherry-Studio配置教程
    • 12-ChatBox配置教程
    • 13-LobeChat配置教程
    • 14-NextChat配置教程
    • 15-沉浸式翻译配置教程
    • 16-Dify配置教程
    • 17-N8N工作流配置教程
    • 18-OpenClaw配置教程
    • 19-OpenClaw配置API教程
    • 20-OpenCode配置API教程
    • 21-OpenAI-SDK使用教程
    • 22-高并发批量请求示例
    • 23-模型兼容性说明
    • 24-常见问题FAQ
    • 25-联系客服
    • README
    • 模型信息
      • 列出可用模型
      • 列出单个模型
    • 聊天模型(Chat)
      • 聊天接口(通用)
      • 聊天接口(图片分析)
      • 聊天接口(函数调用)
      • 聊天接口(o1-o3系列模型)
      • gpt-4o-all 文件分析
      • gpt-4-all 文件分析
      • 聊天补全
      • Claude (OpenAI格式)-可PDF分析
      • Claude (原生格式)-可PDF分析
      • Gemini (OpenAI格式)-可文件分析
      • Gemini (原生格式)-可文件分析
      • GPTs
  1. FluxNode API

16-Dify配置教程

Dify 是一款开源的 LLM 应用开发平台,可以快速搭建 AI 应用、工作流和 Agent。

在 Dify 中配置 FluxNode#

1. 进入模型提供商设置#

1.
登录 Dify 后台
2.
点击右上角头像 → 「设置」
3.
选择「模型提供商」

2. 添加 OpenAI 兼容模型#

1.
找到 OpenAI-API-compatible 提供商
2.
点击「添加模型」
3.
填写:
配置项值
模型名称gpt-4o(或其他模型名)
模型类型LLM
API Keysk-你的令牌
API Endpoint URLhttps://api.fluxnode.org/v1
4.
点击保存

3. 添加多个模型#

重复上述步骤,为每个需要的模型添加配置:
claude-sonnet-4-20250514
gpt-4o-mini
deepseek-chat
等等

4. 配置嵌入模型(可选)#

如果需要使用知识库功能:
1.
添加模型,类型选择 Text Embedding
2.
模型名称:text-embedding-3-small
3.
API Key 和 Endpoint 同上

在应用中使用#

配置完成后,在创建应用或工作流时,就可以选择 FluxNode 提供的模型了。

常见问题#

模型验证失败#

确认 API Endpoint URL 末尾有 /v1
确认模型名称拼写正确
确认令牌有效且有余额
修改于 2026-03-18 10:52:53
上一页
15-沉浸式翻译配置教程
下一页
17-N8N工作流配置教程
Built with