作为我们文档重组的一部分,此页面正在逐步淘汰。
点击此卡片跳转到包含最新信息的更新版本。
如果您在新的文档中发现任何差异或需要改进的地方,请使用页面底部的“报告问题”按钮。
dify
并拷贝到了 /usr/local/bin
路径下,可以运行以下命令创建新的插件项目:
LLM
类型插件模板。
predefined-model
预定义模型
常见的大模型类型,只需要配置统一的供应商凭据即可使用模型供应商下的预定义模型。例如,OpenAI
模型供应商下提供 gpt-3.5-turbo-0125
和 gpt-4o-2024-05-13
等一系列预定义模型。详细开发说明请参考接入预定义模型。
customizable-model
自定义模型
需要手动新增每个模型的凭据配置,例如 Xinference
,它同时支持 LLM 和 Text Embedding,但是每个模型都有唯一的 model_uid,如果想要将两者同时接入,需要为每个模型配置一个 model_uid。详细开发说明请参考接入自定义模型。
predefined-model
+ customizable-model
或 predefined-model
等,即配置了供应商统一凭据可以使用预定义模型和从远程获取的模型,若新增了模型,则可以在此基础上额外使用自定义的模型。
/providers
路径下自动生成配置文件。
以下是 Anthropic
模型配置文件 anthropic.yaml
的示例代码:
OpenAI
提供微调模型,需要添加model_credential_schema
字段。
以下是 OpenAI
家族模型的示例代码:
/providers
文件夹下创建一个同名的 python 文件,例如 anthropic.py
并实现一个 class
,继承 __base.provider.Provider
基类,例如 AnthropicProvider
。
以下是 Anthropic
示例代码:
__base.model_provider.ModelProvider
基类,实现 validate_provider_credentials
供应商统一凭据校验方法即可。
validate_provider_credentials
实现,在模型凭据校验方法实现后直接复用。
Xinference
这样的自定义模型供应商,可以跳过完整实现的步骤。只需创建一个名为 XinferenceProvider
的空类,并在其中实现一个空的 validate_provider_credentials
方法。
具体说明:
• XinferenceProvider
是一个占位类,用于标识自定义模型供应商。
• validate_provider_credentials
方法虽然不会被实际调用,但必须存在,这是因为其父类是抽象类,要求所有子类都实现这个方法。通过提供一个空实现,可以避免因未实现抽象方法而导致的实例化错误。