没办法,现在用到的国产大模型越来越多,终究需要一个兼容性最好的前端。
花里胡哨都是虚,平平淡淡才是真。ChatGPT-Next-Web高频的更新几乎可以说是唯一的选择。
docker-compose.yml代码
version: "3.9"
services:
chatgpt-next-web:
container_name: chatgpt-next-web
image: yidadaa/chatgpt-next-web
ports:
- 3000:3000
environment:
- OPENAI_API_KEY=中转密钥,支持one-api
- CODE=访问密码
- BASE_URL=中转地址,支持one-api
- CUSTOM_MODELS=自定义模型,详细见下文
- DEFAULT_MODEL=默认模型
- HIDE_USER_API_KEY=1 #不让用户输入密钥使用
- ENABLE_BALANCE_QUERY=1 #支持查看余额
这里的自定义模型,所有字符串从中间用英文逗号隔开
-all,+gpt-4o@OpenAI,+gpt-4o@Azure,+GLM-4-Plus,+GLM-4-Air,+GLM-4-Flash(免费),+deepseek-chat
-all:清空所有默认配置
+gpt-4o@OpenAI:OpenAI渠道的gpt-4o
+gpt-4o@Azure:Azure渠道的gpt-4o
+GLM-4-Plus:智谱清言的模型,因为预装库里没有,它就不会自动识别渠道
之后正常启动项目即可