零成本调用DeepSeek大模型!Docker极速部署指南

538 字
3 分钟
零成本调用DeepSeek大模型!Docker极速部署指南

兄弟们,DeepSeek的API虽然便宜但还是要花钱的,有没有办法零成本白嫖DeepSeek的大模型?今天二冰给你们安利一个黑科技——deepseek-free-api!这个项目通过逆向工程实现了DeepSeek API的免费调用,部署到NAS上就能当私有AI网关用!

⚠️ 免责声明#

本文仅供技术学习交流,请勿用于商业用途。建议有条件的朋友还是支持官方付费API。

一、项目简介#

deepseek-free-api 是一个将DeepSeek网页版转化为API格式的反向代理工具。部署后可以:

  • 🔓 免费调用DeepSeek:无需API Key
  • 🔄 API格式兼容:直接替换官方API地址即可使用
  • 🏠 私有部署:部署在自己服务器上,数据不经第三方

二、Docker部署教程(Dockge版)#

version: '3.8'
services:
deepseek-free-api:
image: vinlic/deepseek-free-api:latest
container_name: deepseek-free-api
restart: unless-stopped
ports:
- "8006:8000"
environment:
- API_KEY=your-custom-api-key

Dockge部署#

打开Dockge面板 -> 创建堆栈 -> 设置堆栈名称 -> 粘贴compose代码 -> 30秒启动成功!

三、使用方式#

部署完成后,API地址为http://NAS_IP:8006,兼容OpenAI API格式,可以:

  1. 直接调用:用curl或代码调用
  2. 配合ChatGPT-Next-Web:作为后端API使用
  3. 配合Open WebUI:在Ollama中添加自定义API端点

四、注意事项#

  1. 稳定性:免费方案依赖逆向接口,可能随时失效
  2. 速率限制:可能有频率限制,不适合高并发场景
  3. 账号风险:使用逆向接口可能违反官方ToS
  4. 推荐替代:有条件建议用Ollama跑本地模型

五、总结#

推荐指数:★★★☆☆
适合人群:想白嫖DeepSeek但不想部署本地模型的用户
二冰评价:技术上有意思,但稳定性存疑。更推荐直接用Ollama跑本地模型,虽然效果稍差但稳定可靠零风险。

最后,奉上我的超级无敌至尊docker库,二冰平时玩过的docker都整理到了这个仓库中了,一直在更新中,希望有github账号的兄弟能去给点个star,不知道玩啥的,都去这里面找,都给你们分好类了 仓库链接: https://github.com/TWO-ICE/Awesome-NAS-Docker

支持与分享

如果这篇文章对你有帮助,欢迎分享给更多人或赞助支持!

赞助
零成本调用DeepSeek大模型!Docker极速部署指南
https://doc.ebeb.fun/posts/deepseek-free-api-docker-零成本ai/
作者
二冰
发布于
2026-04-01
许可协议
CC BY-NC-SA 4.0
随机文章 随机推荐

评论区

Profile Image of the Author
二冰
做有用的自动化,记录没用的碎碎念。
公告
欢迎来到我的博客!这是一则示例公告。
音乐
封面

音乐

暂未播放

0:00 0:00
暂无歌词
分类
标签
站点统计
文章
43
分类
19
标签
93
总字数
39,142
运行时长
0
最后活动
0 天前

目录