腾讯免费算力部署DeepSeek R1
最近 DeepSeek 的火爆相信大家都有目共睹,不只是在国内外的自媒体!
看看 ollama的models库,更新 9 天,就达到了 4.7 M 下载量,这热度,要甩第二名 llama3.3 的 994.5k 好几条村!
近段时间,官网频繁出现反应迟缓,甚至宕机,API调用没反应等,有看新闻的都知道被国外针对了。
不过,明显这是个开源模型本地部署不是更过引一点?减轻官方压力,自己也用得尽兴。
有兄弟说:没有显卡咋跑?
今日分享,带大家用腾讯提供的免费 GPU 算力,部署一个 DeepSeek R1 !不要说爽YY了
一、腾讯 Cloud Studio
关于免费算力,Google Colab有,kaggle也有,但没梯子还真不好用。
不过,最近腾讯豪横,横空推出了一款云端 IDE -- Cloud Studio,类似百度飞桨 AI Studio 的一款产品。
不过,百度的AI Studio 只能跑 PaddlePaddle 深度学习开发框架,但凡发现你在跑 PyTorch 等其他框架,立马 被kill。
这不竞品马上来了,腾讯 Cloud Studio,完全无使用限制,每月可免费使用 10000 分钟!(随用随开,及时关机)
就我看来,收费是迟早的事,就国内厂家的尿性,没有免费的午餐,但目前肯定是可以白嫖的,放心冲
想玩的兄弟赶紧冲了
二、部署Ollama 跑 DeepSeek
关于 Ollama 的使用,可自行百度,十分简单,就那么几个命令
2.1 创建实例
创建实例流程,AI模板 --> ollama
选免费的配置新建即可
如图,如果提示失效,就删了再新建
点击进入,按ctrl+~
调出终端
2.2 删除原有的ollama模型
ollama list # 查看原有模型
默认预装了 llama3,可以删除
ollama rm llama3:latest
ollama run deepseek-r1:14b # 安装deepseek-r1:14b
注意: 下载速度不太稳定,如果下载速度低于2M/s,可以ctrl+c
中止掉,再重新运行ollama run deepseek-r1:14b,速度又上来了
因为显存有16G内存,可以使用上deepseek-r1:14b 14b版本的,再上就是32b,16G跑不动了
模型拉取结束后,就可以开始玩耍了。
2.3 deepseek-r1模型体验
值得一提,deepseek-r1的拟人化程度我觉得是十分高的,完全可以用来做AI客服,不仿接入微信当一个客服试试
2.4 内网穿透 公网使用
Cloud Studio 的虚拟机无法安装 docker,所以无法采用 docker 的方式安装 web UI。
且没有提供公网 IP,怎么办?
每次都打开终端来用就太麻烦了
这里,介绍一种最简单的内网穿透方法:cloudflared,简单几步搞定!
- STEP 1: 安装 cloudflared:
wget https://mirror.ghproxy.com/https://github.com/cloudflare/cloudflared/releases/latest/download/cloudflared-linux-amd64.deb
dpkg -i cloudflared-linux-amd64.deb
cloudflared -v
- STEP 2: 查看 ollama 的端口号:
netstat -ntlp
如无意外,ollama的端口都是6399
- STEP 3: 配置穿透
cloudflared tunnel --url http://127.0.0.1:6399
cloudflared 会输出一个公网可访问的链接,如下
打开浏览器输入地址,反馈 ollama is running
即完成
你现在可以在本地的任意 UI 界面,用这个 URL 体现 DeepSeek-R1 了~
2.5 用n8n测试
在凭证添加上面链接
新建一个ollama chat model
调用成功
三、结语
本文分享了如何用腾讯的免费算力部署 DeepSeek 的推理模型,并内网穿透公网任意调用。
如果对你有帮助,欢迎点赞收藏备用。
注:DeepSeek-R1 是推理模型,和对话模型不同的是,它多了自我思考的步骤,适合编程、数学等逻辑思维要求高的应用。
关注我 快速了解各类入门AI工具
共有 0 条评论