DeepSeek-V3 的价格实在令人惊讶,几乎可以说是“白菜价”:每百万输入 tokens 仅需 0.1 元(缓存命中)/ 1 元(缓存未命中),每百万输出 tokens 仅需 2 元。
与其他模型相比,DeepSeek-V3 的性价比极高,真可谓“真香”。
Sealos 推出的 AI 聚合代理服务为用户提供了便捷的 AI 模型访问通道,其中包括 DeepSeek-V3 模型。通过 Sealos AI Proxy 使用这些模型时,价格与官方定价完全一致,真正实现零溢价,让用户以最实惠的价格享受优质的 AI 服务。
接下来,我将手把手教你如何让 Cursor 使用 DeepSeek-V3 模型。
虽然 Cursor 的价格较高且试用时间有限,但它支持用户接入自定义 API。因此,我们可以通过接入 Sealos AI Proxy 的 API,让 Cursor 使用 DeepSeek-V3 模型及其他各种模型。
注意:Cursor 接入自定义 API 只能使用 Chat 模型,不能使用 Composer 模式。不过这已经非常不错了。
如果你只想接入 DeepSeek-V3 模型,也可以选择使用 DeepSeek 官方的 API。而 Sealos AI Proxy 的优势在于它可以同时接入多个模型,而不仅仅局限于 DeepSeek。
下面开始正式操作。
首先登录 Sealos Cloud,打开桌面上的【AI Proxy】:
新建一个 Key:
创建完成后,你就得到了一个 API Key。
现在回到 Cursor,点击顶部菜单栏的 Cursor -> Settings -> Cursor Settings:
下面的步骤比较重要,请仔细阅读,并严格按照步骤操作。
首先来到 Models 界面,取消勾选其他所有模型。
点击 “Add Model” 添加一个自定义模型。
输入模型名称为 deepseek-chat,然后回车。
因为 DeepSeek 的模型 deepseek-chat 和 deepseek-coder 已经合并,所以这里输入 deepseek-chat 即可自动使用最新的 DeepSeek-V3 模型。
在 “Override OpenAI Base URL” 下方输入框中输入 Sealos AI Proxy 的 API 地址:https://aiproxy.hzh.sealos.run/v1,然后点击 “Save” 按钮。
注意:API 地址末尾的 /v1 不能省略。
输入之前在 Sealos AI Proxy 中创建的 API Key,然后点击 “Verify” 按钮。
在弹出来的对话框中点击 “Enable OpenAI API Key” 按钮。
验证完成后,就会变成这个样子:
接下来就可以在 Cursor 中使用 DeepSeek-V3 模型了。直接按下快捷键 CMD + L 打开 Cursor 的 Chat 界面,然后开始对话。
写代码也不是问题,直接输入以下提示词,DeepSeek 就能为你生成完整的符合需求的代码。
python
示例:让 DeepSeek 生成一个二分查找算法
输入注释
"""
实现一个二分查找算法,要求:
使用迭代方式实现
处理目标值不存在的情况
添加详细注释
考虑数组可能为空的情况
返回目标值的索引,如果不存在则返回-1
"""