| Package | Description |
|---|---|
| com.tencentcloudapi.lkeap.v20240522 | |
| com.tencentcloudapi.lkeap.v20240522.models |
| Modifier and Type | Method and Description |
|---|---|
ChatCompletionsResponse |
LkeapClient.ChatCompletions(ChatCompletionsRequest req)
### 接口功能
调用接口,发起一次对话请求。默认该接口下的单账号QPM上限为15000 ,TPM上限为1200000
如需使用OpenAI兼容接口, 请参考文档:[Deepseek OpenAI对话接口](https://cloud.tencent.com/document/product/1772/115969)
#### 在线体验
如您希望在网页内直接体验 DeepSeek 模型对话,推荐您前往[腾讯云智能体开发平台](https://cloud.tencent.com/product/lke),使用[ DeepSeek 联网助手](https://lke.cloud.tencent.com/webim_exp/#/chat/wQrAwR)。
#### 已支持的模型
- DeepSeek-V3-0324(model 参数值为**deepseek-v3-0324**)
- DeepSeek-V3-0324为671B参数MoE模型,在编程与技术能力、上下文理解与长文本处理等方面优势突出。
- 支持128K上下文长度,最大输出16k(不含思维链)。
- 注意:相比于DeepSeek-V3,DeepSeek-V3-0324仅更新了模型权重,未增加参数量。总模型大小为685B,其中包括671B的主模型权重和 14B 的多令牌预测(MTP)模块权重,后续均描述主模型参数量。
- DeepSeek-V3(model 参数值为**deepseek-v3**)
- DeepSeek-V3为671B参数MoE模型,在百科知识、数学推理等多项任务上优势突出,评测成绩在主流榜单中位列开源模型榜首。
- 支持64K上下文长度,最大输出16k。
- DeepSeek-R1(model 参数值为**deepseek-r1**)
- DeepSeek-R1为671B模型,使用强化学习训练,推理过程包含大量反思和验证,思维链长度可达数万字。 该系列模型在数学、代码以及各种复杂逻辑推理任务上推理效果优异,并为用户展现了完整的思考过程。
- 支持96K上下文长度,最大输入长度64k,最大输出16k(默认4k),最大思维链输出长度32k。
- DeepSeek-R1-0528(model 参数值为**deepseek-r1-0528**)
- DeepSeek-R1-0528为671B 模型,架构优化与训练策略升级后,相比上一版本在代码生成、长文本处理和复杂推理领域提升明显。
- 支持128K上下文长度,最大输入长度96k,最大输出16k(默认4k),最大思维链输出长度32k。
- DeepSeek-V3.1(model 参数值为 deepseek-v3.1)
- DeepSeek-V3.1 为685B 参数 MoE 模型,支持混合推理架构,有更高的思考效率和更强的 Agent 能力。
- 支持128K上下文长度,最大输入长度96k,最大输出32k(默认4k),最大思维链输出长度32k。
- DeepSeek-V3.1-Terminus(model 参数值为 deepseek-v3.1-terminus)
- DeepSeek-V3.1-Terminus 为685B 参数 MoE 模型,在保持模型原有能力的基础上,优化了语言一致性,Agent 能力等问题,输出效果相比前一版本更加稳定。
- 支持128K上下文长度,最大输入长度96k,最大输出32k(默认4k),最大思维链输出长度32k。
- DeepSeek-V3.2-Exp(model 参数值为 deepseek-v3.2-exp)
- DeepSeek-V3.2-Exp 为685B 参数 MoE 模型,在 V3.1-Terminus 的基础上引入了 DeepSeek Sparse Attention(一种稀疏注意力机制),针对长文本的训练和推理效率进行了探索性的优化和验证。
- 支持128K上下文长度,最大输入长度96k,非思考模式最大输出8k(默认4k),思考模式最大输出64k(默认32k),最大思维链输出长度32k。
- 该模型目前处于试运营阶段,仅支持少量接入,如需申请开通请联系您的商务经理。
### 计费说明
- 标准计费(2025年2月26日起生效),计费模式为后付费小时结,为保证您账户资源的正常使用,请提前[开通后付费](https://console.cloud.tencent.com/lkeap/settings)并及时[充值](https://console.cloud.tencent.com/expense/recharge)。
- DeepSeek-R1 模型 | 输入:0.004元/千token | 输出(含思维链):0.016元/千token
- DeepSeek-R1-0528 模型 | 输入:0.004元/千token | 输出(含思维链):0.016元/千token
- DeepSeek-V3 模型 | 输入:0.002元/千token | 输出:0.008元/千token
- DeepSeek-V3-0324 模型 | 输入:0.002元/千token | 输出:0.008元/千token
- DeepSeek-V3.1 模型 | 输入:0.004元/千token | 输出:0.012元/千token
- DeepSeek-V3.1-Terminus 模型 | 输入:0.004元/千token | 输出:0.012元/千token
- DeepSeek-V3.2-Exp 模型 | 输入:0.002元/千token | 输出:0.003元/千token
### Openai兼容协议接口
知识引擎原子能力大模型对话 API 兼容了 OpenAI 的接口规范,这意味着您可以直接使用 OpenAI 官方提供的 SDK 来调用大模型对话接口。您仅需要将 base_url 和 [api_key](https://cloud.tencent.com/document/product/1772/115970) 替换成相关配置,不需要对应用做额外修改,即可无缝将您的应用切换到相应的大模型。请参考文档:[Deepseek OpenAI对话接口](https://cloud.tencent.com/document/product/1772/115969)。
> base_url: https://api.lkeap.cloud.tencent.com/v1
> api_key的获取请参考[API KEY管理](https://cloud.tencent.com/document/product/1772/115970)
### 快速接入
1.
|
| Constructor and Description |
|---|
ChatCompletionsRequest(ChatCompletionsRequest source)
NOTE: Any ambiguous key set via .set("AnyKey", "value") will be a shallow copy,
and any explicit key, i.e Foo, set via .setFoo("value") will be a deep copy.
|
Copyright © 2025. All rights reserved.