public class CreateAICallRequest extends AbstractModel
header, skipSign| Constructor and Description | 
|---|
| CreateAICallRequest() | 
| CreateAICallRequest(CreateAICallRequest source)NOTE: Any ambiguous key set via .set("AnyKey", "value") will be a shallow copy,
       and any explicit key, i.e Foo, set via .setFoo("value") will be a deep copy. | 
| Modifier and Type | Method and Description | 
|---|---|
| String | getAPIKey()Get 模型API密钥,获取鉴权信息方式请参见各模型官网
- OpenAI协议:[GPT](https://help.openai.com/en/articles/4936850-where-do-i-find-my-openai-api-key),[混元](https://cloud.tencent.com/document/product/1729/111008),[DeepSeek](https://api-docs.deepseek.com/zh-cn/);
- Azure协议:[Azure GPT](https://learn.microsoft.com/en-us/azure/ai-services/openai/chatgpt-quickstart?tabs=command-line%2Ctypescript%2Cpython-new&pivots=programming-language-studio#key-settings);
- Minimax:[Minimax](https://platform.minimaxi.com/document/Fast%20access?key=66701cf51d57f38758d581b2) | 
| String | getAPIUrl()Get 模型接口地址
- OpenAI协议
GPT:"https://api.openai.com/v1/"
混元:"https://api.hunyuan.cloud.tencent.com/v1"
Deepseek:"https://api.deepseek.com/v1"
- Azure协议
 "https://{your-resource-name}.openai.azure.com?api-version={api-version}"
- Minimax协议
"https://api.minimax.chat/v1" | 
| String | getCallee()Get 被叫号码 | 
| String[] | getCallers()Get 主叫号码列表 | 
| String | getCustomTTSConfig()Get | 
| Boolean | getEnableComplianceAudio()Get 合规提示音, 
该参数传true(默认)表示通话开始播放摩斯码,提示对话内容为 AI 生成。
该参数传false表示关闭合规提示音。该参数传false则代表您知晓并同意以下协议:
我方充分知悉和理解,根据[《网络安全法》](https://www.gov.cn/xinwen/2016-11/07/content_5129723.htm)[《互联网信息服务深度合成管理规定》](https://www.gov.cn/zhengce/zhengceku/2022-12/12/content_5731431.htm)[《生成式人工智能服务管理暂行办法》](https://www.gov.cn/zhengce/zhengceku/202307/content_6891752.htm)[《人工智能生成合成内容标识办法》](https://www.gov.cn/zhengce/zhengceku/202503/content_7014286.htm)的法律法规的规定,对人工智能生成合成内容应当添加显式标识和隐式标识。我方基于业务需求,请腾讯云对生成合成内容不添加显式标识,我方承诺合法合规使用生成合成内容,避免造成混淆、误认;如果使用生成合成内容对公众提供服务的,或通过网络传播的,我方将自觉主动添加符合法律规定和国家标准要求的显式标识,承担人工智能生成合成内容标识的法律义务。我方未能恰当、合理地履行人工智能内容标识义务造成不良后果的,或遭受主管部门责罚的,相关责任由我方完全承担。 | 
| String | getEndFunctionDesc()Get EndFunctionEnable为true时生效;call_end function calling的desc,默认为 "End the call when user has to leave (like says bye) or you are instructed to do so." | 
| Boolean | getEndFunctionEnable()Get 模型是否支持(或者开启)call_end function calling | 
| AICallExtractConfigElement[] | getExtractConfig()Get 通话内容提取配置 | 
| Long | getInterruptMode()Get 打断AI说话模式,默认为0,0表示自动打断,1表示不打断。 | 
| Long | getInterruptSpeechDuration()Get InterruptMode为0时使用,单位为毫秒,默认为500ms。表示服务端检测到持续InterruptSpeechDuration毫秒的人声则进行打断。 | 
| String[] | getLanguages()Get 语音识别支持的语言, 默认是"zh" 中文,
填写数组,最长4个语言,第一个语言为主要识别语言,后面为可选语言,
注意:主要语言为中国方言时,可选语言无效
目前全量支持的语言如下,等号左面是语言英文名,右面是Language字段需要填写的值,该值遵循ISO639:
1. | 
| String | getLLMType()Get 模型接口协议类型,目前兼容四种协议类型:
- OpenAI协议(包括GPT、混元、DeepSeek等):"openai"
- Azure协议:"azure"
- Minimax协议:"minimax"
- Dify协议: "dify" | 
| Long | getMaxDuration()Get 最大等待时长(毫秒),默认60秒,超过这个时间用户没说话,自动挂断 | 
| String | getModel()Get 模型名称,如
- OpenAI协议
"gpt-4o-mini","gpt-4o","hunyuan-standard", "hunyuan-turbo","deepseek-chat";
- Azure协议
"gpt-4o-mini", "gpt-4o";
- Minmax协议
"deepseek-chat". | 
| Long | getNotifyDuration()Get 用户多久没说话提示时长,最小10秒,默认10秒 | 
| Long | getNotifyMaxCount()Get 最大触发AI提示音次数,默认为不限制 | 
| String | getNotifyMessage()Get 用户NotifyDuration没说话,AI提示的语句,默认是"抱歉,我没听清。您可以重复下吗?" | 
| Variable[] | getPromptVariables()Deprecated.   | 
| Long | getSdkAppId()Get 应用 ID(必填),可以查看 https://console.cloud.tencent.com/ccc | 
| String | getSystemPrompt()Get 用于设定AI人设、说话规则、任务等的全局提示词。示例:## 人设您是人民医院友善、和蔼的随访医生李医生,正在给患者小明的家长打电话,原因是医院要求小明2024-08-08回院复查手术恢复情况,但小明没有来。您需要按照任务流程对小明家长进行电话随访调查。## 要求简洁回复:使用简练语言,每次最多询问一个问题,不要在一个回复中询问多个问题。富有变化:尽量使表达富有变化,表达机械重复。自然亲切:使用日常语言,尽量显得专业并亲切。提到时间时使用口语表述,如下周三、6月18日。积极主动:尝试引导对话,每个回复通常以问题或下一步建议来结尾。询问清楚:如果对方部分回答了您的问题,或者回答很模糊,请通过追问来确保回答的完整明确。遵循任务:当对方的回答偏离了您的任务时,及时引导对方回到任务中。不要从头开始重复,从偏离的地方继续询问。诚实可靠:对于客户的提问,如果不确定请务必不要编造,礼貌告知对方不清楚。不要捏造患者未提及的症状史、用药史、治疗史。其他注意点:避免提到病情恶化、恢复不理想或疾病名称等使用会使患者感到紧张的表述。不要问患者已经直接或间接回答过的问题,例如患者已经说没有不适症状,那就不要再问手术部位是否有红肿疼痛症状的问题。##任务: 1.自我介绍您是人民医院负责随访的李医生,并说明致电的目的。2.询问被叫方是否是小明家长。 - 如果不是小明家长,请礼貌表达歉意,并使用 call_end 挂断电话。- 如果小明家长没空,请礼貌告诉对方稍后会重新致电,并使用 end_call 挂断电话。3.询问小明出院后水肿情况如何,较出院时是否有变化。- 如果水肿变严重,直接跳转步骤7。4.询问出院后是否给小朋友量过体温,是否出现过发烧情况。- 如果没有量过体温,请礼貌告诉家长出院后三个月内需要每天观察体温。- 如果出现过发烧,请直接跳转步骤7。5.询问出院后是否给小朋友按时服药。- 如果没有按时服药,请友善提醒家长严格按医嘱服用药物,避免影响手术效果。6.询问小朋友在饮食上是否做到低盐低脂,适量吃优质蛋白如鸡蛋、牛奶、瘦肉等。- 如果没有做到,请友善提醒家长低盐低脂和优质蛋白有助小朋友尽快恢复。7.告知家长医生要求6月18日回院复查,但没看到有相关复诊记录。提醒家长尽快前往医院体检复查血化验、尿常规。8.询问家长是否有问题需要咨询,如果没有请礼貌道别并用call_end挂断电话。 | 
| Float | getTemperature()Get 模型温度控制 | 
| ToneWordInfo | getToneWord()Get 衔接语 | 
| Float | getTopP()Get 模型topP | 
| Boolean | getTransferFunctionEnable()Get 模型是否支持(或者开启)transfer_to_human function calling | 
| AITransferItem[] | getTransferItems()Get TransferFunctionEnable为true的时候生效: 转人工配置 | 
| Long | getVadLevel()Get vad的远场人声抑制能力(不会对asr识别效果造成影响),范围为[0, 3],默认为0。推荐设置为2,有较好的远场人声抑制能力。 | 
| Long | getVadSilenceTime()Get 语音识别vad的时间,范围为240-2000,默认为1000,单位为ms。更小的值会让语音识别分句更快。 | 
| Variable[] | getVariables()Get 通用变量: | 
| String | getVoiceType()Get 默认提供以下音色参数值可选择,如需自定义音色VoiceType请留空并在参数CustomTTSConfig中配置
汉语:
ZhiMei:智美,客服女声
ZhiXi: 智希 通用女声
ZhiQi:智琪 客服女声
ZhiTian:智甜 女童声
AiXiaoJing:爱小静 对话女声
英语:
WeRose:英文女声
Monika:英文女声
日语:
Nanami
韩语:
SunHi
印度尼西亚语(印度尼西亚):
Gadis
马来语(马来西亚):
Yasmin
 泰米尔语(马来西亚):
Kani
泰语(泰国):
Achara
越南语(越南):
HoaiMy | 
| String | getWelcomeMessage()Get 用于设定AI座席欢迎语。 | 
| Long | getWelcomeMessagePriority()Get 0: 默认可打断, 2:高优先不可打断 | 
| Long | getWelcomeType()Get 0:使用welcomeMessage(为空时,被叫先说话;不为空时,机器人先说话)
1:   使用ai根据prompt自动生成welcomeMessage并先说话 | 
| void | setAPIKey(String APIKey)Set 模型API密钥,获取鉴权信息方式请参见各模型官网
- OpenAI协议:[GPT](https://help.openai.com/en/articles/4936850-where-do-i-find-my-openai-api-key),[混元](https://cloud.tencent.com/document/product/1729/111008),[DeepSeek](https://api-docs.deepseek.com/zh-cn/);
- Azure协议:[Azure GPT](https://learn.microsoft.com/en-us/azure/ai-services/openai/chatgpt-quickstart?tabs=command-line%2Ctypescript%2Cpython-new&pivots=programming-language-studio#key-settings);
- Minimax:[Minimax](https://platform.minimaxi.com/document/Fast%20access?key=66701cf51d57f38758d581b2) | 
| void | setAPIUrl(String APIUrl)Set 模型接口地址
- OpenAI协议
GPT:"https://api.openai.com/v1/"
混元:"https://api.hunyuan.cloud.tencent.com/v1"
Deepseek:"https://api.deepseek.com/v1"
- Azure协议
 "https://{your-resource-name}.openai.azure.com?api-version={api-version}"
- Minimax协议
"https://api.minimax.chat/v1" | 
| void | setCallee(String Callee)Set 被叫号码 | 
| void | setCallers(String[] Callers)Set 主叫号码列表 | 
| void | setCustomTTSConfig(String CustomTTSConfig)Set | 
| void | setEnableComplianceAudio(Boolean EnableComplianceAudio)Set 合规提示音, 
该参数传true(默认)表示通话开始播放摩斯码,提示对话内容为 AI 生成。
该参数传false表示关闭合规提示音。该参数传false则代表您知晓并同意以下协议:
我方充分知悉和理解,根据[《网络安全法》](https://www.gov.cn/xinwen/2016-11/07/content_5129723.htm)[《互联网信息服务深度合成管理规定》](https://www.gov.cn/zhengce/zhengceku/2022-12/12/content_5731431.htm)[《生成式人工智能服务管理暂行办法》](https://www.gov.cn/zhengce/zhengceku/202307/content_6891752.htm)[《人工智能生成合成内容标识办法》](https://www.gov.cn/zhengce/zhengceku/202503/content_7014286.htm)的法律法规的规定,对人工智能生成合成内容应当添加显式标识和隐式标识。我方基于业务需求,请腾讯云对生成合成内容不添加显式标识,我方承诺合法合规使用生成合成内容,避免造成混淆、误认;如果使用生成合成内容对公众提供服务的,或通过网络传播的,我方将自觉主动添加符合法律规定和国家标准要求的显式标识,承担人工智能生成合成内容标识的法律义务。我方未能恰当、合理地履行人工智能内容标识义务造成不良后果的,或遭受主管部门责罚的,相关责任由我方完全承担。 | 
| void | setEndFunctionDesc(String EndFunctionDesc)Set EndFunctionEnable为true时生效;call_end function calling的desc,默认为 "End the call when user has to leave (like says bye) or you are instructed to do so." | 
| void | setEndFunctionEnable(Boolean EndFunctionEnable)Set 模型是否支持(或者开启)call_end function calling | 
| void | setExtractConfig(AICallExtractConfigElement[] ExtractConfig)Set 通话内容提取配置 | 
| void | setInterruptMode(Long InterruptMode)Set 打断AI说话模式,默认为0,0表示自动打断,1表示不打断。 | 
| void | setInterruptSpeechDuration(Long InterruptSpeechDuration)Set InterruptMode为0时使用,单位为毫秒,默认为500ms。表示服务端检测到持续InterruptSpeechDuration毫秒的人声则进行打断。 | 
| void | setLanguages(String[] Languages)Set 语音识别支持的语言, 默认是"zh" 中文,
填写数组,最长4个语言,第一个语言为主要识别语言,后面为可选语言,
注意:主要语言为中国方言时,可选语言无效
目前全量支持的语言如下,等号左面是语言英文名,右面是Language字段需要填写的值,该值遵循ISO639:
1. | 
| void | setLLMType(String LLMType)Set 模型接口协议类型,目前兼容四种协议类型:
- OpenAI协议(包括GPT、混元、DeepSeek等):"openai"
- Azure协议:"azure"
- Minimax协议:"minimax"
- Dify协议: "dify" | 
| void | setMaxDuration(Long MaxDuration)Set 最大等待时长(毫秒),默认60秒,超过这个时间用户没说话,自动挂断 | 
| void | setModel(String Model)Set 模型名称,如
- OpenAI协议
"gpt-4o-mini","gpt-4o","hunyuan-standard", "hunyuan-turbo","deepseek-chat";
- Azure协议
"gpt-4o-mini", "gpt-4o";
- Minmax协议
"deepseek-chat". | 
| void | setNotifyDuration(Long NotifyDuration)Set 用户多久没说话提示时长,最小10秒,默认10秒 | 
| void | setNotifyMaxCount(Long NotifyMaxCount)Set 最大触发AI提示音次数,默认为不限制 | 
| void | setNotifyMessage(String NotifyMessage)Set 用户NotifyDuration没说话,AI提示的语句,默认是"抱歉,我没听清。您可以重复下吗?" | 
| void | setPromptVariables(Variable[] PromptVariables)Deprecated.   | 
| void | setSdkAppId(Long SdkAppId)Set 应用 ID(必填),可以查看 https://console.cloud.tencent.com/ccc | 
| void | setSystemPrompt(String SystemPrompt)Set 用于设定AI人设、说话规则、任务等的全局提示词。示例:## 人设您是人民医院友善、和蔼的随访医生李医生,正在给患者小明的家长打电话,原因是医院要求小明2024-08-08回院复查手术恢复情况,但小明没有来。您需要按照任务流程对小明家长进行电话随访调查。## 要求简洁回复:使用简练语言,每次最多询问一个问题,不要在一个回复中询问多个问题。富有变化:尽量使表达富有变化,表达机械重复。自然亲切:使用日常语言,尽量显得专业并亲切。提到时间时使用口语表述,如下周三、6月18日。积极主动:尝试引导对话,每个回复通常以问题或下一步建议来结尾。询问清楚:如果对方部分回答了您的问题,或者回答很模糊,请通过追问来确保回答的完整明确。遵循任务:当对方的回答偏离了您的任务时,及时引导对方回到任务中。不要从头开始重复,从偏离的地方继续询问。诚实可靠:对于客户的提问,如果不确定请务必不要编造,礼貌告知对方不清楚。不要捏造患者未提及的症状史、用药史、治疗史。其他注意点:避免提到病情恶化、恢复不理想或疾病名称等使用会使患者感到紧张的表述。不要问患者已经直接或间接回答过的问题,例如患者已经说没有不适症状,那就不要再问手术部位是否有红肿疼痛症状的问题。##任务: 1.自我介绍您是人民医院负责随访的李医生,并说明致电的目的。2.询问被叫方是否是小明家长。 - 如果不是小明家长,请礼貌表达歉意,并使用 call_end 挂断电话。- 如果小明家长没空,请礼貌告诉对方稍后会重新致电,并使用 end_call 挂断电话。3.询问小明出院后水肿情况如何,较出院时是否有变化。- 如果水肿变严重,直接跳转步骤7。4.询问出院后是否给小朋友量过体温,是否出现过发烧情况。- 如果没有量过体温,请礼貌告诉家长出院后三个月内需要每天观察体温。- 如果出现过发烧,请直接跳转步骤7。5.询问出院后是否给小朋友按时服药。- 如果没有按时服药,请友善提醒家长严格按医嘱服用药物,避免影响手术效果。6.询问小朋友在饮食上是否做到低盐低脂,适量吃优质蛋白如鸡蛋、牛奶、瘦肉等。- 如果没有做到,请友善提醒家长低盐低脂和优质蛋白有助小朋友尽快恢复。7.告知家长医生要求6月18日回院复查,但没看到有相关复诊记录。提醒家长尽快前往医院体检复查血化验、尿常规。8.询问家长是否有问题需要咨询,如果没有请礼貌道别并用call_end挂断电话。 | 
| void | setTemperature(Float Temperature)Set 模型温度控制 | 
| void | setToneWord(ToneWordInfo ToneWord)Set 衔接语 | 
| void | setTopP(Float TopP)Set 模型topP | 
| void | setTransferFunctionEnable(Boolean TransferFunctionEnable)Set 模型是否支持(或者开启)transfer_to_human function calling | 
| void | setTransferItems(AITransferItem[] TransferItems)Set TransferFunctionEnable为true的时候生效: 转人工配置 | 
| void | setVadLevel(Long VadLevel)Set vad的远场人声抑制能力(不会对asr识别效果造成影响),范围为[0, 3],默认为0。推荐设置为2,有较好的远场人声抑制能力。 | 
| void | setVadSilenceTime(Long VadSilenceTime)Set 语音识别vad的时间,范围为240-2000,默认为1000,单位为ms。更小的值会让语音识别分句更快。 | 
| void | setVariables(Variable[] Variables)Set 通用变量: | 
| void | setVoiceType(String VoiceType)Set 默认提供以下音色参数值可选择,如需自定义音色VoiceType请留空并在参数CustomTTSConfig中配置
汉语:
ZhiMei:智美,客服女声
ZhiXi: 智希 通用女声
ZhiQi:智琪 客服女声
ZhiTian:智甜 女童声
AiXiaoJing:爱小静 对话女声
英语:
WeRose:英文女声
Monika:英文女声
日语:
Nanami
韩语:
SunHi
印度尼西亚语(印度尼西亚):
Gadis
马来语(马来西亚):
Yasmin
 泰米尔语(马来西亚):
Kani
泰语(泰国):
Achara
越南语(越南):
HoaiMy | 
| void | setWelcomeMessage(String WelcomeMessage)Set 用于设定AI座席欢迎语。 | 
| void | setWelcomeMessagePriority(Long WelcomeMessagePriority)Set 0: 默认可打断, 2:高优先不可打断 | 
| void | setWelcomeType(Long WelcomeType)Set 0:使用welcomeMessage(为空时,被叫先说话;不为空时,机器人先说话)
1:   使用ai根据prompt自动生成welcomeMessage并先说话 | 
| void | toMap(HashMap<String,String> map,
     String prefix)Internal implementation, normal users should not use it. | 
any, fromJsonString, getBinaryParams, GetHeader, getMultipartRequestParams, getSkipSign, isStream, set, SetHeader, setParamArrayObj, setParamArraySimple, setParamObj, setParamSimple, setSkipSign, toJsonStringpublic CreateAICallRequest()
public CreateAICallRequest(CreateAICallRequest source)
public Long getSdkAppId()
public void setSdkAppId(Long SdkAppId)
SdkAppId - 应用 ID(必填),可以查看 https://console.cloud.tencent.com/cccpublic String getCallee()
public void setCallee(String Callee)
Callee - 被叫号码public String getLLMType()
public void setLLMType(String LLMType)
LLMType - 模型接口协议类型,目前兼容四种协议类型:
- OpenAI协议(包括GPT、混元、DeepSeek等):"openai"
- Azure协议:"azure"
- Minimax协议:"minimax"
- Dify协议: "dify"public String getAPIKey()
public void setAPIKey(String APIKey)
APIKey - 模型API密钥,获取鉴权信息方式请参见各模型官网
- OpenAI协议:[GPT](https://help.openai.com/en/articles/4936850-where-do-i-find-my-openai-api-key),[混元](https://cloud.tencent.com/document/product/1729/111008),[DeepSeek](https://api-docs.deepseek.com/zh-cn/);
- Azure协议:[Azure GPT](https://learn.microsoft.com/en-us/azure/ai-services/openai/chatgpt-quickstart?tabs=command-line%2Ctypescript%2Cpython-new&pivots=programming-language-studio#key-settings);
- Minimax:[Minimax](https://platform.minimaxi.com/document/Fast%20access?key=66701cf51d57f38758d581b2)public String getAPIUrl()
public void setAPIUrl(String APIUrl)
APIUrl - 模型接口地址
- OpenAI协议
GPT:"https://api.openai.com/v1/"
混元:"https://api.hunyuan.cloud.tencent.com/v1"
Deepseek:"https://api.deepseek.com/v1"
- Azure协议
 "https://{your-resource-name}.openai.azure.com?api-version={api-version}"
- Minimax协议
"https://api.minimax.chat/v1"public String getSystemPrompt()
public void setSystemPrompt(String SystemPrompt)
SystemPrompt - 用于设定AI人设、说话规则、任务等的全局提示词。示例:## 人设您是人民医院友善、和蔼的随访医生李医生,正在给患者小明的家长打电话,原因是医院要求小明2024-08-08回院复查手术恢复情况,但小明没有来。您需要按照任务流程对小明家长进行电话随访调查。## 要求简洁回复:使用简练语言,每次最多询问一个问题,不要在一个回复中询问多个问题。富有变化:尽量使表达富有变化,表达机械重复。自然亲切:使用日常语言,尽量显得专业并亲切。提到时间时使用口语表述,如下周三、6月18日。积极主动:尝试引导对话,每个回复通常以问题或下一步建议来结尾。询问清楚:如果对方部分回答了您的问题,或者回答很模糊,请通过追问来确保回答的完整明确。遵循任务:当对方的回答偏离了您的任务时,及时引导对方回到任务中。不要从头开始重复,从偏离的地方继续询问。诚实可靠:对于客户的提问,如果不确定请务必不要编造,礼貌告知对方不清楚。不要捏造患者未提及的症状史、用药史、治疗史。其他注意点:避免提到病情恶化、恢复不理想或疾病名称等使用会使患者感到紧张的表述。不要问患者已经直接或间接回答过的问题,例如患者已经说没有不适症状,那就不要再问手术部位是否有红肿疼痛症状的问题。##任务: 1.自我介绍您是人民医院负责随访的李医生,并说明致电的目的。2.询问被叫方是否是小明家长。 - 如果不是小明家长,请礼貌表达歉意,并使用 call_end 挂断电话。- 如果小明家长没空,请礼貌告诉对方稍后会重新致电,并使用 end_call 挂断电话。3.询问小明出院后水肿情况如何,较出院时是否有变化。- 如果水肿变严重,直接跳转步骤7。4.询问出院后是否给小朋友量过体温,是否出现过发烧情况。- 如果没有量过体温,请礼貌告诉家长出院后三个月内需要每天观察体温。- 如果出现过发烧,请直接跳转步骤7。5.询问出院后是否给小朋友按时服药。- 如果没有按时服药,请友善提醒家长严格按医嘱服用药物,避免影响手术效果。6.询问小朋友在饮食上是否做到低盐低脂,适量吃优质蛋白如鸡蛋、牛奶、瘦肉等。- 如果没有做到,请友善提醒家长低盐低脂和优质蛋白有助小朋友尽快恢复。7.告知家长医生要求6月18日回院复查,但没看到有相关复诊记录。提醒家长尽快前往医院体检复查血化验、尿常规。8.询问家长是否有问题需要咨询,如果没有请礼貌道别并用call_end挂断电话。public String getModel()
public void setModel(String Model)
Model - 模型名称,如
- OpenAI协议
"gpt-4o-mini","gpt-4o","hunyuan-standard", "hunyuan-turbo","deepseek-chat";
- Azure协议
"gpt-4o-mini", "gpt-4o";
- Minmax协议
"deepseek-chat".public String getVoiceType()
public void setVoiceType(String VoiceType)
VoiceType - 默认提供以下音色参数值可选择,如需自定义音色VoiceType请留空并在参数CustomTTSConfig中配置
汉语:
ZhiMei:智美,客服女声
ZhiXi: 智希 通用女声
ZhiQi:智琪 客服女声
ZhiTian:智甜 女童声
AiXiaoJing:爱小静 对话女声
英语:
WeRose:英文女声
Monika:英文女声
日语:
Nanami
韩语:
SunHi
印度尼西亚语(印度尼西亚):
Gadis
马来语(马来西亚):
Yasmin
 泰米尔语(马来西亚):
Kani
泰语(泰国):
Achara
越南语(越南):
HoaiMypublic String[] getCallers()
public void setCallers(String[] Callers)
Callers - 主叫号码列表public String getWelcomeMessage()
public void setWelcomeMessage(String WelcomeMessage)
WelcomeMessage - 用于设定AI座席欢迎语。public Long getWelcomeType()
public void setWelcomeType(Long WelcomeType)
WelcomeType - 0:使用welcomeMessage(为空时,被叫先说话;不为空时,机器人先说话)
1:   使用ai根据prompt自动生成welcomeMessage并先说话public Long getWelcomeMessagePriority()
public void setWelcomeMessagePriority(Long WelcomeMessagePriority)
WelcomeMessagePriority - 0: 默认可打断, 2:高优先不可打断public Long getMaxDuration()
public void setMaxDuration(Long MaxDuration)
MaxDuration - 最大等待时长(毫秒),默认60秒,超过这个时间用户没说话,自动挂断public String[] getLanguages()
public void setLanguages(String[] Languages)
Languages - 语音识别支持的语言, 默认是"zh" 中文,
填写数组,最长4个语言,第一个语言为主要识别语言,后面为可选语言,
注意:主要语言为中国方言时,可选语言无效
目前全量支持的语言如下,等号左面是语言英文名,右面是Language字段需要填写的值,该值遵循ISO639:
1. Chinese = "zh" # 中文
2. Chinese_TW = "zh-TW" # 中国台湾
3. Chinese_DIALECT = "zh-dialect" # 中国方言
4. English = "en" # 英语
5. Vietnamese = "vi" # 越南语
6. Japanese = "ja" # 日语
7. Korean = "ko" # 汉语
8. Indonesia = "id" # 印度尼西亚语
9. Thai = "th" # 泰语
10. Portuguese = "pt" # 葡萄牙语
11. Turkish = "tr" # 土耳其语
12. Arabic = "ar" # 阿拉伯语
13. Spanish = "es" # 西班牙语
14. Hindi = "hi" # 印地语
15. French = "fr" # 法语
16. Malay = "ms" # 马来语
17. Filipino = "fil" # 菲律宾语
18. German = "de" # 德语
19. Italian = "it" # 意大利语
20. Russian = "ru" # 俄语public Long getInterruptMode()
public void setInterruptMode(Long InterruptMode)
InterruptMode - 打断AI说话模式,默认为0,0表示自动打断,1表示不打断。public Long getInterruptSpeechDuration()
public void setInterruptSpeechDuration(Long InterruptSpeechDuration)
InterruptSpeechDuration - InterruptMode为0时使用,单位为毫秒,默认为500ms。表示服务端检测到持续InterruptSpeechDuration毫秒的人声则进行打断。public Boolean getEndFunctionEnable()
public void setEndFunctionEnable(Boolean EndFunctionEnable)
EndFunctionEnable - 模型是否支持(或者开启)call_end function callingpublic String getEndFunctionDesc()
public void setEndFunctionDesc(String EndFunctionDesc)
EndFunctionDesc - EndFunctionEnable为true时生效;call_end function calling的desc,默认为 "End the call when user has to leave (like says bye) or you are instructed to do so."public Boolean getTransferFunctionEnable()
public void setTransferFunctionEnable(Boolean TransferFunctionEnable)
TransferFunctionEnable - 模型是否支持(或者开启)transfer_to_human function callingpublic AITransferItem[] getTransferItems()
public void setTransferItems(AITransferItem[] TransferItems)
TransferItems - TransferFunctionEnable为true的时候生效: 转人工配置public Long getNotifyDuration()
public void setNotifyDuration(Long NotifyDuration)
NotifyDuration - 用户多久没说话提示时长,最小10秒,默认10秒public String getNotifyMessage()
public void setNotifyMessage(String NotifyMessage)
NotifyMessage - 用户NotifyDuration没说话,AI提示的语句,默认是"抱歉,我没听清。您可以重复下吗?"public Long getNotifyMaxCount()
public void setNotifyMaxCount(Long NotifyMaxCount)
NotifyMaxCount - 最大触发AI提示音次数,默认为不限制public String getCustomTTSConfig()
和VoiceType字段需要选填一个,这里是使用自己自定义的TTS,VoiceType是系统内置的一些音色
{ 
       "TTSType": "tencent", // String TTS类型, 目前支持"tencent" 和 “minixmax”, 其他的厂商支持中
       "AppId": "您的应用ID", // String 必填
       "SecretId": "您的密钥ID", // String 必填
       "SecretKey":  "您的密钥Key", // String 必填
       "VoiceType": 101001, // Integer  必填,音色 ID,包括标准音色与精品音色,精品音色拟真度更高,价格不同于标准音色,请参见语音合成计费概述。完整的音色 ID 列表请参见语音合成音色列表。
       "Speed": 1.25, // Integer 非必填,语速,范围:[-2,6],分别对应不同语速: -2: 代表0.6倍 -1: 代表0.8倍 0: 代表1.0倍(默认) 1: 代表1.2倍 2: 代表1.5倍  6: 代表2.5倍  如果需要更细化的语速,可以保留小数点后 2 位,例如0.5/1.25/2.81等。 参数值与实际语速转换,可参考 语速转换
       "Volume": 5, // Integer 非必填,音量大小,范围:[0,10],分别对应11个等级的音量,默认值为0,代表正常音量。
       "PrimaryLanguage": 1, // Integer 可选 主要语言 1-中文(默认) 2-英文 3-日文
       "FastVoiceType": "xxxx"   //  可选参数, 快速声音复刻的参数 
  }
{
        "TTSType": "minimax",  // String TTS类型, 
        "Model": "speech-01-turbo",
        "APIUrl": "https://api.minimax.chat/v1/t2a_v2",
        "APIKey": "eyxxxx",
        "GroupId": "181000000000000",
        "VoiceType":"female-tianmei-jingpin",
        "Speed": 1.2
}
配置音色类型参考火山TTS文档链接
语音合成音色列表–语音技术-火山引擎
大模型语音合成音色列表–语音技术-火山引擎
{
    "TTSType": "volcengine",  // 必填:String TTS类型
    "AppId" : "xxxxxxxx",   // 必填:String 火山引擎分配的Appid
    "Token" : "TY9d4sQXHxxxxxxx", // 必填: String类型 火山引擎的访问token
    "Speed" : 1.0,            // 可选参数 语速,默认为1.0
    "Volume": 1.0,            // 可选参数, 音量大小, 默认为1.0
    "Cluster" : "volcano_tts", // 可选参数,业务集群, 默认是 volcano_tts
    "VoiceType" : "zh_male_aojiaobazong_moon_bigtts"   // 音色类型, 默认为大模型语音合成的音色。 如果使用普通语音合成,则需要填写对应的音色类型。 音色类型填写错误会导致没有声音。
}
{
    "TTSType": "azure", // 必填:String TTS类型
    "SubscriptionKey": "xxxxxxxx", // 必填:String 订阅的Key
    "Region": "chinanorth3",  // 必填:String 订阅的地区
    "VoiceName": "zh-CN-XiaoxiaoNeural", // 必填:String 音色名必填
    "Language": "zh-CN", // 必填:String 合成的语言  
    "Rate": 1 // 选填:float 语速  0.5~2 默认为 1
}
TTS
具体协议规范请参考腾讯文档
{
  "TTSType": "custom", // String 必填
  "APIKey": "ApiKey", // String 必填 用来鉴权
  "APIUrl": "http://0.0.0.0:8080/stream-audio" // String,必填,TTS API URL
  "AudioFormat": "wav", // String, 非必填,期望输出的音频格式,如mp3, ogg_opus,pcm,wav,默认为 wav,目前只支持pcm和wav,
  "SampleRate": 16000,  // Integer,非必填,音频采样率,默认为16000(16k),推荐值为16000
  "AudioChannel": 1,    // Integer,非必填,音频通道数,取值:1 或 2  默认为1  
}
和VoiceType字段需要选填一个,这里是使用自己自定义的TTS,VoiceType是系统内置的一些音色
{ 
       "TTSType": "tencent", // String TTS类型, 目前支持"tencent" 和 “minixmax”, 其他的厂商支持中
       "AppId": "您的应用ID", // String 必填
       "SecretId": "您的密钥ID", // String 必填
       "SecretKey":  "您的密钥Key", // String 必填
       "VoiceType": 101001, // Integer  必填,音色 ID,包括标准音色与精品音色,精品音色拟真度更高,价格不同于标准音色,请参见语音合成计费概述。完整的音色 ID 列表请参见语音合成音色列表。
       "Speed": 1.25, // Integer 非必填,语速,范围:[-2,6],分别对应不同语速: -2: 代表0.6倍 -1: 代表0.8倍 0: 代表1.0倍(默认) 1: 代表1.2倍 2: 代表1.5倍  6: 代表2.5倍  如果需要更细化的语速,可以保留小数点后 2 位,例如0.5/1.25/2.81等。 参数值与实际语速转换,可参考 语速转换
       "Volume": 5, // Integer 非必填,音量大小,范围:[0,10],分别对应11个等级的音量,默认值为0,代表正常音量。
       "PrimaryLanguage": 1, // Integer 可选 主要语言 1-中文(默认) 2-英文 3-日文
       "FastVoiceType": "xxxx"   //  可选参数, 快速声音复刻的参数 
  }
{
        "TTSType": "minimax",  // String TTS类型, 
        "Model": "speech-01-turbo",
        "APIUrl": "https://api.minimax.chat/v1/t2a_v2",
        "APIKey": "eyxxxx",
        "GroupId": "181000000000000",
        "VoiceType":"female-tianmei-jingpin",
        "Speed": 1.2
}
配置音色类型参考火山TTS文档链接
语音合成音色列表–语音技术-火山引擎
大模型语音合成音色列表–语音技术-火山引擎
{
    "TTSType": "volcengine",  // 必填:String TTS类型
    "AppId" : "xxxxxxxx",   // 必填:String 火山引擎分配的Appid
    "Token" : "TY9d4sQXHxxxxxxx", // 必填: String类型 火山引擎的访问token
    "Speed" : 1.0,            // 可选参数 语速,默认为1.0
    "Volume": 1.0,            // 可选参数, 音量大小, 默认为1.0
    "Cluster" : "volcano_tts", // 可选参数,业务集群, 默认是 volcano_tts
    "VoiceType" : "zh_male_aojiaobazong_moon_bigtts"   // 音色类型, 默认为大模型语音合成的音色。 如果使用普通语音合成,则需要填写对应的音色类型。 音色类型填写错误会导致没有声音。
}
{
    "TTSType": "azure", // 必填:String TTS类型
    "SubscriptionKey": "xxxxxxxx", // 必填:String 订阅的Key
    "Region": "chinanorth3",  // 必填:String 订阅的地区
    "VoiceName": "zh-CN-XiaoxiaoNeural", // 必填:String 音色名必填
    "Language": "zh-CN", // 必填:String 合成的语言  
    "Rate": 1 // 选填:float 语速  0.5~2 默认为 1
}
TTS
具体协议规范请参考腾讯文档
{
  "TTSType": "custom", // String 必填
  "APIKey": "ApiKey", // String 必填 用来鉴权
  "APIUrl": "http://0.0.0.0:8080/stream-audio" // String,必填,TTS API URL
  "AudioFormat": "wav", // String, 非必填,期望输出的音频格式,如mp3, ogg_opus,pcm,wav,默认为 wav,目前只支持pcm和wav,
  "SampleRate": 16000,  // Integer,非必填,音频采样率,默认为16000(16k),推荐值为16000
  "AudioChannel": 1,    // Integer,非必填,音频通道数,取值:1 或 2  默认为1  
}
public void setCustomTTSConfig(String CustomTTSConfig)
和VoiceType字段需要选填一个,这里是使用自己自定义的TTS,VoiceType是系统内置的一些音色
{ 
       "TTSType": "tencent", // String TTS类型, 目前支持"tencent" 和 “minixmax”, 其他的厂商支持中
       "AppId": "您的应用ID", // String 必填
       "SecretId": "您的密钥ID", // String 必填
       "SecretKey":  "您的密钥Key", // String 必填
       "VoiceType": 101001, // Integer  必填,音色 ID,包括标准音色与精品音色,精品音色拟真度更高,价格不同于标准音色,请参见语音合成计费概述。完整的音色 ID 列表请参见语音合成音色列表。
       "Speed": 1.25, // Integer 非必填,语速,范围:[-2,6],分别对应不同语速: -2: 代表0.6倍 -1: 代表0.8倍 0: 代表1.0倍(默认) 1: 代表1.2倍 2: 代表1.5倍  6: 代表2.5倍  如果需要更细化的语速,可以保留小数点后 2 位,例如0.5/1.25/2.81等。 参数值与实际语速转换,可参考 语速转换
       "Volume": 5, // Integer 非必填,音量大小,范围:[0,10],分别对应11个等级的音量,默认值为0,代表正常音量。
       "PrimaryLanguage": 1, // Integer 可选 主要语言 1-中文(默认) 2-英文 3-日文
       "FastVoiceType": "xxxx"   //  可选参数, 快速声音复刻的参数 
  }
{
        "TTSType": "minimax",  // String TTS类型, 
        "Model": "speech-01-turbo",
        "APIUrl": "https://api.minimax.chat/v1/t2a_v2",
        "APIKey": "eyxxxx",
        "GroupId": "181000000000000",
        "VoiceType":"female-tianmei-jingpin",
        "Speed": 1.2
}
配置音色类型参考火山TTS文档链接
语音合成音色列表–语音技术-火山引擎
大模型语音合成音色列表–语音技术-火山引擎
{
    "TTSType": "volcengine",  // 必填:String TTS类型
    "AppId" : "xxxxxxxx",   // 必填:String 火山引擎分配的Appid
    "Token" : "TY9d4sQXHxxxxxxx", // 必填: String类型 火山引擎的访问token
    "Speed" : 1.0,            // 可选参数 语速,默认为1.0
    "Volume": 1.0,            // 可选参数, 音量大小, 默认为1.0
    "Cluster" : "volcano_tts", // 可选参数,业务集群, 默认是 volcano_tts
    "VoiceType" : "zh_male_aojiaobazong_moon_bigtts"   // 音色类型, 默认为大模型语音合成的音色。 如果使用普通语音合成,则需要填写对应的音色类型。 音色类型填写错误会导致没有声音。
}
{
    "TTSType": "azure", // 必填:String TTS类型
    "SubscriptionKey": "xxxxxxxx", // 必填:String 订阅的Key
    "Region": "chinanorth3",  // 必填:String 订阅的地区
    "VoiceName": "zh-CN-XiaoxiaoNeural", // 必填:String 音色名必填
    "Language": "zh-CN", // 必填:String 合成的语言  
    "Rate": 1 // 选填:float 语速  0.5~2 默认为 1
}
TTS
具体协议规范请参考腾讯文档
{
  "TTSType": "custom", // String 必填
  "APIKey": "ApiKey", // String 必填 用来鉴权
  "APIUrl": "http://0.0.0.0:8080/stream-audio" // String,必填,TTS API URL
  "AudioFormat": "wav", // String, 非必填,期望输出的音频格式,如mp3, ogg_opus,pcm,wav,默认为 wav,目前只支持pcm和wav,
  "SampleRate": 16000,  // Integer,非必填,音频采样率,默认为16000(16k),推荐值为16000
  "AudioChannel": 1,    // Integer,非必填,音频通道数,取值:1 或 2  默认为1  
}
CustomTTSConfig - 和VoiceType字段需要选填一个,这里是使用自己自定义的TTS,VoiceType是系统内置的一些音色
{ 
       "TTSType": "tencent", // String TTS类型, 目前支持"tencent" 和 “minixmax”, 其他的厂商支持中
       "AppId": "您的应用ID", // String 必填
       "SecretId": "您的密钥ID", // String 必填
       "SecretKey":  "您的密钥Key", // String 必填
       "VoiceType": 101001, // Integer  必填,音色 ID,包括标准音色与精品音色,精品音色拟真度更高,价格不同于标准音色,请参见语音合成计费概述。完整的音色 ID 列表请参见语音合成音色列表。
       "Speed": 1.25, // Integer 非必填,语速,范围:[-2,6],分别对应不同语速: -2: 代表0.6倍 -1: 代表0.8倍 0: 代表1.0倍(默认) 1: 代表1.2倍 2: 代表1.5倍  6: 代表2.5倍  如果需要更细化的语速,可以保留小数点后 2 位,例如0.5/1.25/2.81等。 参数值与实际语速转换,可参考 语速转换
       "Volume": 5, // Integer 非必填,音量大小,范围:[0,10],分别对应11个等级的音量,默认值为0,代表正常音量。
       "PrimaryLanguage": 1, // Integer 可选 主要语言 1-中文(默认) 2-英文 3-日文
       "FastVoiceType": "xxxx"   //  可选参数, 快速声音复刻的参数 
  }
{
        "TTSType": "minimax",  // String TTS类型, 
        "Model": "speech-01-turbo",
        "APIUrl": "https://api.minimax.chat/v1/t2a_v2",
        "APIKey": "eyxxxx",
        "GroupId": "181000000000000",
        "VoiceType":"female-tianmei-jingpin",
        "Speed": 1.2
}
配置音色类型参考火山TTS文档链接
语音合成音色列表–语音技术-火山引擎
大模型语音合成音色列表–语音技术-火山引擎
{
    "TTSType": "volcengine",  // 必填:String TTS类型
    "AppId" : "xxxxxxxx",   // 必填:String 火山引擎分配的Appid
    "Token" : "TY9d4sQXHxxxxxxx", // 必填: String类型 火山引擎的访问token
    "Speed" : 1.0,            // 可选参数 语速,默认为1.0
    "Volume": 1.0,            // 可选参数, 音量大小, 默认为1.0
    "Cluster" : "volcano_tts", // 可选参数,业务集群, 默认是 volcano_tts
    "VoiceType" : "zh_male_aojiaobazong_moon_bigtts"   // 音色类型, 默认为大模型语音合成的音色。 如果使用普通语音合成,则需要填写对应的音色类型。 音色类型填写错误会导致没有声音。
}
{
    "TTSType": "azure", // 必填:String TTS类型
    "SubscriptionKey": "xxxxxxxx", // 必填:String 订阅的Key
    "Region": "chinanorth3",  // 必填:String 订阅的地区
    "VoiceName": "zh-CN-XiaoxiaoNeural", // 必填:String 音色名必填
    "Language": "zh-CN", // 必填:String 合成的语言  
    "Rate": 1 // 选填:float 语速  0.5~2 默认为 1
}
TTS
具体协议规范请参考腾讯文档
{
  "TTSType": "custom", // String 必填
  "APIKey": "ApiKey", // String 必填 用来鉴权
  "APIUrl": "http://0.0.0.0:8080/stream-audio" // String,必填,TTS API URL
  "AudioFormat": "wav", // String, 非必填,期望输出的音频格式,如mp3, ogg_opus,pcm,wav,默认为 wav,目前只支持pcm和wav,
  "SampleRate": 16000,  // Integer,非必填,音频采样率,默认为16000(16k),推荐值为16000
  "AudioChannel": 1,    // Integer,非必填,音频通道数,取值:1 或 2  默认为1  
}
@Deprecated public Variable[] getPromptVariables()
@Deprecated public void setPromptVariables(Variable[] PromptVariables)
PromptVariables - 提示词变量public Long getVadSilenceTime()
public void setVadSilenceTime(Long VadSilenceTime)
VadSilenceTime - 语音识别vad的时间,范围为240-2000,默认为1000,单位为ms。更小的值会让语音识别分句更快。public AICallExtractConfigElement[] getExtractConfig()
public void setExtractConfig(AICallExtractConfigElement[] ExtractConfig)
ExtractConfig - 通话内容提取配置public Float getTemperature()
public void setTemperature(Float Temperature)
Temperature - 模型温度控制public Variable[] getVariables()
提示词变量
欢迎语变量
欢迎语延迟播放(秒级):welcome-message-delay
dify变量
1. dify-inputs-xxx 为dify的inputs变量 2. dify-inputs-user 为dify的user值 3. dify-inputs-conversation_id 为dify的conversation_id值提示词变量
欢迎语变量
欢迎语延迟播放(秒级):welcome-message-delay
dify变量
1. dify-inputs-xxx 为dify的inputs变量 2. dify-inputs-user 为dify的user值 3. dify-inputs-conversation_id 为dify的conversation_id值public void setVariables(Variable[] Variables)
提示词变量
欢迎语变量
欢迎语延迟播放(秒级):welcome-message-delay
dify变量
1. dify-inputs-xxx 为dify的inputs变量 2. dify-inputs-user 为dify的user值 3. dify-inputs-conversation_id 为dify的conversation_id值Variables - 通用变量: 提示词变量
欢迎语变量
欢迎语延迟播放(秒级):welcome-message-delay
dify变量
1. dify-inputs-xxx 为dify的inputs变量 2. dify-inputs-user 为dify的user值 3. dify-inputs-conversation_id 为dify的conversation_id值public Float getTopP()
public void setTopP(Float TopP)
TopP - 模型topPpublic Long getVadLevel()
public void setVadLevel(Long VadLevel)
VadLevel - vad的远场人声抑制能力(不会对asr识别效果造成影响),范围为[0, 3],默认为0。推荐设置为2,有较好的远场人声抑制能力。public ToneWordInfo getToneWord()
public void setToneWord(ToneWordInfo ToneWord)
ToneWord - 衔接语public Boolean getEnableComplianceAudio()
public void setEnableComplianceAudio(Boolean EnableComplianceAudio)
EnableComplianceAudio - 合规提示音, 
该参数传true(默认)表示通话开始播放摩斯码,提示对话内容为 AI 生成。
该参数传false表示关闭合规提示音。该参数传false则代表您知晓并同意以下协议:
我方充分知悉和理解,根据[《网络安全法》](https://www.gov.cn/xinwen/2016-11/07/content_5129723.htm)[《互联网信息服务深度合成管理规定》](https://www.gov.cn/zhengce/zhengceku/2022-12/12/content_5731431.htm)[《生成式人工智能服务管理暂行办法》](https://www.gov.cn/zhengce/zhengceku/202307/content_6891752.htm)[《人工智能生成合成内容标识办法》](https://www.gov.cn/zhengce/zhengceku/202503/content_7014286.htm)的法律法规的规定,对人工智能生成合成内容应当添加显式标识和隐式标识。我方基于业务需求,请腾讯云对生成合成内容不添加显式标识,我方承诺合法合规使用生成合成内容,避免造成混淆、误认;如果使用生成合成内容对公众提供服务的,或通过网络传播的,我方将自觉主动添加符合法律规定和国家标准要求的显式标识,承担人工智能生成合成内容标识的法律义务。我方未能恰当、合理地履行人工智能内容标识义务造成不良后果的,或遭受主管部门责罚的,相关责任由我方完全承担。Copyright © 2025. All rights reserved.