Class CreateRecTaskRequest
- java.lang.Object
-
- com.tencentcloudapi.common.AbstractModel
-
- com.tencentcloudapi.asr.v20190614.models.CreateRecTaskRequest
-
public class CreateRecTaskRequest extends AbstractModel
-
-
Field Summary
-
Fields inherited from class com.tencentcloudapi.common.AbstractModel
header, skipSign
-
-
Constructor Summary
Constructors Constructor Description CreateRecTaskRequest()
CreateRecTaskRequest(CreateRecTaskRequest source)
NOTE: Any ambiguous key set via .set("AnyKey", "value") will be a shallow copy, and any explicit key, i.e Foo, set via .setFoo("value") will be a deep copy.
-
Method Summary
All Methods Instance Methods Concrete Methods Modifier and Type Method Description String
getCallbackUrl()
Get 回调 URL 用户自行搭建的用于接收识别结果的服务URL 回调格式和内容详见:[录音识别回调说明](https://cloud.tencent.com/document/product/1093/52632) 注意: 如果用户使用轮询方式获取识别结果,则无需提交该参数Long
getChannelNum()
Get 识别声道数 1:单声道(16k音频仅支持单声道,**请勿**设置为双声道); 2:双声道(仅支持8k电话音频,且双声道应分别为通话双方) 注意: • 16k音频:仅支持单声道识别,**需设置ChannelNum=1**; • 8k电话音频:支持单声道、双声道识别,**建议设置ChannelNum=2,即双声道**。双声道能够物理区分说话人、避免说话双方重叠产生的识别错误,能达到最好的说话人分离效果和识别效果。设置双声道后,将自动区分说话人,因此**无需再开启说话人分离功能**,相关参数(**SpeakerDiarization、SpeakerNumber**)使用默认值即可Long
getConvertNumMode()
Get 阿拉伯数字智能转换(目前仅支持8k_zh/16k_zh引擎) 0:不转换,直接输出中文数字; 1:根据场景智能转换为阿拉伯数字; 3:打开数学相关数字转换(如:阿尔法转写为α); 默认值为 1String
getCustomizationId()
Get 自学习定制模型 id 如设置了该参数,将生效对应id的自学习定制模型; 点击这里查看[自学习定制模型配置方法](https://cloud.tencent.com/document/product/1093/38416)String
getData()
Get 语音数据base64编码 当 SourceType 值为 1 时须填写该字段,为 0 时不需要填写** 注意:音频数据要小于5MB(含)Long
getDataLen()
Get 数据长度(此数据长度为数据未进行base64编码时的长度)Long
getEmotionalEnergy()
Get 情绪能量值 取值为音量分贝值/10,取值范围:[1,10],值越高情绪越强烈 0:不开启; 1:开启; 默认值为0Long
getEmotionRecognition()
Get **【增值付费功能】**情绪识别能力(目前仅支持16k_zh) 0:不开启; 1:开启情绪识别,但不在文本展示情绪标签; 2:开启情绪识别,并且在文本展示情绪标签(**该功能需要设置ResTextFormat 大于0**) 默认值为0 支持的情绪分类为:高兴、伤心、愤怒 注意: 1.String
getEngineModelType()
Get 引擎模型类型 电话通讯场景引擎: 注意:电话通讯场景,请务必使用以下8k引擎** • 8k_zh:中文电话通讯; • 8k_en:英文电话通讯; 如您有电话通讯场景识别需求,但发现需求语种仅支持16k,可将8k音频传入下方16k引擎,亦能获取识别结果。但**16k引擎并非基于电话通讯数据训练,无法承诺此种调用方式的识别效果,需由您自行验证识别结果是否可用** 通用场景引擎: 注意:除电话通讯场景以外的其它识别场景,请务必使用以下16k引擎** • 16k_zh:中文普通话通用引擎,支持中文普通话和少量英语,使用丰富的中文普通话语料训练,覆盖场景广泛,适用于除电话通讯外的所有中文普通话识别场景; • 16k_zh-PY:中英粤混合引擎,使用一个引擎同时识别中文普通话、英语、粤语三个语言; • 16k_zh_dialect:中文普通话+多方言混合引擎,除普通话外支持23种方言(上海话、四川话、武汉话、贵阳话、昆明话、西安话、郑州话、太原话、兰州话、银川话、西宁话、南京话、合肥话、南昌话、长沙话、苏州话、杭州话、济南话、天津话、石家庄话、黑龙江话、吉林话、辽宁话); • 16k_en:英语; • 16k_yue:粤语; • 16k_ja:日语; • 16k_ko:韩语; • 16k_vi:越南语; • 16k_ms:马来语; • 16k_id:印度尼西亚语; • 16k_fil:菲律宾语; • 16k_th:泰语; • 16k_pt:葡萄牙语; • 16k_tr:土耳其语; • 16k_ar:阿拉伯语; • 16k_es:西班牙语; • 16k_hi:印地语; • 16k_zh_medical:中文医疗引擎String
getExtra()
Get 附加参数**(该参数无意义,忽略即可)**Long
getFilterDirty()
Get 脏词过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤脏词; 1:过滤脏词; 2:将脏词替换为 * ; 默认值为 0Long
getFilterModal()
Get 语气词过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤语气词; 1:过滤部分语气词; 2:严格过滤语气词; 默认值为 0Long
getFilterPunc()
Get 标点符号过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤标点; 1:过滤句末标点; 2:过滤所有标点; 默认值为 0String
getHotwordId()
Get 热词表id 如不设置该参数,将自动生效默认热词表; 如设置该参数,将生效对应id的热词表; 点击这里查看[热词表配置方法](https://cloud.tencent.com/document/product/1093/40996)Long
getReinforceHotword()
Get 热词增强功能(目前仅支持8k_zh/16k_zh引擎) 1:开启热词增强功能 注意:热词增强功能开启后,将对传入的热词表id开启同音替换功能,可以在这里查看[热词表配置方法](https://cloud.tencent.com/document/product/1093/40996)。效果举例:在热词表中配置“蜜制”一词,并开启增强功能,与“蜜制”(mìzhì)同音同调的“秘制”(mìzhì)的识别结果会被强制替换成“蜜制”。**建议客户根据实际的业务需求开启该功能**Long
getResTextFormat()
Get 识别结果返回样式 0:基础识别结果(仅包含有效人声时间戳,无词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)); 1:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值,**不含标点**); 2:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点); 3:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点),且识别结果按标点符号分段,**适用字幕场景**; 4:**【增值付费功能】**基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点),且识别结果按nlp语义分段,**适用会议、庭审记录转写等场景**,仅支持8k_zh/16k_zh引擎 注意:如果传入参数值4,需确保账号已购买[语义分段资源包](https://cloud.tencent.com/document/product/1093/35686#97ae4aa0-29a0-4066-9f07-ccaf8856a16b),或账号开启后付费;**若当前账号已开启后付费功能,并传入参数值4,将[自动计费](https://cloud.tencent.com/document/product/1093/35686#d912167d-ffd5-41a9-8b1c-2e89845a6852))**Long
getSentenceMaxLength()
Get 单标点最多字数 可控制单行字幕最大字数,适用于字幕生成场景**,取值范围:[6,40] 0:不开启该功能; 默认值为0 注意:需设置ResTextFormat为3,解析返回的ResultDetail列表,通过结构中FinalSentence获取单个标点断句结果Long
getSourceType()
Get 语音数据来源 0:语音 URL; 1:语音数据(post body)Long
getSpeakerDiarization()
Get 是否开启说话人分离 0:不开启; 1:开启(仅支持以下引擎:8k_zh/16k_zh/16k_ms/16k_en/16k_id,且ChannelNum=1时可用); 默认值为 0 注意: 8k双声道电话音频请按 **ChannelNum 识别声道数** 的参数描述使用默认值Long
getSpeakerNumber()
Get 说话人分离人数 需配合开启说话人分离使用,不开启无效**,取值范围:0-10 0:自动分离(最多分离出20个人); 1-10:指定人数分离; 默认值为 0String
getUrl()
Get 语音URL的地址(需要公网环境浏览器可下载) 当 SourceType 值为 0 时须填写该字段,为 1 时不需要填写** 注意: 1.void
setCallbackUrl(String CallbackUrl)
Set 回调 URL 用户自行搭建的用于接收识别结果的服务URL 回调格式和内容详见:[录音识别回调说明](https://cloud.tencent.com/document/product/1093/52632) 注意: 如果用户使用轮询方式获取识别结果,则无需提交该参数void
setChannelNum(Long ChannelNum)
Set 识别声道数 1:单声道(16k音频仅支持单声道,**请勿**设置为双声道); 2:双声道(仅支持8k电话音频,且双声道应分别为通话双方) 注意: • 16k音频:仅支持单声道识别,**需设置ChannelNum=1**; • 8k电话音频:支持单声道、双声道识别,**建议设置ChannelNum=2,即双声道**。双声道能够物理区分说话人、避免说话双方重叠产生的识别错误,能达到最好的说话人分离效果和识别效果。设置双声道后,将自动区分说话人,因此**无需再开启说话人分离功能**,相关参数(**SpeakerDiarization、SpeakerNumber**)使用默认值即可void
setConvertNumMode(Long ConvertNumMode)
Set 阿拉伯数字智能转换(目前仅支持8k_zh/16k_zh引擎) 0:不转换,直接输出中文数字; 1:根据场景智能转换为阿拉伯数字; 3:打开数学相关数字转换(如:阿尔法转写为α); 默认值为 1void
setCustomizationId(String CustomizationId)
Set 自学习定制模型 id 如设置了该参数,将生效对应id的自学习定制模型; 点击这里查看[自学习定制模型配置方法](https://cloud.tencent.com/document/product/1093/38416)void
setData(String Data)
Set 语音数据base64编码 当 SourceType 值为 1 时须填写该字段,为 0 时不需要填写** 注意:音频数据要小于5MB(含)void
setDataLen(Long DataLen)
Set 数据长度(此数据长度为数据未进行base64编码时的长度)void
setEmotionalEnergy(Long EmotionalEnergy)
Set 情绪能量值 取值为音量分贝值/10,取值范围:[1,10],值越高情绪越强烈 0:不开启; 1:开启; 默认值为0void
setEmotionRecognition(Long EmotionRecognition)
Set **【增值付费功能】**情绪识别能力(目前仅支持16k_zh) 0:不开启; 1:开启情绪识别,但不在文本展示情绪标签; 2:开启情绪识别,并且在文本展示情绪标签(**该功能需要设置ResTextFormat 大于0**) 默认值为0 支持的情绪分类为:高兴、伤心、愤怒 注意: 1.void
setEngineModelType(String EngineModelType)
Set 引擎模型类型 电话通讯场景引擎: 注意:电话通讯场景,请务必使用以下8k引擎** • 8k_zh:中文电话通讯; • 8k_en:英文电话通讯; 如您有电话通讯场景识别需求,但发现需求语种仅支持16k,可将8k音频传入下方16k引擎,亦能获取识别结果。但**16k引擎并非基于电话通讯数据训练,无法承诺此种调用方式的识别效果,需由您自行验证识别结果是否可用** 通用场景引擎: 注意:除电话通讯场景以外的其它识别场景,请务必使用以下16k引擎** • 16k_zh:中文普通话通用引擎,支持中文普通话和少量英语,使用丰富的中文普通话语料训练,覆盖场景广泛,适用于除电话通讯外的所有中文普通话识别场景; • 16k_zh-PY:中英粤混合引擎,使用一个引擎同时识别中文普通话、英语、粤语三个语言; • 16k_zh_dialect:中文普通话+多方言混合引擎,除普通话外支持23种方言(上海话、四川话、武汉话、贵阳话、昆明话、西安话、郑州话、太原话、兰州话、银川话、西宁话、南京话、合肥话、南昌话、长沙话、苏州话、杭州话、济南话、天津话、石家庄话、黑龙江话、吉林话、辽宁话); • 16k_en:英语; • 16k_yue:粤语; • 16k_ja:日语; • 16k_ko:韩语; • 16k_vi:越南语; • 16k_ms:马来语; • 16k_id:印度尼西亚语; • 16k_fil:菲律宾语; • 16k_th:泰语; • 16k_pt:葡萄牙语; • 16k_tr:土耳其语; • 16k_ar:阿拉伯语; • 16k_es:西班牙语; • 16k_hi:印地语; • 16k_zh_medical:中文医疗引擎void
setExtra(String Extra)
Set 附加参数**(该参数无意义,忽略即可)**void
setFilterDirty(Long FilterDirty)
Set 脏词过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤脏词; 1:过滤脏词; 2:将脏词替换为 * ; 默认值为 0void
setFilterModal(Long FilterModal)
Set 语气词过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤语气词; 1:过滤部分语气词; 2:严格过滤语气词; 默认值为 0void
setFilterPunc(Long FilterPunc)
Set 标点符号过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤标点; 1:过滤句末标点; 2:过滤所有标点; 默认值为 0void
setHotwordId(String HotwordId)
Set 热词表id 如不设置该参数,将自动生效默认热词表; 如设置该参数,将生效对应id的热词表; 点击这里查看[热词表配置方法](https://cloud.tencent.com/document/product/1093/40996)void
setReinforceHotword(Long ReinforceHotword)
Set 热词增强功能(目前仅支持8k_zh/16k_zh引擎) 1:开启热词增强功能 注意:热词增强功能开启后,将对传入的热词表id开启同音替换功能,可以在这里查看[热词表配置方法](https://cloud.tencent.com/document/product/1093/40996)。效果举例:在热词表中配置“蜜制”一词,并开启增强功能,与“蜜制”(mìzhì)同音同调的“秘制”(mìzhì)的识别结果会被强制替换成“蜜制”。**建议客户根据实际的业务需求开启该功能**void
setResTextFormat(Long ResTextFormat)
Set 识别结果返回样式 0:基础识别结果(仅包含有效人声时间戳,无词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)); 1:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值,**不含标点**); 2:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点); 3:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点),且识别结果按标点符号分段,**适用字幕场景**; 4:**【增值付费功能】**基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点),且识别结果按nlp语义分段,**适用会议、庭审记录转写等场景**,仅支持8k_zh/16k_zh引擎 注意:如果传入参数值4,需确保账号已购买[语义分段资源包](https://cloud.tencent.com/document/product/1093/35686#97ae4aa0-29a0-4066-9f07-ccaf8856a16b),或账号开启后付费;**若当前账号已开启后付费功能,并传入参数值4,将[自动计费](https://cloud.tencent.com/document/product/1093/35686#d912167d-ffd5-41a9-8b1c-2e89845a6852))**void
setSentenceMaxLength(Long SentenceMaxLength)
Set 单标点最多字数 可控制单行字幕最大字数,适用于字幕生成场景**,取值范围:[6,40] 0:不开启该功能; 默认值为0 注意:需设置ResTextFormat为3,解析返回的ResultDetail列表,通过结构中FinalSentence获取单个标点断句结果void
setSourceType(Long SourceType)
Set 语音数据来源 0:语音 URL; 1:语音数据(post body)void
setSpeakerDiarization(Long SpeakerDiarization)
Set 是否开启说话人分离 0:不开启; 1:开启(仅支持以下引擎:8k_zh/16k_zh/16k_ms/16k_en/16k_id,且ChannelNum=1时可用); 默认值为 0 注意: 8k双声道电话音频请按 **ChannelNum 识别声道数** 的参数描述使用默认值void
setSpeakerNumber(Long SpeakerNumber)
Set 说话人分离人数 需配合开启说话人分离使用,不开启无效**,取值范围:0-10 0:自动分离(最多分离出20个人); 1-10:指定人数分离; 默认值为 0void
setUrl(String Url)
Set 语音URL的地址(需要公网环境浏览器可下载) 当 SourceType 值为 0 时须填写该字段,为 1 时不需要填写** 注意: 1.void
toMap(HashMap<String,String> map, String prefix)
Internal implementation, normal users should not use it.-
Methods inherited from class com.tencentcloudapi.common.AbstractModel
any, fromJsonString, getBinaryParams, GetHeader, getMultipartRequestParams, getSkipSign, set, SetHeader, setParamArrayObj, setParamArraySimple, setParamObj, setParamSimple, setSkipSign, toJsonString
-
-
-
-
Constructor Detail
-
CreateRecTaskRequest
public CreateRecTaskRequest()
-
CreateRecTaskRequest
public CreateRecTaskRequest(CreateRecTaskRequest source)
NOTE: Any ambiguous key set via .set("AnyKey", "value") will be a shallow copy, and any explicit key, i.e Foo, set via .setFoo("value") will be a deep copy.
-
-
Method Detail
-
getEngineModelType
public String getEngineModelType()
Get 引擎模型类型 电话通讯场景引擎: 注意:电话通讯场景,请务必使用以下8k引擎** • 8k_zh:中文电话通讯; • 8k_en:英文电话通讯; 如您有电话通讯场景识别需求,但发现需求语种仅支持16k,可将8k音频传入下方16k引擎,亦能获取识别结果。但**16k引擎并非基于电话通讯数据训练,无法承诺此种调用方式的识别效果,需由您自行验证识别结果是否可用** 通用场景引擎: 注意:除电话通讯场景以外的其它识别场景,请务必使用以下16k引擎** • 16k_zh:中文普通话通用引擎,支持中文普通话和少量英语,使用丰富的中文普通话语料训练,覆盖场景广泛,适用于除电话通讯外的所有中文普通话识别场景; • 16k_zh-PY:中英粤混合引擎,使用一个引擎同时识别中文普通话、英语、粤语三个语言; • 16k_zh_dialect:中文普通话+多方言混合引擎,除普通话外支持23种方言(上海话、四川话、武汉话、贵阳话、昆明话、西安话、郑州话、太原话、兰州话、银川话、西宁话、南京话、合肥话、南昌话、长沙话、苏州话、杭州话、济南话、天津话、石家庄话、黑龙江话、吉林话、辽宁话); • 16k_en:英语; • 16k_yue:粤语; • 16k_ja:日语; • 16k_ko:韩语; • 16k_vi:越南语; • 16k_ms:马来语; • 16k_id:印度尼西亚语; • 16k_fil:菲律宾语; • 16k_th:泰语; • 16k_pt:葡萄牙语; • 16k_tr:土耳其语; • 16k_ar:阿拉伯语; • 16k_es:西班牙语; • 16k_hi:印地语; • 16k_zh_medical:中文医疗引擎- Returns:
- EngineModelType 引擎模型类型 电话通讯场景引擎: 注意:电话通讯场景,请务必使用以下8k引擎** • 8k_zh:中文电话通讯; • 8k_en:英文电话通讯; 如您有电话通讯场景识别需求,但发现需求语种仅支持16k,可将8k音频传入下方16k引擎,亦能获取识别结果。但**16k引擎并非基于电话通讯数据训练,无法承诺此种调用方式的识别效果,需由您自行验证识别结果是否可用** 通用场景引擎: 注意:除电话通讯场景以外的其它识别场景,请务必使用以下16k引擎** • 16k_zh:中文普通话通用引擎,支持中文普通话和少量英语,使用丰富的中文普通话语料训练,覆盖场景广泛,适用于除电话通讯外的所有中文普通话识别场景; • 16k_zh-PY:中英粤混合引擎,使用一个引擎同时识别中文普通话、英语、粤语三个语言; • 16k_zh_dialect:中文普通话+多方言混合引擎,除普通话外支持23种方言(上海话、四川话、武汉话、贵阳话、昆明话、西安话、郑州话、太原话、兰州话、银川话、西宁话、南京话、合肥话、南昌话、长沙话、苏州话、杭州话、济南话、天津话、石家庄话、黑龙江话、吉林话、辽宁话); • 16k_en:英语; • 16k_yue:粤语; • 16k_ja:日语; • 16k_ko:韩语; • 16k_vi:越南语; • 16k_ms:马来语; • 16k_id:印度尼西亚语; • 16k_fil:菲律宾语; • 16k_th:泰语; • 16k_pt:葡萄牙语; • 16k_tr:土耳其语; • 16k_ar:阿拉伯语; • 16k_es:西班牙语; • 16k_hi:印地语; • 16k_zh_medical:中文医疗引擎
-
setEngineModelType
public void setEngineModelType(String EngineModelType)
Set 引擎模型类型 电话通讯场景引擎: 注意:电话通讯场景,请务必使用以下8k引擎** • 8k_zh:中文电话通讯; • 8k_en:英文电话通讯; 如您有电话通讯场景识别需求,但发现需求语种仅支持16k,可将8k音频传入下方16k引擎,亦能获取识别结果。但**16k引擎并非基于电话通讯数据训练,无法承诺此种调用方式的识别效果,需由您自行验证识别结果是否可用** 通用场景引擎: 注意:除电话通讯场景以外的其它识别场景,请务必使用以下16k引擎** • 16k_zh:中文普通话通用引擎,支持中文普通话和少量英语,使用丰富的中文普通话语料训练,覆盖场景广泛,适用于除电话通讯外的所有中文普通话识别场景; • 16k_zh-PY:中英粤混合引擎,使用一个引擎同时识别中文普通话、英语、粤语三个语言; • 16k_zh_dialect:中文普通话+多方言混合引擎,除普通话外支持23种方言(上海话、四川话、武汉话、贵阳话、昆明话、西安话、郑州话、太原话、兰州话、银川话、西宁话、南京话、合肥话、南昌话、长沙话、苏州话、杭州话、济南话、天津话、石家庄话、黑龙江话、吉林话、辽宁话); • 16k_en:英语; • 16k_yue:粤语; • 16k_ja:日语; • 16k_ko:韩语; • 16k_vi:越南语; • 16k_ms:马来语; • 16k_id:印度尼西亚语; • 16k_fil:菲律宾语; • 16k_th:泰语; • 16k_pt:葡萄牙语; • 16k_tr:土耳其语; • 16k_ar:阿拉伯语; • 16k_es:西班牙语; • 16k_hi:印地语; • 16k_zh_medical:中文医疗引擎- Parameters:
EngineModelType
- 引擎模型类型 电话通讯场景引擎: 注意:电话通讯场景,请务必使用以下8k引擎** • 8k_zh:中文电话通讯; • 8k_en:英文电话通讯; 如您有电话通讯场景识别需求,但发现需求语种仅支持16k,可将8k音频传入下方16k引擎,亦能获取识别结果。但**16k引擎并非基于电话通讯数据训练,无法承诺此种调用方式的识别效果,需由您自行验证识别结果是否可用** 通用场景引擎: 注意:除电话通讯场景以外的其它识别场景,请务必使用以下16k引擎** • 16k_zh:中文普通话通用引擎,支持中文普通话和少量英语,使用丰富的中文普通话语料训练,覆盖场景广泛,适用于除电话通讯外的所有中文普通话识别场景; • 16k_zh-PY:中英粤混合引擎,使用一个引擎同时识别中文普通话、英语、粤语三个语言; • 16k_zh_dialect:中文普通话+多方言混合引擎,除普通话外支持23种方言(上海话、四川话、武汉话、贵阳话、昆明话、西安话、郑州话、太原话、兰州话、银川话、西宁话、南京话、合肥话、南昌话、长沙话、苏州话、杭州话、济南话、天津话、石家庄话、黑龙江话、吉林话、辽宁话); • 16k_en:英语; • 16k_yue:粤语; • 16k_ja:日语; • 16k_ko:韩语; • 16k_vi:越南语; • 16k_ms:马来语; • 16k_id:印度尼西亚语; • 16k_fil:菲律宾语; • 16k_th:泰语; • 16k_pt:葡萄牙语; • 16k_tr:土耳其语; • 16k_ar:阿拉伯语; • 16k_es:西班牙语; • 16k_hi:印地语; • 16k_zh_medical:中文医疗引擎
-
getChannelNum
public Long getChannelNum()
Get 识别声道数 1:单声道(16k音频仅支持单声道,**请勿**设置为双声道); 2:双声道(仅支持8k电话音频,且双声道应分别为通话双方) 注意: • 16k音频:仅支持单声道识别,**需设置ChannelNum=1**; • 8k电话音频:支持单声道、双声道识别,**建议设置ChannelNum=2,即双声道**。双声道能够物理区分说话人、避免说话双方重叠产生的识别错误,能达到最好的说话人分离效果和识别效果。设置双声道后,将自动区分说话人,因此**无需再开启说话人分离功能**,相关参数(**SpeakerDiarization、SpeakerNumber**)使用默认值即可- Returns:
- ChannelNum 识别声道数 1:单声道(16k音频仅支持单声道,**请勿**设置为双声道); 2:双声道(仅支持8k电话音频,且双声道应分别为通话双方) 注意: • 16k音频:仅支持单声道识别,**需设置ChannelNum=1**; • 8k电话音频:支持单声道、双声道识别,**建议设置ChannelNum=2,即双声道**。双声道能够物理区分说话人、避免说话双方重叠产生的识别错误,能达到最好的说话人分离效果和识别效果。设置双声道后,将自动区分说话人,因此**无需再开启说话人分离功能**,相关参数(**SpeakerDiarization、SpeakerNumber**)使用默认值即可
-
setChannelNum
public void setChannelNum(Long ChannelNum)
Set 识别声道数 1:单声道(16k音频仅支持单声道,**请勿**设置为双声道); 2:双声道(仅支持8k电话音频,且双声道应分别为通话双方) 注意: • 16k音频:仅支持单声道识别,**需设置ChannelNum=1**; • 8k电话音频:支持单声道、双声道识别,**建议设置ChannelNum=2,即双声道**。双声道能够物理区分说话人、避免说话双方重叠产生的识别错误,能达到最好的说话人分离效果和识别效果。设置双声道后,将自动区分说话人,因此**无需再开启说话人分离功能**,相关参数(**SpeakerDiarization、SpeakerNumber**)使用默认值即可- Parameters:
ChannelNum
- 识别声道数 1:单声道(16k音频仅支持单声道,**请勿**设置为双声道); 2:双声道(仅支持8k电话音频,且双声道应分别为通话双方) 注意: • 16k音频:仅支持单声道识别,**需设置ChannelNum=1**; • 8k电话音频:支持单声道、双声道识别,**建议设置ChannelNum=2,即双声道**。双声道能够物理区分说话人、避免说话双方重叠产生的识别错误,能达到最好的说话人分离效果和识别效果。设置双声道后,将自动区分说话人,因此**无需再开启说话人分离功能**,相关参数(**SpeakerDiarization、SpeakerNumber**)使用默认值即可
-
getResTextFormat
public Long getResTextFormat()
Get 识别结果返回样式 0:基础识别结果(仅包含有效人声时间戳,无词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)); 1:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值,**不含标点**); 2:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点); 3:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点),且识别结果按标点符号分段,**适用字幕场景**; 4:**【增值付费功能】**基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点),且识别结果按nlp语义分段,**适用会议、庭审记录转写等场景**,仅支持8k_zh/16k_zh引擎 注意:如果传入参数值4,需确保账号已购买[语义分段资源包](https://cloud.tencent.com/document/product/1093/35686#97ae4aa0-29a0-4066-9f07-ccaf8856a16b),或账号开启后付费;**若当前账号已开启后付费功能,并传入参数值4,将[自动计费](https://cloud.tencent.com/document/product/1093/35686#d912167d-ffd5-41a9-8b1c-2e89845a6852))**- Returns:
- ResTextFormat 识别结果返回样式 0:基础识别结果(仅包含有效人声时间戳,无词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)); 1:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值,**不含标点**); 2:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点); 3:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点),且识别结果按标点符号分段,**适用字幕场景**; 4:**【增值付费功能】**基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点),且识别结果按nlp语义分段,**适用会议、庭审记录转写等场景**,仅支持8k_zh/16k_zh引擎 注意:如果传入参数值4,需确保账号已购买[语义分段资源包](https://cloud.tencent.com/document/product/1093/35686#97ae4aa0-29a0-4066-9f07-ccaf8856a16b),或账号开启后付费;**若当前账号已开启后付费功能,并传入参数值4,将[自动计费](https://cloud.tencent.com/document/product/1093/35686#d912167d-ffd5-41a9-8b1c-2e89845a6852))**
-
setResTextFormat
public void setResTextFormat(Long ResTextFormat)
Set 识别结果返回样式 0:基础识别结果(仅包含有效人声时间戳,无词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)); 1:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值,**不含标点**); 2:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点); 3:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点),且识别结果按标点符号分段,**适用字幕场景**; 4:**【增值付费功能】**基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点),且识别结果按nlp语义分段,**适用会议、庭审记录转写等场景**,仅支持8k_zh/16k_zh引擎 注意:如果传入参数值4,需确保账号已购买[语义分段资源包](https://cloud.tencent.com/document/product/1093/35686#97ae4aa0-29a0-4066-9f07-ccaf8856a16b),或账号开启后付费;**若当前账号已开启后付费功能,并传入参数值4,将[自动计费](https://cloud.tencent.com/document/product/1093/35686#d912167d-ffd5-41a9-8b1c-2e89845a6852))**- Parameters:
ResTextFormat
- 识别结果返回样式 0:基础识别结果(仅包含有效人声时间戳,无词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)); 1:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值,**不含标点**); 2:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点); 3:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点),且识别结果按标点符号分段,**适用字幕场景**; 4:**【增值付费功能】**基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点),且识别结果按nlp语义分段,**适用会议、庭审记录转写等场景**,仅支持8k_zh/16k_zh引擎 注意:如果传入参数值4,需确保账号已购买[语义分段资源包](https://cloud.tencent.com/document/product/1093/35686#97ae4aa0-29a0-4066-9f07-ccaf8856a16b),或账号开启后付费;**若当前账号已开启后付费功能,并传入参数值4,将[自动计费](https://cloud.tencent.com/document/product/1093/35686#d912167d-ffd5-41a9-8b1c-2e89845a6852))**
-
getSourceType
public Long getSourceType()
Get 语音数据来源 0:语音 URL; 1:语音数据(post body)- Returns:
- SourceType 语音数据来源 0:语音 URL; 1:语音数据(post body)
-
setSourceType
public void setSourceType(Long SourceType)
Set 语音数据来源 0:语音 URL; 1:语音数据(post body)- Parameters:
SourceType
- 语音数据来源 0:语音 URL; 1:语音数据(post body)
-
getData
public String getData()
Get 语音数据base64编码 当 SourceType 值为 1 时须填写该字段,为 0 时不需要填写** 注意:音频数据要小于5MB(含)- Returns:
- Data 语音数据base64编码 当 SourceType 值为 1 时须填写该字段,为 0 时不需要填写** 注意:音频数据要小于5MB(含)
-
setData
public void setData(String Data)
Set 语音数据base64编码 当 SourceType 值为 1 时须填写该字段,为 0 时不需要填写** 注意:音频数据要小于5MB(含)- Parameters:
Data
- 语音数据base64编码 当 SourceType 值为 1 时须填写该字段,为 0 时不需要填写** 注意:音频数据要小于5MB(含)
-
getDataLen
public Long getDataLen()
Get 数据长度(此数据长度为数据未进行base64编码时的长度)- Returns:
- DataLen 数据长度(此数据长度为数据未进行base64编码时的长度)
-
setDataLen
public void setDataLen(Long DataLen)
Set 数据长度(此数据长度为数据未进行base64编码时的长度)- Parameters:
DataLen
- 数据长度(此数据长度为数据未进行base64编码时的长度)
-
getUrl
public String getUrl()
Get 语音URL的地址(需要公网环境浏览器可下载) 当 SourceType 值为 0 时须填写该字段,为 1 时不需要填写** 注意: 1. 请确保录音文件时长在5个小时(含)之内,否则可能识别失败; 2. 请保证文件的下载速度,否则可能下载失败- Returns:
- Url 语音URL的地址(需要公网环境浏览器可下载) 当 SourceType 值为 0 时须填写该字段,为 1 时不需要填写** 注意: 1. 请确保录音文件时长在5个小时(含)之内,否则可能识别失败; 2. 请保证文件的下载速度,否则可能下载失败
-
setUrl
public void setUrl(String Url)
Set 语音URL的地址(需要公网环境浏览器可下载) 当 SourceType 值为 0 时须填写该字段,为 1 时不需要填写** 注意: 1. 请确保录音文件时长在5个小时(含)之内,否则可能识别失败; 2. 请保证文件的下载速度,否则可能下载失败- Parameters:
Url
- 语音URL的地址(需要公网环境浏览器可下载) 当 SourceType 值为 0 时须填写该字段,为 1 时不需要填写** 注意: 1. 请确保录音文件时长在5个小时(含)之内,否则可能识别失败; 2. 请保证文件的下载速度,否则可能下载失败
-
getCallbackUrl
public String getCallbackUrl()
Get 回调 URL 用户自行搭建的用于接收识别结果的服务URL 回调格式和内容详见:[录音识别回调说明](https://cloud.tencent.com/document/product/1093/52632) 注意: 如果用户使用轮询方式获取识别结果,则无需提交该参数- Returns:
- CallbackUrl 回调 URL 用户自行搭建的用于接收识别结果的服务URL 回调格式和内容详见:[录音识别回调说明](https://cloud.tencent.com/document/product/1093/52632) 注意: 如果用户使用轮询方式获取识别结果,则无需提交该参数
-
setCallbackUrl
public void setCallbackUrl(String CallbackUrl)
Set 回调 URL 用户自行搭建的用于接收识别结果的服务URL 回调格式和内容详见:[录音识别回调说明](https://cloud.tencent.com/document/product/1093/52632) 注意: 如果用户使用轮询方式获取识别结果,则无需提交该参数- Parameters:
CallbackUrl
- 回调 URL 用户自行搭建的用于接收识别结果的服务URL 回调格式和内容详见:[录音识别回调说明](https://cloud.tencent.com/document/product/1093/52632) 注意: 如果用户使用轮询方式获取识别结果,则无需提交该参数
-
getSpeakerDiarization
public Long getSpeakerDiarization()
Get 是否开启说话人分离 0:不开启; 1:开启(仅支持以下引擎:8k_zh/16k_zh/16k_ms/16k_en/16k_id,且ChannelNum=1时可用); 默认值为 0 注意: 8k双声道电话音频请按 **ChannelNum 识别声道数** 的参数描述使用默认值- Returns:
- SpeakerDiarization 是否开启说话人分离 0:不开启; 1:开启(仅支持以下引擎:8k_zh/16k_zh/16k_ms/16k_en/16k_id,且ChannelNum=1时可用); 默认值为 0 注意: 8k双声道电话音频请按 **ChannelNum 识别声道数** 的参数描述使用默认值
-
setSpeakerDiarization
public void setSpeakerDiarization(Long SpeakerDiarization)
Set 是否开启说话人分离 0:不开启; 1:开启(仅支持以下引擎:8k_zh/16k_zh/16k_ms/16k_en/16k_id,且ChannelNum=1时可用); 默认值为 0 注意: 8k双声道电话音频请按 **ChannelNum 识别声道数** 的参数描述使用默认值- Parameters:
SpeakerDiarization
- 是否开启说话人分离 0:不开启; 1:开启(仅支持以下引擎:8k_zh/16k_zh/16k_ms/16k_en/16k_id,且ChannelNum=1时可用); 默认值为 0 注意: 8k双声道电话音频请按 **ChannelNum 识别声道数** 的参数描述使用默认值
-
getSpeakerNumber
public Long getSpeakerNumber()
Get 说话人分离人数 需配合开启说话人分离使用,不开启无效**,取值范围:0-10 0:自动分离(最多分离出20个人); 1-10:指定人数分离; 默认值为 0- Returns:
- SpeakerNumber 说话人分离人数 需配合开启说话人分离使用,不开启无效**,取值范围:0-10 0:自动分离(最多分离出20个人); 1-10:指定人数分离; 默认值为 0
-
setSpeakerNumber
public void setSpeakerNumber(Long SpeakerNumber)
Set 说话人分离人数 需配合开启说话人分离使用,不开启无效**,取值范围:0-10 0:自动分离(最多分离出20个人); 1-10:指定人数分离; 默认值为 0- Parameters:
SpeakerNumber
- 说话人分离人数 需配合开启说话人分离使用,不开启无效**,取值范围:0-10 0:自动分离(最多分离出20个人); 1-10:指定人数分离; 默认值为 0
-
getHotwordId
public String getHotwordId()
Get 热词表id 如不设置该参数,将自动生效默认热词表; 如设置该参数,将生效对应id的热词表; 点击这里查看[热词表配置方法](https://cloud.tencent.com/document/product/1093/40996)- Returns:
- HotwordId 热词表id 如不设置该参数,将自动生效默认热词表; 如设置该参数,将生效对应id的热词表; 点击这里查看[热词表配置方法](https://cloud.tencent.com/document/product/1093/40996)
-
setHotwordId
public void setHotwordId(String HotwordId)
Set 热词表id 如不设置该参数,将自动生效默认热词表; 如设置该参数,将生效对应id的热词表; 点击这里查看[热词表配置方法](https://cloud.tencent.com/document/product/1093/40996)- Parameters:
HotwordId
- 热词表id 如不设置该参数,将自动生效默认热词表; 如设置该参数,将生效对应id的热词表; 点击这里查看[热词表配置方法](https://cloud.tencent.com/document/product/1093/40996)
-
getReinforceHotword
public Long getReinforceHotword()
Get 热词增强功能(目前仅支持8k_zh/16k_zh引擎) 1:开启热词增强功能 注意:热词增强功能开启后,将对传入的热词表id开启同音替换功能,可以在这里查看[热词表配置方法](https://cloud.tencent.com/document/product/1093/40996)。效果举例:在热词表中配置“蜜制”一词,并开启增强功能,与“蜜制”(mìzhì)同音同调的“秘制”(mìzhì)的识别结果会被强制替换成“蜜制”。**建议客户根据实际的业务需求开启该功能**- Returns:
- ReinforceHotword 热词增强功能(目前仅支持8k_zh/16k_zh引擎) 1:开启热词增强功能 注意:热词增强功能开启后,将对传入的热词表id开启同音替换功能,可以在这里查看[热词表配置方法](https://cloud.tencent.com/document/product/1093/40996)。效果举例:在热词表中配置“蜜制”一词,并开启增强功能,与“蜜制”(mìzhì)同音同调的“秘制”(mìzhì)的识别结果会被强制替换成“蜜制”。**建议客户根据实际的业务需求开启该功能**
-
setReinforceHotword
public void setReinforceHotword(Long ReinforceHotword)
Set 热词增强功能(目前仅支持8k_zh/16k_zh引擎) 1:开启热词增强功能 注意:热词增强功能开启后,将对传入的热词表id开启同音替换功能,可以在这里查看[热词表配置方法](https://cloud.tencent.com/document/product/1093/40996)。效果举例:在热词表中配置“蜜制”一词,并开启增强功能,与“蜜制”(mìzhì)同音同调的“秘制”(mìzhì)的识别结果会被强制替换成“蜜制”。**建议客户根据实际的业务需求开启该功能**- Parameters:
ReinforceHotword
- 热词增强功能(目前仅支持8k_zh/16k_zh引擎) 1:开启热词增强功能 注意:热词增强功能开启后,将对传入的热词表id开启同音替换功能,可以在这里查看[热词表配置方法](https://cloud.tencent.com/document/product/1093/40996)。效果举例:在热词表中配置“蜜制”一词,并开启增强功能,与“蜜制”(mìzhì)同音同调的“秘制”(mìzhì)的识别结果会被强制替换成“蜜制”。**建议客户根据实际的业务需求开启该功能**
-
getCustomizationId
public String getCustomizationId()
Get 自学习定制模型 id 如设置了该参数,将生效对应id的自学习定制模型; 点击这里查看[自学习定制模型配置方法](https://cloud.tencent.com/document/product/1093/38416)- Returns:
- CustomizationId 自学习定制模型 id 如设置了该参数,将生效对应id的自学习定制模型; 点击这里查看[自学习定制模型配置方法](https://cloud.tencent.com/document/product/1093/38416)
-
setCustomizationId
public void setCustomizationId(String CustomizationId)
Set 自学习定制模型 id 如设置了该参数,将生效对应id的自学习定制模型; 点击这里查看[自学习定制模型配置方法](https://cloud.tencent.com/document/product/1093/38416)- Parameters:
CustomizationId
- 自学习定制模型 id 如设置了该参数,将生效对应id的自学习定制模型; 点击这里查看[自学习定制模型配置方法](https://cloud.tencent.com/document/product/1093/38416)
-
getEmotionRecognition
public Long getEmotionRecognition()
Get **【增值付费功能】**情绪识别能力(目前仅支持16k_zh) 0:不开启; 1:开启情绪识别,但不在文本展示情绪标签; 2:开启情绪识别,并且在文本展示情绪标签(**该功能需要设置ResTextFormat 大于0**) 默认值为0 支持的情绪分类为:高兴、伤心、愤怒 注意: 1. **本功能为增值服务**,需将参数设置为1或2时方可按对应方式生效; 2. 如果传入参数值1或2,需确保账号已购买[情绪识别资源包](https://cloud.tencent.com/document/product/1093/35686#97ae4aa0-29a0-4066-9f07-ccaf8856a16b),或账号开启后付费;**若当前账号已开启后付费功能,并传入参数值1或2,将[自动计费](https://cloud.tencent.com/document/product/1093/35686#d912167d-ffd5-41a9-8b1c-2e89845a6852))**; 3. 参数设置为0时,无需购买资源包,也不会消耗情绪识别对应资源- Returns:
- EmotionRecognition **【增值付费功能】**情绪识别能力(目前仅支持16k_zh) 0:不开启; 1:开启情绪识别,但不在文本展示情绪标签; 2:开启情绪识别,并且在文本展示情绪标签(**该功能需要设置ResTextFormat 大于0**) 默认值为0 支持的情绪分类为:高兴、伤心、愤怒 注意: 1. **本功能为增值服务**,需将参数设置为1或2时方可按对应方式生效; 2. 如果传入参数值1或2,需确保账号已购买[情绪识别资源包](https://cloud.tencent.com/document/product/1093/35686#97ae4aa0-29a0-4066-9f07-ccaf8856a16b),或账号开启后付费;**若当前账号已开启后付费功能,并传入参数值1或2,将[自动计费](https://cloud.tencent.com/document/product/1093/35686#d912167d-ffd5-41a9-8b1c-2e89845a6852))**; 3. 参数设置为0时,无需购买资源包,也不会消耗情绪识别对应资源
-
setEmotionRecognition
public void setEmotionRecognition(Long EmotionRecognition)
Set **【增值付费功能】**情绪识别能力(目前仅支持16k_zh) 0:不开启; 1:开启情绪识别,但不在文本展示情绪标签; 2:开启情绪识别,并且在文本展示情绪标签(**该功能需要设置ResTextFormat 大于0**) 默认值为0 支持的情绪分类为:高兴、伤心、愤怒 注意: 1. **本功能为增值服务**,需将参数设置为1或2时方可按对应方式生效; 2. 如果传入参数值1或2,需确保账号已购买[情绪识别资源包](https://cloud.tencent.com/document/product/1093/35686#97ae4aa0-29a0-4066-9f07-ccaf8856a16b),或账号开启后付费;**若当前账号已开启后付费功能,并传入参数值1或2,将[自动计费](https://cloud.tencent.com/document/product/1093/35686#d912167d-ffd5-41a9-8b1c-2e89845a6852))**; 3. 参数设置为0时,无需购买资源包,也不会消耗情绪识别对应资源- Parameters:
EmotionRecognition
- **【增值付费功能】**情绪识别能力(目前仅支持16k_zh) 0:不开启; 1:开启情绪识别,但不在文本展示情绪标签; 2:开启情绪识别,并且在文本展示情绪标签(**该功能需要设置ResTextFormat 大于0**) 默认值为0 支持的情绪分类为:高兴、伤心、愤怒 注意: 1. **本功能为增值服务**,需将参数设置为1或2时方可按对应方式生效; 2. 如果传入参数值1或2,需确保账号已购买[情绪识别资源包](https://cloud.tencent.com/document/product/1093/35686#97ae4aa0-29a0-4066-9f07-ccaf8856a16b),或账号开启后付费;**若当前账号已开启后付费功能,并传入参数值1或2,将[自动计费](https://cloud.tencent.com/document/product/1093/35686#d912167d-ffd5-41a9-8b1c-2e89845a6852))**; 3. 参数设置为0时,无需购买资源包,也不会消耗情绪识别对应资源
-
getEmotionalEnergy
public Long getEmotionalEnergy()
Get 情绪能量值 取值为音量分贝值/10,取值范围:[1,10],值越高情绪越强烈 0:不开启; 1:开启; 默认值为0- Returns:
- EmotionalEnergy 情绪能量值 取值为音量分贝值/10,取值范围:[1,10],值越高情绪越强烈 0:不开启; 1:开启; 默认值为0
-
setEmotionalEnergy
public void setEmotionalEnergy(Long EmotionalEnergy)
Set 情绪能量值 取值为音量分贝值/10,取值范围:[1,10],值越高情绪越强烈 0:不开启; 1:开启; 默认值为0- Parameters:
EmotionalEnergy
- 情绪能量值 取值为音量分贝值/10,取值范围:[1,10],值越高情绪越强烈 0:不开启; 1:开启; 默认值为0
-
getConvertNumMode
public Long getConvertNumMode()
Get 阿拉伯数字智能转换(目前仅支持8k_zh/16k_zh引擎) 0:不转换,直接输出中文数字; 1:根据场景智能转换为阿拉伯数字; 3:打开数学相关数字转换(如:阿尔法转写为α); 默认值为 1- Returns:
- ConvertNumMode 阿拉伯数字智能转换(目前仅支持8k_zh/16k_zh引擎) 0:不转换,直接输出中文数字; 1:根据场景智能转换为阿拉伯数字; 3:打开数学相关数字转换(如:阿尔法转写为α); 默认值为 1
-
setConvertNumMode
public void setConvertNumMode(Long ConvertNumMode)
Set 阿拉伯数字智能转换(目前仅支持8k_zh/16k_zh引擎) 0:不转换,直接输出中文数字; 1:根据场景智能转换为阿拉伯数字; 3:打开数学相关数字转换(如:阿尔法转写为α); 默认值为 1- Parameters:
ConvertNumMode
- 阿拉伯数字智能转换(目前仅支持8k_zh/16k_zh引擎) 0:不转换,直接输出中文数字; 1:根据场景智能转换为阿拉伯数字; 3:打开数学相关数字转换(如:阿尔法转写为α); 默认值为 1
-
getFilterDirty
public Long getFilterDirty()
Get 脏词过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤脏词; 1:过滤脏词; 2:将脏词替换为 * ; 默认值为 0- Returns:
- FilterDirty 脏词过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤脏词; 1:过滤脏词; 2:将脏词替换为 * ; 默认值为 0
-
setFilterDirty
public void setFilterDirty(Long FilterDirty)
Set 脏词过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤脏词; 1:过滤脏词; 2:将脏词替换为 * ; 默认值为 0- Parameters:
FilterDirty
- 脏词过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤脏词; 1:过滤脏词; 2:将脏词替换为 * ; 默认值为 0
-
getFilterPunc
public Long getFilterPunc()
Get 标点符号过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤标点; 1:过滤句末标点; 2:过滤所有标点; 默认值为 0- Returns:
- FilterPunc 标点符号过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤标点; 1:过滤句末标点; 2:过滤所有标点; 默认值为 0
-
setFilterPunc
public void setFilterPunc(Long FilterPunc)
Set 标点符号过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤标点; 1:过滤句末标点; 2:过滤所有标点; 默认值为 0- Parameters:
FilterPunc
- 标点符号过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤标点; 1:过滤句末标点; 2:过滤所有标点; 默认值为 0
-
getFilterModal
public Long getFilterModal()
Get 语气词过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤语气词; 1:过滤部分语气词; 2:严格过滤语气词; 默认值为 0- Returns:
- FilterModal 语气词过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤语气词; 1:过滤部分语气词; 2:严格过滤语气词; 默认值为 0
-
setFilterModal
public void setFilterModal(Long FilterModal)
Set 语气词过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤语气词; 1:过滤部分语气词; 2:严格过滤语气词; 默认值为 0- Parameters:
FilterModal
- 语气词过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤语气词; 1:过滤部分语气词; 2:严格过滤语气词; 默认值为 0
-
getSentenceMaxLength
public Long getSentenceMaxLength()
Get 单标点最多字数 可控制单行字幕最大字数,适用于字幕生成场景**,取值范围:[6,40] 0:不开启该功能; 默认值为0 注意:需设置ResTextFormat为3,解析返回的ResultDetail列表,通过结构中FinalSentence获取单个标点断句结果- Returns:
- SentenceMaxLength 单标点最多字数 可控制单行字幕最大字数,适用于字幕生成场景**,取值范围:[6,40] 0:不开启该功能; 默认值为0 注意:需设置ResTextFormat为3,解析返回的ResultDetail列表,通过结构中FinalSentence获取单个标点断句结果
-
setSentenceMaxLength
public void setSentenceMaxLength(Long SentenceMaxLength)
Set 单标点最多字数 可控制单行字幕最大字数,适用于字幕生成场景**,取值范围:[6,40] 0:不开启该功能; 默认值为0 注意:需设置ResTextFormat为3,解析返回的ResultDetail列表,通过结构中FinalSentence获取单个标点断句结果- Parameters:
SentenceMaxLength
- 单标点最多字数 可控制单行字幕最大字数,适用于字幕生成场景**,取值范围:[6,40] 0:不开启该功能; 默认值为0 注意:需设置ResTextFormat为3,解析返回的ResultDetail列表,通过结构中FinalSentence获取单个标点断句结果
-
getExtra
public String getExtra()
Get 附加参数**(该参数无意义,忽略即可)**- Returns:
- Extra 附加参数**(该参数无意义,忽略即可)**
-
setExtra
public void setExtra(String Extra)
Set 附加参数**(该参数无意义,忽略即可)**- Parameters:
Extra
- 附加参数**(该参数无意义,忽略即可)**
-
-