Class CreateRecTaskRequest
- java.lang.Object
-
- com.tencentcloudapi.common.AbstractModel
-
- com.tencentcloudapi.asr.v20190614.models.CreateRecTaskRequest
-
public class CreateRecTaskRequest extends AbstractModel
-
-
Field Summary
-
Fields inherited from class com.tencentcloudapi.common.AbstractModel
header, skipSign
-
-
Constructor Summary
Constructors Constructor Description CreateRecTaskRequest()CreateRecTaskRequest(CreateRecTaskRequest source)NOTE: Any ambiguous key set via .set("AnyKey", "value") will be a shallow copy, and any explicit key, i.e Foo, set via .setFoo("value") will be a deep copy.
-
Method Summary
All Methods Instance Methods Concrete Methods Modifier and Type Method Description StringgetCallbackUrl()Get 回调 URL 用户自行搭建的用于接收识别结果的服务URL 回调格式和内容详见:[录音识别回调说明](https://cloud.tencent.com/document/product/1093/52632) 注意: 如果用户使用轮询方式获取识别结果,则无需提交该参数LonggetChannelNum()Get 识别声道数 1:单声道(16k音频仅支持单声道,**请勿**设置为双声道); 2:双声道(仅支持8k电话音频,且双声道应分别为通话双方) 注意: • 16k音频:仅支持单声道识别,**需设置ChannelNum=1**; • 8k电话音频:支持单声道、双声道识别,**建议设置ChannelNum=2,即双声道**。双声道能够物理区分说话人、避免说话双方重叠产生的识别错误,能达到最好的说话人分离效果和识别效果。设置双声道后,将自动区分说话人,因此**无需再开启说话人分离功能**,相关参数(**SpeakerDiarization、SpeakerNumber**)使用默认值即可LonggetConvertNumMode()Get 阿拉伯数字智能转换(目前仅支持8k_zh/16k_zh引擎) 0:不转换,直接输出中文数字; 1:根据场景智能转换为阿拉伯数字; 3:打开数学相关数字转换(如:阿尔法转写为α); 默认值为 1StringgetCustomizationId()Get 自学习定制模型 id 如设置了该参数,将生效对应id的自学习定制模型; 点击这里查看[自学习定制模型配置方法](https://cloud.tencent.com/document/product/1093/38416)StringgetData()Get 语音数据base64编码 当 SourceType 值为 1 时须填写该字段,为 0 时不需要填写** 注意:音频数据要小于5MB(含)LonggetDataLen()Get 数据长度(此数据长度为数据未进行base64编码时的长度)LonggetEmotionalEnergy()Get 情绪能量值 取值为音量分贝值/10,取值范围:[1,10],值越高情绪越强烈 0:不开启; 1:开启; 默认值为0LonggetEmotionRecognition()Get **【增值付费功能】**情绪识别能力(目前仅支持16k_zh) 0:不开启; 1:开启情绪识别,但不在文本展示情绪标签; 2:开启情绪识别,并且在文本展示情绪标签(**该功能需要设置ResTextFormat 大于0**) 默认值为0 支持的情绪分类为:高兴、伤心、愤怒 注意: 1.StringgetEngineModelType()Get 引擎模型类型 电话通讯场景引擎: 注意:电话通讯场景,请务必使用以下8k引擎** • 8k_zh:中文电话通讯; • 8k_en:英文电话通讯; 如您有电话通讯场景识别需求,但发现需求语种仅支持16k,可将8k音频传入下方16k引擎,亦能获取识别结果。但**16k引擎并非基于电话通讯数据训练,无法承诺此种调用方式的识别效果,需由您自行验证识别结果是否可用** 通用场景引擎: 注意:除电话通讯场景以外的其它识别场景,请务必使用以下16k引擎** • 16k_zh:中文普通话通用引擎,支持中文普通话和少量英语,使用丰富的中文普通话语料训练,覆盖场景广泛,适用于除电话通讯外的所有中文普通话识别场景; • 16k_zh-PY:中英粤混合引擎,使用一个引擎同时识别中文普通话、英语、粤语三个语言; • 16k_zh_dialect:中文普通话+多方言混合引擎,除普通话外支持23种方言(上海话、四川话、武汉话、贵阳话、昆明话、西安话、郑州话、太原话、兰州话、银川话、西宁话、南京话、合肥话、南昌话、长沙话、苏州话、杭州话、济南话、天津话、石家庄话、黑龙江话、吉林话、辽宁话); • 16k_en:英语; • 16k_yue:粤语; • 16k_ja:日语; • 16k_ko:韩语; • 16k_vi:越南语; • 16k_ms:马来语; • 16k_id:印度尼西亚语; • 16k_fil:菲律宾语; • 16k_th:泰语; • 16k_pt:葡萄牙语; • 16k_tr:土耳其语; • 16k_ar:阿拉伯语; • 16k_es:西班牙语; • 16k_hi:印地语; • 16k_zh_medical:中文医疗引擎StringgetExtra()Get 附加参数**(该参数无意义,忽略即可)**LonggetFilterDirty()Get 脏词过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤脏词; 1:过滤脏词; 2:将脏词替换为 * ; 默认值为 0LonggetFilterModal()Get 语气词过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤语气词; 1:过滤部分语气词; 2:严格过滤语气词; 默认值为 0LonggetFilterPunc()Get 标点符号过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤标点; 1:过滤句末标点; 2:过滤所有标点; 默认值为 0StringgetHotwordId()Get 热词表id 如不设置该参数,将自动生效默认热词表; 如设置该参数,将生效对应id的热词表; 点击这里查看[热词表配置方法](https://cloud.tencent.com/document/product/1093/40996)LonggetReinforceHotword()Get 热词增强功能(目前仅支持8k_zh/16k_zh引擎) 1:开启热词增强功能 注意:热词增强功能开启后,将对传入的热词表id开启同音替换功能,可以在这里查看[热词表配置方法](https://cloud.tencent.com/document/product/1093/40996)。效果举例:在热词表中配置“蜜制”一词,并开启增强功能,与“蜜制”(mìzhì)同音同调的“秘制”(mìzhì)的识别结果会被强制替换成“蜜制”。**建议客户根据实际的业务需求开启该功能**LonggetResTextFormat()Get 识别结果返回样式 0:基础识别结果(仅包含有效人声时间戳,无词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)); 1:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值,**不含标点**); 2:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点); 3:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点),且识别结果按标点符号分段,**适用字幕场景**; 4:**【增值付费功能】**基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点),且识别结果按nlp语义分段,**适用会议、庭审记录转写等场景**,仅支持8k_zh/16k_zh引擎 注意:如果传入参数值4,需确保账号已购买[语义分段资源包](https://cloud.tencent.com/document/product/1093/35686#97ae4aa0-29a0-4066-9f07-ccaf8856a16b),或账号开启后付费;**若当前账号已开启后付费功能,并传入参数值4,将[自动计费](https://cloud.tencent.com/document/product/1093/35686#d912167d-ffd5-41a9-8b1c-2e89845a6852))**LonggetSentenceMaxLength()Get 单标点最多字数 可控制单行字幕最大字数,适用于字幕生成场景**,取值范围:[6,40] 0:不开启该功能; 默认值为0 注意:需设置ResTextFormat为3,解析返回的ResultDetail列表,通过结构中FinalSentence获取单个标点断句结果LonggetSourceType()Get 语音数据来源 0:语音 URL; 1:语音数据(post body)LonggetSpeakerDiarization()Get 是否开启说话人分离 0:不开启; 1:开启(仅支持以下引擎:8k_zh/16k_zh/16k_ms/16k_en/16k_id,且ChannelNum=1时可用); 默认值为 0 注意: 8k双声道电话音频请按 **ChannelNum 识别声道数** 的参数描述使用默认值LonggetSpeakerNumber()Get 说话人分离人数 需配合开启说话人分离使用,不开启无效**,取值范围:0-10 0:自动分离(最多分离出20个人); 1-10:指定人数分离; 默认值为 0StringgetUrl()Get 语音URL的地址(需要公网环境浏览器可下载) 当 SourceType 值为 0 时须填写该字段,为 1 时不需要填写** 注意: 1.voidsetCallbackUrl(String CallbackUrl)Set 回调 URL 用户自行搭建的用于接收识别结果的服务URL 回调格式和内容详见:[录音识别回调说明](https://cloud.tencent.com/document/product/1093/52632) 注意: 如果用户使用轮询方式获取识别结果,则无需提交该参数voidsetChannelNum(Long ChannelNum)Set 识别声道数 1:单声道(16k音频仅支持单声道,**请勿**设置为双声道); 2:双声道(仅支持8k电话音频,且双声道应分别为通话双方) 注意: • 16k音频:仅支持单声道识别,**需设置ChannelNum=1**; • 8k电话音频:支持单声道、双声道识别,**建议设置ChannelNum=2,即双声道**。双声道能够物理区分说话人、避免说话双方重叠产生的识别错误,能达到最好的说话人分离效果和识别效果。设置双声道后,将自动区分说话人,因此**无需再开启说话人分离功能**,相关参数(**SpeakerDiarization、SpeakerNumber**)使用默认值即可voidsetConvertNumMode(Long ConvertNumMode)Set 阿拉伯数字智能转换(目前仅支持8k_zh/16k_zh引擎) 0:不转换,直接输出中文数字; 1:根据场景智能转换为阿拉伯数字; 3:打开数学相关数字转换(如:阿尔法转写为α); 默认值为 1voidsetCustomizationId(String CustomizationId)Set 自学习定制模型 id 如设置了该参数,将生效对应id的自学习定制模型; 点击这里查看[自学习定制模型配置方法](https://cloud.tencent.com/document/product/1093/38416)voidsetData(String Data)Set 语音数据base64编码 当 SourceType 值为 1 时须填写该字段,为 0 时不需要填写** 注意:音频数据要小于5MB(含)voidsetDataLen(Long DataLen)Set 数据长度(此数据长度为数据未进行base64编码时的长度)voidsetEmotionalEnergy(Long EmotionalEnergy)Set 情绪能量值 取值为音量分贝值/10,取值范围:[1,10],值越高情绪越强烈 0:不开启; 1:开启; 默认值为0voidsetEmotionRecognition(Long EmotionRecognition)Set **【增值付费功能】**情绪识别能力(目前仅支持16k_zh) 0:不开启; 1:开启情绪识别,但不在文本展示情绪标签; 2:开启情绪识别,并且在文本展示情绪标签(**该功能需要设置ResTextFormat 大于0**) 默认值为0 支持的情绪分类为:高兴、伤心、愤怒 注意: 1.voidsetEngineModelType(String EngineModelType)Set 引擎模型类型 电话通讯场景引擎: 注意:电话通讯场景,请务必使用以下8k引擎** • 8k_zh:中文电话通讯; • 8k_en:英文电话通讯; 如您有电话通讯场景识别需求,但发现需求语种仅支持16k,可将8k音频传入下方16k引擎,亦能获取识别结果。但**16k引擎并非基于电话通讯数据训练,无法承诺此种调用方式的识别效果,需由您自行验证识别结果是否可用** 通用场景引擎: 注意:除电话通讯场景以外的其它识别场景,请务必使用以下16k引擎** • 16k_zh:中文普通话通用引擎,支持中文普通话和少量英语,使用丰富的中文普通话语料训练,覆盖场景广泛,适用于除电话通讯外的所有中文普通话识别场景; • 16k_zh-PY:中英粤混合引擎,使用一个引擎同时识别中文普通话、英语、粤语三个语言; • 16k_zh_dialect:中文普通话+多方言混合引擎,除普通话外支持23种方言(上海话、四川话、武汉话、贵阳话、昆明话、西安话、郑州话、太原话、兰州话、银川话、西宁话、南京话、合肥话、南昌话、长沙话、苏州话、杭州话、济南话、天津话、石家庄话、黑龙江话、吉林话、辽宁话); • 16k_en:英语; • 16k_yue:粤语; • 16k_ja:日语; • 16k_ko:韩语; • 16k_vi:越南语; • 16k_ms:马来语; • 16k_id:印度尼西亚语; • 16k_fil:菲律宾语; • 16k_th:泰语; • 16k_pt:葡萄牙语; • 16k_tr:土耳其语; • 16k_ar:阿拉伯语; • 16k_es:西班牙语; • 16k_hi:印地语; • 16k_zh_medical:中文医疗引擎voidsetExtra(String Extra)Set 附加参数**(该参数无意义,忽略即可)**voidsetFilterDirty(Long FilterDirty)Set 脏词过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤脏词; 1:过滤脏词; 2:将脏词替换为 * ; 默认值为 0voidsetFilterModal(Long FilterModal)Set 语气词过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤语气词; 1:过滤部分语气词; 2:严格过滤语气词; 默认值为 0voidsetFilterPunc(Long FilterPunc)Set 标点符号过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤标点; 1:过滤句末标点; 2:过滤所有标点; 默认值为 0voidsetHotwordId(String HotwordId)Set 热词表id 如不设置该参数,将自动生效默认热词表; 如设置该参数,将生效对应id的热词表; 点击这里查看[热词表配置方法](https://cloud.tencent.com/document/product/1093/40996)voidsetReinforceHotword(Long ReinforceHotword)Set 热词增强功能(目前仅支持8k_zh/16k_zh引擎) 1:开启热词增强功能 注意:热词增强功能开启后,将对传入的热词表id开启同音替换功能,可以在这里查看[热词表配置方法](https://cloud.tencent.com/document/product/1093/40996)。效果举例:在热词表中配置“蜜制”一词,并开启增强功能,与“蜜制”(mìzhì)同音同调的“秘制”(mìzhì)的识别结果会被强制替换成“蜜制”。**建议客户根据实际的业务需求开启该功能**voidsetResTextFormat(Long ResTextFormat)Set 识别结果返回样式 0:基础识别结果(仅包含有效人声时间戳,无词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)); 1:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值,**不含标点**); 2:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点); 3:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点),且识别结果按标点符号分段,**适用字幕场景**; 4:**【增值付费功能】**基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点),且识别结果按nlp语义分段,**适用会议、庭审记录转写等场景**,仅支持8k_zh/16k_zh引擎 注意:如果传入参数值4,需确保账号已购买[语义分段资源包](https://cloud.tencent.com/document/product/1093/35686#97ae4aa0-29a0-4066-9f07-ccaf8856a16b),或账号开启后付费;**若当前账号已开启后付费功能,并传入参数值4,将[自动计费](https://cloud.tencent.com/document/product/1093/35686#d912167d-ffd5-41a9-8b1c-2e89845a6852))**voidsetSentenceMaxLength(Long SentenceMaxLength)Set 单标点最多字数 可控制单行字幕最大字数,适用于字幕生成场景**,取值范围:[6,40] 0:不开启该功能; 默认值为0 注意:需设置ResTextFormat为3,解析返回的ResultDetail列表,通过结构中FinalSentence获取单个标点断句结果voidsetSourceType(Long SourceType)Set 语音数据来源 0:语音 URL; 1:语音数据(post body)voidsetSpeakerDiarization(Long SpeakerDiarization)Set 是否开启说话人分离 0:不开启; 1:开启(仅支持以下引擎:8k_zh/16k_zh/16k_ms/16k_en/16k_id,且ChannelNum=1时可用); 默认值为 0 注意: 8k双声道电话音频请按 **ChannelNum 识别声道数** 的参数描述使用默认值voidsetSpeakerNumber(Long SpeakerNumber)Set 说话人分离人数 需配合开启说话人分离使用,不开启无效**,取值范围:0-10 0:自动分离(最多分离出20个人); 1-10:指定人数分离; 默认值为 0voidsetUrl(String Url)Set 语音URL的地址(需要公网环境浏览器可下载) 当 SourceType 值为 0 时须填写该字段,为 1 时不需要填写** 注意: 1.voidtoMap(HashMap<String,String> map, String prefix)Internal implementation, normal users should not use it.-
Methods inherited from class com.tencentcloudapi.common.AbstractModel
any, fromJsonString, getBinaryParams, GetHeader, getMultipartRequestParams, getSkipSign, set, SetHeader, setParamArrayObj, setParamArraySimple, setParamObj, setParamSimple, setSkipSign, toJsonString
-
-
-
-
Constructor Detail
-
CreateRecTaskRequest
public CreateRecTaskRequest()
-
CreateRecTaskRequest
public CreateRecTaskRequest(CreateRecTaskRequest source)
NOTE: Any ambiguous key set via .set("AnyKey", "value") will be a shallow copy, and any explicit key, i.e Foo, set via .setFoo("value") will be a deep copy.
-
-
Method Detail
-
getEngineModelType
public String getEngineModelType()
Get 引擎模型类型 电话通讯场景引擎: 注意:电话通讯场景,请务必使用以下8k引擎** • 8k_zh:中文电话通讯; • 8k_en:英文电话通讯; 如您有电话通讯场景识别需求,但发现需求语种仅支持16k,可将8k音频传入下方16k引擎,亦能获取识别结果。但**16k引擎并非基于电话通讯数据训练,无法承诺此种调用方式的识别效果,需由您自行验证识别结果是否可用** 通用场景引擎: 注意:除电话通讯场景以外的其它识别场景,请务必使用以下16k引擎** • 16k_zh:中文普通话通用引擎,支持中文普通话和少量英语,使用丰富的中文普通话语料训练,覆盖场景广泛,适用于除电话通讯外的所有中文普通话识别场景; • 16k_zh-PY:中英粤混合引擎,使用一个引擎同时识别中文普通话、英语、粤语三个语言; • 16k_zh_dialect:中文普通话+多方言混合引擎,除普通话外支持23种方言(上海话、四川话、武汉话、贵阳话、昆明话、西安话、郑州话、太原话、兰州话、银川话、西宁话、南京话、合肥话、南昌话、长沙话、苏州话、杭州话、济南话、天津话、石家庄话、黑龙江话、吉林话、辽宁话); • 16k_en:英语; • 16k_yue:粤语; • 16k_ja:日语; • 16k_ko:韩语; • 16k_vi:越南语; • 16k_ms:马来语; • 16k_id:印度尼西亚语; • 16k_fil:菲律宾语; • 16k_th:泰语; • 16k_pt:葡萄牙语; • 16k_tr:土耳其语; • 16k_ar:阿拉伯语; • 16k_es:西班牙语; • 16k_hi:印地语; • 16k_zh_medical:中文医疗引擎- Returns:
- EngineModelType 引擎模型类型 电话通讯场景引擎: 注意:电话通讯场景,请务必使用以下8k引擎** • 8k_zh:中文电话通讯; • 8k_en:英文电话通讯; 如您有电话通讯场景识别需求,但发现需求语种仅支持16k,可将8k音频传入下方16k引擎,亦能获取识别结果。但**16k引擎并非基于电话通讯数据训练,无法承诺此种调用方式的识别效果,需由您自行验证识别结果是否可用** 通用场景引擎: 注意:除电话通讯场景以外的其它识别场景,请务必使用以下16k引擎** • 16k_zh:中文普通话通用引擎,支持中文普通话和少量英语,使用丰富的中文普通话语料训练,覆盖场景广泛,适用于除电话通讯外的所有中文普通话识别场景; • 16k_zh-PY:中英粤混合引擎,使用一个引擎同时识别中文普通话、英语、粤语三个语言; • 16k_zh_dialect:中文普通话+多方言混合引擎,除普通话外支持23种方言(上海话、四川话、武汉话、贵阳话、昆明话、西安话、郑州话、太原话、兰州话、银川话、西宁话、南京话、合肥话、南昌话、长沙话、苏州话、杭州话、济南话、天津话、石家庄话、黑龙江话、吉林话、辽宁话); • 16k_en:英语; • 16k_yue:粤语; • 16k_ja:日语; • 16k_ko:韩语; • 16k_vi:越南语; • 16k_ms:马来语; • 16k_id:印度尼西亚语; • 16k_fil:菲律宾语; • 16k_th:泰语; • 16k_pt:葡萄牙语; • 16k_tr:土耳其语; • 16k_ar:阿拉伯语; • 16k_es:西班牙语; • 16k_hi:印地语; • 16k_zh_medical:中文医疗引擎
-
setEngineModelType
public void setEngineModelType(String EngineModelType)
Set 引擎模型类型 电话通讯场景引擎: 注意:电话通讯场景,请务必使用以下8k引擎** • 8k_zh:中文电话通讯; • 8k_en:英文电话通讯; 如您有电话通讯场景识别需求,但发现需求语种仅支持16k,可将8k音频传入下方16k引擎,亦能获取识别结果。但**16k引擎并非基于电话通讯数据训练,无法承诺此种调用方式的识别效果,需由您自行验证识别结果是否可用** 通用场景引擎: 注意:除电话通讯场景以外的其它识别场景,请务必使用以下16k引擎** • 16k_zh:中文普通话通用引擎,支持中文普通话和少量英语,使用丰富的中文普通话语料训练,覆盖场景广泛,适用于除电话通讯外的所有中文普通话识别场景; • 16k_zh-PY:中英粤混合引擎,使用一个引擎同时识别中文普通话、英语、粤语三个语言; • 16k_zh_dialect:中文普通话+多方言混合引擎,除普通话外支持23种方言(上海话、四川话、武汉话、贵阳话、昆明话、西安话、郑州话、太原话、兰州话、银川话、西宁话、南京话、合肥话、南昌话、长沙话、苏州话、杭州话、济南话、天津话、石家庄话、黑龙江话、吉林话、辽宁话); • 16k_en:英语; • 16k_yue:粤语; • 16k_ja:日语; • 16k_ko:韩语; • 16k_vi:越南语; • 16k_ms:马来语; • 16k_id:印度尼西亚语; • 16k_fil:菲律宾语; • 16k_th:泰语; • 16k_pt:葡萄牙语; • 16k_tr:土耳其语; • 16k_ar:阿拉伯语; • 16k_es:西班牙语; • 16k_hi:印地语; • 16k_zh_medical:中文医疗引擎- Parameters:
EngineModelType- 引擎模型类型 电话通讯场景引擎: 注意:电话通讯场景,请务必使用以下8k引擎** • 8k_zh:中文电话通讯; • 8k_en:英文电话通讯; 如您有电话通讯场景识别需求,但发现需求语种仅支持16k,可将8k音频传入下方16k引擎,亦能获取识别结果。但**16k引擎并非基于电话通讯数据训练,无法承诺此种调用方式的识别效果,需由您自行验证识别结果是否可用** 通用场景引擎: 注意:除电话通讯场景以外的其它识别场景,请务必使用以下16k引擎** • 16k_zh:中文普通话通用引擎,支持中文普通话和少量英语,使用丰富的中文普通话语料训练,覆盖场景广泛,适用于除电话通讯外的所有中文普通话识别场景; • 16k_zh-PY:中英粤混合引擎,使用一个引擎同时识别中文普通话、英语、粤语三个语言; • 16k_zh_dialect:中文普通话+多方言混合引擎,除普通话外支持23种方言(上海话、四川话、武汉话、贵阳话、昆明话、西安话、郑州话、太原话、兰州话、银川话、西宁话、南京话、合肥话、南昌话、长沙话、苏州话、杭州话、济南话、天津话、石家庄话、黑龙江话、吉林话、辽宁话); • 16k_en:英语; • 16k_yue:粤语; • 16k_ja:日语; • 16k_ko:韩语; • 16k_vi:越南语; • 16k_ms:马来语; • 16k_id:印度尼西亚语; • 16k_fil:菲律宾语; • 16k_th:泰语; • 16k_pt:葡萄牙语; • 16k_tr:土耳其语; • 16k_ar:阿拉伯语; • 16k_es:西班牙语; • 16k_hi:印地语; • 16k_zh_medical:中文医疗引擎
-
getChannelNum
public Long getChannelNum()
Get 识别声道数 1:单声道(16k音频仅支持单声道,**请勿**设置为双声道); 2:双声道(仅支持8k电话音频,且双声道应分别为通话双方) 注意: • 16k音频:仅支持单声道识别,**需设置ChannelNum=1**; • 8k电话音频:支持单声道、双声道识别,**建议设置ChannelNum=2,即双声道**。双声道能够物理区分说话人、避免说话双方重叠产生的识别错误,能达到最好的说话人分离效果和识别效果。设置双声道后,将自动区分说话人,因此**无需再开启说话人分离功能**,相关参数(**SpeakerDiarization、SpeakerNumber**)使用默认值即可- Returns:
- ChannelNum 识别声道数 1:单声道(16k音频仅支持单声道,**请勿**设置为双声道); 2:双声道(仅支持8k电话音频,且双声道应分别为通话双方) 注意: • 16k音频:仅支持单声道识别,**需设置ChannelNum=1**; • 8k电话音频:支持单声道、双声道识别,**建议设置ChannelNum=2,即双声道**。双声道能够物理区分说话人、避免说话双方重叠产生的识别错误,能达到最好的说话人分离效果和识别效果。设置双声道后,将自动区分说话人,因此**无需再开启说话人分离功能**,相关参数(**SpeakerDiarization、SpeakerNumber**)使用默认值即可
-
setChannelNum
public void setChannelNum(Long ChannelNum)
Set 识别声道数 1:单声道(16k音频仅支持单声道,**请勿**设置为双声道); 2:双声道(仅支持8k电话音频,且双声道应分别为通话双方) 注意: • 16k音频:仅支持单声道识别,**需设置ChannelNum=1**; • 8k电话音频:支持单声道、双声道识别,**建议设置ChannelNum=2,即双声道**。双声道能够物理区分说话人、避免说话双方重叠产生的识别错误,能达到最好的说话人分离效果和识别效果。设置双声道后,将自动区分说话人,因此**无需再开启说话人分离功能**,相关参数(**SpeakerDiarization、SpeakerNumber**)使用默认值即可- Parameters:
ChannelNum- 识别声道数 1:单声道(16k音频仅支持单声道,**请勿**设置为双声道); 2:双声道(仅支持8k电话音频,且双声道应分别为通话双方) 注意: • 16k音频:仅支持单声道识别,**需设置ChannelNum=1**; • 8k电话音频:支持单声道、双声道识别,**建议设置ChannelNum=2,即双声道**。双声道能够物理区分说话人、避免说话双方重叠产生的识别错误,能达到最好的说话人分离效果和识别效果。设置双声道后,将自动区分说话人,因此**无需再开启说话人分离功能**,相关参数(**SpeakerDiarization、SpeakerNumber**)使用默认值即可
-
getResTextFormat
public Long getResTextFormat()
Get 识别结果返回样式 0:基础识别结果(仅包含有效人声时间戳,无词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)); 1:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值,**不含标点**); 2:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点); 3:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点),且识别结果按标点符号分段,**适用字幕场景**; 4:**【增值付费功能】**基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点),且识别结果按nlp语义分段,**适用会议、庭审记录转写等场景**,仅支持8k_zh/16k_zh引擎 注意:如果传入参数值4,需确保账号已购买[语义分段资源包](https://cloud.tencent.com/document/product/1093/35686#97ae4aa0-29a0-4066-9f07-ccaf8856a16b),或账号开启后付费;**若当前账号已开启后付费功能,并传入参数值4,将[自动计费](https://cloud.tencent.com/document/product/1093/35686#d912167d-ffd5-41a9-8b1c-2e89845a6852))**- Returns:
- ResTextFormat 识别结果返回样式 0:基础识别结果(仅包含有效人声时间戳,无词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)); 1:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值,**不含标点**); 2:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点); 3:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点),且识别结果按标点符号分段,**适用字幕场景**; 4:**【增值付费功能】**基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点),且识别结果按nlp语义分段,**适用会议、庭审记录转写等场景**,仅支持8k_zh/16k_zh引擎 注意:如果传入参数值4,需确保账号已购买[语义分段资源包](https://cloud.tencent.com/document/product/1093/35686#97ae4aa0-29a0-4066-9f07-ccaf8856a16b),或账号开启后付费;**若当前账号已开启后付费功能,并传入参数值4,将[自动计费](https://cloud.tencent.com/document/product/1093/35686#d912167d-ffd5-41a9-8b1c-2e89845a6852))**
-
setResTextFormat
public void setResTextFormat(Long ResTextFormat)
Set 识别结果返回样式 0:基础识别结果(仅包含有效人声时间戳,无词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)); 1:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值,**不含标点**); 2:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点); 3:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点),且识别结果按标点符号分段,**适用字幕场景**; 4:**【增值付费功能】**基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点),且识别结果按nlp语义分段,**适用会议、庭审记录转写等场景**,仅支持8k_zh/16k_zh引擎 注意:如果传入参数值4,需确保账号已购买[语义分段资源包](https://cloud.tencent.com/document/product/1093/35686#97ae4aa0-29a0-4066-9f07-ccaf8856a16b),或账号开启后付费;**若当前账号已开启后付费功能,并传入参数值4,将[自动计费](https://cloud.tencent.com/document/product/1093/35686#d912167d-ffd5-41a9-8b1c-2e89845a6852))**- Parameters:
ResTextFormat- 识别结果返回样式 0:基础识别结果(仅包含有效人声时间戳,无词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)); 1:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值,**不含标点**); 2:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点); 3:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点),且识别结果按标点符号分段,**适用字幕场景**; 4:**【增值付费功能】**基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点),且识别结果按nlp语义分段,**适用会议、庭审记录转写等场景**,仅支持8k_zh/16k_zh引擎 注意:如果传入参数值4,需确保账号已购买[语义分段资源包](https://cloud.tencent.com/document/product/1093/35686#97ae4aa0-29a0-4066-9f07-ccaf8856a16b),或账号开启后付费;**若当前账号已开启后付费功能,并传入参数值4,将[自动计费](https://cloud.tencent.com/document/product/1093/35686#d912167d-ffd5-41a9-8b1c-2e89845a6852))**
-
getSourceType
public Long getSourceType()
Get 语音数据来源 0:语音 URL; 1:语音数据(post body)- Returns:
- SourceType 语音数据来源 0:语音 URL; 1:语音数据(post body)
-
setSourceType
public void setSourceType(Long SourceType)
Set 语音数据来源 0:语音 URL; 1:语音数据(post body)- Parameters:
SourceType- 语音数据来源 0:语音 URL; 1:语音数据(post body)
-
getData
public String getData()
Get 语音数据base64编码 当 SourceType 值为 1 时须填写该字段,为 0 时不需要填写** 注意:音频数据要小于5MB(含)- Returns:
- Data 语音数据base64编码 当 SourceType 值为 1 时须填写该字段,为 0 时不需要填写** 注意:音频数据要小于5MB(含)
-
setData
public void setData(String Data)
Set 语音数据base64编码 当 SourceType 值为 1 时须填写该字段,为 0 时不需要填写** 注意:音频数据要小于5MB(含)- Parameters:
Data- 语音数据base64编码 当 SourceType 值为 1 时须填写该字段,为 0 时不需要填写** 注意:音频数据要小于5MB(含)
-
getDataLen
public Long getDataLen()
Get 数据长度(此数据长度为数据未进行base64编码时的长度)- Returns:
- DataLen 数据长度(此数据长度为数据未进行base64编码时的长度)
-
setDataLen
public void setDataLen(Long DataLen)
Set 数据长度(此数据长度为数据未进行base64编码时的长度)- Parameters:
DataLen- 数据长度(此数据长度为数据未进行base64编码时的长度)
-
getUrl
public String getUrl()
Get 语音URL的地址(需要公网环境浏览器可下载) 当 SourceType 值为 0 时须填写该字段,为 1 时不需要填写** 注意: 1. 请确保录音文件时长在5个小时(含)之内,否则可能识别失败; 2. 请保证文件的下载速度,否则可能下载失败- Returns:
- Url 语音URL的地址(需要公网环境浏览器可下载) 当 SourceType 值为 0 时须填写该字段,为 1 时不需要填写** 注意: 1. 请确保录音文件时长在5个小时(含)之内,否则可能识别失败; 2. 请保证文件的下载速度,否则可能下载失败
-
setUrl
public void setUrl(String Url)
Set 语音URL的地址(需要公网环境浏览器可下载) 当 SourceType 值为 0 时须填写该字段,为 1 时不需要填写** 注意: 1. 请确保录音文件时长在5个小时(含)之内,否则可能识别失败; 2. 请保证文件的下载速度,否则可能下载失败- Parameters:
Url- 语音URL的地址(需要公网环境浏览器可下载) 当 SourceType 值为 0 时须填写该字段,为 1 时不需要填写** 注意: 1. 请确保录音文件时长在5个小时(含)之内,否则可能识别失败; 2. 请保证文件的下载速度,否则可能下载失败
-
getCallbackUrl
public String getCallbackUrl()
Get 回调 URL 用户自行搭建的用于接收识别结果的服务URL 回调格式和内容详见:[录音识别回调说明](https://cloud.tencent.com/document/product/1093/52632) 注意: 如果用户使用轮询方式获取识别结果,则无需提交该参数- Returns:
- CallbackUrl 回调 URL 用户自行搭建的用于接收识别结果的服务URL 回调格式和内容详见:[录音识别回调说明](https://cloud.tencent.com/document/product/1093/52632) 注意: 如果用户使用轮询方式获取识别结果,则无需提交该参数
-
setCallbackUrl
public void setCallbackUrl(String CallbackUrl)
Set 回调 URL 用户自行搭建的用于接收识别结果的服务URL 回调格式和内容详见:[录音识别回调说明](https://cloud.tencent.com/document/product/1093/52632) 注意: 如果用户使用轮询方式获取识别结果,则无需提交该参数- Parameters:
CallbackUrl- 回调 URL 用户自行搭建的用于接收识别结果的服务URL 回调格式和内容详见:[录音识别回调说明](https://cloud.tencent.com/document/product/1093/52632) 注意: 如果用户使用轮询方式获取识别结果,则无需提交该参数
-
getSpeakerDiarization
public Long getSpeakerDiarization()
Get 是否开启说话人分离 0:不开启; 1:开启(仅支持以下引擎:8k_zh/16k_zh/16k_ms/16k_en/16k_id,且ChannelNum=1时可用); 默认值为 0 注意: 8k双声道电话音频请按 **ChannelNum 识别声道数** 的参数描述使用默认值- Returns:
- SpeakerDiarization 是否开启说话人分离 0:不开启; 1:开启(仅支持以下引擎:8k_zh/16k_zh/16k_ms/16k_en/16k_id,且ChannelNum=1时可用); 默认值为 0 注意: 8k双声道电话音频请按 **ChannelNum 识别声道数** 的参数描述使用默认值
-
setSpeakerDiarization
public void setSpeakerDiarization(Long SpeakerDiarization)
Set 是否开启说话人分离 0:不开启; 1:开启(仅支持以下引擎:8k_zh/16k_zh/16k_ms/16k_en/16k_id,且ChannelNum=1时可用); 默认值为 0 注意: 8k双声道电话音频请按 **ChannelNum 识别声道数** 的参数描述使用默认值- Parameters:
SpeakerDiarization- 是否开启说话人分离 0:不开启; 1:开启(仅支持以下引擎:8k_zh/16k_zh/16k_ms/16k_en/16k_id,且ChannelNum=1时可用); 默认值为 0 注意: 8k双声道电话音频请按 **ChannelNum 识别声道数** 的参数描述使用默认值
-
getSpeakerNumber
public Long getSpeakerNumber()
Get 说话人分离人数 需配合开启说话人分离使用,不开启无效**,取值范围:0-10 0:自动分离(最多分离出20个人); 1-10:指定人数分离; 默认值为 0- Returns:
- SpeakerNumber 说话人分离人数 需配合开启说话人分离使用,不开启无效**,取值范围:0-10 0:自动分离(最多分离出20个人); 1-10:指定人数分离; 默认值为 0
-
setSpeakerNumber
public void setSpeakerNumber(Long SpeakerNumber)
Set 说话人分离人数 需配合开启说话人分离使用,不开启无效**,取值范围:0-10 0:自动分离(最多分离出20个人); 1-10:指定人数分离; 默认值为 0- Parameters:
SpeakerNumber- 说话人分离人数 需配合开启说话人分离使用,不开启无效**,取值范围:0-10 0:自动分离(最多分离出20个人); 1-10:指定人数分离; 默认值为 0
-
getHotwordId
public String getHotwordId()
Get 热词表id 如不设置该参数,将自动生效默认热词表; 如设置该参数,将生效对应id的热词表; 点击这里查看[热词表配置方法](https://cloud.tencent.com/document/product/1093/40996)- Returns:
- HotwordId 热词表id 如不设置该参数,将自动生效默认热词表; 如设置该参数,将生效对应id的热词表; 点击这里查看[热词表配置方法](https://cloud.tencent.com/document/product/1093/40996)
-
setHotwordId
public void setHotwordId(String HotwordId)
Set 热词表id 如不设置该参数,将自动生效默认热词表; 如设置该参数,将生效对应id的热词表; 点击这里查看[热词表配置方法](https://cloud.tencent.com/document/product/1093/40996)- Parameters:
HotwordId- 热词表id 如不设置该参数,将自动生效默认热词表; 如设置该参数,将生效对应id的热词表; 点击这里查看[热词表配置方法](https://cloud.tencent.com/document/product/1093/40996)
-
getReinforceHotword
public Long getReinforceHotword()
Get 热词增强功能(目前仅支持8k_zh/16k_zh引擎) 1:开启热词增强功能 注意:热词增强功能开启后,将对传入的热词表id开启同音替换功能,可以在这里查看[热词表配置方法](https://cloud.tencent.com/document/product/1093/40996)。效果举例:在热词表中配置“蜜制”一词,并开启增强功能,与“蜜制”(mìzhì)同音同调的“秘制”(mìzhì)的识别结果会被强制替换成“蜜制”。**建议客户根据实际的业务需求开启该功能**- Returns:
- ReinforceHotword 热词增强功能(目前仅支持8k_zh/16k_zh引擎) 1:开启热词增强功能 注意:热词增强功能开启后,将对传入的热词表id开启同音替换功能,可以在这里查看[热词表配置方法](https://cloud.tencent.com/document/product/1093/40996)。效果举例:在热词表中配置“蜜制”一词,并开启增强功能,与“蜜制”(mìzhì)同音同调的“秘制”(mìzhì)的识别结果会被强制替换成“蜜制”。**建议客户根据实际的业务需求开启该功能**
-
setReinforceHotword
public void setReinforceHotword(Long ReinforceHotword)
Set 热词增强功能(目前仅支持8k_zh/16k_zh引擎) 1:开启热词增强功能 注意:热词增强功能开启后,将对传入的热词表id开启同音替换功能,可以在这里查看[热词表配置方法](https://cloud.tencent.com/document/product/1093/40996)。效果举例:在热词表中配置“蜜制”一词,并开启增强功能,与“蜜制”(mìzhì)同音同调的“秘制”(mìzhì)的识别结果会被强制替换成“蜜制”。**建议客户根据实际的业务需求开启该功能**- Parameters:
ReinforceHotword- 热词增强功能(目前仅支持8k_zh/16k_zh引擎) 1:开启热词增强功能 注意:热词增强功能开启后,将对传入的热词表id开启同音替换功能,可以在这里查看[热词表配置方法](https://cloud.tencent.com/document/product/1093/40996)。效果举例:在热词表中配置“蜜制”一词,并开启增强功能,与“蜜制”(mìzhì)同音同调的“秘制”(mìzhì)的识别结果会被强制替换成“蜜制”。**建议客户根据实际的业务需求开启该功能**
-
getCustomizationId
public String getCustomizationId()
Get 自学习定制模型 id 如设置了该参数,将生效对应id的自学习定制模型; 点击这里查看[自学习定制模型配置方法](https://cloud.tencent.com/document/product/1093/38416)- Returns:
- CustomizationId 自学习定制模型 id 如设置了该参数,将生效对应id的自学习定制模型; 点击这里查看[自学习定制模型配置方法](https://cloud.tencent.com/document/product/1093/38416)
-
setCustomizationId
public void setCustomizationId(String CustomizationId)
Set 自学习定制模型 id 如设置了该参数,将生效对应id的自学习定制模型; 点击这里查看[自学习定制模型配置方法](https://cloud.tencent.com/document/product/1093/38416)- Parameters:
CustomizationId- 自学习定制模型 id 如设置了该参数,将生效对应id的自学习定制模型; 点击这里查看[自学习定制模型配置方法](https://cloud.tencent.com/document/product/1093/38416)
-
getEmotionRecognition
public Long getEmotionRecognition()
Get **【增值付费功能】**情绪识别能力(目前仅支持16k_zh) 0:不开启; 1:开启情绪识别,但不在文本展示情绪标签; 2:开启情绪识别,并且在文本展示情绪标签(**该功能需要设置ResTextFormat 大于0**) 默认值为0 支持的情绪分类为:高兴、伤心、愤怒 注意: 1. **本功能为增值服务**,需将参数设置为1或2时方可按对应方式生效; 2. 如果传入参数值1或2,需确保账号已购买[情绪识别资源包](https://cloud.tencent.com/document/product/1093/35686#97ae4aa0-29a0-4066-9f07-ccaf8856a16b),或账号开启后付费;**若当前账号已开启后付费功能,并传入参数值1或2,将[自动计费](https://cloud.tencent.com/document/product/1093/35686#d912167d-ffd5-41a9-8b1c-2e89845a6852))**; 3. 参数设置为0时,无需购买资源包,也不会消耗情绪识别对应资源- Returns:
- EmotionRecognition **【增值付费功能】**情绪识别能力(目前仅支持16k_zh) 0:不开启; 1:开启情绪识别,但不在文本展示情绪标签; 2:开启情绪识别,并且在文本展示情绪标签(**该功能需要设置ResTextFormat 大于0**) 默认值为0 支持的情绪分类为:高兴、伤心、愤怒 注意: 1. **本功能为增值服务**,需将参数设置为1或2时方可按对应方式生效; 2. 如果传入参数值1或2,需确保账号已购买[情绪识别资源包](https://cloud.tencent.com/document/product/1093/35686#97ae4aa0-29a0-4066-9f07-ccaf8856a16b),或账号开启后付费;**若当前账号已开启后付费功能,并传入参数值1或2,将[自动计费](https://cloud.tencent.com/document/product/1093/35686#d912167d-ffd5-41a9-8b1c-2e89845a6852))**; 3. 参数设置为0时,无需购买资源包,也不会消耗情绪识别对应资源
-
setEmotionRecognition
public void setEmotionRecognition(Long EmotionRecognition)
Set **【增值付费功能】**情绪识别能力(目前仅支持16k_zh) 0:不开启; 1:开启情绪识别,但不在文本展示情绪标签; 2:开启情绪识别,并且在文本展示情绪标签(**该功能需要设置ResTextFormat 大于0**) 默认值为0 支持的情绪分类为:高兴、伤心、愤怒 注意: 1. **本功能为增值服务**,需将参数设置为1或2时方可按对应方式生效; 2. 如果传入参数值1或2,需确保账号已购买[情绪识别资源包](https://cloud.tencent.com/document/product/1093/35686#97ae4aa0-29a0-4066-9f07-ccaf8856a16b),或账号开启后付费;**若当前账号已开启后付费功能,并传入参数值1或2,将[自动计费](https://cloud.tencent.com/document/product/1093/35686#d912167d-ffd5-41a9-8b1c-2e89845a6852))**; 3. 参数设置为0时,无需购买资源包,也不会消耗情绪识别对应资源- Parameters:
EmotionRecognition- **【增值付费功能】**情绪识别能力(目前仅支持16k_zh) 0:不开启; 1:开启情绪识别,但不在文本展示情绪标签; 2:开启情绪识别,并且在文本展示情绪标签(**该功能需要设置ResTextFormat 大于0**) 默认值为0 支持的情绪分类为:高兴、伤心、愤怒 注意: 1. **本功能为增值服务**,需将参数设置为1或2时方可按对应方式生效; 2. 如果传入参数值1或2,需确保账号已购买[情绪识别资源包](https://cloud.tencent.com/document/product/1093/35686#97ae4aa0-29a0-4066-9f07-ccaf8856a16b),或账号开启后付费;**若当前账号已开启后付费功能,并传入参数值1或2,将[自动计费](https://cloud.tencent.com/document/product/1093/35686#d912167d-ffd5-41a9-8b1c-2e89845a6852))**; 3. 参数设置为0时,无需购买资源包,也不会消耗情绪识别对应资源
-
getEmotionalEnergy
public Long getEmotionalEnergy()
Get 情绪能量值 取值为音量分贝值/10,取值范围:[1,10],值越高情绪越强烈 0:不开启; 1:开启; 默认值为0- Returns:
- EmotionalEnergy 情绪能量值 取值为音量分贝值/10,取值范围:[1,10],值越高情绪越强烈 0:不开启; 1:开启; 默认值为0
-
setEmotionalEnergy
public void setEmotionalEnergy(Long EmotionalEnergy)
Set 情绪能量值 取值为音量分贝值/10,取值范围:[1,10],值越高情绪越强烈 0:不开启; 1:开启; 默认值为0- Parameters:
EmotionalEnergy- 情绪能量值 取值为音量分贝值/10,取值范围:[1,10],值越高情绪越强烈 0:不开启; 1:开启; 默认值为0
-
getConvertNumMode
public Long getConvertNumMode()
Get 阿拉伯数字智能转换(目前仅支持8k_zh/16k_zh引擎) 0:不转换,直接输出中文数字; 1:根据场景智能转换为阿拉伯数字; 3:打开数学相关数字转换(如:阿尔法转写为α); 默认值为 1- Returns:
- ConvertNumMode 阿拉伯数字智能转换(目前仅支持8k_zh/16k_zh引擎) 0:不转换,直接输出中文数字; 1:根据场景智能转换为阿拉伯数字; 3:打开数学相关数字转换(如:阿尔法转写为α); 默认值为 1
-
setConvertNumMode
public void setConvertNumMode(Long ConvertNumMode)
Set 阿拉伯数字智能转换(目前仅支持8k_zh/16k_zh引擎) 0:不转换,直接输出中文数字; 1:根据场景智能转换为阿拉伯数字; 3:打开数学相关数字转换(如:阿尔法转写为α); 默认值为 1- Parameters:
ConvertNumMode- 阿拉伯数字智能转换(目前仅支持8k_zh/16k_zh引擎) 0:不转换,直接输出中文数字; 1:根据场景智能转换为阿拉伯数字; 3:打开数学相关数字转换(如:阿尔法转写为α); 默认值为 1
-
getFilterDirty
public Long getFilterDirty()
Get 脏词过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤脏词; 1:过滤脏词; 2:将脏词替换为 * ; 默认值为 0- Returns:
- FilterDirty 脏词过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤脏词; 1:过滤脏词; 2:将脏词替换为 * ; 默认值为 0
-
setFilterDirty
public void setFilterDirty(Long FilterDirty)
Set 脏词过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤脏词; 1:过滤脏词; 2:将脏词替换为 * ; 默认值为 0- Parameters:
FilterDirty- 脏词过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤脏词; 1:过滤脏词; 2:将脏词替换为 * ; 默认值为 0
-
getFilterPunc
public Long getFilterPunc()
Get 标点符号过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤标点; 1:过滤句末标点; 2:过滤所有标点; 默认值为 0- Returns:
- FilterPunc 标点符号过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤标点; 1:过滤句末标点; 2:过滤所有标点; 默认值为 0
-
setFilterPunc
public void setFilterPunc(Long FilterPunc)
Set 标点符号过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤标点; 1:过滤句末标点; 2:过滤所有标点; 默认值为 0- Parameters:
FilterPunc- 标点符号过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤标点; 1:过滤句末标点; 2:过滤所有标点; 默认值为 0
-
getFilterModal
public Long getFilterModal()
Get 语气词过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤语气词; 1:过滤部分语气词; 2:严格过滤语气词; 默认值为 0- Returns:
- FilterModal 语气词过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤语气词; 1:过滤部分语气词; 2:严格过滤语气词; 默认值为 0
-
setFilterModal
public void setFilterModal(Long FilterModal)
Set 语气词过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤语气词; 1:过滤部分语气词; 2:严格过滤语气词; 默认值为 0- Parameters:
FilterModal- 语气词过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤语气词; 1:过滤部分语气词; 2:严格过滤语气词; 默认值为 0
-
getSentenceMaxLength
public Long getSentenceMaxLength()
Get 单标点最多字数 可控制单行字幕最大字数,适用于字幕生成场景**,取值范围:[6,40] 0:不开启该功能; 默认值为0 注意:需设置ResTextFormat为3,解析返回的ResultDetail列表,通过结构中FinalSentence获取单个标点断句结果- Returns:
- SentenceMaxLength 单标点最多字数 可控制单行字幕最大字数,适用于字幕生成场景**,取值范围:[6,40] 0:不开启该功能; 默认值为0 注意:需设置ResTextFormat为3,解析返回的ResultDetail列表,通过结构中FinalSentence获取单个标点断句结果
-
setSentenceMaxLength
public void setSentenceMaxLength(Long SentenceMaxLength)
Set 单标点最多字数 可控制单行字幕最大字数,适用于字幕生成场景**,取值范围:[6,40] 0:不开启该功能; 默认值为0 注意:需设置ResTextFormat为3,解析返回的ResultDetail列表,通过结构中FinalSentence获取单个标点断句结果- Parameters:
SentenceMaxLength- 单标点最多字数 可控制单行字幕最大字数,适用于字幕生成场景**,取值范围:[6,40] 0:不开启该功能; 默认值为0 注意:需设置ResTextFormat为3,解析返回的ResultDetail列表,通过结构中FinalSentence获取单个标点断句结果
-
getExtra
public String getExtra()
Get 附加参数**(该参数无意义,忽略即可)**- Returns:
- Extra 附加参数**(该参数无意义,忽略即可)**
-
setExtra
public void setExtra(String Extra)
Set 附加参数**(该参数无意义,忽略即可)**- Parameters:
Extra- 附加参数**(该参数无意义,忽略即可)**
-
-