Class CreateRecTaskRequest

    • Method Summary

      All Methods Instance Methods Concrete Methods 
      Modifier and Type Method Description
      String getCallbackUrl()
      Get 回调 URL 用户自行搭建的用于接收识别结果的服务URL 回调格式和内容详见:[录音识别回调说明](https://cloud.tencent.com/document/product/1093/52632) 注意: 如果用户使用轮询方式获取识别结果,则无需提交该参数
      Long getChannelNum()
      Get 识别声道数 1:单声道(16k音频仅支持单声道,**请勿**设置为双声道); 2:双声道(仅支持8k电话音频,且双声道应分别为通话双方) 注意: • 16k音频:仅支持单声道识别,**需设置ChannelNum=1**; • 8k电话音频:支持单声道、双声道识别,**建议设置ChannelNum=2,即双声道**。双声道能够物理区分说话人、避免说话双方重叠产生的识别错误,能达到最好的说话人分离效果和识别效果。设置双声道后,将自动区分说话人,因此**无需再开启说话人分离功能**,相关参数(**SpeakerDiarization、SpeakerNumber**)使用默认值即可
      Long getConvertNumMode()
      Get 阿拉伯数字智能转换(目前仅支持8k_zh/16k_zh引擎) 0:不转换,直接输出中文数字; 1:根据场景智能转换为阿拉伯数字; 3:打开数学相关数字转换(如:阿尔法转写为α); 默认值为 1
      String getCustomizationId()
      Get 自学习定制模型 id 如设置了该参数,将生效对应id的自学习定制模型; 点击这里查看[自学习定制模型配置方法](https://cloud.tencent.com/document/product/1093/38416)
      String getData()
      Get 语音数据base64编码 当 SourceType 值为 1 时须填写该字段,为 0 时不需要填写** 注意:音频数据要小于5MB(含)
      Long getDataLen()
      Get 数据长度(此数据长度为数据未进行base64编码时的长度)
      Long getEmotionalEnergy()
      Get 情绪能量值 取值为音量分贝值/10,取值范围:[1,10],值越高情绪越强烈 0:不开启; 1:开启; 默认值为0
      Long getEmotionRecognition()
      Get **【增值付费功能】**情绪识别能力(目前仅支持16k_zh) 0:不开启; 1:开启情绪识别,但不在文本展示情绪标签; 2:开启情绪识别,并且在文本展示情绪标签(**该功能需要设置ResTextFormat 大于0**) 默认值为0 支持的情绪分类为:高兴、伤心、愤怒 注意: 1.
      String getEngineModelType()
      Get 引擎模型类型 电话通讯场景引擎: 注意:电话通讯场景,请务必使用以下8k引擎** • 8k_zh:中文电话通讯; • 8k_en:英文电话通讯; 如您有电话通讯场景识别需求,但发现需求语种仅支持16k,可将8k音频传入下方16k引擎,亦能获取识别结果。但**16k引擎并非基于电话通讯数据训练,无法承诺此种调用方式的识别效果,需由您自行验证识别结果是否可用** 通用场景引擎: 注意:除电话通讯场景以外的其它识别场景,请务必使用以下16k引擎** • 16k_zh:中文普通话通用引擎,支持中文普通话和少量英语,使用丰富的中文普通话语料训练,覆盖场景广泛,适用于除电话通讯外的所有中文普通话识别场景; • 16k_zh-PY:中英粤混合引擎,使用一个引擎同时识别中文普通话、英语、粤语三个语言; • 16k_zh_dialect:中文普通话+多方言混合引擎,除普通话外支持23种方言(上海话、四川话、武汉话、贵阳话、昆明话、西安话、郑州话、太原话、兰州话、银川话、西宁话、南京话、合肥话、南昌话、长沙话、苏州话、杭州话、济南话、天津话、石家庄话、黑龙江话、吉林话、辽宁话); • 16k_en:英语; • 16k_yue:粤语; • 16k_ja:日语; • 16k_ko:韩语; • 16k_vi:越南语; • 16k_ms:马来语; • 16k_id:印度尼西亚语; • 16k_fil:菲律宾语; • 16k_th:泰语; • 16k_pt:葡萄牙语; • 16k_tr:土耳其语; • 16k_ar:阿拉伯语; • 16k_es:西班牙语; • 16k_hi:印地语; • 16k_zh_medical:中文医疗引擎
      String getExtra()
      Get 附加参数**(该参数无意义,忽略即可)**
      Long getFilterDirty()
      Get 脏词过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤脏词; 1:过滤脏词; 2:将脏词替换为 * ; 默认值为 0
      Long getFilterModal()
      Get 语气词过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤语气词; 1:过滤部分语气词; 2:严格过滤语气词; 默认值为 0
      Long getFilterPunc()
      Get 标点符号过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤标点; 1:过滤句末标点; 2:过滤所有标点; 默认值为 0
      String getHotwordId()
      Get 热词表id 如不设置该参数,将自动生效默认热词表; 如设置该参数,将生效对应id的热词表; 点击这里查看[热词表配置方法](https://cloud.tencent.com/document/product/1093/40996)
      Long getReinforceHotword()
      Get 热词增强功能(目前仅支持8k_zh/16k_zh引擎) 1:开启热词增强功能 注意:热词增强功能开启后,将对传入的热词表id开启同音替换功能,可以在这里查看[热词表配置方法](https://cloud.tencent.com/document/product/1093/40996)。效果举例:在热词表中配置“蜜制”一词,并开启增强功能,与“蜜制”(mìzhì)同音同调的“秘制”(mìzhì)的识别结果会被强制替换成“蜜制”。**建议客户根据实际的业务需求开启该功能**
      Long getResTextFormat()
      Get 识别结果返回样式 0:基础识别结果(仅包含有效人声时间戳,无词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)); 1:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值,**不含标点**); 2:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点); 3:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点),且识别结果按标点符号分段,**适用字幕场景**; 4:**【增值付费功能】**基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点),且识别结果按nlp语义分段,**适用会议、庭审记录转写等场景**,仅支持8k_zh/16k_zh引擎 注意:如果传入参数值4,需确保账号已购买[语义分段资源包](https://cloud.tencent.com/document/product/1093/35686#97ae4aa0-29a0-4066-9f07-ccaf8856a16b),或账号开启后付费;**若当前账号已开启后付费功能,并传入参数值4,将[自动计费](https://cloud.tencent.com/document/product/1093/35686#d912167d-ffd5-41a9-8b1c-2e89845a6852))**
      Long getSentenceMaxLength()
      Get 单标点最多字数 可控制单行字幕最大字数,适用于字幕生成场景**,取值范围:[6,40] 0:不开启该功能; 默认值为0 注意:需设置ResTextFormat为3,解析返回的ResultDetail列表,通过结构中FinalSentence获取单个标点断句结果
      Long getSourceType()
      Get 语音数据来源 0:语音 URL; 1:语音数据(post body)
      Long getSpeakerDiarization()
      Get 是否开启说话人分离 0:不开启; 1:开启(仅支持以下引擎:8k_zh/16k_zh/16k_ms/16k_en/16k_id,且ChannelNum=1时可用); 默认值为 0 注意: 8k双声道电话音频请按 **ChannelNum 识别声道数** 的参数描述使用默认值
      Long getSpeakerNumber()
      Get 说话人分离人数 需配合开启说话人分离使用,不开启无效**,取值范围:0-10 0:自动分离(最多分离出20个人); 1-10:指定人数分离; 默认值为 0
      String getUrl()
      Get 语音URL的地址(需要公网环境浏览器可下载) 当 SourceType 值为 0 时须填写该字段,为 1 时不需要填写** 注意: 1.
      void setCallbackUrl​(String CallbackUrl)
      Set 回调 URL 用户自行搭建的用于接收识别结果的服务URL 回调格式和内容详见:[录音识别回调说明](https://cloud.tencent.com/document/product/1093/52632) 注意: 如果用户使用轮询方式获取识别结果,则无需提交该参数
      void setChannelNum​(Long ChannelNum)
      Set 识别声道数 1:单声道(16k音频仅支持单声道,**请勿**设置为双声道); 2:双声道(仅支持8k电话音频,且双声道应分别为通话双方) 注意: • 16k音频:仅支持单声道识别,**需设置ChannelNum=1**; • 8k电话音频:支持单声道、双声道识别,**建议设置ChannelNum=2,即双声道**。双声道能够物理区分说话人、避免说话双方重叠产生的识别错误,能达到最好的说话人分离效果和识别效果。设置双声道后,将自动区分说话人,因此**无需再开启说话人分离功能**,相关参数(**SpeakerDiarization、SpeakerNumber**)使用默认值即可
      void setConvertNumMode​(Long ConvertNumMode)
      Set 阿拉伯数字智能转换(目前仅支持8k_zh/16k_zh引擎) 0:不转换,直接输出中文数字; 1:根据场景智能转换为阿拉伯数字; 3:打开数学相关数字转换(如:阿尔法转写为α); 默认值为 1
      void setCustomizationId​(String CustomizationId)
      Set 自学习定制模型 id 如设置了该参数,将生效对应id的自学习定制模型; 点击这里查看[自学习定制模型配置方法](https://cloud.tencent.com/document/product/1093/38416)
      void setData​(String Data)
      Set 语音数据base64编码 当 SourceType 值为 1 时须填写该字段,为 0 时不需要填写** 注意:音频数据要小于5MB(含)
      void setDataLen​(Long DataLen)
      Set 数据长度(此数据长度为数据未进行base64编码时的长度)
      void setEmotionalEnergy​(Long EmotionalEnergy)
      Set 情绪能量值 取值为音量分贝值/10,取值范围:[1,10],值越高情绪越强烈 0:不开启; 1:开启; 默认值为0
      void setEmotionRecognition​(Long EmotionRecognition)
      Set **【增值付费功能】**情绪识别能力(目前仅支持16k_zh) 0:不开启; 1:开启情绪识别,但不在文本展示情绪标签; 2:开启情绪识别,并且在文本展示情绪标签(**该功能需要设置ResTextFormat 大于0**) 默认值为0 支持的情绪分类为:高兴、伤心、愤怒 注意: 1.
      void setEngineModelType​(String EngineModelType)
      Set 引擎模型类型 电话通讯场景引擎: 注意:电话通讯场景,请务必使用以下8k引擎** • 8k_zh:中文电话通讯; • 8k_en:英文电话通讯; 如您有电话通讯场景识别需求,但发现需求语种仅支持16k,可将8k音频传入下方16k引擎,亦能获取识别结果。但**16k引擎并非基于电话通讯数据训练,无法承诺此种调用方式的识别效果,需由您自行验证识别结果是否可用** 通用场景引擎: 注意:除电话通讯场景以外的其它识别场景,请务必使用以下16k引擎** • 16k_zh:中文普通话通用引擎,支持中文普通话和少量英语,使用丰富的中文普通话语料训练,覆盖场景广泛,适用于除电话通讯外的所有中文普通话识别场景; • 16k_zh-PY:中英粤混合引擎,使用一个引擎同时识别中文普通话、英语、粤语三个语言; • 16k_zh_dialect:中文普通话+多方言混合引擎,除普通话外支持23种方言(上海话、四川话、武汉话、贵阳话、昆明话、西安话、郑州话、太原话、兰州话、银川话、西宁话、南京话、合肥话、南昌话、长沙话、苏州话、杭州话、济南话、天津话、石家庄话、黑龙江话、吉林话、辽宁话); • 16k_en:英语; • 16k_yue:粤语; • 16k_ja:日语; • 16k_ko:韩语; • 16k_vi:越南语; • 16k_ms:马来语; • 16k_id:印度尼西亚语; • 16k_fil:菲律宾语; • 16k_th:泰语; • 16k_pt:葡萄牙语; • 16k_tr:土耳其语; • 16k_ar:阿拉伯语; • 16k_es:西班牙语; • 16k_hi:印地语; • 16k_zh_medical:中文医疗引擎
      void setExtra​(String Extra)
      Set 附加参数**(该参数无意义,忽略即可)**
      void setFilterDirty​(Long FilterDirty)
      Set 脏词过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤脏词; 1:过滤脏词; 2:将脏词替换为 * ; 默认值为 0
      void setFilterModal​(Long FilterModal)
      Set 语气词过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤语气词; 1:过滤部分语气词; 2:严格过滤语气词; 默认值为 0
      void setFilterPunc​(Long FilterPunc)
      Set 标点符号过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤标点; 1:过滤句末标点; 2:过滤所有标点; 默认值为 0
      void setHotwordId​(String HotwordId)
      Set 热词表id 如不设置该参数,将自动生效默认热词表; 如设置该参数,将生效对应id的热词表; 点击这里查看[热词表配置方法](https://cloud.tencent.com/document/product/1093/40996)
      void setReinforceHotword​(Long ReinforceHotword)
      Set 热词增强功能(目前仅支持8k_zh/16k_zh引擎) 1:开启热词增强功能 注意:热词增强功能开启后,将对传入的热词表id开启同音替换功能,可以在这里查看[热词表配置方法](https://cloud.tencent.com/document/product/1093/40996)。效果举例:在热词表中配置“蜜制”一词,并开启增强功能,与“蜜制”(mìzhì)同音同调的“秘制”(mìzhì)的识别结果会被强制替换成“蜜制”。**建议客户根据实际的业务需求开启该功能**
      void setResTextFormat​(Long ResTextFormat)
      Set 识别结果返回样式 0:基础识别结果(仅包含有效人声时间戳,无词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)); 1:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值,**不含标点**); 2:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点); 3:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点),且识别结果按标点符号分段,**适用字幕场景**; 4:**【增值付费功能】**基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点),且识别结果按nlp语义分段,**适用会议、庭审记录转写等场景**,仅支持8k_zh/16k_zh引擎 注意:如果传入参数值4,需确保账号已购买[语义分段资源包](https://cloud.tencent.com/document/product/1093/35686#97ae4aa0-29a0-4066-9f07-ccaf8856a16b),或账号开启后付费;**若当前账号已开启后付费功能,并传入参数值4,将[自动计费](https://cloud.tencent.com/document/product/1093/35686#d912167d-ffd5-41a9-8b1c-2e89845a6852))**
      void setSentenceMaxLength​(Long SentenceMaxLength)
      Set 单标点最多字数 可控制单行字幕最大字数,适用于字幕生成场景**,取值范围:[6,40] 0:不开启该功能; 默认值为0 注意:需设置ResTextFormat为3,解析返回的ResultDetail列表,通过结构中FinalSentence获取单个标点断句结果
      void setSourceType​(Long SourceType)
      Set 语音数据来源 0:语音 URL; 1:语音数据(post body)
      void setSpeakerDiarization​(Long SpeakerDiarization)
      Set 是否开启说话人分离 0:不开启; 1:开启(仅支持以下引擎:8k_zh/16k_zh/16k_ms/16k_en/16k_id,且ChannelNum=1时可用); 默认值为 0 注意: 8k双声道电话音频请按 **ChannelNum 识别声道数** 的参数描述使用默认值
      void setSpeakerNumber​(Long SpeakerNumber)
      Set 说话人分离人数 需配合开启说话人分离使用,不开启无效**,取值范围:0-10 0:自动分离(最多分离出20个人); 1-10:指定人数分离; 默认值为 0
      void setUrl​(String Url)
      Set 语音URL的地址(需要公网环境浏览器可下载) 当 SourceType 值为 0 时须填写该字段,为 1 时不需要填写** 注意: 1.
      void toMap​(HashMap<String,​String> map, String prefix)
      Internal implementation, normal users should not use it.
    • Constructor Detail

      • CreateRecTaskRequest

        public CreateRecTaskRequest()
      • CreateRecTaskRequest

        public CreateRecTaskRequest​(CreateRecTaskRequest source)
        NOTE: Any ambiguous key set via .set("AnyKey", "value") will be a shallow copy, and any explicit key, i.e Foo, set via .setFoo("value") will be a deep copy.
    • Method Detail

      • getEngineModelType

        public String getEngineModelType()
        Get 引擎模型类型 电话通讯场景引擎: 注意:电话通讯场景,请务必使用以下8k引擎** • 8k_zh:中文电话通讯; • 8k_en:英文电话通讯; 如您有电话通讯场景识别需求,但发现需求语种仅支持16k,可将8k音频传入下方16k引擎,亦能获取识别结果。但**16k引擎并非基于电话通讯数据训练,无法承诺此种调用方式的识别效果,需由您自行验证识别结果是否可用** 通用场景引擎: 注意:除电话通讯场景以外的其它识别场景,请务必使用以下16k引擎** • 16k_zh:中文普通话通用引擎,支持中文普通话和少量英语,使用丰富的中文普通话语料训练,覆盖场景广泛,适用于除电话通讯外的所有中文普通话识别场景; • 16k_zh-PY:中英粤混合引擎,使用一个引擎同时识别中文普通话、英语、粤语三个语言; • 16k_zh_dialect:中文普通话+多方言混合引擎,除普通话外支持23种方言(上海话、四川话、武汉话、贵阳话、昆明话、西安话、郑州话、太原话、兰州话、银川话、西宁话、南京话、合肥话、南昌话、长沙话、苏州话、杭州话、济南话、天津话、石家庄话、黑龙江话、吉林话、辽宁话); • 16k_en:英语; • 16k_yue:粤语; • 16k_ja:日语; • 16k_ko:韩语; • 16k_vi:越南语; • 16k_ms:马来语; • 16k_id:印度尼西亚语; • 16k_fil:菲律宾语; • 16k_th:泰语; • 16k_pt:葡萄牙语; • 16k_tr:土耳其语; • 16k_ar:阿拉伯语; • 16k_es:西班牙语; • 16k_hi:印地语; • 16k_zh_medical:中文医疗引擎
        Returns:
        EngineModelType 引擎模型类型 电话通讯场景引擎: 注意:电话通讯场景,请务必使用以下8k引擎** • 8k_zh:中文电话通讯; • 8k_en:英文电话通讯; 如您有电话通讯场景识别需求,但发现需求语种仅支持16k,可将8k音频传入下方16k引擎,亦能获取识别结果。但**16k引擎并非基于电话通讯数据训练,无法承诺此种调用方式的识别效果,需由您自行验证识别结果是否可用** 通用场景引擎: 注意:除电话通讯场景以外的其它识别场景,请务必使用以下16k引擎** • 16k_zh:中文普通话通用引擎,支持中文普通话和少量英语,使用丰富的中文普通话语料训练,覆盖场景广泛,适用于除电话通讯外的所有中文普通话识别场景; • 16k_zh-PY:中英粤混合引擎,使用一个引擎同时识别中文普通话、英语、粤语三个语言; • 16k_zh_dialect:中文普通话+多方言混合引擎,除普通话外支持23种方言(上海话、四川话、武汉话、贵阳话、昆明话、西安话、郑州话、太原话、兰州话、银川话、西宁话、南京话、合肥话、南昌话、长沙话、苏州话、杭州话、济南话、天津话、石家庄话、黑龙江话、吉林话、辽宁话); • 16k_en:英语; • 16k_yue:粤语; • 16k_ja:日语; • 16k_ko:韩语; • 16k_vi:越南语; • 16k_ms:马来语; • 16k_id:印度尼西亚语; • 16k_fil:菲律宾语; • 16k_th:泰语; • 16k_pt:葡萄牙语; • 16k_tr:土耳其语; • 16k_ar:阿拉伯语; • 16k_es:西班牙语; • 16k_hi:印地语; • 16k_zh_medical:中文医疗引擎
      • setEngineModelType

        public void setEngineModelType​(String EngineModelType)
        Set 引擎模型类型 电话通讯场景引擎: 注意:电话通讯场景,请务必使用以下8k引擎** • 8k_zh:中文电话通讯; • 8k_en:英文电话通讯; 如您有电话通讯场景识别需求,但发现需求语种仅支持16k,可将8k音频传入下方16k引擎,亦能获取识别结果。但**16k引擎并非基于电话通讯数据训练,无法承诺此种调用方式的识别效果,需由您自行验证识别结果是否可用** 通用场景引擎: 注意:除电话通讯场景以外的其它识别场景,请务必使用以下16k引擎** • 16k_zh:中文普通话通用引擎,支持中文普通话和少量英语,使用丰富的中文普通话语料训练,覆盖场景广泛,适用于除电话通讯外的所有中文普通话识别场景; • 16k_zh-PY:中英粤混合引擎,使用一个引擎同时识别中文普通话、英语、粤语三个语言; • 16k_zh_dialect:中文普通话+多方言混合引擎,除普通话外支持23种方言(上海话、四川话、武汉话、贵阳话、昆明话、西安话、郑州话、太原话、兰州话、银川话、西宁话、南京话、合肥话、南昌话、长沙话、苏州话、杭州话、济南话、天津话、石家庄话、黑龙江话、吉林话、辽宁话); • 16k_en:英语; • 16k_yue:粤语; • 16k_ja:日语; • 16k_ko:韩语; • 16k_vi:越南语; • 16k_ms:马来语; • 16k_id:印度尼西亚语; • 16k_fil:菲律宾语; • 16k_th:泰语; • 16k_pt:葡萄牙语; • 16k_tr:土耳其语; • 16k_ar:阿拉伯语; • 16k_es:西班牙语; • 16k_hi:印地语; • 16k_zh_medical:中文医疗引擎
        Parameters:
        EngineModelType - 引擎模型类型 电话通讯场景引擎: 注意:电话通讯场景,请务必使用以下8k引擎** • 8k_zh:中文电话通讯; • 8k_en:英文电话通讯; 如您有电话通讯场景识别需求,但发现需求语种仅支持16k,可将8k音频传入下方16k引擎,亦能获取识别结果。但**16k引擎并非基于电话通讯数据训练,无法承诺此种调用方式的识别效果,需由您自行验证识别结果是否可用** 通用场景引擎: 注意:除电话通讯场景以外的其它识别场景,请务必使用以下16k引擎** • 16k_zh:中文普通话通用引擎,支持中文普通话和少量英语,使用丰富的中文普通话语料训练,覆盖场景广泛,适用于除电话通讯外的所有中文普通话识别场景; • 16k_zh-PY:中英粤混合引擎,使用一个引擎同时识别中文普通话、英语、粤语三个语言; • 16k_zh_dialect:中文普通话+多方言混合引擎,除普通话外支持23种方言(上海话、四川话、武汉话、贵阳话、昆明话、西安话、郑州话、太原话、兰州话、银川话、西宁话、南京话、合肥话、南昌话、长沙话、苏州话、杭州话、济南话、天津话、石家庄话、黑龙江话、吉林话、辽宁话); • 16k_en:英语; • 16k_yue:粤语; • 16k_ja:日语; • 16k_ko:韩语; • 16k_vi:越南语; • 16k_ms:马来语; • 16k_id:印度尼西亚语; • 16k_fil:菲律宾语; • 16k_th:泰语; • 16k_pt:葡萄牙语; • 16k_tr:土耳其语; • 16k_ar:阿拉伯语; • 16k_es:西班牙语; • 16k_hi:印地语; • 16k_zh_medical:中文医疗引擎
      • getChannelNum

        public Long getChannelNum()
        Get 识别声道数 1:单声道(16k音频仅支持单声道,**请勿**设置为双声道); 2:双声道(仅支持8k电话音频,且双声道应分别为通话双方) 注意: • 16k音频:仅支持单声道识别,**需设置ChannelNum=1**; • 8k电话音频:支持单声道、双声道识别,**建议设置ChannelNum=2,即双声道**。双声道能够物理区分说话人、避免说话双方重叠产生的识别错误,能达到最好的说话人分离效果和识别效果。设置双声道后,将自动区分说话人,因此**无需再开启说话人分离功能**,相关参数(**SpeakerDiarization、SpeakerNumber**)使用默认值即可
        Returns:
        ChannelNum 识别声道数 1:单声道(16k音频仅支持单声道,**请勿**设置为双声道); 2:双声道(仅支持8k电话音频,且双声道应分别为通话双方) 注意: • 16k音频:仅支持单声道识别,**需设置ChannelNum=1**; • 8k电话音频:支持单声道、双声道识别,**建议设置ChannelNum=2,即双声道**。双声道能够物理区分说话人、避免说话双方重叠产生的识别错误,能达到最好的说话人分离效果和识别效果。设置双声道后,将自动区分说话人,因此**无需再开启说话人分离功能**,相关参数(**SpeakerDiarization、SpeakerNumber**)使用默认值即可
      • setChannelNum

        public void setChannelNum​(Long ChannelNum)
        Set 识别声道数 1:单声道(16k音频仅支持单声道,**请勿**设置为双声道); 2:双声道(仅支持8k电话音频,且双声道应分别为通话双方) 注意: • 16k音频:仅支持单声道识别,**需设置ChannelNum=1**; • 8k电话音频:支持单声道、双声道识别,**建议设置ChannelNum=2,即双声道**。双声道能够物理区分说话人、避免说话双方重叠产生的识别错误,能达到最好的说话人分离效果和识别效果。设置双声道后,将自动区分说话人,因此**无需再开启说话人分离功能**,相关参数(**SpeakerDiarization、SpeakerNumber**)使用默认值即可
        Parameters:
        ChannelNum - 识别声道数 1:单声道(16k音频仅支持单声道,**请勿**设置为双声道); 2:双声道(仅支持8k电话音频,且双声道应分别为通话双方) 注意: • 16k音频:仅支持单声道识别,**需设置ChannelNum=1**; • 8k电话音频:支持单声道、双声道识别,**建议设置ChannelNum=2,即双声道**。双声道能够物理区分说话人、避免说话双方重叠产生的识别错误,能达到最好的说话人分离效果和识别效果。设置双声道后,将自动区分说话人,因此**无需再开启说话人分离功能**,相关参数(**SpeakerDiarization、SpeakerNumber**)使用默认值即可
      • getResTextFormat

        public Long getResTextFormat()
        Get 识别结果返回样式 0:基础识别结果(仅包含有效人声时间戳,无词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)); 1:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值,**不含标点**); 2:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点); 3:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点),且识别结果按标点符号分段,**适用字幕场景**; 4:**【增值付费功能】**基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点),且识别结果按nlp语义分段,**适用会议、庭审记录转写等场景**,仅支持8k_zh/16k_zh引擎 注意:如果传入参数值4,需确保账号已购买[语义分段资源包](https://cloud.tencent.com/document/product/1093/35686#97ae4aa0-29a0-4066-9f07-ccaf8856a16b),或账号开启后付费;**若当前账号已开启后付费功能,并传入参数值4,将[自动计费](https://cloud.tencent.com/document/product/1093/35686#d912167d-ffd5-41a9-8b1c-2e89845a6852))**
        Returns:
        ResTextFormat 识别结果返回样式 0:基础识别结果(仅包含有效人声时间戳,无词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)); 1:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值,**不含标点**); 2:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点); 3:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点),且识别结果按标点符号分段,**适用字幕场景**; 4:**【增值付费功能】**基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点),且识别结果按nlp语义分段,**适用会议、庭审记录转写等场景**,仅支持8k_zh/16k_zh引擎 注意:如果传入参数值4,需确保账号已购买[语义分段资源包](https://cloud.tencent.com/document/product/1093/35686#97ae4aa0-29a0-4066-9f07-ccaf8856a16b),或账号开启后付费;**若当前账号已开启后付费功能,并传入参数值4,将[自动计费](https://cloud.tencent.com/document/product/1093/35686#d912167d-ffd5-41a9-8b1c-2e89845a6852))**
      • setResTextFormat

        public void setResTextFormat​(Long ResTextFormat)
        Set 识别结果返回样式 0:基础识别结果(仅包含有效人声时间戳,无词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)); 1:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值,**不含标点**); 2:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点); 3:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点),且识别结果按标点符号分段,**适用字幕场景**; 4:**【增值付费功能】**基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点),且识别结果按nlp语义分段,**适用会议、庭审记录转写等场景**,仅支持8k_zh/16k_zh引擎 注意:如果传入参数值4,需确保账号已购买[语义分段资源包](https://cloud.tencent.com/document/product/1093/35686#97ae4aa0-29a0-4066-9f07-ccaf8856a16b),或账号开启后付费;**若当前账号已开启后付费功能,并传入参数值4,将[自动计费](https://cloud.tencent.com/document/product/1093/35686#d912167d-ffd5-41a9-8b1c-2e89845a6852))**
        Parameters:
        ResTextFormat - 识别结果返回样式 0:基础识别结果(仅包含有效人声时间戳,无词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)); 1:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值,**不含标点**); 2:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点); 3:基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点),且识别结果按标点符号分段,**适用字幕场景**; 4:**【增值付费功能】**基础识别结果之上,增加词粒度的[详细识别结果](https://cloud.tencent.com/document/api/1093/37824#SentenceDetail)(包含词级别时间戳、语速值和标点),且识别结果按nlp语义分段,**适用会议、庭审记录转写等场景**,仅支持8k_zh/16k_zh引擎 注意:如果传入参数值4,需确保账号已购买[语义分段资源包](https://cloud.tencent.com/document/product/1093/35686#97ae4aa0-29a0-4066-9f07-ccaf8856a16b),或账号开启后付费;**若当前账号已开启后付费功能,并传入参数值4,将[自动计费](https://cloud.tencent.com/document/product/1093/35686#d912167d-ffd5-41a9-8b1c-2e89845a6852))**
      • getSourceType

        public Long getSourceType()
        Get 语音数据来源 0:语音 URL; 1:语音数据(post body)
        Returns:
        SourceType 语音数据来源 0:语音 URL; 1:语音数据(post body)
      • setSourceType

        public void setSourceType​(Long SourceType)
        Set 语音数据来源 0:语音 URL; 1:语音数据(post body)
        Parameters:
        SourceType - 语音数据来源 0:语音 URL; 1:语音数据(post body)
      • getData

        public String getData()
        Get 语音数据base64编码 当 SourceType 值为 1 时须填写该字段,为 0 时不需要填写** 注意:音频数据要小于5MB(含)
        Returns:
        Data 语音数据base64编码 当 SourceType 值为 1 时须填写该字段,为 0 时不需要填写** 注意:音频数据要小于5MB(含)
      • setData

        public void setData​(String Data)
        Set 语音数据base64编码 当 SourceType 值为 1 时须填写该字段,为 0 时不需要填写** 注意:音频数据要小于5MB(含)
        Parameters:
        Data - 语音数据base64编码 当 SourceType 值为 1 时须填写该字段,为 0 时不需要填写** 注意:音频数据要小于5MB(含)
      • getDataLen

        public Long getDataLen()
        Get 数据长度(此数据长度为数据未进行base64编码时的长度)
        Returns:
        DataLen 数据长度(此数据长度为数据未进行base64编码时的长度)
      • setDataLen

        public void setDataLen​(Long DataLen)
        Set 数据长度(此数据长度为数据未进行base64编码时的长度)
        Parameters:
        DataLen - 数据长度(此数据长度为数据未进行base64编码时的长度)
      • getUrl

        public String getUrl()
        Get 语音URL的地址(需要公网环境浏览器可下载) 当 SourceType 值为 0 时须填写该字段,为 1 时不需要填写** 注意: 1. 请确保录音文件时长在5个小时(含)之内,否则可能识别失败; 2. 请保证文件的下载速度,否则可能下载失败
        Returns:
        Url 语音URL的地址(需要公网环境浏览器可下载) 当 SourceType 值为 0 时须填写该字段,为 1 时不需要填写** 注意: 1. 请确保录音文件时长在5个小时(含)之内,否则可能识别失败; 2. 请保证文件的下载速度,否则可能下载失败
      • setUrl

        public void setUrl​(String Url)
        Set 语音URL的地址(需要公网环境浏览器可下载) 当 SourceType 值为 0 时须填写该字段,为 1 时不需要填写** 注意: 1. 请确保录音文件时长在5个小时(含)之内,否则可能识别失败; 2. 请保证文件的下载速度,否则可能下载失败
        Parameters:
        Url - 语音URL的地址(需要公网环境浏览器可下载) 当 SourceType 值为 0 时须填写该字段,为 1 时不需要填写** 注意: 1. 请确保录音文件时长在5个小时(含)之内,否则可能识别失败; 2. 请保证文件的下载速度,否则可能下载失败
      • getCallbackUrl

        public String getCallbackUrl()
        Get 回调 URL 用户自行搭建的用于接收识别结果的服务URL 回调格式和内容详见:[录音识别回调说明](https://cloud.tencent.com/document/product/1093/52632) 注意: 如果用户使用轮询方式获取识别结果,则无需提交该参数
        Returns:
        CallbackUrl 回调 URL 用户自行搭建的用于接收识别结果的服务URL 回调格式和内容详见:[录音识别回调说明](https://cloud.tencent.com/document/product/1093/52632) 注意: 如果用户使用轮询方式获取识别结果,则无需提交该参数
      • setCallbackUrl

        public void setCallbackUrl​(String CallbackUrl)
        Set 回调 URL 用户自行搭建的用于接收识别结果的服务URL 回调格式和内容详见:[录音识别回调说明](https://cloud.tencent.com/document/product/1093/52632) 注意: 如果用户使用轮询方式获取识别结果,则无需提交该参数
        Parameters:
        CallbackUrl - 回调 URL 用户自行搭建的用于接收识别结果的服务URL 回调格式和内容详见:[录音识别回调说明](https://cloud.tencent.com/document/product/1093/52632) 注意: 如果用户使用轮询方式获取识别结果,则无需提交该参数
      • getSpeakerDiarization

        public Long getSpeakerDiarization()
        Get 是否开启说话人分离 0:不开启; 1:开启(仅支持以下引擎:8k_zh/16k_zh/16k_ms/16k_en/16k_id,且ChannelNum=1时可用); 默认值为 0 注意: 8k双声道电话音频请按 **ChannelNum 识别声道数** 的参数描述使用默认值
        Returns:
        SpeakerDiarization 是否开启说话人分离 0:不开启; 1:开启(仅支持以下引擎:8k_zh/16k_zh/16k_ms/16k_en/16k_id,且ChannelNum=1时可用); 默认值为 0 注意: 8k双声道电话音频请按 **ChannelNum 识别声道数** 的参数描述使用默认值
      • setSpeakerDiarization

        public void setSpeakerDiarization​(Long SpeakerDiarization)
        Set 是否开启说话人分离 0:不开启; 1:开启(仅支持以下引擎:8k_zh/16k_zh/16k_ms/16k_en/16k_id,且ChannelNum=1时可用); 默认值为 0 注意: 8k双声道电话音频请按 **ChannelNum 识别声道数** 的参数描述使用默认值
        Parameters:
        SpeakerDiarization - 是否开启说话人分离 0:不开启; 1:开启(仅支持以下引擎:8k_zh/16k_zh/16k_ms/16k_en/16k_id,且ChannelNum=1时可用); 默认值为 0 注意: 8k双声道电话音频请按 **ChannelNum 识别声道数** 的参数描述使用默认值
      • getSpeakerNumber

        public Long getSpeakerNumber()
        Get 说话人分离人数 需配合开启说话人分离使用,不开启无效**,取值范围:0-10 0:自动分离(最多分离出20个人); 1-10:指定人数分离; 默认值为 0
        Returns:
        SpeakerNumber 说话人分离人数 需配合开启说话人分离使用,不开启无效**,取值范围:0-10 0:自动分离(最多分离出20个人); 1-10:指定人数分离; 默认值为 0
      • setSpeakerNumber

        public void setSpeakerNumber​(Long SpeakerNumber)
        Set 说话人分离人数 需配合开启说话人分离使用,不开启无效**,取值范围:0-10 0:自动分离(最多分离出20个人); 1-10:指定人数分离; 默认值为 0
        Parameters:
        SpeakerNumber - 说话人分离人数 需配合开启说话人分离使用,不开启无效**,取值范围:0-10 0:自动分离(最多分离出20个人); 1-10:指定人数分离; 默认值为 0
      • getHotwordId

        public String getHotwordId()
        Get 热词表id 如不设置该参数,将自动生效默认热词表; 如设置该参数,将生效对应id的热词表; 点击这里查看[热词表配置方法](https://cloud.tencent.com/document/product/1093/40996)
        Returns:
        HotwordId 热词表id 如不设置该参数,将自动生效默认热词表; 如设置该参数,将生效对应id的热词表; 点击这里查看[热词表配置方法](https://cloud.tencent.com/document/product/1093/40996)
      • setHotwordId

        public void setHotwordId​(String HotwordId)
        Set 热词表id 如不设置该参数,将自动生效默认热词表; 如设置该参数,将生效对应id的热词表; 点击这里查看[热词表配置方法](https://cloud.tencent.com/document/product/1093/40996)
        Parameters:
        HotwordId - 热词表id 如不设置该参数,将自动生效默认热词表; 如设置该参数,将生效对应id的热词表; 点击这里查看[热词表配置方法](https://cloud.tencent.com/document/product/1093/40996)
      • getReinforceHotword

        public Long getReinforceHotword()
        Get 热词增强功能(目前仅支持8k_zh/16k_zh引擎) 1:开启热词增强功能 注意:热词增强功能开启后,将对传入的热词表id开启同音替换功能,可以在这里查看[热词表配置方法](https://cloud.tencent.com/document/product/1093/40996)。效果举例:在热词表中配置“蜜制”一词,并开启增强功能,与“蜜制”(mìzhì)同音同调的“秘制”(mìzhì)的识别结果会被强制替换成“蜜制”。**建议客户根据实际的业务需求开启该功能**
        Returns:
        ReinforceHotword 热词增强功能(目前仅支持8k_zh/16k_zh引擎) 1:开启热词增强功能 注意:热词增强功能开启后,将对传入的热词表id开启同音替换功能,可以在这里查看[热词表配置方法](https://cloud.tencent.com/document/product/1093/40996)。效果举例:在热词表中配置“蜜制”一词,并开启增强功能,与“蜜制”(mìzhì)同音同调的“秘制”(mìzhì)的识别结果会被强制替换成“蜜制”。**建议客户根据实际的业务需求开启该功能**
      • setReinforceHotword

        public void setReinforceHotword​(Long ReinforceHotword)
        Set 热词增强功能(目前仅支持8k_zh/16k_zh引擎) 1:开启热词增强功能 注意:热词增强功能开启后,将对传入的热词表id开启同音替换功能,可以在这里查看[热词表配置方法](https://cloud.tencent.com/document/product/1093/40996)。效果举例:在热词表中配置“蜜制”一词,并开启增强功能,与“蜜制”(mìzhì)同音同调的“秘制”(mìzhì)的识别结果会被强制替换成“蜜制”。**建议客户根据实际的业务需求开启该功能**
        Parameters:
        ReinforceHotword - 热词增强功能(目前仅支持8k_zh/16k_zh引擎) 1:开启热词增强功能 注意:热词增强功能开启后,将对传入的热词表id开启同音替换功能,可以在这里查看[热词表配置方法](https://cloud.tencent.com/document/product/1093/40996)。效果举例:在热词表中配置“蜜制”一词,并开启增强功能,与“蜜制”(mìzhì)同音同调的“秘制”(mìzhì)的识别结果会被强制替换成“蜜制”。**建议客户根据实际的业务需求开启该功能**
      • getCustomizationId

        public String getCustomizationId()
        Get 自学习定制模型 id 如设置了该参数,将生效对应id的自学习定制模型; 点击这里查看[自学习定制模型配置方法](https://cloud.tencent.com/document/product/1093/38416)
        Returns:
        CustomizationId 自学习定制模型 id 如设置了该参数,将生效对应id的自学习定制模型; 点击这里查看[自学习定制模型配置方法](https://cloud.tencent.com/document/product/1093/38416)
      • setCustomizationId

        public void setCustomizationId​(String CustomizationId)
        Set 自学习定制模型 id 如设置了该参数,将生效对应id的自学习定制模型; 点击这里查看[自学习定制模型配置方法](https://cloud.tencent.com/document/product/1093/38416)
        Parameters:
        CustomizationId - 自学习定制模型 id 如设置了该参数,将生效对应id的自学习定制模型; 点击这里查看[自学习定制模型配置方法](https://cloud.tencent.com/document/product/1093/38416)
      • getEmotionRecognition

        public Long getEmotionRecognition()
        Get **【增值付费功能】**情绪识别能力(目前仅支持16k_zh) 0:不开启; 1:开启情绪识别,但不在文本展示情绪标签; 2:开启情绪识别,并且在文本展示情绪标签(**该功能需要设置ResTextFormat 大于0**) 默认值为0 支持的情绪分类为:高兴、伤心、愤怒 注意: 1. **本功能为增值服务**,需将参数设置为1或2时方可按对应方式生效; 2. 如果传入参数值1或2,需确保账号已购买[情绪识别资源包](https://cloud.tencent.com/document/product/1093/35686#97ae4aa0-29a0-4066-9f07-ccaf8856a16b),或账号开启后付费;**若当前账号已开启后付费功能,并传入参数值1或2,将[自动计费](https://cloud.tencent.com/document/product/1093/35686#d912167d-ffd5-41a9-8b1c-2e89845a6852))**; 3. 参数设置为0时,无需购买资源包,也不会消耗情绪识别对应资源
        Returns:
        EmotionRecognition **【增值付费功能】**情绪识别能力(目前仅支持16k_zh) 0:不开启; 1:开启情绪识别,但不在文本展示情绪标签; 2:开启情绪识别,并且在文本展示情绪标签(**该功能需要设置ResTextFormat 大于0**) 默认值为0 支持的情绪分类为:高兴、伤心、愤怒 注意: 1. **本功能为增值服务**,需将参数设置为1或2时方可按对应方式生效; 2. 如果传入参数值1或2,需确保账号已购买[情绪识别资源包](https://cloud.tencent.com/document/product/1093/35686#97ae4aa0-29a0-4066-9f07-ccaf8856a16b),或账号开启后付费;**若当前账号已开启后付费功能,并传入参数值1或2,将[自动计费](https://cloud.tencent.com/document/product/1093/35686#d912167d-ffd5-41a9-8b1c-2e89845a6852))**; 3. 参数设置为0时,无需购买资源包,也不会消耗情绪识别对应资源
      • setEmotionRecognition

        public void setEmotionRecognition​(Long EmotionRecognition)
        Set **【增值付费功能】**情绪识别能力(目前仅支持16k_zh) 0:不开启; 1:开启情绪识别,但不在文本展示情绪标签; 2:开启情绪识别,并且在文本展示情绪标签(**该功能需要设置ResTextFormat 大于0**) 默认值为0 支持的情绪分类为:高兴、伤心、愤怒 注意: 1. **本功能为增值服务**,需将参数设置为1或2时方可按对应方式生效; 2. 如果传入参数值1或2,需确保账号已购买[情绪识别资源包](https://cloud.tencent.com/document/product/1093/35686#97ae4aa0-29a0-4066-9f07-ccaf8856a16b),或账号开启后付费;**若当前账号已开启后付费功能,并传入参数值1或2,将[自动计费](https://cloud.tencent.com/document/product/1093/35686#d912167d-ffd5-41a9-8b1c-2e89845a6852))**; 3. 参数设置为0时,无需购买资源包,也不会消耗情绪识别对应资源
        Parameters:
        EmotionRecognition - **【增值付费功能】**情绪识别能力(目前仅支持16k_zh) 0:不开启; 1:开启情绪识别,但不在文本展示情绪标签; 2:开启情绪识别,并且在文本展示情绪标签(**该功能需要设置ResTextFormat 大于0**) 默认值为0 支持的情绪分类为:高兴、伤心、愤怒 注意: 1. **本功能为增值服务**,需将参数设置为1或2时方可按对应方式生效; 2. 如果传入参数值1或2,需确保账号已购买[情绪识别资源包](https://cloud.tencent.com/document/product/1093/35686#97ae4aa0-29a0-4066-9f07-ccaf8856a16b),或账号开启后付费;**若当前账号已开启后付费功能,并传入参数值1或2,将[自动计费](https://cloud.tencent.com/document/product/1093/35686#d912167d-ffd5-41a9-8b1c-2e89845a6852))**; 3. 参数设置为0时,无需购买资源包,也不会消耗情绪识别对应资源
      • getEmotionalEnergy

        public Long getEmotionalEnergy()
        Get 情绪能量值 取值为音量分贝值/10,取值范围:[1,10],值越高情绪越强烈 0:不开启; 1:开启; 默认值为0
        Returns:
        EmotionalEnergy 情绪能量值 取值为音量分贝值/10,取值范围:[1,10],值越高情绪越强烈 0:不开启; 1:开启; 默认值为0
      • setEmotionalEnergy

        public void setEmotionalEnergy​(Long EmotionalEnergy)
        Set 情绪能量值 取值为音量分贝值/10,取值范围:[1,10],值越高情绪越强烈 0:不开启; 1:开启; 默认值为0
        Parameters:
        EmotionalEnergy - 情绪能量值 取值为音量分贝值/10,取值范围:[1,10],值越高情绪越强烈 0:不开启; 1:开启; 默认值为0
      • getConvertNumMode

        public Long getConvertNumMode()
        Get 阿拉伯数字智能转换(目前仅支持8k_zh/16k_zh引擎) 0:不转换,直接输出中文数字; 1:根据场景智能转换为阿拉伯数字; 3:打开数学相关数字转换(如:阿尔法转写为α); 默认值为 1
        Returns:
        ConvertNumMode 阿拉伯数字智能转换(目前仅支持8k_zh/16k_zh引擎) 0:不转换,直接输出中文数字; 1:根据场景智能转换为阿拉伯数字; 3:打开数学相关数字转换(如:阿尔法转写为α); 默认值为 1
      • setConvertNumMode

        public void setConvertNumMode​(Long ConvertNumMode)
        Set 阿拉伯数字智能转换(目前仅支持8k_zh/16k_zh引擎) 0:不转换,直接输出中文数字; 1:根据场景智能转换为阿拉伯数字; 3:打开数学相关数字转换(如:阿尔法转写为α); 默认值为 1
        Parameters:
        ConvertNumMode - 阿拉伯数字智能转换(目前仅支持8k_zh/16k_zh引擎) 0:不转换,直接输出中文数字; 1:根据场景智能转换为阿拉伯数字; 3:打开数学相关数字转换(如:阿尔法转写为α); 默认值为 1
      • getFilterDirty

        public Long getFilterDirty()
        Get 脏词过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤脏词; 1:过滤脏词; 2:将脏词替换为 * ; 默认值为 0
        Returns:
        FilterDirty 脏词过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤脏词; 1:过滤脏词; 2:将脏词替换为 * ; 默认值为 0
      • setFilterDirty

        public void setFilterDirty​(Long FilterDirty)
        Set 脏词过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤脏词; 1:过滤脏词; 2:将脏词替换为 * ; 默认值为 0
        Parameters:
        FilterDirty - 脏词过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤脏词; 1:过滤脏词; 2:将脏词替换为 * ; 默认值为 0
      • getFilterPunc

        public Long getFilterPunc()
        Get 标点符号过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤标点; 1:过滤句末标点; 2:过滤所有标点; 默认值为 0
        Returns:
        FilterPunc 标点符号过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤标点; 1:过滤句末标点; 2:过滤所有标点; 默认值为 0
      • setFilterPunc

        public void setFilterPunc​(Long FilterPunc)
        Set 标点符号过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤标点; 1:过滤句末标点; 2:过滤所有标点; 默认值为 0
        Parameters:
        FilterPunc - 标点符号过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤标点; 1:过滤句末标点; 2:过滤所有标点; 默认值为 0
      • getFilterModal

        public Long getFilterModal()
        Get 语气词过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤语气词; 1:过滤部分语气词; 2:严格过滤语气词; 默认值为 0
        Returns:
        FilterModal 语气词过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤语气词; 1:过滤部分语气词; 2:严格过滤语气词; 默认值为 0
      • setFilterModal

        public void setFilterModal​(Long FilterModal)
        Set 语气词过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤语气词; 1:过滤部分语气词; 2:严格过滤语气词; 默认值为 0
        Parameters:
        FilterModal - 语气词过滤(目前仅支持8k_zh/16k_zh引擎) 0:不过滤语气词; 1:过滤部分语气词; 2:严格过滤语气词; 默认值为 0
      • getSentenceMaxLength

        public Long getSentenceMaxLength()
        Get 单标点最多字数 可控制单行字幕最大字数,适用于字幕生成场景**,取值范围:[6,40] 0:不开启该功能; 默认值为0 注意:需设置ResTextFormat为3,解析返回的ResultDetail列表,通过结构中FinalSentence获取单个标点断句结果
        Returns:
        SentenceMaxLength 单标点最多字数 可控制单行字幕最大字数,适用于字幕生成场景**,取值范围:[6,40] 0:不开启该功能; 默认值为0 注意:需设置ResTextFormat为3,解析返回的ResultDetail列表,通过结构中FinalSentence获取单个标点断句结果
      • setSentenceMaxLength

        public void setSentenceMaxLength​(Long SentenceMaxLength)
        Set 单标点最多字数 可控制单行字幕最大字数,适用于字幕生成场景**,取值范围:[6,40] 0:不开启该功能; 默认值为0 注意:需设置ResTextFormat为3,解析返回的ResultDetail列表,通过结构中FinalSentence获取单个标点断句结果
        Parameters:
        SentenceMaxLength - 单标点最多字数 可控制单行字幕最大字数,适用于字幕生成场景**,取值范围:[6,40] 0:不开启该功能; 默认值为0 注意:需设置ResTextFormat为3,解析返回的ResultDetail列表,通过结构中FinalSentence获取单个标点断句结果
      • getExtra

        public String getExtra()
        Get 附加参数**(该参数无意义,忽略即可)**
        Returns:
        Extra 附加参数**(该参数无意义,忽略即可)**
      • setExtra

        public void setExtra​(String Extra)
        Set 附加参数**(该参数无意义,忽略即可)**
        Parameters:
        Extra - 附加参数**(该参数无意义,忽略即可)**