Class ChatCompletionRequest

    • Method Summary

      All Methods Instance Methods Concrete Methods 
      Modifier and Type Method Description
      Long getMaxTokens()
      Get 仅当模型为自行部署的开源大模型时生效。最大生成的token数目。默认为无限大。
      Message[] getMessages()
      Get 输入对话历史。旧的对话在前,数组中最后一项应该为这次的问题。
      String getModel()
      Get 对话的目标模型ID。 多行业多场景大模型在线体验聊天:tj_llm_clm-v1。 自行部署的开源大模型聊天:部署的模型服务组ID,形如ms-xxyyzz。
      Float getTemperature()
      Get 仅当模型为自行部署的开源大模型时生效。采样随机值,默认值为1.0,取值范围[0,2]。较高的值(如0.8)将使输出更加随机,而较低的值(如0.2)将使输出更加确定。建议仅修改此参数或TopP,但不建议两者都修改。
      Float getTopP()
      Get 仅当模型为自行部署的开源大模型时生效。核采样,默认值为1,取值范围[0,1]。指的是预先设置一个概率界限 p,然后将所有可能生成的token,根据概率大小从高到低排列,依次选取。当这些选取的token的累积概率大于或等于 p 值时停止,然后从已经选取的token中进行采样,生成下一个token。例如top_p为0.1时意味着模型只考虑累积概率为10%的token。建议仅修改此参数或Temperature,不建议两者都修改。
      void setMaxTokens​(Long MaxTokens)
      Set 仅当模型为自行部署的开源大模型时生效。最大生成的token数目。默认为无限大。
      void setMessages​(Message[] Messages)
      Set 输入对话历史。旧的对话在前,数组中最后一项应该为这次的问题。
      void setModel​(String Model)
      Set 对话的目标模型ID。 多行业多场景大模型在线体验聊天:tj_llm_clm-v1。 自行部署的开源大模型聊天:部署的模型服务组ID,形如ms-xxyyzz。
      void setTemperature​(Float Temperature)
      Set 仅当模型为自行部署的开源大模型时生效。采样随机值,默认值为1.0,取值范围[0,2]。较高的值(如0.8)将使输出更加随机,而较低的值(如0.2)将使输出更加确定。建议仅修改此参数或TopP,但不建议两者都修改。
      void setTopP​(Float TopP)
      Set 仅当模型为自行部署的开源大模型时生效。核采样,默认值为1,取值范围[0,1]。指的是预先设置一个概率界限 p,然后将所有可能生成的token,根据概率大小从高到低排列,依次选取。当这些选取的token的累积概率大于或等于 p 值时停止,然后从已经选取的token中进行采样,生成下一个token。例如top_p为0.1时意味着模型只考虑累积概率为10%的token。建议仅修改此参数或Temperature,不建议两者都修改。
      void toMap​(HashMap<String,​String> map, String prefix)
      Internal implementation, normal users should not use it.
    • Constructor Detail

      • ChatCompletionRequest

        public ChatCompletionRequest()
      • ChatCompletionRequest

        public ChatCompletionRequest​(ChatCompletionRequest source)
        NOTE: Any ambiguous key set via .set("AnyKey", "value") will be a shallow copy, and any explicit key, i.e Foo, set via .setFoo("value") will be a deep copy.
    • Method Detail

      • getModel

        public String getModel()
        Get 对话的目标模型ID。 多行业多场景大模型在线体验聊天:tj_llm_clm-v1。 自行部署的开源大模型聊天:部署的模型服务组ID,形如ms-xxyyzz。
        Returns:
        Model 对话的目标模型ID。 多行业多场景大模型在线体验聊天:tj_llm_clm-v1。 自行部署的开源大模型聊天:部署的模型服务组ID,形如ms-xxyyzz。
      • setModel

        public void setModel​(String Model)
        Set 对话的目标模型ID。 多行业多场景大模型在线体验聊天:tj_llm_clm-v1。 自行部署的开源大模型聊天:部署的模型服务组ID,形如ms-xxyyzz。
        Parameters:
        Model - 对话的目标模型ID。 多行业多场景大模型在线体验聊天:tj_llm_clm-v1。 自行部署的开源大模型聊天:部署的模型服务组ID,形如ms-xxyyzz。
      • getMessages

        public Message[] getMessages()
        Get 输入对话历史。旧的对话在前,数组中最后一项应该为这次的问题。
        Returns:
        Messages 输入对话历史。旧的对话在前,数组中最后一项应该为这次的问题。
      • setMessages

        public void setMessages​(Message[] Messages)
        Set 输入对话历史。旧的对话在前,数组中最后一项应该为这次的问题。
        Parameters:
        Messages - 输入对话历史。旧的对话在前,数组中最后一项应该为这次的问题。
      • getTemperature

        public Float getTemperature()
        Get 仅当模型为自行部署的开源大模型时生效。采样随机值,默认值为1.0,取值范围[0,2]。较高的值(如0.8)将使输出更加随机,而较低的值(如0.2)将使输出更加确定。建议仅修改此参数或TopP,但不建议两者都修改。
        Returns:
        Temperature 仅当模型为自行部署的开源大模型时生效。采样随机值,默认值为1.0,取值范围[0,2]。较高的值(如0.8)将使输出更加随机,而较低的值(如0.2)将使输出更加确定。建议仅修改此参数或TopP,但不建议两者都修改。
      • setTemperature

        public void setTemperature​(Float Temperature)
        Set 仅当模型为自行部署的开源大模型时生效。采样随机值,默认值为1.0,取值范围[0,2]。较高的值(如0.8)将使输出更加随机,而较低的值(如0.2)将使输出更加确定。建议仅修改此参数或TopP,但不建议两者都修改。
        Parameters:
        Temperature - 仅当模型为自行部署的开源大模型时生效。采样随机值,默认值为1.0,取值范围[0,2]。较高的值(如0.8)将使输出更加随机,而较低的值(如0.2)将使输出更加确定。建议仅修改此参数或TopP,但不建议两者都修改。
      • getTopP

        public Float getTopP()
        Get 仅当模型为自行部署的开源大模型时生效。核采样,默认值为1,取值范围[0,1]。指的是预先设置一个概率界限 p,然后将所有可能生成的token,根据概率大小从高到低排列,依次选取。当这些选取的token的累积概率大于或等于 p 值时停止,然后从已经选取的token中进行采样,生成下一个token。例如top_p为0.1时意味着模型只考虑累积概率为10%的token。建议仅修改此参数或Temperature,不建议两者都修改。
        Returns:
        TopP 仅当模型为自行部署的开源大模型时生效。核采样,默认值为1,取值范围[0,1]。指的是预先设置一个概率界限 p,然后将所有可能生成的token,根据概率大小从高到低排列,依次选取。当这些选取的token的累积概率大于或等于 p 值时停止,然后从已经选取的token中进行采样,生成下一个token。例如top_p为0.1时意味着模型只考虑累积概率为10%的token。建议仅修改此参数或Temperature,不建议两者都修改。
      • setTopP

        public void setTopP​(Float TopP)
        Set 仅当模型为自行部署的开源大模型时生效。核采样,默认值为1,取值范围[0,1]。指的是预先设置一个概率界限 p,然后将所有可能生成的token,根据概率大小从高到低排列,依次选取。当这些选取的token的累积概率大于或等于 p 值时停止,然后从已经选取的token中进行采样,生成下一个token。例如top_p为0.1时意味着模型只考虑累积概率为10%的token。建议仅修改此参数或Temperature,不建议两者都修改。
        Parameters:
        TopP - 仅当模型为自行部署的开源大模型时生效。核采样,默认值为1,取值范围[0,1]。指的是预先设置一个概率界限 p,然后将所有可能生成的token,根据概率大小从高到低排列,依次选取。当这些选取的token的累积概率大于或等于 p 值时停止,然后从已经选取的token中进行采样,生成下一个token。例如top_p为0.1时意味着模型只考虑累积概率为10%的token。建议仅修改此参数或Temperature,不建议两者都修改。
      • getMaxTokens

        public Long getMaxTokens()
        Get 仅当模型为自行部署的开源大模型时生效。最大生成的token数目。默认为无限大。
        Returns:
        MaxTokens 仅当模型为自行部署的开源大模型时生效。最大生成的token数目。默认为无限大。
      • setMaxTokens

        public void setMaxTokens​(Long MaxTokens)
        Set 仅当模型为自行部署的开源大模型时生效。最大生成的token数目。默认为无限大。
        Parameters:
        MaxTokens - 仅当模型为自行部署的开源大模型时生效。最大生成的token数目。默认为无限大。