NIMSDK-AOS  9.21.10
NIMAIModelConfigParams.java
浏览该文件的文档.
1 package com.netease.nimlib.sdk.ai.params;
2 
3 import java.io.Serializable;
4 /**
5  * Ai 大模型配置参数
6  */
7 public class NIMAIModelConfigParams implements Serializable {
8  /**
9  * 提示词
10  */
11  private String prompt;
12 
13  /**
14  * 模型最大tokens数量
15  */
16  private Integer maxTokens;
17 
18  /**
19  * 取值范围(0,1),生成时,核采样方法的概率阈值。例如,取值为0.8时,仅保留累计概率之和大于等于0.8的概率分布中的token,作为随机采样的候选集。取值范围为(0,1.0),取值越大,生成的随机性越高;取值越低,生成的随机性越低。默认值 0.5。注意,取值不要大于等于1
20  */
21  private Double topP;
22 
23  /**
24  * 取值范围(0,2),用于控制随机性和多样性的程度。具体来说,temperature值控制了生成文本时对每个候选词的概率分布进行平滑的程度。较高的temperature值会降低概率分布的峰值,使得更多的低概率词被选择,生成结果更加多样化;而较低的temperature
25  * 值则会增强概率分布的峰值,使得高概率词更容易被选择,生成结果更加确定。
26  */
27  private Double temperature;
28 
29  /**
30  * 获取提示词
31  *
32  * @return 提示词
33  */
34  public String getPrompt() {
35  return prompt;
36  }
37 
38  /**
39  * 设置提示词
40  *
41  * @param prompt 提示词
42  */
43  public void setPrompt(String prompt) {
44  this.prompt = prompt;
45  }
46 
47  /**
48  * 获取模型最大tokens数量
49  *
50  * @return 模型最大tokens数量
51  */
52  public Integer getMaxTokens() {
53  return maxTokens;
54  }
55 
56  /**
57  * 设置模型最大tokens数量
58  *
59  * @param maxTokens 模型最大tokens数量
60  */
61  public void setMaxTokens(Integer maxTokens) {
62  this.maxTokens = maxTokens;
63  }
64 
65  /**
66  * 获取取值范围 topP
67  *
68  * @return 取值范围 topP
69  */
70  public Double getTopP() {
71  return topP;
72  }
73 
74  /**
75  * 设置取值范围 topP
76  *
77  * @param topP 取值范围 topP
78  */
79  public void setTopP(Double topP) {
80  this.topP = topP;
81  }
82 
83  /**
84  * 获取温度 temperature
85  *
86  * @return 温度 temperature
87  */
88  public Double getTemperature() {
89  return temperature;
90  }
91 
92  /**
93  * 设置温度 temperature
94  *
95  * @param temperature 温度 temperature
96  */
97  public void setTemperature(Double temperature) {
98  this.temperature = temperature;
99  }
100 
101 }
void setMaxTokens(Integer maxTokens)
设置模型最大tokens数量
void setTemperature(Double temperature)
设置温度 temperature