NIMSDK-AOS  10.9.50
V2NIMAIModelConfig.java
浏览该文件的文档.
1 package com.netease.nimlib.sdk.v2.ai.config;
2 
3 /**
4  * Ai大模型配置
5  */
6 
7 import java.io.Serializable;
8 import java.util.List;
9 
10 /**
11  * 用于配置 V2 模型的参数类
12  */
13 public class V2NIMAIModelConfig implements Serializable {
14 
15  /**
16  * 具体大模型版本模型名
17  */
18  private String model;
19 
20  /**
21  * 提示词
22  */
23  private String prompt;
24  /**
25  * 提示词对应的key列表
26  */
27  private List<String> promptKeys;
28  /**
29  * 模型最大tokens数量
30  */
31  private int maxTokens = 0;
32 
33  /**
34  * 在服务器端是 double 类型,在端测需要作为 string 取值范围(0,1),生成时,核采样方法的概率阈值。 例如,取值为0.8时,仅保留累计概率之和大于等于0.8的概率分布中的token,作为随机采样的候选集。
35  * 取值范围为(0,1.0),取值越大,生成的随机性越高;取值越低,生成的随机性越低。默认值 0.5。 注意,取值不要大于等于1
36  */
37  private double topP = 0.5;
38 
39  /**
40  * 在服务器端是 double 类型的,在端测需要作为 string 取值范围(0,2),用于控制随机性和多样性的程度。 具体来说,temperature值控制了生成文本时对每个候选词的概率分布进行平滑的程度。
41  * 较高的temperature值会降低概率分布的峰值,使得更多的低概率词被选择,生成结果更加多样化; 而较低的temperature值则会增强概率分布的峰值,使得高概率词更容易被选择,生成结果更加确定。
42  */
43  private double temperature = 1;
44 
45  /**
46  * 获取具体大模型版本模型名
47  *
48  * @return 具体大模型版本模型名
49  */
50  public String getModel() {
51  return model;
52  }
53 
54  /**
55  * 设置具体大模型版本模型名
56  *
57  * @param model 具体大模型版本模型名
58  */
59  public void setModel(String model) {
60  this.model = model;
61  }
62 
63  /**
64  * 获取提示词
65  *
66  * @return 提示词
67  */
68  public String getPrompt() {
69  return prompt;
70  }
71 
72  /**
73  * 设置提示词
74  *
75  * @param prompt 提示词
76  */
77  public void setPrompt(String prompt) {
78  this.prompt = prompt;
79  }
80 
81  /**
82  * 获取提示词对应的key列表
83  *
84  * @return 提示词对应的key列表
85  */
86  public List<String> getPromptKeys() {
87  return promptKeys;
88  }
89 
90  /**
91  * 设置提示词对应的key列表
92  *
93  * @param promptKeys 提示词对应的key列表
94  */
95  public void setPromptKeys(List<String> promptKeys) {
96  this.promptKeys = promptKeys;
97  }
98 
99  /**
100  * 获取模型最大tokens数量
101  *
102  * @return 模型最大tokens数量
103  */
104  public int getMaxTokens() {
105  return maxTokens;
106  }
107 
108  /**
109  * 设置模型最大tokens数量
110  *
111  * @param maxTokens 模型最大tokens数量
112  */
113  public void setMaxTokens(int maxTokens) {
114  this.maxTokens = maxTokens;
115  }
116 
117  /**
118  * 获取topP
119  *
120  * @return topP
121  */
122  public double getTopP() {
123  return topP;
124  }
125 
126  /**
127  * 设置topP
128  *
129  * @param topP topP
130  */
131  public void setTopP(double topP) {
132  this.topP = topP;
133  }
134 
135  /**
136  * 获取temperature
137  *
138  * @return temperature
139  */
140  public double getTemperature() {
141  return temperature;
142  }
143 
144  /**
145  * 设置temperature
146  *
147  * @param temperature temperature
148  */
149  public void setTemperature(double temperature) {
150  this.temperature = temperature;
151  }
152 
153  @Override
154  public String toString() {
155  final StringBuilder sb = new StringBuilder("V2NIMAIModelConfig{");
156  sb.append("model='").append(model).append('\'');
157  sb.append(", prompt='").append(prompt).append('\'');
158  sb.append(", promptKeys=").append(promptKeys);
159  sb.append(", maxTokens=").append(maxTokens);
160  sb.append(", topP=").append(topP);
161  sb.append(", temperature=").append(temperature);
162  sb.append('}');
163  return sb.toString();
164  }
165 }
List< String > getPromptKeys()
获取提示词对应的key列表
void setPromptKeys(List< String > promptKeys)
设置提示词对应的key列表
void setModel(String model)
设置具体大模型版本模型名
String getModel()
获取具体大模型版本模型名
void setTemperature(double temperature)
设置temperature
void setMaxTokens(int maxTokens)
设置模型最大tokens数量