NIMSDK-AOS  9.21.10
NIMAIModelConfig.java
浏览该文件的文档.
1 package com.netease.nimlib.sdk.ai.config;
2 
3 import java.io.Serializable;
4 import java.util.List;
5 
6 /**
7  * 用于配置 V2 模型的参数类
8  */
9 public class NIMAIModelConfig implements Serializable {
10 
11  /**
12  * 具体大模型版本模型名
13  */
14  private String model;
15 
16  /**
17  * 提示词
18  */
19  private String prompt;
20  /**
21  * 提示词对应的key列表
22  */
23  private List<String> promptKeys;
24  /**
25  * 模型最大tokens数量
26  */
27  private int maxTokens = 0;
28 
29  /**
30  * 在服务器端是 double 类型,在端测需要作为 string 取值范围(0,1),生成时,核采样方法的概率阈值。 例如,取值为0.8时,仅保留累计概率之和大于等于0.8的概率分布中的token,作为随机采样的候选集。
31  * 取值范围为(0,1.0),取值越大,生成的随机性越高;取值越低,生成的随机性越低。默认值 0.5。 注意,取值不要大于等于1
32  */
33  private double topP = 0.5;
34 
35  /**
36  * 在服务器端是 double 类型的,在端测需要作为 string 取值范围(0,2),用于控制随机性和多样性的程度。 具体来说,temperature值控制了生成文本时对每个候选词的概率分布进行平滑的程度。
37  * 较高的temperature值会降低概率分布的峰值,使得更多的低概率词被选择,生成结果更加多样化; 而较低的temperature值则会增强概率分布的峰值,使得高概率词更容易被选择,生成结果更加确定。
38  */
39  private double temperature = 1;
40 
41  /**
42  * 获取具体大模型版本模型名
43  *
44  * @return 具体大模型版本模型名
45  */
46  public String getModel() {
47  return model;
48  }
49 
50  /**
51  * 设置具体大模型版本模型名
52  *
53  * @param model 具体大模型版本模型名
54  */
55  public void setModel(String model) {
56  this.model = model;
57  }
58 
59  /**
60  * 获取提示词
61  *
62  * @return 提示词
63  */
64  public String getPrompt() {
65  return prompt;
66  }
67 
68  /**
69  * 设置提示词
70  *
71  * @param prompt 提示词
72  */
73  public void setPrompt(String prompt) {
74  this.prompt = prompt;
75  }
76 
77  /**
78  * 获取提示词对应的key列表
79  *
80  * @return 提示词对应的key列表
81  */
82  public List<String> getPromptKeys() {
83  return promptKeys;
84  }
85 
86  /**
87  * 设置提示词对应的key列表
88  *
89  * @param promptKeys 提示词对应的key列表
90  */
91  public void setPromptKeys(List<String> promptKeys) {
92  this.promptKeys = promptKeys;
93  }
94 
95  /**
96  * 获取模型最大tokens数量
97  *
98  * @return 模型最大tokens数量
99  */
100  public int getMaxTokens() {
101  return maxTokens;
102  }
103 
104  /**
105  * 设置模型最大tokens数量
106  *
107  * @param maxTokens 模型最大tokens数量
108  */
109  public void setMaxTokens(int maxTokens) {
110  this.maxTokens = maxTokens;
111  }
112 
113  /**
114  * 获取topP
115  *
116  * @return topP
117  */
118  public double getTopP() {
119  return topP;
120  }
121 
122  /**
123  * 设置topP
124  *
125  * @param topP topP
126  */
127  public void setTopP(double topP) {
128  this.topP = topP;
129  }
130 
131  /**
132  * 获取temperature
133  *
134  * @return temperature
135  */
136  public double getTemperature() {
137  return temperature;
138  }
139 
140  /**
141  * 设置temperature
142  *
143  * @param temperature temperature
144  */
145  public void setTemperature(double temperature) {
146  this.temperature = temperature;
147  }
148 
149  @Override
150  public String toString() {
151  final StringBuilder sb = new StringBuilder("NIMAIModelConfig{");
152  sb.append("model='").append(model).append('\'');
153  sb.append(", prompt='").append(prompt).append('\'');
154  sb.append(", promptKeys=").append(promptKeys);
155  sb.append(", maxTokens=").append(maxTokens);
156  sb.append(", topP=").append(topP);
157  sb.append(", temperature=").append(temperature);
158  sb.append('}');
159  return sb.toString();
160  }
161 }
void setModel(String model)
设置具体大模型版本模型名
void setPromptKeys(List< String > promptKeys)
设置提示词对应的key列表
void setPrompt(String prompt)
设置提示词
String getModel()
获取具体大模型版本模型名
List< String > getPromptKeys()
获取提示词对应的key列表
int getMaxTokens()
获取模型最大tokens数量
void setMaxTokens(int maxTokens)
设置模型最大tokens数量
void setTemperature(double temperature)
设置temperature