NIMSDK-AOS  10.9.50
V2NIMAIModelConfigParams.java
浏览该文件的文档.
1 package com.netease.nimlib.sdk.v2.ai.params;
2 
3 import java.io.Serializable;
4 
5 /**
6  * Ai 大模型配置参数
7  */
8 public class V2NIMAIModelConfigParams implements Serializable {
9 
10  /**
11  * 提示词
12  */
13  private String prompt;
14 
15  /**
16  * 模型最大tokens数量
17  */
18  private Integer maxTokens;
19 
20  /**
21  * 取值范围(0,1),生成时,核采样方法的概率阈值。例如,取值为0.8时,仅保留累计概率之和大于等于0.8的概率分布中的token,作为随机采样的候选集。取值范围为(0,1.0),取值越大,生成的随机性越高;取值越低,生成的随机性越低。默认值 0.5。注意,取值不要大于等于1
22  */
23  private Double topP;
24 
25  /**
26  * 取值范围(0,2),用于控制随机性和多样性的程度。具体来说,temperature值控制了生成文本时对每个候选词的概率分布进行平滑的程度。较高的temperature值会降低概率分布的峰值,使得更多的低概率词被选择,生成结果更加多样化;而较低的temperature
27  * 值则会增强概率分布的峰值,使得高概率词更容易被选择,生成结果更加确定。
28  */
29  private Double temperature;
30 
31  /**
32  * 获取提示词
33  *
34  * @return 提示词
35  */
36  public String getPrompt() {
37  return prompt;
38  }
39 
40  /**
41  * 设置提示词
42  *
43  * @param prompt 提示词
44  */
45  public void setPrompt(String prompt) {
46  this.prompt = prompt;
47  }
48 
49  /**
50  * 获取模型最大tokens数量
51  *
52  * @return 模型最大tokens数量
53  */
54  public Integer getMaxTokens() {
55  return maxTokens;
56  }
57 
58  /**
59  * 设置模型最大tokens数量
60  *
61  * @param maxTokens 模型最大tokens数量
62  */
63  public void setMaxTokens(Integer maxTokens) {
64  this.maxTokens = maxTokens;
65  }
66 
67  /**
68  * 获取取值范围 topP
69  *
70  * @return 取值范围 topP
71  */
72  public Double getTopP() {
73  return topP;
74  }
75 
76  /**
77  * 设置取值范围 topP
78  *
79  * @param topP 取值范围 topP
80  */
81  public void setTopP(Double topP) {
82  this.topP = topP;
83  }
84 
85  /**
86  * 获取温度 temperature
87  *
88  * @return 温度 temperature
89  */
90  public Double getTemperature() {
91  return temperature;
92  }
93 
94  /**
95  * 设置温度 temperature
96  *
97  * @param temperature 温度 temperature
98  */
99  public void setTemperature(Double temperature) {
100  this.temperature = temperature;
101  }
102 }
void setTemperature(Double temperature)
设置温度 temperature
void setMaxTokens(Integer maxTokens)
设置模型最大tokens数量