pydantic_ai.settings
ModelSettings
Bases: TypedDict
用于配置 LLM 的设置。
这里我们仅包含适用于多个模型/模型提供商的设置,但并非所有模型都支持所有这些设置。
源代码位于 pydantic_ai_slim/pydantic_ai/settings.py
中
12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 |
|
max_tokens instance-attribute
max_tokens: int
停止前生成的最大 token 数。
支持
- Gemini
- Anthropic
- OpenAI
- Groq
- Cohere
- Mistral
- Bedrock
temperature instance-attribute
temperature: float
注入到响应中的随机量。
对于分析/多项选择,使用更接近 0.0
的 temperature
,对于创造性和生成性任务,使用更接近模型最大 temperature
的值。
请注意,即使 temperature
为 0.0
,结果也不会完全确定。
支持
- Gemini
- Anthropic
- OpenAI
- Groq
- Cohere
- Mistral
- Bedrock
top_p instance-attribute
top_p: float
一种替代使用 temperature 进行采样的 Nucleus 采样方法,其中模型考虑具有 top_p 概率质量的 token 的结果。
因此,0.1 表示仅考虑包含前 10% 概率质量的 token。
您应该更改 temperature
或 top_p
,但不能同时更改两者。
支持
- Gemini
- Anthropic
- OpenAI
- Groq
- Cohere
- Mistral
- Bedrock
timeout instance-attribute
timeout: float | Timeout
以秒为单位,覆盖请求的客户端级别默认超时。
支持
- Gemini
- Anthropic
- OpenAI
- Groq
- Mistral
parallel_tool_calls instance-attribute
parallel_tool_calls: bool
是否允许并行工具调用。
支持
- OpenAI(某些模型,非 o1)
- Groq
- Anthropic
presence_penalty instance-attribute
presence_penalty: float
根据新 token 是否已在文本中出现过对其进行惩罚。
支持
- OpenAI
- Groq
- Cohere
- Gemini
- Mistral
frequency_penalty instance-attribute
frequency_penalty: float
根据新 token 在文本中已有的频率对其进行惩罚。
支持
- OpenAI
- Groq
- Cohere
- Gemini
- Mistral