This commit is contained in:
@@ -9,7 +9,8 @@ draft: false
|
||||
sourceLink: https://ai.google.dev/gemini-api/docs/prompting-strategies?hl=zh-cn#model-parameters
|
||||
---
|
||||
> [谷歌提示词工程白皮书中文版](https://github.com/08820048/-LLM-Prompt-Engineering-Google/blob/master/%E6%8F%90%E7%A4%BA%E5%B7%A5%E7%A8%8B(%E4%B8%AD%E6%96%87%E7%89%88).md)
|
||||
开始前先推荐一个闯关网站
|
||||
|
||||
> 开始前先推荐一个闯关网站
|
||||
[点击跳转](https://gandalf.lakera.ai/)
|
||||
# 什么是提示词
|
||||
提示词是用于和LLMs交互使用的,最终的目的是为了让大模型能够根据你的输入,输出符合你指令、描述的回复。比如对于 Stable Diffusion 模型,提示词是生成图像的描述。对于 Gpt 模型,提示词可以是一个问题、指令或者数据,还可以是特定的约束或要求,如语气、风格、期望的回复长度。对于 VLM 模型,提示词可以是图片的格式,这样生成的文本是图像的描述。提示词对于生成的质量和相关性都有着非常大的影响,因此,如何写一个好的提示词非常重要。
|
||||
@@ -196,7 +197,9 @@ topP 参数可更改模型选择输出 token 的方式。系统会按照概率
|
||||
### stop_sequences
|
||||
stop_sequences:设置停止序列,告知模型停止生成内容。停止序列可以是任意字符序列。尽量避免使用可能会出现在生成内容中的字符序列。
|
||||
|
||||
> 作为起点,温度0.2、Top-P 0.95、Top-K 30会生成相对连贯但不过分创意的输出。如果想要特别有创意的结果,可以试温度0.9、Top-P 0.99、Top-K 40。如果想要> 更严谨的结果,试温度0.1、Top-P 0.9、Top-K 20。如果任务有唯一正确答案(比如数学问题),从温度0开始。
|
||||
> 作为起点,温度0.2、Top-P 0.95、Top-K 30会生成相对连贯但不过分创意的输出。如果想要特别有创意的结果,可以试温度0.9、Top-P 0.99、Top-K 40。如果想要更严谨的结果,试温度0.1、Top-P 0.9、Top-K 20。如果任务有唯一正确答案(比如数学问题),从温度0开始。
|
||||
|
||||
> 注意:自由度更高(高温度、Top-K、Top-P和输出令牌)可能导致模型生成不太相关的文本。
|
||||
|
||||
> 回答末尾堆满无意义的填充词?这是大语言模型常见的“重复循环错误”,模型陷入循环,反复生成相同的词、短语或句子结构,通常由不合适的温度和Top-K/Top-P设置引发。这种问题在低温和高温时都可能出现。低温时,模型过于确定,固守最高概率路径,可能回到之前生成的文本,造成循环。高温时,输出过于随机,随机选择的词可能碰巧回到之前状态,造成循环。解决方法通常需要仔细调整温度和Top-K/Top-P,找到确定性和随机性的最佳平衡。
|
||||
|
||||
|
||||
Reference in New Issue
Block a user