type
status
slug
summary
tags
category
icon
password
😀
 

本站内容,均来自RJL API ,如要使用请前往  https://raojialong.love 只要0.5元一美金  https://gpt.raojialong.space (二站)

model
notion image
openai的api提供了一系列的模型供不同工作选用,
我们从命名的角度来解释这些模型的作用,
gpt-xx
这部分xx便是GPT的版本号
目前最常用的版本是3.5和4,
4的能力比3.5的能力要强,
gpt-版本号-xx
这部分xx是对应版本号的不同镜像
例如gpt-4-0613和gpt-4-1106分别对应GPT4的6月13日版本和11月6日版本。
这些有后缀名的镜像为openai提供的稳定镜像,在未通知用户的情况下,稳定镜像的参数不会有任何变化(主要面对追求稳定性的企业使用)。
另外,更新的gpt版本拥有更新的知识库和功能,
例如GPT4 0613支持调用插件而GPT4 0314不支持插件。
GPT4 1106的知识库是23年以前,而GPT4是在21年之前。
gpt-版本号-xx-镜像号
例如GPT-4和GPT-4-32k
后缀的32k的含义是,这个版本的GPT4最多支持联系32k tokens的上下文(也意味着一次性最多输入32k tokens的内容)
版本号与记忆力对照表如下(不是所有版本都标注了最大记忆力限制)
notion image
2 tokens约等于 1个汉字。
在选择模型时尽量保证自己的任务不超过gpt的最大记忆力限制以保证任务顺利完成。
gpt-版本号-记忆力限制-镜像号-特殊备注
例如GPT-4-1106-preview和GPT-4-vision-preview
preview的含义是测试版本,
vision的含义是此模型支持图像的输入和输出。
因以上俩版本都是测试版,所以openai提供了每日很有限的调用次数。
随机性(temperature)
notion image
“随机性”(在参数中通常表示为temperature)是一个非常重要的参数。它决定了模型生成文本的随机性和多样性。
如果你把模型想象成一个正在写故事的作家,那么”随机性”就像是这个作家的创作风格。如果随机性较高(接近1),那么作家可能会写出一些非常新颖、独特、甚至有些出人意料的内容。如果随机性较低(接近0),那么作家可能会更倾向于写出一些更常见、更符合预期的内容。
具体来说,随机性参数会影响模型在生成每一个新的单词或字符时,从可能的选项中做出选择的方式。如果随机性较高,模型会更可能选择不太常见但仍然可能的选项;如果随机性较低,模型会更可能选择最可能的选项。
例如,如果模型正在生成一个句子,开始是 “今天的天气很…”,在随机性较低的情况下,模型可能会选择完成这个句子为 “今天的天气很好”,因为这是一个非常常见的表达。但是在随机性较高的情况下,模型可能会生成 “今天的天气很像大海的颜色”,这是一个更富有创意和新颖的表达。
总的来说,随机性参数可以帮助你控制模型生成内容的创新性和多样性。你可以根据你的具体需求来调整这个参数。
核采样( top_p)
notion image
核采样(top_p)是OpenAI API中的一个重要参数,也被称为nucleus sampling。这个参数的作用是在生成文本时,控制模型的随机性和多样性。
在生成文本时,模型会为每个可能的下一个词分配一个概率。例如,如果当前的句子是”我喜欢吃”,模型可能会给”苹果”分配0.6的概率,给”香蕉”分配0.3的概率,给”汽车”分配0.1的概率。这是因为在大多数情况下,”我喜欢吃苹果”或”我喜欢吃香蕉”比”我喜欢吃汽车”更有意义。
核采样(top_p)的作用就是在这些可能的词中选择一个子集,然后从这个子集中随机选择下一个词。这个子集是由概率最高的词组成的,直到这些词的概率之和达到top_p为止。例如,如果top_p设为0.95,那么模型可能会选择概率之和为0.95的最高概率的词作为候选词。
如果top_p设得较低,例如0.1,那么模型只会考虑概率最高的几个词,生成的文本可能会比较单一。如果top_p设得较高,例如0.9,那么模型会考虑更多的词,生成的文本可能会更有多样性,但也可能会更难以预测。
总的来说,核采样(top_p)是一个平衡生成文本的多样性和一致性的参数。
单次回复限制(max_tokens)
notion image
max_tokens参数是用来限制AI生成文本的长度的。”Token”可以理解为文本中的一个单位,它可以是一个字、一个词或者一个标点符号。
例如,如果你设置max_tokens为50,那么AI生成的文本将不会超过50个tokens。这个参数可以帮助你控制AI的输出长度,防止生成过长或者过短的文本。
但是需要注意的是,如果max_tokens设置得过小,可能会导致AI的回复被截断,从而产生没有意义或者难以理解的文本。因此,你需要根据你的具体需求来合理设置这个参数。
话题新鲜度(presence_penalty)
notion image
话题新鲜度(presence_penalty)是OpenAI的API中的一个参数,它用于控制模型生成的文本的新颖性或者说是独特性。
如果你将”presence_penalty”设定得较高,那么模型生成的文本将更倾向于包含新颖或者不常见的内容。换句话说,模型会尽量避免生成常见或者普遍的回答,而是尝试生成一些更独特、更少见的内容。
相反,如果你将”presence_penalty”设定得较低,那么模型生成的文本将更倾向于包含常见或者普遍的内容。也就是说,模型会更多地生成一些常见的、大多数人都会说的回答。
这个参数可以帮助你根据你的需求调整模型的输出。例如,如果你希望模型能够提供一些新颖的、别人可能没有想到的答案,你可以尝试提高”presence_penalty”的值。如果你希望模型能够提供一些更符合大众认知的、常见的答案,你可以尝试降低”presence_penalty”的值。
但是需要注意的是,”presence_penalty”的设定需要根据实际情况进行微调,过高或者过低都可能导致模型的输出不符合预期。
频率惩罚度(frequency_penalty)
notion image
频率惩罚度(frequency_penalty)是OpenAI API中的一个参数,它用于控制生成的文本中常见词汇的出现频率。
这个参数的取值范围是0.0到1.0。当你将这个参数设定得较高时(接近1.0),模型在生成文本时会尽量避免使用常见的词汇,反之,如果设定得较低(接近0.0),则模型更倾向于使用常见的词汇。
举个例子,假设你让模型写一个故事,如果你将频率惩罚度设定得较高,那么模型生成的故事可能会包含更多的罕见词汇和独特的表达方式。而如果你将频率惩罚度设定得较低,那么模型生成的故事可能会更加通俗易懂,因为它会使用更多的常见词汇。
总的来说,频率惩罚度是一个可以帮助你控制模型生成文本的风格的工具。你可以根据你的需求来调整这个参数,以得到你想要的结果。
总结
当你不知道如何修改参数来获得更好回答时,请选择默认的GPT4即可,其他参数默认。
在更改参数时,请务必清楚自己知道这些参数的含义
 
 
 
 
 
总结文章的内容
 
 
💡
有关RJL API或者使用上的问题,欢迎您在底部评论区留言,一起交流~
密钥 API KEY:使用教程 API使用教程基础篇