def get_completion(prompt, model="gpt-3.5-turbo"): messages = [{"role": "user", "content": prompt}] response = openai.ChatCompletion.create( model=model, messages=messages, temperature=0, # this is the degree of randomness of the model's output ) return response.choices[0].message["content"] 和 def get_completion_from_messages(messages, model="gpt-3.5-turbo", temperature=0): response = openai.ChatCompletion.create( model=model, messages=messages, temperature=temperature, # this is the degree of randomness of the model's output ) # print(str(response.choices[0].message)) return response.choices[0].message["content"] 有什么不同
时间: 2023-06-19 17:04:01 浏览: 235
微调fine-tuning 微调通过训练⽐prompt所能容纳的更多的示例.pdf
这两个函数的主要区别在于输入参数。第一个函数需要一个字符串作为对话的开端,然后使用指定的模型生成对话的下一步。而第二个函数需要一个包含对话历史记录的列表,然后使用指定的模型生成对话的下一步。第二个函数更加灵活,因为它允许在对话中添加更多的历史信息,以便模型生成更加准确的回复。此外,第二个函数还可以指定温度参数,以控制模型生成回复时的随机性。
阅读全文