L’opzione di temperatura nell’API ChatGPT viene utilizzata per controllare la casualità delle risposte generate dal modello. Di seguito viene mostrato come utilizzarla.
Ecco un esempio codice:
```
import openai
openai.api_key = ‘your-api-key’
response = openai.ChatCompletion.create(
model=“gpt-3.5-turbo”,
messages=[
{“role”: “system”, “content”: “You are a helpful assistant.”},
{“role”: “user”, “content”: “Who won the world series in 2020?”},
],
temperature=0.5,
)
```
Nell’esempio di cui sopra, il parametro di `temperature` è impostato su `0.5`.
Il valore di `temperature` può variare tra 0 e 1. Un valore più alto (come 0.8 o 1) aumenta la casualità delle risposte del modello, rendendo le sue risposte più variabili. Al contrario, un valore più basso (come 0.2 o 0) rende le risposte del modello più deterministiche e coerenti.
Inoltre, con un valore di `temperature` pari a 0, il modello tenderà a produrre sempre la stessa risposta per gli stessi input.