L’API ChatGPT di OpenAI consente di influenzare l’output dell’intelligenza artificiale regolando un certo numero di parametri. Ecco come utilizzare i più importanti:
1. `max_tokens`: Questo parametro determina la lunghezza massima della risposta dell’API. Ad esempio, se imposti il valore a 60, l’API terminerà la risposta dopo 60 token.
1. `temperature`: Questo parametro determina il livello di casualità dell’output. Un valore più elevato (avvicinandosi a 1) rende l’output più casuale, mentre un valore più basso (avvicinandosi a 0) rende l’output più deterministico.
1. `frequency_penalty`: Questa opzione penalizza le parole che appaiono troppo spesso nell’output.
1. `presence_penalty`: Questa opzione penalizza le nuove parole che appaiono nell’output.
1. `system`: Puoi utilizzare questo parametro per inviare un messaggio di sistema che da istruzioni alla conversazione. Ad esempio, potresti dire a ChatGPT di assumere un determinato personaggio o di parlare in un certo modo.
1. `messages`: Questo parametro contiene una serie di messaggi di input. Ogni messaggio ha un `role` che può essere ‘sistema’, ‘utente’ o ‘assistente’ e un `content` che contiene il Messaggio effettivo.
Un esempio di come utilizzare questi parametri è:
```
openai.ChatCompletion.create(
model=“gpt-3.5-turbo”,
messages=[
{“role”: “system”, “content”: “Sei un assistente disponibile per aiutare l’utente.”},
{“role”: “user”, “content”: “Quanto è lunga la Grande Muraglia Cinese?”},
]
)
```
Tieni presente che sia `temperature` che `max_tokens` possono avere un impatto significativo sul costo di utilizzo di ChatGPT, perché influenzano la quantità di testo generato.