Il numero massimo di risposte o “tokin” generati dal modello ChatGPT dell’API di OpenAI può essere controllato attraverso il parametro `max_tokens` presente nell’endpoint di creazione del messaggio. Puoi impostare questo parametro su qualsiasi numero per limitare la lunghezza del testo restituito. Ricorda, tuttavia, che se il valore è troppo basso, potresti ottenere risposte che non hanno senso, poiché il modello potrebbe essere interrotto prima di completare la sua risposta.
Ecco un esempio di codice in Python che imposta `max_tokens` a 100:
```
import openai
openai.ChatCompletion.create(
model=“gpt-3.5-turbo”,
messages=[
{“role”: “system”, “content”: “You are a helpful assistant.”},
{“role”: “user”, “content”: “Who won the world series in 2020?”},
],
max_tokens=100
)
```
In questo modo, la risposta dell’IA sarà tagliata a 100 token, indipendentemente dalla sua lunghezza originale.