La risposta ottenuta da Chat GPT API avrà una struttura come questa:
```
{
‘id’: ‘cmpl-2sPfZNkTwp5BZV0XSw0DTU3gVOF0’,
‘object’: ‘chat.completion’,
‘created’: 408543,
‘model’: ‘text-davinci-002’,
‘usage’: {‘prompt_tokens’: 56, ‘completion_tokens’: 31, ‘total_tokens’: 87},
‘choices’: [
{
‘message’: {
‘role’: ‘assistant’,
‘content’: “D’après mes informations, la réponse est oui.“
},
‘finish_reason’: ‘stop’,
‘index’: 0
}
]
}
```
Dove:
- `id`: è identificativo univoco della risposta.
- `object`: rappresenta il tipo di oggetto, in questo caso “chat.completion”.
- `created`: è il timestamp di quando è stata creata la risposta.
- `model`: è il nome del modello utilizzato per generare la risposta.
- `usage`: indica il numero di token usati per la richiesta e la risposta.
- `choices`: è una lista di risposte. Qui troverai il messaggio sotto `message` che ha `role` (il ruolo può essere sia ‘system’, ‘user’ che ‘assistant’) e `content` (il contenuto del messaggio) e `finish_reason` (il motivo per cui il modello ha terminato la risposta: può essere ‘stop’ (ha raggiunto un token di stop), ‘length’ (ha raggiunto la lunghezza massima) o ‘temperature’ (ha completato la risposta a causa della temperatura impostata)).
Generalmente, se stai cercando solo il messaggio di risposta dell’assistente, puoi ottenerlo con: `response[‘choices’]0[‘message’][‘content’]` in Python. Ricordati sempre di gestire gli errori, come ad esempio se l’API non ritorna una risposta.