De reactie van de OpenAI GPT-3.0 ChatModellen API kan worden ontleed door de inhoud van de reactie in een datastructuur zoals een woordenboek, een lijst of een klasse op te slaan.
De API respons geeft meestal een JSON object terug, wat makkelijk kan worden omgezet in Python datastructuren.
Hier is een voorbeeld van hoe je de reactie van de API kunt ontleden in Python:
```
import openai
openai.api_key = ‘jouw-api-sleutel’
response = openai.ChatCompletion.create(
model=“gpt-3.0-turbo”,
messages=[
{“role”: “system”, “content”: “Je bent een behulpzame assistent.”},
{“role”: “user”, “content”: “Wie heeft de Eiffeltoren gebouwd?”},
]
)
Hier is hoe de respons eruit ziet:
```
{
‘id’: ‘chatcmpl-6p9XYPYSTTRi0xEviKjjilqrWU2Ve’,
‘object’: ‘chat.completion’,
‘created’: 1677649420,
‘model’: ‘gpt-3.0-turbo’,
‘usage’: {‘prompt_tokens’: 56, ‘completion_tokens’: 31, ‘total_tokens’: 87},
‘choices’: [
{
‘message’: {
‘role’: ‘assistant’,
‘content’: ‘De Eiffeltoren werd gebouwd door het bedrijf van Gustave Eiffel, met Eiffel zelf als hoofdingenieur. Het ontwerp kwam echter van twee van zijn medewerkers, Maurice Koechlin en Émile Nouguier.‘
},
‘finish_reason’: ‘stop’,
‘index’: 0
}
]
}
```
In dit voorbeeld wordt de ‘content’ sleutel van de ‘message’ sleutel bekeken om het antwoord van de assistent te krijgen. Voor complexere toepassingen wilt u mogelijk meer van de reactiedata ontleden.