Pour l’API OpenAI GPT-3, une requête JSON typique se compose généralement d’un ensemble de trois éléments clés: le modèle que vous utilisez, le prompt que vous donnez à l’IA, et le nombre max de tokens que vous voulez de retour.
Voici un exemple de requête JSON correctement encodé pour l’API de ChatGPT :
```
{
“model”: “text-davinci-002”,
“prompt”: “Translate the following English text to French: ‘{}’”,
“max_tokens”: 60
}
```
Dans cet exemple, le modèle utilisé est ‘text-davinci-002’, le prompt est une demande de traduction d’un texte anglais en français, et le nombre maximum de tokens retournés est 60.
Cependant, si vous utilisez l’API v4 de ChatGPT, la structure JSON est un peu différente, vous devez envoyer une série de messages au lieu d’un prompt, où chaque message a un rôle (soit « system », « user » ou « assistant ») et un contenu. Voici comment cela pourrait ressembler :
```
{
“model”: “gpt-3.5-turbo”,
“messages”: [
{“role”: “system”, “content”: “You are a helpful assistant.”},
{“role”: “user”, “content”: “Who won the world series in 2020?”},
{“role”: “user”, “content”: “Translate the sentence ‘Hello, friend’ to French.”}
]
}
```
Dans cet exemple, le système définit d’abord le rôle de l’assistant. Ensuite, l’utilisateur pose deux questions. La réponse de l’API serait le texte généré par l’IA en réponse aux questions de l’utilisateur.