Con l’API OpenAI ChatGPT, il contesto della conversazione è mantenuto utilizzando le stringhe di messaggi. Ad esempio:
```
import openai
openai.api_key = “YOUR_SECRET_KEY”
response = openai.ChatCompletion.create(
model=“gpt-3.5-turbo”,
messages=[
{“role”: “system”, “content”: “You are a helpful assistant.”},
{“role”: “user”, “content”: “Who won the world series in 2020?”},
{“role”: “assistant”, “content”: “The Los Angeles Dodgers won the World Series in 2020.”},
{“role”: “user”, “content”: “Where was it played?”}
]
)
```
In questo esempio, i messaggi precedenti sono dati in input come array di oggetti. Ogni messaggio ha un ruolo che può essere “system”, “user” o “assistant” e un campo “content” che contiene il testo del messaggio.
Il modello terrà conto di tutti i messaggi precedenti quando genererà una risposta. Pertanto, mantiene il contesto attraverso gli oggetti di messaggio passati.
È importante notare che il modello non ha un vero e proprio stato o memoria interna. Pertanto, per mantenere il contesto, è necessario passare tutti i messaggi precedenti come input.