Attualmente, l’API di OpenAI per ChatGPT non supporta direttamente conversazioni multiutente. Puoi comunque gestirlo sul tuo backend mantenendo traccia di messaggi/proposte da più utenti e orchestrando la conversazione.
Ad esempio, supponendo che vi siano due utenti “utente1” e “utente2” che hanno una conversazione con il bot, sul tuo backend, potresti mantenere traccia di chi sta inviando quali messaggi.
```
conversazione = [
{“role”: “system”, “content”: “Sei un utile assistente.”},
{“role”: “utente1”, “content”: “Ciao, come stai?”},
{“role”: “assistant”, “content”: “Ciao utente1! Sto bene, grazie!”},
{“role”: “utente2”, “content”: “Ehi, posso unirmi?”},
{“role”: “assistant”, “content”: “Certo, utente2!”},
]
nuovo_messaggio = {“role”: “utente1”, “content”: “Certo, sei il benvenuto utente2!”}
conversazione.append(nuovo_messaggio)
risposta = openai.ChatCompletion.create(
model=“gpt-3.5-turbo”,
messages=conversazione
)
```
In questa situazione, il tuo backend dovrà essere responsabile del mantenimento dello stato conversazionale e dell’aggiunta di nuovi messaggi in base alla loro provenienza.
Ricorda, l’API non manterrà lo stato conversazionale per te. Dovrai fornire l’intero contesto conversazionale ogni volta che fai un’invocazione API.