Al utilizar la API de ChatGPT, puedes ajustar ciertos parámetros para influir en el resultado del chat. Aquellos parámetros son: `temperature` y `max tokens`.
- `Temperature`: Este parámetro ayuda a controlar la aleatoriedad de las respuestas del modelo. Un valor más alto, por ejemplo 0.8, hará que el output sea más aleatorio. Un valor más bajo, como 0.2, hará que el modelo sea más consistente y determinista con su output. Sin embargo, un valor demasiado bajo puede hacer que el modelo se repita.
- `Max tokens`: Este es otro parámetro que controla la longitud máxima de la respuesta del modelo, contabilizando el número de tokens en la respuesta. Si estableces un límite muy bajo para `max tokens`, puede que el modelo no sea capaz de generar respuestas que tengan sentido.
En cuanto al uso práctico, los ajustes de estos parámetros se realizan a la hora de realizar una solicitud a la API, agregando los valores deseados como parte de la petición.
Aquí se muestra un ejemplo de código en Python, así es como podrías ajustar estos parámetros con la biblioteca `openai`:
```python
import openai
openai.api_key = ‘tu-api-key’
response = openai.ChatCompletion.create(
model=“gpt-3.5-turbo”,
messages=[
{“role”: “system”, “content”: “Eres un asistente virtual.”},
{“role”: “user”, “content”: “Hola, asistente.”},
],
temperature=0.7,
max_tokens=150
)
```
Ten en cuenta que siempre debes proporcionar mensajes de roles ‘system’ y ‘user’ antes del mensaje actual al que deseas obtener una respuesta.