OpenAI reconoce que es crítico abordar los sesgos en los sistemas de IA como ChatGPT. El sesgo puede aparecer en el funcionamiento de los modelos por varios motivos, como el sesgo en los datos de formación utilizados. Algunos de estos sesgos son el resultado de decisiones directas tomadas en el proceso de diseño y desarrollo, mientras que otros pueden ser menos previsibles y surgen de la interacción entre los modelos y los datos.
En el caso de ChatGPT, OpenAI adopta un enfoque de tres partes para manejar el sesgo.
1. Mejora de la claridad de los lineamientos de revisión: Para minimizar el sesgo, OpenAI proporciona a sus revisores humanos lineamientos claros, que se actualizan y adaptan continuamente en función del feedback.
2. Capacidades de personalización del sistema: OpenAI está trabajando para permitir a los usuarios personalizar el comportamiento de ChatGPT, para que refleje sus necesidades y valores individuales, a la vez que se establecen límites para evitar el uso indebido.
3. Entrada pública: Se atrae la entrada del público sobre comportamiento del sistema, lineamientos de uso, y más. En algunas áreas, OpenAI está explorando alianzas con organizaciones externas para llevar a cabo auditorías de seguridad y políticas.