OpenAI utiliza una combinación de sistemas automatizados y humanos para tomar decisiones de moderación y ayudar a mantener la seguridad y el respeto entre los usuarios de ChatGPT. Los sistemas automáticos se utilizan para detectar y prevenir contenido inapropiado o violaciones de las políticas de OpenAI. Por otro lado, los humanos supervisan y revisan las interacciones y toman decisiones adicionales.
Las evaluaciones de moderación no se utilizan para mejorar el modelo de IA de OpenAI. Además, las políticas de moderación y las decisiones se actualizan continua y regularmente en función de los comentarios de los usuarios y de las necesidades cambiantes.
Por favor, ten en cuenta que OpenAI se esfuerza por respetar la privacidad del usuario y su información no se utiliza para ningún otro propósito que no sea el previsto. Las políticas y las acciones de moderación de OpenAI se aplican para garantizar un ambiente seguro y promover un uso positivo y ético de la IA.