ChatGPT, sviluppato da OpenAI, è progettato per minimizzare i pregiudizi in ogni forma. Per evitare distorsioni e pregiudizi, l’utilizzo di metodi di apprendimento supervisionato da parte di revisori umani è un passo fondamentale: a questi viene chiesta l’imparzialità e non è permesso favorire alcuna visione politica. La metodologia undicipla include il progressivo affinamento del modello attraverso cicli continui di feedback con i revisori, pertanto, eventuali problemi di pregiudizio vengono identificati e migliorati nel tempo.
OpenAI sta concentrando i loro sforzi su miglioramenti tecnici per ridurre sia i pregiudizi chiari che sottili nel modo in cui ChatGPT risponde alle richieste degli utenti. Questo include avviare ricerche sull’ingegneria come affrontare meglio i pregiudizi indesiderati e su come rendere il sistema più controllabile dagli utenti riguardo ai valori che il modello dovrebbe seguire.
Infine, stanno lavorando sul coinvolgimento del pubblico nel definire le regole e i comportamenti del sistema, dando ai singoli utenti la possibilità di personalizzare il comportamento del sistema e sull’input di un numero più ampio di persone sulle decisioni di sistema.