OpenAI bietet eine Funktion namens “system” an, die Entwickler verwenden können, um die Ausgabe von Modellen wie ChatGPT auf unerwünschte Inhalte zu überwachen und zu filtern. Sie können die Ausgabe mithilfe von OpenAI’s Instruktionen zum Filtern von Inhalten durch eine Verarbeitungsnachverfolgung führen, um unangemessene Inhalte zu entfernen.
Beachten Sie, dass die OpenAI-Filtertechnologie nicht perfekt ist und es noch immer einige Fälle geben kann, in denen unerwünschte Inhalte durchkommen könnten. Daher ist es wichtig, dass Entwickler ihre eigenen Kontrollen implementieren, falls sie spezifische Anforderungen hinsichtlich der Inhalte haben, die sie erlauben oder verbieten möchten.