1. Comprensión contextual: Aunque ChatGPT se ha entrenado en un gran volumen de datos y puede generar respuestas relevantes a las consultas, todavía tiene dificultades para entender y seguir el contexto en conversaciones largas o complejas.
2. Generación de información falsa: ChatGPT puede generar información errónea o incorrecta en ocasiones porque se basa en patrones de lenguaje, y no tiene capacidad para acceder o entender hechos del mundo real.
3. Sesgo y neutralidad: El modelo puede incorporar sesgos presentes en los datos de entrenamiento, y hay un peligro de que estos sesgos se reflejen en las respuestas generadas por la IA.
4. Seguridad y contenido ofensivo: A pesar de tener salvaguardas para filtrar contenido inapropiado o dañino, en ocasiones pueden surgir respuestas inapropiadas.
5. Dependencia del input: La naturaleza generativa de la IA a veces puede producir respuestas que parecen coherentes pero son irrelevantes o insensatas, especialmente cuando los inputs son vagos, generales o ambiguos.
6. Retroalimentación en tiempo real: Actualmente, el modelo no tiene la capacidad de aprender de los errores en tiempo real e incorporar esa retroalimentación para mejorar las interacciones futuras.
7. Gobernanza y ética de IA: Hay importantes consideraciones y desafíos en cuanto a quién debería tener la capacidad de usar ChatGPT y cómo. La creación de un marco de políticas y un enfoque de gobierno que equilibre la utilidad y la seguridad es un reto importante.
8. Derechos de autor y privacidad: En casos donde ChatGPT genera contenido que se usa comercialmente, puede haber desafíos en torno a los derechos de autor y la propiedad del contenido. Además, es esencial asegurar que la IA sea manejada de manera segura para proteger la privacidad del usuario.