1. Compréhension : ChatGPT ne comprend pas le contenu de la même manière qu’un humain. Il prédit la prochaine portion de texte en se basant sur des modèles statistiques plutôt qu’en comprenant le sens profond du texte.
1. Réponses inventées : Il peut parfois générer des informations qui semblent précises, mais qui sont en réalité inventées ou inexactes. Il n’a pas accès à des informations en temps réel ou à des données actualisées, donc certaines de ses réponses peuvent être obsolètes.
1. Sensibilité au contexte : Il peut parfois ne pas comprendre le contexte ou l’implication d’une discussion. Sa capacité à maintenir la cohérence contextuelle sur de longues conversations peut être limitée.
1. Insensible aux biais : ChatGPT peut reproduire ou amplifier les biais présents dans les données d’apprentissage qu’il utilise. Il ne peut pas toujours recalibrer ses réponses en fonction de ces biais.
1. Problèmes d’ambiguïté : Il peut parfois répondre de manière inappropriée ou confuse face à des requêtes ambiguës ou mal formulées.
1. Difficulté à juger de l’appropriation : Le chatbot peut avoir du mal à déterminer ce qui est approprié dans un contexte donné, compte tenu de sa faible compréhension du contexte social et culturel des utilisateurs.
1. Manque d’empathie : Bien que le ChatGPT puisse être programmé pour simuler certaines réponses émotionnelles, il ne ressent pas vraiment d’émotions et ne comprend donc pas l’expérience humaine au sens empathique du terme.