Los modelos de lenguaje grande (LLMs, por sus siglas en inglés) abordan el conocimiento implícito y explícito de maneras distintas, utilizando técnicas avanzadas de procesamiento del lenguaje natural (NLP) para entender y generar texto.
El conocimiento explícito es el conocimiento que puede ser fácilmente articulado, codificado y transmitido. Este tipo de conocimiento se encuentra en forma de hechos, reglas, procedimientos y datos que pueden ser documentados y accesibles a través de textos, bases de datos y otros medios estructurados. Los LLMs, como GPT-3 o GPT-4 de OpenAI, son entrenados en grandes corpus de texto que contienen una vasta cantidad de este tipo de conocimiento. Utilizan esa información para resolver tareas que dependen directamente de hechos conocidos, como responder preguntas específicas, completar frases o traducir textos.
Por ejemplo, si se le pregunta a un LLM “¿Quién fue el primer presidente de Estados Unidos?” la respuesta “George Washington” se deriva directamente del conocimiento explícito almacenado en los textos de entrenamiento.
El conocimiento implícito, por otro lado, es más difícil de codificar y comunicar. Este incluye habilidades, experiencias y intuiciones que las personas aprenden generalmente a través de la práctica y no necesariamente pueden expresar fácilmente en palabras. Para abordar este tipo de conocimiento, los LLMs dependen de patrones y contextos que han aprendido durante su entrenamiento.
Por ejemplo, entender un chiste, interpretar un sentimiento en un texto o inferir el contexto de una conversación son tareas que requieren el uso de conocimiento implícito. Los LLMs logran manejar este tipo de tareas mediante el uso de modelos estadísticos y patrones derivados del vasto corpus de texto sobre el cual han sido entrenados.
1. Asistentes Virtuales: Los LLMs que alimentan a asistentes virtuales como Alexa o Google Assistant pueden responder preguntas explícitas como direcciones o el clima, pero también pueden manejar patrones de comportamiento y preferencias del usuario derivadas de interacciones pasadas, demostrando conocimiento implícito.
2. Generación de Texto Creativo: Para tareas que requieren creatividad, como escribir una historia o un poema, los LLMs utilizan habilidades que son más implícitas, basándose en patrones de estilo literario y estructura narrativa aprendidos de literatura y otras obras creativas.
3. Análisis de Sentimientos y Atención al Cliente: En el contexto empresarial, los LLMs pueden ser usados para analizar el sentimiento en las interacciones con clientes, donde deben interpretar no solo las palabras explícitas del cliente, sino también el tono y el contexto de lo que se dice.
1. Brown, T.B., et al. (2020). “Language Models are Few-Shot Learners.” NeurIPS 2020. Aquí se discute cómo los LLMs, en particular GPT-3, se entrenan en grandes conjuntos de datos textuales y manejan tanto el conocimiento implícito como explícito.
2. Jurafsky, D., & Martin, J.H. (2019). “Speech and Language Processing.” Prentice Hall. Este libro ofrece una base comprensiva sobre el procesamiento del lenguaje natural y los modelos de lenguaje, abordando tanto conocimiento implícito como explícito.
3. Vaswani, A., et al. (2017). “Attention is All You Need.” arXiv. Este artículo introduce los transformers, la arquitectura subyacente de muchos LLMs modernos, crucial para entender cómo se codifican y construyen el conocimiento implícito y explícito en estos modelos.
A través de estas fuentes y ejemplos, se puede entender cómo los LLMs abordan el conocimiento implícito y explícito, utilizando técnicas de aprendizaje profundo para extraer y utilizar información de grandes corpus textuales.