OpenAI, la compañía que desarrolló GPT-3 (la tecnología detrás de ChatGPT), no ha revelado los detalles específicos sobre la potencia informática necesaria para ejecutar GPT-3. Sin embargo, se sabe que el entrenamiento de GPT-3, que tiene 175 mil millones de parámetros, es un proceso muy intensivo en términos de recursos.
En un informe de MIT Technology Review, se mencionó que el entrenamiento de GPT-3 podría costar alrededor de $12 millones de dólares, teniendo en cuenta el costo de la potencia informática y la electricidad. Esta es una indicación de la cantidad extremadamente grande de recursos informáticos involucrados.
Hablando de ejecución simple o inferencia, es posible ejecutar modelos como ChatGPT en máquinas con especificaciones moderadas con un tiempo de respuesta razonable. Por supuesto, para aplicaciones a gran escala donde se necesitan muchas solicitudes simultáneas, se necesitarían recursos más poderosos.
Es importante entender que el acceso a GPT-3 y sus derivados suelen ser a través de API proporcionadas por OpenAI, lo que significa que la mayoría de los usuarios o desarrolladores no necesitan preocuparse directamente por la potencia informática para ejecutar el modelo ya que esto es manejado por los servidores de OpenAI.