GPT-3.5, el modelo de lenguaje sobre el que funcionaba hasta ahora la inteligencia artificial de ChatGPT, ha quedado obsoleto.
OpenAI ha presentado este martes GPT-4, un modelo más avanzado que promete un rendimiento de nivel humano en multitud de exámenes. En el examen de acceso a la abogacía de Estados Unidos quedó por encima del 90% de los examinados, a diferencia de GPT-3.5, que se situó en el percentil 10.
GPT-4 es más fiable, creativo y capaz de manejar instrucciones detalladas que GPT-3.5, según OpenAI. Y está disponible desde ya para los suscriptores de ChatGPT Plus (la versión de pago de ChatGPT, que cuesta 20 dólares al mes), así como para los desarrolladores de la API de OpenAI mediante lista de espera.
El modelo es multimodal, ya que acepta como entrada imágenes además de texto. En un ejemplo publicado por OpenAI, el usuario pidió a GPT-4 que explicara por qué es graciosa una imagen de un iPhone siendo cargado con un cable VGA. El modelo respondió que era absurdo cargar un pequeño teléfono inteligente con un conector grande y anticuado como el VGA.
Este tipo de entradas visuales se podrán usar para resolver ejercicios de exámenes, explicar diagramas o describir imágenes, pero todavía no están disponibles para el gran público, puesto que se encuentran en fase alfa.
GPT-4 permitirá a los desarrolladores, y próximamente a los usuarios de ChatGPT, dotar de personalidad a la IA.
En un ejemplo, OpenAI pidió a GPT-4 que hablara como un “pirata shakespereano” y mantuviera esa personalidad sin importar lo que le pidiera el usuario, por lo que el modelo empezó a responder con rimas en inglés antiguo y jerga pirata, incluso cuando el usuario le pidió instrucciones para rellenar una declaración de impuestos.
En otro ejemplo, GPT-4 fue instruido para responder siempre en formato json, y no dejó de hacerlo aunque el usuario le pidiera que conteste en texto plano e ignore las instrucciones del desarrollador.
GPT-4 promete reducir significativamente los sesgos y las “alucinaciones” (hechos inventados y errores de razonamiento) de los modelos anteriores, pero según OpenAI, sigue teniendo muchas de las mismas limitaciones, y en general carece de datos posteriores a septiembre de 2021.
En otras palabras, habrá que revisar atentamente sus resultados antes de usarlos en contextos donde la veracidad sea importante.
La última gran ventaja de GPT-4 es que admite entradas (“prompts” de contexto) más grandes, de hasta 32.000 tokens o alrededor de 25.000 palabras. El acceso a GPT-4 en ChatGPT Plus está limitado (por ahora) a 100 mensajes cada cuatro horas por usuario. El acceso desde la API tiene un límite de 40.000 tokens o 200 solicitudes por minuto, y un precio de $0,06 por mil tokens de solicitud y $0,12 por mil tokens de finalización.
Ya hay empresas usándolo (Duolingo, Stripe, Morgan Stanley, Khan Academy, el gobierno de Islandia), y una sorpresa: Microsoft ha anunciado que Bing Chat se basa en una versión previa de GPT-4 personalizada para el buscador. En otras palabras, puedes probar GPT-4 gratis a través de Bing.