Si el presente de OpenAI es ChatGPT, su futuro pasa por un nuevo modelo más caro y potente: DV

Hace unos días OpenAI hizo un lanzamiento silencioso. Una nueva plataforma para desarrolladores con la que los clientes podrían utilizar sus nuevos modelos de aprendizaje automático. No un modelo solo, no. Habrá un número diverso de ellos, y todos están englobados bajo una oferta común llamada Foundry.

Foundry. Varios usuarios compartían en Twitter algunas capturas con un documento explicativo de OpenAI. En ella se hablaba de cómo Foundry permitiría a los futuros clientes aprovechar sus modelos de inteligencia artificial para sus propias plataformas y adaptarlas a sus necesidades.

El futuro de OpenAI. Un experto llamado Nathan Labenz explicaba en un hilo en Twitter la dimensión de este anuncio que era mucho más relevante de lo que podría parecer. En él se hablaba del presente de OpenAI con su modelo actual (ChatGPT) y el futuro inmediato, que pasa por sus modelos DV. ¿Qué es DV?

Davinci. Este es el nombre en clave de las actuales iteraciones de GPT-3, siendo Davinci (DV) la más potente. Otra simplementaciones de las que habla la propia OpenAI son Curie, Babbage y Ada, la más simple. Estas últimas están actualizadas a octubre de 2019: Davinci está actualizada a junio de 2021 y es la que se usa en ChatGPT.

Modelos a gogó. Hoy tenemos un solo modelo (ChatGPT, basado en GPT-3), pero la próxima iteración, conocida como GPT-4, no es un modelo único, sino una serie de modelos "personalizados", entrenados con ciertos parámetros y datos específicos para adaptarse a distintos casos de uso.

Bing con ChatGPT. La implementación de Microsoft en Bing es un buen ejemplo de eso, y podría considerarse como un modelo de clase GPT-4 que en Microsoft llamaron Prometheus. Entre sus ventajas, como pudimos ver, está la de estar actualizado en tiempo real y la de ofrecer enlaces con fuentes en las que ampliar la información que nos da.

IA para empresas. El planteamiento que hace OpenAI divide los modelos en tres categorías: el GPT-3.5 Turbo tiene un coste de 26.000 dólares al mes, pero el acceso a los modelos más ambiciosos es aún más caro. El DV con 8.000 tokens de contexto máximo sale por 78.000 dólares al mes, y para la versión con 32.000 tokens el precio es de 156.000 dólares al mes.

¿Tokens? ¿Contexto? Los tokens no son más que secuencias de caracteres que representan una unidad de entrada comprensible. Normalmente son una palabra o pequeño grupo de palabras que pueden ser procesadas por el modelo. Cuantos más tokens en un contexto —en una misma entrada—, más información puede recibir para luego generar su salida. Eso en esencia permite perfilar de forma mucho más precisa lo que queremos de ese modelo en cada momento.

Otro nivel. Estos modelos están destinados a empresas que pueden usarlos a nivel interno, o bien comercializarlos con soluciones específicas desarrolladas por ellos. Es por ejemplo que acaba de hacer Snapchat con su chatbot conversacional, My AI. Como señalaba Labenz, estos modelos prometen contar con una capacidad sensacional para realizar trabajo real —probablemente supervisado— en cualquier tipo de corporación.

Muchas expectativas para 2023. Los casos de uso son casi ilimitados. Servicios de atención al cliente, recursos humanos, programación —"Copilot es solo el principio", indicaba este experto—, análisis de datos y por supuesto creación de contenido a partir de ciertos conjuntos de datos... las posibilidades son enormes, y estos modelos entrenados de forma específica y personalizados para las empresas que los pongan en marcha serán capaces de adaptarse a esos ámbitos.

Ver todos los comentarios en https://www.xataka.com

VER 3 Comentarios

Portada de Xataka