GPT-4 Turbo de 128K: qué es y en qué se diferencia con el GPT-4 normal de ChatGPT Plus

Vamos a decirte qué es exactamente el nuevo GPT-4 Turbo de OpenAI, y en qué se diferencia con el resto de versiones de GPT-4 que hay.

Gpt
7 comentarios Facebook Twitter Flipboard E-mail

Vamos a explicarte qué es exactamente GPT-4 Turbo, un nuevo modelo de GPT-4 lanzado por OpenAI. Después del GPT-4 base y de lanzar GPT-4 a 32K, ahora llega este nuevo modelo que tiene una longitud de contexto de 128K, lo que lleva a esta inteligencia artificial un paso por delante.

Para poder explicarte esto, vamos a empezar intentando aclarar lo que significa exactamente el que tenga una longitud de contexto de 128K. Una vez sepas esto, ya podremos decirte las implicaciones y las principales diferencias de este nuevo modelo para usuarios de pago con las demás versiones.

Qué es GPT-4 Turbo de 128K

GPT-4 Turbo es una versión mejorada del GPT-4 normal y básico. La base de su tecnología es la misma, sigue siendo el la misma inteligencia artificial que puedes encontrar en Bing Chat o en otras soluciones de GPT-4 gratis. Ha sido entrenada de la misma manera y ofrece las mismas funciones.

La diferencia está en el número que viene después de su nombre, en este caso el 128K. Esto mide la cantidad de texto que es capaz de tener en cuenta cuando le escribes una petición con un prompt.

Vamos, que en definitiva, puedes escribirle prompts mucho más largos, ya que puede tener en cuenta mucho más contexto que las demás versiones. Sin embargo, la manera en la que procesa estos prompts y el contenido de tu texto es la misma, ya que no deja de ser GPT-4.

Si eres un usuario medio de inteligencia artificial, y simplemente entras de vez en cuando para pedir algunas cosas puntuales o realizar peticiones comunes, posiblemente no vas a encontrar ninguna diferencia entre este modelo y el anterior. Si haces un prompt de uno o dos párrafos no vas a encontrar diferencias, siempre será el mismo resultado.

La diferencia está en la cantidad de caracteres que puedes escribir en el prompt. Por lo tanto, si necesitas hacer peticiones más largas y complejas en GPT, entonces sí que vas a encontrarte con que esta nueva versión puede darte un poco más.

Diferencias con versiones anteriores

Playground

Lo primero que tenemos que entender es que la longitud del texto que es capaz de interpretar GPT se mide por tokens, y cada token puede equivaler a una palabra o una frase. Que equivalga a una u otra depende de la estructura de tu frase, pero la cantidad de tokens soportada por GPT es lo larga que puede ser la frase o prompt que le escribas.

Esto es importante porque cuanto más larga, elaborada y detallada sea la petición que le hagas en el prompt, más afinado será el resultado. Para que lo entiendas, no es lo mismo pedirle a un músico una canción de rock que una canción de rock progresivo melódico y sensible. En esta comparativa, en el segundo caso hemos pedido más detalles, y lo mismo pasa con prompts mucho más largos.

Para que te hagas a la idea, 1.000 tokens son unas 750 palabras aproximadamente, y estas son las palabras que la IA es capaz de leer y tener en cuenta cuando le escribes un prompt. GPT 3.5 tiene una longitud de contexto de 4.096 tokens, que es la versión que usa el ChatGPT gratis, y esto se refiere a la cantidad de palabras con las que puedes componer el prompt.

En cuanto a GPT-4 Turbo, le podríamos llamar también GPT-4 128K,  ya que es su característica más importante. Y este número significa que admite más de 128.000 tokens a la hora de escribir tus prompts. Esto significa que puedes utilizar prompts mucho más largos, lo que permite que sean más elaborados, más complejos, con más datos a tener en cuenta y con una estructura mayor.

Esto es una auténtica locura, ya que vas a poder utilizar muchísimos miles de palabras a la hora de generar tu texto. Y esto le da a los desarrolladores un mayor margen para realizar sus peticiones.

Otra diferencia es que GPT-4 Turbo solo se puede usar a nivel de API. Esto quiere decir que está dirigido a los desarrolladores, que podrán enlazar esta tecnología en sus aplicaciones. Si pagan para el servicio, podrán enviarle peticiones a este nuevo GPT-4 mucho más largas, y recibir mejores resultados.

Y por último, la otra gran diferencia es que GPT-4 Turbo tiene datos mucho más actualizados, ya que tiene acceso a la información que había en Internet hasta abril del 2023. En la versión anterior, los datos llegaban hasta septiembre del 2021.

Imagen de portada | Levart_Photographer

En Xataka Basics | GPT-4: 31 trucos, funciones y cosas que le puedes pedir para exprimir al máximo la inteligencia artificial

Inicio