En su misión por liderar el desarrollo de la IA, Google acaba de lanzar un modelo "abierto": esto es lo que promete Gemma

  • Gemma llega en dos versiones: 2B y Gemma 7B

  • Ya está disponible en todo el mundo

  • Google asegura que supera a Llama 2 de Meta

Gemma Header 2
10 comentarios Facebook Twitter Flipboard E-mail

Google y OpenAI participan de una encarnizada competencia por dominar el ámbito de la inteligencia artificial. A lo largo de los últimos meses hemos sido testigos de cómo estas compañías han ido definiendo sus estrategias para conseguirlo. Mientras que los dirigidos por Sam Altman adoptaron un enfoque más cerrado, limitando el acceso por parte de investigadores a sus últimas tecnologías, en el hogar de Sundar Pichai todavía mantienen ciertas dinámicas del pasado.

El gigante del buscador ha anunciado este miércoles una familia de modelos de lenguaje de gran tamaño cuya característica más notable es que se presentan como “abiertos”. La firma asegura que esta alternativa está basada en los avances obtenidos para crear Gemini, y que es producto del trabajo de los laboratorios de DeepMind, así como de otros equipos de especializados que trabajan dentro de Google. Veamos algunos detalles más de Gemma.

Gemma, disponible a partir de hoy en todo el mundo

Cuando Google habla de una familia de modelos, al menos en esta etapa inicial, se refiere a dos modelos: 2B y Gemma 7B. Estamos frente a dos variantes, más pequeña y otra mucho más grande a nivel de parámetros de entrenamiento. Desde Mountain View aseguran que amabas propuestas “establecen un nuevo estándar de rendimiento” frente a competidores como Llama 2 de Meta y Mistral 7B. Aunque claro, tendremos que ver si esta promesa se cumple más allá del papel.

El rendimiento de Gemma, según podemos ver en los documentos publicados por Google (y en la imagen), ha sido evaluado a través de numerosos benchmark. Si nos enfocamos en MMLU, un benchmark diseñado para medir la amplitud de conocimiento y la capacidad de resolución de problemas del modelo, Gema en sus versiones 7B se sitúa ligeramente por encima de Mistral 7B, Llama 2 13B y Llama 2 7B. Gema 2B, por su parte, está por debajo en todos los escenarios.

Gemma

Una de las claves del enfoque abierto de los modelos Gemma es que los desarrolladores tienen mayor versatilidad para poder experimentar con ellos, aunque es preciso señalar que no se trata de una solución completamente abierta. Los modelos todavía tienen algunas restricciones de uso establecidas por Google en los términos de licencia. En cualquier caso, el hecho de que puedan estar disponible para el público es una buena noticia para el desarrollo de esta tecnología.

Benchmark Chart Updates 19 02 1 Width 1000 Format Webp

Como decimos, los usuarios tienen la posibilidad de modificar los modelos con entrenamiento adicional para justar a las necesidades específicas. De esta forma, ambas propuestas se distribuyen en sus versiones Pretrained e Instruction tuned. Aquí entra en juego la habilidad de los desarrolladores para exprimir al máximo las capacidades del modelo, que es capaz de generar texto, pero también de realizar tareas específicas para las que haya sido entrenado con las herramientas disponibles.

Finalmente es importante señalar que se puede acceder a Gema a través de diferentes vías. Google prefiere que los interesados en utilizar esta solución lo hagan a través de su plataforma Google Cloud, que permite realizar un amplio abanico de tareas directamente desde la nube y sin utilizar capacidad de cómputo local, aunque pagando por uso. También existe la posibilidad de descargarlos a través de la plataforma Kaggle para funcionar desde un ordenador.

Imágenes: Google

En Xataka: El CEO de NVIDIA confiesa qué carrera cursaría y es muy mala noticia para la informática

Inicio