La nueva generación de la IA de Google es hablar con Plutón o un avión de papel y que la conversación tenga sentido

La nueva generación de la IA de Google es hablar con Plutón o un avión de papel y que la conversación tenga sentido
5 comentarios Facebook Twitter Flipboard E-mail

Si hay una empresa referente en inteligencia artificial esa es Google. Además de dar a conocer la nueva versión de Android, novedades en Maps o una herramienta de trabajo colaborativa, la conferencia anual para desarrolladores Google I/O 2021 nos dejó dos gratas sorpresas en el campo de la inteligencia artificial, las redes neuronales y los algoritmos.

LaMDA y MUM son los nombres elegidos para las dos tecnologías presentadas por Google. El primero de ellos es un "modelo de lenguaje para aplicaciones de diálogo", una tecnología para mejorar la interacción que pueden ofrecer los chatbots. El segundo es un modelo de IA capaz de entender preguntas complejas en más de 75 idiomas y ofrecer respuestas. Un sistema que funciona a través de texto, imágenes o vídeo y que, según Google, es hasta "1.000 veces más potente" que su actual algoritmo de búsqueda.

LaMDA: las conversaciones con la IA alcanzan un nuevo nivel

Hablar con un chatbot hoy en día es exasperante. Las respuestas son predecibles y a la mínima que "te sales del guión" la IA entra en bucle y dice que no nos entiende. Hay un enorme margen de mejora pero no es fácil conseguir avances. El lenguaje es uno de los "puzzles más difíciles", según describe Google. Podemos hablar con muchos enfoques, desde el sentido figurado, literario, irónico o puramente informativo. Y para una IA es muy complejo entender todos estos matices sin tener un fuerte contexto.

LaMDA es la última innovación de Google para mejorar en el terreno de las conversaciones. Estamos ante un 'Language Model for Dialogue Applications' (LaMDA) y se trata de un modelo capaz de tener conversaciones sobre innumerables temas. Un chatbot avanzado que Google mostró durante su conferencia para desarrolladores y su resultado es de lo más llamativo.

En una primera conversación, LaMDA adoptó el papel de Plutón y contestaba como si se tratase del planeta. En una segunda conversación, la IA tomó el rol de un avión de papel. En los dos casos, la conversación fue bastante fluida y no era tan evidente dónde estaban las palabras clave que dirigían la conversación.

"Es realmente impresionante ver cómo LaMDA puede mantener una conversación sobre cualquier tema", explicaba Sundar Pichai, CEO de Google. "Es asombroso lo sensata e interesante que es la conversación. Pero aún es una investigación preliminar, por lo que no hace todo bien".

Con LaMDA, Google busca dar una vuelta de tuerca a la sensación que provocan los chatbots. Pasar de una charla rígida a un intercambio más fluido.

En esta dirección, desde Google aseguran que LaMDA es capaz de entender más matices que los algoritmos actuales, evitar las mismas respuestas y comprender mejor el contexto. Varias promesas que al menos en la demostración de Google anticipaban importantes cambios.

MUM: el algoritmo que fusiona formatos y busca a través de varios idiomas

Mum

MUM son las siglas de 'Multitask Unified Model'. Este modelo apunta a ser la evolución de BERT, el actual sistema neuronal en el que se basa el algoritmo de búsqueda de Google. Según explica la compañía, está basado también en la arquitectura Transformer pero es "1.000 veces más potente".

El nuevo modelo promete ser capaz de responder a preguntas complejas en más de 75 idiomas y entender mejor el contexto asociado a cada tema. El buscador de Google ya entiende muchos idiomas pero aquí la novedad es que MUM quiere eliminar la barrera idiomática donde se da el caso que encontramos mejor información si realizamos la búsqueda en el idioma local.

Lamda Y

Con MUM se buscará que la información ofrecida sean igual de precisa independientemente de la información disponible que haya en ese idioma. Pese a que busquemos en español o inglés, por ejemplo nos dará detalles sobre el Monte Fuji que solo están disponibles en japonés.

Al ser multimodal, MUM es capaz de asociar la comprensión de texto a imágenes o vídeo. Es decir, podremos por ejemplo subir una imagen de unas botas y preguntarle si nos servirán para escalar. MUM promete ser capaz de asociar el contexto de los dos formatos y ofrecer una respuesta apropiada.

Tanto la IA conversacional como la de búsqueda están todavía en desarrollo por parte de Google y no hay fecha anunciada para cuando podrían convertirse en soluciones comerciales. El Google I/O es un anticipo de lo que está por llegar por parte de Google y parece que en el campo de la inteligencia artificial nos encontramos en una época con bastante movimiento.

En Xataka | Europa crea la primera regulación sobre Inteligencia Artificial y robots: se prohíbe el reconocimiento facial en zonas públicas, con algunas excepciones

Comentarios cerrados
Inicio