La IA de Google aconseja usar pegamento para el queso de la pizza. La fuente es un comentario de Reddit de hace 11 años

  • Lo ocurrido vuelve a demostrar lo vulnerables que son los modelos de IA generativa

  • El entrenamiento con datos erróneos hace que estos chatbots afirmen cosas sin sentido, como en este caso

  • Es un problema que vuelve a dejar claro que siempre es aconsejable no fiarse del todo de estos modelos

Pizza
18 comentarios Facebook Twitter Flipboard E-mail

En el mundo de las pizzas el gran debate de "con piña / sin piña" ha quedado en segundo plano tras la última metedura de pata de Google. Sus modelos de IA generativa ya la han metido en problemas en el pasado, pero es que ahora vuelven a demostrar que (como en otros casos) uno no debe fiarse mucho de ellos.

Pegamento para el queso de la pizza. Un usuario compartía ayer una búsqueda en Google. "El queso no se pega a la pizza", se quejaba. El nuevo buscador ya cuenta con resultados sugeridos por IA, lo que Google llama "AI Overview", y en esa respuesta la IA de Google sugería que "también puedes añadir 1/8 de taza de pegamento no tóxico a la salsa para darle más adhesividad".

Pero es que ese dato erróneo era una antitua broma de Reddit. La sorprendente sugerencia no era ni siquiera una invención del modelo de IA de Google. El chatbot sencillamente lo plagió de un comentario irónico que un usuario de Reddit llamado Fucksmith hizo hace 11 años. ¿Por qué la IA de Google consideró ese comentario como legítimo? Imposible saberlo.

Google usa datos de Reddit para su IA. Y lo hace además oficialmente gracias al acuerdo al que ambas empresas llegaron hace pocas semanas. Eso permite que los modelos de IA de Google se entrenen con todos los comentarios de esta plataforma, y aunque muchos son útiles, otros son simplemente bromas e ironías.

Loros estocásticos. La IA no entiende ni lo que lee ni lo que escribe. Un estudio de 2021 ya dejó claro cómo este tipo de modelos de IA generativa son como loros estocásticos: puede ser convincente a la hora de generar texto, pero realmente no hay una comprensión de lo que hace.

Peligrosamente erróneos. Las probabilidades mandan aquí, y si el modelo considera que pegar el queso a la pizza es relevante —por cómo está programado—, lo recomendará sin saber si es un método adecuado o no de conseguir ese efecto. Aquí el error es hasta simpático, pero el problema reside en que se puede producir en escenarios mucho más sensibles.

Otro desastre de la IA de Google. Las meteduras de pata de los modelos de IA de Google se están haciendo tristemente famosas. Todo comenzó con Bard y su error en una pregunta sobre el James Webb Space Telescope. Hace apenas tres meses los problemas se vivieron con su motor de generación de imágenes que era excesivamente inclusivo, y ahora vuelven a cometer un error inocente pero de bulto con ese método para cocinar la pizza.

Por si acaso, no te fíes. Aunque el error lo ha cometido Google, todos los chatbots cometen errores en cuestiones de todo tipo. Incluso en áreas como las matemáticas, un área en la que nos fiamos de los ordenadores, ChatGPT comete errores de bulto, pero insistimos, lo hace tanto él como otros, y tanto en matemáticas como en muchos otros ámbitos en los que inventa datos. La conclusión sigue siedo la misma: por si acaso, no te fíes de todo lo que te dice, y verifica esas respuestas. 

Ah, y otra cosa. Viva la pizza con piña.

En Xataka | ChatGPT está escribiendo estudios médicos y económicos. Lo sabemos porque usa palabras rarunas

Comentarios cerrados
Inicio