Al principio daba igual que ChatGPT alucinara y metiera la pata. No importaba que nos cambiase el final de 'Juego de Tronos' al preguntarle o incluso que se hiciera un lío con las matemáticas básicas. Al fin y al cabo, tan solo tenía unos meses de vida. No pasaba nada.
Ahora sí importa.
Es de lo que se han empezado a dar cuenta las Big Tech, inmersas en una carrera en la que parecía más relevante llegar antes que llegar bien. Todas se abalanzaron para ser las primeras, y empezaron los problemas graves de verdad. El chatbot de Microsoft desvarió, y mejor no hablemos de Bard y luego de Gemini, que metieron la pata a la grande (no una, sino dos veces).
Y claro, eso provocó que los usuarios acabasen por cambiar de actitud. Lo que hacía gracia ya no la hace tanto, sobre todo porque empezamos a usar estos modelos de IA generativa para cosas relativamente serias.
Hasta los académicos escriben estudios con ChatGPT, y usar estos asistentes es ya el pan nuestro de cada día para los programadores, que los usan de forma rutinaria. El problema para ellos es que hoy por hoy de las respuestas de ChatGPT en programación, el 52% contienen datos erróneos.
Todo ello ha empezado a dejar claro para muchos lo que algunos ya sabían desde el principio. Los ChatGPT del mundo no saben lo que dicen. Lo sueltan y parece que tiene sentido. Las frases están bien construidas, y el tono de los asistentes, que responden con un lenguaje natural, claro y razonable, es de seguridad total. Como si esa, efectivamente, fuese la respuesta definitiva y correcta.
Pero es que en muchos casos no lo es, y eso comienza a ser un problema gordo para la reputación de quienes controlan estos chatbots. Google es probablemente la más afectada por el problema. Sobre todo, porque durante un cuarto de siglo hemos estado usando su buscador con la confianza de que nos iba a mostrar justo lo que necesitábamos —mezclado con un montón de publicidad, eso sí—.
Nos fiábamos de Google, pero no nos fiamos tanto de Gemini. Ni de Gemini, ni de ChatGPT, ni de Copilot. Y hacemos bien: es importante revisar sus respuestas, porque no es difícil que nos puedan dar respuestas parcial o totalmente incorrectas y nos la líen.
Ante esta situación, las empresas están empezando a darse cuenta de lo importante que es hacer que los modelos de IA generativa se equivoquen menos o se comporten de forma que confiemos (un poco más) en ellas. Y aquí hay varias aproximaciones.
La más llamativa es también la más reciente. Apple, que presentó su Apple Intelligence —porque para ellos está prohibido usar el término "AI"—, nos dejó un poco fríos con sus prestaciones. Las funciones de IA lanzadas en sus sistemas operativos son un más de lo mismo. De hecho, son "un más de lo mismo capado", porque muchas de ellas funcionan de forma limitada.

El mejor ejemplo es su generador de imágenes por IA, que ellos llamaron Image Playground, y que se puede usar para crear emojis e imágenes con acabados que son todo menos fotorrealistas.
Nada de crear retratos al óleo de Tim Cook o posibles enfrentamientos entre Elon Musk y Mark Zuckerberg. Nada de vestir al Papa de Balenciaga, y desde luego nada de crear deepfakes con imágenes explícitas de Taylor Swift.
La decisión puede resultar decepcionante —Image Playground casi parece un juguete—, pero lo que desde luego hace es evitarle problemas a Apple. No podrás hacer mucho, cierto, pero lo que hagas probablemente estará bastante bien. Eso no solo evita malos usos, sino desastres como el recientemente vivido por Stable Diffusion 3: su modelo IA de generación de imágenes, uno de los más reputados del mundo, está generando cuerpos humanos aberrantes. Eso no pasará (previsiblemente) con el modelo de Apple.
En Microsoft parecen también haber recapacitado en los últimos tiempos. La reciente presentación de Recall planteaba una función de lo más llamativa, pero pronto surgieron críticas por sus implicaciones para la privacidad y la ciberseguridad. ¿Qué ha hecho la compañía? Retrasar su despliegue. Se suponía que iba a formar parte de los nuevos PC Copilot+ que se lanzan la semana que viene, pero las críticas y las quejas han provocado que Recall sea aplazado: lo lanzarán para Windows Insiders próximamente, y más adelante ya estará disponible de forma masiva. Pero de momento, frenazo. No valía la pena arriesgar.
Quizás Google empiece también a darse cuenta de que las prisas no son buenas consejeras, y menos en un segmento que está tan verde y que puede afectar de forma notable a su negocio. Aquí la empresa de Mountain View está en la situación más peligrosa en comparación con sus rivales: Apple ya tiene su propuesta para su ecosistema —iPhone incluido—, y Microsoft también la está perfilando a marchas forzadas en Windows.
Ellos mientras tanto, no pueden arriesgarse a que ChatGPT acabe robándoles la cartera y acabemos buscando más con él que con su buscador. Pero tampoco pueden arriesgarse a lo otro: a recomendarnos poner pegamento en la pizza. No querría estar yo en la piel de Sundar Pichai ahora mismo, porque encontrar el equilibrio (tenemos que tener algo rápido, pero que además funcione razonablemente bien) es hoy por hoy el mayor reto de todas estas empresas.
Quizás estemos ante el comienzo de una nueva mini-era en esta revolución que plantea la inteligencia artificial. Una en la que los chatbots no metan la pata tanto.
En Xataka | Las redes sociales nos dejaron trabajar gratis para ellas. Ahora nos quieren cobrar por hacerlo
Ver 4 comentarios
4 comentarios
p2dzca
La gran pregunta acerca de los Modelos Grandes de Lenguaje (LLM) es si utilizan una tecnología que sea capaz de entender de qué están hablando, de conocer el mundo físico, el de las emociones y de tener sentido común, más allá de generar palabras y juntarlas correctamente. Creo que no, porque únicamente utilizan la inferencia inductiva.
Las principales vías que se están utilizando para que alucinen menos son: modelos más grandes (con muchos más parámetros), entrenamiento con muchos más datos (por eso las empresas desarrolladoras están llegando a acuerdos con fuentes de información para utilizar lo que producen las personas) y el entrenamiento supervisado (personas que ajustan y mejoran las respuestas de los modelos). No creo que sea suficiente.
La principal razón por la que lanzan al mercado IA sin la calidad suficiente es porque, como se adopta masivamente por los usuarios, es una enorme fuente de información que les ayuda a entrenar sus modelos de IA. Les estamos facilitando el desarrollo de sus productos y, a veces, pagándolo de nuestros bolsillos. (Por cierto, esta es la razón por la que Apple no le paga a OpenAI por usar ChatGPT. Todos los usuarios de Apple que utilicen su inteligencia artificial y esta conecte con ChatGPT, están ayudando a entrenar ese LLM).
La adopción masiva, y en mi opinión temeraria, de la IA en nuestros ordenadores y teléfonos móviles va a suponer un riesgo enorme para nuestra privacidad. Como ejemplo, muchas aplicaciones que usamos utilizan comunicaciones con cifrado de extremo a extremo para garantizar la privacidad. Otras manejan información privada que solo está accesible para la propia aplicación. Cuando aceptamos que un asistente de IA nos ayude, bien sea para redactar un mensaje de contestación, analizar unos datos de un documento, etc., desaparece la privacidad, hay un tercer elemento que se cuela en nuestras comunicaciones o en nuestros aplicaciones. Un asistente de IA actúa como MITM (Man-In-The-Middle). Adiós al cifrado de extremo a extremo, por ejemplo. No es que lo rompa, es que le damos acceso a una aplicación de IA para que acceda a los datos ya descifrados. Da igual que nos intenten convencer (como hizo Apple en su presentación reciente) que son chicos buenos, que todo lo hacen muy bien y que los datos están seguros (y no solo pasa con Apple). No lo pueden garantizar. No solo sus programas pueden tener fallos de seguridad, es que si nuestros teléfonos tienen asistentes de IA con acceso a todos nuestros datos para ser efectivos (documentos, sitios web de compras, agenda, correo electrónico, etc.), los hackers y el mundo del malware van a atacar masivamente a los asistentes de IA porque les abren la puerta a nuestros datos. Esto, junto con los millones de teléfonos móviles que las empresas fabricantes dejan sin parches de seguridad en un plazo inferior a la vida útil de los móviles, va a ser un drama.
redboy
A las IAs les falta muuuuucho de "I".
Son solo estadisticas aplicadas a los datos.
Parecen inteligentes porque arman buenas frases, pero el contenido hace agua demasiado seguido para tomarlas en serio.
reiizumi
Hace años que lo avisamos, no son una IA, es un motor de reglas inmenso que intenta "deducir" las cosas. La deducción siempre contempla un margen de error, así que su uso requiere aceptar ese margen de error.
Para una empresa, los margenes de errores tienen que ser cercanos a cero para controlar los imprevistos, por tanto, estos motores de reglas inmensos son un peligro.