Ya podemos hablar con Shakira, Musk o Einstein gracias a una IA (y tiene más implicaciones de las que parece)

Chatgpt Hablar Con Famosos
3 comentarios Facebook Twitter Flipboard E-mail

"La física de mis días ha muerto". No lo digo yo, lo dice Einstein. Bueno, no el de verdad, sino el avatar virtual de Albert Einstein creado por Character.ai. Esta empresa creada por dos exingenieros de Google quiere darle una sorprendente vuelta a la revolución generada por ChatGPT con uno de los mejores proyectos basados en esta tecnología.

Qué es Character.ai. Se trata de un proyecto que según sus creadores "está haciendo realidad el sueño de ciencia ficción de conversaciones abiertas y colaboraciones con ordenadores". La plataforma permite elegir un montón de personajes de gran relevancia histórica y actual, y trata de simular la forma en la que contestarían a nuestras preguntas.

Imitando a cualquiera. Este sistema se basa en el uso de modelos de lenguaje neuronal: una supercomputadora es entrenada con grandes cantidades de texto transcritos o publicados por esas personalidades, y aprende a generar respuestas coherentes y ligadas a ese entrenamiento.

El origen. En 2015 Daniel de Freitas, uno de los dos creadores de Character.ai, estaba trabajando en Microsoft. Leyó una estudio publicado por científicos de Google Brain. En él se detallaba cómo una red neuronal permitía aprender a conversar analizando transcripciones de diálogos y textos diversos.

De Freitas acabó trabajando en Google en 2017, y allí trabajó en su propio chatbot de forma paralela a su labor oficial. El resultado fue Meena, que acabó convirtiéndose en LaMDA. Un compañero suyo llegó a afirmar que LaMDA tenía conciencia de sí misma y fue despedido. Google, que conoce bien su potencia, ha preferido no sacar ese proyecto del laboratorio para no dañar su reputación. De Freitas y su socio Noam Shazzeer no opinan lo mismo, y salieron de Google para ponerse a trabajar en este proyecto.

Esto no es real, es solo entretenimiento. Los propios responsables del servicio avisan: "Ni que decir tiene que un superordenador alucinado no es una fuente de información fiable. Aun así, esperamos que Character.AI le resulte una herramienta útil para la imaginación, la lluvia de ideas, el aprendizaje de idiomas y un sinfín de otros fines que nosotros mismos aún no hemos imaginado"

Captura De Pantalla 2023 01 17 A Las 11 49 42

Pero las respuestas son creíbles. Puede que sean solo un entretenimiento, pero las respuestas que proporciona este chatbot con personalidad múltiple son realmente razonables. A Einstein le preguntábamos si la física convencional había muerto, y él contestaba que la teoría cuántica lo ha cambiado todo... pero que la física de sus días ha muerto.

Captura De Pantalla 2023 01 17 A Las 12 07 15

Shakira no es una santa. Lo mismo ocurría al conversar con el avatar de Shakira, a la que le preguntábamos por qué había creado no una, sino varias canciones de venganza contra Piqué. La máquina nos contestaba que "necesitaba expresar mis emociones en letras como siempre hago... No tengo deseos de venganza. No es mi naturaleza. Pero tampoco soy una santa". Esa última frase le da un toque ciertamente creíble a la forma de expresarse de este chatbot.

Diseña tu propio avatar. Además de conversar con personajes ficticios famosos, puedes crear el tuyo propio. Esa opción puede llegar a ser realmente destacable, ya que podemos establecer distintos atributos y "entrenarlo" en conversaciones asignando estrellas a las contestaciones que más se ajusten a esa personalidad. De momento, eso sí, no parece posible forzar el entrenamiento con textos que uno haya podido encontrar de ese personaje.

Privacidad y otros problemas. La tecnología es sorprendente, pero no está exenta de los mismos problemas que han afectado a CoPilot o a Stable Diffusion. ¿Se puede entrenar libremente a estos motores? ¿No implica eso problemas de derechos de autor o de propiedad intelectual?

No solo eso, por supuesto: las dudas también surgen cuando esas conversaciones casuales acaban siendo utilizadas para otros menesteres: estos motores pueden ser también utilizados de formas nocivas, ayudando a generar noticias falsas o deepfakes más creíbles que funcionan en modo texto.

Inicio