Seis meses después entendemos mejor la crisis de OpenAI. Puede que la junta tuviera razón sobre la falta de honestidad de Altman

La presentación de GPT-4o ha quedado eclipsada por la denuncia de Scarlett Johansson y la vista de un patrón que coincide con el origen de la crisis de noviembre

altman retrato
26 comentarios Facebook Twitter Flipboard E-mail

La semana pasada vimos la presentación de GPT-4o y todo el mundo usaba la misma palabra tras las demos: 'Her'. Igual que Sam Altman, que la tuiteó unas horas antes, en referencia a la película protagonizada por Joaquin Phoenix: ChatGPT nos acerca a ese escenario.

Lo que ocurrió después es surrealista: Scarlett Johansson destapó las negociaciones infructuosas para que ella, quien sí participó en 'Her', pusiese voz a GPT-4o... y señaló el enorme parecido de la voz 'Sky' de ChatGPT con la suya, algo que le ha hecho pedir explicaciones muy detalladas sobre el proceso de creación de esta voz sintética. ¿De verdad es solo una coincidencia?

Por qué es importante. Este caso puede mostrar un patrón de falta de transparencia y sinceridad por parte del CEO de OpenAI, Sam Altman... justo como advirtió el consejo que intentó despedirle en noviembre, en otro sainete del que salió muy reforzado.

Las pruebas:

  • El propio Altman tuiteó 'Her' (19 millones de impresiones lleva) en referencia a la película el día de la demo. Sabía a qué se parecía la nueva voz.
  • Scarlett Johansson reveló que Sam le ofreció poner su voz al chatbot, pero ella declinó. OpenAI usó una clara imitación sin su consentimiento.
  • Altman contactó de nuevo con Johansson un par de días antes del lanzamiento para que lo reconsiderara, pero lanzó el producto sin esperar su respuesta.

El problema de fondo. El consentimiento. Los artistas y creativos no quieren que se use su trabajo sin su permiso ni su compensación. "No" es "no". Johansson dijo "no" y eso no detuvo a Altman. No solo puede meterle en un problema legal: también es una falta de respeto incluso a una actriz de su talla. ¿Qué mensaje envía a pequeños creadores con mucha menor influencia y poder?

No es nuevo. Altman ya generó confusión por la estructura de OpenAI y sus inversiones en la empresa a través de una firma de capital riesgo. El episodio de noviembre estuvo marcado por su intento de despido por la falta de transparencia sobre el caso de Helen Toner.

Ahora ha sido pillado de una forma tan tonta y descarada que incluso resulta poco comprensible, como apunta Gary Marcus.

En resumen. Con unos reguladores que cada vez van a escudriñar más estas tecnologías, el modus operandi de Altman empieza a ser un patrón demasiado evidente como para seguir ignorándolo.

El consejo argumentó en noviembre que incluso en los pequeños detalles no era consistentemente transparente. El paso del tiempo va dejando pistas en esa dirección.

Por si fuera poco, varias renuncias de pesos pesados en OpenAI han apuntado en la misma dirección: Altman prometió unos recursos al equipo de súperalineación (el que se encarga de velar por un desarrollo responsable de la IA) que no ha concedido, por lo que ha acabado siendo desmantelado.

Imagen destacada | Xataka con Midjourney

En Xataka | La verdadera revolución de GPT-4o es poder hablar con las máquinas como si nada

Inicio