Fue uno de los fundadores de Skype, pero ahora invierte su fortuna en protegernos de los peligros de la inteligencia artificial

Fue uno de los fundadores de Skype, pero ahora invierte su fortuna en protegernos de los peligros de la inteligencia artificial
5 comentarios Facebook Twitter Flipboard E-mail

Posiblemente no te suene el nombre de Jaan Tallinn, pero es bastante probable que hayas usado su software en más de una ocasión: hace casi 20 años, se unió a Niklas Zennström y Janus Friis, para desarrollar la aplicación de compartición de archivos Kazaa, cuya tecnología P2P se usó más tarde para crear Skype, empresa de la que igualmente fue cofundador.

Cuando, en 2005, Skype fue comprado por eBay (Microsoft aún tardaría otros 6 años en hacerse con la compañía), Tallinn ganó una fortuna con la venta de todas sus acciones de la misma. Desde entonces, aunque no ha dejado de ser emprendedor tecnológico (en 2012 fundó la empresa de medicina personalizada MetaMed), sus esfuerzos se han centrado en hacer frente a los peligros que acompañan el desarrollo tecnológico.

Ha desempeñado esta labor de varias maneras: principalmente desde la filantropía, pero también como asesor del Presidente de Estonia. Y, aunque no desprecia antiguos desarrollos tecnológicos que aún nos amenazan (patrocina el Bulletin of the Atomic Scientists, la organización científica responsable de mantener el Reloj del Juicio Final), su atención está centrada en la Inteligencia Artificial.

Dólares para financiar la 'alineación de valores'

Tallinn fue uno de los primeros millonarios del sector tecnológico que se tomó en serio las opiniones que presentaban la IA como una amenaza potencial para la existencia humana: de hecho, está convencido de que estamos entrando en la primera etapa de la historia humana en la que los humanos no seremos la fuerza dominante en nuestro planeta.

Pero, ante todo, ya que todo indica que terminaremos dejando nuestro futuro en manos de la IA avanzada, entiende que deberíamos estar totalmente seguros de que conseguimos lo que suele denominarse la "alineación de valores", esto es,

"[Que] los sistemas de IA altamente autónomos deberían ser diseñados para que sus metas y comportamientos puedan alinearse con los valores humanos mientras desarrollan sus operaciones".

El texto anterior está extraído de los '23 principios de Asilomar', un documento elaborado en dicha ciudad californiana durante una conferencia del 'Future of Life Institute', una de las dos instituciones científicas fundadas por el propio Tallinn, junto al CSER (siglas en inglés de 'Centro para el Estudio del Riesgo Existencial').

Pero la labor filantrópica de Tallinn no se limita únicamente a estas dos organizaciones: también ha donado más de 600.000 dólares al MIRI (Machine Intelligence Research Institute, otra institución centrada en el estudio de la 'alineación de valores') y más de 310.000 al Future of Humanity Institute.

Colossus: el Proyecto Prohibido
'Colossus: el proyecto prohibido' (1970) es una de las películas favoritas de Tallinn: muestra un mundo en el que dos IAs, desarrolladas independientemente por la URSS y los EE.UU., pactan por su cuenta la paz y tratan de someter a los humanos.

Durante una entrevista publicada ayer en Vox.com, Tallinn cuenta que su interés por estos temas empezó tras conocer las teorías del fundador del MIRI, el escritor e investigador científico autodidacta Eliezer Yudkowsky, al que empezó a leer hace una década mientras estaba inmerso en un pleito que eBay mantuvo con los fundadores de Skype.

A partir de ese momento, convencido por los argumentos de Yudkowsky (de él toma el convencimiento sobre nuestra inminente pérdida de hegemonía como especie) se fue introduciendo poco a poco en la filantropía:

"Tuve una política de ir dando sólo pequeñas sumas de dinero a la gente y ver qué eran capaces de hacer con ello, y luego fui prestando un mayor apoyo".

¿Por qué defender esta causa y no otra?

Según él, la razón por la que invierte dinero en esta y otras causas vinculadas al 'riesgo existencial' es que cumple con los tres criterios marcados por la organización Open Philanthropy:

  1. Que la causa sea importante. "La razón por la que es importante es que las otras causas asumen que no vamos a extinguirnos. [...] ¿A quién le importa lograr el crecimiento económico si no hay gente?".
  2. Que la causa esté siendo descuidada. "Parece que es el caso, porque un amigo calculó el año pasado cuántos investigadores trabajan a tiempo completo en reducir el riesgo existencial, y la respuesta que obtuvo fue que alrededor de una docena. No parece probable que sea la cantidad óptima para la humanidad.
  3. Que la causa sea 'manejable'. "No tenemos ninguna evidencia de que estemos condenados por defecto. Parece que algo sí podemos influir en el resultado".

Tallinn explica que no considera que la lucha contra el cambio climático comparta estas características ("¿Importante? Claro. ¿Descuidado? Realmente no. ¿Manejable? Menos que el riesgo de la IA, en esta etapa") y que a él, de hecho, le gusta comparar su causa con la 'amenaza alien':

"Piensa que descubriéramos que una raza superior alienígena estuviera camino de la Tierra y fuera a llegar aquí en 20 años. La situación de la IA es similar, pero con una diferencia importante: nosotros somos los creadores de la IA. Y tenemos la libertad de decidir a qué tipo de IA vamos a exponer al planeta".

Vía | Vox.com

Imagen | EU2017EE Estonian Presidency

Comentarios cerrados
Inicio