Publicidad

¿Podría acabar la inteligencia artificial con el mundo tal y como lo conocemos?

¿Podría acabar la inteligencia artificial con el mundo tal y como lo conocemos?
10 comentarios

Un pionero de fortuna en Silicon Valley, Paul LeBlanc, ha descubierto que la poderosa IA creada por él mismo, NeXt, utiliza datos para reclutar aliados, manipular opiniones y llevarse por delante a quien se interponga en su camino. Podría ser el fin de la civilización tal y como la conocemos. Este es el argumento de ‘NEXT’, serie que Fox estrena el 2 de noviembre a las 22:00, en clave de techno-thriller, con estrellas como John Slattery (‘Mad Men’), Michael Mosley (Ozark) o Eve Harlow (Los 100) en su elenco.

Y nosotros, como buenos xatakeros, tenemos que hacernos la pregunta obvia: ¿hasta qué punto es plausible un futuro así? ¿Está ya la tecnología invadiendo nuestras vidas hacia la balanza de lo pernicioso, transfigurándonos de forma que aún no percibimos? ¿Una IA semejante nos llevaría, en teoría, a vivir en la perfecta Xanadú tecnificada? ¿O quizá al colapso, a la lucha por la supervivencia frente a una Skynet desatada?

La paradoja del progreso

"Es un riesgo para la existencia de nuestra civilización", decía Elon Musk hace algunos años en aquella reunión de expertos. "Hasta que la gente no vea a robots matando a personas por la calle no se entenderán los peligros de la inteligencia artificial". Un comentario fatalista, desde luego, mientras aseguradoras, despachos de abogados y factorías del automóvil desarrollan a toda prisa comités éticos sobre IA.

Nx Pilot

Sobre el papel, que una máquina tome decisiones solo es una buena noticia. Y lo es porque la toma de decisiones algorítmicas puede, en teoría, superar esas limitaciones adscritas a los humanos, ya sean conflictos de interés, delitos de corrupción, egoísmo o sesgos cognitivos (ya sean raciales, de género, etc). Esta es una de las áreas de investigación más fértiles, con organismos y congresos como el FAT ML.

Sin embargo, como ya hemos visto en tantas y tantas publicaciones, cuando una IA aprende a golpe de data mining termina por adquirir sesgos humanos. Y eso que aun no estamos considerando esos matices del lenguaje no verbal. Lo constató Science, comprobando que las máquinas terminaban por volverse machistas y racistas. Este otro estudio titulaba sus conclusiones bajo el titular ‘Influencia racial en las percepciones automatizadas de las emociones’.

Un sesgo racial, este, que afecta a la interpretación visual, como ya ha sido demostrado a través del cropping algorítmico llevado a cabo por Twitter a la hora de representar imágenes parciales o completas. Si nosotros somos imperfectos, ¿qué hace pensar que una IA no lo sería? Con una salvedad: mientras los estudiantes de bachiller todavía se devanan los sesos intentando resolver el dilema del tranvía, un programador debe codificar y entregar una respuesta más o menos clara a este entuerto.

La gran mentira de la realidad

Nx Pilot Sc54 1278

¿Qué probabilidades hay de que una IA se vuelva contra nosotros? La serie ‘NEXT’ coquetea y profundiza con esta idea de diferentes maneras. Los primeros atisbos no se perciben y no es hasta que una cadena de sucesos inusuales se desata cuando LeBlanc, el personaje interpretado por Slattery, une fuerzas con Shea Salazar (interpretada por Fernanda Andrade, ‘The First’), experta en ciberdelincuencia y aliada crucial para evitar un desastre global.

Olvídate de misiles tierra-aire recorriendo el Atlántico y aquellas pulsiones nucleares tras la Guerra Fría. El nuevo colapso tiene forma de personas enfrentadas entre sí y reclutamiento masivo a través de la manipulación de información. Mensajes de audio manipulados, vídeos irreales, fotos sin sentido…

¿Te suena de algo? En esta era de la posverdad, el impacto de las fake news en nuestra sociedad puede apreciarse cada día. Desde redirigir un debate social en torno a un suceso concreto hasta alterar el curso de unas Elecciones Presidenciales.

Nx Pilot Sc18pt 2052

Ficción para hablar de realidad. No es una distopía constatar cómo las redes sociales pueden destruir relaciones interpersonales, cómo son usadas como armas arrojadizas, herramientas de control, ciberacoso y violencia machista. Cómo estas vidas falsarias y donde los usuarios construimos micromomentos de pura felicidad, ficcionalizado cada respuesta, cada pose, termina por erosionar nuestra percepción de la realidad.

Entonces, ¿no podemos confiar en nada? No. El famoso efecto Mandela ya dejó claro el alcance de la manipulación informativa. Un grupo de personas enunció que el político murió a mediados de los 80 y todo el mundo dio por hecho que así era. Años después recordaban que era veraz. Nelson Mandela falleció el 5 de diciembre de 2013. Engañar al cerebro es demasiado fácil, como teorizó la pionera Elizabeth Loftus.

"No estamos tan lejos del colapso de la realidad", escribía Franklin Foer para Atlantic a propósito de los deep fakes. Las fotos manipuladas dieron paso a vídeos y audios manipulados, todo ello generado en tiempo real. Para enrarecer más el ambiente debemos tener en cuenta que las fotos manipuladas crean recuerdos falsos. Es difícil predecir qué vendrá después.

Inteligencia Artificial para todo

Conducción automática, internet de las cosas, redes inteligentes, anuncios personalizados… la IA está en todas partes, en forma de dulces algoritmos. Gracias a ellos hemos logrado gestiones más inteligentes de nuestros residuos, ahorro en el alumbrado u optimización de procesos rutinarios y burocráticos.

Nt Sc41 0051

El de la IA es un escenario más complejo y vasto de lo aparente y que engloba machine learning, big/small data y analítica de datos. La Comisión Europea estima inversiones de 20.000 millones de euros interanuales —PwC es más cauta, situando en casi 16.000 millones este valor—

Tendríamos que definir “contra” y “nosotros”. Porque, más allá de las tres leyes fundamentales de la robótica, enunciadas por Isaac Asimov en 1982 en su obra ‘Círculo Vicioso’, en la actualidad existen seis axiomas para proteger a la humanidad. Por un lado, las postuladas antaño: no interrelacionarse, nada de dañarnos y tendrán que contar con interruptor de emergencia, un reset. Pero más allá de esto entramos en pantanos éticos: deben contar con seguros, derechos y obligaciones, deberán pagar impuestos, y deberán someterse a juicio en caso de violación de estos derechos o deberes.

Que una superinteligencia domine el mundo es verdaderamente inusual. No existe precedente alguno. En todo caso tendríamos que enfrentarnos a un uso negligente de la misma, un hackeo y contrahackeo. En resumen: blindar y proteger aún más los sistemas con sistemas redundantes.

Ninguna IA está destinada a acabar con la humanidad. Este fin sólo podría alcanzarse mediante consciencia. Es decir, autoreconocimiento de la misma, del entorno que le rodea y su posición y condición dentro del mismo. He aquí el gran clásico que tantas veces habrás leído en Xataka: una IA no posee iniciativa, creatividad, aportación social. Ni siquiera comprende sus objetivos. Solo hay que fijarse en GPT-3. Esta IA puede leerlo todo pero no entiende nada. No contextualiza.

A través del deep learning, una IA puede enseñar a otra y refinar sus funciones. La algoritmia puede perfeccionarse hasta alcanzar un nuevo estatus de adaptabilidad. Nada más allá de eso. Colectivos como Obvius Art han demostrado que, en condiciones específicas, una IA escupe resultados interesantes desde un punto de vista cultural. Pueden, de hecho, ser incansables pulmones creativos y escupir libros enteros. En lo social, todavía queda mucho camino por andar.

¿Quién es el siguiente?

Creada por Manny Coto (productor ejecutivo de ‘24’) y bajo la dirección de Glenn Ficarra (This is Us) y John Requa (This is Us), ‘NEXT’ coincide con la publicación de 'El silencio', del veterano Don DeLillo, un libro que apunta hacia un catastrófico reseteo informático, un mundo sin energía. O con el lanzamiento del videojuego ‘Watch Dogs: Legion’, que presenta una parábola sobre un Londres poco futurista pero hipervigilado donde un puñado de hackers al margen de la ley se infiltran en el sistema para destruirlo desde dentro.

Como una vibración constante, este pulso invisible flota en forma de debate cultural: ¿estamos a salvo? Habrá que estar atento el 2 de noviembre, a las 22:00 horas, en FOX, para ver hasta dónde.

Imágenes | 20th Television FOX Entertainment.

Publicidad

Publicidad

Publicidad

Inicio

Explora en nuestros medios