Acabamos de revolucionar la forma de calcular matrices. Se lo debemos a unos investigadores de Valencia

Investigadores del equipo High Performance Scientific Computing (HiPerSc) de la Universitat Politècnica de València han hallado una nueva forma de calcular funciones de matrices. Supone toda una revolución al cambiar la forma en la que los matemáticos pueden afrontar este problema, ya que se trata del primer gran avance en su área desde la década de 1970.

Una metodología (casi) olvidada.Durante los últimos 50 años las aproximaciones polinómicas habían sido descartadas como método a la hora de resolver funciones de matrices por el gran coste de computación que implicaban. Durante el último medio siglo habían sido sustituidas por las llamadas aproximaciones racionales. Ahora, el trabajo de los investigadores del HiPerSc podría cambiar esto.

Durante este largo intervalo de tiempo, el alto coste de computar estas funciones a través de polinomios de matrices era tan alto que esta aproximación había sido abandonada. Sin embargo, la nueva metodología reduce notablemente el coste de computar estas funciones, lo que puede revertir esta tendencia. Numerosos campos científicos, desde la inteligencia artificial hasta la mecánica cuántica hacen uso de funciones de matrices, lo que pone de relieve el valor del nuevo avance.

“Después de casi 50 años hemos demostrado que las aproximaciones polinómicas pueden ser más eficientes que las racionales, y además están dando resultados más precisos en los diversos casos que las estamos aplicando”, explicaba en una nota de prensa Jorge Sastre, uno de los autores del estudio en el que postulan el nuevo mecanismo.

Funciones y polinomios. El objetivo es el de calcular funciones de matrices, un tipo de expresión algebraica que incorpora matrices (conjuntos de valores ordenados en filas y columnas, es decir, en dos dimensiones) en una función.

El último gran avance en el cálculo de polinomios de matrices fue realizado en 1973 por los investigadores angloestadounidenses Michael Paterson y Larry Stockmeyer. El sistema de Paterson y Stockmeyer trata de minimizar el número de multiplicaciones necesarias para realizar el cálculo. El nuevo método reduce el coste de computación al reducir aún más el número de estas operaciones.

Menos operaciones, más complejas. Como explicaba Sastre hace unos meses entrevistado por El Español, el método “se basa en multiplicar polinomios en lugar de matrices solas”. El nuevo método emplea polinomios de mayor grado (el grado del polinomio es el más alto de los exponentes de sus términos), lo que permite esta reducción en el número de multiplicaciones aumentando, eso sí, su complejidad. El efecto neto: el menor coste de computación requerido.

¿Y todo esto para qué? Las aplicaciones de este nuevo método van más allá de la inteligencia artificial y la mecánica cuántica. Un cálculo más simple de funciones de matrices nos permitirá resolver “problemas de la física, la economía, química o biología de manera más eficiente”, comenta Sastre.

Los ordenadores cuánticos prometen una capacidad de computación exponencialmente mayor que los ordenadores tradicionales. Sin embargo los problemas a los que se enfrentan los científicos de diversas disciplinas, desde la física hasta las ciencias sociales, son cada vez más complejos.

Es por ello que simplificar problemas matemáticos y hacer su cálculo más accesible pueda aún ser relevante ante el advenimiento de esta nueva era de la computación. “Este descubrimiento es un ejemplo más del potencial de la investigación científica para mejorar nuestra comprensión del mundo y resolver problemas complejos”, concluía el investigador de HiPerSc.

En Xataka | El número TREE(3) no es infinito, pero es tan grande que ni siquiera cabe en el universo

Imagen | Michał Jałochowski

Ver todos los comentarios en https://www.xataka.com

VER 3 Comentarios

Portada de Xataka