Antonio Fumero
I+D. Todo se puede solucionar con una cerveza fría.
A lo grande
En el principio de los tiempos fue el ordenador, la máquina. El tiempo y la innovación consiguieron que se convirtiera en personal para luego desaparecer en la nube, la niebla y convertirse en parte de la metafórica dermis tecnológica de nuestra sociedad, que se soporta en la Internet de todas las cosas… y ahora vuelve a surgir como un coloso con capacidades más allá de lo imaginable, el superordenador.
Superordenadores
Más allá de los matices que separan, desde el punto de vista informático, todos recordamos la encarnación de estas máquinas en el imaginario colectivo y el uso que les dimos: la inolvidable HAL9000 de una Odisea en el Espacio, o WOPR que aprendía en War Games una lección muy valiosa al entender, después de una incesante simulación de escenarios, que la guerra es el único juego que solo se gana si nunca se juega.
Los inicios
En un estadio evolutivo en que la protagonista sigue siendo la Red de redes y el progreso hacia la Internet de (todas) las cosas, vuelven a cobrar relevancia las máquinas que una vez iniciaron el desarrollo acelerado de lo que es hoy la computación digital. Esas máquinas, dedicadas a la resolución de problemas de índole tecnocientífico, utilizan, con matices, los paradigmas propios de las redes para el procesamiento masivo en paralelo mediante la operación coordinada de un número variable de nodos geográficamente distribuidos e incluso el hardware de propósito general a disposición de casi cualquier consumidor.
El término se acuñó en los años veinte del siglo pasado para referirse a unas máquinas tabuladoras que IBM construyó para la Universidad de Columbia: los primeros superordenadores comerciales se fabricaban en los años 1950 y 1960. El CDC 6600 fue considerado como el primero de ellos, diseñado y construido por unos cuantos ingenieros que salieron de la Sperry Corporation a los que se uniría Seymour Cray, fundador de la compañía que iba a marcar la siguiente era de la supercomputación, haciendo crecer un mercado prometedor a base de una incesante innovación tecnológica.
Más allá de los matices que separan, desde el punto de vista informático, diferentes aproximaciones como HTC (High-Throughput Computing), MTC (Many-Tasks Computing) o HPC (High-Performance Computing), todos recordamos la encarnación de estas máquinas en el imaginario colectivo y el uso que les dimos: la inolvidable HAL9000 de una Odisea en el Espacio, o WOPR que aprendía en War Games una lección muy valiosa al entender, después de una incesante simulación de escenarios, que la guerra es el único juego que solo se gana si nunca se juega.
Desaparición y... resurrección
Hubo una época, que coincidía con los años 1970 y 1980 del pasado siglo, en que súper ordenador era sinónimo de Cray… Aquellos locos, con sus locos cacharros habían introducido en la industria el procesador vectorial que más tarde daría paso al procesado en flujo, más propio de las GPU.
Tras la muerte de Seymour Cray a causa de las heridas sufridas en un accidente de tráfico en 1996, a sus 71 años, John Henessey, conocido académico de Stanford, auguraba en 1997 el final de los súper ordenadores tal y como los conocíamos en menos de una década. Y no iba desencaminado.
Desde principios de los años 1990 existía en el sector el convencimiento de que era necesaria una revisión del concepto de superordenador, además de contar con un sistema consistente para medir la evolución de los mismos y disponer de métricas útiles. Así nació el proyecto TOP500, al que se unió Jack Dongarra en 1993 aportando su propia batería de pruebas LINPACK, que se convertiría en la base de esta métrica vigente todavía hoy.
Se trata, básicamente, de un paquete, una biblioteca de software, para realizar operaciones de álgebra lineal y que ha ido evolucionando para medir la capacidad de diferentes tipos de máquinas para realizar operaciones de coma flotante sobre matrices de ecuaciones lineales de dimensión n por n. Sobre ese banco de pruebas se miden las capacidades de los superordenadores, actualizando sus resultados dos veces al año, en junio y en noviembre.
La lista ha estado dominada en la última década por las máquinas basadas en los procesadores x86 de 64 bits, fundamentalmente de Intel y AMD; y arquitecturas heterogéneas, que combinan CPU y GPU, sobre todo de Nvidia. Estamos, además, en la era de los petaflops, y de la eficiencia energética: señal de lo cual es el ranking Green500, que surgía en 2013.
El dominio chino es incontestable: casi la mitad de las máquinas en la lista son de ese país (214 en el ranking de noviembre de 2020), siguiéndole a la zaga EE.UU. (con 113 máquinas) y Japón (con 34 instalaciones). En Europa destacan Francia, Alemania, Países Bajos, Irlanda e Inglaterra. En nuestro país existe una Red Española de Supercomputación, en la que se espera una nueva incorporación desde la AEMET con Cirrus. Entre las máquinas que la conforman, solo Mare Nostrum, en el BSC, aparece en ese listado internacional de referencia.
Desde la primavera de 2020, momento en que el proyecto Folding@Home anunciaba que su red de más de 700.000 nodos distribuidos por el planeta sobrepasaba los 1,5 exaflops, hay una carrera declarada entre los fabricantes de superordenadores -y a nivel institucional– para cruzar ese límite.
¿Será la siguiente frontera de los exaflops el escenario para llegar a la singularidad que dé lugar a una inteligencia artificial dura, planetaria, que surja de los clusters de supercomputación? ¿Será el primo tonto de Skynet el que acabe con nuestro sufrimiento y le deje el planeta a las hormigas y la inteligencia, claramente superior, del hormiguero?
e-Fumérides
El día a día en la Red da para mucho; pero mi día, como el tuyo solo tiene 24 horas. Si bien dormir está sobrevalorado, sabemos que tu tiempo es extremadamente valioso, de tal manera que hemos dedicado parte del nuestro a destilar algunas de las claves de una variedad de conceptos, tendencias, ideas o noticias que conforman la realidad tecnológica y socioeconómica de nuestro entorno empresarial. Huelga decir que las opiniones vertidas en estos breves artículos, así como las responsabilidades que de ellas se deriven, pertenecen, exclusivamente, a su autor.
Otros artículos
Laude Canarias firma un acuerdo de partnership con Huawei Cloud
Desde ahora, Laude Canarias también ofrecerá servicios basados en Huawei Cloud.
La IA podría suponer un impulso para la economía española de hasta 120.000 millones de euros en la próxima década
Isaac Hernández, Country Manager de Google Cloud, nos dejó algunos datos clave sobre el futuro de la IA en España.
Laude Canarias participa en el impulso y la innovación en ciberseguridad a través del proyecto SecBluRed
Ambos equipos, Madrid y Canarias, hemos participado en varios talleres y ponencias para abordar todos los problemas que puede solucionar este proyecto.
Huawei Cloud y Laude exploran sinergias en la isla de Gran Canaria
La agenda del encuentro se centró en la presentación de ambas empresas y de las soluciones que ofrece Huawei Cloud.
Laude Canarias firma un acuerdo de partnership con Huawei Cloud
Desde ahora, Laude Canarias también ofrecerá servicios basados en Huawei Cloud.