Supercomputadora
Interior de una supercomputadora CRAY T3D.
Una supercomputadora o un superordenador es aquella con capacidades de cálculo muy superiores a las computadoras corrientes y de escritorio y que son usadas con fines específicos. Hoy día los términos de supercomputadora y superordenador están siendo reemplazados por computadora de alto desempeño y ambiente de cómputo de alto desempeño, ya que las supercomputadoras son un conjunto de poderosos ordenadores unidos entre sí para aumentar su potencia de trabajo y desempeño. Al año 2011, los superordenadores más rápidos funcionaban en aproximadamente más de 200 teraflops (que en la jerga de la computación significa que realiza trillones de operaciones por segundo). La lista de supercomputadoras se encuentra en la lista TOP500.HistoriaLas supercomputadoras fueron introducidas en la década de los sesenta y fueron diseñadas principalmente por Seymour Cray en la compañía Control Data Corporation (CDC), la cual dominó el mercado durante esa época, hasta que Cray dejó CDC para formar su propia empresa, Cray Research. Con esta nueva empresa siguió dominando el mercado con sus nuevos diseños, obteniendo el podio más alto en supercómputo durante cinco años consecutivos (1985-1990). En los años ochenta un gran número de empresas competidoras entraron al mercado en paralelo con la creación del mercado de los minicomputadores una década antes, pero muchas de ellas desaparecieron a mediados de los años noventa. El término está en constante flujo. Las supercomputadoras de hoy tienden a convertirse en las computadoras ordinarias del mañana. Las primeras máquinas de CDC fueron simplemente procesadores escalares muy rápidas, y muchos de los nuevos competidores desarrollaron sus propios procesadores escalares a un bajo precio para poder penetrar en el mercado.
De principio a mediados de los años ochenta se vieron máquinas con un modesto número de procesadores vectoriales trabajando en paralelo, lo cual se convirtió en un estándar. El número típico de procesadores estaba en el rango de 4 a 16. En la última parte de los años ochenta y principios de los noventa, la atención cambió de procesadores vectoriales a sistemas de procesadores masivamente paralelos con miles de CPU «ordinarios». En la actualidad, diseños paralelos están basados en microprocesadores de clase servidor que están disponibles actualmente (2011). Ejemplos de tales procesadores son PowerPC, Opteron o Xeon, y la mayoría de los superordenadores modernos son hoy en día clústeres de computadores altamente afinadas usando procesadores comunes combinados con interconexiones especiales.
Hasta ahora el uso y generación de las mismas se ha limitado a organismos militares, gubernamentales, académicos o empresariales.
Estas se usan para tareas de cálculos intensivos, tales como problemas que involucran física cuántica, predicción del clima, investigación de cambio climático, modelado de moléculas, simulaciones físicas tal como la simulación de aviones o automóviles en el viento (también conocido como Computational Fluid Dinamics), simulación de la detonación de armas nucleares e investigación en la fusión nuclear.
Como ejemplo, se encuentra la supercomputadora IBM Roadrunner; científicos de IBM y del laboratorio de Los Álamos trabajaron seis años en la tecnología de la computadora. Algunos elementos de Roadrunner tienen como antecedentes videojuegos populares, de acuerdo con David Turek, vicepresidente del programa de supercomputadoras de IBM. «En cierta forma, se trata de una versión superior de Sony PlayStation 3», indicó. «Tomamos el diseño básico del chip (de PlayStation) y mejoramos su capacidad», informó Turek.
Sin embargo, Roadrunner difícilmente pueda asemejarse a un videojuego. El sistema de interconexión ocupa 557 m² de espacio. Cuenta con 91,7 km de fibra óptica y pesa 226,8 t. La supercomputadora está en el laboratorio de investigaciones de IBM en Poughkeepsie, Nueva York y fue trasladada en julio del 2008 al Laboratorio Nacional Los Álamos, en Nuevo México.[[m
]]
Japón creó la primera supercomputadora petaflops la MDGrape-3, pero solo de propósitos particulares, luego IBM de USA creo la correcaminos, también de 1 petaflops, China la Milky Way One de 1,2 petaflops y Cray de EE.UU. la Jaguar de 1,7 petaflop, que es al final del año 2009 la más rápida. La supercomputadora más rápida a fines del 2010 era la china Tianhe 1A con picos de velocidad de 2,5 petaflops.
Sistemas de enfriamiento
Muchas de las CPUs usadas en los supercomputadores de hoy disipan 10 veces más calor que un disco de estufa común . Algunos diseños necesitan enfriar los múltiples CPUs a -85 °C (-185 °F).
Para poder enfriar múltiples CPUs a tales temperaturas requiere de un gran consumo de energía. Por ejemplo, un nuevo supercomputador llamado Aquasar tendrá una velocidad tope de 10 teraflops. Mientras tanto el consumo de energía de un solo rack de este supercomputador consume cerca de 10 kW. Como comparación, un rack del supercomputadorBlue Gene L/P consume alrededor de 40 kW.
El consumo promedio de un supercomputador dentro de la lista de los 500 supercomputadores más rápidos del mundo es de alrededor de 257 kW.
Para el supercomputador Aquasar, que será instalado en el Instituto Tecnológico Federal Suizo (ETH), se utilizará un nuevo diseño de enfriamiento líquido. Se necesitarán 10 litros de agua que fluirán a una tasa de 29,5 litros por minuto.
Una de las innovaciones en este diseño es que normalmente los sistemas de enfriamiento aíslan el líquido de la CPU y la transmisión de calor se da a través de convección desde la cubierta metálica de la CPU a través de un adaptador generalmente de cobre u otro material térmicamente conductivo. La innovación consiste en un nuevo diseño en el cual llega el agua directamente a la CPU mediante tubos capilares de manera que la transmisión de calor es más eficiente.
En el caso del ETH en Suiza, el calor extraído del supercomputador será reciclado para calentar habitaciones dentro de la misma universidad.
Características
Las principales son:
Velocidad de Proceso: miles de millones de instrucciones de coma flotante por segundo.
Usuarios a la vez: hasta miles, en entorno de redes amplias.
Tamaño: requieren instalaciones especiales y aire acondicionado industrial.
Dificultad de uso: solo para especialistas.
Clientes usuales: grandes centros de investigación.
Penetración social: prácticamente nula.
Impacto social: muy importante en el ámbito de la investigación, ya que provee cálculos a alta velocidad de procesamiento, permitiendo, por ejemplo, calcular en secuencia el genoma humano, número pi, desarrollar cálculos de problemas físicos dejando un margen de error muy bajo, etc.
Parques instalados: menos de un millar en todo el mundo.
Costo: hasta decenas de millones de dólares cada una de ellas.
Principales usos
Las supercomputadoras se utilizan para abordar problemas muy complejos o que no pueden realizarse en el mundo físico bien, ya sea porque son peligrosos, involucran cosas increíblemente pequeñas o increíblemente grandes. A continuación damos algunos ejemplos:
Mediante el uso de supercomputadoras, los investigadores modelan el clima pasado y el clima actual y predicen el clima futuro .
Los astrónomos y los científicos del espacio utilizan las supercomputadoras para estudiar el Sol y el clima espacial.
Los científicos usan supercomputadoras para simular de qué manera un tsunami podría afectar una determinada costa o ciudad.
Las supercomputadoras se utilizan para simular explosiones de supernovas en el espacio.
Las supercomputadoras se utilizan para probar la aerodinámica de los más recientes aviones militares.
Las supercomputadoras se están utilizando para modelar cómo se doblan las proteínas y cómo ese plegamiento puede afectar a la gente que sufre la enfermedad de Alzheimer, la fibrosis quística y muchos tipos de cáncer.
Las supercomputadoras se utilizan para modelar explosiones nucleares, limitando la necesidad de verdaderas pruebas nucleares.
¿Por qué las supercomputadoras usan Linux?
Por muchos es ultra sabido que Linux copa el uso de super computadores a nivel mundial:
Algunas cosas se pueden intuir, como el bajo coste de los medios, pero hay muchas muchas más. ¿Pero porqué esto es así? seguid leyendo y sabréis más:
Al parecer muchos científicos quieren Linux, porque es cercano a Unix, y con eso aparte de tener entornos de alto rendimiento todas las herramientas de GNU hacen mucho más sencillo y barato desplegar este sistema.
Estas son las reglas básicas de porqué esto es así:
1 – La naturaleza modular de Linux.
Una típica instalación de Linux está hecha de pequelos bloques o módulos y cada uno hace una tarea distinta, estos bloques juntos hacen que el Sistema operativo funcione. Esto hace que sea muy fácil hacer modificaciones a determinadas tareas sin afectar las demás. No hay ningún otro sistema operativo tiene esta libertad de extensión. Los módulos pueden ser modificados para ser usados en las supercomputadoras para obtener metas, como rendimiento, eficiencia energética, etc.
2 – Naturaleza genérica del kernel.
El Kenel es genérico. Un código fuente puede ser escrito para correr en supercomputadoras y en pequeños inventos. No hay que hacer grandes cambios al kernel para tener un gran sistema o uno pequeño.
3- Escalabilidad.
Escalabilidad se defino como la habilidad de un servidor en adaptarse a cargas altas. Es una medida de eficacia. Linux tiene una tremenda escalabilidad y pueden acostumbrarse a grandes cargas de forma sencilla.
4 – Naturaleza Código abierto.
Linux es por completo código abierto y su software también, esto permite personalizar completamente la máquina al milímetro. En caso de problemas de rendimiento, o agujeros de seguridad, se puede alterar el código directamente en cualquier momento para actualizarlo.
5 – Soporte de la comunidad.
Linux tiene una inmensa comunidad que da soporte, algo que ningún otro sistema tiene.
6 – Coste.
Como es normal el coste es totalmente gratuito.
7- Reinicios.
Se pueden hacer pruebas de configuraciones de red en caliente sin tener que reiniciar el sistema, para poder probar módulos independientes.
Artículos relacionados
Steam listo para Linux, y viene prematuro…
1 Titan - Cray XK7, Opteron 6274 16C 2.200GHz, Cray Géminis interconexión, NVIDIA K20x
Sitio: Ridge National Laboratory DOE / SC / Oak
System URL: http://www.olcf.ornl.gov/titan/
Fabricante: Cray Inc.
Cores: 560640
Performance Linpack (Rmax) 17.590,0 Tflop / s
Máxima teórica (Rpeak) 27.112,5 Tflop / s
Energía: 8.209,00 kW
Memoria: 710 144 GB
Interconexión: Cray Géminis interconexión
Sistema operativo: Cray Linux Medio Ambiente
2 Sequoia - BlueGene / Q, energía BQC 16C 1,60 GHz, Custom
Sitio: DOE / NNSA / LLNL
Fabricante: IBM
Cores: 1572864
Performance Linpack (Rmax) 16.324,8 Tflop / s
Máxima teórica (Rpeak) 20.132,7 Tflop / s
Energía: 7.890,00 kW
Memoria: 1572864 GB
Interconexión: Interconnect personalizada
Sistema operativo: Linux
3 K computadora, SPARC64 VIIIfx 2.0GHz, Tofu interconexión
Sitio: RIKEN Instituto Avanzado de Ciencia Computacional (AICS)
Fabricante: Fujitsu
Cores: 705024
Performance Linpack (Rmax) 10.510,0 Tflop / s
Máxima teórica (Rpeak) 11.280,4 Tflop / s
Energía: 12.659,89 kW
Memoria: 1410048 GB
Interconexión: Interconnect personalizada
Sistema operativo: Linux
4 Mira - BlueGene / Q, energía BQC 16C 1.60GHz, Custom
Sitio: Laboratorio Nacional de DOE / SC / Argonne
Fabricante: IBM
Cores: 786432
Performance Linpack (Rmax) 8162.4 Tflop / s
Máxima teórica (Rpeak) 10.066,3 Tflop / s
Energía: 3.945,00 kW
Memoria:
Interconexión: Interconnect personalizada
Sistema operativo: Linux
5 JUQUEEN - BlueGene / Q, energía BQC 16C 1.600GHz, Interconnect personalizada
Sitio: Forschungszentrum Juelich (FZJ)
System URL: http://www.fz-juelich.de/ias/jsc/EN/Expertise/Supercomputers/JUQUEEN/JUQUEEN_node.html
Fabricante: IBM
Cores: 393216
Performance Linpack (Rmax) 4141.2 Tflop / s
Máxima teórica (Rpeak) 5033.2 Tflop / s
Energía: 1.970,00 kW
Memoria: 393 216 GB
Interconexión: Interconnect personalizada
Sistema operativo: Linux
6 SuperMUC - iDataPlex DX360M4, Xeon E5-2680 8C 2.70GHz, Infiniband FDR
Sitio: Leibniz Rechenzentrum
System URL: http://www.lrz.de/services/compute/supermuc/
Fabricante: IBM
Cores: 147456
Performance Linpack (Rmax) 2897.0 Tflop / s
Máxima teórica (Rpeak) 3185.1 Tflop / s
Energía: 3.422,67 kW
Memoria:
Interconexión: Infiniband FDR
Sistema operativo: Linux
7 Stampede - PowerEdge C8220, Xeon E5-2680 8C 2.700GHz, Infiniband FDR, Intel Xeon Phi
Sitio: De Texas Advanced Computing Center / Univ. de Texas
System URL: http://www.tacc.utexas.edu/stampede
Fabricante: Dell
Cores: 204900
Performance Linpack (Rmax) 2660.3 Tflop / s
Máxima teórica (Rpeak) 3959.0 Tflop / s
Energía:
Memoria: 184 800 GB
Interconexión: Infiniband FDR
Sistema operativo: Linux
Compilador: Intel
Biblioteca de Matemáticas: MKL
MPI: MVAPICH2
8 Tianhe-1A - NUDT YH MPP, Xeon X5670 2.93 GHz 6C, NVIDIA 2050
Sitio: Centro Nacional de Supercomputación en Tianjin
Fabricante: NUDT
Cores: 186368
Performance Linpack (Rmax) 2566.0 Tflop / s
Máxima teórica (Rpeak) 4701.0 Tflop / s
Energía: 4.040,00 kW
Memoria: 229 376 GB
Interconexión: Propietario
Sistema operativo: Linux
Compilador: icc
Biblioteca de Matemáticas:
MPI: MPICH2 con un canal GLEX personalizada
9 Fermi - BlueGene / Q, energía BQC 16C 1.60GHz, Custom
Sitio: CINECA
Fabricante: IBM
Cores: 163840
Performance Linpack (Rmax) 1725.5 Tflop / s
Máxima teórica (Rpeak) 2097.2 Tflop / s
Energía: 821,88 kW
Memoria:
Interconexión: Interconnect personalizada
Sistema operativo: Linux
1o DARPA Trial Subset - Power 775, 3.836GHz 8C POWER7, Interconnect personalizada
Sitio: IBM Desarrollo de Ingeniería
Fabricante: IBM
Cores: 63360
Performance Linpack (Rmax) 1515.0 Tflop / s
Máxima teórica (Rpeak) 1944.4 Tflop / s
Energía: 3.575,63 kW
Memoria:
Interconexión: Interconnect personalizada
Sistema operativo: Linux