martes, 12 de noviembre de 2013

SUPERCOMPUTADORAS .lll.

SUPERCOMPUTADORAS

¿QUE ES UNA SUPERCOMPUTADORA?
Una supercomputadora o un superordenador es aquella con capacidades de cálculo muy superiores a las computadoras corrientes y de escritorio y que son usadas con fines específicos. Hoy día los términos de supercomputadora y superordenador están siendo reemplazados por computadora de alto desempeño y ambiente de cómputo de alto desempeño, ya que las supercomputadoras son un conjunto de poderosos ordenadores unidos entre sí para aumentar su potencia de trabajo y desempeño. Al año 2011, los superordenadores más rápidos funcionaban en aproximadamente más de 200 teraflops (que en la jerga de la computación significa que realizan más de 200 billones de operaciones por segundo). La lista de supercomputadoras se encuentra en la lista TOP500.

ORIGEN E HISTORIA DE LAS SUPERCOMPUTADOTRA

Las supercomputadoras fueron introducidas en la década de 1970 y fueron diseñadas principalmente por Seymour Cray en la compañía Control Data Corporation (CDC), la cual dominó el mercado durante esa época, hasta que Cray dejó CDC para formar su propia empresa, Cray Research. Con esta nueva empresa siguió dominando el mercado con sus nuevos diseños, obteniendo el podio más alto en supercómputo durante cinco años consecutivos (1985-1990). En los años ochenta un gran número de empresas competidoras entraron al mercado en paralelo con la creación del mercado de los minicomputadores una década antes, pero muchas de ellas desaparecieron a mediados de los años noventa. El término está en constante flujo. Las supercomputadoras de hoy tienden a convertirse en las computadoras ordinarias del mañana. Las primeras máquinas de CDC fueron simplemente procesadores escalares muy rápidas, y muchos de los nuevos competidores desarrollaron sus propios procesadores escalares a un bajo precio para poder penetrar en el mercado.
De principio a mediados de los años ochenta se vieron máquinas con un modesto número de procesadores vectoriales trabajando en paralelo, lo cual se convirtió en un estándar. El número típico de procesadores estaba en el rango de 4 a 16. En la última parte de los años ochenta y principios de los noventa, la atención cambió de procesadores vectoriales a sistemas de procesadores masivamente paralelos con miles de CPU «ordinarios». En la actualidad, diseños paralelos están basados en microprocesadores de clase servidor que están disponibles actualmente (2011). Ejemplos de tales procesadores son PowerPC, Opteron o Xeon, y la mayoría de los superordenadores modernos son hoy en día clústeres de computadores altamente afinadas usando procesadores comunes combinados con interconexiones especiales.
Hasta ahora el uso y generación de las mismas se ha limitado a organismos militares, gubernamentales, académicos o empresariales.
Estas se usan para tareas de cálculos intensivos, tales como problemas que involucran física cuántica, predicción del clima, investigación de cambio climático, modelado de moléculas, simulaciones físicas tal como la simulación de aviones o automóviles en el viento (también conocido como Computational Fluid Dinamics), simulación de la detonación de armas nucleares e investigación en la fusión nuclear.
Como ejemplo, se encuentra la supercomputadora IBM Roadrunner; científicos de IBM y del laboratorio de Los Álamos trabajaron seis años en la tecnología de la computadora. Algunos elementos de Roadrunner tienen como antecedentes videojuegos populares, de acuerdo con David Turek, vicepresidente del programa de supercomputadoras de IBM. «En cierta forma, se trata de una versión superior de Sony PlayStation 3», indicó. «Tomamos el diseño básico del chip (de PlayStation) y mejoramos su capacidad», informó Turek.
Sin embargo, Roadrunner difícilmente pueda asemejarse a un videojuego. El sistema de interconexión ocupa 557 m² de espacio. Cuenta con 91,7 km de fibra óptica y pesa 226,8 t . La supercomputadora está en el laboratorio de investigaciones de IBM en Poughkeepsie, Nueva York y fue trasladada en julio del 2008 al Laboratorio Nacional Los Álamos, en Nuevo México.[[m2]]
Japón creó la primera supercomputadora petaflops la MDGrape-3, pero solo de propósitos particulares, luego IBM de USA creo la correcaminos, también de 1 petaflops, China la Milky Way One de 1,2 petaflops y Cray de EE.UU. la Jaguar de 1,7 petaflop, que es al final del año 2009 la más rápida. La supercomputadora más rápida a fines del 2010 era la china Tianhe 1A con picos de velocidad de 2,5 petaflops.

LAS SUPERCOMPUTADORAS NECESITABAN UN MUY BUEN SISTEMA DE ENFRIAMIENTO PARA PODER PROCESAR MAS RÁPIDO LA INFORMACIÓN

Muchas de las CPUs usadas en los supercomputadores de hoy disipan 10 veces más calor que un disco de estufa común . Algunos diseños necesitan enfriar los múltiples CPUs a -85 °C (-185 °F).
Para poder enfriar múltiples CPUs a tales temperaturas requiere de un gran consumo de energía. Por ejemplo, un nuevo supercomputador llamado Aquasar tendrá una velocidad tope de 10 teraflops. Mientras tanto el consumo de energía de un solo rack de este supercomputador consume cerca de 10 kW. Como comparación, un rack del supercomputador Blue Gene L/P consume alrededor de 40 kW.
El consumo promedio de un supercomputador dentro de la lista de los 500 supercomputadores más rápidos del mundo es de alrededor de 257 kW.
Para el supercomputador Aquasar, que será instalado en el Instituto Tecnológico Federal Suizo (ETH), se utilizará un nuevo diseño de enfriamiento líquido. Se necesitarán 10 litros de agua que fluirán a una tasa de 29,5 litros por minuto.
Una de las innovaciones en este diseño es que normalmente los sistemas de enfriamiento aíslan el líquido de la CPU y la transmisión de calor se da a través de convección desde la cubierta metálica de la CPU a través de un adaptador generalmente de cobre u otro material térmicamente conductivo. La innovación consiste en un nuevo diseño en el cual llega el agua directamente a la CPU mediante tubos capilares de manera que la transmisión de calor es más eficiente.
En el caso del ETH en Suiza, el calor extraído del supercomputador será reciclado para calentar habitaciones dentro de la misma universidad.

TIPOS DE SUPERCOMPUTADORAS

Existen dos tipos principales de supercomputadores: máquinas de vectores y máquinas paralelas. Las dos trabajan RAPIDO, pero en forma diferente. 
      Digamos que tu tienes 100 problemas de matemáticas. Si tu fueras un computador de vectores, te sentarías y harías todos los problemas tu mismo tan rápido como pudieras. 
      Para trabajar como un computador paralelo, tu tendrías que conseguir y compartir el trabajo con sus amigos. Con 10 amigos, tu harías solo 10 problemas. Si fueran 20 amigos, cada uno solo tendría que hacer 5 problemas. 
     A pesar de que tu fueras muy bueno en matemáticas, te tomaría mas tiempo en hacer todos los 100 problemas que a las 20 personas trabajando juntas.
Procesamiento Vectorial
El procesamiento vectorial requiere específicamente instrucciones con vectores en lenguaje de máquina. El procesamiento requiere hardware canalizado, pero no viceversa. Una instrucción vectorial indica la operación que se va a realizar y especifica la lista de operandos (denominada vector) sobre los que operará. Cuando se ejecuta una instrucción vectorial, se alimentan los elementos del vector a la canalización apropiada uno a la vez, retrasados por el tiempo que toma completar una etapa.
Ejecución De Instrucciones En Paralelo
Desde lo albores de la computación, los diseñadores han tratado de hacer máquinas más rápidas. Hasta cierto punto, esto se podría lograr haciendo más veloz el hardware; sin embargo, empiezan a aparecer en el horizonte diversos límites físicos. Por unlado, las leyes de la física señalan que nada puede viajar más rápido que la velocidad de la luz, que es de alrededor de 30cm, por nanosegundo en el vacío y de 20 cm por nanosegundo a través de alambre de cobre.
Esto significa que para construir una computadora con un tiempo de instrucción de 1 nanosegundo, la distancia total que las señalas eléctricas tuvieran que viajar entre la memoria, el CPU y de regreso, no debe exceder de 20 centímetros. De ahí que las computadoras demasiado rápidas tengan que ser muy pequeñas.
Desgraciadamente, las computadoras rápidas producen más calor que las lentas, y el construirlas en un volumen reducido hace difícil disipar dicho calor. En ocasiones, las supercomputadoras se sumergen en freón líquido, un refrigerante, a fin de eliminar el calor tan pronto como sea posible. Con todo, hacer más y más rápidas a las computadoras es cada día más y más difícil, así como muy caro.
No obstante, es posible lograrlo de otra manera: en lugar de un solo CPU de alta velocidad, se puede construir una máquina con varias ALU más lentas (y más baratas), o hasta CPU completas, para obtener el mismo poder de cómputo a un costo más bajo. Muchas investigaciones se han dedicado a construir este tipo de máquinas paralelas.
Las máquinas paralelas pueden dividirse en tres categorías (Flynn, 1972), basadas en el número de instrucciones y de datos que pueden procesar:
* SISD: Corriente de instrucciones sencilla. Corriente de datos sencilla.
* SIMD: Corriente de instrucciones sencilla. Corriente de datos 
 múltiple.
* MIMD: Corriente de instrucciones múltiple. Corriente de datos múltiples.
Por ejemplo, la CDC 6600 y algunas de sus sucesoras tienen unidades funcionales múltiples (ALU especializadas), cada una de las cuales puede realizar una operación sencilla a alta velocidad, según se ilustra en la figura 1. En este ejemplo, se tienen cinco unidades funcionales, dos de ellas para la suma y las tres restantes para las operaciones de resta, multiplicación y división.
La idea que sustenta este diseño es que la unidad de control extrae un instrucción y la dirige a una de las unidades funcionales para su ejecución; mientras tanto, la unidad de control extrae la siguiente instrucción y la envía a otra unidad funcional. Este proceso continúa hasta que no se puede avanzar más, ya sea porque todas las unidades del tipo requerido están ocupadas, o bien porque se necesita un operando que todavía se está procesado. 
Por lo que en general se utiliza para las operaciones de punto flotante, que son lentas y complejas, en lugar de las operaciones con números enteros que son sencillas y rápidas.
En la figura 2. (a), se observa una CPU formada por cinco unidades de procesamiento de P1 a P5. Durante el primer intervalo de tiempo, P1 extrae de memoria la primera instrucción; en el segundo intervalo, la primera instrucción pasa a P2 para su análisis, mientras que P1 extrae la siguiente instrucción. En cada uno de los intervalos subsecuentes, P1 extrae una nueva instrucción y las anteriores pasan a la siguiente unidad, a lo largo de la trayectoria.
A la organización de la figura 2 (a) se le podría llamar PROCESAMIENTO ENTUBADO o PROCESAMIENTO EN LÍNEA (pipeline). Si cada paso (intervalo de tiempo) dura n nanosegundos, se requiere de 5n nanosegundos para ejecutar una instrucción. Sin embargo, cada n nanosegundos P5 termina de ejecutar una instrucción, lo que incrementa la velocidad en un factor de cinco. Solo hay un programa y un conjunto de datos.
La MÁQUINA VECTORIAL que se muestra en la siguiente figura 3 tiene una arquitectura que se adapta muy bien a esta tarea. En forma análoga, la ALU es en sí una unidad vectorial capaz de realizar operaciones como la suma de vectores a partir de dos vectores de entrada y obteniendo como resultado un vector de salida. Algunas supercomputadoras tienen una arquitectura parecida a ésta.
Computadoras Vectoriales SIMD
La Máquina de Conexión está concebida para aplicaciones simbólicas tales como problemas de inteligencia artificial. La máquina puede realizar operaciones de punto flotante, no está convenientemente adaptada para la predicción del clima, el análisis de datos sismológicos, o el procedimientos de datos en reconocimiento de imágenes de tres dimensiones en tiempo real. Para aplicaciones de demasiados cálculos como éstas, se requiere de computadoras vectoriales (llamadas también supercomputadoras numéricas). 
Una aplicación típica de esta clase es una sentencia completa como:
For i: = 1 to n do a[ i ]: = b[ i ] + c[ i ]
Donde a, b y c son vectores, es decir, arreglos numéricos, por lo general en punto flotante. La interacción for anterior indica a la computadora que sume los i-ésimos elementos de b y c y que almacene el resultado en el i-ésimo elemento de a.
Técnicamente, el programa especifica que los elementos deben ser sumados en forma secuencial, pero esto se debe al hecho de que Pascal no tiene ninguna otra forma de expresar la suma de dos vectores. Además, un compilador que optimice puede ver que el orden es irrelevante, y puede generar un código para sumar los n elementos en forma simultánea, si es que el hardware posee capacidad para hacerlo.
En la Figura 3 se muestra una posible arquitectura SIMD bien adaptada para este tipo de procesamiento de vectores. Esta máquina toma como entrada a dos vectores de n elementos y opera en paralelo en los elementos correspondientes, utilizando una ALU vectorial que puede trabajar con los n elementos al mismo tiempo.
Se requiere también de computadoras vectoriales para efectuar operaciones escalares y operaciones mixtas escalares y vectoriales.
En la práctica, pocas supercomputadores se construyen realmente como en la Figura 3.
La Máquina de Conexión se puede permitir tantas ALU pues las que utiliza son sencillas y baratas. Para una supercomputadoras se requiere de ALU de punto flotante extremadamente rápidas, lo que incrementa en gran medida el precio.
El método que se usa normalmente es combinar el procesamiento vectorial con el procesamiento serie. Las operaciones de punto flotante son demasiado complejos, pues requieren de muchos pasos, y cualquier operación de pasos múltiples es candidata a su procesamiento en serie. 
Normalmente, las supercomputadoras tienen varias ALU, cada una especializada para una operación en particular y todas capaces de trabajar en paralelo. Como ejemplo, considérese a la Cray-1, la primera supercomputadora del mundo. Aunque no es de las más recientes tiene una arquitectura simple de tipo RISC que la hace ser un buen sujeto de estudio. No es un accidente que la Cray-1 tenga un gran parecido con la CDC 6600. Ambas fueron diseñadas por Seymour Cray, uno de los fundadores de CDC y su arquitecto en jefe hasta que renunció para formar su propia compañía , Cray Research.
La Cray-1 está orientada a los registros, con la mayor parte de las instrucciones de 16 bits consistentes en un código de operación de 7 bits y 3 bits para indicar el número de registro para cada uno de los tres operandos. Como se puede apreciar en la figura 4, existen cinco tipos de registros. Los ocho registros A de 24 bits se usan para direccionar la memoria. Los 64 registros B 24 bits se utilizan para almacenar los registros A cuándo éstos no se necesitan, en lugar de escribirlos de nuevo a memoria. Los ocho registros S de 64 bits se emplean para contener cantidades escalares, tanto enteras como de punto flotante. Los valores en estos registros se pueden usar como operandos en ambos tipos de operaciones . Los 64 registros T de 64 bits son un almacenamiento extra para los registros S, una vez más reducir el número de instrucciones de carga y almacenamiento.
La parte más interesante del conjunto de registros de la Cray-1 es el grupo de ocho registros de vector. Cada uno de los cuales puede contener un vector de punto flotante de 64 elementos. Se puede sumar, resta o multiplicar dos vectores con una instrucción de 16 bits. La división no es posible, pero se pueden calcular recíprocos.
Todas las operaciones con vectores utilizan operandos de registros.
No todas las supercomputadoras tienen esta propiedad de tipo RISC de requerir que todos los operandos se encuentren en registros. Por ejemplo, la CDC 205 realiza sus operaciones con vectores en memoria.
La Cray-1 tiene 12 unidades funcionales, dos unidades son para aritmética de direcciones de 24 bits y cuatro para operaciones enteras en escalares de 64 bits.
La Cray-1 no tiene una unidad para efectuar multiplicaciones de enteros. Las seis unidades restantes trabajan todas con vectores y en serie. La suma, la multiplicación y las unidades de recíprocos trabajan también sobre números escalares de punto flotante lo mismo que con vectores.
Como muchas otras computadoras de vector, la Cray-1 permite el encadenamiento de operaciones.
R1:= R1*R2+R3
Donde R1, R2 y R3 son todos los registros de vector, sería realizar la multiplicación de vectores, elemento por elemento, almacenar el resultado en alguna parte después hacer la suma de vectores. 
Superaplicaciones Para Las Supercomputadoras
Las supercomputadoras se conocen tanto por sus aplicaciones como por su velocidad o capacidad de computación, que puede ser 10 veces mayor que la de una macrocomputadora. Las siguientes aplicaciones son representativas de las supercomputadoras:
* Las supercomputadoras ordenan y analizan grandes cantidades de datos sísmicos que se recopilan durante las exploraciones en busca de yacimientos petrolíferos.
* Las supercomputadoras permiten la simulación de una corriente de aire alrededor de un avión a diferentes velocidades y altitudes.
* Los fabricantes de automóviles usan supercomputadoras para simular accidentes automovilísticos en pantallas de video. (Es menos costoso, permite conocer más detalles y es más seguro que desarrollar un choque real).
* Los físicos usan supercomputadoras para estudiar los resultados de explosiones de armas nucleares.
* Los meteorólogos usan supercomputadoras para estudiar la formación de tornados.
* Los estudios de producción de Hollywood usan gráficos avanzados para crear efectos especiales para películas y comerciales de televisión.
* Analizar el comportamiento de fluidos, diseñar piezas aerodinámicas
La simulación empleando superordenadores complementa (cuando no reemplaza) cada vez más a los experimentos y a los modelos a escala en un amplio rango de aplicaciones científicas, de ingeniería y comerciales. En algunas áreas industriales, tales como el diseño de aviones, vehículos espaciales, grandes estructuras resistentes, barcos y coches es ya una necesidad ineludible. En otras, los científicos e ingenieros están realizando grandes avances en el diseño de moléculas para medicamentos, enzimas, catalizadores y nuevos materiales. 
El tiempo transcurrido desde la concepción de un nuevo producto hasta su introducción en el mercado y el coste de su proceso de diseño pueden reducirse drásticamente con la ayuda de la simulación por ordenador. Todo esto, combinado con la exactitud alcanzada en reproducir la realidad, tiene el efecto de aumentar substancialmente la competitividad de la industria al reducir costes y mejorar la calidad. Al mismo tiempo hay áreas donde los superordenadores deben utilizarse para establecer los métodos y modelos de simulación física más eficientes.
Todas estas aplicaciones son poco viables, sino es que imposibles, en las macrocomputadoras.
Rara vez se requieren las supercomputadoras para el procesamiento administrativo limitado a entradas / salidas, el procesamiento de la nómina o la contabilidad. Hacerlo sería desaprovechar un recurso de alto costo y relativamente escaso. 
Ejemplos
A continuación se explican algunos ejemplos de interés
La gestión del Medio Ambiente (atmósfera/agua/tierra) y la predicción del cambio climático es un ejemplo característico. Distintas organizaciones gubernamentales ya han invertido grandes sumas en nuevas técnicas para observar la atmósfera y el océano y en nuevos programas de investigación enfocados a evaluar el efecto del genero humano en el ambiente. 
Así es bien conocido, que los modelos numéricos de la atmósfera y el océano juegan un papel importante en el estudio del clima. Sin embargo, por ejemplo, la evaluación completa de la respuesta global y regional del efecto invernadero debido al aumento de la concentración de gases proveniente de fuentes antropogénicas, requerirá el uso de modelos climáticos más sofisticados que los existentes. Hoy en día se requieren aumentos significativos en la precisión y el uso de modelos computacionales de la física y la química mucho más precisos y con un mayor costo computacional.
Otro ejemplo típico es el diseño de nuevas moléculas o materiales y es básico para las industrias química y farmacéutica. Combinado con desarrollos en biotecnología, se pueden diseñar y producir nuevas proteínas, obteniéndose nuevos productos que tendrán impacto en la vida cotidiana. Las estrategias tradicionales para el diseño de nuevos componentes involucra métodos inteligentes de prueba y error. La modelización computacional está tan solo comenzando a hacer impacto en el proceso de diseño. Sin embargo, este diseño aún consume mucho tiempo y dinero. Un aumento considerable en potencia computacional es necesario para acelerar el diseño de nuevos productos, lo que permitirá un mayor nivel de competitividad en nuestra industria química. 
Al desarrollarse totalmente, los modelos computacionales incorporarán una combinación de simulación, búsqueda en bases de datos y visualización, y ahorrarán al diseñador tiempo de experimentación en laboratorio con la consiguiente reducción de coste. Ello requerirá aumentar al menos mil veces la potencia computacional disponible actualmente. Se prevé que la aplicación de las técnicas de modelación molecular a este nivel será imperativo para que las industrias químicas, farmacéutica y biotecnológica puedan seguir siendo innovadoras y competitivas a nivel internacional.
La optimización es otro ejemplo de la necesidad de disponer de modelos matemáticos precisos de la realidad y ordenadores potentes. La optimización es una aplicación relativamente nueva para los superordenadores y es cada vez más importante en las operaciones de grandes industrias y compañías de servicio. La solución de grandes problemas de optimización es casi siempre crítica: las decisiones deben tomarse en tiempo real para responder a situaciones que evolucionan rápidamente. 
La diferencia entre buenas soluciones de estos problemas y soluciones óptimas o cercanas a la óptima, pueden significar el ahorro de grandes sumas de dinero. Las principales aplicaciones de la optimización incluyen el diseño de formas estructurales complejas, la planificación de la inversión, la planificación y distribución de la producción, el trazado de carreteras, la planificación de rutas y de personal, etc. La ayuda de los superordenadores a través de una mejor interacción investigador-ordenador da un realce esencial al poder creativo del ser humano y permite incorporar a las decisiones de diseño un mayor conjunto de elementos concretos de importancia técnica, económica y empresarial.
El mercado de los superordenadores ha crecido de manera que cada vez son más los fabricantes de computadoras que se dedican al diseño de superordenadores, algunos de ellos son:
* CRAY INCORPORATION
* IBM
* INTEL
* ISGI
* HITACHI
* COMPAQ
* FUJITSU
* SUN
* NEC
* HEWLETT PACKARD
Cray Incorporation
Cray Inc. creada en Marzo del 2000 de la unión de Tera Computer Company y Cray Research, es un líder en el mercado de las supercomputadoras. Cray Inc. Se dedica a ayudar a los usuarios a resolver la mayoría de los problemas de computación más cruciales sobre la tierra, diseñando los carros y camiones que conducimos, creando nuevos materiales para el descubrimiento de nuevas medicinas. Prediciendo severos cambios del clima y en infinidad de problemas más. 
La compañía Cray comienza en el año 1972, cuando el legendario Seymor Cray, conocido como el “padre de las supercomputadoras” fundó Cray Research en Wisconsin. 
El primer sistema Cray-1 fue instalado en el Laboratiorio “Los Alamos” en 1976 por $8.8 millones de dólares, teniendo la capacidad de 160 millones de operaciones de punto flotante por segundo (160 megaflops) y con 8 megabytes en memoria principal. Para poder incrementar la velocidad de este sistema, la supercomputadora Cray-1 tenía una forma única en “C” que permitía que los circuitos integrados estuvieran más juntos. Ningún cable del sistema medía mas de 4 pies de largo. Para controlar el intenso calor generado por la computadora, Cray elaboró un innovador sistema de refrigeración utilizando Freon.
La compañìa Cray elaboro el primer multiprocesdador de la supercomputadora, el Cray X-MP que fue introducido en 1982. El sistema Cray-2 apareciò en 1985 superando al Cray-1.
Supercómputo en la UNAM
Para llevar a cabo una investigación científica y desarrollo tecnológico de una manera competitiva se requieren de servicios de cómputo modernos. 
Con el propósito de proporcionar este tipo de servicios a la comunidad universitaria y productiva del país la Universidad Nacional Autónoma de México puso en operación en 1991 una supercomputadora CRAY Y-MP/432 y un Laboratorio de Visualización. 
Estos servicios están disponibles a traés de la RedUNAM los investigadores, profesores y estudiantes de la UNAM, así como a los miembros de las instituciones de investigación y educación superior de todo el país. Están también disponibles, a través de convenios específicos, a las industrias que los requieran para llevar a cabo investigación, desarrollo y producción. 
El personal de la Dirección General de Servicios de Cómputo Académico (DGSCA) que se encarga de estos servicios proporciona asesoría en el uso de compiladores y paquetes que requieran los usuarios. También se ocupan de analizar los problemas que se les planteen para determinar si el uso de supercómputo y visualización son necesarios para su solución. 
CRAY Y-MP4/464

Aspectos Físicos: 
La supercomputadora Cray se compone de varios gabinetes: el CPU, las unidades de disco, la unidad de refrigeración y la unidad de control de energía y refrigeración. El CPU ocupa un área de 1.5 m., pesa 2,450 kg. y mide 1.9 m. de altura. 
Características: 
* El equipo instalado tiene 4 procesadores diseñados con capacidad para trabajar en paralelo y realizar operaciones matemáticas escalares o vectoriales. 
* La memoria central del CPU es de 32 Megapalabras (1 palabra=64 bits), además existe una memoria temporal (Buffer Memory) de 4 Mp (32MB); ésta sirve como interfaz entre los procesadores y los subsistemas restantes del CPU. 
Sistema Operativo: 
El sistema operativo de CRAY es UNICOS 7.0, el cual está basado en UNIX. Dicho sistema operativo tiene capacidad de multiproceso y multiprogramación así como un sistema de archivos distribuido en diferentes unidades físicas. 
CRAY-ORIGIN 2000
En enero de 1997, arribó a la Dirección General de Servicios de Cómputo Académico, la nueva supercomputadora "CRAY-ORIGIN 2000" de Silicon Graphics. 
Características: 
* 40 Procesadores MIPS RISC R 10000 64-bit a 195 MHZ. 
* 10 Gb en memoria RAM. 
* 171 Gb de espacio en disco. 
* 13.6 GFlops pico (contra los 1.2 GFlops de la CRAY Y-P4/464). 
Una característica muy importante, es que este nuevo tipo de procesadores pertenecen a la tecnología CMOS, los cuales requieren solamente enfriamiento por aire a 15 grados centígrados y no una compleja instalación de enfriamiento con Fluorinert, como la que usa la actual supercomputadora, por lo cual el mantenimiento es mínimo. 
Esta máquina es la supercomputadora más grande de América Latina y una de las más grandes del mundo, con lo que la UNAM vuelve a estar a la vanguardia de la tecnología como lo estuvo en la época en la que se adquirió la CRAY-YMP 4/464. Esta nueva supercomputadora estará muy pronto a la disposición de la comunidad universitaria para el desarrollo de investigaciones de primer nivel.
TOP 10 DE SUPERCOMPUTADORAS
(Los superordenadores más rápidos del mundo)

TOP500.org es una organización que mide la incidencia, potencia, capacidad y otras propiedades que son de caracter relevante para la industria de la computación a gran escala, y en este caso los superordenadores que se construyen en diferentes partes del mundo son sus objetivos principales. Sobre estos se hacen test y evaluaciones de nivel profundo a través del método Linpack, que obliga al superordenador a resolver un sistema de ecuaciones lineales de alta densidad. El resultado se computa, se evalua y se contextualiza para crear un listado de aquellos ordenadores que resolvieron de manera más eficiente y rápida este tipo de problemas puntuales. Desde ahí sale este Top 10 de los superordenadores más rápidos del mundo.


  • Fabricante: Cray Inc
  • Ubicación: Estados Unidos, NNSA
  • Sistema Operativo: Linux
  • Procesador: AMD x86_64 Opteron 8 Core 2400 MHz (9.6 GFlops)
  • Ordenador central: Cray XE6 8-core 2.4 GHz (107152 Procesadores)
  • Capacidad: 816 TFlops / 1 PFlop teórico
  • Puesta en Funcionamiento:  2010
Uso principal y detalles: Es increíble que este superordenador pueda estar último en alguna lista, pues su capacidad es tal que se le han asignado varias tareas de carácter confidencial, pero que según ha trascendido podrían estar relacionadas a la búsqueda de focos terroristas con procesamiento de imágenes digitales y construcción de diferentes estrategias para resguardar material nuclear. Inclusive se le han asignado misiones militares de urgencia en caso de desastre nuclear y otras aplicaciones de carácter científico-militar.



9) JUGENE


  • Fabricante: IBM
  • Ubicación: Alemania, Forschungszentrum Juelich (FZJ)
  • Sistema Operativo: CNK/SLES 9
  • Procesador: PowerPC 450 850 MHz (3.4 GFlops) (294912 Procesadores)
  • Ordenador central: PowerPC 450 850 MHz (3.4 GFlops)
  • Capacidad: 825 TFlops / 1 PFlop teórico
  • Costo: no indicado
  • Puesta en Funcionamiento:  2009
Uso principal y detalles: De la familia de IBM BlueGene, este superordenador civil es uno de los de menor consumo en el rubro, y con cuya característica se presenta como un modelo a seguir por los futuros ordenadores. Su utilización está llevada a cabo por disímiles proyectos, pero que en general están ubicados dentro de la física de partículas, medicina, estudios climáticos, sismología y matemáticas aplicadas. Su ubicación en el centro Jülich de supercomputación es fundamental para la industria del país germano y tanto por su ecología como por sus capacidades esta máquina está en constante actualización.
TOP 10: Los superordenadores más rápidos


  • Fabricante: Cray Inc.
  • Ubicación: Estados Unidos, National Energy Research Scientific Computing Center
  • Sistema Operativo: Linux
  • Procesador: AMD x86_64 Opteron Six Core 2600 MHz (10.4 GFlops)
  • Ordenador central: Cray XT5-HE Opteron 6-core 2.6 GHz (112.896 procesadores)
  • Capacidad: 831 TFlops / 1.17 PFlop teórico
  • Puesta en Funcionamiento: 2009
Uso principal y detalles: Es el octavo superordenador más rápido del mundo, pero la más rápida en cuanto a utilización para fines académicos y los hace con sus 8256 nodos computacionales provistos cada uno de un 2.6gz de 12 núcleos con 16 gb de memoria. Sus áreas de incumbencia son las relacionadas a la computación en general y al uso de esta información por el ambiente académico, por lo que su importancia para el mundo de la ciencia es doblemente relevante.
TOP 10: Los superordenadores más rápidos

  • Fabricante: IBM
  • Ubicación: Ubicación: Estados Unidos, (Nueva Mexico) en el LANL
  • Sistema Operativo: Linux
  • Procesador: PowerXCell 8i 3200 MHz (12.8 GFlops) (122400 procesadores)
  • Ordenador central: BladeCenter QS22/LS21 Cluster, PowerXCell 8i 3.2 Ghz / Opteron DC 1.8 GHz, Voltaire Infiniband
  • Capacidad: 1PFlops / 1.3 PFlop teórico
  • Puesta en Funcionamiento: 2009
 
Uso principal y detalles: Desde su instalación, IBM destacó que las posibilidades de este superordenador superaban las propias expectativas militares para el cual fue construido, dando lugar a tareas de índole civil como la investigación científica orientada a las ciencias médicas, físicas y hasta la plataforma adecuada para estudios de mejora ambiental y desarrollo sustentable. 
TOP 10: Los superordenadores más rápidos

6) Tera-100


  • Fabricante: Bull SA.
  • Ubicación: Francia, Commissariat a l'Energie Atomique (CEA)
  • Sistema Operativo: Linux
  • Procesador: Intel Xeon 7500 processor (138368
  • Procesadores)
  • Ordenador central: Bull bullx super-node S6010/S6030
  • Capacidad: 1 PFlops / 1.2 PFlop teórico
  • Costo: no indicado
  • Puesta en Funcionamiento: 2010
Uso principal y detalles: Con la caída de los famosos superordeandores españoles del tope de los puestos importantes de la lista de los superordenadores más rápidos del mundo, Europa quedó poco representada hasta la llegada del Tera-100. Este mastodonte informático se dedica a realizar simulaciones en programas de defensa ante eventos nucleares y situaciones de riesgo mundial. Como dato extra, desde el cuartel donde está ubicada señalan que su capacidad de almacenamiento corresponde a más de 25 mil millones de libros. Casi nada.
TOP 10: Los superordenadores más rápidos

5) Hopper


  • Fabricante: Cray Inc
  • Ubicación: Estados Unidos, National Energy Research Scientific Computing Center
  • Sistema Operativo: Linux
  • Procesador: AMD x86_64 Opteron 12 Core 2100 MHz (8.4 GFlops) (153408 procesadores)
  • Ordenador central: Cray XE6 12-core 2.1 GHz
  • Capacidad: 1 pflops / 1.2 pflops teóricos
  • Puesta en Funcionamiento: 2010
Uso principal y detalles: La investigación científica en astronomía, medicina, clima, matemáticas es materia de adopción en este superordenador que fue uno de los más nombrados hace un tiempo porque rompió con la barrera del petaflop, llevando la capacidad de procesamiento a un nivel histórico. Sus principales usos están orientados a la aceleración de descubrimientos científicos trabajando en conjunto con otros superordenadores de menor potencia, como el DaVinci, Magellan, Franklin, PDSF, etc. Se constituyó como uno de los orgullos estadounidenses en materia computacional.
TOP 10: Los superordenadores más rápidos


  • Fabricante: NEC/HP
  • Ubicación:Japón (Tookyo) GSIC Center, Tokyo Institute of Technology
  • Sistema Operativo: Linux
  • Procesador: Intel EM64T Xeon X56xx (Westmere-EP) 2930 MHz (11.72 GFlops)
  • Ordenador central: HP ProLiant SL390s G7 Xeon 6C X5670, Nvidia GPU
  • Capacidad: 1.1 PF
  • Costo: 30.000.000 U$D
  • Puesta en Funcionamiento: Octubre 2010
Uso principal y detalles: NVIDIA se encarga de gran parte de este superordenador con sus GPU de propósito general TESTLA, y el rendimiento que la unión entre diferentes fabricantes le ha brindado al representante japonés en los superordenadores más rápidos, está enfocado en la resolución de matrices coorporativas y tecnológicas, análisis de condiciones atmosféricas, particularidades físicas y estudio del suelo entre otras muchas aplicaciones prácticas. La familia Tsubame ha ido creciendo exponencialmente desde el 2006, y en cada actualización logran mejorar su performance hasta 30 veces por ciento más.
TOP 10: Los superordenadores más rápidos

3) Nebulae


  • Fabricante: Akira Akebono (Dawning)
  • Ubicación: China (Shenzhen) en el National Supercomputing Centre in Shenzhen (NSCS)
  • Sistema Operativo: Linux
  • Procesador: Intel EM64T Xeon X56xx (Westmere-EP) 2660 MHz (10.64 GFlops) (120.640 procesadores)
  • Ordenador Central: Dawning TC3600 Blade, Intel X5650, NVidia Tesla C2050 GPU
  • Capacidad: 1.27 PFlops / 2.9 PF teóricos
  • Puesta en Funcionamiento: 2010
Uso principal y detalles: Si bien ya ha quedado debajo de otro invento chino, este superordenador sigue siendo uno de los más grandes orgullos del país por lo rápido que creció basándose en l. La tecnología que lo compone está basada en la unión óptima entre el trabajo de los procesadores y la aceleración gráfica. Como el sur de China es el principal centro de la industria tecnológica del gigante asiático, un superordenador como este se utiliza para investigación de nuevas tecnologías aplicadas y gestión de materias primas.
TOP 10: Los superordenadores más rápidos

  • Fabricante: Cray
  • Ubicación: Estados Unidos (Tenessee), en el DOE/SC/Oak Ridge National Laboratory
  • Sistema Operativo: Linux
  • Procesador: AMD x86_64 Opteron Six Core 2600 MHz (10.4 GFlops) (186.368 procesadores)
  • Ordenador Central: Cray XT5-HE Opteron 6-core 2.6 GHz
  • Capacidad: 1.75 PFlops / 2.3 PF teóricos.
  • Costo:  104.000.000 U$D
  • Puesta en funcionamiento: Noviembre 2009 
Uso principal y detalles: Hijo pródigo del superordenador Cray XT4 de la familia Cray XT, el Jaguar alcanza una velocidad sostenida de 1,75 petaFLOPS, con picos de 2,33 petaFLOPS Sus objetivos de aplicación son infinitos dadas sus capacidades, pero lo más común es su uso para pronóstico del clima, energías renovables, la ciencia de los materiales y la fusión nuclear, sismología, entre otros. Decididamente, el nombre Jaguar le queda bien a este superordenador, aunque  corriendo delante suyo tiene a un guepardo. Más sobre Jaguar en Neoteo.
TOP 10: Los superordenadores más rápidos

1) Tianhe-1A


  • Fabricante: Defence Science and Technology University
  • Ubicación: China (Tianjin) en el National Supercomputing Center in Tianjin
  • Sistema Operativo: Linux
  • Procesador: Intel EM64T Xeon X56xx (Westmere-EP) 2930 MHz (11.72 GFlops) (186368 procesadores)
  • Ordenador Central: NUDT TH MPP, X5670 2.93Ghz 6C, NVIDIA GPU, FT-1000 8C
  • Capacidad: 2.56 PFlops / 4.7 PF teóricos.
  • Costo: 88.000.000U$D

Puesta en funcionamiento: Octubre 2010
Uso principal y detalles: Desde Octubre del 2010, el Tianhe-1A se ha convertido en el ganador –temporario- del primer puesto en los superordenadores más rápidos del mundo y su área de aplicación es la que corresponde, como ya es regla, a la investigación. Sus usos están enfocados a la simulación aérea, definición de marcos y acumulación de datos para la extracción petróleo, y también para el análisis meteorológico entre otros. Su velocidad teórica es de 4.7 petaflops/s pero en la práctica y manteniendo niveles de eficiencia estables este monstruo chino de los cálculos se mueve a 2.5 pf/s. Así que incluso trabajando a la mitad de su capacidad ya se hizo del primer puesto, por lo que el listón puede estar bien arriba por mucho tiempo. Más cobertura aquí en Neoteo.


¿QUE CARACTERÍSTICAS POSEEN ESTAS SUPERMAQUINAS?


Las principales son:
  • Velocidad de procesacion : miles de millones de instrucciones de coma flotante por segundo.
  • Usuarios a la vez: hasta miles, en entorno de redes amplias.
  • Tamaño: requieren instalaciones especiales y aire acondicionado industrial.
  • Dificultad de uso: solo para especialistas.
  • Clientes usuales: grandes centros de investigación.
  • Penetración social: prácticamente nula.
  • Impacto social: muy importante en el ámbito de la investigación, ya que provee cálculos a alta velocidad de procesamiento, permitiendo, por ejemplo, calcular en secuencia el genoma humano, número π, desarrollar cálculos de problemas físicos dejando un margen de error muy bajo, etc.
  • Parques instalados: menos de un millar en todo el mundo.
  • Hardware : Principal funcionamiento operativo

¿CUALES SON SUS PRINCIPALES USOS?


Las supercomputadoras se utilizan para abordar problemas muy complejos o que no pueden realizarse en el mundo físico bien, ya sea porque son peligrosos, involucran cosas increíblemente pequeñas o increíblemente grandes. A continuación damos algunos ejemplos:
  • Mediante el uso de supercomputadoras, los investigadores modelan el clima pasado y el clima actual y predicen el clima futuro .
  • Los astrónomos y los científicos del espacio utilizan las supercomputadoras para estudiar el Sol y el clima espacial.
  • Los científicos usan supercomputadoras para simular de qué manera un tsunami podría afectar una determinada costa o ciudad.
  • Las supercomputadoras se utilizan para simular explosiones de supernovas en el espacio.
  • Las supercomputadoras se utilizan para probar la aerodinámica de los más recientes aviones militares.
  • Las supercomputadoras se están utilizando para modelar cómo se doblan las proteínas y cómo ese plegamiento puede afectar a la gente que sufre la enfermedad de Alzheimer, la fibrosis quística y muchos tipos de cáncer.
  • Las supercomputadoras se utilizan para modelar explosiones nucleares, limitando la necesidad de verdaderas pruebas nucleares.

No hay comentarios:

Publicar un comentario