viernes, 4 de abril de 2014

ABUELA ARRUGADA MENSA

MODELO OSI

El modelo de Interconexión de Sistemas Abiertos (OSI, Open System Interconection) lanzado en 1984 fue el modelo de red descriptivo creado por ISO. Proporcionó a los fabricantes un conjunto de estándares que aseguraron una mayor compatibilidad e interoperabilidad entre los distintos tipos de tecnología de red producidos por las empresas a nivel mundial.

Siguiendo el esquema de este modelo se crearon numerosos protocolos que durante muchos años ocuparon el centro de la escena de las comunicaciones informáticas. El advenimiento de protocolos más flexibles, donde las capas no están tan demarcadas y la correspondencia con los niveles no es tan clara, puso a este esquema en un segundo plano. Sin embargo sigue siendo muy usado en la enseñanza como una manera de mostrar como puede estructurarse una "pila" de protocolos de comunicaciones.

El modelo en sí mismo no puede ser considerado una arquitectura, ya que no especifica el protocolo que debe ser usado en cada capa, sino que suele hablarse de modelo de referencia. Este modelo está dividido en siete niveles


  • QUE SON LOS SIGUIENTES  



Historia
Redes informáticas/Modelo OSI de ISO/Historia
A principios de la década de 1980 el desarrollo de redes fue desordenado. Se produjo un enorme crecimiento en la cantidad y el tamaño de las redes. A medida que las empresas tomaron conciencia de las ventajas de usar tecnologías de conexión, las redes se agregaban o expandían a casi la misma velocidad a la que se introducían las nuevas tecnologías de red.

Para mediados de la década de 1980, estas empresas comenzaron a sufrir las consecuencias de la rápida expansión. De la misma forma en que las personas que no hablan un mismo idioma tienen dificultades para comunicarse, las redes que utilizaban diferentes especificaciones e implementaciones tenían dificultades para intercambiar información. El mismo problema surgía con las empresas que desarrollaban tecnologías de conexiones privadas o propietarias. "Propietario" significa que una sola empresa o un pequeño grupo de empresas controlan todo uso de la tecnología. Las tecnologías de conexión que respetaban reglas propietarias en forma estricta no podían comunicarse con tecnologías que usaban reglas propietarias diferentes.

Para enfrentar el problema de incompatibilidad de redes, la Organización Internacional para la Estandarización (ISO) investigó modelos de conexión como la red de Digital Equipment Corporation (DECnet), la Arquitectura de Sistemas de Red (SNA) y TCP/IP a fin de encontrar un conjunto de reglas aplicables de forma general a todas las redes. Con base en esta investigación, la ISO desarrolló un modelo de red que ayuda a los fabricantes a crear redes que sean compatibles con otras redes.

NIVEL DE APLICACION

Provee servicios de red comunicaciones) a las aplicaciones del usuario Realiza el intercambio de “datos”

Ofrece a las aplicaciones (de usuario o no) la posibilidad de acceder a los servicios de las demás capas y define los protocolos que utilizan las aplicaciones para intercambiar datos, como correo electrónico (POP y SMTP), gestores de bases de datos y protocolos de transferencia de archivos (FTP)

Cabe aclarar que el usuario normalmente no interactúa directamente con el nivel de aplicación. Suele interactuar con programas que a su vez interactúan con el nivel de aplicación pero ocultando la complejidad subyacente. Así por ejemplo un usuario no manda una petición "HTTP/1.0 GET index.html" para conseguir una página en html, ni lee directamente el código html/xml. O cuando chateamos con el Messenger, no es necesario que codifiquemos la información y los datos del destinatario para entregarla a la capa de Presentación (capa 6) para que realice el envío del paquete.

En esta capa aparecen diferentes protocolos:


  • FTP (File Transfer Protocol - Protocolo de Transferencia de Archivos) para transferencia de archivos.
  • DNS (Domain Name Service - Servicio de Nombres de Dominio)
  • DHCP (Dynamic Host Configuration Protocol - Protocolo de Configuración Dinámica de Anfitrión)
  • HTTP (HyperText Transfer Protocol) para acceso a páginas de internet.
  • NAT (Network Address Translation - Traducción de Dirección de Red)
  • POP (Post Office Protocol) para correo electrónico.
  • SMTP (Simple Mail Transport Protocol).
  • SSH (Secure SHell)
  • TELNET para acceder a equipos remotos
  • TFTP (Trival File Transfer Protocol).


NIVEL DE PRESENTACIÓN

El objetivo de la capa de presentación es encargarse de la representación de la información, de manera que aunque distintos equipos puedan tener diferentes representaciones internas de caracteres (ASCII, Unicode, EBCDIC números (little-endian tipo Intel, big-endian tipo Motorola), sonido o imágenes, los datos lleguen de manera reconocible.

Esta capa es la primera en trabajar más el contenido de la comunicación que cómo se establece la misma. En ella se tratan aspectos tales como la semántica y la sintaxis de los datos transmitidos, ya que distintas computadoras pueden tener diferentes formas de manejarlas.

Por lo tanto, podemos resumir definiendo a esta capa como la encargada de manejar las estructuras de datos abstractas y realizar las conversiones de representación de datos necesarias para la correcta interpretación de los mismos.

Esta capa también permite cifrar los datos y comprimirlos. Actúa como traductor.


NIVEL DE SESIÓN

Es el quinto nivel del modelo OSI , que proporciona los mecanismos para controlar el diálogo entre las aplicaciones de los sistemas finales. En muchos casos, los servicios de la capa de sesión son parcialmente, o incluso, totalmente prescindibles. No obstante en algunas aplicaciones su utilización es ineludible.

La capa de sesión proporciona los siguientes servicios:

Control del Diálogo: Éste puede ser simultáneo en los dos sentidos (full-duplex) o alternado en ambos sentidos (half-duplex).

Agrupamiento: El flujo de datos se puede marcar para definir grupos de datos.

Recuperación: La capa de sesión puede proporcionar un procedimiento de puntos de comprobación, de forma que si ocurre algún tipo de fallo entre puntos de comprobación, la entidad de sesión puede retransmitir todos los datos desde el último punto de comprobación y no desde el principio.

Todas estas capacidades se podrían incorporar en las aplicaciones de la capa 7. Sin embargo ya que todas estas herramientas para el control del diálogo son ampliamente aplicables, parece lógico organizarlas en una capa separada, denominada capa de sesión.

La capa de sesión surge como una necesidad de organizar y sincronizar el diálogo y controlar el intercambio de datos.

La capa de sesión permite a los usuarios de máquinas diferentes establecer sesiones entre ellos. Una sesión permite el transporte ordinario de datos, como lo hace la capa de transporte, pero también proporciona servicios mejorados que son útiles en algunas aplicaciones. Se podría usar una sesión para que el usuario se conecte a un sistema remoto de tiempo compartido o para transferir un archivo entre dos máquinas.




NIVEL DE TRANSPORTE


a capa de transporte es el cuarto nivel del modelo OSI encargado de la transferencia libre de errores de los datos entre el emisor y el receptor, aunque no estén directamente conectados, así como de mantener el flujo de la red. Es la base de toda la jerarquía de protocolo. La tarea de esta capa es proporcionar un transporte de datos confiable y económico de la máquina de origen a la máquina destino, independientemente de la red de redes física en uno. Sin la capa transporte, el concepto total de los protocolos en capas tendría poco sentido.
Objetivo
El objetivo de la capa transporte es proporcionar un servicio eficiente, confiable y económico a sus usuarios, que normalmente son procesos de la capa aplicación. Para lograr este objetivo, la capa transporte utiliza los servicios proporcionados por la capa de red. El hardware o software de la capa transporte que se encarga del trabajo se llama entidad de transporte, la cual puede estar en el núcleo del sistema operativo, en un proceso independiente, en un paquete de biblioteca o en la tarjeta de red.
Servicios
Hay dos tipos de servicio en la capa transporte, orientado y no orientado a la conexión. En el servicio orientado a la conexión consta de tres partes: establecimiento, transferencia de datos, y liberación. En el servicio no orientado a la conexión se tratan los paquetes de forma individual.
Es la primera capa que lleva a cabo la comunicaciòn extremo a extremo, y esta condición ya se mantendrá en las capas superiores.
Para permitir que los usuarios accedan al servicio de transporte, la capa de transporte debe proporcionar algunas operaciones a los programas de aplicación, es decir, una interfaz del servicio de transporte. Cada servicio de transporte tiene su propia interfaz. Con el propósito de ver los aspectos básicos, en esta sección examinaremos primero un servicio de transporte sencillo y su interfaz.
El servicio de transporte es parecido al servicio en red, pero hay algunas diferencias importantes. La principal, es que, el propósito del servicio de red es modelar el servicio ofrecido por las redes reales, con todos sus problemas. Las redes reales pueden perder paquetes, por lo que generalmente el servicio no es confiable. En cambio, el servicio de transporte(orientado a la conexión) si es confiable. Claro que las redes reales no están libres de errores, pero ése es precisamente el propósito de la capa de transporte: ofrecer un servicio confiable en una red no confiable.
Otra diferencia entre la capa transporte y la de red es a quien van dirigidos sus servicios. El servicio de red lo usan únicamente las entidades de transporte. Pocos usuarios escriben sus entidades de transporte y pocos usuarios o programas llegan a ver los aspectos internos del servicio de red. En cambio, muchos programas ven primitivas de transporte. En consecuencia el servicio de transporte debe ser adecuado y fácil de usar.
Primitivas
Las primitivas de un transporte sencillo serían:
- LISTEN: Se bloquea hasta que algún proceso intenta el contacto.
- CONNECT: Intenta activamente establecer una conexión.
- SEND: Envia información.
- RECEIVE: Se bloque hasta que llegue una TPDU de DATOS.
- DISCONNECT: Este lado quiere liberar la conexión.
Y con estas primitivas podemos hacer un esquema sencillo de manejo de conexiones. Las transiciones escritas en cursiva son causadas por llegadas de paquetes. Las líneas continuas muestran la secuencia de estados del cliente y las líneas punteadas muestran la secuencia del servidor.
Implementación
El servicio de transporte se implementa mediante un protocolo de transporte entre dos entidades de transporte. En ciertos aspectos, los protocolos de transporte se parecen a los protocolos de red. Ambos se encargan del control de errores, la secuenciación y el control del flujo.
Pero también existen diferencias importantes entre ambas, como los entornos en que operan, la capa transporte necesita el direccionamiento explícito de los destinos, mientras que la capa de red no, otra diferencia es la cantidad de datos, mucho mayor en la capa de transporte que en la de enlace de datos.
Cuando un proceso desea establecer una conexión con un proceso de aplicación remoto, debe especificar a cuál se conectará. (¿a quién mandó el mensaje?) El método que normalmente se emplea es definir direcciones de transporte en las que los procesos pueden estar a la escucha de solicitudes de conexión. En Internet, estos puntos terminales se denominan puertos, pero usaremos el término genérico de TSAP (Punto de Acceso al Servicio de Transporte). Los puntos terminales análogos de la capa de red se llaman NSAP (Punto de Acceso al Servicio de Red). Las direcciones IP son ejemplos de NSAPs.
Establecimiento de una conexión
El establecimiento de una conexión parece fácil, pero en realidad es sorprendentemente difícil. A primera vista, parecería que es suficiente con mandar una TPDU (Unidad de Datos del Protocolo de Transporte) con la petición de conexión y esperar a que el otro acepte la conexión. El problema viene cuando la red puede perder, almacenar, o duplicar paquetes. El principal problema es la existencia de duplicados retrasados. Esto puede solucionarse de varias maneras (ninguna es muy satisfactoria). Una es utilizar direcciones de transporte desechables. En este enfoque cada vez que necesitemos una dirección la creamos. Al liberarse la conexión descartamos la dirección y no se vuelve a utilizar. O también asignar una secuencia dentro de los datos transmitidos, pero estos plantean los problemas de que si se pierde la conexión perdemos el orden del identificador y ya no funciona. Pero la solución seria más fácil si los paquetes viejos se eliminaran de la subred cada cierto tiempo de vida. Para ello podemos utilizar las siguientes técnicas: Un diseño de subred Restringido. Colocar un contador de saltos en cada paquete. Marcar el tiempo de cada paquete. Pero en la práctica no vale solo con hacer esto sino que tenemos que garantizar que todas las confirmaciones de los paquetes también se eliminan.
Liberación de una conexión
La liberación de una conexión es más fácil que su establecimiento. No obstante, hay más escollos de los que uno podría imaginar. Hay dos estilos de terminación de una conexión: liberación asimétrica y liberación simétrica. La liberación asimétrica es la manera en que funciona el mecanismo telefónico: cuando una parte cuelga, se interrumpe la conexión. La liberación simétrica trata la conexión como dos conexiones unidireccionales distintas, y requiere que cada una se libere por separado. La liberación asimétrica es abrupta y puede resultar en la perdida de datos. Por lo que es obvio que se requiere un protocolo de liberación más refinado para evitar la perdida de datos. Una posibilidad es usar la liberación simétrica, en la que cada dirección se libera independientemente de la otra. Aquí, un host puede continuar recibiendo datos aun tras haber enviado una TPDU de desconexión.
La liberación simétrica es ideal cuando un proceso tiene una cantidad fija de datos por enviar y sabe con certidumbre cuándo los ha enviado. En otras situaciones, la determinación de si se ha efectuado o no todo el trabajo y se debe terminarse o no la conexión no es tan obvia. Podríamos pensar en un protocolo en el que el host 1 diga:”Ya termine, ¿Terminaste también?”. Si el host 2 responde “Ya termine también. Adiós”, la conexión puede liberarse con seguridad.
Pero no es tan fiable por el problema de que siempre tendremos que esperar la confirmación de los mensajes recibidos y si esta confirmación no llega no libera la conexión y después puede que necesite la confirmación de que llego la confirmación y entraríamos en un bucle del que no podemos salir.
Podemos hacer que al host 1 si no le llega la confirmación después de N intentos (es que quiere la desconexión), se libere. Esto produce una conexión semiabierta en la que el host 1 está desconectado pero el host 2 no como no le llega la confirmación no se desconecta nunca. Para solucionar esto creamos una regla por la cual si al host 2 no le llega ninguna TPDU durante cierta cantidad de segundos, se libera automáticamente.
Manejo de una conexión
Ya examinamos la conexión y la desconexión, veamos la manera en que se manejan las conexiones mientras están en uso. Uno de los aspectos clave es el control de flujo. Necesitamos un esquema para evitar que un emisor rápido desborde a un receptor lento. La diferencia principal es que un enrutador por lo regular tiene relativamente pocas líneas, y un host puede tener numerosas conexiones. Esta diferencia hace poco practico emplear la implementación que se hace en la capa red.
En esta capa lo que se hace es, si el servicio de red no es confiable, el emisor debe almacenar en un buffer todas las TPDUs enviadas, igual que en la capa enlace de datos. Sin embargo, con un servicio de red confiable son posibles otros arreglos. En particular, si el emisor sabe que el receptor siempre tiene espacio de buffer, no necesita tener copias de las TPDUs que envía. Sin embargo, si el receptor no garantiza que se aceptará cada TPDU que llegue, el emisor tendrá que usar buffers de todas maneras. En el último caso, el emisor no puede confiar en la confirmación de recepción de la capa red porque esto sólo significa que ha llegado la TPDU, no que ha sido aceptada.
Los Buffers pueden ser de tres tipos, y usaremos cada uno de ellos cuando más nos convenga.
El equilibrio óptimo entre el almacenamiento del buffer en el origen y en el destino depende del tipo de trafico transportado por la conexión.
Multiplexión de conversaciones
La multiplexión de varias conversaciones en conexiones, circuitos virtuales o enlaces físicos desempeña un papel importante en diferentes capas de la arquitectura de red. En la capa de transporte puede surgir la necesidad de multiplexión por varias razones. Por ejemplo, si en un host sólo se dispone de una dirección de red, todas la conexiones de transporte de esa maquina tendrán que utilizarla. Cuando llega una TPDU, se necesita algún mecanismo para saber a cuál proceso asignarla. Esta situación se conoce como multiplexión hacia arriba.
La multiplexión también puede ser útil en la capa transporte para la utilización de circuitos virtuales, que dan más ancho de banda cuando se reasigna a cada circuito una tasa máxima de datos. La solución es abrir múltiples conexiones de red y distribuir el tráfico entre ellas. Esto se denomina multiplexión hacia abajo.
Recuperación ante caídas
Si los hosts y los enrutadores están sujetos a caídas, la recuperación es fundamental. Si la entidad de transporte está por entero dentro de los hosts, la recuperación de caídas de red y de enrutadores es sencilla. Si la capa de red proporciona servicio de datagramas, las entidades de transporte esperan pérdida de algunas TPDUs todo el tiempo, y saben cómo manejarla. Si la capa de red proporciona servicio orientado a la conexión, entonces la pérdida de un circuito virtual se maneja estableciendo otro nuevo y sondeando la entidad de transporte remota para saber cuales TPDUs ha recibido y cuales no.
Un problema más complicado es la manera de recuperarse de caídas del host. Al reactivarse, sus tablas están en el estado inicial y no sabe con precisión donde estaba.
En un intento por recuperar su estado previo, el servidor podría enviar una TPDU de difusión a todos los demás host, anunciando que se acaba de caer y solicitando a todos sus clientes que le informen el estado de todas la conexiones abiertas.
Internet tiene dos protocolos principales en la capa de transporte, uno orientado a la conexión y otro no orientado a la conexión. El protocolo no orientado a la conexión es el UDP y el orientado es el TCP. El conjunto de protocolos de Internet soporta un protocolo de transporte no orientado a la conexión UDP (protocolo de datagramas de usuario). Este protocolo proporciona una forma para que las aplicaciones envíen datagramas IP encapsulados sin tener una conexión.
TCP (protocolo de control de transmisión) se diseñó específicamente para proporcionar un flujo de bytes confiable de extremo a extremo a través de una interred no confiable. Una interred difiere de una sola red debido a que diversas partes podrían tener diferentes topologías, anchos de banda, retardos, tamaños de paquete… TCP tiene un diseño que se adapta de manera dinámica a las propiedades de la interred y que se sobrepone a muchos tipos de situaciones.




NIVEL DE RED


La capa de red, según la normalización OSI, es una capa que proporciona conectividad y selección de ruta entre dos sistemas de nodos que pueden estar ubicados en redes geográficamente distintas. Es el tercer nivel del modelo OSI y su misión es conseguir que los datos lleguen desde el origen al destino aunque no tengan conexión directa. Ofrece servicios al nivel superior (nivel de transporte) y se apoya en el nivel de enlace, es decir, utiliza sus funciones.

Funciones y mecanismos
Para la consecución de su tarea, puede asignar direcciones de red únicas, interconectar subredes distintas, encaminar paquetes y utilizar un control de congestión. Hay dos formas en las que el nivel de red puede funcionar internamente, pero independientemente de que la red funcione internamente con datagramas o con circuitos virtuales puede dar hacia el nivel de transporte un servicio orientado a conexión:

Datagramas: Cada paquete se encamina independientemente, sin que el origen y el destino tengan que pasar por un establecimiento de comunicación previo.
Circuitos virtuales: En una red de circuitos virtuales dos equipos que quieran comunicarse tienen que empezar por establecer una conexión. Durante este establecimiento de conexión, todos los routers que hayan por el camino elegido reservarán recursos para ese circuito virtual específico.
Hay dos tipos de servicio:

Servicios Orientados: Sólo el primer paquete de cada mensaje tiene que llevar la dirección destino. Con este paquete se establece la ruta que deberán seguir todos los paquetes pertenecientes a esta conexión. Cuando llega un paquete que no es el primero se identifica a que conexión pertenece y se envía por el enlace de salida adecuado, según la información que se generó con el primer paquete y que permanece almacenada en cada conmutador o nodo.
Servicios no orientados: Cada paquete debe llevar la dirección destino, y con cada uno, los nodos de la red deciden el camino que se debe seguir. Existen muchas técnicas para realizar esta decisión, como por ejemplo comparar el retardo que sufriría en ese momento el paquete que se pretende transmitir según el enlace que se escoja.
Técnicas de encaminamiento
Las técnicas de encaminamiento suelen basarse en el estado de la red, que es dinámico, por lo que las decisiones tomadas respecto a los paquetes de la misma conexión pueden variar según el instante de manera que éstos pueden seguir distintas rutas. El problema, sin embargo, consiste en encontrar un camino óptimo entre un origen y un destino. La bondad de este camino puede tener diferentes criterios: velocidad, retardo, seguridad, regularidad, distancia, longitud media de las colas, costos de comunicación, etc.

Los equipos encargados de esta labor se denominan encaminadores (router en inglés), aunque también realizan labores de encaminamiento los conmutadores (switch en inglés) "multicapa" o "de nivel 3", si bien estos últimos realizan también labores de nivel de enlace. Cuando en una red un nodo recibe más tráfico del que puede cursar se puede dar una congestión. El problema es que una vez que se da congestión en un nodo el problema tiende a extenderse por el resto de la red. Por ello hay técnicas de prevención y control que se pueden y deben aplicar en el nivel de red.

Algunos protocolos de la capa de red son:

IP (IPv4, IPv6, IPsec)
OSPF
IS-IS
BGP
ARP, RARP
RIP
ICMP, ICMPv6
IGMP
DHCP



El nivel de enlace de datos, como el resto de los niveles intermedios, funciona en dos sentidos, vinculando el nivel de red con el nivel físico. La capa de enlace de datos es responsable de la transferencia fiable de información a través de un circuito de transmisión de datos.
El nivel de enlace (del inglés data link level) es el segundo nivel del modelo OSI. Recibe peticiones del nivel de red y utiliza los servicios del nivel físico.
Objetivo
El objetivo del nivel de enlace es conseguir que la información fluya, libre de errores, entre dos máquinas que estén conectadas directamente (servicio orientado a conexión).
Para lograr este objetivo tiene que montar bloques de información (llamados tramas en este nivel), dotarles de una dirección de nivel de enlace, gestionar la detección o corrección de errores, y ocuparse del control de flujo entre equipos (para evitar que un equipo más rápido desborde a uno más lento).
Cuando el medio de comunicación está compartido entre más de dos equipos es necesario arbitrar el uso del mismo. Esta tarea se realiza en el subnivel de acceso al medio.
Ubicación dentro de las normas IEEE 802
Dentro del grupo de normas IEEE 802, el subnivel de enlace lógico se recoge en la norma IEEE 802.2 y es común para todos los demás tipos de redes (Ethernet o IEEE 802.3, IEEE 802.11 o Wi-Fi, IEEE 802.16 o WiMAX, etc.); todas ellas especifican un subnivel de acceso al medio así como un nivel físico distintos.
En la práctica el subnivel de acceso al medio suele formar parte de la propia tarjeta de comunicaciones, mientras que el subnivel de enlace lógico estaría en el programa adaptador de la tarjeta (driver en inglés). En la capa de enlace, los datos se organizan en unidades llamadas tramas. Cada trama tiene una cabecera que incluye una dirección e información de control y una cola que se usa para la detección de errores. Otro tipo de protocolos de nivel de enlace serían PPP (Point to point protocol o protocolo punto a punto), HDLC (High level data link control o protocolo de enlace de alto nivel), por citar dos.
La cabecera de una trama de red de área local (LAN) contiene las direcciones físicas del origen y el destino de la LAN. La cabecera de una trama que se transmite por una red de área extensa (WAN) contiene un identificador de circuito en su campo de dirección.
Recuerde que un enlace es una red de área local, una línea punto a punto o alguna otra facilidad de área extensa por la que se pueden comunicar los sistemas mediante un protocolo de la capa de enlace de datos.
Funciones de la capa de enlace
La capa de enlace de datos es responsable de la transferencia fiable de información a través de un Circuito eléctrico de transmisión de datos. La transmisión de datos lo realiza mediante tramas que son las unidades de información con sentido lógico para el intercambio de datos en la capa de enlace. También hay que tener en cuenta que en el modelo TCP/IP se corresponde a la segunda capa
Sus principales funciones son:
  1. Iniciación, terminación e identificación.
  2. Segmentación y bloqueo.
  3. Sincronización de octeto y carácter.
  4. Delimitación de trama y transparencia.
  5. Control de errores.
  6. Control de flujo.
  7. Recuperación de fallos.
  8. Gestión y coordinación de la comunicación.
La función de iniciación comprende los procesos necesarios para activar el enlace e implica el intercambio de tramas de control con el fin de establecer la disponibilidad de las estaciones para transmitir y recibir información.
Las funciones de terminación son de liberar los recursos ocupados hasta la recepción/envío de la última trama. También de usar tramas de control. La identificación es para saber a que terminal se debe de enviar una trama o para conocer quien envía la trama. Se lleva a cabo mediante la dirección del nivel de enlace.
Segmentación
La segmentación surge por la longitud de las tramas ya que si es muy extensa, se debe de realizar tramas más pequeñas con la información de esa trama excesivamente larga.
Si estas tramas son excesivamente cortas, se ha de implementar unas técnicas de bloque que mejoran la eficiencia y que consiste en concatenar varios mensajes cortos de nivel superior en una única trama de nivel de enlace más larga.
En las transferencias de información en el nivel de enlace es necesario identificar los bits y saber que posición les corresponde en cada carácter u octeto dentro de una serie de bits recibidos.
Función de sincronización
Esta función de sincronización comprende los procesos necesarios para adquirir, mantener y recuperar la sincronización de carácter u octeto. Es decir, poner en fase los mecanismos de codificación del emisor con los mecanismos de decodificación del receptor.
La capa de enlace debe ocuparse de la delimitación y sincronización de la trama. Para la sincronización puede usar 3 métodos:
  • El primero de ellos es "Principio y fin" (carácteres especificos para identificar el principio o el fin de cada trama).
  • También puede usar "Principio y cuenta" (Utiliza un carácter para indicar comienzo y seguido por un contador que indica su longitud).
  • Por último puede usar el "Guión" (se emplea una agrupación especifica de bits para identificar el principio y fin mediante banderas/flags).
La transparencia se realiza mediante la inserción de bits. Consta de ir contando los unos consecutivos y cuando se encuentra con 5 unos seguidos y consecutivos introduce el bit 0 después del quinto uno. Ejemplo: Las banderas/flag suelen ser 01111110, y al aplicar la transparencia pasa a ser 011111010.
Es opcional en esta capa, la encargada de realizar esta funcion es la capa de transporte , en una WAN es muy problable que la verificacion, la realiza la capa de enlace
Identificación de las tramas y detección de errores
Para la Identificación de tramas puede usar distintas técnicas como:
  • Contador de caracteres
  • Caracteres de inicio y final con caracteres de relleno
  • Secuencia de bits indicadora de inicio y final, con bits de relleno
El control de flujo es necesario para no 'agobiar' al receptor. Se realiza normalmente a nivel de transporte, también a veces a nivel de enlace. Utiliza mecanismos de retroalimentación. Suele ir unido a la corrección de errores y no debe limitar la eficiencia del canal.
Los métodos de control de errores son básicamente 2:
  • FEC o corrección de errores por anticipado y no tiene control de flujo.
  • ARQ: Posee control de flujo mediante parada y espera, o/y ventana deslizante.
Las posibles implementaciones son:
  • Parada y espera simple: Emisor envía trama y espera una señal del receptor para enviar la siguiente o la que acaba de enviar en caso de error.
  • Envío continuo y rechazo simple: Emisor envía continuamente tramas y el receptor las va validando. Si encuentra una errónea, elimina todas las posteriores y pide al emisor que envíe a partir de la trama errónea.
  • Envío continuo y rechazo selectivo: transmisión continua salvo que sólo retransmite la trama defectuosa.
La detección de errores la realiza mediante diversos tipos de códigos del que hay que resaltar:
  • CRC (control de redundancia cíclica)
  • Simple paridad
  • Paridad cruzada (Paridad horizontal y vertical)
  • Suma de verificación
La corrección de errores están basados en Código Hamming, por repetición, verificación de paridad cruzada, Reed-Solomon y de goyle.
También cabe destacar los protocolos HDLC que es un control de enlace de datos a alto nivel, orientado a bit y obedece a una ARQ de ventana deslizante o continuo. También existen protocolos orientados a carácter. El control de flujo es necesario para no 'agobiar' al receptor. Se realiza normalmente a nivel de transporte, también a veces a nivel de enlace. Utiliza mecanismos de retroalimentación. Suele ir unido a la corrección de errores y no debe limitar la eficiencia del canal. El control de flujo conlleva dos acciones importantísimas que son la detección de errores y la corrección de errores.
La detección de errores se utiliza para detectar errores a la hora de enviar tramas al receptor e intentar solucionarlos. Se realiza mediante diversos tipos de códigos del que hay que resaltar el CRC (códigos de redundancia cíclica), simple paridad (puede ser par, números de 1´s par, o impar) paridad cruzada (Paridad horizontal y vertical) y Suma de verificación
La corrección de errores surge a partir de la detección para corregir errores detectados y necesitan añadir a la información útil un número de bits redundantes bastante superior al necesario para detectar y retransmitir. Sus técnicas son variadas. El Código Hamming, Repetición, que cada bit se repite 3 veces y en caso de fallo se toma el bit que más se repite; También puede hacerse mediante verificación de paridad cruzada, Reed-Solomon y de goyle.
También cabe destacar los protocolos HDLC que es un control de enlace de datos a alto nivel, orientado a bit y obedece a una ARQ de ventana deslizante o continuo. También existen protocolos orientados a carácter.
Recuperación ante fallos
Gestión y coordinación.
Se refiere a los procedimientos para detectar situaciones y recuperar al nivel de situaciones anómalas como la ausencia de respuesta, recepción de tramas inválidas, etc. Las situaciones más típicas son la pérdida de tramas, aparición de tramas duplicadas y llegada de tramas fuera de secuencia.
Si no se tratasen correctamente estos eventos se perderá información y se aceptarán datos erróneos como si fuesen correctos. Generalmente se suelen utilizar contadores para limitar el número de errores o reintentos de los procesos y procedimientos. También se pueden usar temporizadores para establecer plazos de espera (timeout) de los sucesos. La gestión atiende a 2 tipos:
  • El primero de ellos es un sistema centralizado donde existe una máquina maestra y varias esclavas. Estas conexiones se pueden realizar punto a punto o multipunto.
  • El segundo de ellos es el distribuido, donde no existe máquina maestra y todas compiten por el control del sistema de comunicación.
La coordinación se puede realizar mediante selección o contienda:
  • La selección se puede implementar mediante sondeo/selección, donde el maestro recoge un mensaje de una secundaria y se la entrega a quien seleccione. También es posible asignando un testigo a una máquina que es la que puede emitir mensajes/tramas. Son típicas las configuraciones Token Ring y Token Bus.
  • La contienda se basa en que cada ordenador emite su trama/mensaje cuando le apetece. Todos los componentes de la red son tanto emisores como receptores. Son típicos los sistemas ALOHA y CSMA/CD. Hay que tener cuidado con las colisiones.




NIVEL FÍSICO



Está formado por todos los componentes de hardware involucrados en la comunicación, así como también las señales electromagnéticas u opticas que circulan a través de ellos, las cuales pueden ser medidas utilizando distintos instrumentos (tester, osciloscopio, etc.).
Entre esos componentes podemos mencionar placas adaptadoras, cables y conectores, hubs, switches, routers, modems, líneas de fibra óptica, antenas, etc.
Las señales electromagnéticas pueden ser ondas eléctricas de distinta forma (senoidal, cuadrada), ondas de radio, microondas, ondas luminosas, etc. Estas señales se modulan en amplitud o frecuencia para representar unos y ceros. Estas señales se manejan como niveles eléctricos, cuando el voltaje tiene un valor n la señal es 1 y si está a 0 volt la señal es 0.
Sin embargo, el medio físico es totalmente ajeno a los datos que se transmiten a través de él, y sólo conecta físicamente dos puntos entre los cuales circula la señal, garantizando únicamente que ésta llegue a su destino.
Las funciones y servicios realizadas por esta capa son:
  • Envío bit a bit entre nodos[1]
  • Proporcionar un interfaz estandarizado para los medios de transmisión físicos, incluyendo:
  • Especificaciones mecánicas de los conector eléctrico y cables, por ejemplo longitud máxima del cable
  • Especificación eléctrica de la línea de transmisión, nivel de señal e impedancia
  • Interfaz radio, incluyendo el espectro electromagnético, asignación de frecuencia y especificación de la potencia de señal, ancho de banda analógico, etc.
  • Especificaciones para IR (radiación infrarroja) sobre fibra óptica o una conexión de comunicación inálambrica mediante IR
  • Modulación
  • Codificación de línea
  • Sincronización de bits en comunicación serie síncrona
  • Delimitación de inicio y final, y control de flujo en comunicación serie asíncrona
  • Multiplexación de Conmutación de circuitos
  • Detección de portadora y CSMA/CD|detección de colisión utilizada por algunos protocolos de acceso múltiple del nivel 2
  • Ecualizador, filtrado, secuencias de prueba, forma de onda y otros procesados de señales de las señales física.















jueves, 6 de febrero de 2014

REDES DE INTERCAMBIO

"HISTORIA Y ORIGEN DE REDES DE INTERCAMBIO"

Redes de intercambio de archivos P2P
Las redes peer-to-peer (de igual a igual, de persona a persona), también conocidas como P2P, son plataformas que permiten el intercambio de archivos entre miles de usuarios conectados a Internet

¿Cómo funcionan las redes P2P?
Desde el surgimiento de Napster en 1999 las redes P2P están en boca de todos. Uno de los motivos es que es el medio por el cual se comparten y bajan archivos protegidos por derechos de propiedad intelectual, principalmente canciones.

Existen muchos servicios más que usan (o usaron si ya no existen) este tipo de redes: Ares Galaxy, Kazaa, eMule, BitTorrent, …

En esta nota vamos a analizar que son las redes P2P y que tienen de particular que las hace tan populares y tan polémicas.

¿Cómo funcionan las redes y cómo se organizan?

A grandes rasgos una red se compone de una serie de computadoras interconectadas. Esos equipos pueden cumplir dos funciones: ser servidores y ser clientes. Los clientes se utilizan para acceder a la información contenida en el servidor. Los servidores por su parte proveen diferentes servicios a los clientes.

Un ejemplo típico de red, es un sitio web. En ese caso tenemos muchos clientes (los usuarios) que acceden a un servidor (la página web) para solicitar información (el contenido del sitio).

Las redes pueden organizarse de diferentes maneras según los propósitos para los que sean diseñados:


Un ejemplo de red centralizada es un sitio web. Un ejemplo de red descentralizada es Internet, donde existen muchos clientes y muchos servidores que se interconectan entre sí. Las redes Peer-2-Peer (P2P) son del tipo distribuida.

Las redes P2P

‘Peer’ en inglés quiere decir par o igual, por lo que la traducción de peer-2-peer sería algo como de par a par o de igual a igual. El nombre viene a que todas las computadoras que se conectan a la red tienen la misma jerarquía y cumplen las mismas funciones. Así en este tipo de redes no existen clientes ni servidores fijos, sino que todos cumplen en determinados momentos (y hasta en simultáneo) esos roles.

En este tipo de red se optimiza el uso de ancho de banda, ya que se suma el de cada usuario participante y se distribuye entre todos. Esto contrasta con el caso de las redes centralizadas donde el servidor tiene que ser capaz de abastecer el solo a todos los clientes que le solicitan información. En las redes distribuidas los pedidos se pueden ir derivando entre diferentes usuarios. Veamoslo con  un ejemplo:

Supongamos que queremos bajar una canción muy popular y que solo esta disponible en un servidor. Todos los usuarios que quieran esa canción se la van a pedir a ese único servidor. Si la cantidad de pedidos supera la capacidad del servidor de atenderlos, inicialmente habrá demoras para atender las solicitudes y eventualmente el servidor puede colapsar. Si la canción estuviera disponible en varios servidores, los pedidos se pueden ir distribuyendo entre ellos. Esto hace que baje la probabilidad de congestionamiento o de caída de los servidores.

Filosofia bajo la cual funcionan las redes P2P

Las redes P2P se basan muchas veces en la filosofía o ideal de que todos los usuarios deben compartir. Así, en varias de ellas se utilizan técnicas de meritocracia donde el que mas comparte tiene más privilegios, como la posibilidad de bajar más archivos o hacerlo más rápido. Este sistema es necesario para que el funcionamiento sea realmente de par a par, sino se corre el riesgo de que muchos usuarios dispongan del contenido compartido por unos pocos grandes compartidores.

En las redes donde se comparte contenido ilegal, esto hace también que sea más difícil eliminar ese contenido: es mucho más complicado atacar a miles de usuarios compartiendo una misma canción, por ejemplo, que si son solo unos pocos los que lo hacen.

Otra ventaja es que el ancho de banda se distribuye entre todos. Si muchos toman el contenido de una pequeña minoría, ésta debería tener un ancho de banda suficiente para abastecer a todos, lo cual implica para ella un costo mayor. A medida que crece el número de usuarios que comparten información, los pedidos de ese contenido se pueden distirbuir entre varios usuarios, con lo que cada uno necesita menos ancho de banda para ofrecer la misma velocidad de bajada.



¿QUE FUE NAPSTER?


Napster fue un servicio de distribución de archivos de música (en formato MP3). Fue la primera gran red P2P de intercambio creado por Sean Parker y Shawn Fanning. Su popularidad comenzó durante el año 2000. Su tecnología permitía a los aficionados a la música compartir sus colecciones de MP3 fácilmente con otros usuarios, lo que originó las protestas de las instituciones de protección de derechos de autor.
El servicio fue llamado Napster ("siestero") por el seudónimo de Fanning (se dice que solía dormir mucho la siesta).
La primera versión de Napster fue publicada a finales de 1999. Fue el primero de los sistemas de distribución de archivos entre pares de popularidad masiva, y era una red centralizada, ya que utilizaba un servidor principal para mantener la lista de usuarios conectados y archivos compartidos por cada uno de ellos. Las transferencias de archivos, sin embargo, eran realizadas entre los usuarios sin intermediarios.
En diciembre de 1999, varias empresas discográficas iniciaron un juicio en contra de Napster. Esto trajo a Napster una enorme popularidad y varios millones de nuevos usuarios. Napster alcanzó su pico con 26,4 millones de usuarios en febrero del año 2001.1
Para los seguidores de Napster el juicio fue algo confuso. Para ellos la habilidad de compartir archivos era una característica propia de Internet, y no de Napster, el cual actuaba simplemente como un motor de búsqueda. Muchos argumentaban que de cerrar Napster sólo se conseguiría que sus usuarios emigraran hacia otros sistemas de intercambio de archivos. Esto último de hecho ocurrió, con software como Ares Galaxy, Audiogalaxy, Morpheus, Gnutella, Kazaa, Emule, LimeWire y eDonkey2000.
En julio de 2001 un juez ordenó el cierre de los servidores Napster para prevenir más violaciones de derechos de autor. Hacia el 24 de septiembre del 2001, había prácticamente llegado a su fin. Napster aceptó pagar a las empresas discográficas 26 millones de dólares por daños y otros 10 millones de dólares por futuras licencias.
El baterista de Metallica, Lars Ulrich fue el primer famoso en demandar a Napster por derechos de autor.
El 19 de mayo de 2008 Napster anunció el lanzamiento de la tienda más grande y más detallada de MP3 del mundo, con 6 millones de canciones, en free.napster.com. El aviso también indicó que todas las ventas de descargas en Estados Unidos hechas con Napster ahora estarán en formato MP3.
El 1 de diciembre de 2011 Napster se fusionó con Rhapsody y empezó a operar en diversos países de América y Europa como un nuevo servicio de pago.2

THE PIRAT  BAY

The Pirate Bay (traducido literalmente al español como La bahía pirata; comúnmente abreviado por las siglas TPB) es un motor de búsqueda y tracker de ficheros BitTorrent (.torrent) en el que es posible realizar búsquedas de todo tipo de material multimedia.
Fundada por la organización contra el copyright Piratbyrån a principios de 2003 en Suecia y organizada desde octubre de ese mismo año por otras personas. En la actualidad, es el mayor tracker de BitTorrent a nivel mundial.
El  The Pirate Bay fue actualizada en un intento de reducir su consumo de ancho de banda, al llegar a las 2000 peticiones por segundo en cada uno de los cuatro servidores que la hospedan, actualizando también a una interfaz mucho más amigable.
El servidor, que utiliza el software de tracking opentracker,1 estaba situado en EstocolmoSuecia pasando a ser alojado en Perú tras la extradición de Gottfrid Svartholm (coofundador de "The pirate Bay") que mantenía su asilo político en Suecia; siendo suspendido en tiempo récord por el Estado Peruano por ser una página web que en diferentes países del mundo ha cometido infracciones al derecho de autor. 
El buscador de torrents se ha visto obligado a trasladarse a un dominio de Guyana. por algunas horas; para luego regresar a un dominio sueco.

TORRENT

¿Qué es un torrent?

Para compartir uno varios archivos, se hace uso de lo que se conoce como "torrent", que es simplemente archivo que contiene información sobre los archivos y sobre la computadora que coordina la distribución de archivos. Otras computadoras usan ese mismo torrent y entonces pueden comenzar la descarga de las piezas. A la medida que un archivo (o una pieza del archivo) se descarga en otras computadoras, éstas también comparten las piezas, que a su vez serán usadas por más personas que también están tratando de descargar el mismo archivo. Esta dinámica hace que el archivo sea más fácil de descargar conforme más y más partes estén disponibles en más y más computadoras.

Al proceso de hacer disponible un archivo en tu computadora, para que otros lo puedan descargar a su vez, se le conoce como “seeding”.

¿Cómo funciona BitTorrent?

Para descragra archivos que están compartidos con BitTorrent básicamente necesitas un torrent (descrito en el párrafo anterior) y también necesitas un cliente de BitTorrent.
Localizas y descargas el torrent, mismo que después abres con un cliente de BitTorrent para desacargar archivos.
Nota importante: debes tener cuidado con la descarga de material con protección a los derechos de autor, ya que la descarga de dicho material es ilegal y penalizado en muchas jurisdicciones.
Siete clientes de BitTorrent
qBittorrent. Funciona en Windows, Mac, Linux, OS/2, y FreeBSD. Es una alternativa gratuita a la versión pagada de uTorrent.
uTorrent. Tiene dos versiones: la gratuita y la Plus, que es de paga. La diferencia es que esta última no tiene anuncios y te ofrece protección contra virus en torrents y descargas.
BitTorrent. Es el cliente oficial de BitTorrent, y si encuentras mucho parecido con uTorrent es porque este último fue comprado por BitTorrent en el año 2006. Por supuesto tiene dos versiones, la gratuita y la de paga con las mismas diferencias que uTorrent. Existen versiones para Windows, Mac y Android.
Deluge. Funciona en Windows, Mac, Linux y Unix. Este cliente cuenta con la facilidad de agregarle complementos, que le aumentan su funcionalidad, de forma similar a como ocurre con complementos de navegadores de Internet. Este cliente es reconocido por su enfoque a la administración de torrents.
Vuze. Es un cliente que te da balance entre velocidad de descargar y facilidades para administrar torrents, lo que lo hace un cliente mucho más pesado que otros, pero a la vez más completo.
Tixati. Es un cliente con muchísima información y una interfaz de usuario simplista. Si te interesa más la funcionalidad y control que la estética, este pudiera ser un cliente de BitTorrent para ti.
BitComet. Es un cliente gratuito para Windows, cuyo mayor inconveniente es la cantidad de anuncios que tiene. Si te interesa BitComet ten cuidado de instalar una versión que provenga de una fuente confiable.
Uso más allá de la piratería
Contrario a lo que se pudiera pensar gracias a la mala fama de la distribución de copias ilegales de material protegido por derechos de autor, BitTorrent es una tecnología ampliamente usada para compartir archivos de forma legal; por ejemplo, tanto Twitter como Facebook hacen uso de BitTorrent para distribuir actualizaciones a sus servidores. Es su blog oficial, BitTorrent responde a la pregunta BitTorrent = Piratería? ante la opinión social y la creencia de que este tipo de tecnologías fueron diseñadas exclusivamente para destruir los derechos de autor.
BitTorrent Bundles
Un ejemplo del uso legal y actual de BitTorrent es el de BitTorrent Bundles.
BitTorrent Bundles es un lugar en el que puedes acceder a contenido (música o películas) que es ofrecido directamente por los artistas. Descarga el torrent que le corresponde al contenido que deseas y usa tu cliente favorito.











martes, 12 de noviembre de 2013

SUPERCOMPUTADORAS .lll.

SUPERCOMPUTADORAS

¿QUE ES UNA SUPERCOMPUTADORA?
Una supercomputadora o un superordenador es aquella con capacidades de cálculo muy superiores a las computadoras corrientes y de escritorio y que son usadas con fines específicos. Hoy día los términos de supercomputadora y superordenador están siendo reemplazados por computadora de alto desempeño y ambiente de cómputo de alto desempeño, ya que las supercomputadoras son un conjunto de poderosos ordenadores unidos entre sí para aumentar su potencia de trabajo y desempeño. Al año 2011, los superordenadores más rápidos funcionaban en aproximadamente más de 200 teraflops (que en la jerga de la computación significa que realizan más de 200 billones de operaciones por segundo). La lista de supercomputadoras se encuentra en la lista TOP500.

ORIGEN E HISTORIA DE LAS SUPERCOMPUTADOTRA

Las supercomputadoras fueron introducidas en la década de 1970 y fueron diseñadas principalmente por Seymour Cray en la compañía Control Data Corporation (CDC), la cual dominó el mercado durante esa época, hasta que Cray dejó CDC para formar su propia empresa, Cray Research. Con esta nueva empresa siguió dominando el mercado con sus nuevos diseños, obteniendo el podio más alto en supercómputo durante cinco años consecutivos (1985-1990). En los años ochenta un gran número de empresas competidoras entraron al mercado en paralelo con la creación del mercado de los minicomputadores una década antes, pero muchas de ellas desaparecieron a mediados de los años noventa. El término está en constante flujo. Las supercomputadoras de hoy tienden a convertirse en las computadoras ordinarias del mañana. Las primeras máquinas de CDC fueron simplemente procesadores escalares muy rápidas, y muchos de los nuevos competidores desarrollaron sus propios procesadores escalares a un bajo precio para poder penetrar en el mercado.
De principio a mediados de los años ochenta se vieron máquinas con un modesto número de procesadores vectoriales trabajando en paralelo, lo cual se convirtió en un estándar. El número típico de procesadores estaba en el rango de 4 a 16. En la última parte de los años ochenta y principios de los noventa, la atención cambió de procesadores vectoriales a sistemas de procesadores masivamente paralelos con miles de CPU «ordinarios». En la actualidad, diseños paralelos están basados en microprocesadores de clase servidor que están disponibles actualmente (2011). Ejemplos de tales procesadores son PowerPC, Opteron o Xeon, y la mayoría de los superordenadores modernos son hoy en día clústeres de computadores altamente afinadas usando procesadores comunes combinados con interconexiones especiales.
Hasta ahora el uso y generación de las mismas se ha limitado a organismos militares, gubernamentales, académicos o empresariales.
Estas se usan para tareas de cálculos intensivos, tales como problemas que involucran física cuántica, predicción del clima, investigación de cambio climático, modelado de moléculas, simulaciones físicas tal como la simulación de aviones o automóviles en el viento (también conocido como Computational Fluid Dinamics), simulación de la detonación de armas nucleares e investigación en la fusión nuclear.
Como ejemplo, se encuentra la supercomputadora IBM Roadrunner; científicos de IBM y del laboratorio de Los Álamos trabajaron seis años en la tecnología de la computadora. Algunos elementos de Roadrunner tienen como antecedentes videojuegos populares, de acuerdo con David Turek, vicepresidente del programa de supercomputadoras de IBM. «En cierta forma, se trata de una versión superior de Sony PlayStation 3», indicó. «Tomamos el diseño básico del chip (de PlayStation) y mejoramos su capacidad», informó Turek.
Sin embargo, Roadrunner difícilmente pueda asemejarse a un videojuego. El sistema de interconexión ocupa 557 m² de espacio. Cuenta con 91,7 km de fibra óptica y pesa 226,8 t . La supercomputadora está en el laboratorio de investigaciones de IBM en Poughkeepsie, Nueva York y fue trasladada en julio del 2008 al Laboratorio Nacional Los Álamos, en Nuevo México.[[m2]]
Japón creó la primera supercomputadora petaflops la MDGrape-3, pero solo de propósitos particulares, luego IBM de USA creo la correcaminos, también de 1 petaflops, China la Milky Way One de 1,2 petaflops y Cray de EE.UU. la Jaguar de 1,7 petaflop, que es al final del año 2009 la más rápida. La supercomputadora más rápida a fines del 2010 era la china Tianhe 1A con picos de velocidad de 2,5 petaflops.

LAS SUPERCOMPUTADORAS NECESITABAN UN MUY BUEN SISTEMA DE ENFRIAMIENTO PARA PODER PROCESAR MAS RÁPIDO LA INFORMACIÓN

Muchas de las CPUs usadas en los supercomputadores de hoy disipan 10 veces más calor que un disco de estufa común . Algunos diseños necesitan enfriar los múltiples CPUs a -85 °C (-185 °F).
Para poder enfriar múltiples CPUs a tales temperaturas requiere de un gran consumo de energía. Por ejemplo, un nuevo supercomputador llamado Aquasar tendrá una velocidad tope de 10 teraflops. Mientras tanto el consumo de energía de un solo rack de este supercomputador consume cerca de 10 kW. Como comparación, un rack del supercomputador Blue Gene L/P consume alrededor de 40 kW.
El consumo promedio de un supercomputador dentro de la lista de los 500 supercomputadores más rápidos del mundo es de alrededor de 257 kW.
Para el supercomputador Aquasar, que será instalado en el Instituto Tecnológico Federal Suizo (ETH), se utilizará un nuevo diseño de enfriamiento líquido. Se necesitarán 10 litros de agua que fluirán a una tasa de 29,5 litros por minuto.
Una de las innovaciones en este diseño es que normalmente los sistemas de enfriamiento aíslan el líquido de la CPU y la transmisión de calor se da a través de convección desde la cubierta metálica de la CPU a través de un adaptador generalmente de cobre u otro material térmicamente conductivo. La innovación consiste en un nuevo diseño en el cual llega el agua directamente a la CPU mediante tubos capilares de manera que la transmisión de calor es más eficiente.
En el caso del ETH en Suiza, el calor extraído del supercomputador será reciclado para calentar habitaciones dentro de la misma universidad.

TIPOS DE SUPERCOMPUTADORAS

Existen dos tipos principales de supercomputadores: máquinas de vectores y máquinas paralelas. Las dos trabajan RAPIDO, pero en forma diferente. 
      Digamos que tu tienes 100 problemas de matemáticas. Si tu fueras un computador de vectores, te sentarías y harías todos los problemas tu mismo tan rápido como pudieras. 
      Para trabajar como un computador paralelo, tu tendrías que conseguir y compartir el trabajo con sus amigos. Con 10 amigos, tu harías solo 10 problemas. Si fueran 20 amigos, cada uno solo tendría que hacer 5 problemas. 
     A pesar de que tu fueras muy bueno en matemáticas, te tomaría mas tiempo en hacer todos los 100 problemas que a las 20 personas trabajando juntas.
Procesamiento Vectorial
El procesamiento vectorial requiere específicamente instrucciones con vectores en lenguaje de máquina. El procesamiento requiere hardware canalizado, pero no viceversa. Una instrucción vectorial indica la operación que se va a realizar y especifica la lista de operandos (denominada vector) sobre los que operará. Cuando se ejecuta una instrucción vectorial, se alimentan los elementos del vector a la canalización apropiada uno a la vez, retrasados por el tiempo que toma completar una etapa.
Ejecución De Instrucciones En Paralelo
Desde lo albores de la computación, los diseñadores han tratado de hacer máquinas más rápidas. Hasta cierto punto, esto se podría lograr haciendo más veloz el hardware; sin embargo, empiezan a aparecer en el horizonte diversos límites físicos. Por unlado, las leyes de la física señalan que nada puede viajar más rápido que la velocidad de la luz, que es de alrededor de 30cm, por nanosegundo en el vacío y de 20 cm por nanosegundo a través de alambre de cobre.
Esto significa que para construir una computadora con un tiempo de instrucción de 1 nanosegundo, la distancia total que las señalas eléctricas tuvieran que viajar entre la memoria, el CPU y de regreso, no debe exceder de 20 centímetros. De ahí que las computadoras demasiado rápidas tengan que ser muy pequeñas.
Desgraciadamente, las computadoras rápidas producen más calor que las lentas, y el construirlas en un volumen reducido hace difícil disipar dicho calor. En ocasiones, las supercomputadoras se sumergen en freón líquido, un refrigerante, a fin de eliminar el calor tan pronto como sea posible. Con todo, hacer más y más rápidas a las computadoras es cada día más y más difícil, así como muy caro.
No obstante, es posible lograrlo de otra manera: en lugar de un solo CPU de alta velocidad, se puede construir una máquina con varias ALU más lentas (y más baratas), o hasta CPU completas, para obtener el mismo poder de cómputo a un costo más bajo. Muchas investigaciones se han dedicado a construir este tipo de máquinas paralelas.
Las máquinas paralelas pueden dividirse en tres categorías (Flynn, 1972), basadas en el número de instrucciones y de datos que pueden procesar:
* SISD: Corriente de instrucciones sencilla. Corriente de datos sencilla.
* SIMD: Corriente de instrucciones sencilla. Corriente de datos 
 múltiple.
* MIMD: Corriente de instrucciones múltiple. Corriente de datos múltiples.
Por ejemplo, la CDC 6600 y algunas de sus sucesoras tienen unidades funcionales múltiples (ALU especializadas), cada una de las cuales puede realizar una operación sencilla a alta velocidad, según se ilustra en la figura 1. En este ejemplo, se tienen cinco unidades funcionales, dos de ellas para la suma y las tres restantes para las operaciones de resta, multiplicación y división.
La idea que sustenta este diseño es que la unidad de control extrae un instrucción y la dirige a una de las unidades funcionales para su ejecución; mientras tanto, la unidad de control extrae la siguiente instrucción y la envía a otra unidad funcional. Este proceso continúa hasta que no se puede avanzar más, ya sea porque todas las unidades del tipo requerido están ocupadas, o bien porque se necesita un operando que todavía se está procesado. 
Por lo que en general se utiliza para las operaciones de punto flotante, que son lentas y complejas, en lugar de las operaciones con números enteros que son sencillas y rápidas.
En la figura 2. (a), se observa una CPU formada por cinco unidades de procesamiento de P1 a P5. Durante el primer intervalo de tiempo, P1 extrae de memoria la primera instrucción; en el segundo intervalo, la primera instrucción pasa a P2 para su análisis, mientras que P1 extrae la siguiente instrucción. En cada uno de los intervalos subsecuentes, P1 extrae una nueva instrucción y las anteriores pasan a la siguiente unidad, a lo largo de la trayectoria.
A la organización de la figura 2 (a) se le podría llamar PROCESAMIENTO ENTUBADO o PROCESAMIENTO EN LÍNEA (pipeline). Si cada paso (intervalo de tiempo) dura n nanosegundos, se requiere de 5n nanosegundos para ejecutar una instrucción. Sin embargo, cada n nanosegundos P5 termina de ejecutar una instrucción, lo que incrementa la velocidad en un factor de cinco. Solo hay un programa y un conjunto de datos.
La MÁQUINA VECTORIAL que se muestra en la siguiente figura 3 tiene una arquitectura que se adapta muy bien a esta tarea. En forma análoga, la ALU es en sí una unidad vectorial capaz de realizar operaciones como la suma de vectores a partir de dos vectores de entrada y obteniendo como resultado un vector de salida. Algunas supercomputadoras tienen una arquitectura parecida a ésta.
Computadoras Vectoriales SIMD
La Máquina de Conexión está concebida para aplicaciones simbólicas tales como problemas de inteligencia artificial. La máquina puede realizar operaciones de punto flotante, no está convenientemente adaptada para la predicción del clima, el análisis de datos sismológicos, o el procedimientos de datos en reconocimiento de imágenes de tres dimensiones en tiempo real. Para aplicaciones de demasiados cálculos como éstas, se requiere de computadoras vectoriales (llamadas también supercomputadoras numéricas). 
Una aplicación típica de esta clase es una sentencia completa como:
For i: = 1 to n do a[ i ]: = b[ i ] + c[ i ]
Donde a, b y c son vectores, es decir, arreglos numéricos, por lo general en punto flotante. La interacción for anterior indica a la computadora que sume los i-ésimos elementos de b y c y que almacene el resultado en el i-ésimo elemento de a.
Técnicamente, el programa especifica que los elementos deben ser sumados en forma secuencial, pero esto se debe al hecho de que Pascal no tiene ninguna otra forma de expresar la suma de dos vectores. Además, un compilador que optimice puede ver que el orden es irrelevante, y puede generar un código para sumar los n elementos en forma simultánea, si es que el hardware posee capacidad para hacerlo.
En la Figura 3 se muestra una posible arquitectura SIMD bien adaptada para este tipo de procesamiento de vectores. Esta máquina toma como entrada a dos vectores de n elementos y opera en paralelo en los elementos correspondientes, utilizando una ALU vectorial que puede trabajar con los n elementos al mismo tiempo.
Se requiere también de computadoras vectoriales para efectuar operaciones escalares y operaciones mixtas escalares y vectoriales.
En la práctica, pocas supercomputadores se construyen realmente como en la Figura 3.
La Máquina de Conexión se puede permitir tantas ALU pues las que utiliza son sencillas y baratas. Para una supercomputadoras se requiere de ALU de punto flotante extremadamente rápidas, lo que incrementa en gran medida el precio.
El método que se usa normalmente es combinar el procesamiento vectorial con el procesamiento serie. Las operaciones de punto flotante son demasiado complejos, pues requieren de muchos pasos, y cualquier operación de pasos múltiples es candidata a su procesamiento en serie. 
Normalmente, las supercomputadoras tienen varias ALU, cada una especializada para una operación en particular y todas capaces de trabajar en paralelo. Como ejemplo, considérese a la Cray-1, la primera supercomputadora del mundo. Aunque no es de las más recientes tiene una arquitectura simple de tipo RISC que la hace ser un buen sujeto de estudio. No es un accidente que la Cray-1 tenga un gran parecido con la CDC 6600. Ambas fueron diseñadas por Seymour Cray, uno de los fundadores de CDC y su arquitecto en jefe hasta que renunció para formar su propia compañía , Cray Research.
La Cray-1 está orientada a los registros, con la mayor parte de las instrucciones de 16 bits consistentes en un código de operación de 7 bits y 3 bits para indicar el número de registro para cada uno de los tres operandos. Como se puede apreciar en la figura 4, existen cinco tipos de registros. Los ocho registros A de 24 bits se usan para direccionar la memoria. Los 64 registros B 24 bits se utilizan para almacenar los registros A cuándo éstos no se necesitan, en lugar de escribirlos de nuevo a memoria. Los ocho registros S de 64 bits se emplean para contener cantidades escalares, tanto enteras como de punto flotante. Los valores en estos registros se pueden usar como operandos en ambos tipos de operaciones . Los 64 registros T de 64 bits son un almacenamiento extra para los registros S, una vez más reducir el número de instrucciones de carga y almacenamiento.
La parte más interesante del conjunto de registros de la Cray-1 es el grupo de ocho registros de vector. Cada uno de los cuales puede contener un vector de punto flotante de 64 elementos. Se puede sumar, resta o multiplicar dos vectores con una instrucción de 16 bits. La división no es posible, pero se pueden calcular recíprocos.
Todas las operaciones con vectores utilizan operandos de registros.
No todas las supercomputadoras tienen esta propiedad de tipo RISC de requerir que todos los operandos se encuentren en registros. Por ejemplo, la CDC 205 realiza sus operaciones con vectores en memoria.
La Cray-1 tiene 12 unidades funcionales, dos unidades son para aritmética de direcciones de 24 bits y cuatro para operaciones enteras en escalares de 64 bits.
La Cray-1 no tiene una unidad para efectuar multiplicaciones de enteros. Las seis unidades restantes trabajan todas con vectores y en serie. La suma, la multiplicación y las unidades de recíprocos trabajan también sobre números escalares de punto flotante lo mismo que con vectores.
Como muchas otras computadoras de vector, la Cray-1 permite el encadenamiento de operaciones.
R1:= R1*R2+R3
Donde R1, R2 y R3 son todos los registros de vector, sería realizar la multiplicación de vectores, elemento por elemento, almacenar el resultado en alguna parte después hacer la suma de vectores. 
Superaplicaciones Para Las Supercomputadoras
Las supercomputadoras se conocen tanto por sus aplicaciones como por su velocidad o capacidad de computación, que puede ser 10 veces mayor que la de una macrocomputadora. Las siguientes aplicaciones son representativas de las supercomputadoras:
* Las supercomputadoras ordenan y analizan grandes cantidades de datos sísmicos que se recopilan durante las exploraciones en busca de yacimientos petrolíferos.
* Las supercomputadoras permiten la simulación de una corriente de aire alrededor de un avión a diferentes velocidades y altitudes.
* Los fabricantes de automóviles usan supercomputadoras para simular accidentes automovilísticos en pantallas de video. (Es menos costoso, permite conocer más detalles y es más seguro que desarrollar un choque real).
* Los físicos usan supercomputadoras para estudiar los resultados de explosiones de armas nucleares.
* Los meteorólogos usan supercomputadoras para estudiar la formación de tornados.
* Los estudios de producción de Hollywood usan gráficos avanzados para crear efectos especiales para películas y comerciales de televisión.
* Analizar el comportamiento de fluidos, diseñar piezas aerodinámicas
La simulación empleando superordenadores complementa (cuando no reemplaza) cada vez más a los experimentos y a los modelos a escala en un amplio rango de aplicaciones científicas, de ingeniería y comerciales. En algunas áreas industriales, tales como el diseño de aviones, vehículos espaciales, grandes estructuras resistentes, barcos y coches es ya una necesidad ineludible. En otras, los científicos e ingenieros están realizando grandes avances en el diseño de moléculas para medicamentos, enzimas, catalizadores y nuevos materiales. 
El tiempo transcurrido desde la concepción de un nuevo producto hasta su introducción en el mercado y el coste de su proceso de diseño pueden reducirse drásticamente con la ayuda de la simulación por ordenador. Todo esto, combinado con la exactitud alcanzada en reproducir la realidad, tiene el efecto de aumentar substancialmente la competitividad de la industria al reducir costes y mejorar la calidad. Al mismo tiempo hay áreas donde los superordenadores deben utilizarse para establecer los métodos y modelos de simulación física más eficientes.
Todas estas aplicaciones son poco viables, sino es que imposibles, en las macrocomputadoras.
Rara vez se requieren las supercomputadoras para el procesamiento administrativo limitado a entradas / salidas, el procesamiento de la nómina o la contabilidad. Hacerlo sería desaprovechar un recurso de alto costo y relativamente escaso. 
Ejemplos
A continuación se explican algunos ejemplos de interés
La gestión del Medio Ambiente (atmósfera/agua/tierra) y la predicción del cambio climático es un ejemplo característico. Distintas organizaciones gubernamentales ya han invertido grandes sumas en nuevas técnicas para observar la atmósfera y el océano y en nuevos programas de investigación enfocados a evaluar el efecto del genero humano en el ambiente. 
Así es bien conocido, que los modelos numéricos de la atmósfera y el océano juegan un papel importante en el estudio del clima. Sin embargo, por ejemplo, la evaluación completa de la respuesta global y regional del efecto invernadero debido al aumento de la concentración de gases proveniente de fuentes antropogénicas, requerirá el uso de modelos climáticos más sofisticados que los existentes. Hoy en día se requieren aumentos significativos en la precisión y el uso de modelos computacionales de la física y la química mucho más precisos y con un mayor costo computacional.
Otro ejemplo típico es el diseño de nuevas moléculas o materiales y es básico para las industrias química y farmacéutica. Combinado con desarrollos en biotecnología, se pueden diseñar y producir nuevas proteínas, obteniéndose nuevos productos que tendrán impacto en la vida cotidiana. Las estrategias tradicionales para el diseño de nuevos componentes involucra métodos inteligentes de prueba y error. La modelización computacional está tan solo comenzando a hacer impacto en el proceso de diseño. Sin embargo, este diseño aún consume mucho tiempo y dinero. Un aumento considerable en potencia computacional es necesario para acelerar el diseño de nuevos productos, lo que permitirá un mayor nivel de competitividad en nuestra industria química. 
Al desarrollarse totalmente, los modelos computacionales incorporarán una combinación de simulación, búsqueda en bases de datos y visualización, y ahorrarán al diseñador tiempo de experimentación en laboratorio con la consiguiente reducción de coste. Ello requerirá aumentar al menos mil veces la potencia computacional disponible actualmente. Se prevé que la aplicación de las técnicas de modelación molecular a este nivel será imperativo para que las industrias químicas, farmacéutica y biotecnológica puedan seguir siendo innovadoras y competitivas a nivel internacional.
La optimización es otro ejemplo de la necesidad de disponer de modelos matemáticos precisos de la realidad y ordenadores potentes. La optimización es una aplicación relativamente nueva para los superordenadores y es cada vez más importante en las operaciones de grandes industrias y compañías de servicio. La solución de grandes problemas de optimización es casi siempre crítica: las decisiones deben tomarse en tiempo real para responder a situaciones que evolucionan rápidamente. 
La diferencia entre buenas soluciones de estos problemas y soluciones óptimas o cercanas a la óptima, pueden significar el ahorro de grandes sumas de dinero. Las principales aplicaciones de la optimización incluyen el diseño de formas estructurales complejas, la planificación de la inversión, la planificación y distribución de la producción, el trazado de carreteras, la planificación de rutas y de personal, etc. La ayuda de los superordenadores a través de una mejor interacción investigador-ordenador da un realce esencial al poder creativo del ser humano y permite incorporar a las decisiones de diseño un mayor conjunto de elementos concretos de importancia técnica, económica y empresarial.
El mercado de los superordenadores ha crecido de manera que cada vez son más los fabricantes de computadoras que se dedican al diseño de superordenadores, algunos de ellos son:
* CRAY INCORPORATION
* IBM
* INTEL
* ISGI
* HITACHI
* COMPAQ
* FUJITSU
* SUN
* NEC
* HEWLETT PACKARD
Cray Incorporation
Cray Inc. creada en Marzo del 2000 de la unión de Tera Computer Company y Cray Research, es un líder en el mercado de las supercomputadoras. Cray Inc. Se dedica a ayudar a los usuarios a resolver la mayoría de los problemas de computación más cruciales sobre la tierra, diseñando los carros y camiones que conducimos, creando nuevos materiales para el descubrimiento de nuevas medicinas. Prediciendo severos cambios del clima y en infinidad de problemas más. 
La compañía Cray comienza en el año 1972, cuando el legendario Seymor Cray, conocido como el “padre de las supercomputadoras” fundó Cray Research en Wisconsin. 
El primer sistema Cray-1 fue instalado en el Laboratiorio “Los Alamos” en 1976 por $8.8 millones de dólares, teniendo la capacidad de 160 millones de operaciones de punto flotante por segundo (160 megaflops) y con 8 megabytes en memoria principal. Para poder incrementar la velocidad de este sistema, la supercomputadora Cray-1 tenía una forma única en “C” que permitía que los circuitos integrados estuvieran más juntos. Ningún cable del sistema medía mas de 4 pies de largo. Para controlar el intenso calor generado por la computadora, Cray elaboró un innovador sistema de refrigeración utilizando Freon.
La compañìa Cray elaboro el primer multiprocesdador de la supercomputadora, el Cray X-MP que fue introducido en 1982. El sistema Cray-2 apareciò en 1985 superando al Cray-1.
Supercómputo en la UNAM
Para llevar a cabo una investigación científica y desarrollo tecnológico de una manera competitiva se requieren de servicios de cómputo modernos. 
Con el propósito de proporcionar este tipo de servicios a la comunidad universitaria y productiva del país la Universidad Nacional Autónoma de México puso en operación en 1991 una supercomputadora CRAY Y-MP/432 y un Laboratorio de Visualización. 
Estos servicios están disponibles a traés de la RedUNAM los investigadores, profesores y estudiantes de la UNAM, así como a los miembros de las instituciones de investigación y educación superior de todo el país. Están también disponibles, a través de convenios específicos, a las industrias que los requieran para llevar a cabo investigación, desarrollo y producción. 
El personal de la Dirección General de Servicios de Cómputo Académico (DGSCA) que se encarga de estos servicios proporciona asesoría en el uso de compiladores y paquetes que requieran los usuarios. También se ocupan de analizar los problemas que se les planteen para determinar si el uso de supercómputo y visualización son necesarios para su solución. 
CRAY Y-MP4/464

Aspectos Físicos: 
La supercomputadora Cray se compone de varios gabinetes: el CPU, las unidades de disco, la unidad de refrigeración y la unidad de control de energía y refrigeración. El CPU ocupa un área de 1.5 m., pesa 2,450 kg. y mide 1.9 m. de altura. 
Características: 
* El equipo instalado tiene 4 procesadores diseñados con capacidad para trabajar en paralelo y realizar operaciones matemáticas escalares o vectoriales. 
* La memoria central del CPU es de 32 Megapalabras (1 palabra=64 bits), además existe una memoria temporal (Buffer Memory) de 4 Mp (32MB); ésta sirve como interfaz entre los procesadores y los subsistemas restantes del CPU. 
Sistema Operativo: 
El sistema operativo de CRAY es UNICOS 7.0, el cual está basado en UNIX. Dicho sistema operativo tiene capacidad de multiproceso y multiprogramación así como un sistema de archivos distribuido en diferentes unidades físicas. 
CRAY-ORIGIN 2000
En enero de 1997, arribó a la Dirección General de Servicios de Cómputo Académico, la nueva supercomputadora "CRAY-ORIGIN 2000" de Silicon Graphics. 
Características: 
* 40 Procesadores MIPS RISC R 10000 64-bit a 195 MHZ. 
* 10 Gb en memoria RAM. 
* 171 Gb de espacio en disco. 
* 13.6 GFlops pico (contra los 1.2 GFlops de la CRAY Y-P4/464). 
Una característica muy importante, es que este nuevo tipo de procesadores pertenecen a la tecnología CMOS, los cuales requieren solamente enfriamiento por aire a 15 grados centígrados y no una compleja instalación de enfriamiento con Fluorinert, como la que usa la actual supercomputadora, por lo cual el mantenimiento es mínimo. 
Esta máquina es la supercomputadora más grande de América Latina y una de las más grandes del mundo, con lo que la UNAM vuelve a estar a la vanguardia de la tecnología como lo estuvo en la época en la que se adquirió la CRAY-YMP 4/464. Esta nueva supercomputadora estará muy pronto a la disposición de la comunidad universitaria para el desarrollo de investigaciones de primer nivel.
TOP 10 DE SUPERCOMPUTADORAS
(Los superordenadores más rápidos del mundo)

TOP500.org es una organización que mide la incidencia, potencia, capacidad y otras propiedades que son de caracter relevante para la industria de la computación a gran escala, y en este caso los superordenadores que se construyen en diferentes partes del mundo son sus objetivos principales. Sobre estos se hacen test y evaluaciones de nivel profundo a través del método Linpack, que obliga al superordenador a resolver un sistema de ecuaciones lineales de alta densidad. El resultado se computa, se evalua y se contextualiza para crear un listado de aquellos ordenadores que resolvieron de manera más eficiente y rápida este tipo de problemas puntuales. Desde ahí sale este Top 10 de los superordenadores más rápidos del mundo.


  • Fabricante: Cray Inc
  • Ubicación: Estados Unidos, NNSA
  • Sistema Operativo: Linux
  • Procesador: AMD x86_64 Opteron 8 Core 2400 MHz (9.6 GFlops)
  • Ordenador central: Cray XE6 8-core 2.4 GHz (107152 Procesadores)
  • Capacidad: 816 TFlops / 1 PFlop teórico
  • Puesta en Funcionamiento:  2010
Uso principal y detalles: Es increíble que este superordenador pueda estar último en alguna lista, pues su capacidad es tal que se le han asignado varias tareas de carácter confidencial, pero que según ha trascendido podrían estar relacionadas a la búsqueda de focos terroristas con procesamiento de imágenes digitales y construcción de diferentes estrategias para resguardar material nuclear. Inclusive se le han asignado misiones militares de urgencia en caso de desastre nuclear y otras aplicaciones de carácter científico-militar.



9) JUGENE


  • Fabricante: IBM
  • Ubicación: Alemania, Forschungszentrum Juelich (FZJ)
  • Sistema Operativo: CNK/SLES 9
  • Procesador: PowerPC 450 850 MHz (3.4 GFlops) (294912 Procesadores)
  • Ordenador central: PowerPC 450 850 MHz (3.4 GFlops)
  • Capacidad: 825 TFlops / 1 PFlop teórico
  • Costo: no indicado
  • Puesta en Funcionamiento:  2009
Uso principal y detalles: De la familia de IBM BlueGene, este superordenador civil es uno de los de menor consumo en el rubro, y con cuya característica se presenta como un modelo a seguir por los futuros ordenadores. Su utilización está llevada a cabo por disímiles proyectos, pero que en general están ubicados dentro de la física de partículas, medicina, estudios climáticos, sismología y matemáticas aplicadas. Su ubicación en el centro Jülich de supercomputación es fundamental para la industria del país germano y tanto por su ecología como por sus capacidades esta máquina está en constante actualización.
TOP 10: Los superordenadores más rápidos


  • Fabricante: Cray Inc.
  • Ubicación: Estados Unidos, National Energy Research Scientific Computing Center
  • Sistema Operativo: Linux
  • Procesador: AMD x86_64 Opteron Six Core 2600 MHz (10.4 GFlops)
  • Ordenador central: Cray XT5-HE Opteron 6-core 2.6 GHz (112.896 procesadores)
  • Capacidad: 831 TFlops / 1.17 PFlop teórico
  • Puesta en Funcionamiento: 2009
Uso principal y detalles: Es el octavo superordenador más rápido del mundo, pero la más rápida en cuanto a utilización para fines académicos y los hace con sus 8256 nodos computacionales provistos cada uno de un 2.6gz de 12 núcleos con 16 gb de memoria. Sus áreas de incumbencia son las relacionadas a la computación en general y al uso de esta información por el ambiente académico, por lo que su importancia para el mundo de la ciencia es doblemente relevante.
TOP 10: Los superordenadores más rápidos

  • Fabricante: IBM
  • Ubicación: Ubicación: Estados Unidos, (Nueva Mexico) en el LANL
  • Sistema Operativo: Linux
  • Procesador: PowerXCell 8i 3200 MHz (12.8 GFlops) (122400 procesadores)
  • Ordenador central: BladeCenter QS22/LS21 Cluster, PowerXCell 8i 3.2 Ghz / Opteron DC 1.8 GHz, Voltaire Infiniband
  • Capacidad: 1PFlops / 1.3 PFlop teórico
  • Puesta en Funcionamiento: 2009
 
Uso principal y detalles: Desde su instalación, IBM destacó que las posibilidades de este superordenador superaban las propias expectativas militares para el cual fue construido, dando lugar a tareas de índole civil como la investigación científica orientada a las ciencias médicas, físicas y hasta la plataforma adecuada para estudios de mejora ambiental y desarrollo sustentable. 
TOP 10: Los superordenadores más rápidos

6) Tera-100


  • Fabricante: Bull SA.
  • Ubicación: Francia, Commissariat a l'Energie Atomique (CEA)
  • Sistema Operativo: Linux
  • Procesador: Intel Xeon 7500 processor (138368
  • Procesadores)
  • Ordenador central: Bull bullx super-node S6010/S6030
  • Capacidad: 1 PFlops / 1.2 PFlop teórico
  • Costo: no indicado
  • Puesta en Funcionamiento: 2010
Uso principal y detalles: Con la caída de los famosos superordeandores españoles del tope de los puestos importantes de la lista de los superordenadores más rápidos del mundo, Europa quedó poco representada hasta la llegada del Tera-100. Este mastodonte informático se dedica a realizar simulaciones en programas de defensa ante eventos nucleares y situaciones de riesgo mundial. Como dato extra, desde el cuartel donde está ubicada señalan que su capacidad de almacenamiento corresponde a más de 25 mil millones de libros. Casi nada.
TOP 10: Los superordenadores más rápidos

5) Hopper


  • Fabricante: Cray Inc
  • Ubicación: Estados Unidos, National Energy Research Scientific Computing Center
  • Sistema Operativo: Linux
  • Procesador: AMD x86_64 Opteron 12 Core 2100 MHz (8.4 GFlops) (153408 procesadores)
  • Ordenador central: Cray XE6 12-core 2.1 GHz
  • Capacidad: 1 pflops / 1.2 pflops teóricos
  • Puesta en Funcionamiento: 2010
Uso principal y detalles: La investigación científica en astronomía, medicina, clima, matemáticas es materia de adopción en este superordenador que fue uno de los más nombrados hace un tiempo porque rompió con la barrera del petaflop, llevando la capacidad de procesamiento a un nivel histórico. Sus principales usos están orientados a la aceleración de descubrimientos científicos trabajando en conjunto con otros superordenadores de menor potencia, como el DaVinci, Magellan, Franklin, PDSF, etc. Se constituyó como uno de los orgullos estadounidenses en materia computacional.
TOP 10: Los superordenadores más rápidos


  • Fabricante: NEC/HP
  • Ubicación:Japón (Tookyo) GSIC Center, Tokyo Institute of Technology
  • Sistema Operativo: Linux
  • Procesador: Intel EM64T Xeon X56xx (Westmere-EP) 2930 MHz (11.72 GFlops)
  • Ordenador central: HP ProLiant SL390s G7 Xeon 6C X5670, Nvidia GPU
  • Capacidad: 1.1 PF
  • Costo: 30.000.000 U$D
  • Puesta en Funcionamiento: Octubre 2010
Uso principal y detalles: NVIDIA se encarga de gran parte de este superordenador con sus GPU de propósito general TESTLA, y el rendimiento que la unión entre diferentes fabricantes le ha brindado al representante japonés en los superordenadores más rápidos, está enfocado en la resolución de matrices coorporativas y tecnológicas, análisis de condiciones atmosféricas, particularidades físicas y estudio del suelo entre otras muchas aplicaciones prácticas. La familia Tsubame ha ido creciendo exponencialmente desde el 2006, y en cada actualización logran mejorar su performance hasta 30 veces por ciento más.
TOP 10: Los superordenadores más rápidos

3) Nebulae


  • Fabricante: Akira Akebono (Dawning)
  • Ubicación: China (Shenzhen) en el National Supercomputing Centre in Shenzhen (NSCS)
  • Sistema Operativo: Linux
  • Procesador: Intel EM64T Xeon X56xx (Westmere-EP) 2660 MHz (10.64 GFlops) (120.640 procesadores)
  • Ordenador Central: Dawning TC3600 Blade, Intel X5650, NVidia Tesla C2050 GPU
  • Capacidad: 1.27 PFlops / 2.9 PF teóricos
  • Puesta en Funcionamiento: 2010
Uso principal y detalles: Si bien ya ha quedado debajo de otro invento chino, este superordenador sigue siendo uno de los más grandes orgullos del país por lo rápido que creció basándose en l. La tecnología que lo compone está basada en la unión óptima entre el trabajo de los procesadores y la aceleración gráfica. Como el sur de China es el principal centro de la industria tecnológica del gigante asiático, un superordenador como este se utiliza para investigación de nuevas tecnologías aplicadas y gestión de materias primas.
TOP 10: Los superordenadores más rápidos

  • Fabricante: Cray
  • Ubicación: Estados Unidos (Tenessee), en el DOE/SC/Oak Ridge National Laboratory
  • Sistema Operativo: Linux
  • Procesador: AMD x86_64 Opteron Six Core 2600 MHz (10.4 GFlops) (186.368 procesadores)
  • Ordenador Central: Cray XT5-HE Opteron 6-core 2.6 GHz
  • Capacidad: 1.75 PFlops / 2.3 PF teóricos.
  • Costo:  104.000.000 U$D
  • Puesta en funcionamiento: Noviembre 2009 
Uso principal y detalles: Hijo pródigo del superordenador Cray XT4 de la familia Cray XT, el Jaguar alcanza una velocidad sostenida de 1,75 petaFLOPS, con picos de 2,33 petaFLOPS Sus objetivos de aplicación son infinitos dadas sus capacidades, pero lo más común es su uso para pronóstico del clima, energías renovables, la ciencia de los materiales y la fusión nuclear, sismología, entre otros. Decididamente, el nombre Jaguar le queda bien a este superordenador, aunque  corriendo delante suyo tiene a un guepardo. Más sobre Jaguar en Neoteo.
TOP 10: Los superordenadores más rápidos

1) Tianhe-1A


  • Fabricante: Defence Science and Technology University
  • Ubicación: China (Tianjin) en el National Supercomputing Center in Tianjin
  • Sistema Operativo: Linux
  • Procesador: Intel EM64T Xeon X56xx (Westmere-EP) 2930 MHz (11.72 GFlops) (186368 procesadores)
  • Ordenador Central: NUDT TH MPP, X5670 2.93Ghz 6C, NVIDIA GPU, FT-1000 8C
  • Capacidad: 2.56 PFlops / 4.7 PF teóricos.
  • Costo: 88.000.000U$D

Puesta en funcionamiento: Octubre 2010
Uso principal y detalles: Desde Octubre del 2010, el Tianhe-1A se ha convertido en el ganador –temporario- del primer puesto en los superordenadores más rápidos del mundo y su área de aplicación es la que corresponde, como ya es regla, a la investigación. Sus usos están enfocados a la simulación aérea, definición de marcos y acumulación de datos para la extracción petróleo, y también para el análisis meteorológico entre otros. Su velocidad teórica es de 4.7 petaflops/s pero en la práctica y manteniendo niveles de eficiencia estables este monstruo chino de los cálculos se mueve a 2.5 pf/s. Así que incluso trabajando a la mitad de su capacidad ya se hizo del primer puesto, por lo que el listón puede estar bien arriba por mucho tiempo. Más cobertura aquí en Neoteo.


¿QUE CARACTERÍSTICAS POSEEN ESTAS SUPERMAQUINAS?


Las principales son:
  • Velocidad de procesacion : miles de millones de instrucciones de coma flotante por segundo.
  • Usuarios a la vez: hasta miles, en entorno de redes amplias.
  • Tamaño: requieren instalaciones especiales y aire acondicionado industrial.
  • Dificultad de uso: solo para especialistas.
  • Clientes usuales: grandes centros de investigación.
  • Penetración social: prácticamente nula.
  • Impacto social: muy importante en el ámbito de la investigación, ya que provee cálculos a alta velocidad de procesamiento, permitiendo, por ejemplo, calcular en secuencia el genoma humano, número π, desarrollar cálculos de problemas físicos dejando un margen de error muy bajo, etc.
  • Parques instalados: menos de un millar en todo el mundo.
  • Hardware : Principal funcionamiento operativo

¿CUALES SON SUS PRINCIPALES USOS?


Las supercomputadoras se utilizan para abordar problemas muy complejos o que no pueden realizarse en el mundo físico bien, ya sea porque son peligrosos, involucran cosas increíblemente pequeñas o increíblemente grandes. A continuación damos algunos ejemplos:
  • Mediante el uso de supercomputadoras, los investigadores modelan el clima pasado y el clima actual y predicen el clima futuro .
  • Los astrónomos y los científicos del espacio utilizan las supercomputadoras para estudiar el Sol y el clima espacial.
  • Los científicos usan supercomputadoras para simular de qué manera un tsunami podría afectar una determinada costa o ciudad.
  • Las supercomputadoras se utilizan para simular explosiones de supernovas en el espacio.
  • Las supercomputadoras se utilizan para probar la aerodinámica de los más recientes aviones militares.
  • Las supercomputadoras se están utilizando para modelar cómo se doblan las proteínas y cómo ese plegamiento puede afectar a la gente que sufre la enfermedad de Alzheimer, la fibrosis quística y muchos tipos de cáncer.
  • Las supercomputadoras se utilizan para modelar explosiones nucleares, limitando la necesidad de verdaderas pruebas nucleares.