martes, 12 de noviembre de 2013

SUPERCOMPUTADORAS .lll.

SUPERCOMPUTADORAS

¿QUE ES UNA SUPERCOMPUTADORA?
Una supercomputadora o un superordenador es aquella con capacidades de cálculo muy superiores a las computadoras corrientes y de escritorio y que son usadas con fines específicos. Hoy día los términos de supercomputadora y superordenador están siendo reemplazados por computadora de alto desempeño y ambiente de cómputo de alto desempeño, ya que las supercomputadoras son un conjunto de poderosos ordenadores unidos entre sí para aumentar su potencia de trabajo y desempeño. Al año 2011, los superordenadores más rápidos funcionaban en aproximadamente más de 200 teraflops (que en la jerga de la computación significa que realizan más de 200 billones de operaciones por segundo). La lista de supercomputadoras se encuentra en la lista TOP500.

ORIGEN E HISTORIA DE LAS SUPERCOMPUTADOTRA

Las supercomputadoras fueron introducidas en la década de 1970 y fueron diseñadas principalmente por Seymour Cray en la compañía Control Data Corporation (CDC), la cual dominó el mercado durante esa época, hasta que Cray dejó CDC para formar su propia empresa, Cray Research. Con esta nueva empresa siguió dominando el mercado con sus nuevos diseños, obteniendo el podio más alto en supercómputo durante cinco años consecutivos (1985-1990). En los años ochenta un gran número de empresas competidoras entraron al mercado en paralelo con la creación del mercado de los minicomputadores una década antes, pero muchas de ellas desaparecieron a mediados de los años noventa. El término está en constante flujo. Las supercomputadoras de hoy tienden a convertirse en las computadoras ordinarias del mañana. Las primeras máquinas de CDC fueron simplemente procesadores escalares muy rápidas, y muchos de los nuevos competidores desarrollaron sus propios procesadores escalares a un bajo precio para poder penetrar en el mercado.
De principio a mediados de los años ochenta se vieron máquinas con un modesto número de procesadores vectoriales trabajando en paralelo, lo cual se convirtió en un estándar. El número típico de procesadores estaba en el rango de 4 a 16. En la última parte de los años ochenta y principios de los noventa, la atención cambió de procesadores vectoriales a sistemas de procesadores masivamente paralelos con miles de CPU «ordinarios». En la actualidad, diseños paralelos están basados en microprocesadores de clase servidor que están disponibles actualmente (2011). Ejemplos de tales procesadores son PowerPC, Opteron o Xeon, y la mayoría de los superordenadores modernos son hoy en día clústeres de computadores altamente afinadas usando procesadores comunes combinados con interconexiones especiales.
Hasta ahora el uso y generación de las mismas se ha limitado a organismos militares, gubernamentales, académicos o empresariales.
Estas se usan para tareas de cálculos intensivos, tales como problemas que involucran física cuántica, predicción del clima, investigación de cambio climático, modelado de moléculas, simulaciones físicas tal como la simulación de aviones o automóviles en el viento (también conocido como Computational Fluid Dinamics), simulación de la detonación de armas nucleares e investigación en la fusión nuclear.
Como ejemplo, se encuentra la supercomputadora IBM Roadrunner; científicos de IBM y del laboratorio de Los Álamos trabajaron seis años en la tecnología de la computadora. Algunos elementos de Roadrunner tienen como antecedentes videojuegos populares, de acuerdo con David Turek, vicepresidente del programa de supercomputadoras de IBM. «En cierta forma, se trata de una versión superior de Sony PlayStation 3», indicó. «Tomamos el diseño básico del chip (de PlayStation) y mejoramos su capacidad», informó Turek.
Sin embargo, Roadrunner difícilmente pueda asemejarse a un videojuego. El sistema de interconexión ocupa 557 m² de espacio. Cuenta con 91,7 km de fibra óptica y pesa 226,8 t . La supercomputadora está en el laboratorio de investigaciones de IBM en Poughkeepsie, Nueva York y fue trasladada en julio del 2008 al Laboratorio Nacional Los Álamos, en Nuevo México.[[m2]]
Japón creó la primera supercomputadora petaflops la MDGrape-3, pero solo de propósitos particulares, luego IBM de USA creo la correcaminos, también de 1 petaflops, China la Milky Way One de 1,2 petaflops y Cray de EE.UU. la Jaguar de 1,7 petaflop, que es al final del año 2009 la más rápida. La supercomputadora más rápida a fines del 2010 era la china Tianhe 1A con picos de velocidad de 2,5 petaflops.

LAS SUPERCOMPUTADORAS NECESITABAN UN MUY BUEN SISTEMA DE ENFRIAMIENTO PARA PODER PROCESAR MAS RÁPIDO LA INFORMACIÓN

Muchas de las CPUs usadas en los supercomputadores de hoy disipan 10 veces más calor que un disco de estufa común . Algunos diseños necesitan enfriar los múltiples CPUs a -85 °C (-185 °F).
Para poder enfriar múltiples CPUs a tales temperaturas requiere de un gran consumo de energía. Por ejemplo, un nuevo supercomputador llamado Aquasar tendrá una velocidad tope de 10 teraflops. Mientras tanto el consumo de energía de un solo rack de este supercomputador consume cerca de 10 kW. Como comparación, un rack del supercomputador Blue Gene L/P consume alrededor de 40 kW.
El consumo promedio de un supercomputador dentro de la lista de los 500 supercomputadores más rápidos del mundo es de alrededor de 257 kW.
Para el supercomputador Aquasar, que será instalado en el Instituto Tecnológico Federal Suizo (ETH), se utilizará un nuevo diseño de enfriamiento líquido. Se necesitarán 10 litros de agua que fluirán a una tasa de 29,5 litros por minuto.
Una de las innovaciones en este diseño es que normalmente los sistemas de enfriamiento aíslan el líquido de la CPU y la transmisión de calor se da a través de convección desde la cubierta metálica de la CPU a través de un adaptador generalmente de cobre u otro material térmicamente conductivo. La innovación consiste en un nuevo diseño en el cual llega el agua directamente a la CPU mediante tubos capilares de manera que la transmisión de calor es más eficiente.
En el caso del ETH en Suiza, el calor extraído del supercomputador será reciclado para calentar habitaciones dentro de la misma universidad.

TIPOS DE SUPERCOMPUTADORAS

Existen dos tipos principales de supercomputadores: máquinas de vectores y máquinas paralelas. Las dos trabajan RAPIDO, pero en forma diferente. 
      Digamos que tu tienes 100 problemas de matemáticas. Si tu fueras un computador de vectores, te sentarías y harías todos los problemas tu mismo tan rápido como pudieras. 
      Para trabajar como un computador paralelo, tu tendrías que conseguir y compartir el trabajo con sus amigos. Con 10 amigos, tu harías solo 10 problemas. Si fueran 20 amigos, cada uno solo tendría que hacer 5 problemas. 
     A pesar de que tu fueras muy bueno en matemáticas, te tomaría mas tiempo en hacer todos los 100 problemas que a las 20 personas trabajando juntas.
Procesamiento Vectorial
El procesamiento vectorial requiere específicamente instrucciones con vectores en lenguaje de máquina. El procesamiento requiere hardware canalizado, pero no viceversa. Una instrucción vectorial indica la operación que se va a realizar y especifica la lista de operandos (denominada vector) sobre los que operará. Cuando se ejecuta una instrucción vectorial, se alimentan los elementos del vector a la canalización apropiada uno a la vez, retrasados por el tiempo que toma completar una etapa.
Ejecución De Instrucciones En Paralelo
Desde lo albores de la computación, los diseñadores han tratado de hacer máquinas más rápidas. Hasta cierto punto, esto se podría lograr haciendo más veloz el hardware; sin embargo, empiezan a aparecer en el horizonte diversos límites físicos. Por unlado, las leyes de la física señalan que nada puede viajar más rápido que la velocidad de la luz, que es de alrededor de 30cm, por nanosegundo en el vacío y de 20 cm por nanosegundo a través de alambre de cobre.
Esto significa que para construir una computadora con un tiempo de instrucción de 1 nanosegundo, la distancia total que las señalas eléctricas tuvieran que viajar entre la memoria, el CPU y de regreso, no debe exceder de 20 centímetros. De ahí que las computadoras demasiado rápidas tengan que ser muy pequeñas.
Desgraciadamente, las computadoras rápidas producen más calor que las lentas, y el construirlas en un volumen reducido hace difícil disipar dicho calor. En ocasiones, las supercomputadoras se sumergen en freón líquido, un refrigerante, a fin de eliminar el calor tan pronto como sea posible. Con todo, hacer más y más rápidas a las computadoras es cada día más y más difícil, así como muy caro.
No obstante, es posible lograrlo de otra manera: en lugar de un solo CPU de alta velocidad, se puede construir una máquina con varias ALU más lentas (y más baratas), o hasta CPU completas, para obtener el mismo poder de cómputo a un costo más bajo. Muchas investigaciones se han dedicado a construir este tipo de máquinas paralelas.
Las máquinas paralelas pueden dividirse en tres categorías (Flynn, 1972), basadas en el número de instrucciones y de datos que pueden procesar:
* SISD: Corriente de instrucciones sencilla. Corriente de datos sencilla.
* SIMD: Corriente de instrucciones sencilla. Corriente de datos 
 múltiple.
* MIMD: Corriente de instrucciones múltiple. Corriente de datos múltiples.
Por ejemplo, la CDC 6600 y algunas de sus sucesoras tienen unidades funcionales múltiples (ALU especializadas), cada una de las cuales puede realizar una operación sencilla a alta velocidad, según se ilustra en la figura 1. En este ejemplo, se tienen cinco unidades funcionales, dos de ellas para la suma y las tres restantes para las operaciones de resta, multiplicación y división.
La idea que sustenta este diseño es que la unidad de control extrae un instrucción y la dirige a una de las unidades funcionales para su ejecución; mientras tanto, la unidad de control extrae la siguiente instrucción y la envía a otra unidad funcional. Este proceso continúa hasta que no se puede avanzar más, ya sea porque todas las unidades del tipo requerido están ocupadas, o bien porque se necesita un operando que todavía se está procesado. 
Por lo que en general se utiliza para las operaciones de punto flotante, que son lentas y complejas, en lugar de las operaciones con números enteros que son sencillas y rápidas.
En la figura 2. (a), se observa una CPU formada por cinco unidades de procesamiento de P1 a P5. Durante el primer intervalo de tiempo, P1 extrae de memoria la primera instrucción; en el segundo intervalo, la primera instrucción pasa a P2 para su análisis, mientras que P1 extrae la siguiente instrucción. En cada uno de los intervalos subsecuentes, P1 extrae una nueva instrucción y las anteriores pasan a la siguiente unidad, a lo largo de la trayectoria.
A la organización de la figura 2 (a) se le podría llamar PROCESAMIENTO ENTUBADO o PROCESAMIENTO EN LÍNEA (pipeline). Si cada paso (intervalo de tiempo) dura n nanosegundos, se requiere de 5n nanosegundos para ejecutar una instrucción. Sin embargo, cada n nanosegundos P5 termina de ejecutar una instrucción, lo que incrementa la velocidad en un factor de cinco. Solo hay un programa y un conjunto de datos.
La MÁQUINA VECTORIAL que se muestra en la siguiente figura 3 tiene una arquitectura que se adapta muy bien a esta tarea. En forma análoga, la ALU es en sí una unidad vectorial capaz de realizar operaciones como la suma de vectores a partir de dos vectores de entrada y obteniendo como resultado un vector de salida. Algunas supercomputadoras tienen una arquitectura parecida a ésta.
Computadoras Vectoriales SIMD
La Máquina de Conexión está concebida para aplicaciones simbólicas tales como problemas de inteligencia artificial. La máquina puede realizar operaciones de punto flotante, no está convenientemente adaptada para la predicción del clima, el análisis de datos sismológicos, o el procedimientos de datos en reconocimiento de imágenes de tres dimensiones en tiempo real. Para aplicaciones de demasiados cálculos como éstas, se requiere de computadoras vectoriales (llamadas también supercomputadoras numéricas). 
Una aplicación típica de esta clase es una sentencia completa como:
For i: = 1 to n do a[ i ]: = b[ i ] + c[ i ]
Donde a, b y c son vectores, es decir, arreglos numéricos, por lo general en punto flotante. La interacción for anterior indica a la computadora que sume los i-ésimos elementos de b y c y que almacene el resultado en el i-ésimo elemento de a.
Técnicamente, el programa especifica que los elementos deben ser sumados en forma secuencial, pero esto se debe al hecho de que Pascal no tiene ninguna otra forma de expresar la suma de dos vectores. Además, un compilador que optimice puede ver que el orden es irrelevante, y puede generar un código para sumar los n elementos en forma simultánea, si es que el hardware posee capacidad para hacerlo.
En la Figura 3 se muestra una posible arquitectura SIMD bien adaptada para este tipo de procesamiento de vectores. Esta máquina toma como entrada a dos vectores de n elementos y opera en paralelo en los elementos correspondientes, utilizando una ALU vectorial que puede trabajar con los n elementos al mismo tiempo.
Se requiere también de computadoras vectoriales para efectuar operaciones escalares y operaciones mixtas escalares y vectoriales.
En la práctica, pocas supercomputadores se construyen realmente como en la Figura 3.
La Máquina de Conexión se puede permitir tantas ALU pues las que utiliza son sencillas y baratas. Para una supercomputadoras se requiere de ALU de punto flotante extremadamente rápidas, lo que incrementa en gran medida el precio.
El método que se usa normalmente es combinar el procesamiento vectorial con el procesamiento serie. Las operaciones de punto flotante son demasiado complejos, pues requieren de muchos pasos, y cualquier operación de pasos múltiples es candidata a su procesamiento en serie. 
Normalmente, las supercomputadoras tienen varias ALU, cada una especializada para una operación en particular y todas capaces de trabajar en paralelo. Como ejemplo, considérese a la Cray-1, la primera supercomputadora del mundo. Aunque no es de las más recientes tiene una arquitectura simple de tipo RISC que la hace ser un buen sujeto de estudio. No es un accidente que la Cray-1 tenga un gran parecido con la CDC 6600. Ambas fueron diseñadas por Seymour Cray, uno de los fundadores de CDC y su arquitecto en jefe hasta que renunció para formar su propia compañía , Cray Research.
La Cray-1 está orientada a los registros, con la mayor parte de las instrucciones de 16 bits consistentes en un código de operación de 7 bits y 3 bits para indicar el número de registro para cada uno de los tres operandos. Como se puede apreciar en la figura 4, existen cinco tipos de registros. Los ocho registros A de 24 bits se usan para direccionar la memoria. Los 64 registros B 24 bits se utilizan para almacenar los registros A cuándo éstos no se necesitan, en lugar de escribirlos de nuevo a memoria. Los ocho registros S de 64 bits se emplean para contener cantidades escalares, tanto enteras como de punto flotante. Los valores en estos registros se pueden usar como operandos en ambos tipos de operaciones . Los 64 registros T de 64 bits son un almacenamiento extra para los registros S, una vez más reducir el número de instrucciones de carga y almacenamiento.
La parte más interesante del conjunto de registros de la Cray-1 es el grupo de ocho registros de vector. Cada uno de los cuales puede contener un vector de punto flotante de 64 elementos. Se puede sumar, resta o multiplicar dos vectores con una instrucción de 16 bits. La división no es posible, pero se pueden calcular recíprocos.
Todas las operaciones con vectores utilizan operandos de registros.
No todas las supercomputadoras tienen esta propiedad de tipo RISC de requerir que todos los operandos se encuentren en registros. Por ejemplo, la CDC 205 realiza sus operaciones con vectores en memoria.
La Cray-1 tiene 12 unidades funcionales, dos unidades son para aritmética de direcciones de 24 bits y cuatro para operaciones enteras en escalares de 64 bits.
La Cray-1 no tiene una unidad para efectuar multiplicaciones de enteros. Las seis unidades restantes trabajan todas con vectores y en serie. La suma, la multiplicación y las unidades de recíprocos trabajan también sobre números escalares de punto flotante lo mismo que con vectores.
Como muchas otras computadoras de vector, la Cray-1 permite el encadenamiento de operaciones.
R1:= R1*R2+R3
Donde R1, R2 y R3 son todos los registros de vector, sería realizar la multiplicación de vectores, elemento por elemento, almacenar el resultado en alguna parte después hacer la suma de vectores. 
Superaplicaciones Para Las Supercomputadoras
Las supercomputadoras se conocen tanto por sus aplicaciones como por su velocidad o capacidad de computación, que puede ser 10 veces mayor que la de una macrocomputadora. Las siguientes aplicaciones son representativas de las supercomputadoras:
* Las supercomputadoras ordenan y analizan grandes cantidades de datos sísmicos que se recopilan durante las exploraciones en busca de yacimientos petrolíferos.
* Las supercomputadoras permiten la simulación de una corriente de aire alrededor de un avión a diferentes velocidades y altitudes.
* Los fabricantes de automóviles usan supercomputadoras para simular accidentes automovilísticos en pantallas de video. (Es menos costoso, permite conocer más detalles y es más seguro que desarrollar un choque real).
* Los físicos usan supercomputadoras para estudiar los resultados de explosiones de armas nucleares.
* Los meteorólogos usan supercomputadoras para estudiar la formación de tornados.
* Los estudios de producción de Hollywood usan gráficos avanzados para crear efectos especiales para películas y comerciales de televisión.
* Analizar el comportamiento de fluidos, diseñar piezas aerodinámicas
La simulación empleando superordenadores complementa (cuando no reemplaza) cada vez más a los experimentos y a los modelos a escala en un amplio rango de aplicaciones científicas, de ingeniería y comerciales. En algunas áreas industriales, tales como el diseño de aviones, vehículos espaciales, grandes estructuras resistentes, barcos y coches es ya una necesidad ineludible. En otras, los científicos e ingenieros están realizando grandes avances en el diseño de moléculas para medicamentos, enzimas, catalizadores y nuevos materiales. 
El tiempo transcurrido desde la concepción de un nuevo producto hasta su introducción en el mercado y el coste de su proceso de diseño pueden reducirse drásticamente con la ayuda de la simulación por ordenador. Todo esto, combinado con la exactitud alcanzada en reproducir la realidad, tiene el efecto de aumentar substancialmente la competitividad de la industria al reducir costes y mejorar la calidad. Al mismo tiempo hay áreas donde los superordenadores deben utilizarse para establecer los métodos y modelos de simulación física más eficientes.
Todas estas aplicaciones son poco viables, sino es que imposibles, en las macrocomputadoras.
Rara vez se requieren las supercomputadoras para el procesamiento administrativo limitado a entradas / salidas, el procesamiento de la nómina o la contabilidad. Hacerlo sería desaprovechar un recurso de alto costo y relativamente escaso. 
Ejemplos
A continuación se explican algunos ejemplos de interés
La gestión del Medio Ambiente (atmósfera/agua/tierra) y la predicción del cambio climático es un ejemplo característico. Distintas organizaciones gubernamentales ya han invertido grandes sumas en nuevas técnicas para observar la atmósfera y el océano y en nuevos programas de investigación enfocados a evaluar el efecto del genero humano en el ambiente. 
Así es bien conocido, que los modelos numéricos de la atmósfera y el océano juegan un papel importante en el estudio del clima. Sin embargo, por ejemplo, la evaluación completa de la respuesta global y regional del efecto invernadero debido al aumento de la concentración de gases proveniente de fuentes antropogénicas, requerirá el uso de modelos climáticos más sofisticados que los existentes. Hoy en día se requieren aumentos significativos en la precisión y el uso de modelos computacionales de la física y la química mucho más precisos y con un mayor costo computacional.
Otro ejemplo típico es el diseño de nuevas moléculas o materiales y es básico para las industrias química y farmacéutica. Combinado con desarrollos en biotecnología, se pueden diseñar y producir nuevas proteínas, obteniéndose nuevos productos que tendrán impacto en la vida cotidiana. Las estrategias tradicionales para el diseño de nuevos componentes involucra métodos inteligentes de prueba y error. La modelización computacional está tan solo comenzando a hacer impacto en el proceso de diseño. Sin embargo, este diseño aún consume mucho tiempo y dinero. Un aumento considerable en potencia computacional es necesario para acelerar el diseño de nuevos productos, lo que permitirá un mayor nivel de competitividad en nuestra industria química. 
Al desarrollarse totalmente, los modelos computacionales incorporarán una combinación de simulación, búsqueda en bases de datos y visualización, y ahorrarán al diseñador tiempo de experimentación en laboratorio con la consiguiente reducción de coste. Ello requerirá aumentar al menos mil veces la potencia computacional disponible actualmente. Se prevé que la aplicación de las técnicas de modelación molecular a este nivel será imperativo para que las industrias químicas, farmacéutica y biotecnológica puedan seguir siendo innovadoras y competitivas a nivel internacional.
La optimización es otro ejemplo de la necesidad de disponer de modelos matemáticos precisos de la realidad y ordenadores potentes. La optimización es una aplicación relativamente nueva para los superordenadores y es cada vez más importante en las operaciones de grandes industrias y compañías de servicio. La solución de grandes problemas de optimización es casi siempre crítica: las decisiones deben tomarse en tiempo real para responder a situaciones que evolucionan rápidamente. 
La diferencia entre buenas soluciones de estos problemas y soluciones óptimas o cercanas a la óptima, pueden significar el ahorro de grandes sumas de dinero. Las principales aplicaciones de la optimización incluyen el diseño de formas estructurales complejas, la planificación de la inversión, la planificación y distribución de la producción, el trazado de carreteras, la planificación de rutas y de personal, etc. La ayuda de los superordenadores a través de una mejor interacción investigador-ordenador da un realce esencial al poder creativo del ser humano y permite incorporar a las decisiones de diseño un mayor conjunto de elementos concretos de importancia técnica, económica y empresarial.
El mercado de los superordenadores ha crecido de manera que cada vez son más los fabricantes de computadoras que se dedican al diseño de superordenadores, algunos de ellos son:
* CRAY INCORPORATION
* IBM
* INTEL
* ISGI
* HITACHI
* COMPAQ
* FUJITSU
* SUN
* NEC
* HEWLETT PACKARD
Cray Incorporation
Cray Inc. creada en Marzo del 2000 de la unión de Tera Computer Company y Cray Research, es un líder en el mercado de las supercomputadoras. Cray Inc. Se dedica a ayudar a los usuarios a resolver la mayoría de los problemas de computación más cruciales sobre la tierra, diseñando los carros y camiones que conducimos, creando nuevos materiales para el descubrimiento de nuevas medicinas. Prediciendo severos cambios del clima y en infinidad de problemas más. 
La compañía Cray comienza en el año 1972, cuando el legendario Seymor Cray, conocido como el “padre de las supercomputadoras” fundó Cray Research en Wisconsin. 
El primer sistema Cray-1 fue instalado en el Laboratiorio “Los Alamos” en 1976 por $8.8 millones de dólares, teniendo la capacidad de 160 millones de operaciones de punto flotante por segundo (160 megaflops) y con 8 megabytes en memoria principal. Para poder incrementar la velocidad de este sistema, la supercomputadora Cray-1 tenía una forma única en “C” que permitía que los circuitos integrados estuvieran más juntos. Ningún cable del sistema medía mas de 4 pies de largo. Para controlar el intenso calor generado por la computadora, Cray elaboró un innovador sistema de refrigeración utilizando Freon.
La compañìa Cray elaboro el primer multiprocesdador de la supercomputadora, el Cray X-MP que fue introducido en 1982. El sistema Cray-2 apareciò en 1985 superando al Cray-1.
Supercómputo en la UNAM
Para llevar a cabo una investigación científica y desarrollo tecnológico de una manera competitiva se requieren de servicios de cómputo modernos. 
Con el propósito de proporcionar este tipo de servicios a la comunidad universitaria y productiva del país la Universidad Nacional Autónoma de México puso en operación en 1991 una supercomputadora CRAY Y-MP/432 y un Laboratorio de Visualización. 
Estos servicios están disponibles a traés de la RedUNAM los investigadores, profesores y estudiantes de la UNAM, así como a los miembros de las instituciones de investigación y educación superior de todo el país. Están también disponibles, a través de convenios específicos, a las industrias que los requieran para llevar a cabo investigación, desarrollo y producción. 
El personal de la Dirección General de Servicios de Cómputo Académico (DGSCA) que se encarga de estos servicios proporciona asesoría en el uso de compiladores y paquetes que requieran los usuarios. También se ocupan de analizar los problemas que se les planteen para determinar si el uso de supercómputo y visualización son necesarios para su solución. 
CRAY Y-MP4/464

Aspectos Físicos: 
La supercomputadora Cray se compone de varios gabinetes: el CPU, las unidades de disco, la unidad de refrigeración y la unidad de control de energía y refrigeración. El CPU ocupa un área de 1.5 m., pesa 2,450 kg. y mide 1.9 m. de altura. 
Características: 
* El equipo instalado tiene 4 procesadores diseñados con capacidad para trabajar en paralelo y realizar operaciones matemáticas escalares o vectoriales. 
* La memoria central del CPU es de 32 Megapalabras (1 palabra=64 bits), además existe una memoria temporal (Buffer Memory) de 4 Mp (32MB); ésta sirve como interfaz entre los procesadores y los subsistemas restantes del CPU. 
Sistema Operativo: 
El sistema operativo de CRAY es UNICOS 7.0, el cual está basado en UNIX. Dicho sistema operativo tiene capacidad de multiproceso y multiprogramación así como un sistema de archivos distribuido en diferentes unidades físicas. 
CRAY-ORIGIN 2000
En enero de 1997, arribó a la Dirección General de Servicios de Cómputo Académico, la nueva supercomputadora "CRAY-ORIGIN 2000" de Silicon Graphics. 
Características: 
* 40 Procesadores MIPS RISC R 10000 64-bit a 195 MHZ. 
* 10 Gb en memoria RAM. 
* 171 Gb de espacio en disco. 
* 13.6 GFlops pico (contra los 1.2 GFlops de la CRAY Y-P4/464). 
Una característica muy importante, es que este nuevo tipo de procesadores pertenecen a la tecnología CMOS, los cuales requieren solamente enfriamiento por aire a 15 grados centígrados y no una compleja instalación de enfriamiento con Fluorinert, como la que usa la actual supercomputadora, por lo cual el mantenimiento es mínimo. 
Esta máquina es la supercomputadora más grande de América Latina y una de las más grandes del mundo, con lo que la UNAM vuelve a estar a la vanguardia de la tecnología como lo estuvo en la época en la que se adquirió la CRAY-YMP 4/464. Esta nueva supercomputadora estará muy pronto a la disposición de la comunidad universitaria para el desarrollo de investigaciones de primer nivel.
TOP 10 DE SUPERCOMPUTADORAS
(Los superordenadores más rápidos del mundo)

TOP500.org es una organización que mide la incidencia, potencia, capacidad y otras propiedades que son de caracter relevante para la industria de la computación a gran escala, y en este caso los superordenadores que se construyen en diferentes partes del mundo son sus objetivos principales. Sobre estos se hacen test y evaluaciones de nivel profundo a través del método Linpack, que obliga al superordenador a resolver un sistema de ecuaciones lineales de alta densidad. El resultado se computa, se evalua y se contextualiza para crear un listado de aquellos ordenadores que resolvieron de manera más eficiente y rápida este tipo de problemas puntuales. Desde ahí sale este Top 10 de los superordenadores más rápidos del mundo.


  • Fabricante: Cray Inc
  • Ubicación: Estados Unidos, NNSA
  • Sistema Operativo: Linux
  • Procesador: AMD x86_64 Opteron 8 Core 2400 MHz (9.6 GFlops)
  • Ordenador central: Cray XE6 8-core 2.4 GHz (107152 Procesadores)
  • Capacidad: 816 TFlops / 1 PFlop teórico
  • Puesta en Funcionamiento:  2010
Uso principal y detalles: Es increíble que este superordenador pueda estar último en alguna lista, pues su capacidad es tal que se le han asignado varias tareas de carácter confidencial, pero que según ha trascendido podrían estar relacionadas a la búsqueda de focos terroristas con procesamiento de imágenes digitales y construcción de diferentes estrategias para resguardar material nuclear. Inclusive se le han asignado misiones militares de urgencia en caso de desastre nuclear y otras aplicaciones de carácter científico-militar.



9) JUGENE


  • Fabricante: IBM
  • Ubicación: Alemania, Forschungszentrum Juelich (FZJ)
  • Sistema Operativo: CNK/SLES 9
  • Procesador: PowerPC 450 850 MHz (3.4 GFlops) (294912 Procesadores)
  • Ordenador central: PowerPC 450 850 MHz (3.4 GFlops)
  • Capacidad: 825 TFlops / 1 PFlop teórico
  • Costo: no indicado
  • Puesta en Funcionamiento:  2009
Uso principal y detalles: De la familia de IBM BlueGene, este superordenador civil es uno de los de menor consumo en el rubro, y con cuya característica se presenta como un modelo a seguir por los futuros ordenadores. Su utilización está llevada a cabo por disímiles proyectos, pero que en general están ubicados dentro de la física de partículas, medicina, estudios climáticos, sismología y matemáticas aplicadas. Su ubicación en el centro Jülich de supercomputación es fundamental para la industria del país germano y tanto por su ecología como por sus capacidades esta máquina está en constante actualización.
TOP 10: Los superordenadores más rápidos


  • Fabricante: Cray Inc.
  • Ubicación: Estados Unidos, National Energy Research Scientific Computing Center
  • Sistema Operativo: Linux
  • Procesador: AMD x86_64 Opteron Six Core 2600 MHz (10.4 GFlops)
  • Ordenador central: Cray XT5-HE Opteron 6-core 2.6 GHz (112.896 procesadores)
  • Capacidad: 831 TFlops / 1.17 PFlop teórico
  • Puesta en Funcionamiento: 2009
Uso principal y detalles: Es el octavo superordenador más rápido del mundo, pero la más rápida en cuanto a utilización para fines académicos y los hace con sus 8256 nodos computacionales provistos cada uno de un 2.6gz de 12 núcleos con 16 gb de memoria. Sus áreas de incumbencia son las relacionadas a la computación en general y al uso de esta información por el ambiente académico, por lo que su importancia para el mundo de la ciencia es doblemente relevante.
TOP 10: Los superordenadores más rápidos

  • Fabricante: IBM
  • Ubicación: Ubicación: Estados Unidos, (Nueva Mexico) en el LANL
  • Sistema Operativo: Linux
  • Procesador: PowerXCell 8i 3200 MHz (12.8 GFlops) (122400 procesadores)
  • Ordenador central: BladeCenter QS22/LS21 Cluster, PowerXCell 8i 3.2 Ghz / Opteron DC 1.8 GHz, Voltaire Infiniband
  • Capacidad: 1PFlops / 1.3 PFlop teórico
  • Puesta en Funcionamiento: 2009
 
Uso principal y detalles: Desde su instalación, IBM destacó que las posibilidades de este superordenador superaban las propias expectativas militares para el cual fue construido, dando lugar a tareas de índole civil como la investigación científica orientada a las ciencias médicas, físicas y hasta la plataforma adecuada para estudios de mejora ambiental y desarrollo sustentable. 
TOP 10: Los superordenadores más rápidos

6) Tera-100


  • Fabricante: Bull SA.
  • Ubicación: Francia, Commissariat a l'Energie Atomique (CEA)
  • Sistema Operativo: Linux
  • Procesador: Intel Xeon 7500 processor (138368
  • Procesadores)
  • Ordenador central: Bull bullx super-node S6010/S6030
  • Capacidad: 1 PFlops / 1.2 PFlop teórico
  • Costo: no indicado
  • Puesta en Funcionamiento: 2010
Uso principal y detalles: Con la caída de los famosos superordeandores españoles del tope de los puestos importantes de la lista de los superordenadores más rápidos del mundo, Europa quedó poco representada hasta la llegada del Tera-100. Este mastodonte informático se dedica a realizar simulaciones en programas de defensa ante eventos nucleares y situaciones de riesgo mundial. Como dato extra, desde el cuartel donde está ubicada señalan que su capacidad de almacenamiento corresponde a más de 25 mil millones de libros. Casi nada.
TOP 10: Los superordenadores más rápidos

5) Hopper


  • Fabricante: Cray Inc
  • Ubicación: Estados Unidos, National Energy Research Scientific Computing Center
  • Sistema Operativo: Linux
  • Procesador: AMD x86_64 Opteron 12 Core 2100 MHz (8.4 GFlops) (153408 procesadores)
  • Ordenador central: Cray XE6 12-core 2.1 GHz
  • Capacidad: 1 pflops / 1.2 pflops teóricos
  • Puesta en Funcionamiento: 2010
Uso principal y detalles: La investigación científica en astronomía, medicina, clima, matemáticas es materia de adopción en este superordenador que fue uno de los más nombrados hace un tiempo porque rompió con la barrera del petaflop, llevando la capacidad de procesamiento a un nivel histórico. Sus principales usos están orientados a la aceleración de descubrimientos científicos trabajando en conjunto con otros superordenadores de menor potencia, como el DaVinci, Magellan, Franklin, PDSF, etc. Se constituyó como uno de los orgullos estadounidenses en materia computacional.
TOP 10: Los superordenadores más rápidos


  • Fabricante: NEC/HP
  • Ubicación:Japón (Tookyo) GSIC Center, Tokyo Institute of Technology
  • Sistema Operativo: Linux
  • Procesador: Intel EM64T Xeon X56xx (Westmere-EP) 2930 MHz (11.72 GFlops)
  • Ordenador central: HP ProLiant SL390s G7 Xeon 6C X5670, Nvidia GPU
  • Capacidad: 1.1 PF
  • Costo: 30.000.000 U$D
  • Puesta en Funcionamiento: Octubre 2010
Uso principal y detalles: NVIDIA se encarga de gran parte de este superordenador con sus GPU de propósito general TESTLA, y el rendimiento que la unión entre diferentes fabricantes le ha brindado al representante japonés en los superordenadores más rápidos, está enfocado en la resolución de matrices coorporativas y tecnológicas, análisis de condiciones atmosféricas, particularidades físicas y estudio del suelo entre otras muchas aplicaciones prácticas. La familia Tsubame ha ido creciendo exponencialmente desde el 2006, y en cada actualización logran mejorar su performance hasta 30 veces por ciento más.
TOP 10: Los superordenadores más rápidos

3) Nebulae


  • Fabricante: Akira Akebono (Dawning)
  • Ubicación: China (Shenzhen) en el National Supercomputing Centre in Shenzhen (NSCS)
  • Sistema Operativo: Linux
  • Procesador: Intel EM64T Xeon X56xx (Westmere-EP) 2660 MHz (10.64 GFlops) (120.640 procesadores)
  • Ordenador Central: Dawning TC3600 Blade, Intel X5650, NVidia Tesla C2050 GPU
  • Capacidad: 1.27 PFlops / 2.9 PF teóricos
  • Puesta en Funcionamiento: 2010
Uso principal y detalles: Si bien ya ha quedado debajo de otro invento chino, este superordenador sigue siendo uno de los más grandes orgullos del país por lo rápido que creció basándose en l. La tecnología que lo compone está basada en la unión óptima entre el trabajo de los procesadores y la aceleración gráfica. Como el sur de China es el principal centro de la industria tecnológica del gigante asiático, un superordenador como este se utiliza para investigación de nuevas tecnologías aplicadas y gestión de materias primas.
TOP 10: Los superordenadores más rápidos

  • Fabricante: Cray
  • Ubicación: Estados Unidos (Tenessee), en el DOE/SC/Oak Ridge National Laboratory
  • Sistema Operativo: Linux
  • Procesador: AMD x86_64 Opteron Six Core 2600 MHz (10.4 GFlops) (186.368 procesadores)
  • Ordenador Central: Cray XT5-HE Opteron 6-core 2.6 GHz
  • Capacidad: 1.75 PFlops / 2.3 PF teóricos.
  • Costo:  104.000.000 U$D
  • Puesta en funcionamiento: Noviembre 2009 
Uso principal y detalles: Hijo pródigo del superordenador Cray XT4 de la familia Cray XT, el Jaguar alcanza una velocidad sostenida de 1,75 petaFLOPS, con picos de 2,33 petaFLOPS Sus objetivos de aplicación son infinitos dadas sus capacidades, pero lo más común es su uso para pronóstico del clima, energías renovables, la ciencia de los materiales y la fusión nuclear, sismología, entre otros. Decididamente, el nombre Jaguar le queda bien a este superordenador, aunque  corriendo delante suyo tiene a un guepardo. Más sobre Jaguar en Neoteo.
TOP 10: Los superordenadores más rápidos

1) Tianhe-1A


  • Fabricante: Defence Science and Technology University
  • Ubicación: China (Tianjin) en el National Supercomputing Center in Tianjin
  • Sistema Operativo: Linux
  • Procesador: Intel EM64T Xeon X56xx (Westmere-EP) 2930 MHz (11.72 GFlops) (186368 procesadores)
  • Ordenador Central: NUDT TH MPP, X5670 2.93Ghz 6C, NVIDIA GPU, FT-1000 8C
  • Capacidad: 2.56 PFlops / 4.7 PF teóricos.
  • Costo: 88.000.000U$D

Puesta en funcionamiento: Octubre 2010
Uso principal y detalles: Desde Octubre del 2010, el Tianhe-1A se ha convertido en el ganador –temporario- del primer puesto en los superordenadores más rápidos del mundo y su área de aplicación es la que corresponde, como ya es regla, a la investigación. Sus usos están enfocados a la simulación aérea, definición de marcos y acumulación de datos para la extracción petróleo, y también para el análisis meteorológico entre otros. Su velocidad teórica es de 4.7 petaflops/s pero en la práctica y manteniendo niveles de eficiencia estables este monstruo chino de los cálculos se mueve a 2.5 pf/s. Así que incluso trabajando a la mitad de su capacidad ya se hizo del primer puesto, por lo que el listón puede estar bien arriba por mucho tiempo. Más cobertura aquí en Neoteo.


¿QUE CARACTERÍSTICAS POSEEN ESTAS SUPERMAQUINAS?


Las principales son:
  • Velocidad de procesacion : miles de millones de instrucciones de coma flotante por segundo.
  • Usuarios a la vez: hasta miles, en entorno de redes amplias.
  • Tamaño: requieren instalaciones especiales y aire acondicionado industrial.
  • Dificultad de uso: solo para especialistas.
  • Clientes usuales: grandes centros de investigación.
  • Penetración social: prácticamente nula.
  • Impacto social: muy importante en el ámbito de la investigación, ya que provee cálculos a alta velocidad de procesamiento, permitiendo, por ejemplo, calcular en secuencia el genoma humano, número π, desarrollar cálculos de problemas físicos dejando un margen de error muy bajo, etc.
  • Parques instalados: menos de un millar en todo el mundo.
  • Hardware : Principal funcionamiento operativo

¿CUALES SON SUS PRINCIPALES USOS?


Las supercomputadoras se utilizan para abordar problemas muy complejos o que no pueden realizarse en el mundo físico bien, ya sea porque son peligrosos, involucran cosas increíblemente pequeñas o increíblemente grandes. A continuación damos algunos ejemplos:
  • Mediante el uso de supercomputadoras, los investigadores modelan el clima pasado y el clima actual y predicen el clima futuro .
  • Los astrónomos y los científicos del espacio utilizan las supercomputadoras para estudiar el Sol y el clima espacial.
  • Los científicos usan supercomputadoras para simular de qué manera un tsunami podría afectar una determinada costa o ciudad.
  • Las supercomputadoras se utilizan para simular explosiones de supernovas en el espacio.
  • Las supercomputadoras se utilizan para probar la aerodinámica de los más recientes aviones militares.
  • Las supercomputadoras se están utilizando para modelar cómo se doblan las proteínas y cómo ese plegamiento puede afectar a la gente que sufre la enfermedad de Alzheimer, la fibrosis quística y muchos tipos de cáncer.
  • Las supercomputadoras se utilizan para modelar explosiones nucleares, limitando la necesidad de verdaderas pruebas nucleares.

lunes, 4 de noviembre de 2013

BURBUJA.COM .III.

BURBUJA PUNTO COM

INTRODUCCIÓN

Burbuja punto com es un término que se refiere a un período de crecimiento en los valores económicos de empresas vinculadas a Internet. Esta corriente económica especulativa muy fuerte se dio entre 1997 y 2001. Durante este período, las bolsas de valores de las naciones occidentales vieron un rápido aumento de su valor debido al avance de las empresas vinculadas al nuevo sector de Internet y a la llamada Nueva Economía. Al pasar el tiempo, muchas de estas empresas quebraron o dejaron de operar.
El período fue marcado por la fundación (y en muchos casos, espectacular quiebra) de un nuevo grupo de compañías basadas en Internet designadas comúnmente empresas punto com.
Una combinación de un veloz aumento de precios de las acciones, la especulación individual y la gran disponibilidad de capital de riesgo crearon un ambiente exuberante. El estallido de la burbuja.com marcó el principio de una relativamente suave, pero larga recesión en las naciones occidental    

                                             QUE ES UNA PUNTO COM

 Una puntocom es toda aquella empresa que tiene su origen en internet.

Entre 1997 y 2000 se produjo la llamada Burbuja puntocom, un fenómeno de fuerte valorización de las empresas basadas en internet.

Mientras que entre 2000 y 2003 se produjo la llamada crisis de las puntocom, período en el que desaparecieron casi cinco mil compañías de internet, ya sea por quiebra, por fusión o adquisición.

Puntocom puede hacer referencia al dominio de internet .com.

    ¿COMO SE ORIGINO?

(dot-com bubble en inglés). La Burbuja puntocom fue una burbuja especulativa entre 1998 y 2001, donde las empresas de internet (llamadas puntocom) vieron incrementado rápidamente su valor en las bolsas de valores. Este período también es llamado la era o época dorada de la web.

El cóctel especulativo estaba fundado en promesas de grandes ganancias con baja inversión, fácil disponibilidad de capitales de riesgo y empresas que descartaban los modelos de negocios tradicionales. Por ejemplo, estas empresas veían crecer enormemente su base de clientes, incluso si producían grandes pérdidas anuales. Por ejemplo, Google y Amazon no tuvieron ganancias en su primer año.

Otro ejemplo claro de puntocom en crisis fue Netscape, la empresa desarrolladora del navegador más usado en aquella época, el Netscape Navigator. Esta empresa pasó de tener 3 empleados en 1994 a 2600 en tres años. Cuando salió a cotizar en bolsa en 1995 convirtió en ricos a sus accionistas (Ver Ejemplos de empresas fracasadas durante la crisis de las puntocom).

El climax de la burbuja se dio el 10 de marzo de 2000, cuando el mercado de empresas tecnológicas NASDAQ llegó al punto máximo de 5132.52 puntos. El nivel de especulación era tan alto, que el valor de las empresas subía simplemente por tener una "e-" (electronic) como prefijo o ".com" como sufijo. Por ejemplo, Norris Communications fue fundada en 1988. Cambió su nombre a e.Digital en 1999 cuando cada acción valía 0,06 dólares. Para finales de 1999 valía 2,91 dólares, menos de un mes después llegó a 24,5 dólares por acción. Luego cayó hasta los valores de 0,08 y 0,20 en 2008 y 2009 respectivamente.

Un ejemplo claro de la confianza que se tenía en estas empresas fue que en Super Bowl XXXIV (el evento deportivo más visto en EE.UU.) de enero de 2000, unas 17 empresas puntocom pagaron 2 millones de dólares cada una por 30 segundos de publicidad. El año siguiente solo fueron 3 empresas puntocom.

La burbuja especulativa reventó y dio origen a la Crisis de las puntocom (también llamada explosión de la burbuja puntocom), una fuerte desvalorización de las empresas y sus consecuentes quiebras, fusiones y adquisiciones.

De todas maneras, pese a la gran caída de sus valores en las bolsas, muchas de estas empresas sobrevivieron, incluso empleando estos nuevos paradigmas de negocios que habían colapsado muchas otras.




consecuencias de la burbuja


A partir de crisis de la burbuja (la caída del Nasdaq), las empresas punto com comenzaron una serie de cierres, fusiones, adquisiciones y despidos, que hizo que algunos analistas sostuvieran que la nueva economía nunca existió, que todo se trató de una gran “burbuja” montada por algunos oportunistas para llenarse de dinero.
A efectos de tomar una dimensión del tamaño de la crisis, el índice Nasdaq (bolsa electrónica de Nueva York) llegó en marzo del año 2000 a cotizar por sobre los 5000 puntos, llegando en poco tiempo a cotizar a 3500, y en octubre de 2002 su valor era de aproximadamente 1300 puntos, situándose en valores similares a los de diciembre de 1996.
Para poder analizar lo sucedido con el desplome del Nasdaq, es necesario comprender la transformación que habían sufrido los mercados financieros en los últimos años.
A partir del desarrollo de las tecnologías informáticas y de telecomunicaciones, los mercados financieros se fueron globalizando e intercomunicando, de manera que pasaron a formar un mercado global e interdependiente, operado por redes informáticas en tiempo real. Estas transformaciones generan nuevas reglas de juego que proporcionan el capital necesario para financiar nuevos proyectos empresariales y están en el origen del desarrollo de las empresas de Internet, y de la nueva economía en general.
La aparición de los capitalistas de riesgo, con su accionar llevaron a la cotización de los valores bursátiles de empresas tecnológicas a niveles inéditamente altos, debido a un factor fundamental en el proceso de valoración: las expectativas. En otras palabras, los capitalistas de riesgo apostaban a que el crecimiento y el éxito de las empresas de la nueva economía se viera rápidamente recompensado por subidas en las cotizaciones de sus títulos.
Una comparación entre el valor de mercado de empresas del mundo virtual con empresas del mundo real, nos da una muestra de la excesiva valoración de las primeras (cifras en millones de dólares):
34 500 Yahoo! / Allied Signal
24 000 EBay / J.P. Morgan
23 000 Amazon.com / Alcoa
17 900 Priceline.com / Federal Express
12 900 E*Trade / American Airlines
Ahora bien, en cuanto aparecieron los primeros fracasos y dudas, las expectativas pasaron de ser favorables a desfavorables y los capitales huyeron tan rápido como llegaron, provocando el derrumbe. De todas formas muchas personas, ya antes del derrumbe, entendían que la valoración de las empresas del mundo virtual no era sostenible y que tarde o temprano iba ocurrir una «corrección en el mercado», entendiendo que estos valores contenían una importante sobrevaluación de origen especulativo.
En el periodo comprendido entre el año 2000 y el 2003, desaparecieron 4.854 compañías de Internet, ya por haberse fusionado con otras o por quiebra. Aún luego de esto, algunas empresas consiguieron mantenerse a flote, destacando los servicios online (Banca Online,tranferencias dominios, compras etc..)


CRISIS DE LA PUNTO COM.
La Crisis de las puntocom (o explosión de la burbuja puntocom) fue un fenómeno de colapso económico generalizado de ciertas empresas de internet (de ahí el puntocom), consecuencia de la rápida valorización que experimentaron durante la llamada burbuja de las puntocom, seguida de su fuertedesvalorización.

Entre mediados de los 90 y principios de 2000, las empresas puntocom prometían gran crecimiento y mucho dinero con baja inversión y, por esto, las empresas se sobrevaloraron en las bolsas de valores.

La especulación, la gran disponibilidad de capital de riesgo, sumado probablemente al poco desarrolloen la publicidad online, la relativamente baja confianza de los usuarios en las compras online y la ausencia de un plan de negocios claro, generaron el colapso de múltiples empresas de internet.

Probablemente la crisis se inició en 1999, con la desconfianza generalizada visible en los mercados de valores. Entre marzo de 2000 y octubre de 2002, la bolsa de tecnológicas Nasdaq de Nueva York perdió un 70% de su valor, yendo de 5000 a 1300 puntos respectivamente 

Se estima que desde el año 2000 al año 2003 desaparecieron casi cinco mil compañías de internet, ya sea por quiebra, por fusión o adquisición.
  


EMPRESAS FRACASADAS DURANTE LA CRISIS DEL    PUNTO COM


Muchas empresas puntocom fueron sobrevaloradas durante un fenómeno que luego se denominóburbuja puntocom... burbuja que estalló entre los años 2000 y 2003 (Ver Crisis de las puntocom).

* Boo.com, gastó 188 millones de dólares en solo seis meses en un intento de crear una tienda global de moda online. Fue a bancarrota en mayo de 2000.

* Broadcast.com, una compañía de radio online fundada como AudioNet en 1995. Fue adquirida por Yahoo! en 5,9 millones de dólares, pero sus servicios fracasaron y fueron discontinuados.

* e.Digital Corporation (EDIG): Compañía fundada en 1988 con el nombre de Norris Communications. Cambió su nombre a e.Digital en 1999 cuando cada acción valía 0,06 dólares. Para finales de 1999 valía 2,91 dólares, y menos de un mes después (en enero de 2000) llegó a 24,5 dólares. Luego cayó hasta los valores de 0,08 y 0,20 en 2008 y 2009.

* eToys: sus acciones valían 80 dólares en mayo de 1999, cuando declaró bancarrota en febrero de 2001 cada acción valía 1 dólar.

* Freeinternet.com: Llegó a ser el quinto más grande proveedor de acceso a internet en EE.UU. con 3,2 millones de usuarios. Entró en bancarrota el 9 de octubre de 2000.

* GeoCities: fue comprado por Yahoo! en 3,57 millones de dólares en enero de 1999. El servicio se cerrará definitivamente en 2009.

* InfoSpace: en marzo de 2000 llegó a cotizar a 1305 dólares por acción, cayendo a 22 dólares en abril de 2001.

* The Learning Company: fue comprada por Mattel en 1999 por 3.500 millones de dólares y vendida por tan solo 27,3 millones en 2000.


DIFERENCIA ENTRE LA BURBUJA PUNTOCOM Y HOY


Probablemente existan muchos nuevos proyectos de negocios digitales (ahora muchos los llaman Web 2.0 o Web 3.0, que utilizan las nuevas palabras “fashion” en sus elevators pitch como ser: Long Tail, User Generated Content, Ajax, etc.) que no tengan un claro plan y no cuenten con un Management team adecuado fracasen. Pero muchos de esos proyectos, tienen el condimento y una buena combinación de Management/negocio para ser exitosos.


Pero sin entrar a desarrollar el tópico sobre que es un buen proyecto de negocios, que da para escribir un libro, me gustaría comentarles mi opinión acerca de las diferencias que veo entre la burbuja punto-com y el periodo actual, donde muchos de los factores claves del éxito han cambiado:


Adopción de Internet

A diferencia del año 2000, la cantidad de usuarios conectados a Internet a crecido enormemente, llegando a una masa critica para desarrollar negocios (sin importar si lo hacen desde su casa, trabajo o cibercafé/locutorio/cabina).

En la época punto-com, especialmente en Latinoamérica, la penetración de usuarios de Internet era muy baja, lo cual solamente permitía desarrollar ciertos negocios de nicho. Pero aun en esa época el ancho de banda era limitado y muy costoso. Lo cual me lleva al próximo punto.


Costo y Capacidad de Ancho de Banda

Recuerdo que en el año 1995, cuando Startel lanzo comercialmente el Acceso a Internet dial-up, el costo era muy elevado y se cobraba por minuto. Un caño de 64kbps costaba USD 40,000. Para el año 2000, ImpSat, Ciudad Internet y otros players ofrecían accesos dial-up a tarifa plana, pero recién comenzaban a brotar los accesos de banda ancha (Fibertel), pero a un costo y capacidad muy baja en comparación con el presente.

Si bien en Argentina y en otros países de Latinoamérica, todavía falta uno o dos años para que la capacidad aumente considerablemente y los costos bajen como en Europa y USA donde existe el Triple-Play, el ancho de banda y los costos actuales son MUY razonables para que las nuevas empresas punto-com (Web 2.0) puedan hacer streaming de audio y video, permitiendo el desarrollo de Social Networks, YouTubes con sabor local. En la época punto-com, era muy difícil costear un modelo de negocios que transmita fotos, audio, video, ya que su costo los hacia inviables.

Hoy se puede. Todo gracias a la Ley de Moore.


Costo y Capacidad de Hardware y Software

De la misma manera, el costo y la capacidad del Hardware (procesamiento y almacenamiento) permiten el desarrollo de dichos negocios.
El costo del los servidores, hosting y del software ha cambiado radicalmente.

Con Linux y el Open Source, muchos proyectos se evitan pagar los altos costos de licencias que existían en la época punto com (ej: Oracle).


Costo del Start Up

Vale decir, que en la época punto-com, para comenzar un proyecto dignamente se necesitaban en promedio unos USD 300 a 500 mil para comprar el equipamiento, obtener licencias, contratar el hosting/housing, banda ancha, etc.

Hoy por hoy, los costos de start-up son relativamente MUY bajos, tendiendo a “cero”, lo cual hace que se puedan probar muchos modelos de negocios (beta version) y para luego determinar si el modelo de negocios es viable (prueba y error).


Publicidad Online como Venture Capital

En la época punto-com, se necesitaba financiamiento de Angeles o VC’s para comenzar el proyecto, ya que se requerían grandes inversiones.

Hoy AdSense y los AdNetworks, permiten a un programador con una versión beta, monetizar muy fácilmente la audiencia que genere, sin la necesidad de salir a buscar clientes/anunciantes.


Adopción de Publicidad Online

En la época punto-com, la inversión publicitaria era muy baja, mientras hoy por hoy se ve claramente como los anunciantes y agencias han comenzado a adoptar la publicidad online. A continuación, pueden ver un grafico del IAB con la inversión publicitaria en los Estados Unidos donde se ve claramente la “joroba” de la época punto-com y luego la clara tendencia de adopción de Internet como medio publicitario.