jueves, 12 de septiembre de 2013

COMPONENTES DE UNA "PC"

-TARJETA MADRE(motherboard)

La tarjeta madre, placa base o motherboard es una tarjeta de circuito impreso que permite la integración de todos los componentes de una computadora. Para esto, cuenta con un software básico conocido como BIOS, que le permite cumplir con sus funciones.
Pero ¿qué funciones son básicamente las que realiza toda tarjeta madre o placa base? Son varias y todas importantes y fundamentales para conseguir el funcionamiento correcto y óptimo de cualquier ordenador. En concreto, entre dichas tareas se encontrarían la comunicación de datos, el control y el monitoreo, la administración o la gestión de la energía eléctrica así como la distribución de la misma por todo el computador, la conexión física de los diversos componentes del citado y, por supuesto, la temporización y el sincronismo.  otra definición correcta seria la siguiente 
Una tarjeta madre es la central o primaria tarjeta de circuito de un sistema de computo u otro sistema electrónico complejo. Una computadora típica con el microprocesador, memoria principal, y otros componentes básicos de la tarjeta madre. Otros componentes de la computadora tal como almacenamiento externo, circuitos de control para video y sonido, y dispositivos periféricos son unidos a la tarjeta madre vía conectores o cables de alguna clase.
La tarjeta madre es el componente principal de un computador personal. Es el componente que integra a todos los demás. Escoger la correcta puede ser difícil ya que existen miles. Estos son los elementos que se deben considerar.

SLOTS:
Una ranura de expansión (también llamada slot de expansión) es un elemento de la placa base de un computador que permite conectar a esta una tarjeta adicional o de expansión, la cual suele realizar funciones de control de dispositivos periféricos adicionales, tales como monitores, impresoras o unidades de disco. En las tarjetas madre del tipo LPX las ranuras de expansión no se encuentran sobre la placa sino en un conector especial denominadoriser card.

PCI:Un Peripheral Component Interconnect (PCI, "Interconexión de Componentes Periféricos") es un bus de ordenador estándar para conectar dispositivos periféricos directamente a su placa base. Estos dispositivos pueden ser circuitos integrados ajustados en ésta (los llamados "dispositivos planares" en la especificación PCI) o tarjetas de expansión que se ajustan en conectores. Es común en PC, donde ha desplazado al ISA como bus estándar, pero también se emplea en otro tipo de ordenadores.


AGP: (en español "Puerto de Gráficos Acelerados") es una especificación de bus que proporciona una conexión directa entre el adaptador de gráficos y la memoria. Es un puerto (puesto que sólo se puede conectar un dispositivo, mientras que en el bus se pueden conectar varios) desarrollado por Intel en 1996 como solución a los cuellos de botella que se producían en las tarjetas gráficas que usaban el bus PCI. El diseño parte de las especificaciones del PCI

PUENTE NORTE: era el circuito integrado más importante del conjunto de chips (Chipset) que constituía el corazón de la placa base. Recibía el nombre por situarse en la parte superior de las placas base con formato ATX y por tanto no es un término utilizado antes de la aparición de este formato para computadoras de escritorio. También es conocido como MCH (concentrador controlador de memoria) en sistemas Intel y GMCH si incluye el controlador del sistema gráfico.
Es el chip que controla las funciones de acceso desde y hasta microprocesador, AGP o PCI-Express, memoria RAM, vídeo integrado (dependiendo de la placa) y Southbridge. Su función principal es la de controlar el funcionamiento del bus del procesador, la memoria y el puertoAGP o PCI-Express. De esa forma, sirve de conexión (de ahí su denominación de "puente") entre la placa madre y los principales componentes de la PC: microprocesador, memoria RAM y tarjeta de vídeo AGP o PCI Express. Generalmente, las grandes innovaciones tecnológicas, como el soporte de memoria DDR o nuevos FSB, se implementan en este chip. Es decir, el soporte que tenga una placa madre para determinado tipo de microprocesadores, memorias RAM o placas AGP estará limitado por las capacidades del Northbridge de que disponga.



ZOCALOS DEL PROCESADOR:El zócalo (socket en inglés) es un sistema electromecánico de soporte y conexión eléctrica, instalado en la placa base, que se usa para fijar y conectar un microprocesador. Se utiliza en equipos de arquitectura abierta, donde se busca que haya variedad de componentes permitiendo el cambio de la tarjeta o el integrado. En los equipos de arquitectura propietaria, los integrados se añaden sobre la placa base soldándolo, como sucede en las videoconsolas

PUENTE SUR:El puente sur (en inglés southbridge) es un circuito integrado que se encarga de coordinar los diferentes dispositivos de entrada y salida y algunas otras funcionalidades de baja velocidad dentro de la placa base. El puente sur no está conectado a la unidad central de procesamiento, sino que se comunica con ella indirectamente a través del puente norte.
La funcionalidad encontrada en los puentes sur actuales incluye soporte para:

-Peripheral Component Interconnect
-Bus ISA
-Bus SPI
-System Management Bus
-Controlador para el acceso directo a memoria
-Controlador de Interrupcciones
-Controlador para Integrated Drive Electronics (PATA o ATA)
-Puente LPC
-Reloj en Tiempo Real - Real Time Clock
-Administración de potencia eléctrica APM y ACPI
-BIOS
-Interfaz de sonido AC97 o HD Audio.

Puente sur VIA.
Adicionalmente el southbridge puede incluir soporte para Ethernet, RAID, USB y Codec de Audio. El southbridge algunas veces incluye soporte para el teclado, el ratón y los puertos seriales, sin embargo, aún en el 2007 las computadoras personales gestionaban esos recursos por medio de otro dispositivo conocido como Super I/O.
El Southbridge integra cada vez mayor número de dispositivos a conectar y comunicar por lo que fabricantes como AMD o VIA Technologies han desarrollado tecnologías como HyperTransport o Ultra V-Link respectivamente para evitar el efecto cuello de botella que se producía al usar como puente el bus PCI.
Actualmente el soutbridge es el único elemento del chipset en la placa base, pues los procesadores heredan todas las características del antiguo Northbridge. El soutbridge actual se le conoce como PCH

Adicionalmente el southbridge puede incluir soporte para Ethernet, RAID, USB y Codec de Audio. El southbridge algunas veces incluye soporte para el teclado, el ratón y los puertos seriales, sin embargo, aún en el 2007 las computadoras personales gestionaban esos recursos por medio de otro dispositivo conocido como Super I/O.
El Southbridge integra cada vez mayor número de dispositivos a conectar y comunicar por lo que fabricantes como AMD o VIA Technologies han desarrollado tecnologías como HyperTransport o Ultra V-Link respectivamente para evitar el efecto cuello de botella que se producía al usar como puente el bus PCI.

Actualmente el soutbridge es el único elemento del chipset en la placa base, pues los procesadores heredan todas las características del antiguo Northbridge. El soutbridge actual se le conoce como PCH

-PROCESADOR(processor)

Este es el cerebro del computador. Dependiendo del tipo de procesador y su velocidad se obtendrá un mejor o peor rendimiento. Hoy en día existen varias marcas y tipos, de los cuales intentaremos darles una idea de sus características principales.
Las familias (tipos) de procesadores compatibles con el PC de IBM usan procesadores x86. Esto quiere decir que hay procesadores 286, 386, 486, 586 y 686. Ahora, a Intel se le ocurrió que su procesador 586 no se llamaría así sino "Pentium", por razones de mercadeo.
Existen, hoy en día tres marcas de procesadores: AMD, Cyrix e Intel. Intel tiene varios como son Pentium, Pentium MMX, Pentium Pro y Pentium II. AMD tiene el AMD586, K5 y el K6. Cyrix tiene el 586, el 686, el 686MX y el 686MXi. Los 586 ya están totalmente obsoletos y no se deben considerar siquiera. La velocidad de los procesadores se mide en Megahertz (MHz =Millones de ciclos por segundo). Así que un Pentium es de 166Mhz o de 200Mhz, etc. Este parámetro indica el número de ciclos de instrucciones que el procesador realiza por segundo, pero sólo sirve para compararlo con procesadores del mismo tipo. Por ejemplo, un 586 de 133Mhz no es más rápido que un Pentium de 100Mhz. Ahora, este tema es bastante complicado y de gran controversia ya que el rendimiento no depende sólo del procesador sino de otros componentes y para que se utiliza el procesador. Los expertos requieren entonces de programas que midan el rendimiento, pero aun así cada programa entrega sus propios números. Cometeré un pequeño pecado para ayudar a descomplicarlos a ustedes y trataré de hacer una regla de mano para la velocidad de los procesadores. No incluyo algunos como el Pentium Pro por ser un procesador cuyo mercado no es el del hogar.
ALGUNOS TIPOS DE PROCESADORES SON LOS SIGUIENTES:

-Pentium-75 ; 5x86-100 (Cyrix y AMD)
-AMD 5x86-133
-Pentium-90
-AMD K5 P100
-Pentium-100
-Cyrix 686-100 (PR-120)
-Pentium-120
-Cyrix 686-120 (PR-133) ; AMD K5 P133
-Pentium-133
-Cyrix 686-133 (PR-150) ; AMD K5 P150
-Pentium-150
-Pentium-166
-Cyrix 686-166 (PR-200)
-Pentium-200
-Cyrix 686MX (PR-200)
-Pentium-166 MMX
-Pentium-200 MMX
-Cyrix 686MX (PR-233)
-AMD K6-233
-Pentium II-233
-Cyrix 686MX (PR-266); AMD K6-266
-Pentium II-266
-Pentium II-300
-Pentium II-333 (Deschutes)
-Pentium II-350
-Pentium II-400
etc.

-MEMORIA RAM(random access memory)

RAM son las siglas de random access memory, un tipo de memoria de ordenador a la que se puede acceder aleatoriamente; es decir, se puede acceder a cualquier byte de memoria sin acceder a los bytes precedentes. La memoria RAM es el tipo de memoria más común en ordenadores y otros dispositivos como impresoras.

Hay dos tipos básicos de memoria RAM

  • -RAM dinámica (DRAM)
  • -RAM estática (SRAM)
Los dos tipos de memoria RAM se diferencian en la tecnología que utilizan para guardar los datos, la meoria RAM dinámica es la más común.
La meoria RAM dinámica necesita actualizarse miles de veces por segundo, mientras que la memoria RAM estática no necesita actualizarse, por lo que es más rápida, aunque también más cara. Ambos tipos de memoria RAM son volátiles, es decir, que pierden su contenido cuando se apaga el equipo.

Coloquialmente

Coloquialmente el término RAM se utiliza como sinónimo de memoria principal, la memoria que está disponible para los programas, por ejemplo, un ordenador con 8M de RAM tiene aproximadamente 8 millones de bytes de memoria que los programas puedan utilizar.

-DISCO DURO

El disco duro es el dispositivo que almacena los programas y archivos del PC de forma permanente. Es capaz de no olvidar nada aunque no reciba corriente eléctrica. Otras memorias de tu equipo, como por ejemplo la RAM, que es usada para hacer funcionar los programas, necesita tener corriente para no perder la información.
¿Cómo se organiza?

La organización de un disco duro es responsabilidad del sistema operativo. Este se encarga de dar servicio y soporte al resto de programas.

La mayoría de sistemas, utilizan el concepto de archivo o fichero, donde ambos términos significan lo mismo. Un archivo puede ser por ejemplo una canción, una foto o un programa. Estos ficheros los puedes organizar en carpetas que a su vez pueden contener otras subcarpetas.
¿Qué distingue a unos de otros?

La característica más importante de un disco duro es su capacidad de almacenaje. Esta se suele medir en Gigabytes. A mayor cantidad de ellos, mayor número de canciones, películas, documentos, y programas podrá contener.

Otro dato a tener en cuenta es su velocidad de transferencia. Esta define cuanto tardaremos en acceder a los datos que tiene almacenados. Puedes encontrar más información enespecificaciones técnicas disco duro.
¿Qué tipos existen?

Según su tecnología interna

Magnéticos. Tienen varios discos rígidos que están magnetizados. Estos discos giran y un cabezal se encarga de leer la información. Su funcionamiento es muy parecido a los tocadiscos. De aquí viene el concepto de disco duro.
Estado sólido. También conocidos como SSD. En este caso no se usan discos giratorios sino matrices de transistores. Cada transistor se encarga de guardar una unidad de información. No existen partes móviles, con lo cual el acceso a la información es más rápido, son más resistentes a golpes, consumen menos, no hacen ruido. Su único problema es que son mucho más caros.
Según su interfaz
La interfaz es el tipo de conector usado para conectarse a otros dispositivos. Los más usados en las computadoras actuales son IDE y SATA.
IDE es una tecnología antigua y es el estándar SATA el que más velocidad puede darte.
Según su localización
Internos. Como su propio nombre indica se encuentran en el interior de la caja del PC.
Externos. Se conectan al PC a través de una conexión USB o SATA externa. Son más lentos y se usan para almacenar información que no utilicemos de forma continua.
¿Cuál me conviene?

Depende como casi todo del uso que le vayas a dar y del presupuesto del que dispongas. Para un usuario normal lo importante es el tamaño y no tanto el tipo de disco duro. Pero para un usuario profesional, sobre todo para alguien que haga procesado de video, no lo dudes, y cómprate un disco SSD.

¿Qué capacidad necesito?

Es algo parecido a lo que ocurre con la memoria RAM, cuanto más tengas mejor. Da igual lo que compres en unos años lo tendrás totalmente lleno.
UNIDADES ÓPTICAS
Se trata de aquellos dispositivos que son capaces de leer, escribir y reescribir datos por medio de un rayo láser en las superficie plástica de un disco. Estas unidades pueden estar montadas dentro del gabinete de la computadora, estar adaptadas en un case 5.25" para funcionar de manera externa ó bien, ser una unidad externa de fábrica. Estas unidades se conectan a la computadora y permiten el uso de diversos tipos de discos, como DVD-ROM, CD-ROM, etc.

DVD-ROM: Un DVD-ROM (se lee: ‘de-uve-dé rom’) o "DVD-Memoria de Solo Lectura" (del inglés DVD-Read Only Memory), es un DVD que pertenece al tipo de soportes WORM, es decir, al igual que un CD-ROM ha sido grabado una única vez (método de grabación por plasmado) y puede ser leído o reproducido muchas veces.
Es un disco con la capacidad de ser utilizado para leer o reproducir datos o información (audio, imágenes, video, texto, etc), es decir, puede contener diferentes tipos de contenido como películas cinematográficas, videojuegos, datos, música, etc.
Es un disco con capacidad de almacenar 4,7 Gb según los fabricantes en base decimal, y aproximadamente 4,377 Gb reales en base binaria o Gb de datos en una cara del disco; un aumento de más de 7 veces con respecto a los CD-R y CD-RW.
CD-ROM:Un CD-ROM (siglas del inglés Compact Disc - Read Only Memory) es un prensado disco compacto que contiene los datos de acceso, pero sin permisos de escritura, un equipo de almacenamiento y reproducción de música, el CD-ROM estándar fue establecido en 1985 por Sony y Philips. Pertenece a un conjunto de libros de colores conocido como Rainbow Books que contiene las especificaciones técnicas para todos los formatos dediscos compactos.
La Unidad de CD-ROM debe considerarse obligatoria en cualquier computador que se ensamble o se construya actualmente, porque la mayoría del software se distribuye en CD-ROM. Algunas de estas unidades leen CD-ROM y graban sobre los discos compactos de una sola grabada(CD-RW). Estas unidades se llaman quemadores, ya que funcionan con un láser que "quema" la superficie del disco para grabar la información.
Actualmente, aunque aún se utilizan, están empezando a caer en desuso desde que empezaron a ser sustituidos por unidades de DVD. Esto se debe principalmente a las mayores posibilidades de información, ya que un DVD-ROM supera en capacidad a un CD-ROM.
BRD(Blu-ray Disc)(BD) es un formato digital de disco óptico de almacenamiento de datos diseñado para reemplazar el formato DVD. El disco de plástico es de 120 mm de diámetro y 1,2 mm de espesor, del mismo tamaño que DVDs y CDs. Convencionales (pre-BD-XL) Blu-ray Disc contienen 25 GB por capa, con discos de doble capa (50 GB) son el estándar de la industria para los discos de vídeo de largometraje. Discos de triple capa (100 GB) y capas cuádruples (128 GB) están disponibles para las unidades de re-escritor BD-XL. [3] El disco Blu-ray nombre hace referencia a que el láser azul utilizado para leer el disco, lo que permite que la información sea almacenado a una mayor densidad que es posible con el láser rojo más largo longitud de onda utilizada para los DVD. La principal aplicación de los discos Blu-ray es un medio para el material de vídeo, como películas. Además de las especificaciones de hardware, disco Blu-ray está asociado a un conjunto de formatos multimedia. En general, estos formatos permiten para el vídeo y el audio para ser almacenados con una mayor definición que en DVD.

El formato fue desarrollado por la Asociación Blu-ray Disc, un grupo que representa a los fabricantes de electrónica de consumo, hardware, y películas. Los primeros prototipos de discos Blu-ray se dieron a conocer en octubre de 2000, y el primer jugador prototipo fue lanzado en abril de 2003 en Japón. Posteriormente, se siguió desarrollando hasta su lanzamiento oficial en junio de 2006. En junio de 2008, más de 2.500 títulos de discos Blu-ray estaban disponibles en Australia y el Reino Unido, con 3.500 en los Estados Unidos y Canadá. [4] En Japón, en julio de 2010, más de 3.300 títulos han sido puestos en libertad. [5]
Durante la alta definición de discos ópticos guerra de formatos, Blu-ray Disc compitió con el formato HD DVD. Toshiba, la compañía principal que apoya HD DVD, reconoció en febrero de 2008, [6] la liberación de su propio reproductor de discos Blu-ray a finales de 2009. [7]
               
                 FUENTE DE PODER
Cuando se habla de fuente de poder, (o, en ocasiones, de fuente de alimentación y fuente de energía), se hace referencia al sistema que otorga la electricidad imprescindible para alimentar a equipos como ordenadores o computadoras. Generalmente, en las PC de escritorio, la ya citada fuente de poder se localiza en la parte posterior del gabinete y es complementada por un ventilador que impide que el dispositivo se recaliente.
Fuente de poder
La fuente de poder, por lo tanto, puede describirse como una fuente de tipo eléctrico que logra transmitir corriente eléctrica por la generación de una diferencia de potencial entre sus bornes. Se desarrolla en base a una fuente ideal, un concepto contemplado por la teoría de circuitos que permite describir y entender el comportamiento de las piezas electrónicas y los circuitos reales.

La fuente de alimentación tiene el propósito de transformar la tensión alterna de la red industrial en una tensión casi continua. Para lograrlo, aprovecha las utilidades de un rectificador, de fusibles y de otros elementos que hacen posible la recepción de la electricidad y permiten regularla, filtrarla y adaptarla a los requerimientos específicos del equipo informático.

Resulta fundamental mantener limpia a la fuente de poder; caso contrario, el polvo acumulado impedirá la salida de aire. Al elevarse la temperatura, la fuente puede sufrir un recalentamiento y quemarse, un inconveniente que la hará dejar de funcionar. Cabe resaltar que los fallos en la fuente de poder pueden perjudicar a otros elementos de la computadora, como el caso de la placa madre o la placa de video.
En concreto podemos determinar que existen dos tipos básicos de fuentes de poder. Una de ellas es la llamada AT (Advanced Technology), que tiene una mayor antigüedad pues data de la década de los años 80, y luego está la ATX (Advanced Technology Extended).
La primera de las citadas se instala en lo que es el gabinete del ordenador y su misión es transformar lo que es la corriente alterna que llega desde lo que es la línea eléctrica en corriente directa. No obstante, también tiene entre sus objetivos el proteger al sistema de las posibles subidas de voltaje o el suministrar a los dispositivos de aquel toda la cantidad de energía que necesiten para funcionar.
Además de fuente AT también es conocida como fuente analógica, fuente de alimentación AT o fuente de encendido mecánico. Su encendido mecánico y su seguridad son sus dos principales señas de identidad.
La ATX, por su parte, podemos decir que es la segunda generación de fuentes para ordenador y en concreto se diseñó para aquellos que estén dotados con microprocesador Intel Pentium MMX.
Las mismas funciones que su antecesora son las que desarrolla dicha fuente de poder que se caracteriza por ser de encendido digital, por contar con un interruptor que se dedica a evitar lo que es el consumo innecesario durante el estado de Stand By y también ofrece la posibilidad de ser perfectamente apto para lo que son los equipos que están dotados con microprocesadores más modernos.

Por otra parte, resulta interesante mencionar que Fuente de Poder es el nombre de un ministerio de raíz evangelista que se fundó en octubre de 2000. Su templo se ubica en la localidad estadounidense de Brownsville, en texas.

                          TARJETA DE VÍDEO
Tarjeta de vídeo


Una tarjeta de vídeo, también llamada tarjeta gráfica (entre 
otros nombres) tiene a su cargo el procesamiento de los datos que provienen del procesador principal (CPU o UCP) y convertirlos en información que se pueda representar en dispositivos tales como los monitores y los televisores. Cabe mencionar que este componente puede presentar una gran variedad de arquitecturas, aunque comúnmente se denominan de igual forma, incluso si se habla de un chip de vídeo integrado en una placa madre (motherboard); en este último caso, es más correcto decir GPU (Unidad de Procesamiento Gráfico).
Desde su concepción, las tarjetas gráficas han incluido diversas prestaciones y funciones, tales como la posibilidad de sintonizar la televisión o de capturar secuencias de vídeo de un aparato externo. Es importante notar que no se trata de un componente hallado exclusivamente en los ordenadores actuales, sino que han existido desde hace ya más de cuatro décadas y hoy en día también son parte indispensable de las consolas de videojuegos, tanto de las portátiles como de las caseras.


Su creación data del final de la década del 60, época en la cual se dejó atrás el uso de una impresora para visualizar la actividad de los ordenadores y se comenzó a usar monitores. Al principio, las resoluciones eran ínfimas en comparación a la ya conocida por todos alta definición. Fue gracias al trabajo de investigación y desarrollo de Motorola que las características de los chips se volvieron más complejas y sus productos dieron pie a que se estandarizara el nombre de tarjetas de vídeo.

A medida que los ordenadores para uso personal y las primeras consolas de videojuegos se hicieron populares, se optó por integrar los chips gráficos en las placas madre, dado que esto permitía disminuir considerablemente los costes de fabricación. A simple vista, esto presenta una clara desventaja: la imposibilidad de actualizar el equipo; sin embargo, se trataba desistemas cerrados, que eran construidos tomando en consideración todos y cada uno de sus componentes, de forma que el producto final fuera consistente y ofreciera el mayor rendimiento posible.
Cabe alcarar que al día de hoy esto sigue sucediendo con las consolas, y es gracias a este tipo de diseño inalterable que luego de unos años los desarrolladores obtengan resultados muy superiores a los primeros experimentos; esto no es posible en una PC, por poderosa que sea, dado que una compañía de software no puede considerar todas las combinaciones posibles de las máquinas de sus consumidores. Además, la arquitectura de un ordenador tiene puntos débiles justamente debido a que sus partes son intercambiables, siendo el más notable la distancia que existe entre la memoria, la tarjeta gráfica y el procesador principal.
A comienzos de los años 80, IBM se basó en el diseño del inolvidable Apple II y consiguió que la tarjeta de vídeo intercambiable se volviera popular, aunque en su caso sólo ofrecía la posibilidad de mostrar caracteres en pantalla. Se trataba de un adaptador con la modesta cantidad de 4KB de memoria (en la actualidad pueden tener 2GB, 512 veces más) y que se utilizaba con un monitor monocromático. Este fue el punto de partida, y las mejoras no se hicieron esperar mucho.
Tiempo después, IBM estandarizó el término VGA, que se refiere a una tecnología de tarjetas de vídeo capaces de ofrecer una resolución de 640 píxeles de ancho por 480 de alto, así como a los monitores que podían representar dichas imágenes y al conector necesario para su uso. Luego del trabajo de varias empresas dedicadas exclusivamente a la gráfica, Super VGA(también conocido como SVGA) vio la luz del día, aumentando la definición disponible (a 1024 x 768) así como la cantidad de colores que podían ser representados de forma simultánea (de 16 colores en 640 x 480 se pasó a 256 en 1024 x 768).


                                  OTROS COMPONENTES DE UNA PC SON

*GABINETE

El gabinete de una computadora, aunque no lo parezca, es uno de los elementos más importantes de la PC, ya que su principal tarea es la de alojar y mantener en su interior los diversos dispositivos que la componen. Decimos que es importante, debido a que no cualquier gabinete sirve para cualquier computadora, y esto es por que cada una de las motherboards y sus procesadores necesitan de requerimientos específicos para un buen funcionamiento, es aquí en donde la elección de un buen gabinete se vuelve una tarea un poco más complicada.
Esto significa que si por ejemplo, nos gusta un gabinete del tipo ITX, no lo podremos usar en una motherboard Mini ATX debido a tres importantes factores, el tamaño, la disipación de calor que ofrece y el consumo necesario para que sus componentes funcionen bien. Estos parámetros deben ser tenidos en cuenta siempre para cualquier tipo de motherboard que deseemos encerrar en un gabinete.
Gabinete PC
El gabinete de una PC es una pieza en cuya construcción se emplean materiales como el plástico y metales como el aluminio y el acero, ybásicamente es una caja preparada para colocar en su interior todos los componentes que conforman una PC, es decir discos rígidos, unidades ópticas, motherboards, procesadores, memorias, placas de video y audio y demás, y se diferencian entre si por su tamaño y al tipo de computadora a la que está destinada. 


Tipos de Gabinete de PC

En este punto en el mercado podemos encontrar gabinetes destinados para tan diversos usos como servers, que son construidos con las dimensiones necesarias para ser ubicados en los llamados racks, generalmente utilizados para grandes procesos de datos. También podemos encontrar gabinetes HTPC (Home Theater PC), diseñados para ser utilizados en conjunto con otros componentes de audio y video, y para lo cual ostentan un aspecto más en concordancia con ese estilo de componentes.
Gabinete Rack
Dentro de la categoría de computadoras de escritorio, aquí sí podemos encontrarnos con una amplia variedad de modelos con características que se adecuan a toda clase de necesidades. Entre lo modelos más conocidos, podemos mencionar el llamado Barebone, que no es otra cosa que un gabinete de PC de muy reducidas dimensiones, los gabinetes verticales minitower, midtower y tower, esencialmente iguales en cuanto a la colocación de los dispositivos en su interior, pero difieren en tamaño.
Gabinete HTPC
Asimismo, otro tipo de gabinete muy cotizado en el mercado es el denominado Gamer, el cual, como su nombre lo indica, ofrece particularidades especiales para los amantes de los juegos, tales como una mejor ventilación y la posibilidad de utilizar fuentes de alimentación de mayor potencia.
Gabinete Barebone
Cuando abrimos un gabinete, nos encontraremos con varios elementos destinados a la ubicación de los componentes, además de la fuente de alimentación, que debe tener la potencia necesaria para abastecer de energía suficiente a todos los dispositivos. Esta potencia se mide en Watts, y como regla general, a cuantos más Watts, mejor.
Como mencionamos, dentro del gabinete se instalan las diversas placas y componentes que conforman la PC, y cada uno de estos elementos tiene su correspondiente lugar dentro del gabinete. Los discos y unidades ópticas como lectores de CD y DVD se ubican al frente, mientras que la motherboard se ajusta con tornillos a uno de los laterales del mismo, en el caso de que por supuesto sea un gabinete vertical. También es posible que el gabinete disponga de ranuras para la colocación de ventiladores. La mayoría ofrece este tipo de característica en su parte trasera, mientras que otros también posibilitan la postura de ventiladores en los laterales.
Gabinete Gamer
Modding
Los gabinetes también pueden sufrir modificaciones bastante importantes por parte de sus propietarios, con el fin de adecuarlos aún más a sus propios requerimientos, o con el simple hecho de variar su aspecto con motivos de pura estética.
A esta técnica de modificación de gabinetes se le denomina comúnmente "modding", y alguna de estas modificaciones pueden llegar a convertirse en verdaderas obras de arte, es más, dentro del ámbito inclusive se desarrollan importantes congresos y ferias, las cuales pueden llegar a ser muy importantes en relación a la cantidad de público asistente.
Elementos que podremos montar dentro de un gabinete
- Fuente
- Motherboard
- Procesador
- Placa de Vídeo
- Placa de Sonido
- Placa de Red
- Unidades ópticas lectoras de DVD, Blu-Ray y lectoras de tarjetas
- Memoria

 ESCANER

1. Introducción
El término digitalización se puede asociar de una manera clara, la forma como una imagen (texto, fotos, formas, sonido , movimiento...), se pueden convertir en un idioma comprensible para los computadores.
En general las señales exteriores que hacen posible la identificación en su estado natural, se transforman en código binario (0’s y 1’s) que mediante la utilización de programas se pueden transformar de acuerdo a los requerimientos.
2. Escaner
Los escáneres son periféricos diseñados para registrar caracteres escritos, o gráficos en forma de fotografías o dibujos, impresos en una hoja de papel facilitando su introducción en la computadora convirtiéndolos en información binaria comprensible para ésta.
El funcionamiento de un escáner es similar al de una fotocopiadora. Se coloca una hoja de papel que contiene una imagen sobre una superficie de cristal transparente, bajo el cristal existe una lente especial que realiza un barrido de la imagen existente en el papel; al realizar el barrido, la información existente en la hoja de papel es convertida en una sucesión de información en forma de unos y ceros que se introducen en lacomputadora.
Para mejorar el funcionamiento del sistema informático cuando se están registrando textos, los escáneres se asocian a un tipo de software especialmente diseñado para el manejo de este tipo de información en código binario llamados OCR (Optical Character Recognition o reconocimiento óptico de caracteres), que permiten reconocer e interpretar los caracteres detectados por el escáner en forma de una matriz de puntos e identificar y determinar qué caracteres son los que el subsistema está leyendo.
Un caso particular de la utilización de un scanner, aunque representa una de sus principales ventajas, es la velocidad de lectura e introducción de la información en el sistema informático con respecto al método tradicional de introducción manual de datos por medio del teclado, llegándose a alcanzar los 1.200 caracteres por segundo.
Así funciona un escáner:
Una definición simple de escáner podría ser la siguiente: dispositivo que permite pasar la información que contiene un documento en papel a una computadora, para de esta manera poder modificarlo.
Este proceso transforma las imágenes a formato digital, es decir en series de 0 y de 1, pudiendo entonces ser almacenadas, retocadas, impresas o ser utilizadas para ilustrar un texto. 

El OCR:
Si pensamos un poco en el proceso de escaneado descrito, nos daremos cuenta de que al escanear un texto no se escanean letras, palabras y frases, sino sencillamente los puntos que las forman, una especie de fotografía del texto. Evidentemente, esto puede ser útil para archivar textos, pero sería deseable que pudiéramos coger todas esas referencias tan interesantes pero tan pesadas e incorporarlas al procesador de texto no como una imagen, sino como texto editable.
El OCR es un programa que lee esas imágenes digitales y busca conjuntos de puntos que se asemejen a letras, a caracteres. Dependiendo de la complejidad de dicho programa entenderá más o menos tipos de letra, llegando en algunos casos a interpretar la escritura manual, mantener el formato original (columnas, fotos entre el texto...) o a aplicar reglas gramaticales para aumentar la exactitud del proceso de reconocimiento.
Para que el programa pueda realizar estas tareas con una cierta fiabilidad, sin confundir "t" con "1", por ejemplo, la imagen debe cumplir unas ciertas características. Fundamentalmente debe tener una gran resolución, unos 300 ppp para textos con tipos de letra claros o 600 ppp si se trata de tipos de letra pequeños u originales de poca calidad como periódicos. Por contra, podemos ahorrar en el aspecto del color: casi siempre bastará con blanco y negro (1 bit de color), o a lo sumo una escala de 256 grises (8 bits). Por este motivo algunos escáners de rodillo (muy apropiados para este tipo de tareas) carecen de soporte para color.
El proceso de captación de una imagen resulta casi idéntico para cualquier escáner: se ilumina la imagen con un foco de luz, se conduce mediante espejos la luz reflejada hacia un dispositivo denominado CCD que transforma la luz en señales eléctricas, se transforma dichas señales eléctricas a formato digital en un DAC (conversor analógico-digital) y se transmite el caudal de bits resultante al ordenador.
Tipos de Escáneres
Existen cinco tipos de escáneres, pero no todos son ideales para la digitalización de imágenes
- De sobremesa o planos:
Un escáner plano es el tipo más versátil. Es ideal para escanear páginas de un libro sin tener que desprenderlas Generalmente lucen como fotocopiadoras pequeñas ideales para un escritorio, y se utilizan para los objetos planos. Sus precios pueden variar de acuerdo con la resolución de la imagen, pero salvo que se utilicen para realizar presentaciones muy importantes, como por ejemplo colocar imágenes para la Web, no se necesita adquirir uno de un costo tan alto.
- De mano:
Son los escáners "portátiles", es el menos costoso, con todo lo bueno y lo malo que implica esto. Hasta hace unos pocos años eran los únicos modelos con precios asequibles para el usuario medio, ya que los de sobremesa eran extremadamente caros; esta situación a cambiado tanto que en la actualidad los escáners de mano están casi inutilizados por las limitaciones que presentan en cuanto a tamaño del original a escanear (generalmente puede ser tan largo como se quiera, pero de poco más de 10 cm de ancho máximo) y a su baja velocidad, así como a la carencia de color en los modelos más económicos.
Lo que es más, casi todos ellos carecen de motor para arrastrar la hoja, sino que es el usuario el que debe pasar el escáner sobre la superficie a escanear. Todo esto es muy engorroso, pero resulta ideal para copiar imágenes pequeñas como firmas, logotipos y fotografías, además es eficaz para escanear rápidamente fotos de libros encuadernados, artículos periodísticos, facturas y toda clase de pequeñas imágenes.
- De rodillo:
Unos modelos de aparición relativamente moderna, se basan en un sistema muy similar al de los aparatos de fax: un rodillo de goma motorizado arrastra a la hoja, haciéndola pasar por una rendija donde está situado el elemento capturador de imagen.
Este sistema implica que los originales sean hojas sueltas, lo que limita mucho su uso al no poder escanear libros encuadernados sin realizar antes una fotocopia (o arrancar las páginas), salvo en modelos peculiares que permite separar el cabezal de lectura y usarlo como si fuera un escáner de mano. A favor tienen el hecho de ocupar muy poco espacio, incluso existen modelos que se integran en la parte superior del teclado; en contra tenemos que su resolución rara vez supera los 400x800 puntos, aunque esto es más que suficiente para el tipo de trabajo con hojas sueltas al que van dirigidos.
- Escáneres para transparencias:
Poseen una resolución mejor que los anteriores y por eso también son un poco más caros; pueden digitalizar transparencias desarrollando un trabajo de muy buena calidad. Estos tampoco son tan utilizados como los planos, pero en aquellas empresas en donde utilizan el formato de diapositiva y transparencia para sus impresiones, son una herramienta realmente indispensable.
Con el scanner se pueden digitalizar textos (escritos a máquina o con ordenador) e imágenes. Es imprescindible que el scanner esté encendido antes de encender el ordenador, en caso contrario no lo detecta. Para poder digitalizar textos hay que utilizar el programa OmniPage mientras que para las imágenes hay que utilizar el programa Paint Shop Pro 5.
Cómo digitalizar textos
Clicando sobre el icono llamado OmniPage que se encuentra en el escritorio, se accede al programa de digitalización de textos.
Una vez dentro del programa, hay que buscar la opción obtener imagen dentro del menú archivo o bien clicar sobre el icono del scanner que aparece en la parte superior izquierda de la pantalla.Aparecerá entonces una pequeña pantalla con varias opciones. Clicando sobre digitalizar el scanner empezará a trabajar.
Las hojas se pueden poner de dos formas diferentes en el scanner.
- Hay que colocar la hoja boca abajo en la parte superior derecha del scanner y después bajar la tapa.
- Se puede utilizar el alimentador automático.
Una vez que el programa ha obtenido la información de la hoja de texto, hay que pasarle el reconocedor de textos OCR. Para ello hay que buscar un icono con dichos caracteres OCR en la pantalla o bien en el menú archivo OCR, esta página.Si el reconocimiento ha sido correcto, el programa mostrará un nuevo menú para agregar más páginas o parar el digitalizado.
Clicando sobre parar digitalizado, aparece un menú en el que hay que indicarle al programa el nombre con el que queremos guardar el programa así como el formato.
Cómo digitalizar imágenes y fotografías:
Clicando sobre el icono PaintShop Pro 5 que se encuentra en el escritorio, se entra en el programa de digitalización de imágenes.
Una vez dentro, hay que buscar la opción Acquire dentro del menú File, import, twain
Cuando se clica sobre la opción acquire el scanner se pone en marcha mostrando una previsualización de la imagen en pantalla.
La imagen hay que colocarla el la parte superior derecha del scanner y siempre boca abajo cerrando después bien la tapa.
Una vez que se haya seleccionado la zona que se desea digitalizar y si las opciones de digitalizado son las deseadas, tipo, escala, brillo etc.. pulsando final el scanner digitalizará la imagen y la enviará al PaintShop Pro 5. Si la imagen digitalizada se ve detrás del menú de digitalización se podrá cerrar este para empezar a trabajar con las herramientas de retoque .
¿Cuánto ocupa una imagen?
Las imágenes digitalizadas se pueden guardar en diferentes formatos: GIF, TIF, BMP, JPG etc.
El formato que más comprime la imagen es el JPG pero a cambio pierde un poco de calidad. Cuanta mayor sea la compresión que se le aplique a la imagen, menor será la calidad.
El formato GIF tiene una buena resolución y, al igual que los JPG, se puede utilizar en paginas web HTML de internet, pero ocupa algo más.
El formato TIF es el que mejor calidad de imagen da y es compatible con Macintosh, pero es uno de los que más ocupan.
El formato BMP, es el más estandar y el más facil de insertar en cualquier editor de texto, en cambio, es uno de los que más espacio ocupan.
El formato PSP se puede leer únicamente con el PaintShop Pro.
Con la opción save as se llega al menú que permite trabajar con todas estas opciónes.
Cuando la imagen está guardada en la cuenta personal o en el disquete, se puede salir del programa mediante la opción exit del menú file.
Cuadro ilustrativo a cerca del tamaño de las imágenes:
Tipo de original
Destino
Método escaneado
Tamaño en RAM
Fotografía 10x15 cm
Pantalla
75 ppp / 24 bits
0,4 MB
Impresora B/N
300 ppp / 8 bits
2 MB
Impresora color
300 ppp / 24 bits
6 MB
Texto o dibujo en blanco y negro tamaño DIN-A4
Pantalla
75 ppp / 1 bit
66 KB
Impresora
300 ppp / 8 bit
8 MB
OCR
300 ppp / 1 bit
1 MB
Foto DIN-A4 en color
Pantalla
75 ppp / 24 bits
1,6 MB
Impresora
300 ppp / 24 bits
25 MB

Los colores y los bits

Al hablar de imágenes, digitales o no, a nadie se le escapa la importancia que tiene el color. Una fotografía en color resulta mucho más agradable de ver que otra en tonos grises; un gráfico acertadamente coloreado resulta mucho más interesante que otro en blanco y negro; incluso un texto en el que los epígrafes o las conclusiones tengan un color destacado resulta menos monótono e invita a su lectura.
Sin embargo, digitalizar los infinitos matices que puede haber en una foto cualquiera no es un proceso sencillo. Hasta no hace mucho, los escáners captaban las imágenes únicamente en blanco y negro o, como mucho, con un número muy limitado de matices de gris, entre 16 y 256. Posteriormente aparecieron escáners que podían captar color, aunque el proceso requería tres pasadas por encima de la imagen, una para cada color primario (rojo, azul y verde). Hoy en día la práctica totalidad de los escáners captan hasta 16,7 millones de colores distintos en una única pasada, e incluso algunos llegan hasta los 68.719 millones de colores.


AQUI LOS LINKS DE DONDE OBTUVE INFORMACION: