0

DISEÑO DIGITAL I

colos RGB - CMYK


                    Modelo de color RGB



Modelo aditivo de colores rojo, verde, azul.
La descripción RGB (del inglés Red, Green, Blue; "rojo, verde, azul") de un color hace referencia a la composición del color en términos de la intensidad de los colores primarios con que se forma: el rojo, el verde y el azul. Es un modelo de color basado en la síntesis aditiva, con el que es posible representar un color mediante la mezcla por adición de los tres colores luz primarios. El modelo de color RGB no define por sí mismo lo que significa exactamente rojo, verde o azul, por lo que los mismos valores RGB pueden mostrar colores notablemente diferentes en diferentes dispositivos que usen este modelo de color. Aunque utilicen un mismo modelo de color, sus espacios de color pueden variar considerablemente.
Para indicar con qué proporción mezclamos cada color, se asigna un valor a cada uno de los colores primarios, de manera, por ejemplo, que el valor 0 significa que no interviene en la mezcla y, a medida que ese valor aumenta, se entiende que aporta más intensidad a la mezcla. Aunque el intervalo de valores podría ser cualquiera (valores reales entre 0 y 1, valores enteros entre 0 y 37, etc.), es frecuente que cada color primario se codifique con un byte (8 bits). Así, de manera usual, la intensidad de cada una de las componentes se mide según una escala que va del 0 al 255.



Cubo RGB.
Por lo tanto, el rojo se obtiene con (255,0,0), el verde con (0,255,0) y el azul con (0,0,255), obteniendo, en cada caso un color resultante monocromático. La ausencia de color —lo que nosotros conocemos como color negro— se obtiene cuando las tres componentes son 0, (0,0,0).
La combinación de dos colores a nivel 255 con un tercero en nivel 0 da lugar a tres colores intermedios. De esta forma el amarillo es (255,255,0), el cyan (0,255,255) y el magenta (255,0,255).
Obviamente, el color blanco se forma con los tres colores primarios a su máximo nivel (255,255,255).
El conjunto de todos los colores se puede representar en forma de cubo. Cada color es un punto de la superficie o del interior de éste. La escala de grises estaría situada en la diagonal que une al color blanco con el negro.
Contenido

[El color en las pantallas de computadora
En las pantallas de computadoras, la sensación de color se produce por la mezcla aditiva de rojo, verde y azul. Hay una serie de puntos minúsculos llamados píxeles. Cada punto de la pantalla es un píxel y cada píxel es, en realidad, un conjunto de tres subpíxeles; uno rojo, uno verde y uno azul, cada uno de los cuales brilla con una determinada intensidad.
Al principio, la limitación en la profundidad de color de la mayoría de los monitores condujo a una gama limitada a 216 colores, definidos por el cubo de color. No obstante, el predominio de los monitores de 24-bit, posibilitó el uso de 16,7 millones de colores del espacio de color HTML RGB.
La gama de colores de la Web consiste en 216 combinaciones de rojo, verde y azul, donde cada color puede tomar un valor entre seis diferentes (en hexadecimal): #00, #33, #66, #99, #CC o #FF.
Podemos ver que 63 nos da el número de combinaciones, 216. Estos valores en decimal se corresponden con 0, 51, 102, 153, 204 y 255, que tienen un porcentaje de intensidad de 0%, 20%, 40%, 60%, 80% y 100%, respectivamente. Esto nos permite dividir los 216 colores en un cubo de dimensión 6.
Se procura que los píxeles sean de un color cuanto más saturado mejor, pero nunca se trata de un color absolutamente puro. Por tanto la producción de colores con este sistema tiene una doble limitación:
  • La derivada del funcionamiento de las mezclas aditivas: sólo podemos obtener los colores interiores del triángulo formado por las tres fuentes luminosas.
  • La derivada del hecho que los colores primarios usados no son absolutamente monocromáticos.
  • Además, las diversas pantallas no son iguales exactamente, además de ser configurables por los usuarios, con lo cual varios parámetros pueden variar.
Esto implica que las codificaciones de los colores destinadas a las pantallas se deben interpretar como descripciones relativas, y entender la precisión de acuerdo con las características de la pantalla.
 Codificación hexadecimal del color



Colores de la CIE.
La codificación hexadecimal del color permite expresar fácilmente un color concreto de la escala RGB, utilizando la notación hexadecimal. Se utiliza, por ejemplo, en el lenguaje HTML y en JavaScript.
Este sistema utiliza la combinación de tres códigos de dos dígitos para expresar las diferentes intensidades de los colores primarios RGB (Red, Green, Blue, rojo, verde y azul).
#000000
Los tres canales están al mínimo 00, 00 y 00
#ffffff
Los tres canales están al máximo ff, ff y ff
El blanco y el negro
En el sistema de numeración hexadecimal, además de los números del 0 al 9 se utilizan seis letras con un valor numérico equivalente; a=10, b=11, c=12, d=13, e=14 y f=15. La correspondencia entre la numeración hexadecimal y la decimal u ordinaria viene dada por la siguiente fórmula:
decimal = primera cifra hexadecimal * 16 + segunda cifra hexadecimal
La intensidad máxima es ff, que se corresponde con (15*16)+15= 255 en decimal, y la nula es 00, también 0 en decimal. De esta manera, cualquier color queda definido por tres pares de dígitos.
#ff0000
El canal de rojo está al máximo y los otros dos al mínimo
#00ff00
El canal del verde está al máximo y los otros dos al mínimo
#0000ff
El canal del azul está al máximo y los otros dos al mínimo
Los tres colores básicos
#ffff00
Los canales rojo y verde están al máximo
#00ffff
Los canales azul y verde están al máximo
#ff00ff
Los canales rojo y azul están al máximo
Gris claro
#D0D0D0
Los tres canales tienen la misma intensidad
Gris oscuro
#5e5e5e
Los tres canales tienen la misma intensidad
Las combinaciones básicas
A partir de aquí se puede hacer cualquier combinación de los tres colores.
Color
Hexadecimal
Color
Hexadecimal
Color
Hexadecimal
Color
Hexadecimal
Cyan
#00ffff
black
#000000
blue
#0000ff
fuchsia
#ff00ff
gray
#808080
green
#008000
lime
#00ff00
maroon
#800000
navy
#000080
olive
#808000
purple
#800080
red
#ff0000
silver
#c0c0c0
teal
#008080
white
#ffffff
yellow
#ffff00
Colores definidos por la especificación HTML 4.01
[editar] Los colores más saturados y los más luminosos



esquema CIE.
Supongamos tres fuentes luminosas, r, g y b, de las características indicadas en el gráfico adjunto:
Cualquier color que se pueda obtener a partir de esos tres colores primarios tendrá la forma:
(ir, ig, ib)
donde ir, ig y ib son los coeficientes de las intensidades correspondientes a cada color primario.
Si situamos los colores obtenidos en el gráfico, tenemos que:
  • Si dos de los coeficientes son nulos, el color se sitúa en el vértice correspondiente al color de coeficiente no nulo.
  • Si un coeficiente es nulo, el color se sitúa en uno de los lados del triángulo: el conjunto de todos ellos son los colores más saturados.
  • Si ninguno de los coeficientes es nulo, el color se sitúa en un punto del interior; cuanto más parecidos sean los tres coeficientes, más cerca estará del blanco (en el centro).
Al representar combinaciones de tres valores independientes en un diagrama que sólo tiene dos, resulta que a cada punto del diagrama le corresponde toda una familia de colores. Por ejemplo, los siguientes colores tienen la misma proporción de rojo, verde y azul, y por tanto les corresponde el mismo punto del gráfico. Sólo se diferencian en la intensidad.
100, 50, 0
#643200
Marrón oscuro
200, 100, 0
#c86400
Marrón
150, 75, 0
#964b00
Marrón claro
Variación de las intensidades
Si las intensidades ir, ig y ib tienen un límite superior (255), la condición necesaria y suficiente para que un color sea el más intenso de la familia (es decir, de los representados por el mismo punto) es que al menos uno de sus coeficientes sea 255.
Los colores que presentan la máxima saturación y la máxima luminosidad a la vez, son los que reúnen dos requisitos: al menos uno de los coeficientes es 255 y al menos uno de los coeficientes es 0. De esto se deduce que los colores más saturados y más luminosos siguen la siguiente secuencia:
 amarillo   (255,255,0) 
 verde 
(0,255,0)
cyan
(0,255,255)

rojo
(255,0,0)
azul
(0,0,255)


rojo
(255,0,0)
magenta
(255,0,255)
 Percepción y sensación de color
Nuestros ojos tienen dos tipos de células sensibles a la luz o fotorreceptores: los bastones y los conos. Estos últimos son los encargados de aportar la información de color.
Para saber cómo percibimos un color, hay que tener en cuenta que existen tres tipos de conos con respuestas frecuenciales diferentes, y que tienen máxima sensibilidad a los colores que forman la terna RGB, rojo, verde y azul. Mientras que los conos, que reciben información del verde y el rojo, tienen una curva de sensibilidad similar, la respuesta al color azul es una veinteava (1/20) parte de la respuesta a los otros dos colores. Este hecho lo aprovechan algunos sistemas de codificación de imagen y vídeo, como el JPEG o el MPEG, "perdiendo" de manera consciente más información de la componente azul, ya que nuestros ojos no percibirán esta pérdida.
La sensación de color se puede definir como la respuesta de cada una de las curvas de sensibilidad al espectro radiado por el objeto observado. De esta manera, obtenemos tres respuestas diferentes, una por cada color.
El hecho de que la sensación de color se obtenga de este modo, hace que dos objetos observados, radiando un espectro diferente, puedan producir la misma sensación. Y en esta limitación de la visión humana se basa el modelo de síntesis del color, mediante el cual podemos obtener a partir de estímulos visuales estudiados y con una mezcla de los tres colores primarios, el color de un objeto con un espectro determinado.

Señal de luminancia
La sensación de luminosidad viene dada por el brillo de un objeto y por su opacidad, pudiendo producir dos objetos con tonalidades y prismas diferentes la misma sensación lumínica. La señal de luminancia es la cuantificación de esa sensación de brillo. Para mantener la compatibilidad entre las imágenes en blanco y negro y las imágenes en color, los sistemas de televisión actuales (PAL, NTSC, SECAM) transmiten tres informaciones: la luminancia y dos señales diferencia de color.
De esta manera, los antiguos modelos en blanco y negro pueden obviar la información relativa al color, y reproducir solamente la luminancia, es decir, el brillo de cada píxel aplicado a una imagen en escala de grises. Y las televisiones en color obtienen la información de las tres componentes RGB a partir de una matriz que relaciona cada componente con una de las señales diferencia de color.
Para cada uno de los sistemas de televisión se transmiten de diferente manera, motivo por el cual podemos tener problemas al reproducir una señal NTSC en un sistema de reproducción PAL.

Definición de CMYK de cuatro colores Impresión

CMYK es el proceso de impresión de cuatro colores que incluye los colores como cian, magenta, amarillo y negro. Se recomienda como el modelo de color estándar utilizado en la impresión offset. En general, se trata de un sistema de mezcla de colores que cuenta con pigmentos químicos para lograr los tonos deseados.
Antes de la llegada de inyección de tinta de escritorio e impresoras láser de color, la mayoría de las imágenes impresas en papel offset utilizado como colores CMYK. Una imagen de tinte está alienado de su separación en partes esenciales a fin de crear cuatro imágenes asociadas en cian, magenta, amarillo y negro. Todas las imágenes se desarrollan en las placas de colores de tinta en los que se aplica. Entonces, el recombinar los colores, y por lo tanto, forman una imagen original.
Una de las características más notables de uso de la tecnología CMYK es que es capaz de crear una amplia gama de colores. Si usted desea adquirir los servicios de impresión a todo color para la promoción de sus productos, usted tendrá que tener en cuenta que tal método se sirve de modelo CMYK. Cada color se encuentra en una plancha de impresión, así que hay cuatro planchas de impresión que se ejercen en el estilo de impresión.
Cuando se trata de colores sustractivos, suelen explicar la mezcla de pinturas, colorantes, tintas y colorantes naturales para desarrollar varios colores. Cada color se debe a la combinación cautivadora algunas longitudes de onda de la luz y refleja otros. Esquemas de color sustractivo conseguir en pista con luz blanca. Artística y profesional de los diseñadores de la empresa presente la captura de los ojos carpeta de diseños de presentación de impresión.
En lo que se refiere a RGB y CMYK, que son básicamente diferentes uno del otro. RGB se muestra cómo las pantallas de monitores de luz. Se trata de un esquema de colores, que incluye rojo, verde y azul. Es útil para el diseño de páginas web y presentaciones efectuadas en la pantalla. Su color varía la luz en vez de tintura para lograr el espectro visible. Por otra parte, CMYK muestra cómo se reproducen las imágenes en impresoras de tinta.
Etiquetas utilizadas en el texto: cmyk, colores, impresión, color, tinta, imágenes
>

Por Rodrigo el 2 de enero del 2009 | 2 comentarios
¿Cuántas veces hemos escuchado estos términos? Cuando has entrado a un estudio de diseño es muy regular el escucharlos, sin importar el software ni la plataforma en la que se trabaje, MAC o PC. Primeramente definamos el significado de cada uno de estos:
  • RGB (Red, Green, Blue), los colores básicos
  • CMYK (Cyan, Magenta, Yellow, Key)
Como sabemos los colores básicos son aquellos de los cuales se componen el resto o la gamma que podemos imaginar por sus diferentes combinaciones.
Los colores RGB pueden en apariencia tener similitudes con los tipos de colores CMYK, pero a la hora de la verdad, cada uno desempeña un papel diferente.
Si tenemos artes o gráficos en tonos de colores RGB, estos servirán solamente para trabajos que impliquen un video. Si el caso es que hemos trabajado un arte y lo deseamos llevar a una imprenta, la opción será la de trabajar en formato CMYK.
Uno no es compatible con el otro, es decir nunca se puede llevar un gráfico en formato RGB a una imprenta para una gigantografía por ejemplo, pues si se hiciese el resultado sería desastroso. Algo diferente ocurriría al querer utilizar un grafico CMYK en un editor digital, pues simplemente el software no lo aceptaría, notificándolo como compatible.
Muchas personas están acostumbradas a trabajar en formato CMYK por los conocidos Colores Phantone, ya que su resolución y definición son excelentes, pues un trabajo de imprenta lo requiere; pero si ese mismo gráfico se lo desea utilizar para un comercial por ejemplo, la conversión es fácil, pues en general los menús del programa permiten hacer el cambio de RGB a CMYK y viceversa en cuestión de segundos.
0

DISEÑO DIGITAL I

illustrator CS5

PANTALLA DE INICIO DEL ILLUSTRATOR CS5 Y SUS DIFERENTES PARTES

0

DISEÑO DIGITAL I

placas madres y procesadores

Placa madre y procesadores

Introducción a las placas madre

El primer componente de un ordenador es la placa madre (también denominada "placa base"). La placa madre es el concentrador que se utiliza para conectar todos los componentes esenciales del ordenador.



Como su nombre lo indica, la placa madre funciona como una placa "materna", que toma la forma de un gran circuito impreso con conectores para tarjetas de expansión, módulos de memoria, el procesador, etc.
Características
Existen muchas maneras de describir una placa madre, en especial las siguientes:
Factor de forma de la placa madre
El término factor de forma (en inglés <em>form factor</em>) normalmente se utiliza para hacer referencia a la geometría, las dimensiones, la disposición y los requisitos eléctricos de la placa madre. Para fabricar placas madres que se puedan utilizar en diferentes carcasas de marcas diversas, se han desarrollado algunos estándares:
  • AT miniatura/AT tamaño completo es un formato que utilizaban los primeros ordenadores con procesadores 386 y 486. Este formato fue reemplazado por el formato ATX, cuya forma favorecía una mejor circulación de aire y facilitaba a la vez el acceso a los componentes.
  • ATX: El formato ATX es una actualización del AT miniatura. Estaba diseñado para mejorar la facilidad de uso. La unidad de conexión de las placas madre ATX está diseñada para facilitar la conexión de periféricos (por ejemplo, los conectores IDE están ubicados cerca de los discos). De esta manera, los componentes de la placa madre están dispuestos en paralelo. Esta disposición garantiza una mejor refrigeración.
    • ATX estándar: Tradicionalmente, el formato del estándar ATX es de 305 x 244 mm. Incluye un conector AGP y 6 conectores PCI.
    • micro-ATX: El formato microATX resulta una actualización de ATX, que posee las mismas ventajas en un formato más pequeño (244 x 244 mm), a un menor costo. El Micro-ATX incluye un conector AGP y 3 conectores PCI.
    • Flex-ATX: FlexATX es una expansión del microATX, que ofrece a su vez una mayor flexibilidad para los fabricantes a la hora de diseñar sus ordenadores. Incluye un conector AGP y 2 conectores PCI.
    • mini-ATX: El miniATX surge como una alternativa compacta al formato microATX (284 x 208 mm) e incluye a su vez, un conector AGP y 4 conectoresPCI en lugar de los 3 del microATX. Fue diseñado principalmente para mini-PC (ordenadores barebone).
  • BTX: El formato BTX (Tecnología Balanceada Extendida), respaldado por la marca Intel, es un formato diseñado para mejorar tanto la disposición de componentes como la circulación de aire, la acústica y la disipación del calor. Los distintos conectores (ranuras de memoria, ranuras de expansión) se hallan distribuidos en paralelo, en el sentido de la circulación del aire. De esta manera, el microprocesador está ubicado al final de la carcasa, cerca de la entrada de aeración, donde el aire resulta más fresco. El cable de alimentación del BTX es el mismo que el de la fuente de alimentación del ATX. El estándar BTX define tres formatos:
    • BTX estándar, con dimensiones estándar de 325 x 267 mm;
    • micro-BTX, con dimensiones reducidas (264 x 267 mm);
    • pico-BTX, con dimensiones extremadamente reducidas (203 x 267 mm).
  • ITX: el formato ITX (Tecnología de Información Extendida), respaldado por Via, es un formato muy compacto diseñado para configuraciones en miniatura como lo son las mini-PC. Existen dos tipos de formatos ITX principales:
    • mini-ITX, con dimensiones pequeñas (170 x 170 mm) y una ranura PCI;
    • nano-ITX, con dimensiones muy pequeñas (120 x 120 mm) y una ranura miniPCI. Por esta razón, la elección de la placa madre y su factor de forma dependen de la elección de la carcasa. La tabla que se muestra a continuación resume las características de los distintos factores de forma.


Factor de forma
Dimensiones
Ranuras
ATX
305 x 244 mm
AGP/6 PCI
microATX
305 x 244 mm
AGP/3 PCI
FlexATX
229 x 191 mm
AGP/2 PCI
Mini ATX
284 x 208 mm
AGP/4 PCI
Mini ITX
170 x 244 mm
1 PCI
Nano ITX
120 x 244 mm
1 MiniPCI
BTX
325 x 267 mm
7
microBTX
264 x 267 mm
4
picoBTX
203 x 267 mm
1
Componentes integrados
La placa madre contiene un cierto número de componentes integrados, lo que significa a su vez que éstos se hallan integrados a su circuito impreso:
  • el chipset, un circuito que controla la mayoría de los recursos (incluso la interfaz de bus con el procesador, la memoria oculta y la memoria de acceso aleatorio, las tarjetas de expansión, etc.),
  • el BIOS,
  • el bus del sistema y el bus de expansión.

De esta manera, las placas madre recientes incluyen, por lo general, numerosos dispositivos multimedia y de red integrados que pueden ser desactivados si es necesario:
  • tarjeta de red integrada;
  • tarjeta gráfica integrada;
  • tarjeta de sonido integrada;
  • controladores de discos duros actualizados.
El chipset
El chipset es un circuito electrónico cuya función consiste en coordinar la transferencia de datos entre los distintos componentes del ordenador (incluso el procesador y la memoria). Teniendo en cuenta que el chipset está integrado a la placa madre, resulta de suma importancia elegir una placa madre que incluya un chipset reciente para maximizar la capacidad de actualización del ordenador.
Algunos chipsets pueden incluir un chip de gráficos o de audio, lo que significa que no es necesario instalar una tarjeta gráfica o de sonido. Sin embargo, en algunos casos se recomienda desactivarlas (cuando esto sea posible) en la configuración del BIOS e instalar tarjetas de expansión de alta calidad en las ranuras apropiadas.
El reloj y la pila CMOS
El reloj en tiempo real (o RTC) es un circuito cuya función es la de sincronizar las señales del sistema. Está constituido por un cristal que, cuando vibra, emite pulsos (denominados pulsos de temporizador) para mantener los elementos del sistema funcionando al mismo tiempo. La frecuencia del temporizador (expresada en MHz) no es más que el número de veces que el cristal vibra por segundo, es decir, el número de pulsos de temporizador por segundo. Cuanto más alta sea la frecuencia, mayor será la cantidad de información que el sistema pueda procesar.
Cuando se apaga el ordenador, la fuente de alimentación deja inmediatamente de proporcionar electricidad a la placa madre. Al encender nuevamente el ordenador, el sistema continúa en hora. Un circuito electrónico denominado CMOS (Semiconductor de óxido metálico complementario), también llamado BIOS CMOS, conserva algunos datos del sistema, como la hora, la fecha del sistema y algunas configuraciones esenciales del sistema.
El CMOS se alimenta de manera continua gracias a una pila (pila tipo botón) o bien a una pila ubicada en la placa madre. La información sobre el hardware en el ordenador (como el número de pistas o sectores en cada disco duro) se almacena directamente en el CMOS. Como el CMOS es un tipo de almacenamiento lento, en algunos casos, ciertos sistemas suelen proceder al copiado del contenido del CMOS en la memoria RAM (almacenamiento rápido); el término "memoria shadow" se utiliza para describir este proceso de copiado de información en la memoria RAM.
El "semiconductor de óxido metálico complementario" es una tecnología de fabricación de transistores, la última de una extensa lista que incluye a su vez la TTL (lógica transistor-transistor), el TTLS (lógica transistor-transistor Schottky) (más rápido) o el NMOS (Semiconductor de óxido metálico de canal negativo) y el PMOS (Semiconductor de óxido metálico de canal positivo).
El CMOS permite la ejecución de numerosos canales complementarios en un solo chip. A diferencia de TTL o TTLS, el CMOS es mucho más lento, pero reduce notoriamente el consumo de energía; esta es la razón por la que se utiliza como reloj de ordenadores alimentados a pilas. A veces, el término CMOS se utiliza erróneamente para hacer referencia a los relojes de ordenadores.
Cuando la hora del ordenador se reinicia de manera continua o si el reloj se atrasa, generalmente sólo debe cambiarse la pila.
El BIOS
El BIOS (Sistema básico de entrada y salida) es el programa que se utiliza como interfaz entre el sistema operativo y la placa madre. El BIOS puede almacenarse en la memoria ROM (de sólo lectura, que se puede escribir únicamente) y utiliza los datos almacenados en el CMOS para buscar la configuración del hardware del sistema.
El BIOS se puede configurar por medio de una interfaz (llamada Configuración del BIOS), a la que se accede al iniciarse el ordenador presionando una tecla (por lo general, la tecla Supr. En realidad, la configuración del BIOS se utiliza sólo como interfaz para configuración; los datos se almacenan en el CMOS. Para obtener más información, se aconseja consultar el manual de su placa madre).
Socket del procesador
El procesador (también denominado microprocesador) no es más que el cerebro del ordenador. Ejecuta programas a partir de un conjunto de instrucciones. El procesador se caracteriza por su frecuencia, es decir la velocidad con la cual ejecuta las distintas instrucciones. Esto significa que un procesador de 800 MHz puede realizar 800 millones de operaciones por segundo.
La placa madre posee una ranura (a veces tiene varias en las placas madre de multiprocesadores) en la cual se inserta el procesador y que se denomina socket del procesador o ranura.
  • Ranura: Se trata de un conector rectangular en el que se inserta un procesador de manera vertical.
  • Socket: Además de resultar un término general, también se refiere más específicamente a un conector cuadrado con muchos conectores pequeños en los que se inserta directamente el procesador.

Dentro de estos dos grandes grupos, se utilizan diferentes versiones, según del tipo de procesador. Más allá del tipo de socket o ranura que se utilice, es esencial que el procesador se inerte con suavidad para que no se doble ninguna clavija (existen cientos de ellas). Para insertarlos con mayor facilidad, se ha creado un concepto llamado ZIF (Fuerza de inserción nula). Los sockets ZIF poseen una pequeña palanca que, cuando se levanta, permite insertar el procesador sin aplicar presión. Al bajarse, ésta mantiene el procesador en su lugar.
Por lo general, el procesador posee algún tipo de dispositivo infalible con la forma de una esquina con muescas o marcas coloridas, que deben ser alineadas con las marcas respectivas del socket.


Dado que el procesador emite calor, se hace necesario disiparlo afín de evitar que los circuitos se derritan. Esta es la razón por la que generalmente se monta sobre un disipador térmico (también llamado ventilador o radiador), hecho de un metal conductor del calor (cobre o aluminio) a fin de ampliar la superficie de transferencia de temperatura del procesador. El disipador térmico incluye una base en contacto con el procesador y aletas para aumentar la superficie de transferencia de calor. Por lo general, el enfriador está acompañado de un ventilador para mejorar la circulación de aire y la transferencia de calor. La unidad también incluye un ventilador que expulsa el aire caliente de la carcasa, dejando entrar el aire fresco del exterior.
Conectores de la RAM
La RAM (Memoria de acceso aleatorio) se utiliza para almacenar datos mientras se ejecuta el ordenador; sin embargo, los contenidos se eliminan al apagarse o reiniciarse el ordenador, a diferencia de los dispositivos de almacenamiento masivo como los discos duros, que mantienen la información de manera segura, incluso cuando el ordenador se encuentra apagado. Esta es la razón por la que la memoria RAM se conoce como "volátil".
Entonces, ¿por qué debería uno utilizar la RAM, cuando los discos duros cuestan menos y posen una capacidad de almacenamiento similar? La respuesta es que la RAM es extremadamente rápida a comparación de los dispositivos de almacenamiento masivo como los discos duros. Tiene un tiempo de respuesta de alrededor de unas docenas de nanosegundos (cerca de 70 por DRAM, 60 por EDO RAM y 10 por SDRAM; sólo 6 ns por DDR SDRAM) a diferencia de unos pocos milisegundos en los discos duros.
La memoria RAM se presenta en forma de módulos que se conectan en los conectores de la placa madre.
Ranuras de expansión
Las Ranuras de expansión son compartimientos en los que se puede insertar tarjetas de expansión. Éstas son tarjetas que ofrecen nuevas capacidades o mejoras en el rendimiento del ordenador. Existen varios tipos de ranuras:
  • Ranuras ISA (Arquitectura estándar industrial): permiten insertar ranuras ISA. Las más lentas las de 16 bits.
  • Ranuras VLB (Bus Local Vesa): este bus se utilizaba para instalar tarjetas gráficas.
  • Ranuras PCI (Interconexión de componentes periféricos): se utilizan para conectar tarjetas PCI, que son mucho más rápidas que las tarjetas ISA y se ejecutan a 32 bits.
  • Ranura AGP (Puerto gráfico acelerado): es un puerto rápido para tarjetas gráficas.
  • Ranuras PCI Express (Interconexión de componentes periféricos rápida): es una arquitectura de bus más rápida que los buses AGP y PCI.
  • Ranura AMR (Elevador de audio/módem): este tipo de ranuras se utiliza para conectar tarjetas miniatura construidas para PC.


Los conectores de entrada y salida.
La placa madre contiene un cierto número de conectores de entrada/salida reagrupados en el panel trasero.



La mayoría de las placas madre tienen los siguientes conectores:
  • Un puerto serial que permite conectar periféricos antiguos;
  • Un puerto paralelo para conectar impresoras antiguas;
  • Puertos USB (1.1 de baja velocidad o 2.0 de alta velocidad) que permiten conectar periféricos más recientes;
  • Conector RJ45 (denominado LAN o puerto Ethernet) que permiten conectar el ordenador a una red. Corresponde a una tarjeta de red integrada a la placa madre;
  • Conector VGA (denominado SUB-D15) que permiten conectar el monitor. Este conector interactúa con la tarjeta gráfica integrada;
  • Conectores de audio (línea de entrada, línea de salida y micrófono), que permiten conectar altavoces, o bien un sistema de sonido de alta fidelidad o un micrófono. Este conector interactúa con la tarjeta de sonido integrada.
                                                                                       PROCESADORES





Capacidad
Dependiendo del tipo de procesador y su velocidad, se obtendrá un mejor o peor rendimiento. La velocidad de los procesadores se mide en Megahertz (MHZ = millones de ciclos por segundo), este parámetro indica el número de ciclos de instrucciones que el procesador realiza por segundo, pero solo sirve para compararlo con procesadores del mismo tipo, por ejemplo un procesador 586 de 133 MHz no es más rápido que un pentium de 100 MHz.
Inicios
Comenzó siendo del tamaño de un armario, posteriormente se redujo al de una gran caja, después se construyó en un placa de unos 15 por 15 pulgadas. Finalmente se construyó en un solo circuito integrado, encapsulado en un "chip", que se inserta en un zócalo de la placa-base (0). La historia de los procesadores, ha pasado por diferentes situaciones siguiendo la lógica evolución de este mundo. Desde el primer procesador 4004 del año 1971, hasta el actual Core i7 del presente año ha llovido mucho en el campo de los procesadores. Aquel primer procesador presentado en el mercado el día 15 de noviembre, poseía unas características únicas para su tiempo. Para empezar, la velocidad del reloj sobrepasaba por poco los 100 KHz (Kilo hertzio) disponía de un ancho de bus de 4 bits. Fue expuesto por Roberto Pineda 2002 en la U.E.V.A.A
Máximo de 640 bytes de memoria. Realmente una auténtica joya, que para entonces podía realizar gran cantidad de tareas pero que no tiene punto de comparación con los actuales micros, entre sus aplicaciones podemos destacar su presencia en la calculadora Busicom, así como dotar de los primeros tintes de inteligencia a objetos inanimados. Sin embargo el 1º de Abril de 1972 Intel anunciaba una versión mejorada de su procesador. se trataba del 8008,que contaba como principal novedad un bus de 8 bytes y la memoria direccionable se ampliaba a los 16 Kb. Además, llegaba a la cifra de los 3500 transistores, casi el doble que su predecesor, y se le puede considerar como el antecedente del procesador que serviría de corazón a la primera computadora personal. Justo 2 años después Intel anunciaba esa tan esperada computadora personal, de nombre Altair, cuyo nombre proviene de un destino de la nave Enterprise, en de los capítulos de la popular serie de televisión Star Trek, la semana en la que se creó la computadora. Esta computadora tenía un costo alrededor de los 400 dólares de la época, y el procesador suponía multiplicar por 10 el rendimiento del anterior, gracias a sus 2 MHz de decenas de miles de unidades en lo que supónia la aparición de la primera computadora que la gente podía comprar, y no ya simplemente utilizar. Intel al cual se le ocurrió que su procesador 586 se llamara PENTIUM, por razones de mercado. Tiene varios como son: Pentium, Pentium II, Pentium III y Pentium IV , AMD tiene el AMD586, K5 y el K6. Los 586 (Pentium) ya son prácticamente obsoletos.
Aquí estuvieron los del 1.2 plant5el 16 el colorado 2010.
Ley de Moore
El Dr. Gordon Moore, de los fundadores del Intel Corporation, formuló en el año de 1965 una ley que se ha venido a conocer como la " Ley de Moore". La citada ley nos viene a decir, que el número de transistores contenido en un microprocesador se duplica más o menos cada 18 meses. Esta afirmaciôn que en principio estaba destinada a los dispositivos de memoria, pero también los microprocesadores han cumplido la ley correctamente hasta ahora... Una ley que significa para el usuario que cada 18 meses, de forma continua pueda disfrutar de una mejor tecnología, algo que se ha venido cumpliendo durante los últimos 30 años, y se espera siga vigente en los próximos 15 o 20 años. De modo que el usuario puede disponer de mejores equipos, aunque también signifique la necesidad de cambiar de equipo cada poco tiempo, algo que no todo el mundo se puede permitir. y eso que el precio aumenta de forma obsoleta pero no relativa, puesto que la relación MIPS-dinero está decreciendo a velocidad vertiginosa. Algo que sin embargo no sucede con la industria del automóvil por ejemplo, ya que la potencia de los coches no se ha multiplicado de la misma forma que los precios, en cualquier caso, queda claro que en los próximos años nos espera una auténtica revolución en lo que a rendimiento de los procesadores se refiere, como ya predijera Moore hace más de 30 años.
 Nuevas tecnologías
Los procesadores ahora se pueden fabricar en mayor cantidad por Waffer de silicio utilizado, esto le da una ventaja al fabricante: menores costos. Pero no todo se reduce a eso, ahora es posible poner dos núcleos del procesador en el mismo espacio que antes ocupaba sólo. Así pues el siguiente paso es el llamado Dual Core, es decir, un mismo procesador tiene, en realidad, dos cerebros, dos procesadores con sus respectivas memorias Caché pero la misma cantidad de conectores.El proceso a seguir fue achicar aún más todo y además cambiar materiales, AMD e Intel pasaron entonces a los 90nm, más pequeño aún, y a nuevas tecnologías de proceso (SOI, por ejemplo: Silicon On Insulator), esto trae dos ventajas: menos calor, menos energía necesaria para mover el mismo electrón a la misma velocidad y más espacio. La ventaja de AMD sobre Intel está en el multiprocesamiento debido a que cada núcleo posee su conector HyperTransport y su controlador de memoria, Intel resolvió en cierta manera esto, pero AMD tiene, al poseer el controlador de memoria y el HT incluidos, la posibilidad no de Dual Core solamente... si no de N núcleos es decir, el paso que le sigue para el año que viene es meter 4 procesadores en un mismo envase, y luego 8.
Actualmente, ya hay disponibles procesadores de 4 núcleos a un precio asequible (alrededor de 300 €). Estos procesadores son los Intel Core 2 Quad y sus velocidades de proceso oscilan entre 2.400 y 2.666Mhz, aunque su principal ventaja es la elevada cantidad de memoria caché de segundo nivel: 8 Mb. La memoria caché de un ordenador es la que almacena las operaciones que más se repiten, por lo que se almacenan en esa memoria en concreto para acelerar el proceso.
Por otro lado tenemos los procesadores multinúcleo de AMD, principal competidor de Intel. Próximamente lanzará al mercado sus procesadores de 3 y 4 núcleos - con los nombres de Phenom y Opteron, respectivamente - aunque los precios todavía son una incógnita.
En cuanto a lo que se aproxima, lo lógico es pensar que los fabricantes buscarán la manera de ir "sumando núcleos" y no tanto en aumentar la velocidad de reloj del procesador.
Otro factor que se sigue trabajando en cuanto a las CPU se refiere, es la velocidad del FSB. Mientras que AMD ha llegado a los 2000 Mhz gracias al Hyper Transport, los últimos procesadores de Intel ya soportan velocidades de 1366 Mhz.
Futuro de los microprocesadores
El último paso conocido ha sido la implementación de la nueva arquitectura de 0.25 micras, que viene a sustituir de forma rotunda la empleada hasta el momento, de 0.35 micras en los últimos modelos de procesador. Esto va a significar varias cosas en un futuro no muy lejano, para empezar la velocidad se incrementará una medida del 33% con respecto a la generación del anterior. es decir, el mismo procesador usando esta nueva tecnología puede ir un 33% más rápido que el anterior. Para los que no podamos hacer una idea de este tamaño de tecnología, el valor de 0.25 micras es unas 400 veces más pequeño que un cabello de cualquier persona. Y este tamaño es el que tienen transistores que componen el procesador. El transistor, como muchos sabemos, permite el paso de la corriente eléctrica, de modo que en función de en qué transistores haya corriente, el ordenador realiza las cosas (esto es una simplificación de la realidad pero se ajusta a ella). Dicha corriente eléctrica circula entre dos puntos de modo que cuanto menor sea esta distancia, más cantidad de veces podrá pasar, pues el tiempo es menor. Aunque estamos hablando de millonésimas de segundo, tener en cuenta que un procesador está trabajando continuamente, de modo que ese tiempo que parece insignificante cuando es sumado a lo largo de las miles de millones de instrucciones que realizar, nos puede dar una cantidad de tiempo importante. De modo que la tecnología que se utilice puede dar resultados totalmente distintos, incluso utilizando el mismo procesador. en un futuro cercano además de contar con la arquitectura de 0.25 micras podremos disfrutar de una de 0.07, para el año 2011, lo que supondrá la introducción en el procesador de mil millones de transistores, alcanzando una velocidad de reloj cercana a los diez mil MHz, es decir, diez GHz.
Han pasado más de 25 años desde que Intel diseñara el primer microprocesador, que actualmente cuenta con más del 90% del mercado. Un tiempo en el que todo ha cambiado enormemente, y en el hemos visto pasar varias generaciones de maquinas que nos han entretenido y ayudado en el trabajo diario. Dicen que es natural en el ser humano queres mirar constantemente hacia el futuro, buscando información de hacia donde vamos, en lugar de en donde hemos estado. Por ello no podemos menos que asombrarnos de las previsiones que los científicos barajan para dentro de unos 15 años. Según el Dr. Albert Yu, vicepresidente de Intel y responsable del desarrollo de los procesadores desde el año 1984, para el año 2011, utilizaremos procesadores cuyo reloj ira a una velocidad de 10 GHz (10,000 MHz) contendrán mil millones de transistores y será capaz de procesar cerca de 100 mil millones de instrucciones por segundo. Un futuro prometedor, permitirá realizar tareas nunca antes pensadas.