Sunteți pe pagina 1din 236

Aunque en la actualidad, ya existen compañías como Dell, que te dan la opción de irle agregando

mejoras a una pc de base, siempre será mejor que tú la armes, es por eso que enseguida te daré

algunos tips para que los tomes en cuenta si tienes pensado hacerlo o bien sepas como escoger una

buena PC antes de comprarla:

Componente Principales:

 Procesador: en la actualidad la velocidad a la que funciona un procesador es de vital


importancia para poder ejecutar distintas tareas al mismo tiempo, como editar video, descargar
música, navegar en internet, platicar por cualquier servicio de mensajería, realizar trabajos en
Office, etc. Para esto tendremos que escoger un procesador que tenga la suficiente velocidad
para hacer este tipo de tareas, a lo cual yo recomendaría uno que cuente con tecnología de 64
bits y Doble Núcleo, en el mercado existen los AMD 64 X2 y el Intel Core 2 Duo. ¿Cuál se el
mejor de los dos? Intel Core 2 Duo, según una comparativa hecha por Tech Report.
 Fuente de Poder: tienes idea de ¿Cuántas unidades ópticas instalarás? Dvd, Quemador,
Quemador de DVD, CD-Rom, Un combo, etc. y ¿Cuántos Discos Duros? ¿1, 2?, pues cada uno
necesita energía eléctrica para poder funcionar, que mejor que una fuente de poder superior a
los 500 watts con conectores ATX, ATX 2 y SATA. La fuente de poder se encarga de distribuir
la energía electrica a todos los componentes que tengamos instalados dentro de nuestro
gabinete.
 Gabinete: existen gabinetes hechos para motherboards y procesadores especiales, como
los Intel, que requieren de mayor ventilación y enfriamiento. Al escoger un gabinete, debes
verificar que tenga una buena circulación del aire, y que soporte una gran cantidad de
dispositivos y discos duros.
 Tarjeta Madre: sin tarjeta madre no funciona tu pc, cada tarjeta madre o motherboard
tiene características especiales y soporte para diferentes tipos de Procesadores, así que lo que
debes de hacer es primero comprar tu motherboard y sobre esta trabajar en los diferentes
componentes, como Procesador, Memoria, Tarjeta de Gráficos, Tarjeta de Video, etc. Cuando
compres tu motherboard, verifica que contenga conexiones para puertos PIC Express,
Puertos USB 2.0, RAID, SATA, IDE, Audio 7.1, Ranuras para memoria de doble canal DDR,
DDR-2. Algunas motherboards traen audio y video ya instalados, son buenos, pero siempre
será mejor tener el video separado por medio de una tarjeta aceleradora de gráficos, tipo
Nvidia o ATI.
 Memoria: mínimo 2GB distribuidos en dos unidades de 1GB, que sean de la misma marca
y velocidad.
 Disco Duro: Entre más capacidad tenga mejor: 320GB, 400GB o 500GB.
 Tarjeta de Video: como ya decía anteriormente, las mejores marcas son Nvidia ATI, del
primero su serie GeForce 8800 y del segundo la seria Radeon X1950.

 Construir un PC
 Introducción:
 Me han preguntado muchas veces sobre si es mejor
comprarse un PC clónico ya montado o si por el contrario
es mejor montárselo uno. La mayoría cree que
ensamblarse el ordenador uno mismo hace que éste
resulte más económico, y sin embargo normalmente
resulta al revés.
 Las ventajas de construirlo son:
 Poder elegir cada uno de los componentes, y poder
elegir donde y cuando comprarlos:
 Normalmente, en las tiendas, nos dejan elegir entre varias
opciones a la hora de compra una máquina, pero no
podemos elegir cada uno de los componentes, y a lo mejor
tampoco tienen todos los que nos interesan, o puede que
tengan algún procesador más caro de la cuenta, porque
todavía no han actualizado los precios desde la última
bajada de Intel.
 Puede que queramos comprar todos los componentes en
una tienda que tiene buen precio, pero resulta que no
disponen del Cyrix MX que nos interesa más por relación
calidad/precio. O puede que queramos todos los
componentes menos el procesador, a la espera de que
salga el nuevo K6-2, y mientras iremos tirando con nuestro
antiguo Pentium. Es decir, ganamos en flexibilidad.
 Aprender para posteriormente poder actualizarlo con
más facilidad y conocimientos. Tened en cuenta que el
ensamblador (o la tienda) cuando compramos una
máquina, normalmente no nos da todos los manuales de
cada uno de los componentes, y sin embargo más
adelante podemos necesitarlos.
 Aprovechar piezas que ya tengamos de otra/s
máquina/s. Si disponemos de piezas usadas, o de nuestra
antigua máquina, muchas veces podremos aprovecharlas
en la construcción de nuestro nuevo PC.(ver sección
Actualizar el PC.).

 Lista de componentes:
 Vamos a ver que necesitamos comprar:
 Caja.
 Placa base, procesador, y si éste no es del tipo "In a
box", un ventilador de CPU.
 Memoria.
 Si la placa no lo lleva ya integrado, una tarjeta de video, y
una de sonido.
 Una disquetera, un disco duro y una unidad de CD-ROM
(ésta última no es imprescindible, pero si recomendable).
 El monitor, el teclado y el ratón.
 Unos altavoces y un micro (si no vienen ya integrados en
el monitor)
 También necesitaremos algunas herramientas,
normalmente una llave del 6 y un destornillador mediano
de estrella.
 Manos a la obra.
 Procesador:
 La primera operación a realizar será montar la CPU sobre
la placa base. Si el zócalo es del tipo 7 (tipo Pentium),
normalmente la operación a realizar es levantar una
palanquita que está al lado de dicho zócalo hasta que se
quede en posición vertical, o incluso un poco más, hasta
que llegue al tope (para que salga de su ubicación inicial
normalmente hace falta separla un poco del zócalo).
 Después procederemos a identificar la esquina en donde
se encuentra la patilla nº 1 del procesador. Es bastante
fácil, pues tiene la punta de la esquina recortada. Debido a
éste detalle, en dicho extremo hay un pin de menos,
mientras en la parte más interior de dicha esquina nos
encontramos con un pin de más.
 Luego hay que identificar la misma esquina en el zócalo.
Nos guiaremos por las misma patillas identificativas que
hemos visto en el procesador. Estas deberán tener sus
agujeritos correspondientes. También nos lo indicará un
triangulito que simulará la misma esquima roma.
 Una vez identificada su correcta posición, bastará con
insertar el procesador, teniendo especial cuidado en no
doblar ninguna pata. Deberá entrar sin necesidad de
ejercer presión alguna.
Si nos encontramos con que no entra, quitaremos la CPU y
moveremos la palanca de sujección hasta ver que los
agujeros quedan totalmente abiertos, intentándolo de
nuevo con precaución hasta que entre.
Una vez insertado, comprobaremos que no hay espacio
entre la CPU y el zócalo, y entonces procederemos a bajar
la palanca hasta que encaje en la muesca hecha a tal
efecto.
 Ventilador:
 Es aconsejable comprar un modelo de procesador con
radiador y ventilador integrado. Pues estos modelos suelen
estar bastante sobredimensionados y optimizados para el
modelo en cuestión, pero si nuestro modelo no cuenta con
él, deberemos colocárselo nosotros.
 Hay que escojer siempre un modelo de alta calidad, sobre
todo si pensamos hacerle algo de overclocking. Siempre es
aconsejable que el fabricante del ventilador indique que es
adecuado para nuestra CPU. El proceso de montaje puede
variar de un modelo a otro, pero normalmente el proceso
consiste en colocarlo encima de la CPU y, mediante una
especie de clip engancharlo a ambos lados del zócalo.
Normalmente todos los modelos son una mezcla de
radiador y ventilador, siendo el radiador el que se coloca en
contacto con el procesador, y suele interponerse entre ellos
un material que facilite la conducción del calor , pudiendo
ser una pasta blanquecina, o una plaquita blanda que va
fijada al radiador.
Ojo! algunos modelos llevan una pegatina que se fija al
procesador, pero para ello hay que separar primero el
plástico que cubre el pegamento, y si nos olvidamos de
ello, al ser plástico no conduce adecuadamente el calor, y
puede ser perjudicial. De todas maneras, estos modelos no
son los más adecuados por cuanto a la hora de
"reciclarlos" para otros usos, tendremos dificultades en
despegarlos.
 Memoria:
 El siguiente paso será la instalación de las memorias. Esta
será distinta dependiendo de si se trata de DIMM's o de
SIMM's. Primeramente, al igual que el caso del procesador,
deberemos identificar la posición inequivoca tanto de los
módulos como en los zócalos.
 SIMM's
 En el caso de los SIMM's
encontraremos una muesca en
uno de los lados, en la parte en
donde están los contactos. En la fotografía podemos ver
perfectamente esa muesca en la parte de la izquierda.
El siguiente paso será encontrar en el zócalo, una pequeña
rebaba, que deberá coincidir con esa muesca.
Normalmente es imposible colocar una memória al revés,
pero siempre será mejor asegurarse de que lo hacemos
corectamente.
 La manera de insertar las memorias, es encajándolas en
una posición de unos 45º respecto de la placa base, y
después moviéndolas hasta su posición definitiva
(normalmente totalmente vertical).
En el zócalo tambien encontraremos unos pequeños
pivotes que deberán encajar en los agujeros que se
encuentran a ambos lados del módulo, y por último
tambien veremos uno pequeños engarces metálicos o
plásticos, que serán los que asirán la memoria, y no la
permitirán salir de su ubicación.
Normalmente dichos engarces encajarán solos al apretar la
memoria, pero hay que asegurarse de ello. La presión a
efectuar no debería ser elevada.
 DIMM's:
 En el caso de los DIMM's, la muesca no estará en un lado,
sino en mitad del módulo. siendo en forma de U invertida.
Dicha muesca, además de indicarnos la orientación, nos
indicará el tipo de memória, consiguiendo que si queremos
montar una memoria de un voltaje distinto al que admite el
zócalo, éste no será posible.
 Aunque teóricamente el montaje de estas memórias sea
más sencillo, en la práctica es más peligroso, ya que,
aunque a nivel físico sólo es necesario meterlo en la ranura
y empujar hacia abajo, en éste caso si será necesario
ejercer cierta fuerza, y además hacia abajo, con lo que
corremos el riesgo de romper la placa. Por eso es
aconsejable instalarla con la placa base fuera, y colocando
debajo de ella una superficie que no permita su flexión.
De todas formas, el truco para no romper nada está en
empujar con los pulgares a ambos lados del módulo,
entrándolo totalmente plano, y a la vez apretar hacia dentro
con los dedos índice los dos encajes que hacen que ésta
no pueda liberarse una vez esté totalmente dentro. Todo
ello debe hacerse con extrema precaución, y sin ejercer
una presión exajerada.

 Placa base:
 Montaje:
 El siguiente paso será la instalación de la placa base sobre
la caja. Lo más complicado de esta operación es hacer que
encajen correctamente los tornillos y separadores, pues
muchas veces es dificil que coincidan al 100 %.
 Hay que comprobar primero que tengamos la cantidad
exacta de tornillos, separadores, y arandelas, y encontrar
que agujeros encajan en nuestra placa. Es normal que
"sobren" agujeros en la caja, e incluso que haya alguno de
la placa que no coincida con ninguno de la caja. Hay que
contar cuantos coinciden, y de que tipo son.
Algunos son simples piezas de plástico que se insertan a
ambos lados, y algunos son tornillos con su
correspondiente separador, (una pieza metálica con rosca
a ambos lados, una de la cual va atornillada a la caja y la
otra es en donde se atornillará el tornillo de la parte de la
placa). También nos podremos encontrar con unas
arandelas aislantes, que deben colocarse en todo caso
debajo de la placa.
 También hay que tener en cuenta que las tarjetas de
expansión van físicamente atornillados a la caja, e
insertados en las ranuras o "slots", y que estas deben estar
correctamente alineadas.
Si la placa tiene suficiente "juego", es aconsejable que
antes de atornillarla definitivamente coloquemos una tarjeta
de expansión en cada esquina de la placa, y busquemos
que queden lo más centradas posible, y que no queden
forzadas. Lo mismo es aplicable al conector del teclado u
otros que estuviera integrado en la placa base. Es habitual
en algunos clónicos encontrarse que insertar una tarjeta en
la placa base es como encajar una pieza de puzzle en un
lugar que no le corresponde.
 En las tarjetas ATX, el número y tipo de conectores
externos puede variar de una a otra, y por lo general se
entregan una "plantillas" metálicas, una de las cuales
encajará con la nuestra, y será la que habrá que utilizar
para colocar en la parte de atrás de la placa y sacar por allí
todos los conectores. Dichas "plantillas" están
estandarizadas y tienen cada una un nombre que coincide
con el modelo de placa base fabricada por Intel y definida
en la norma ATX.
 Cableado (excepto unidades de almacenamiento):
 El siguiente paso será conectar los cables. Primero el de
alimentación, que podrá ser único o doble, el primer
modelo es el estandar en las placas ATX, y no permite su
instalación al revés, y los otros a pesar de tener también
una sola orientación, al ser dos puede dar lugar a
confusión. Suelen marcarse con las siglas P8 y P9, pero en
caso de duda suele ser habitual que los cables de color
negro queden juntos y en el centro, entre ambos
conectores. En algunas placas se opta por contar con
ámbos tipos de conector. En caso de duplicidad es mejor
utilizar el tipo ATX.
 Si tu placa es ATX puedes olvidarte de este apartado, sino
deberás pelearte un poco con los conectores paralelo,
série, PS/2, USB, etc.
Este tipo de conectores suelen venir montados para poder
ser instalados como si se tratara de una tarjeta de
expansión (ver apartado relativo al tema), normalmente en
uno de las ranuras más cercanas a la fuente de
alimentación que no suelen contar con el correspondiente
slot. Si nuestra caja lo permite, dichos conectores pueden
sacarse de la plaquita y atornillarse a unos agujeros
hechos a tal efecto que se suelen encontrar al lado de la
fuente de alimentación. Dichos agujeros suelen venir
tapados con una chapita que puede quitarse con un
destonillador plano, a efecto de sacar sólo los que
necesitemos.
 Tanto en un caso como en otro se trata de identificar cada
tipo y buscar su correspondiente agujero.
Normalmente contamos con un conector paralelo, que es
de tipo hembra y tiene 25 pines (o patillas) repartidos en
dos filas. Hay que buscar en el manual o en la serigrafía y
fijarse en que lugar de la placa base irá conectado, y en
que posición. En todo este tipo de cables planos, se suele
marcar el nº 1 con una línea roja longitudinal, que
corresponderá con la patilla nº 1 del conector, tanto en el
conector de salida como en el de la placa.
 Luego procederemos de la misma forma con los habituales
2 conectores série. Aquí puede haber más discrepancias,
pero suelen ser conectores hembras y de 9 o 25 patillas.
 El mismo método se empleará para conectores USB, PS/2,
etc. que tengamos.
 Si nuestra tarjeta tiene integrada la tarjeta de sonido o de
video, el método será el mismo. Normalmente una plaquita
para conectar a una salida de slot, que se conectará a ser
posible en una ranura que no disponga de slot, y un cable
con un conector que se insertará en un conector de la
placa base en el que preciamente habremos comprobado
su correcta orientación.
 Luego vendrán los cables de los pulsadores/interruptores y
leds. Suelen ser habituales el pulsador de reset y el de
"standby" así como los leds (luces) de "Power", disco,
standby, etc... y los de la llave que bloquea el teclado y el
del altavoz interno.
 En los cables de los leds, una inversión de polaridad no
suele ser fatal, pero si impedirá que funcionen las luces. En
los demás, a pesar de que teóricamente el altavoz también
está polarizado, no suelen tener mayor importancia.
 Otro cable muy importante es el del ventilador de la CPU.
Si tenemos suerte, el conector de dicho ventilador se
insertará en un conector apropiado de la placa (ojo con la
polaridad), y sino, deberemos conectarlo a algún cable de
alimentación de las unidades de almacenamiento (disco).
En este caso suele ser un conector doble que permite
continuar alimentando a la unidad de disco.
 Unidades de Almacenamiento:
 Como siempre, primero enumeraremos las unidades a
instalar. Lo normal suele ser una disquetera, un disco duro
y una unidad de CD-ROM. La disquetera y el disco duro
suelen ser de un tamaño de 3 1/2 pulgadas, y la unidad de
CD-ROM de 5 1/4. Comprobaremos que disponemos de
una bahía adecuada para cada unidad, y en todo caso,
existen adaptadores que permiten instalar una unidad de 3
1/2 en una bahía de 5 1/4.
Además, algunas bahías son ciegas, con lo cual permitirán
instalar por ejemplo un disco duro, pero no una disquetera.
 Una vez distribuidas las unidades procederemos a quitar
las tapas de aquellas bahías que vayan a contener
unidades con necesidad de acceder al exterior tales como
la disquetera y el CD-ROM.
Algunas caja necesitan además de quitar la tapa de
plástico que se "rompa" una chapita más interior, que
normalmente va fijada por alguna punta.
 El siguiente paso será insertar las unidades y fijarlas
mediante unos tornillos que suelen venir con la caja, los
cuales se atornillan a ambos lados de las unidades. Estos
tornillos suelen ser 2 por cada lado en las unidades de 3
1/2 y 4 en las de 5 1/4.
 Lo más aconsejable es empezar por las menos
voluminosas, y a medida que vayamos colocando cada
una de ellas conectar los dos cables, el de alimentación,
que viene de la fuente de alimentación y tiene forma de D
con cuatro clavijas, y los de cinta que ya vimos en el
apartado de instalación de conectores externos.
Recordemos que estos cables suelen tener uno marcado
con una línea roja que simboliza la patilla nº 1 tanto de la
unidad de almcenamiento como del conector de la placa
base.
 Las unidades de disquette "normales" tienen un conector
que es capaz de atacar dos unidades diferentes, debiendo
de conectar la que queramos usar com A: (o la única) en el
extremo del cable. Dicho extremo se suele reconocer
porque hay 7 cables del "strip" girados.
 El resto de unidades suelen ser IDE, y se conectan a 2
enchufes marcados como IDE1 e IDE2, que corresponden
a los dos canales o controladoras internas.
 Recordemos también que los canales IDE sólo permiten
tener activa una unidad a la vez, con lo que si tenemos
más de una es muy importante conectar cada una en cada
canal diferente, o sea dos cables y cada unidad a un
cablel. Para más información vea la sección de Trucos y la
de Discos.
 Tarjetas de expansión:
 Las tarjetas de expansión necesitan del tipo de slot (bus)
adecuado. Una configuración estandar suele ser unas 3-4
ranuras PCI, de 2 a 3 ISA y una AGP.
 La tarjeta de video, si no está ya integrada en la placa
base, usará o bien la ranura AGP o una PCI.
 La tarjeta de sonido usará normalmente una ISA, pero
algunas también pueden ser PCI. Por último si tenemos un
modem interno también soldrá usar una ISA. Si
disponemos de tarjeta de red será recomendable que sea
PCI.
 Por tanto es importante saber de cuantas ranuras
disponemos y de que tipo son. Algunas son compartidas,
es decir se puede elegir entre instalar una tarjeta PCI o una
ISA, pero no ambas.
 La instalación en sí de la tarjeta es una operación muy
sencilla (por lo menos físicamente). Una particularidad es
que algunas cajas llevan las chapitas que recubren la
salida de dichas tarjetas pegadas, y para sacarlas hay que
tener algo de fuerza, y sobre todo mucha precaución para
no doblar nada. Una vez sacadas las chapitas de los slots
que nos interesen (hemos de fijarnos en que tipo de ranura
necesitamos) pasaremos a insertar la tarjeta en el
conector, teniendo especial precaución de que la punta de
la chapita entre en un agujero que suele haber en la caja.
Luego procederemos a atornillar la chapita de arriba con el
tornillo correspondiente.
 Por último procederemos a conectar los cables necesarios,
por ejemplo hay uno que suele ir del CD-ROM a la tarjeta
de sonido, y que sirve para poder oír los discos compactos
a través de los altavoces de la tarjeta de sonido.
 Terminando la faena:
 Y ya para finalizar procederemos a montar la tapa de la
caja y atornillarla, pero no sin antes haber probado que
todo funciona correctamente. Para ello conectaremos
todos los cables externos y pulsaremos el interruptor de
encendido.
 Los cables externos serán:
 El de alimentación de la Unidad Central y el del monitor. El
cable del conector VGA de la pantalla (un DIN de 15
pines). El del teclado y el del ratón (serie o PS/2). Y si
corresponde el de los altavoces y micrófono.
 Una de las comprobaciones más importantes es ver si los
ventiladores funcionan, sobretodo el de la CPU, pero
también el de la fuente de alimentación y en algunas cajas
también puede haber otro adicional colocado en el otro
extremo.
 Es muy importante recalcar que, aunque es dificil, un cable
conectado al revés, o en un lugar erróneo puede fastidiar
alguno de los componentes, con lo que es muy muy
importante repasar lo que hacemos varias veces, y si
tenemos alguna duda, no dudeis en poneros en contacto
conmigo.

 Actualizar el PC
 Siempre llega un momento en que nuestro querido
ordenador se nos queda "pequeño". Si este momento ha
llegado para tí, aquí tienes los pasos a seguir para
solucionarlo de la forma más economica posible.
 Los factores que intervienen en el rendimiento de una
máquina son:
 Procesador: Hoy en día para poder ejecutar todo el
software que se encuentra disponible y el que está a la
vuelta de la esquina es aconsejable pensar en CPU's tipo
Pentium II. De todas maneras si no nos llega para tanto
nos puede servir, por ejemplo un AMD K6 a 233 o incluso a
266.
Si nuestro presupuesto es muy escaso, puedes optar por
una velocidad más baja (por ejemplo 166) y pasarte por
nuestra página de Overclocking.
 Placa base: Normalmente actualizamos la placa base
para poder montar un procesador más potente que la
actual no soporta. En el caso de ordenadores no "clónicos"
en el que es casi imposible cambiarla, se puede optar por
procesadores tipo "Overdrive" de Intel o de otras marcas, o
bién por uno de mayor velocidad que el actual pero de la
misma "família".
 Memória: Este parámetro es muy importante si
utilizamos S.O. y programas de última (o de penúltima)
generación, sobretodo si trabajas con varios programas a
la vez, con archivos de datos muy grandes, o con
programas de tipo CAD, Diseño gráfico, etc...
- En un entorno típico de Windows 95, y programas no muy
exigentes puede ser suficiente con 16 Mb, pero si nos
vamos ya a las últimas versiones de éste con Internet
Explorer 4.0 y shell integrado necesitaremos un mínimo de
32 Mb, si no queremos notar como se ralentiza todo.
 Tarjeta de video: En entornos de ventanas tener una
buena tarjeta se nota en el rendimiento, y si utilizamos
juegos modernos, programas de CAD, u otros que hagan
uso intensivo de gráficos 2D o 3D, como las aplicaciones
que utilizan DirectX, entonces si no contamos con ella
tendremos un "cuello de botella" muy importante.
Deberíamos actualizarnos a una tarjeta PCI ó AGP con
soporte hardware de 3D y 4 Mb. Si no vamos a utilizar
juegos ni programas 3D puede ser suficiente con una
tarjeta tipo S3 Trio 64 V2 con 2 Mb.
 Disco duro: La capacidad del disco duro no influye
directamente en el rendimiento siempre y cuando
tengamos espacio libre suficiente para la memoria virtual
(un archivo de intercambio de unos 64 Mb suele ser
suficiente). De todas formas la capacidad suele ser un
buen indicador de la "edad" del disco, y, normalmente,
cuanto más actual sea su diseño más rápido será su
funcionamiento.
Si realmente tenemos problemas de espacio en disco
deberíamos pensar en una unidad tipo IDE Ultra DMA/33 o
Ultra-2 SCSI.
Si nuestro bolsillo no admite este gasto una buena solución
es la utilidad DriveSpace 3 que viene incluida con la
versión OSR2 de Windows 95, sobretodo si la
complementamos con otra utilidad que se llama "agente de
compresión" y que viene con el IE4 o con el Microsoft Plus.
 Multimedia: Es imprescindible contar con una unidad de
CD-ROM, y muy recomendable una tarjeta de sonido con
sus altavoces y su micrófono.

La unidad de CD: si sólo la usamos para instalar


programas y escuchar CD's de música cualquier unidad
nos sirve, aunque sea una 2X, pero si lo que pretendemos
es ejecutar programas o leer datos directamente del CD,
entonces lo normal será contar con una unidad tipo 24X.

La tarjeta de sonido: es aconsejable que sea, como


mínimo compatible Sound Blaster 16 a nivel de registros.
Si no disponemos de presupuesto y somos un poco
manitas podemos realizar nosotros mismos un DAC, que
nos servirá como tarjeta de sonido, incluso podemos hacer
dos y tener una tarjeta estéreo, conectándolo a cualquier
radiocasette que ya tengamos nos puede salir todo sin
apenas coste. Eso sí, cada DAC necesita una salída
paralelo para conectarlo. Próximamente os explicará como
construirlo y dónde conseguir los drivers para Windows.

 ¿Cómo podemos actualizar un máquina "de


marca"?
 286: Si partimos de una máquina 286 lo único que
podremos hacer es reciclar algunos elementos como el
teclado (siempre que sea el expandido), la disquetera (si
es de 3 1/2 y no es un PS/2 de I.B.M), y si partimos de una
máquina PS/2 a color, el monitor.
La carcasa se podría aprovechar siempre y cuando no
intentemos colocar un procesador o una tarjeta de video
que disipen mucho calor (aunque tampoco es
recomendable).De la memória mejor nos olvidamos y del
disco también.

 386: Aquí ya mejoramos bastante, pues podemos


encontrar módulos de actualización de 386 a 486.
Y si conseguimos uno de ellos y nuestra máquina soporta
SIMM's de 30 contactos podemos colocarle 4 de 4Mb. y
conseguir una máquina con 16 Mb (si la placa base lo
soporta).
De todas formas, al soportar sólo el bús ISA de 16 bits, la
tarjeta de video podrá ser, como mucho, una vulgar VGA
de 512 Kb. sin ningún tipo de aceleración y a 8 Mhz.

 486: Aquí podemos optar por una actualización de


procesador tipo Overdrive, por ejemplo Intel tiene un
modelo que actualiza un 486/25 ó 50 a Pentium 63Mhz, y
un 486/33 ó 66 a Pentium 83Mhz.
Otros modelos de Evergreen actualizan a 586 triplicando o
cuadruplicando la frecuencia de la placa base, así en el
mejor de los casos pasaremos a 586/133
Kingston, la famosa casa de las memórias, también
comercializa dos modelos que actualizan a 586/75 y a
586/133
Hay que recordar que muchas placas base, aunque sean
"de marca" disponen de un conmutador para modificar su
frecuencia, con lo que se podrá hacer trabajar a estas
actualizaciones a la máxima velocidad admitida.
- Si nuestra máquina es PCI podemos comprar una tarjeta
de video de última hornada.
- Podemos ampliar/sustituir la memória a 16 ó 32 Mb. con
4 u 8 módulos de 4Mb si son de 30 contactos o
si tenemos la suerte de contar con zócalos de 72 contactos
añadir uno de 16 Mb. o de 32, y si los tenemos todos
ocupados, sustituirlo por el de más baja capacidad.
 Pentium: Para actualizar una máquina Pentium, además de lo
comentado para el caso de los 486, disponemos de los Overdrive
y Overdrive MMX de Intel:

modelo de a
Pentium Overdrive P60 P120
'' P66 P130
Pentium Overdrive 166 MMX ?? P166 MMX
Pentium Overdrive 180 MMX P75 P150 MMX
'' P90,120 y 150 P180 MMX
Pentium Overdrive 200 MMX* P100, 133 y 166 P200 MMX
 * requiere zócalo del tipo 7.
 Consejos para actualizar su PC desde la versión
venezolana de la revista PC-World
 Más consejos, esta vez de la mano de la revista CD-
Ware

 Procesadores
 Artículo sobre las actuales plataformas PC.

Gama Pentium: Classic, MMX, Pro, PII, Celeron, Xeon, PIII

K5, K6, K6-2, K6-III, Athlon

6x86, 6x86MX, MII, Media GX

Winchip C6, Winchip2, Winchip3

 Indices iComp de toda la gama de procesadores Intel


desde el 386 SX-16.

Plataformas PC
Después de la presentación por parte de Intel de sus nuevos
procesadores Pentium III basados en el nuevo núcleo conocido como
Coppermine, la decisión sobre la combinación placa base-procesador
a elegir para nuestro PC ha quedado todavía más complicada de lo
que ya estaba.

En este artículo vamos a intentar clarificar el panorama y explicar


todas las opciones que podemos encontrarnos.

El problema viene dado por la incompatibilidad existente entre los


distintos zócalos, que determinan claramente cuales son los
procesadores admitidos en cada uno de ellos.

Super 7

Por orden de antigüedad, vamos a empezar por la plataforma Super


7 que no es más que una evolución de la que utilizaban los Intel
Pentium MMX y compatibles.
Esta evolución ha permitido que, conservando la arquitectura original
se pudiera llegar a velocidades de bus de hasta 100 Mhz e
implementar en ella nuevas tecnologías como el bus AGP.

Esta plataforma tiene como baza principal su bajo precio, tanto en el


coste de la placa base como en el del procesador. Tambien tenemos
la ventaja de contar con ofertas de distintos fabricantes, tanto en lo
referente a procesadores como a chipsets.

Los procesadores que podemos encontrar para esta arquitectura son:

 Pentium MMX: A pesar de no ser procesadores Super 7, gracias a la


compatibilidad "hacia atrás" es posible instalarlos en este tipo de
placas. Son procesadores ya descatalogados y su velocidad máxima
llega hasta los 233 Mhz y con el bus a 66.
 Cyrix MII: Estos procesadores ofrecen unas prestaciones sobre todo
en FPU bastante pobres, y son recomendables únicamente para
entornos ofimáticos. Su velocidad de proceso llega hasta los 300 MHz
del modelo 433 y su bus trabaja a 100 Mhz en los modelos superiores
y a 75 en los inferiores.

 IDT Winchip, Winchip2 y Winchip3: Procesadores adecuados para


actualizar placas antiguas a bajo precio e incorporar en ellas
tecnología MMX y 3DNow.

 AMD K6, K6-2 y K6-III: Sin duda los K6-III, e incluso los K6-2 son los
mejores procesadores para esta plataforma. Trabajan a 100 MHz y
soportan todas las tecnologías actuales.
Slot 1

Intel provocó la fragmentación del mercado a partir de la


presentación del procesador Pentium II y su, en aquel entonces,
nuevo zócalo, no licenciando su uso a terceras empresas.

AMD y el resto de fabricantes se encontraron con que no podían


utilizar el nuevo zócalo y formaron una alianza para promover una
versión renovada del clásico socket 7 (el socket super 7).

Es por ello que solamente Intel ofrece procesadores para este zócalo.

Para esta gama de placas base encontramos a todos los Pentium II


desde los 233 MHz hasta el último a 450. Los primero modelos
utilizaban un bus a 66 MHz, pero a partir de la versión a 350 el bus
subió hasta los 100.

Los Pentium III también utilizan este zócalo, si bien hay versiones
para otro de los que también usa Intel: El socket 370.
Las versiones para slot1 van desde los 400 hasta los 733 Mhz.
La principal diferencia entre los modelos para slot1 y los
empaquetados para socket es que en los primeros la memoria cache
es de 512 Kb, pero trabajando a la mitad de la velocidad de la CPU,
mientras que los segundos sólo tienen la mitad de la caché (256 Kb),
pero trabajando a la misma velocidad que el núcleo.
También se supone que los socket serán más económicos. Además,
por el momento sólo hay procesadores con bus a 133 MHz para
slot1...

Otros procesadores que podemos encontrar para este zocalo son los
primeros Celeron (desde 266 hasta 333 MHz). Su rendimiento hasta
el modelo 300A se vió muy mermado debido a la genial idea de Intel
de no añadir nada de memoria cache al diseño. Los actuales Celeron,
sin embargo, ya no utilizan este zócalo, en favor del socket370.

Slot 2

Otro de los zócalos "made in Intel" es el slot2, que es el que utilizan


los procesadores Xeon, orientados a servidores y estaciones de
trabajo.

Estas versiones pueden estar construidas en base al núcleo del


Pentium II o sobre el del Pentium III, y se caracterizan por su
elevada cantidad de memoria cache y su también elevado precio.
La gama de modelos que podemos encontrar es prácticamente la
misma que la de sus hermanos pequeños.

Socket 370

Este es sin duda el zocalo por el que Intel está apostando más
fuerte, aunque en un principio lo ofreció sólo para contrarrestar el
ataque de AMD y sus K6 en la gama baja.

Actualmente podemos encontrar para él la gama de procesadores


Celeron con bus a 66 MHz (desde el 300A hasta el modelo a 500
MHz).

Tambien podemos utilizar en él los actuales Pentium III


empaquetados en formato FC-PGA, aunque para ello deberemos
poseer una placa con algún chipset que soporte el bus a 100, o mejor
aún a 133MHz y que esté adaptada a las especificaciones de estos
nuevos procesadores.

Slot A

Este es el zócalo que utilizan los Athlon, y en el que AMD ha


depositado toda sus esperanzas. A pesar de que AMD no abandona el
socket super7 para tener cubierta su actual gama baja, en un futuro
su apuesta pasa por ofrecer versiones del Athlon para todas las
gamas de PC, desde servidores hasta la línea más básica.

Actualmente sólo AMD ofrece procesadores para este zócalo, aunque


en el mercado de chipsets, aparte de AMD, que fué la primera en
sacar su modelo 750, otros fabricantes como VIA ya están fabricando
o desarrollando versiones para la nueva plataforma.

Resumen y conclusiones.

Los zocalos con más futuro parecen ser el socket370 y el slotA. La


lógica nos haría pensar en que el primero acaparara el mercado de
gama baja y el segundo el de gama alta, pero esto se contradice con
la filosofía de las empresas que lo fabrican, ya que Intel siempre ha
liderado el mercado de gama alta, mientras que AMD ha tenido como
mercado propio desde siempre al de la gama más baja.

Parece como si en un intento de conseguir el mercado del "otro"


hubieran intercambiado los papeles...

Desde nuestro punto de vista, la filosofía de Intel de contar con tres


tipos de zocalos orientados cada uno a una gama distinta no tiene
futuro. Esto se puede ver acrecentado si finalmente decide sacar al
mercado otro zocalo basado en socket pero orientado a plataformas
biprocesador (actualmente conocido como socket 418) a pesar de que
sería compatible con el actual PGA370.

Esto parece haberlo entendido AMD, que pretende con un mismo


zocalo acaparar todos los segmentos del mercado, abandonando
progresivamente el mercado socket...

De todas formas, Intel también parece que tiene intenciones de


centrar su oferta en base al PGA370, aunque éste sigue estando
orientado al mercado monoprocesador y en la gama media-baja,
siguiendo en la alta su oferta basada en slot2.

Pentium Classic:

Las primeras series, funcionaban a 60 y a 66 Mhz., y debido a


que trabajaban a 5V. tenían problemas de sobrecalentamiento.
Además trabajaban a la misma velocidad que el propio bus
Estos modelos se pueden actualizar mediante el Overdrive de Intel a 120 o a
133, que duplica la velocidad del bús, e incorpora un reductor de 5V a 3,3.

A partir del modelo de 75 Mhz ya se empieza a trabajar con multiplicadores de


frecuencia internos para que el rendimiento de los procesadores sea mayor que
el que el bus y la memoria permiten.
Además se soluciona el problema de "calentura" rebajando la tensión de
funcionamiento de los nuevos modelos a 3,52 voltios, con lo que se consigue
un menor consumo.

De ésta serie de microprocesadores poco se puede decir que no se sepa. Fué


famoso en ellos un "bug" detectado que en unas circunstancias muy concretas
provocaba un error de cálculo. En nuestra sección se Software podeis
encontrar varios programas que lo detectan.
Aquellos que dispongan de una unidad de este tipo aún pueden ponerse en
contacto con Intel para que se la cambie.
Está optimizado para aplicaciones de 16 bits.
Dispone de 8Kb de caché de instrucciones + 8Kb de caché de datos.
Utiliza el zócalo de tipo 5 (socket 5) o el de los MMX (tipo 7). También es
conocido por su nombre clave P54C.
Está formado por 3,3 millones de transistores

F.A.Q. sobre el Pentium de Intel (en inglés)

Especificaciones de la gama Pentium


Procesador Frecuencia Tecnología Voltaje Bus Multiplicador Socket
P60 60Mhz. 0,8 µ 5v 60Mhz - 4
P66 66Mhz 0,8 µ 5v 66Mhz - 4
P75 75Mhz 0,6 µ 3,52v 50Mhz 1,5 5/7
P90 90Mhz 0,6 µ 3,52v 60Mhz 1,5 5/7
P100 100Mhz 0,6 µ 3,52v 66Mhz 1,5 5/7
P120 120Mhz 0,35 µ 3,52v 60Mhz 2 5/7
P133 133Mhz 0,35 µ 3,52v 66Mhz 2 5/7
P150 150Mhz 0,35 µ 3,52v 60Mhz 2,5 7
P166 166Mhz 0,35 µ 3,52v 66Mhz 2,5 7
P200 200Mhz 0,35 µ 3,52v 66Mhz 3 7

Pentium MMX:

El Pentium MMX es una mejora del Classic al que se le ha incorporado un


nuevo juego de instrucciones (57 para ser exactos) orientado a mejorar el
rendimiento en aplicaciones multimedia, que necesitan mover gran cantidad de
datos de tipo entero, como pueden ser videos o secuencias musicales o
graficos 2D.

Al ser un juego de instrucciones nuevo, si el software que


utilizamos no lo contempla, no nos sirve para nada, y ni
Windows 95, ni Office 97 ni la mayor parte de aplicaciones
actuales lo contemplan (Windows 98 si).

Sin embargo, aun en el caso de que no utilicemos tales


instrucciones, notaremos una mejora debido a que, entre otras mejoras,
dispone de una caché que es el doble de la del Pentium "normal", es decir 16
Kb para datos y 16 para instrucciones.
La gama MMX empieza en los 133Mhz, pero sólo para portatiles, es decir la
versión SL.
Para ordenadores de sobremesa la gama empieza en los 166Mhz., luego viene
el de 200 y finalmente el de 233 que utiliza un multiplicador de 3,5 y que
además necesita de algo más de corriente que sus compañeros.

Sigue siendo un procesador optimizado para aplicaciones de 16 bits.


Requiere zócalo de tipo 7 (socket 7). También es conocido como P55C.
Trabaja a doble voltaje 3,3/2,8V.
Utiliza la misma tecnología de 0,35 micras.
Lleva en su interior 4,5 millones de transistores.

Tambien podemos distinguir según el encapsulado sea plástico o cerámico. El


mejor y más moderno es el primero.

Pentium Pro:

Este es uno de los mejores procesadores que ha sacado Intel, a pesar de su


relativa antigüedad. Parte de este mérito lo tiene la caché de segundo nivel,
que está implementada en el propio chip, y por tanto se comunica con la CPU a
la misma velocidad que trabaja ésta internamente.

El zócalo es específico para este


modelo y es conocido como Tipo 8.
No cuenta con el juego de
instrucciones MMX.
Está optimizado para aplicaciones de
32 bits. (Windows NT, Unix, OS/2...)
Dispone de una caché L1 de 8KB + 8KB. (instrucciones + datos)
Hay una gama de procesadores que posee 256 KB. de caché L2, otra 512, y
por último un modelo que cuenta con un Mega.
Puede cachear hasta 64 GB. de RAM.
Está formado por 5,5 millones de transistores.

Especificaciones de la gama Pentium Pro

Procesador Frecuencia Tecnología Caché L2 Voltaje Bus Multiplicador

P.Pro150 150Mhz. 0,6 µ 256K 3,1v 60Mhz 2,5

P.Pro180 180Mhz 0,35 µ 256K 3,3v 60Mhz 3

P.Pro200 200Mhz 0,35 µ 256K 3,3v 66Mhz 3

P.Pro166 166Mhz 0,35 µ 512K 3,3v 66Mhz 2,5


P.Pro200 200Mhz 0,35 µ 512k 3,3v 66Mhz 3

P.Pro200 200Mhz 0,35 µ 1MB 3,3 66Mhz 3

Pentium II:

Este es el último lanzamiento de Intel. Básicamente es un Pentium Pro al que


se ha sacado la memoria caché de segundo nivel del chip y se ha colocado
todo ello en un tarjeta de circuito impreso, conectada a la placa a través de un
conector parecido al del estandar PCI, llamado Slot 1, y que se es utilizado por
dos tipos de cartuchos, el S.E.C. y el S.E.P.P (el de los Celeron).
También se le ha incorporado el juego de instrucciones MMX.

Está optimizado para aplicaciones de 32 bits.


Se comercializa en versiones que van desde los 233
hasta los 400 Mhz.
Posee 32 Kbytes de caché L1 (de primer nivel)
repartidos en 16Kb. para datos y los otros 16 para
instrucciones.
La caché L2 (segundo nivel) es de 512 Kb. y trabaja a la
mitad de la frecuencia del procesador.
La velocidad a la que se comunica con el bus (la placa base) sigue siendo de
66 Mhz, pero en las versiones a partir de los 333 ya pueden trabajan a 100
Mhz.
Incorpora 7,5 millones de transistores.
Los modelos de 0,35 µ pueden cachear hasta 512 Mb, los de 0,25 hasta 4
Gb. (menos los antiguos modelos a 333)

Especificaciones de la gama Pentium II

Voltaje
Procesador Frecuencia Tecnología Voltaje I/O Bus Multiplicador
Core

PII 233 233Mhz. 0,35 µ 2,8 v 3,3 66Mhz 3,5

0,35 µ 2,8 v
PII 266 266Mhz 3,3 66Mhz 4
0,25 µ 2,0 v

PII 300 300Mhz 0,35 µ 2,8 v 3,3 66Mhz 4,5


0,25 µ 2,0 v

PII 333 333Mhz 0,25 µ 2,0 v 3,3 66Mhz 5

PII 350 350Mhz 0,25 µ 2,0 v 3,3 100Mhz 3,5

PII 400 400Mhz 0,25 µ 2,0 v 3,3 100Mhz 4

Celeron:

Este procesador ha tenido una existencia bastante tormentosa debido a los


continuos cambios de planes de Intel.

Debemos distinguir entre dos empaquetados distintos.


El primero es el S.E.P.P que es compatible con el Slot
1 y que viene a ser parecido al empaquetado típico de
los los Pentium II (el S.E.C.) pero sin la carcasa de
plástico.

El segundo y más
moderno es el P.P.G.A.
que es el mismo empaquetado que
utilizan los Pentium y Pentium Pro, pero con
distinto zócalo. En este caso se utiliza el Socket
370, incompatible con los anteriores socket 7 y 8
y con los actuales Slot 1.

Por suerte existen unos adaptadores que


permiten montar procesadores Socket
370 en placas Slot 1 (aunque no al revés).

También debemos distinguir entre los modelos que llevan caché y los que no,
ya que las diferencias en prestaciones son realmente importantes. Justamente
los modelos sin caché L2 fueron muy criticados porque ofrecian unas
prestaciones que en algunos casos eran peores que las de los Pentium MMX a
233.

Está optimizado para aplicaciones de 32 bits.


Se comercializa en versiones que van desde los 266 hasta los 466 Mhz.
La caché L2 trabaja a la misma velocidad que el procesador (en los modelos
en los que la incorpora).
Posee 32 Kbytes de caché L1 (de primer nivel) repartidos en 16Kb. para
datos y los otros 16 para instrucciones.
No poseen cache de nivel 2 los modelos 266-300 y sí el resto (128 KB).
La velocidad a la que se comunica con el bus (la placa base) sigue siendo de
66 Mhz.
Posee el juego de intrucciones MMX.
Incorpora 7,5 millones de transistores en los modelos 266-300 y 9,1millones a
partir del 300A (por la memoria caché integrada).

Especificaciones de la gama Celeron

Fre- Tecno- Voltaje Voltaje Multipli-


Procesador Caché L2 Bus Zócalo
cuencia logía Core I/O cador

Celeron 266 266Mhz. 0 0,25 µ 2,0 v 3,3 66Mhz 4 Slot1

Celeron 300 300Mhz 0 0,25 µ 2,0 v 3,3 66Mhz 4,5 Slot1

Slot1-
Celeron 300A 300Mhz. 128 KB 0,25 µ 2,0 v 3,3 66Mhz 4,5
S.370

Slot1-
Celeron 333 333Mhz 128 KB 0,25 µ 2,0 v 3,3 66Mhz 5
S.370

Slot1-
Celeron 366 366Mhz. 128 KB 0,25 µ 2,0 v 3,3 66Mhz 5,5
S.370

Slot1-
Celeron 400 400Mhz 128 KB 0,25 µ 2,0 v 3,3 66Mhz 6
S.370

Slot1-
Celeron 433 433Mhz. 128 KB 0,25 µ 2,0 v 3,3 66Mhz 6,5
S.370

Celeron 466 466Mhz 128 KB 0,25 µ 2,0 v 3,3 66Mhz 7 S.370

Xeon:

Al Xeon le ocurre algo parecido al Celeron, ya que no dejan de ser variantes de


un mismo procesador, o mejor dicho, de una misma CPU, ya que las
variaciones principales están fuera de la CPU.

En este caso, se ha buscado un procesador que sea un


digno sucesor del Pentium Pro, el cual, y a pesar de los
años que hace de su nacimiento, todavía no había sido
igualado en muchas de sus características, ni por el mismo
Pentium II. Este procesador está orientado al mismo
mercado que el modelo al que pretende sustituir, es decir al
de los servidores. En este caso, lo tiene más fácil, ya que la tecnología de
socket 8 que implementaba el PRO, se había quedado un tanto estancada por
su poca difusión.

Por tanto, sus diferencias más importantes las tenemos en su memoria cache
de segundo nivel que puede ir desde los 512 Kb. hasta el mega, aunque los
próximos modelos podrán salir ya con 2 MB. Esta memoria además es más
rápida, y trabaja a la misma velocidad que la CPU.

Otra característica importante es que mediante la electrónica y el chipset


adecuado se pueden montar equipos con hasta 8 procesadores.

La carcasa del procesador también ha experimentado un crecimiento,


sobretodo en altura, para que la CPU y demás componentes puedan obtener
una mayor refrigeración.

Resumiendo podemos decir que para usuarios individuales no aporta mejoras


sustanciales, sobre todo si miramos su precio, pero para plataformas
servidoras se convertirá seguramente en el nuevo estándar.

Utiliza el slot 2, que es una variante del slot1, pero incompatible con aquel.
Está optimizado para aplicaciones de 32 bits.
Posee 32 KBytes de caché L1 (de primer nivel) repartidos en 16KB. para
datos y los otros 16 para instrucciones.
La cache de segundo nivel puede ser de 512 KB o 1 MB.
Para comunicarse con el bus utiliza una velocidad de 100 Mhz.
Incorpora 7,5 millones de transistores.
Puede cachear hasta 4 Gb. de memoria RAM.

Especificaciones de la gama Xeon

Caché Voltaje Voltaje


Procesador Frecuencia Tecnología Bus Multiplicador
L2 Core I/O

512KB
Xeon 400 400Mhz. 0,25 µ 2,0 v 2,5 100Mhz 4
1 MB

Pentium III:

Debido a que las diferencias con el actual Pentium II son


escasas, vamos a centrarnos en comparar ambos
modelos.
Se le han añadido las llamadas S.S.E. o Streaming SIMD Extensions, que son
70 nuevas instrucciones orientadas hacia tareas multimedia, especialmente en
3D. Estas extensiones son el equivalente a las 3D Now que lleva
implementando AMD desde hace tiempo en el K6-2, K6-III y Athlon y que
también han incorporado otros fabricantes como IDT en sus Winchip2 y 3.
Por supuesto, dicho juego de instrucciones a pesar de realizar operaciones
similares en ambos procesadores son totalmente incompatibles entre sí...

Otra novedad importante es la posibilidad de utilizar las nuevas instrucciones


junto con las actuales MMX y las operaciones con la FPU sin verse penalizado
por ello.
Hay que tener en cuenta que tanto en los procesadores de Intel anteriores
como en los de AMD actuales a excepción del Athlon, combinar la utilización de
intrucciones MMX junto con operaciones en coma flotante es prácticamente
imposible debido al retardo que supone pasar de un modo a otro, con lo que los
programadores se ven obligados a escojer entre uno u otro.

Otra de las novedades introducidadas y también la más polémica es la


incorporación de un número de série que permite identificar unívocamente a
cada una de las unidades, con lo que se obtiene una especie de "carnet de
identidad" único para cada PC. Este ID se puede utilizar para realizar
transacciones más seguras a través de Internet, y facilitar la vida a los
administradores de redes, pero también ha sido duramente criticado por
algunos grupos de presión como una invasión de la privacidad, con lo que Intel
se ha visto obligada a ofrecer una utilidad que permite desactivar dicha función.
Si quereis descargaros el programa, podeis hacerlo desde aquí.

Es importante recalcar que todas estas nuevas características no sirven para


nada si el software no las contempla, al igual que ocurría con las intrucciones
3DNow o con las ya hoy en día estándar MMX.
Tambien es importante saber que las 3DNow, al llegar bastante tiempo en el
mercado, están ya soportadas por múltiples programas, sobre todo juegos,
entre otras cosas gracias al soporte por parte de Microsoft en sus DirectX.

El resto de características son idénticas a las de su hermano pequeño.

Está optimizado para aplicaciones de 32 bits.


Se comercializa en versiones que van desde los 450 hasta los 600 Mhz.
Posee 32 Kbytes de caché L1 (de primer nivel) repartidos en 16Kb. para datos y los
otros 16 para instrucciones.
La caché L2 (segundo nivel) es de 512 Kb. y trabaja a la mitad de la frecuencia del
procesador.
La velocidad a la que se comunica con el bus (la placa base) es de 100 Mhz.
Incorpora 9,5 millones de transistores.
Pueden cachear hasta 4 Gb.
Los modelos actuales todavía están fabricados con tecnología de 0,25 micras.

Especificaciones de la gama Pentium III


Procesad Freq. Tecnologí Voltaj Voltaj Bus Multip Temp. Potenci
e e Máxim a
or a .
Core I/O a Máxima
450Mh 100Mh
PIII 450 0,25 µ 2,0 v 3,3 4,5 75º 25,3 W
z. z

500Mh
PIII 500 0,25 µ 2,0 v 3,3 100Mh
z 5 75º 28 W
z

550Mh
PIII 550 0,25 µ 2,0 v 3,3 100Mh
z 5,5 75º 30,8 W
z
600Mh 100Mh
PIII 600 0,25 µ 2,05 v 3,3 6 75º 34,5 W
z z

Las especificaciones completas de este procesador las puedes encontrar


aquí.
Ojo que es un archivo PDF de casi 1 MB. Si no dispones del lector pulsa en el

siguiente enlace:

Página principal de Intel sobre el Pentium III en español.

Página de los usuarios de Procesadores Pentium III (Servicio Outfitter de Intel).

K5:

El K5 de AMD fué la primera competencia de Intel en el


terreno del Pentium. Aunque hoy en día está ya
descatalogado, no podemos dejar de mencionarlo, en
cuanto que su importancia, no a nivel de ventas, pero si en
cuanto a rendimientos fué destacada.

Como la comparación es obligatoria, diremos que maneja peor los datos en


coma flotante, debido a una MFU más deficiente que la del Pentium (es decir el
famoso coprocesador matemático).

Su gama va desde los PR75 hasta los PR166, que identifican a que tipo de
Pentium Classic hacen la competencia, no su velocidad real.

Resumiendo podemos decir que ofrece unas prestaciones algo mejores que las
del Pentium Classic en manejo de enteros y una mejor relación calidad/precio,
lo que lo convirtieron en la mejor opción para tareas de oficina.
Lástima que saliera al mercado algo tarde.
Optimizado para ejecutar instrucciones de 16 y 32 bits.
Utiliza el socket 7.
Dispone de una caché de instrucciones de 16Kb, y 8Kb. para los datos.
Trabaja a 3,52 voltios y algunos a doble voltaje.
Están fabricados con tecnología de 0,35 micras.
Incorpora 4,3 millones de transistores.

Especificaciones de la gama K5

Voltaje
Procesador Frecuencia Tecnología Bus Multiplicador
Core I/O

PR75 75Mhz. 0,35 µ 3,52v 50Mhz 1,5

PR90 90Mhz 0,35 µ 3,52v 60Mhz 1,5

PR100 100Mhz 0,35 µ 3,52v 66Mhz 1,5

PR120ABQ 3,52v
90Mhz 0,35 µ 60Mhz 1,5
PR120AHQ 2,93 3,3

PR133ABQ 3,52v
100Mhz 0,35 µ 66Mhz 1,5
PR133AHQ 2,93 3,3

PR166ABQ 3,52v
116,66Mhz 0,35 µ 66Mhz 1,75*
PR166AHQ 2,93 3,3

* La posición en la placa base debe coincidir con la de x2,5.

K6:

Con el K6, AMD no sólo consiguió hacerle la competencia a Intel en el terreno


de los MMX, sino además amargarle la vida, ofreciendo un procesador que casi
se pone a la altura del mismísimo Pentium II.

En cuanto a potencia bruta, si comparamos sus


prestaciones en la ejecución de software de 16 bits,
vemos que la diferencia es escasa entre todos los procesadores, quedando
como único descolgado el Pentium Pro.

Si pasamos a los programas de 32 bits, aquí es al revés, y el que se lleva la


palma es el Pentium Pro (El Pentium II puede vencerle sólo si lo comparamos
con versiones a mayor velocidad), quedando el K6 algo por debajo del Pentium
II, pero muy por encima del MMX e incluso del Cyrix 6x86MX.

Y ya para terminar en cálculos en coma flotante, el K6 también queda por


debajo del Pentium II, pero por encima del MMX y del Pro, y aquí el que se
queda más descolgado como siempre es el Cyrix.

Cuenta con una gama que va desde los 166 hasta los 300 Mhz y con el juego
de instrucciones MMX, que ya se han convertido en estandar.

Optimizado para ejecutar instrucciones tanto de 16 como 32 bits.


Utiliza socket 7.
Funciona a 66 Mhz, aunque suele tolerar frecuencias de bus de 100 Mhz. sin
demasiados problemas en los modelos superiores (sobretodo el 300).
La memoria caché esta compuesta por 32 Kb para instrucciones y 32 para
datos.
Posee 8,8 millones de transistores.

Especificaciones de la gama K6

Procesador Frecuencia Tecnología Voltaje Core Voltaje I/O Multiplicador

K6-166 166Mhz 0,35 µ 2,9 3,3 2,5

K6-200 200Mhz 0,35 µ 2,9/2,2 3,3 3

K6-233 233Mhz 0,35 µ 3,2 / 3,3/2,2 3,3 3,5

K6-266 266Mhz 0,25 µ 2,2 3,3 4

K6-300 300Mhz 0,25 µ 2,2 3,45 4,5


K6-2:

Este procesador es una mejora del K6, al que se le ha añadido un nuevo juego
de instrucciones llamado 3D-Now, que acelera las operaciones en 3D, es decir,
las operaciones realizadas con grandes cantidades de datos en coma flotante.
Una de las ventajas de ésta tecnología es que tiene mecanismos para que la
CPU no se quede inactiva mientras se ejecutan los cálculos, como ocurre con
el coprocesador.

Al igual que ocurre con las extensiones MMX, para poder


aprovecharse de ellas hace falta que el software lo
contemple. Una buena noticia para AMD es que Microsoft
dará soporte a esta tecnología en sus DirectX 6, aunque su
total aprovechamiento sólo es posible con programas que
hagan uso directamente del nuevo juego de instrucciones.

NOTA: Ya puedes descargar las DirectX 6 directamente desde nuestra sección


de Software

Da soporte al bus de 100 Mhz.


Soporta zócalos tipo 7 a 66 Mhz y tipo Super 7 a 100 Mhz.
Dispone de 64 Kb. de caché L1.
Fabricado con 8,8 millones de transistores.

Especificaciones de la gama K6-2

Procesador Frecuencia Voltaje Core Voltaje I/O Bus Multiplicador

100Mhz 2,5
K6-2/266 266Mhz 2,2 3,3
66Mhz 4

100Mhz 3
K6-2/300 300Mhz 2,2 3,3
66Mhz 4,5

K6-2/333 333Mhz 2,2 3,3 95Mhz 3,5

K6-III:

Una de las principales características de este procesador y la mayor diferencia


respecto del K6-2 se debe a su nuevo diseño de caché de 3 niveles. Esto se ha
conseguido incorporando una cache de segundo nivel de 256 Kb en el núcleo
de la CPU que se suma a los 64 Kb de la L1. De esta forma, la cache de la
placa base pasa a trabajar como memoria de tercer nivel.

Esto permite que nuestra máquina pueda trabajar con una


cache de hasta 2.368 Kb, de los cuales 320 están dentro de
la CPU y por tanto se comunican con ella a su misma
velocidad.

El resto de características son comunes con el K6-2.

Instrucciones MMX.
Instrucciones 3DNow.
La memoria de segundo nivel trabaja a la misma velocidad que la CPU.
Utilizan el zócalo super7 a 100 Mhz.
64 Kb. de caché L1 (32 para datos y 32 para instrucciones)
256 Kb. de caché L2.
Fabricados con 21,3 millones de transistores y tecnología de 0,25 micras.
Soporte para AGP.

Especificaciones de la gama K6-III

Voltaje Voltaje Temp. Potencia


Procesador Freq. Bus Multip.
Core I/O Máxima Máxima

K6-III/400 400Mhz 2,4 3,3 100Mhz 2,5 65º 26,8 W

K6-III/450 450Mhz 2,4 3,3 100Mhz 3 65º 29,50 W

Los voltajes mínimo y máximo son 2,3 y 2,5 v.


Las especificaciones completas de este procesador las puedes encontrar
aquí.
Ojo que es un archivo PDF de casi 5 MB. Si no dispones del lector pulsa en el

siguiente enlace:

Presentación oficial del procesador por parte de AMD.

Descripción del producto por parte de AMD.

La arquitectura Trilevel Caché (caché en tres niveles) por AMD.


Athlon:

Parece que AMD sigue siempre el camino marcado por Intel, y en esta
ocasión también se ha apuntado a cambiar los juegos de números por las
palabras más o menos altisonantes.
Si Intel denominó Pentium al i586, AMD ha hecho lo propio con el K7.

Pero no nos engañemos, marketing a un lado, la


verdad es que este nuevo procesador tiene unas
características técnicas que deberían posicionarle
incluso por encima de los Pentium III de Intel, pero como
siempre, este factor por sí solo no proporcionará a esta
nueva plataforma la aceptación que AMD tanto necesita.

A pesar del éxito obtenido por AMD con su gama K6, Intel contratacó muy
fuerte con sus nuevos Celeron de 128 Kb y su zócalo 370, y AMD necesita que
el Athlon sea todo un éxito para dejar atrás los números rojos en los que está
sumerjida.

Pero para ello necesita contar con el soporte de la indústria informática y


acertar en el marketing, así como evitar los problemas de producción que tuvo
con los K6. Por último y no menos importante, rezar para que Intel tarde lo
máximo posible en reaccionar.

Empezaremos por decir que los nuevos modelos utilizan un nuevo zócalo
totalmente incompatible con todo lo conocido hasta ahora en el mundo PC,
aunque está basado en el EV6 de los Alpha de Digital, y su conector, conocido
como SlotA, es idéntico físicamente al Slot1 de Intel.

Este bus trabaja a velocidades de 200 Mhz, en contra de los 100 de los
modelos actuales, y están previstos modelos futuros a 400 Mhz.

La memoria de primer nivel cuenta con 128 KB (cuatro veces la de los


Pentium III) y la L2 es programable , lo que permite adaptar la cantidad de
caché a distintas necesidades, contando en un principio con 512 KB, pero
estando previstos modelos con hasta 8 MB.

Los modelos iniciales trabajan a 500, 550 y 600 Mhz y siguen estando
fabricados con la tecnología actual de 0,25 micras.

Incorporan 22 millones de transistores.

Por supuesto soporta las instrucciones 3DNow.

Por fin la arquitectura soporta sistemas multiprocesador con los juegos de


chipset adecuados, pudiéndose construir máquinas con hasta 8 micros o más.

Descripción del producto proporcionada por AMD (en inglés)


6x86:

Cyrix siempre ha sido el tercero en discordia entre los


fabricantes de procesadores Intel-compatibles. Sus
procesadores se han caracterizado por tener una unidad
de coma flotante bastante "floja" por lo que es una mala
opción para los que utilicen programas CAD, 3D, e incluso juegos. Además de
ésto, se ha caracterizado también por sus diseños avanzados y "originales" lo
que le ha provocado más de un dolor de cabeza por falta de compatibilidad.

Y ya hablando del producto que nos ocupa, decir que ha adolecido de ciertos
problemas de diseño, y de compatibilidad, que han puesto en entredicho la
imagen de su fabricante.

Sus primera versiones tuvieron serios problemas debido a su alto consumo,


que generaba un calentamiento excesivo en los reguladores de tensión de las
placas base.

Primeramente trabajaban a 3,52v., pero más tarde fueron sustituidos por otras
versiones a 3,3v, y por último, para evitar problemas, sacaron un modelo que
podía trabajar automáticamente con cualquiera de esos voltajes.

Pero los problemas no terminaron hasta que en la revisión 2.7 consiguieron


reducir sus sed de amperios hasta niveles "normales".

Además tenía un problema con Windows NT4, ya que dicho sistema operativo
desactivaba la caché del procesador, y por tanto éste se ejecutaba a paso de
tortuga.

Ya por último sacaron un nuevo modelo llamado 6x86L (L de "Low Voltage"),


que utilizaba el mismo doble voltaje que los procesadores Pentium MMX, y que
solventaba todos los problemas, pero ya era demasiado tarde, ya que su
tecnología había quedado algo obsoleta por la salida de dichos procesadores
de Intel.

Utiliza el socket 7.
Lleva implementado un multiplicador de x2 y otro de x3, para las placas que
no admitan un voltaje de 75 Mhz.
Posee una caché unificada para datos e instrucciones de 16Kb.
Está formado por 3 millones de transistores.

Especificaciones de la gama 6x86 y 6x86L

Procesador Frecuencia Tecnología Voltaje Bus Multiplicador


Core I/O

PR90+ 80 0,65 µ 3,52 v 40Mhz* 2

PR120+ 100Mhz. 0,65 µ 3,3 o 3,52v 50Mhz 2

PR133+ 110Mhz 0,65 µ 3,3 o 3,52v 55Mhz* 2

PR150+ 0,65 µ 3,3 o 3,52v


120Mhz 60Mhz 2
PR150+(L) 0,5 / 0,35 µ 2,8v 3,3v

PR166+ 0,65 µ 3,3 o 3,52v


133Mhz 66Mhz 2
PR166+(L) 0,5 / 0,35 µ 2,8v 3,3v

PR200+ 0,65 µ 3,3 o 3,52v


150Mhz 75Mhz* 2
PR200+(L) 0,44 / 0,35 µ 2,8v 3,3v

* No todas las placas soportan esta frecuencia.

En la sección de software encontrareis dos utilidades para la gama de


procesadores de Cyrix. Una de ellas identifica el tipo deCPU y nos proporciona
información y la otra ejecuta una serie de pruebas sobre él.

6x86MX:

Este es el primer micro de Cyrix que lleva implementado el juego de


instrucciones MMX. No adolece de ninguno de los problemas que poblaron las
versiones más antiguas del modelo al que sustituye

Las pegas de siempre son el pésimo rendimiento de su


coprocesador matemático, y la originalidad que conlleva
que por lo menos dos de sus procesadores trabajen con
una velocidad de bus de 75 y 83 Mhz.

Y decimos "pega" porque esta velocidad, que aumenta las


prestaciones de nuestra máquina puede causar algún
problema, al no estar preparadas ni las memorias EDO ni
algunas placas PCI que, trabajando a la velocidad más alta
deben funcionar a 42 Mhz. en lugar de los 33, que es la velocidad para la que
han sido fabricados.
De todas formas, para compensar este posible problema, y después de
aprender del modelo anterior que llevaba el multiplicador fijo, Cyrix ha
implementado multiplicadores de x2, x2,5, x3 y x3,5, con lo que siempre
podremos trabajar con una frecuencia de bus más normal y ajustar el
multiplicador para que la CPU trabaje a una frecuencia parecida a la
autorizada.
Aunque mediante ésta técnica, pierde parte de las virtudes que a priori tiene.
Tambien hay que notar que no todas las placas soportan dichas frecuencias.

Es un buen procesador para tareas ofimáticas, si lo encontramos a buen


precio.

Utiliza el socket 7.
Lo fabrica IBM, quien también lo comercializa con su nombre (dicen que con
mejor control de calidad)
Dispone de 64Kb de caché unificada (la misma para instrucciones y datos).
Está formado por 6,5 millones de transistores.

Especificaciones de la gama 6x86MX

Procesador Frecuencia Tecnología Voltaje Core Voltaje I/O BUS Multiplicador

50 3

PR166 150Mhz 0,35 2,8 / 2,9 3,3 60 2,5

75* 2

55* 3

PR200 166Mhz 0,35 2,8 / 2,9 3,3 66 2,5

83* 2

PR233 188Mhz 0,35 2,8 / 2,9 3,3 75* 2,5

PR266 208Mhz 0,25 2,7 3,3 83* 2,5

* No todas las placas soportan esta frecuencia.

En la sección de software encontrareis dos utilidades para la gama de


procesadores de Cyrix. Una de ellas identifica el tipo deCPU y nos proporciona
información y la otra ejecuta una serie de pruebas sobre él.
MII:

Si el 6x86MX se hizo con la intención de plantarle cara a los MMX, el MII


pretende pelearse codo a codo con los Pentium II, tal como su nombre nos
quiere insinuar. La verdad es que suponemos que se han ajustado sus "ratios"
para que no se alejen demasiado del modelo con el que pretenden competir
(los famosos PRxxx, o "Performance ratio")

Su diseño es identico al del 6x86MX, y sólo consigue


imponerse a aquel por la mayor velocidad de sus
nuevos modelos.

El problema de este procesador es el eterno de esta


casa, de hacer procesadores con una FPU poco
potente. Este problema se agrava, porque con los
actuales juegos 3D y unas cada vez mayores
necesidades de este tipo de cálculos, se va a quedar
relegado a entornos ofimáticos, aunque, claro está, con una buena tarjeta 3D
muchas cosas se pueden hacer.

Una de las ventajas es que funciona con cualquier placa preparada para MMX,
no necesita de placas de última generación con voltajes más bajos de 2,9. Lo
que nos permite actualizar nuestra máquina a 300 Mhz. sin necesidad de
cambiar de placa.

Al igual que el modelo al que sustituye, es un buen procesador para tareas


ofimáticas por su bajo precio y buenas prestaciones para tales tareas.

Utiliza el socket 7 y super 7.


Dispone de 64Kb de caché unificada (la misma para instrucciones y datos).
El modelo PR300 funciona a 66 Mhz de velocidad de placa, mientras que a
partir del PR333 ya puede ir a velocidades de 100 Mhz.
Incorpora multiplicadores por 2, 2,5, 3 y 3,5.
Trabajan a doble voltaje: 2,9/3,3 o 2,2/3,3.
Están hechos con tecnología de 0,30 micras y 6 millones de transistores.

Especificaciones de la gama MII

Procesador Frecuencia Tecnología Voltaje Core Voltaje I/O BUS Multiplicador

233 MHz 66 3,5


PR300 0,30 2,9 v 3,3
225 MHz 75 3

262 MHz 75 3,5


PR333 0,30 2,9 v 3,3
250 MHz 100 2,5
PR350 300 MHz 0,30 2,9 v 3,3 100 3

PR366 250 MHz 0,30 2,9 v 3,3 100 2,5

PR400 285 MHz 0,30 2,2 v 3,3 95 3

PR433 300 MHz 0,30 2,2 v 3,3 100 3

Información del producto en la web de Cyrix.

Winchip C6:

Es el penúltimo contendiente en la batalla de los Pentium


compatibles.

Se trata de un procesador moderno, pero de diseño muy


sencillo y limpio, que le permite no tener rival en el campo del
consumo, al tener una CPU muy pequeña, y pese a trabajar
a 3,52 v. como los antiguos Pentium Classic.

Tambien posee el juego de instrucciones MMX.

No necesita ningún tipo de radiador o ventilador adicional

En terminos de prestaciones, podemos decir que el modelo a 200 Mhz tiene


unas prestaciones muy parecidas a las de un Cyrix 6x86MX PR166, incluso en
lo que se refiere a cálculos en como flotante.

Otra de las grandes virtudes de este procesador es que por su voltaje, va a


permitir a las antiguas placas base basadas en Pentium, que carecen del
bivoltaje necesario para actualizarse a la gama Pentium MMX, poder cambiar a
un procesador moderno, con un rendimiento y un precio mucho mejor que el
del Overdrive de Intel.

Evidentemente, lo ideal sería que nuestra BIOS soportara dicho modelo, pero
en la mayoría de ocasiones, aunque no sea así, y obtengamos en el proceso
de arranque valores extraños, una vez en marcha, no debería de haber
problemas.

Poder actualizar nuestro antiguo Pentium a 75 Mhz por un flamante 240MMX,


sin cambiar de placa, era algo que hasta ahora no se podía hacer...

Utiliza el socket 7.
Posee 32 Kb de cache para datos + 32 Kb para instrucciones.
Está hecho con 5,4 millones de transistores.
Especificaciones de la gama C6

Procesador Frecuencia Tecnología Voltaje Bus Multiplicador

180 180Mhz. 0,35 µ 3,52v / 3,3v 60Mhz 3

200 200Mhz 0,35 µ 3,52v / 3,3v 66Mhz 3

225 225Mhz 0,35 µ 3,52v / 3,3v 75Mhz 3

240 240Mhz 0,35 µ 3,52v / 3,3v 60Mhz 4

Overclocking
¿Que es el Overclocking ?

Consiste en forzar algunos componentes del ordenador para que den mayor
rendimiento del previsto por el fabricante, haciendolos trabajar en unas
condiciones para las que no fueron diseñados.
El componente al que habitualmente se le aplica esta técnica es el procesador,
pero también es útil para acelerar la memoria, las tarjetas de video y los
dispositivos PCI, entrando en este último grupo el acceso a los discos, ya que
sus controladoras, tanto las IDE como las SCSI van conectadas ese bus.

La técnica más común empleada en el procesador, aunque no la única es


hacerlo trabajar a más frecuencia de la que marca. Por ejemplo un Pentium
MMX a 166 lo usamos como si fuera uno a 233.

En cuanto al resto de los componentes, la operación más común es subir la


frecuencia de la placa base, que es la que surte de datos a las memorias y a
las tarjetas PCI, incluyendo las tarjetas de video.

Además, también se pueden forzar los procesadores de las tarjetas gráficas, y


para ello existen programas especializados, como algunos que se pueden
encuentran en nuestra sección de Software.

Entonces, si esto es posible, ¿Porque no lo hace todo el


mundo?

El Overclocking tiene sus riesgos, aunque es dificil que lleguemos a "quemar"


algún componente, si que seguramente lo que haremos es acortar su vida.
Además hay que contar con que normalmente hay que emplear técnicas para
contrarrestar la mayor disipación de calor que ello conlleva, y que requiere de
conocimientos y algo de dinero.
También hay que decir que normalmente los procesadores (sobretodo los de
Intel) tienen una vida muy por encima de la que vamos a poder usar. Es decir,
hoy en día un procesador 8088 prácticamente no nos servirá para nada,
aunque se encuentre en óptimas condiciones.

Además, al final, cuando un procesador ya no "tira" porque el software cada


vez le exige más, el Overclocking es prácticamente lo único que nos queda, si
no podemos hacer el esfuerzo de comprar un procesador nuevo.

Y por último, dependiendo de los tipos de procesador, y del modelo en concreto


que nos haya tocado, algunos realmente no se pueden forzar, o en cantidad
mínima, ya que simplemente se niegan a trabajar, o provocan "cuelgues" o
reinicios espontáneos, o en casos muy remotos incluso puede peligrar la vída
de nuestros datos.

Del dicho al hecho:

Antes de ponernos "manos a la obra" debemos entender que, casi todos los
procesadores a partir del 486/50 incorporan un duplicador de frecuencia dentro
de la propia CPU, con lo que tenemos dos parámetros a modificar, una es la
frecuencia de la placa base (mejor dicho del bus), es decir la frecuencia a la
que trabaja la memoria y los dispositivos PCI, y el otro la frecuencia interna a la
que trabaja el procesador, que siempre será un múltiplo de la anterior. (ver
sección de Procesadores)

El siguiente paso es averiguar que frecuencias de reloj nos permite nuestra


placa base, esto depende de si es una placa standar o propietaria (de marca) y
de los diferentes tipos de procesador que ésta admita, y si dispone de puentes
para variar la frecuencia interna de la CPU.

He aquí algunos ejemplos:

CPU original Freq. P.B. Multip. pasar a... con Freq. P.B. y Multip.

Pentium 75 50 1,5 Pentium 100 66 1,5

Pentium 133 66 2 Pentium 166 66 2,5

Pentium 150 50 3 Pentium 200 66 3

Pentium 166 66 2,5 Pentium 200 66 3

Pentium 200 66 3 Pentium 233* 66 3,5

* requiere zócalo 7
Algunas placas base modernas para zócalo 7 disponen de velocidades de reloj
superiores a los típicos 66 Mhz, como 75 ó 83 Mhz (por ejemplo ASUS). Esto
nos permite todavía mayor flexibilidad a la hora de "jugar" con los jumpers, y en
todo caso, si nuestra CPU se niega a trabajar a más velocidad, siempre
podemos hacer que, aún funcionando la CPU a una frecuencia parecida, el bús
vaya más rápido, con lo que ganaremos bastante en rendimiento.

Por ejemplo: No es lo mismo un Pentium 166 con un bus a 66 x 2,5 que otro
con bús a 83 x 2. Eso sí, hemos de asegurarnos muy bien de que tanto la
memoria como los dispositivos PCI aguanten semejantes frecuencias (casi
todos están diseñados para trabajar a 33 Mhz., es decir con una frecuencia de
bus de 66)

Como ejemplos os puedo explicar mi última experiencia de Overclocking.


Contando con tres unidades de Pentium MMX a 166, en encapsulado plástico,
eso si, y habiéndolas forzado a 233 Mhz. (66 x 3,5), y teniendolos en
cuarentena durante varias semanas, el resultado no puede ser mejor, todas las
unidades han gozado de una estabilidad impecable, sin síntomas de mayor
calentamiento y funcionando a la perfección. No hay que decir que el aumento
de rendimiento ha sido considerable.

Por último, el consejo más importante es controlar la temperatura del


procesador. La manera más sencilla es colocando varios dedos encima del
radiador, y comprobando que su temperatura no nos llegue a quemar. También
es aconsejable comprobar la temperatura antes del overclocking y con la
máquina a pleno rendimiento, y comparar esa temperatura con las que
obtenemos posteriormente, para así saber si el cambio ha sido muy brusco.

Dispositivos PCI.

Y ya que hemos comentado el forzado de los dispositivos PCI, decir que estos
están pensados para trabajan a 33 Mhz, que es la mitad de la frecuencia de la
placa base, y efectivamente así es como se consigue este valor, mediante un
divisor. Y este hecho es el que permite que cuando subimos la velocidad de la
placa base, el bus PCI también se acelere.

Por ejemplo en las placas que permiten poner el bus a 75 Mhz, estamos
forzando a éstos dispositivos a 38 Mhz. y si lo ponemos a 83, el bus PCI se
pondrá a 42, es decir, la frecuencia habrá aumentado un 30%.

Hay que tener en cuenta que en las placas super 7 (a 100 Mhz) hay que dividir
dicha frecuencia por 3 para obtener la frecuencia del bus.

Memorias

Y respecto de la memoria, sólo decir que ésta corre a la misma frecuencia que
el bus de la propia placa base, y que las memorias EDO dificilmente
aprovechan valores superiores a los 66 Mhz, mientras que las SDRAM se
acercan a los 100 Mhz, y las más modernas que cumplen con PC100, pueden
alcanzar valores mayores.
Nota: Si dispones de una placa para MMX hasta 200Mhz. en la sección de
trucos hay uno que te interesa mucho. Si dispones de una placa para MMX
hasta 200Mhz. en la sección de trucos hay uno que te interesa mucho.

Para saber más sobre el Overclocking.

Si aún quieres más...

Visita nuestras secciones de software para los procesadores y de software para


las tarjetas gráficas y encontraras algunos programas relacionados con el
overclocking.

Placas base
Una primera distinción la tenemos en el formato de la placa, es decir, en sus
propiedades físicas.
Dicho parámetro está
directamente
relacionado con la
caja, o sea, la carcasa
del ordenador.
Hay dos grandes
estándares: ATX y
Baby AT

La segunda distinción
la haremos por el
zócalo de la CPU, así
como los tipos de
procesador que
soporte y la cantidad de ellos. Tenemos el estándar Tipo 4 o 5 para Pentium, el
tipo 7 para Pentium y MMX, el Super 7 para los nuevos procesadores con bus
a 100 Mhz, el tipo 8 para Pentium Pro, el Slot 1 para el Pentium II y el Celeron,
y el Slot 2 para los Xeon. Estos son los más conocidos.

La siguiente distinción la haremos a partir del chipset que utilicen:


Los más populares son los de Intel. Estos están directamente relacionados con
los procesadores que soportan, así tenemos que para el Pentium están los
modelos FX, HX, VX y TX.
Para Pentium PRO los GX, KX y FX. Para Pentium II y sus derivados, además
del FX, los LX, BX, EX, GX y NX. Para Pentium MMX se recomienda el TX,
aunque es soportado por los del Pentium 'Classic'.

También existen placas que usan como chipset el de otros fabricantes como
VIA, SiS, UMC o Ali (Acer).
El siguiente parámetro es el tipo de bus. Hoy en día el auténtico protagonista
es el estandar PCI de 32 bits en su revisión 2.1, pero también es importante
contar con alguna ranura ISA de 16 bits, pues algunos dispositivos como
módems internos y tarjetas de sonido todavía no se han adaptado a este
estándar, debido básicamente a que no aprovechan las posibilidades de ancho
de banda que éste posee.
Tambien existe un PCI de 64 bits, aunque de momento no está muy visto en el
mundo PC.

Otros tipos de bus son el ISA de 8 bits, no usado ya por ser compatible con el
de 16 bits, el EISA, usado en algunas máquinas servidoras sobre todo de
Compaq, el VL-Bus, de moda en casi todos los 486, o el MCA, el famoso bus
microcanal en sus versiones de 16 y 32 bits patrocinado por IBM en sus
modelos PS/2.

Otra característica importante es el formato y cantidad de zócalos de memoria


que admite. En parte viene determinado por el chipset que utiliza. La más
recomendable es la DIMM en formato SDRAM y como mínimo 3 zócalos. En el
caso de módulos SIMM de 72 contactos el mínimo es de 6 (recordad que van
de 2 en 2).

Por último, en las placas basadas en socket 7 y super 7, tambien debemos


tener en cuenta la memoria caché. Normalmente está directamente soldada a
la placa base y en cantidades de 512 o 1024 Kb. Para saber más sobre ella
acuda a la sección de memorias

ATX:

El estandar ATX es el más moderno y el que mayores ventajas ofrece. Está


promovido por Intel, aunque es una especificación abierta, que puede ser
usada por cualquier fabricante sin necesidad de pagar royalties. La versión
utilizada actualmente es la 2.01.

Entre las ventajas de la placa cabe mencionar una mejor disposición de sus
componentes, conseguida básicamente girandola 90 grados. Permite que la
colocación de la CPU no moleste a las las tarjetas de expansión, por largas que
sean. Otra ventaja es un sólo conector de alimentación, que además no se
puede montar al revés.

La memoria está colocada en un lugar más accesible.

La CPU está colocada al lado de la F.A. (Fuente de Alimentación) para recibir


aire fresco de su ventilador.

Los conectores para los dispositivos IDE y disqueteras quedan más cerca,
reduciendo la longitud de los cables y estorbando menos la circulación del aire
en el interior de la caja.

Además de todas estas ventajas dicho estandar nos da la posibilidad de


integrar en la placa base dispositivos como la tarjeta de video o la tarjeta de
sonido, pero sacando los conectores directamente de la placa, dándonos un
diseño más compacto, y sin necesidad de perder ranuras de expansión.

Así podemos tener integrados los conectores para teclado y ratón tipo PS/2,
série, paralelo o USB que son habituales en estas placas, pero también para
VGA, altavoces, micrófono, etc... sin apenas sacrificar espacio.

Baby AT:

Este formato está basado en el original del IBM PC-AT, pero de dimensiones
más reducidas gracias a la mayor integración en los componentes de hoy en
día, pero físicamente compatible con aquel.

Aún hoy en día es el más extendido. En este tipo de placas es habitual el


conector para el teclado 'gordo'

Entre sus ventajas cabe destacar el mejor precio tanto de éstas como de las
cajas que las soportan, aunque esta ventaja desaparecerá a medida que se
vaya popularizando su contrincante.

Leyendo las ventajas de las placas ATX se pueden entrever los inconvenientes
de dicha arquitectura.

Tarjeta madre por Manuel Nicolas Mabroidis Ramos

Características de las placas base Baby-AT. por César San Juan Revilla

Características de las placas base ATX. por César San Juan Revilla

Prueba: ABIT BP6: Placa Socket 370 biprocesador.

Características de los chipset de Intel.

Características de los puertos U.S.B. (Universal Serial Bus)

Lista de placas base y sus características por Juan Carlos Bogo

Tutorial sobre los buses del PC y su historia por Alberto Barreu y Alejandro
Lloro

Para más información sobre los puertos serie y paralelo, vista nuestra sección
dedicada a los puertos

Nuestra sección de software para las placas base


Información sobre A.C.P.I. (Advanced Configuration & Power Interface)
(inglés)

Información sobre ATX de Intel (inglés)

Más información sobre ATX (inglés)

Información sobre el bus PCI (inglés)

Formato ATX
por Cesar San Juan Revilla

Las nuevas placas ATX tienen un tamaño de 305 x 244 milímetros, es decir, que una de
sus principales innovaciones lo constituye la relación de forma, lo que permitiría la
instalación de más componentes de cara a ampliar las posibilidades de los equipos,
permitiendo incluso una doble capa de puertos de expansión si fuera necesario
A-

Conector de entrada telefonica


B - Conector Wave Table
C - Conector de CD-Audio
D - 256kB Pipe Line Burst nivel 2
E - Puerto audio y joystick
F - Conector VGA
G - Raton y teclado PS/2
H - Puerto serie
I - Zocalo para Pentium
J- Zocalo VRM
K - 82437FX Controlador de sistema (TSC)
L - Conector de alimentacion primario
M - 82438FX Data Path (TDP)
N - Bancos de memoria SIMM
O - Regulador de voltaje CPU 3.3v
P - Interface PCI - IDE
Q - Regulador de voltaje
R - Conector Floppy

S - Conector E/S
T- Conector de video
U - Controlador gráfico S3 Trio PCI
V - Banco de memoria de vídeo
W - Jumper de configuración
X - Controlador National PC87306 I/O
Y - Controlador ventilador auxiliar
Z - Pila del reloj
AA - Acelerador 82371FB PCI ISA/IDE (PIIX)
BB - 4 slots PCI CC - 3 slots ISA
DD - Crystal CS4232 audio, OPL3 synthesizer

El formato ATX se ha pensado (al igual que el Baby-AT) para que los
conectores de expansión se sitúen sobre la propia placa, con lo que los
equipos seguirán teniendo un tamaño similar al de los actuales, aunque para
discos más compactos también se ha definido una versión más reducida
denominada mini-ATX (de unos 280 por 204 milímetros).

Eso en cualquiera de ambos se permite la utilización de hasta 7 ranuras de


expansión de tipo ISA o PCI, localizadas en la parte izquierda de la placa,
mientras que el zócalo del procesador se ha desplazado a la parte posterior
derecha junto a la fuente de alimentación (que también se ha visto renovada).
De esta forma los elementos de refrigeración dejan de ser un obstáculo, mismo
tiempo que el micro se beneficia del flujo de aire adicional que representa el
ventilador de la fuente.

El nuevo formato también permite que elementos como los zócalos de


memoria queden ahora más accesibles, al tiempo que reduce la cantidad de
cables presentes en interior del equipo, al situar los conectores de las
controladoras de disco justo debajo de las unidades de almacenamiento.
Esto tiene la ventaja añadida de eliminar el peligro de interferencias, algo que
será más probable a medida que aumenten las frecuencias de funcionamiento
de los nuevos micros.

Uno de los cambios mas visibles en el diseño ATX es el cambio de dos


conectores de alimentación por uno, influenciado por el nuevo diseño de las
fuentes de alimentación.

Formato Baby-AT
por Cesar San Juan Revilla

La especificación Baby-AT es esencialmente la misma que la de la placa del


IBM XT, con modificaciones en la posición de los agujeros de los tornillos para
poder encajar en una carcasa de tipo AT. Virtualmente todas las placas AT y
Baby-AT usan el mismo conector para el teclado (DIN de 5 pins). Las placas
Baby-AT encajan en todo tipo de carcasas excepto en las de perfil bajo o
extrafinas.
Diseño placa Baby-AT

Este formato debe su éxito a la flexibilidad de su diseño, aunque dicha


flexibilidad sea así mismo su principal fuente de problemas, por ejemplo, las
ranuras de expansión se sitúan generalmente en la parte posterior izquierda de
la placa colocando el microprocesador justo frente a las mismas. Esto era
perfectamente válido cuando los chips aún eran lentos y disipaban poco calor,
pero el aumento de velocidad de los mismos obligó posteriormente a la
incorporación de componentes capaces de refrigerarlos en lo posible. Tales
componentes suelen dificultar la instalación de las tarjetas de expansión más
largas, bloqueando algunos de los slots.

O peor aún. El mantenimiento o actualización de determinados componentes


se convierte poco menos que en un castigo cuando es preciso desmontar
medio ordenador hasta que se puede llegar a ellos con holgura. Es lo que
sucede, generalmente, con los zócalos de memoria, que se encuentran
tapados por una maraña de cables y fajas o, incluso, por las propias unidades
de almacenamiento (disqueteras o discos duros).
A-
Interfaces
PCI IDE

B-
Controlador
National
87306 I/O

C-
Conector
de

alimentación primario

D - Banco de memoria SIMM

E - 82438FX Data Path (TDP)

F - Puerto paralelo

G - Conector disquetera

H - 256KB cache secundaria

I - 82437FX controlador de sistema (TSC)


J - Zocalo para pentium
K- Regulador de voltaje CPU
L - Conectores de E/S
M - Conector Auxiliar
N - 82371FB PCI ISA/IDE Accelerator (PIIX)
O - Battery for the Real-time clock
P - Four ISA expansion connectors
Q - BIOS recovery boot jumper
R - Flash EEPROM for system BIOS
S - Three PCI expansion connectors
T - 3.3 volt power connector for PCI
U - Serial port connectors
V - AT Keyboard Connector

Por si esto no fuera suficiente, el propio diseño Baby-AT dificulta la


integración de componentes adicionales, como controladora gráfica,
controladora de sonido o soporte para red local, aunque en los últimos tiempos
los fabricantes parecen haberse enfrentado con éxito a dicho problema, si bien
en algunas ocasiones nos encontramos con placas que dan extraños errores
de comportamiento frente a determinados programas o sistemas operativos.

Chipset
El chipset determina algunas características básicas de la placa base, que son
inalterables. Por ejemplo el tamaño máximo de memoria que es capaz de
soportar, o los tipos y velocidades de bus.
Por ello, conocer sus características es muy interesante.

Chipsets Intel para Pentium:

Intel 430FX:
Es el primer chipset que vamos a tener en cuenta, y el que marcó una nueva
etapa. Conocido como Tritón. Soporte para un único procesador. Máximo 128
Mb. de memória principal. Controlador de 2 canales IDE bús master integrado,
hasta PIO 4 (16,6 Mb./seg). Soporte para PnP. Soporte para EDO RAM
además de FPM.
Soporte para memoria caché burst pipeline (256 o 512 Kb.).Compatible con
PCI 2.0.

Intel 430HX:
El sustituto del FX. Conocido como Tritón II. Soporte para dos procesadores.
Hasta 512 Mb. Hasta 4 bancos de memoria. Hasta 512 Kb de cache L2. Hasta
2 puertos USB. Compatible con PCI 2.1. Puede cachear toda la memoria.
Soporte para bus EISA.

Intel 430VX:
Posterior al HX, pero menos potente, aunque con novedades tecnológicas.
Hasta 128 Mb. Soporte para memoria DIMM tanto SDRAM com EDO o FPM.

Intel 430TX:
El último desarrollo de Intel para la série de procesadores
Pentium. Recomendado para el MMX (aunque no
imprescindible).
Máximo 256 Mb. Hasta 3 bancos de memoria. Soporte para
módulos DIMM SDRAM de 64 Mb. y para módulos EDO de 128
MB.
Soporte para IDE Ultra DMA/33 (33 Mb./seg.). Cumple con las especificaciones
PC'97 (ACPI). Sólo puede cachear los primeros 64 MB.

Tabla comparativa de chipsets Intel para Pentium


Memoria Tipo
Chipset USB
Max. cacheable SDRAM EDO IDE
430FX 128MB. 128MB. - ATA -

430HX 512MB. 512MB. - ATA

430VX 128MB. 64MB. ATA

430TX 256MB. 64MB. ATA-33

Chipsets Intel para Pentium PRO/II:

Intel 450GX/KX:
Conocidos como Mars y Orión. El GX admite hasta 4 procesadores. Son para
Pentium Pro, pero también admiten al Pentium II.

Intel 440FX:
Conocido como Natoma. Es utilizable tanto en placas basadas en Pentium Pro
como en Pentium II. Hasta dos procesadores. Hasta 1 GB. repartido en hasta 8
bancos. Soporta memoria EDO y USB.

Intel 440LX:
El primer chipset que ofrece soporte sólo para Pentium II. Soporte para 2
procesadores, AGP 2x, USB, ACPI. Ampliable hasta 1 GB. con memoria EDO y
hasta 512 MB. con SDRAM. Soporte para 4 slots PCI 2.1.

Intel 440BX:
La principal diferencia respecto del chipset LX es que ofrece soporte a placas
con bus a 100 Mhz. No se pueden mezclar módulos EDO con SDRAM. Hasta
1GB tanto en EDO como en SDRAM.

Intel 440EX:
Este es un chipset de bajo coste especialmente diseñado para el mercado del
Celeron. No soporta más de un procesador. Ampliable hasta un máximo de 256
Mb de RAM. Soporte para memoria EDO y SDRAM (dos DIMM's o cuatro
SIMM's). No soporta control de paridad en memoria. Soporte para AGP 2x.

Intel 440GX:
Optimizado para el Xeon. Por supuesto soporte de bus a 100 Mhz. Hasta 2 GB.
de memoria SDRAM. Soporte para AGP 2x.

Intel 450NX:
Optimizado para máquinas con múltiples procesadores Xeon. Hasta 8 GB. de
memoria EDO o SDRAM. No soporta AGP ni ACPI.

Tabla comparativa de chipsets Intel para Pentium II


Chipset Memoria AGP
Aconsejado
Max. SDRAM EDO
para
1GB. EDO
440LX Pentium II a 66 Mhz de bus.
512MB. SDRAM

440BX Pentium II con bus a 100 Mhz. 1GB. -

440EX Celeron 256MB.

440GX Xeon 2GB. -

450NX Xeon servidor 8GB. -

Memorias
Hemos de distinguir entre la memoria principal, la memoria caché, y la memoria
de video.
La primera se emplea para poder ejecutar mayores y más programas al mismo
tiempo, la segunda para acelerar los procesos de la C.P.U, y la tercera nos
permite visualizar modos de mayor resolución y con más colores en el monitor,
así como almacenar más texturas en tarjetas 3D.

Memoria principal:

La primera distinción que debemos realizar es el formato físico, cuyo parámetro


más importante es el número de contactos (ó pins).

Hoy en día podemos encontrarlas de


30 contactos (8 bits) y que miden unos
9 cm., 72 (32 bits) y con una longitud
de casi 11cm., y 168 (64 bits) y casi
13 cm. Las dos primeras reciben el
nombre de SIMM y funcionan a 5V, y la última es conocida como DIMM y
puede trabajar a 3,3V ó a 5V, dependiendo del tipo.

La siguiente distinción por orden de importancia sería el tipo, en orden a su


antigüedad, esta puede ser DRAM, Fast Page (o FPM), EDO ó SDRAM. Es
importante consultar el manual de la placa base para saber que tipos soporta.

El tipo SDRAM sólo se encuentra en formato DIMM, y es la que más dolores de


cabeza nos puede causar, ya que puede ser Buffered o Unbuffered, y trabajar a
3,3 o a 5V. Además, no todas las placas base soportan todas estas
combinaciones, algunas por ejemplo sólo soportan módulos de 3,3V.
Afortunadamente, hay una muesca en estas memorias que impide conectar un
módulo en un zócalo para el que no ha sido diseñado.

Otra característica importante es la paridad, esta característica actualmente


está en desuso, pero puede ser fuente de problemas, ya que algunas placas no
soportan esta característica, mientras otras (pocas) sólo funcionan con ella.
Saber si un módulo posee o no paridad es relativamente fácil, basta con contar
el número de chips (circuitos integrados) que hay en el circuito impreso. Si es
impar entonces es memoria con paridad.

Por último nos queda comentar el tiempo de acceso, éste cuanto más pequeño
sea, mejor.
Si hablamos de módulos SIMM, dependiendo de su antigüedad, son normales
tiempos de 80, 70 , 60 ó incluso 50 ns. En las memorias DIMM SDRAM, suelen
ser habituales tiempos de alrededor de 10 ns.

También es importante señalar la máxima frecuencia a la que pueden trabajar.


En este aspecto se debe recordar que el único diseño capaz de trabajar a 100
Mhz es el tipo SDRAM.

En cuanto a capacidades las más habituales son las de 256Kb, 1, 2, 4, 8, 16,


32, 64 y 128Mb., aunque no todas pueden estar soportadas por nuestra placa
base, por ejemplo los módulos de 2 Mb no suelen ser habituales, y los de
256Kb y 1Mb sólo están en formato de 30 pins., y los módulos DIMM empiezan
a partir de 16 Mb.

También hay que entender que el bus de datos del procesador debe coincidir
con el de la memória, y en el caso de que no sea así, esta se organizará en
bancos, habiendo de tener cada banco la cantidad necesaria de módulos hasta
llegar al ancho buscado.
Por tanto el ordenador sólo trabaja con bancos completos, y éstos sólo pueden
componerse de módulos del mismo tipo y capacidad.

Módulos por banco


bus de SIMM 30 pins (8 SIMM 72 pins (32 DIMM (64
Procesador
datos bits) bits) bits)
386/486 32 bits 4 (4 x 8 = 32) 1 N/A*
Pentium/P.Pro 64 bits N/A* 2 (2 x 32 = 64) 1

* No Aplicable

Memoria caché:

La memoria caché de segundo nivel (L2) es una memoria muy rápida llamada
SRAM (RAM estática) que se coloca entre la memoria principal y la CPU y que
almacena los últimos datos transferidos.
El procesador, como en los casos de caché de disco, primero consulta a dicha
memoria intermedia para ver si la información que busca está allí, en caso
afirmativo podemos trabajar con ella sin tener que esperar a la más lenta
memoria principal.

Dicha memoria solo se usa como caché debido a que su fabricación es muy
cara y se emplea en módulos de poca capacidad como 256 ó 512 Kb.
No hay que confundir nunca la memoria de segundo nivel con la de primer nivel
(L1) ya que esta suele ir integrada dentro del procesador, y suele ser de menor
capacidad, aunque evidentemente dispone de un acceso mucho más rápido
por parte de la CPU.

Su implementación en la placa base puede ser o bien colocar los chips


directamente en ella, mediante zócalos o con soldadura directa, o en unos
módulos parecidos a los SIMM's llamados COAST, de más fácil actualización.

Estructura de la memoria

Para saber más sobre memorias, consulta la Guía de Kingston (Necesitas tener
instalado el Acrobat Reader)

Estructura de la memoria
por Carlos Urzua Ruiz

La estructura de la memoria.

Memoria ROM

Memoria PROM y EPROM

Memoria Shadow

Memoria central o principal

Tener una buena memoria

Diseño de la caché

Ajustar la caché

Conflictos y asociatividad

Memoria FLASH

La estructura de la memoria
En primer lugar, el PC salió al mercado con una memoria de 16 KB,
que podía extenderse en la placa madre hasta 64 KB. Además, IBM
proporcionaba tarjetas de aplicación que recogían cada una 64 KB y
que tenían que colocarse en uno de los 5 puestos de conexión de las
tarjetas de ampliación. Solo se podían instalar 3 tarjetas como
máximo, para dotar al PC con la inmensa cantidad de memoria de
256 KB en aquella época.

De todas maneras las personas que estaban haciendo el desarrollo


del PC sabían que aquello no era el final del desarrollo y dispusieron
una distribución de la memoria, que permitió una extensión de la
memoria RAM hasta una marca de 640 KB. Se imaginaban estar
preparados para el futuro, pero este les sobrepaso muy rápidamente
tal como todos los usuarios del DOS ya conocen.

Aparte de la RAM incluyeron también en la planificación un espacio en


la CPU- 8088, que tenia un espacio de direcciones de 1 MB, para el
área RAM de las tarjetas de vídeo (el llamado RAM vídeo "VRAM"),
para la ROM-BIOS y algunas ampliaciones ROM. Al procesador le es
indiferente encontrarse detrás de una posición de memoria RAM o
ROM, con la única diferencia que las áreas de memoria en ROM no
pueden describirse. El procesador tampoco tiene ningún
inconveniente en dirigirse a puntos de la memoria que físicamente no
existen. Pues el hecho de que el procesador pueda administrar hasta
1 MB de memoria, no significa ni mucho menos que detrás de cada
dirección de memoria se oculta realmente un elemento RAM o ROM.

Los 10 primeros segmentos de memoria están reservados para la


memoria principal RAM, quedando limitado su tamaño máximo a 640
KB. El segmento 0 tiene un papel muy importante ya que en él se
incluyen datos y rutinas importantes para el sistema operativo.

A la memoria RAM le sigue el segmento de memoria A, que se instala


con una tarjeta gráfica EGA y VGA. Sirve de memoria de la estructura
de la pantalla en los diferentes modos gráficos de estas tarjetas.

El segmento de memoria B esta asignado a la tarjeta de vídeo


monocroma MDA y Hercules así como también a la tarjeta gráfica de
color CGA. Ambas comparten este segmento como memoria de
estructura de la pantalla, utilizando la tarjeta monocroma los 32 KB
inferiores y la tarjeta de color los 32 KB superiores de este segmento.
Cada tarjeta instala solo aquella memoria que es necesaria para la
memoria de la pantalla. En las tarjetas monocromas son solo 4 KB y
en las tarjetas CGA tampoco son mas de 16 KB .

Los segmentos de memoria detrás Vídeo RAM no se cargaran con


RAM, si no con ROM, siendo el segmento C el inicio. En algunos
ordenadores en este segmento se depositan algunas rutinas BIS que
no forman parte del núcleo original de la bios. En los XT esta rutinas
son por ejemplo las que dan soporte al disco fijo que se ha
introducido.

Los segmentos D y E estaban previstos originariamente para


cartuchos ROM, como los que se utilizaban para los ordenadores
domésticos y juegos de TV para la aportación de software en el
sistema. Nunca se han utilizado realmente, de manera que este área
se mantiene prácticamente siempre libre y hoy en día se utiliza como
RAM adicional o bien para la inserción de memoria EMS.

Finalmente el bloque F contiene las rutinas de las BIOS en si, el


cargador original del sistema así como también el ROM-BASIC que
solo se conserva en los ordenadores viejos.

Memoria ROM
Es memoria no volátil de solo lectura. Igualmente, también hay dos
características a destacar en esta definición. La memoria ROM es
memoria no volátil: Los programas almacenados en ROM no se
pierden al apagar el ordenador, sino que se mantienen impresos en
los chips ROM durante toda su existencia además la memoria ROM
es, como su nombre indica, memoria de solo lectura; es decir los
programas almacenados en los chips ROM son inmodificables. El
usuario puede leer ( y ejecutar ) los programas de la memoria ROM,
pero nunca puede escribir en la memoria ROM otros programas de los
ya existentes.

La memoria ROM es ideal para almacenar las rutinas básicas a nivel


de hardware, por ejemplo, el programa de inicialización de arranque
el ordenador y realiza el chequeo de la memoria y los dispositivos.

La memoria ROM suele estar ya integrada en el ordenador y en varios


periféricos que se instalan ya en el ordenador. Por ejemplo, en la
placa madre del ordenador se encuentran los chips de la ROM BIOS,
que es el conjunto de rutinas mas importantes para comunicarse con
los dispositivos. O, también, las tarjetas de vídeo, las tarjetas
controladoras de discos y las tarjetas de red tienen un chip de ROM
con rutinas especiales para gestionar dichos periféricos.

Memoria PROM y EPROM.


Una alternativa son los chips de memoria de solo lectura
programables, o PROM (Programmable Read-Only Memory). Este tipo
de circuitos consiste en una matriz de elementos que actuan como
fusibles. Normalmente conducen la electricidad. Sin embargo, al igual
que los fusibles, estos elementos pueden fundirse, lo que detiene el
flujo de la corriente.

Los chips PROM están fabricados y desarrollados con todos sus


fusibles intactos. Se emplea una máquina especial llamada
programador de PROM o quemador de PROM, para fundir los fusibles
uno por uno según las necesidades del software que se va a codificar
en el chip. Este proceso se conoce normalmente como el “ quemado “
de la PROM.

Como la mayoría de los incendios, los efectos de quemar la PROM son


permanentes. El chip no puede modificar, ni actualizar, ni revisar el
programa que lleva dentro. Definitivamente, las PROM no están
pensadas para la gente que cambia rápidamente de ideas, ni para la
industria de cambios rápidos.

Por fortuna, la tecnología nos ha traído otra alternativa: los chips de


memoria programables y borrables de solo lectura, las EPROM.
( Erasable Programmable Read-Only Memory ). Las EPROM son
internamente semiconductores auto-reparables porque los datos de
su interior pueden borrarse y el chip puede ser reutilizado por otros
datos o programas.

Las EPROM son fáciles de distinguir de los otros chips porque tienen
una pequeña ventana transparente en el centro de la cápsula.
Invariablemente, esta ventana esta cubierta con una etiqueta de
cualquier clase, y con una buena razón: el chips se puede borrar por
la luz ultravioleta de alta intensidad que entra por la ventana.

Si la luz del sol llega directamente al chip a través de una ventana,


el chip podría borrarse sin que nadie se diera cuenta. A causa de su
versatilidad con la memoria permanente, y por su facilidad de
reprogramación, basta borrarla con luz y programarla de nuevo, las
EPROM se encuentran en el interior de muchos ordenadores.

Memoria shadow.
Los ordenadores de 32 bits generalmente disponen de acceso a la
memoria a través de buses de datos de 8,16 o 32 bits. Generalmente
es más conveniente utilizar un bus de datos de 16 bits para la
memoria de la ROM-BIOS.

Existen muchas tarjetas de ampliación que incluyen extensiones de la


BIOS en la propia tarjeta, y que se conectan al bus del ordenador a
través de buses de datos de 8 bits. Como resultado, no se puede
acceder a esas áreas de memoria tan rápidamente como a la RAM de
32 bits del sistema. Este problema se complica porque las rutinas de
la BIOS, especialmente las utilizadas por las tarjetas gráficas, están
entre la parte de código más frecuentemente utilizada en los
ordenadores.

Para romper esta barrera de velocidad, muchos diseñadores de los


ordenadores emplean la llamada memoria SHADOW. Copian las
rutinas de la ROM en memoria la RAM de 32 bits, que es más rápida,
y emplean las posibilidades de direccionamiento del 80387 para la
llevar a la RAM el rango de direcciones utilizado por la ROM.

La ejecución de la BIOS en RAM acelera las operaciones en un factor


de 4 o más ( generalmente más, porque normalmente hacen falta
más estados de espera cuando se accede a la memoria ROM, que es
más lenta ). Por supuesto la SHADOW RAM es volátil, y deben
copiarse en ellas las rutinas de la bios cada vez que se arranca el
ordenador. En casi todos los ordenadores basados en el 386, las
rutinas de la bios se copian automáticamente en memoria SHADOW
RAM cada vez que se arranca el sistema.

Memoria central o principal.


La función de la memoria principal es almacenar datos e instrucciones
de programa de forma temporal. Es estación obligada en todas las
operaciones de entrada y salida y, por supuesto, de los resultados
parciales o finales del proceso.

La memoria esta estructurada en forma de una colección de celdas,


en cada una de las cuales cabe una unidad especifica de información:
octetos o palabras. El contenido de cada una de las posiciones de
memoria podrá ser bien dato o instrucción. Cada celda tiene asignada
una posición relativa con respecto a un origen, cuyo valor numérico
constituye la dirección de la misma y que no se encuentra
almacenado en ella.

Con la misión de garantizar estabilidad y seguridad en las


operaciones, la dirección y datos deben mantenerse en registros
durante ese tiempo. En la memoria nos encontramos con:

Registro de dirección de memoria en la que almacena temporalmente


la dirección sobre la que efectúa la selección.

Registro de Información de memoria en donde se almacena el dato


durante las fases de lectura o escritura en la celda señalada por el
registro anterior.
Tecnologías de Fabricación

La constitución de las memorias ha evolucionado en la misma manera


que lo ha hecho la tecnología. En un principio se utilizaron núcleos
diminutos de ferrita, los cuales dependiendo del sentido de imanación
permiten asignar uno o cero a los dos posibles estados. Los núcleos
son seleccionados por medio de finos hilos que los atraviesan siendo
la corriente eléctrica la encargada de efectuar la selección y la
lectura. Cada bit conforma junto con el resto de los de otras celdas,
lo que se denomina plano de memoria y habrá, por tanto, tantos
como ancho tiene la palabra de memoria.

Actualmente se han pasado a utilizar memorias de estado sólido,


basadas en circuitos eléctricos de silicio, los cuales, mediante un
conjunto de biestables es posible almacenar la información de igual
manera que si fueran ferritas. Estos dispositivos se denominan RAM,
memorias de acceso al azar, constituyendo la vertiente estática de las
mismas. Dentro de la misma familia se encuentran las dinámicas, que
al basar su funcionamiento en la carga de diminutos condensadores,
necesitan ser refrescadas cada cierto tiempo para evitar que pierdan
toda la carga, y, por tanto, el uno binario. Habitualmente en este tipo
de memoria se pierde la información si se quita la alimentación, salvo
que se les dote de baterías para mantenerla. Las memorias de ferrita
conservan indefinidamente la información.

Si la celda anterior (biestable o condensador), se sustituye por un


fusible que puede estar fundido o no tendremos una ROM, es decir,
memoria de solo lectura, muy adecuada para guardar programas
indefinidamente sin ninguna posibilidad de ser borrados.

Características de la Memoria

Las magnitudes importantes que caracterizan la Memoria Central son:

· Capacidad o tamaño de la misma. Es decir, el numero de miles


de posiciones que contiene. Normalmente se expresan en K.palabras,
aunque en los ordenadores personales al ser las palabras de 8 bits se
expresan en K-bytes. En la actualidad, el tamaño de la palabra es
múltiplo del byte, ya que de esta forma el acceso a la misma puede
hacerse desde uno al ancho máximo del bus de datos, ahorrando en
muchos casos tiempo. Así tendremos palabras de 8, 16, 32, 64 bits y
capacidades de siempre medidas en potencia de dos: 8, 16, 64, 128
K...etc(siendo 1K igual a 1025).

· Tiempo de Acceso. Es el tiempo que invierte el ordenador desde


que se emite la orden de lectura-escritura, hasta que finaliza la
misma. Este tiempo es muy pequeño, y de el depende la potencia del
ordenado. Son típicos tiempos del orden de microsegundos e incluso
del orden de 2 a 10 nanosegundos.

· El tamaño de la celda define su anchura de palabra, y viene fijado


por el ancho del registro de información de memoria. Si la palabra
interna es superior a la de la memoria, necesitara hacer más de un
acceso para conseguir toda la información.

Tener una buena memoria.


Aunque las modernas CPU tienen una preocupación primordial en
mantener sus pipelines de procesos llenos de instrucciones y datos,
esto se esta convirtiendo cada vez en una tarea mas complicada
debido a que, si bien el rendimiento de la CPU se duplica cada 18 ó
24 meses, la velocidad de los chips DRAM que constituyen la
memoria principal sólo se incrementan en un pequeño porcentaje.

La memoria caché de alta velocidad que actúa como buffer entre la


memoria principal y la CPU constituyen un factor cada vez mas
importante en el rendimiento total.

Es por esta razón que todos los ordenadores se organizan alrededor


de esta jerarquía de almacenamiento, con los elementos mas rápidos
en la parte de arriba y los mas lentos, menos costosos y mas densos
en la parte de abajo.

En lo alto de esta jerarquía se encuentran los registros, de los que


habitualmente hay 64 (32 para enteros y 32 para coma flotante) para
un total de 256 bytes de una CPU corriente. La caché constituye el
siguiente nivel de la jerarquía: el tamaño habitual oscila entre los 16
KB y los 256 KB, y el tiempo de acceso es del orden de unos pocos
ciclos de CPU. Con la llegada de las caché en el microprocesador,
muchas maquinas cuentan ahora con un segundo nivel de caché,
fuera del microprocesador.

La jerarquía de almacenamiento funciona porque los programas no


acceden a la memoria al azar. Si un programa accede a una palabra
de la memoria, hay muchas probabilidades de que en un futuro
cercano acceda a la misma palabra. Asimismo hay muchas
posibilidades de que en un futuro cercano acceda a una palabra
próxima a la que había accedido. Estas dos observaciones se conocen
como los principios de localidad temporal y espacial.

Diseño de la caché
Lo primero que hay que decidir en un diseño de caché es la línea de
caché donde se debería almacenar un bloque cargado desde
memoria. Pensemos en un sistema que use direccionamiento de 32
bits. Si el tamaño de un bloque es de 64(2 elevado a 6)bytes, los 6
bits de la parte inferior de la dirección -el offset- determina a que
byte de dentro del bloque se esta direccionando. Si la caché consta
de 1024 de estas líneas de 64 bytes los siguientes 10 bits de la
dirección determina en que línea esta colocado el bloque . Los 16 bits
de la parte superior de la dirección -el tag- se guarda con al línea de
la caché . Una caché mapeada directamente almacena un tag por
línea en su array de tags.

Por ejemplo una lectura la caché utiliza los bits centrales de la


dirección como índice para su array de tags. El tag indicado se
conforta luego con los 16 bits de la parte superior de la actual
dirección. Si encajan, los datos que indican el ofsset se envían a la
CPU.

La ventaja que implica utilizar una cache directamente mapeada es


que solamente se tiene que hacer una confrontación por acceso a la
caché.

El problema de una caché directamente mapeada es que si dos


bloques a los que se accede frecuentemente mapean en la misma
línea de caché, estarán todo el tiempo expulsándose mutuamente de
la caché.

El otro extremo en el diseño de caches es la caché completamente


asociativa, en la que se puede colocar un bloque en cualquier línea de
caché. En este caso, la dirección simplemente se divide en bits
inferiores, lo que constituye el offset en la línea de caché y los bits
superiores que forman el tag que se confronta con referencias
superiores.

En el caso de una caché asociativa, tiene que haber algún mecanismo


para decidir en que línea se coloca el bloque. En teoría se sustituye el
bloque de memoria menos utilizado últimamente LRU.

Una caché completamente asociativa resuelve los problemas de


direcciones en conflicto pero a costa de mucho hardware extra para
comparar el tag con todas las líneas de caché. Entre las caches
directamente mapeadas y las completamente asociativas es la caché
asociativa por conjuntos. Las líneas se dividen en conjuntos y los bits
centrales de la dirección determinan el conjunto en el que se colocan
un bloque. Dentro de cada conjunto, la caché es completamente
asociativa. Además de necesitar menos comparadores que una caché
completamente asociativa, la de tipo asociativa por conjuntos
también facilita la implementación de la política LRU. Por ejemplo,
solo se precisa un bit para implementar una política LRU.

Ajustar la caché
Las consecuencias mas fundamentales relativas a la caché para una
aplicación son si la mayor parte de los datos sobre los que se opera
encajaran en la caché y si los datos que se cargan incluyen
información no utilizada. Si los datos encajan en la caché y ninguno
de ellos es ajeno, su organización y el orden en el que se acceda a
ellos no afectará de manera sustancial al rendimiento, mas tarde o
mas temprano toda la información tiene que estar cargada.

Optimización de la caché frente a optimización de


instrucciones.
Un error habitual que cometen los programadores consiste en
optimizar un programa con la suposición de que todas las referencias
irán a parar a la caché, pasando por alto el hecho de que un fallo de
caché puede consumir tantos ciclos de reloj como una decena o mas
de instrucciones.

Conflictos y asociatividad
Dos direcciones que sólo difieran en la parte del tag mapearán para el
mismo conjunto de caché, esto recibe el nombre de conflicto. Cuando
se accede repetidamente a direcciones en conflicto y el numero de
conjuntos supera la asociatividad de la caché la misma dirección
generará repetidamente un fallo de caché, ya que las referencias en
conflicto harán que se desaloje antes de que se pueda referenciar de
nuevo.

Esta es la razón por la que una caché asociativa bidireccional pueda


resultar tan efectiva como una directamente mapeada que le duplique
el tamaño.

Virtual frente a física.

Hasta ahora, se ha hablado de la dirección de un determinado item


que está copiado en la caché o en la memoria. De hecho, los sistemas
utilizan dos tipos de dirección, la virtual y la física, y dos tipos de
caché, según el tipo de dirección que se utilice.

Pero en realidad cada byte de RAM tiene una sola dirección. El


sistema operativo y el hardware colaboran en la creación de este
efecto al definir dos tipos de dirección la virtual y la física y hacerse
cargo de la conversión entre ambas. Los programas utilizan
direcciones virtuales, mientras que el controlador de memoria de
sistema exige direcciones físicas.

Cachés direccionadas virtualmente.

El uso de una caché direccionada virtualmente presenta varias


ventajas. El controlador de caché no tiene que esperar a que finalice
la conversión de dirección para poder consultar la dirección en la
caché, lo que significa que la caché pueda proporcionar datos mas
rápidamente. Asimismo, debido a que se esta utilizando las
direcciones virtuales del programa, ejecuciones idénticas de un
programa conducirán a idénticos modelos de uso de caché.

Caches direccionadas físicamente .

Si bien las caches direccionadas físicamente padecen de variaciones


de rendimiento, presentan dos ventajas claras.

PRIMERA.- Si se esta diseñando una caché fuera del chip para una
CPU que tenga una unidad MNU (unidad de gestión de memoria) en
el chip, la dirección que trasmite la CPU ya se ha convertido y la
única opción es una caché direccionada físicamente.

SEGUNDA.- Debido a que todas las direcciones son para un único


espacio de dirección física en vez de para un espacio diferente de
dirección virtual para cada aplicación, se pueden dejar los datos en la
caché cuando el sistema operativo transfiere el control de una
aplicación a otra. Con una caché direccionada virtualmente hay que
limpiar los datos cada vez que tiene lugar una transferencia de
control o una conmutación de contexto.

La memoria FLASH
Las memorias Flash se han convertido en algo importante para
aquellos productos que necesitan una pequeña cantidad de
almacenamiento no volátil para datos y programas.

La mayoría de las aplicaciones actuales de memoria Flash en


ordenadores, se centran en sustituir las EPROM y EEPROM
(almacenamiento de código) en vez de almacenar datos.

Las memorias Flash quizás continúen utilizándose como almacén de


BIOS, pero es muy probable que el empujón tan esperado de dichas
memorias como almacenamiento de datos no provenga de los
ordenadores.
Afortunadamente para los fabricantes de memoria Flash, la demanda
ha superado a la oferta y todos han dispuesto un mercado seguro,
con absoluta independencia de la tecnología empleada.

Como funciona la Memoria Flash

Las celdas de memoria Flash pueden gastarse al cabo de un


determinado número de ciclos de escritura, que se cifran
generalmente entre 100.000 y un millón, dependiendo del diseño de
la celda y de la precisión del proceso de fabricación. El principal
mecanismo de destrucción lo constituye el daño acumulativo que se
produce sobre la puerta de flotación de la celda, debido a los
elevados voltajes empleados, de forma repetitiva, para borrar la
celda, o la capa de oxido se rompe o los electrones se acumulan en la
puerta de flotación. Los fabricantes de memoria Flash tienen en
cuenta este fenómeno e incorporan celdas adicionales que pueden
sustituir a las gastadas. Además, muchos fabricantes de sistemas de
memoria Flash destinados al almacenamiento de datos utilizan una
técnica denominada de nivelación que consiste en desplazar los datos
alrededor del chip para que cada celda se "gaste" lo más
uniformemente posible.

Otra consideración a tener en cuenta es que se tarda mucho más en


borrar una celda de la memoria Flash que en borrar un bit de datos
del disco duro.

Curiosamente, la operación de borrado no se efectúa a la velocidad


que se suele atribuir a la palabra FLASH, sino que tarda mucho. Esto
se debe a que el voltaje relativamente elevado que se necesita,
supone una gran cantidad de corriente. Dado que existen limitaciones
acerca de la cantidad de corriente que pueden manejar los chips,
también existen limitaciones en cuanto al numero de celdas que se
pueden borrar de una sola vez. Esta es la razón por la que los
procesos de borrado se efectúan por grupos de celda.

Una celda de una memoria Flash es como un transistor convencional


pero con una puerta adicional. Entre la puerta de control y la fuente y
el drenaje existe una segunda puerta, denominada de flotación que
sirve a modo de mecanismo de carga.

La memoria Flash es todavía tan nueva que no existe un único


método de fabricación. Los fabricantes utilizan unos doce enfoques
diferentes para fabricar y organizar las celdas de memoria Flash
sobre una oblea de silicio.

NOR constituye la tecnología líder actual e Intel es su fabricante


principal. Organiza las celdas de memoria en paralelo, con el drenaje
de cada celda conectado a una línea de bits, agrupándose varias
líneas de bits para constituir un grupo de E/S. NOR proporciona
acceso aleatorio más rápido, pero su estructura en paralelo reduce la
densidad de la memoria.

NAND es una tecnología utilizada por National Semiconductor,


Samsung y otros fabricantes. Conecta las celdas en serie, con una
puerta de selección para cada puerta de control inferior y conexiones
en serie con las puertas de control de este grupo de puertas. NAND
ofrece una velocidad de acceso aleatorio menos elevada, pero
permite densidades mayores gracias a sus celdas de tamaño más
pequeño.

30 pin SIMM

SIMM=Single Inline Memory Module

Usually found in Intel 286 & 386 computers.


Bits 8 bit or 9 bit (8+parity)

Speed 60ns to 80ns

Size 256kB to 4MB

Voltage 5VDC

Pinout

30 PIN SIMM at the computer.

Pin Name Description

1 VCC +5 VDC

2 /CAS Column Address Strobe

3 DQ0 Data 0

4 A0 Address 0
5 A1 Address 1

6 DQ1 Data 1

7 A2 Address 2

8 A3 Address 3

9 GND Ground

10 DQ2 Data 2

11 A4 Address 4

12 A5 Address 5

13 DQ3 Data 3

14 A6 Address 6

15 A7 Address 7

16 DQ4 Data 4

17 A8 Address 8

18 A9 Address 9

19 A10 Address 10

20 DQ5 Data 5

21 /WE Write Enable


22 GND Ground

23 DQ6 Data 6

24 A11 Address 11

25 DQ7 Data 7

26 QP Data Parity Out

27 /RAS Row Address Strobe

28 /CASP Something Parity ????

29 DP Data Parity In

30 VCC +5 VDC

72 pin SIMM

SIMM=Single Inline Memory Module

72 pin SIMM

Usually found in Intel 486 and Pentium computers.


Bits 32 bit or 36 bit (32+4 parity)

Speed 60ns to 70ns

Size 256kB to 4MB


Voltage 3.3VDC or 5VDC

Fast Page Mode (FPM) and Extended Data Out (EDO).

Contents

← 1 Pinout

 1.1 Size:

 1.2 Accesstime:

← 2 Contributions

← 3 Sources

Pinout

72 PIN SIMM at the computer.

Pin Non-Parity Parity Description

1 VSS VSS Ground

2 DQ0 DQ0 Data 0

3 DQ16 DQ16 Data 16

4 DQ1 DQ1 Data 1

5 DQ17 DQ17 Data 17

6 DQ2 DQ2 Data 2


7 DQ18 DQ18 Data 18

8 DQ3 DQ3 Data 3

9 DQ19 DQ19 Data 19

10 VCC VCC +5 VDC

11 n/c n/c Not connected

12 A0 A0 Address 0

13 A1 A1 Address 1

14 A2 A2 Address 2

15 A3 A3 Address 3

16 A4 A4 Address 4

17 A5 A5 Address 5

18 A6 A6 Address 6

19 A10 A10 Address 10

20 DQ4 DQ4 Data 4

21 DQ20 DQ20 Data 20

22 DQ5 DQ5 Data 5

23 DQ21 DQ21 Data 21


24 DQ6 DQ6 Data 6

25 DQ22 DQ22 Data 22

26 DQ7 DQ7 Data 7

27 DQ23 DQ23 Data 23

28 A7 A7 Address 7

29 A11 A11 Address 11

30 VCC VCC +5 VDC

31 A8 A8 Address 8

32 A9 A9 Address 9

33 /RAS3 /RAS3 Row Address Strobe 3

34 /RAS2 /RAS2 Row Address Strobe 2

35 n/c PQ3 Parity bit 3 (for the 3rd byte, bits 16-23)

36 n/c PQ1 Parity bit 1 (for the 1st byte, bits 0-7)

37 n/c PQ2 Parity bit 2 (for the 2nd byte, bits 8-15)

38 n/c PQ4 Parity bit 4 (for the 4th byte, bits 24-31)

39 VSS VSS Ground


40 /CAS0 /CAS0 Column Address Strobe 0

41 /CAS2 /CAS2 Column Address Strobe 2

42 /CAS3 /CAS3 Column Address Strobe 3

43 /CAS1 /CAS1 Column Address Strobe 1

44 /RAS0 /RAS0 Row Address Strobe 0

45 /RAS1 /RAS1 Row Address Strobe 1

46 n/c / A12 n/c Not connected / Address 12*

47 /WE /WE Read/Write

48 n/c n/c Not connected

49 DQ8 DQ8 Data 8

50 DQ24 DQ24 Data 24

51 DQ9 DQ9 Data 9

52 DQ25 DQ25 Data 25

53 DQ10 DQ10 Data 10

54 DQ26 DQ26 Data 26

55 DQ11 DQ11 Data 11


56 DQ27 DQ27 Data 27

57 DQ12 DQ12 Data 12

58 DQ28 DQ28 Data 28

59 VCC VCC +5 VDC

60 DQ29 DQ29 Data 29

61 DQ13 DQ13 Data 13

62 DQ30 DQ30 Data 30

63 DQ14 DQ14 Data 14

64 DQ31 DQ31 Data 31

65 DQ15 DQ15 Data 15

66 n/c n/c Not connected

67 PD1 PD1 Presence Detect 1

68 PD2 PD2 Presence Detect 2

69 PD3 PD3 Presence Detect 3

70 PD4 PD4 Presence Detect 4

71 n/c n/c Not connected


72 VSS VSS Ground

Size:

PD2 PD1 Size

GND GND 4 or 64 MB

GND NC 2 or 32 MB

NC GND 1 or 16 MB

NC NC 8 MB

Accesstime:

PD4 PD3 Accesstime

GND GND 50, 100 ns

GND NC 80 ns

NC GND 70 ns

NC NC 60 ns

168 pin SDRAM DIMM (Unbuffered)

DIMM=Dual Inline Memory Module


168 pin DIMM

Contents

← 1 Pinout

 1.1 Front, Left

 1.2 Front, Right

 1.3 Back, Left

 1.4 Back, Right

← 2 Contributions

← 3 Sources

Pinout

168 PIN DIMM at the computer.

Front Side (left side 1-42, right side 43-84)


Back Side (left side 85-126, right side 127-168)

Front, Left

Pin Non-Parity 72 ECC? 80 ECC? Description

1 VSS VSS VSS Ground

2 DQ0 DQ0 DQ0 Data 0

3 DQ1 DQ1 DQ1 Data 1


4 DQ2 DQ2 DQ2 Data 2

5 DQ3 DQ3 DQ3 Data 3

6 VDD VDD VDD +5 VDC or +3.3 VDC

7 DQ4 DQ4 DQ4 Data 4

8 DQ5 DQ5 DQ5 Data 5

9 DQ6 DQ6 DQ6 Data 6

10 DQ7 DQ7 DQ7 Data 7

11 DQ8 DQ8 DQ8 Data 8

12 VSS VSS VSS Ground

13 DQ9 DQ9 DQ9 Data 9

14 DQ10 DQ10 DQ10 Data 10

15 DQ11 DQ11 DQ11 Data 11

16 DQ12 DQ12 DQ12 Data 12

17 DQ13 DQ13 DQ13 Data 13

18 VDD VDD VDD +5 VDC or +3.3 VDC

19 DQ14 DQ14 DQ14 Data 14

20 DQ15 DQ15 DQ15 Data 15


21 n/c CB0 CB0 Parity/Check Bit Input/Output 0

22 n/c CB1 CB1 Parity/Check Bit Input/Output 01

23 VSS VSS VSS Ground

24 n/c n/c CB8 Parity/Check Bit Input/Output 8

25 n/c n/c CB9 Parity/Check Bit Input/Output 9

26 VDD VDD VDD +5 VDC or +3.3 VDC

27 /WE /WE /WE Read/Write

28 DQMB0 DQMB0 DQMB0 Byte Mask signal 0

29 DQMB1 DQMB1 DQMB1 Byte Mask signal 1

30 /S0 /S0 /S0 Chip Select 0

31 DU DU DU Don't Use

32 VSS VSS VSS Ground

33 A0 A0 A0 Address 0

34 A2 A2 A2 Address 2

35 A4 A4 A4 Address 4

36 A6 A6 A6 Address 6
37 A8 A8 A8 Address 8

38 A10/AP A10/AP A10/AP Address 10

39 BA1 BA1 BA1 Bank Address 1

40 VDD VDD VDD +5 VDC or +3.3 VDC

41 VDD VDD VDD +5 VDC or +3.3 VDC

42 CK0 CK0 CK0 Clock signal 0

Front, Right

Pin Non-Parity 72 ECC? 80 ECC? Description

43 VSS VSS VSS Ground

44 DU DU DU Don't Use

45 /S2 /S2 /S2 Chip Select 2

46 DQMB2 DQMB2 DQMB2 Byte Mask signal 2

47 DQMB3 DQMB3 DQMB3 Byte Mask signal 3

48 DU DU DU Don't Use

49 VDD VDD VDD +5 VDC or +3.3 VDC

50 n/c n/c CB10 Parity/Check Bit Input/Output 10


51 n/c n/c CB11 Parity/Check Bit Input/Output 11

52 n/c CB2 CB2 Parity/Check Bit Input/Output 2

53 n/c CB3 CB3 Parity/Check Bit Input/Output 3

54 VSS VSS VSS Ground

55 DQ16 DQ16 DQ16 Data 16

56 DQ17 DQ17 DQ17 Data 17

57 DQ18 DQ18 DQ18 Data 18

58 DQ19 DQ19 DQ19 Data 19

59 VDD VDD VDD +5 VDC or +3.3 VDC

60 DQ20 DQ20 DQ20 Data 20

61 n/c n/c n/c Not connected

62 Vref,NC Vref,NC Vref,NC

63 CKE1 CKE1 CKE1 Clock Enable Signal 1

64 VSS VSS VSS Ground

65 DQ21 DQ21 DQ21 Data 21

66 DQ22 DQ22 DQ22 Data 22

67 DQ23 DQ23 DQ23 Data 23


68 VSS VSS VSS Ground

69 DQ24 DQ24 DQ24 Data 24

70 DQ25 DQ25 DQ25 Data 25

71 DQ26 DQ26 DQ26 Data 26

72 DQ27 DQ27 DQ27 Data 27

73 VDD VDD VDD +5 VDC or +3.3 VDC

74 DQ28 DQ28 DQ28 Data 28

75 DQ29 DQ29 DQ29 Data 29

76 DQ30 DQ30 DQ30 Data 30

77 DQ31 DQ31 DQ31 Data 31

78 VSS VSS VSS Ground

79 CK2 CK2 CK2 Clock signal 2

80 n/c n/c n/c Not connected

81 n/c n/c n/c Not connected

82 SDA SDA SDA Serial Data

83 SCL SCL SCL Serial Clock


84 VDD VDD VDD +5 VDC or +3.3 VDC

Back, Left

Pin Non-Parity 72 ECC? 80 ECC? Description

85 VSS VSS VSS Ground

86 DQ32 DQ32 DQ32 Data 32

87 DQ33 DQ33 DQ33 Data 33

88 DQ34 DQ34 DQ34 Data 34

89 DQ35 DQ35 DQ35 Data 35

90 VDD VDD VDD +5 VDC or +3.3 VDC

91 DQ36 DQ36 DQ36 Data 36

92 DQ37 DQ37 DQ37 Data 37

93 DQ38 DQ38 DQ38 Data 38

94 DQ39 DQ39 DQ39 Data 39

95 DQ40 DQ40 DQ40 Data 40

96 VSS VSS VSS Ground

97 DQ41 DQ41 DQ41 Data 41


98 DQ42 DQ42 DQ42 Data 42

99 DQ43 DQ43 DQ43 Data 43

100 DQ44 DQ44 DQ44 Data 44

101 DQ45 DQ45 DQ45 Data 45

102 VDD VDD VDD +5 VDC or +3.3 VDC

103 DQ46 DQ46 DQ46 Data 46

104 DQ47 DQ47 DQ47 Data 47

105 n/c CB4 CB4 Parity/Check Bit Input/Output 4

106 n/c CB5 CB5 Parity/Check Bit Input/Output 5

107 VSS VSS VSS Ground

108 n/c n/c CB12 Parity/Check Bit Input/Output 12

109 n/c n/c CB13 Parity/Check Bit Input/Output 13

110 VDD VDD VDD +5 VDC or +3.3 VDC

111 /CAS /CAS /CAS Column Address Strobe

112 DQMB4 DQMB4 DQMB4 Byte Mask signal 4

113 DQMB5 DQMB5 DQMB5 Byte Mask signal 5

114 /S1 /S1 /S1 Chip Select 1


115 /RAS /RAS /RAS Row Address Strobe

116 VSS VSS VSS Ground

117 A1 A1 A1 Address 1

118 A3 A3 A3 Address 3

119 A5 A5 A5 Address 5

120 A7 A7 A7 Address 7

121 A9 A9 A9 Address 9

122 BA0 BA0 BA0 Bank Address 0

123 A11 A11 A11 Address 11

124 VDD VDD VDD +5 VDC or +3.3 VDC

125 CK1 CK1 CK1 Clock signal 1

126 A12 A12 A12 Address 12

Back, Right

Pin Non-Parity 72 ECC? 80 ECC? Description

127 VSS VSS VSS Ground

128 CKE0 CKE0 CKE0 Clock Enable Signal 0

129 /S3 /S3 /S3 Chip Select 3


130 DQMB6 DQMB6 DQMB6 Byte Mask signal 6

131 DQMB7 DQMB7 DQMB7 Byte Mask signal 7

132 A13 A13 A13 Address 13

133 VDD VDD VDD +5 VDC or +3.3 VDC

134 n/c n/c CB14 Parity/Check Bit Input/Output 14

135 n/c n/c CB15 Parity/Check Bit Input/Output 15

136 n/c CB6 CB6 Parity/Check Bit Input/Output 6

137 n/c CB7 CB7 Parity/Check Bit Input/Output 7

138 VSS VSS VSS Ground

139 DQ48 DQ48 DQ48 Data 48

140 DQ49 DQ49 DQ49 Data 49

141 DQ50 DQ50 DQ50 Data 50

142 DQ51 DQ51 DQ51 Data 51

143 VDD VDD VDD +5 VDC or +3.3 VDC

144 DQ52 DQ52 DQ52 Data 52

145 n/c n/c n/c Not connected


146 Vref,NC Vref,NC Vref,NC

147 n/c n/c n/c Not connected

148 VSS VSS VSS Ground

149 DQ53 DQ53 DQ53 Data 53

150 DQ54 DQ54 DQ54 Data 54

151 DQ55 DQ55 DQ55 Data 55

152 VSS VSS VSS Ground

153 DQ56 DQ56 DQ56 Data 56

154 DQ57 DQ57 DQ57 Data 57

155 DQ58 DQ58 DQ58 Data 58

156 DQ59 DQ59 DQ59 Data 59

157 VDD VDD VDD +5 VDC or +3.3 VDC

158 DQ60 DQ60 DQ60 Data 60

159 DQ61 DQ61 DQ61 Data 61

160 DQ62 DQ62 DQ62 Data 62

161 DQ63 DQ63 DQ63 Data 63

162 VSS VSS VSS Ground


163 CK3 CK3 CK3 Clock signal 3

164 n/c n/c n/c Not connected

165 SA0 SA0 SA0 Serial address 0

166 SA1 SA1 SA1 Serial address 1

167 SA2 SA2 SA2 Serial address 2

168 VDD VDD VDD +5 VDC or +3.3 VDC

Tarjetas gráficas
Hoy en día todas las tarjetas de vídeo son gráficas e incluyen aceleración por
hardware, es decir, tienen "chips" especializados que se encargan de procesar
la información recibida desde el bus e interpretarla para generar formas,
efectos, texturas, que de otra forma no serían posibles o con peor calidad, o
colapsarían al ordenador y a su bus.

La primera distinción a efectuar es si la tarjeta soporta aceleración 2D, 3D o


ambas. Las tarjetas con aceleración 3D tambien suelen tener soporte para 2D,
pero algunas 3D sólo trabajan como complemento a las 2D, añadiendoles
dicho soporte.

Es muy importante entender que las tarjetas aceleradoras 3D sólo sirven para
juegos y para programas de diseño gráfico 3D que estén preparados para
sacarles partido. Si habitualmente trabajamos con programas ofimáticos tipo
"Office", no obtendremos ningún beneficio de estas nuevas tarjetas.

Productos como el i740 de Intel han permitido poder fabricar tarjetas con
aceleración 2 y 3D en un solo chip y a un precio realmente económico, por lo
estan capacidades se han convertido ya en lo mínimo exigible...

En cuanto al tipo de bus, actualmente sólo encontramos dos estandares, el PCI


y el AGP. Aunque en un principio el segundo todavía no estaba lo
suficientemente bién implementado como para sacarle ventaja al primero, éste
será el único que sobrevivirá en cuanto a la interconexión con la tarjeta gráfica,
si bien el mercado PCI todavía es grande. El apoyo de Intel y las subsiguientes
mejoras que ha sufrido el estándar hasta llegar al actual 4x han hecho que sea
ya pieza obligada en cualquier placa base.

En las tarjetas 2D las más utilizadas en los PC's son las fabricadas por la casa
S3, entre otras cosas porque se hicieron con el mercado OEM. Tenemos toda
la saga de chips Trio: 32, 64, 64V+ y 64V2.

En las tarjetas 3D dicha marca fué de las primeras en ofrecer capacidades 3D


en sus chips Virge, aunque no fueron competitivos con los productos de la
competencia, como los chips de Rendition, 3Dfx, nVidia, NEC (PowerVR), Intel
(i740), etc...

Otro factores a tener en cuenta:

Memoria: En las tarjetas 2D, la cantidad de memória sólo influye en la


resolución y el número de colores que dicha tarjeta es capaz de reproducir. Lo
habitual suele ser 1 ó 2 Megas.

Relación entre memoria y Resoluciónes máximas

Memoria Maximas resoluciónes y colores

512 Kb. 1024x768-16 colores 800x600-256 colores

1024x768-256 640x480-16,7M
1 Mb. 1280x1024-16 colores 800x600-64k colores
colores col.

1280x1024-256 1024x768-64K 800x600-16,7M


2 Mb. idem
colores colores colores

16 colores = 4 bits.
256 colores = 8 bits.
64k = 65.536 colores = 16 bits
16,7 M = 16.777.216 colores = 24 bits.

En cuanto a la programación en 3D, en un inicio, prácticamente cada fabricante


utilizaba su propia API, que es algo así como el "lenguaje" a utilizar para que
los programas se comuniquen con el hardware.

Actualmente sólo sobreviven 3:

Glide, que es la propia de las tarjetas Voodoo de 3dfx y que consiguió


imponerse a las demás gracias a la aceptación de estos chips por su elevado
rendimiento en comparación con otras soluciones.

Direct3D, que es parte de las DirectX de Microsoft.

Open GL. Que es propiedad de Silicon Graphics y que hace ya mucho tiempo
se utilizaba en las estaciones de trabajo de esta marca.
Parece que en un futuro cercano sólo sobrevivirá una de ellas, y ésta no será
más que Direct3D, aunque eso sí, gracias a un acuerdo alcanzado con S.G.
que permitirá fusionar totalmente ambas plataformas (de hecho en las DirectX
6 ya está presente gran parte del API OpenGL).

Glide tenderá a desaparecer, ya que es una solución que sólo se puede


implementar en las tarjetas de 3dfx, y aunque durante mucho tiempo ha sido la
reina, se puede decir que ahora ese honor debe compartirlo...

La tarjeta gráfica (por Mosse) ¡NUEVO!

Procesadores gráficos.

Nuestra sección de software para las tarjetas gráficas.

Características del chip i740 de Intel.

La tarjeta gráfica
La tarjeta gráfica va a permitir que veamos todos
los datos que nos muestre el ordenador.
Dependiendo de la calidad de la misma
Componentes disfrutaremos de mayores velocidades de
refresco (para que la imagen no parpadee),
Medición del
mayor número de cuadros por segundo en los
rendimiento
juegos, efectos tridimensionales o por el contrario,
Chipsets terminará doliéndonos la cabeza por ver como las
ventanas del Windows dejan restos por la pantalla
Fabricantes y porque nuestra tarjeta no puede mostrar gráficos
conclusione
tan rápidamente.
s
Hasta hace poco, las tarjetas se conectaban a un
slot PCI de nuestro ordenador, con lo que
3D alcanzaban los 66 Mhz de velocidad, pero ahora
tenemos el nuevo bus AGP (Accelerated Graphics
Soporte de Port) que en su especificación 1.0 da velocidades
software de 133 Mhz (AGP 1X) y de 266 Mhz (AGP 2X).
Las placas base con chipset 440 LX o BX llevan
Terminología 3D un bus AGP 1.0, al igual que las placas con
chipset VIA VP-3 o MVP-3 para socket 7. Con la
aparición de los próximos chipsets de Intel, los
810 y 820, llegaremos al AGP 4X.

Componentes
Si abrimos el ordenador y sacamos la tarjeta gráfica, veremos que en
su superficie hay una serie de componentes que hacen que funcione
(menos cuando se quema, claro). Evidentemente, la mejor tarjeta es
la que tiene buenos todos sus componentes, pero dependiendo del
uso que le vayamos a dar habrá que elegir unas marcas u otras. Aquí
está la tan ansiada lista de componentes:

· El procesador: El componente básico de la tarjeta. Se va a


encargar de procesar (parece acorde con el nombre) la información
que le llega y convertirla en imágenes. Hay muchas marcas y
modelos de procesadores pero se encontrara una lista de los más
frecuentes en chipsets. Actualmente, los procesadores asumen la
responsabilidad de manejar los gráficos en dos (y muchas veces en
tres) dimensiones, la aceleración de vídeo, liberando así al
procesador para otros cometidos. Pero lo más importante es que la
calidad de nuestra tarjeta no sólo depende de este chip, porque el
resto de los componentes también cuenta .
· La memoria: A diferencia de lo que pasa con la memoria que usa el
procesador del sistema (Pentium , K6, etc.), más memoria no
significa más velocidad necesariamente. Hoy en día , todas las
tarjetas gráficas tienen procesadores de 64 o de 128 bits, pero sólo
trabajan en 64 bits cuando tienen 2 Mb de RAM . El ejemplo más
típico es el de las tarjetas con chip S3 Trio 64 V (ver luego en
chipsets) , uno de los más populares, que se suele entregar con 1 Mb
de RAM. Bueno, pues con otro mega más el rendimiento de la tarjeta
sube entre un 25 (para 256 colores) y un 600 % (para 16 millones de
colores). Si se quiere aceleración 3D, se debera saber que la tarjeta
sólo acelerará las texturas si dispone de 4 Mb de RAM. Con sólo dos,
no se podra más que notar aceleración en el dibujado de polígonos, lo
cual no es mucho.

Además hay diversos tipos de memoria para tarjeta gráfica que


podrán estar o no soportados por nuestro procesador:

1. EDO RAM: Idéntica a la que se describe en la página de la


memoria RAM. Es la más lenta, pero con un procesador rápido esto
da igual. Sólo tiene un puerto de entrada/salida de comunicación con
el procesador por lo que en un momento determinado sólo puede
mandar
o recibir datos.

2. SDRAM: Es igual que la que aparecía en la página ya mencionada.


También es de un sólo puerto, pero es un 40 % más rápida que la
anterior .

3. SGRAM (Synchronous Graphics RAM): Es una memoria de tipo


SDRAM optimizada para gráficos por lo que da un rendimiento algo
mejor (5-10%) que la anterior. También es de un sólo puerto.

4. VRAM (Vídeo RAM): Tiene un puerto de entrada y otro de salida,


por lo que la tarjeta puede estar enviando y recibiendo al mismo
tiempo . Esto la hace idónea para trabajar con muchos colores (a más
colores, más memoria necesitada), pero también es más cara que la
memoria EDO.

5. WRAM: También dispone de doble puerto pero es un 25 % más


rápido que la VRAM , porque dispone de funciones de aceleración en
operaciones de relleno de bloques lo que la hace óptima para
manejar entornos gráficos basados en ventanas (La W es por
Windows).

6. El RAMDAC. Son las siglas de Random Access Memory Digital to


Analog Converter (Convertidor Digital a Analógico de Memoria de
Acceso Aleatorio). Este chip sirve para realizar la conversión de los
datos digitales del color de cada punto a componentes analógicos de
rojo, verde y azul (RGB: red, green, blue) para ser enviados al
monitor. Para saber lo rápido que es, debemos mirar el ancho de
banda del RAMDAC, que se mide en megahercios (igual que la
velocidad del procesador) y que viene dado aproximadamente por
esta fórmula:
Ancho de banda = Pixels en x * Pixels en y * Frecuencia de refresco *
1´5

Por lo tanto, un RAMDAC lento hará que la pantalla no se refresque


suficientemente rápido, produciendo parpadeo y cansando nuestra
vista. Hoy en día, podemos encontrar RAMDAC de hasta 300 MHz.

7. Feature Connector: No lo llevan todas las tarjetas y es un conector


mediante el que podemos instalar sobre nuestra tarjeta módulos para
reproducir MPEG-1 y 2, sintonizador de televisión, capturador de
vídeo, etc.

Además, aquí se tiene una tabla de la cantidad de memoria necesaria para mostrar en
pantalla los colores y resoluciones que se querran, junto con el tamaño de monitor
recomendado para verlo.

Tamaño
Resolución 1 Mb 2 Mb 4 Mb
Monitor
1600x1200 -- 256 65.536 21"
16´7
1280x1024 16 256 19/21"
millones
16´7
1152x882 256 65.536 19/21"
millones
16´7
1024x768 256 65.536 17"
millones
16´7 16´7
800x600 65.536 15"
millones millones
16´7 16´7 16´7
640x480 13/14"
millones millones millones

En realidad el ojo humano no puede distinguir 16´7 millones de


colores pero es sólo una cifra que indica el número de bits que
estamos manejando. Por ejemplo, para 65.536 necesitaremos 16 bits
(2 elevado a 16 es 65.536) . También podemos tener imágenes en 32
bits: 24 bits para los 16´7 millones de color y otros 8 para el canal
alfa (para las transparencias). Pero apenas se percibe el cambio de
16 a 24 bits más que en una diferencia de velocidad en el refresco de
los gráficos si nuestro equipo va justito.
Tener más de 4 MB casi no merece la pena para trabajar en 2D, pero
es muy útil para los juegos, porque así podremos meter más gráficos
simultáneamente en la tarjeta y se verán mejor.

Es recomendable que compremos una tarjeta gráfica "de marca"


porque dispondremos de programas de calidad para que la tarjeta
funcione bajo cualquier sistema operativo con eficacia y acceso a las
actualizaciones vía Internet. Por lo tanto, no se deba mirar sólo el
procesador, porque el resto de los elementos también influyen y una
tarjeta desconocida, si no tiene los programas adecuados no nos
servirá de nada.

Medición del rendimiento


La medición del rendimiento de una tarjeta se debe realizar mediante
programas que testeen la capacidad de la misma en áreas como DOS,
Windows, Vídeo y 3D.

DOS: El rendimiento aquí se suele medir por el programa Chris Dial´s


3D Bench, que en realidad está basado en pruebas bajo VGA
(320x200 y 320x400) y Super VGA (mayores resoluciones). También
se suelen usar como medida algunos juegos como el Quake o
Descent en versiones que no estén diseñadas específicamente para la
tarjeta.

Windows: El estándar en medición bajo Windows es el Wintach, que


mide el rendimiento de la tarjeta en tareas como procesamiento de
textos, dibujado de gráficos y relleno de polígonos . El programa
funciona en Windows 3.1 y 95 . Hoy en día todas las tarjetas incluyen
algún tipo de aceleración de ventanas y relleno de bloques .

Vídeo: Muchas tarjetas gráficas son capaces de mostrar vídeo a


pantalla completa mediante software (también hay algunas que lo
incorporan en el hardware) bien en formato MPEG o AVI mediante los
correspondientes drivers para Windows. En este caso, para comparar
diferentes tarjetas basta con poner el mismo vídeo en dos tarjetas
diferentes y ver dónde hay mayor calidad de imagen y mayor número
de fotogramas por segundo (en el cine son 24). La mayoría de las
tarjetas modernas aceleran MPEG-2 por software, por lo que también
se está convirtiendo en magnitud de medida. Y las de última
generación tienen soporte para MPEG-2 por hardware.
3D: Todavía no está muy claro cómo medir el rendimiento en tres
dimensiones de una tarjeta. Se suelen usar los test del Direct 3D, un
conjunto de librerías incluidas con las Direct X para medir el rellenado
de polígonos y el dibujado de los mismos, pero no es algo muy fiable
porque muchas tarjetas tienen drivers optimizados para estos tests
que luego fallan en otras cosas. Bastante gente usa juegos para
medir el rendimiento de la tarjeta (sin variar los demás elementos del
sistema). Pero mayor información daremos sobre este tema en la
parte de 3D. No sólo hay que mirar la cantidad de imágenes (frames)
por segundo, sino también la calidad de imagen que nos da la tarjeta.
Generalmente, cuantas más funciones 3D acelere la tarjeta, mejor
calidad de imagen tendrá.

Chipsets
Aquí hay una tabla con la mayoría de chips del mercado. Cuantos
más asteriscos tenga en una cosa, mejor.

Aceleraci
Funcion
ó
e
n
s
Memoria 3
3
RAMDA m D
D
C á Aceleraci
xi ó (
Nombre del a
( m n v
chi Bus c
M a e
p e
h y 2 l
l
z ti D o
e
) p c
r
o i
a
d
d
a
a
d
s
)
3Dfx
Voo 135 4 Mb EDO PCI No *** ***
doo
3Dfx 12 Mb
Voo E
135 PCI No **** ***
doo D
2 O
3Dfx 250-300 32 Mb PCI/A **** ***** ****
Voo S
G
doo R
3 A
M
3Dfx Voodoo
Rus PCI/A
203 8 Mb EDO *** ** ***
h
(1)
16 Mb
3Dfx S
Ban G AGP
250 **** **** ***
she R
e A
M
8 Mb
S
G
R
3D Labs
A
Per
M PCI/A
me 230 **** *** ***
o
dia
S
2
D
R
A
M
8 Mb EDO,
S
G
R
A
ATI 3D Rage M
170 PCI *** * ***
II+ o
S
D
R
A
M
8 Mb
S
G PCI/A
ATI Rage Pro 230 **** *** ***
R
A
M
ATI Rage 128 250 16-32 Mb PCI/A ***** **** *****
S
G
R
A
M
64 Mb
R
a
m
b AGP
Glaze 3D ??? ??? ***** *****
u
s
R
A
M
8 Mb EDO
o
Imagine 128 V
220 PCI *** * *
II R
A
M
8 Mb
S
G AGP
Intel i740 203 **** *** ****
R
A
M
Matrox
8 Mb
MG
S
A-
G
106 170/220 PCI **** *** **
R
4SG
A
/116
M
4SG
Matrox
MG 8/16 Mb
A- W
PCI/A
206 220/250 R **** */*** */**
4W/ A
216 M
4W
Matrox G100 250 16 Mb AGP **** No No
S
G
R
A
M
220
(
M
y
s
t
i
q
u
e
)
, 16 Mb
S
2 G AGP
Matrox G200 **** **** ****
5 R
0 A
M
(
M
i
l
l
e
n
i
u
m
)
4 Mb
S
NEC Power D
135 PCI No ** **
VR R
A
M
4 Mb
S
NEC Power
D
PC 170 PCI No *** ***
R
X2
A
M
NEC Power 250 32 Mb AGP **** **** ****
VR S
SG G
R
A
M
Rendition
V10 170 4 Mb EDO PCI *** ** **
00
4 Mb
S
Rendition
G
V21 170 PCI *** *** ***
R
00
A
M
16 Mb
S
Rendition
G
V22 230 PCI *** *** ***
R
00
A
M
4 Mb
S
G PCI/A
Riva 128 230 **** *** ***
R
A
M
8 Mb
S
G AGP
Riva 128 ZX 230 **** *** ***
R
A
M
16 Mb
S
G PCI/A
Riva TNT 250 **** **** ****
R
A
M
Riva TNT 2 300 8-32 Mb AGP ***** ***** *****
S
G
R
A
M
o
S
D
R
A
M
16 Mb
S
G AGP
S3 Savage 250 **** **** ****
R
A
M
S3 Trio 64V+ 135 2 Mb EDO PCI ** No No
S3 Virge 135 4 Mb EDO PCI ** * ***
4 Mb
S
G
R
S3 Virge
A
GX/ 170 PCI ** * ***
M
DX
/
E
D
O
4 Mb
S
S3 Virge GX- G
170 AGP *** ** ***
2 R
A
M
4 Mb
V
S3 Virge VX 220 R PCI *** * ***
A
M
8 Mb
E
D
O
Ticket to
/ PCI/A
Rid 220 **** ** ***
S
e
G
R
A
M
Trident 170 4 Mb PCI *** ** ***
3DI S
ma G
ge R
A
975
M
2 Mb
M
Tseng Labs
D
ET6 135 PCI *** No No
R
000
A
M
Tseng

Fabricantes y conclusiones
Si lo que se quiere es trabajar, cualquier tarjeta con 4 MB vale
perfectamente siempre que tenga un RAMDAC de 200 o más Mhz,
para que no se te canse la vista demasiado a altas resoluciones.

Para programas de gráficos 3D, necesitarás una tarjeta compatible


OpenGL, y las mejores ahora son las Riva TNT (superadas
próximamente por las Riva TNT 2) y las Permedia 2 (aunque pronto
saldrá el Permedia 3). Las Banshee tienen un soporte OpenGL peor y
por ello no son recomendables.

Para jugar, sólo valen dos tarjetas: las Riva TNT (y TNT 2) y las
Voodoo 2 (y próximamente 3). Las dos son buenas. Las Riva rendirán
en 32 bits (más colores), pero no tienen soporte Glide, cosa que sí
tienen las Voodoo. Las Banshee son una solución decente, porque
rendirán en 16 bits y soportan Glide, pero no tienen doble motor de
texturas, cosa que si tienen las Voodoo 2 y 3 y las TNT y TNT 2.
Las ATI Rage 128 son muy parecidas a las TNT, pero más caras

Soporte de software
Evidentemente una tarjeta aceleradora 3D, no sirve de nada si no
hay software que la utilice. Todas las tarjetas tienen un modo propio
para que se las pueda programar: las Mystique tienen el modo MSI y
las tarjetas con chipset Voodoo tienen el 3Dfx's Glide.

Pero, además hay otras formas de programarlas mediante la


utilización de las API o Apliccation Programming Interface (Interfase
para programación de aplicaciones) que son unas herramientas de
programación digamos que estándar.
En realidad, si programamos un juego usando una API concreta,
cualquier acelerador 3D que soporte esa API funcionará
perfectamente. El problema es que no todas las tarjetas soportan
todas las API. El estándar bajo Windows 95 es el Direct 3D, y
actualmente todas las tarjetas con aceleración 3D lo soportan. Por lo
tanto, cualquier juego en 3D que use Direct 3D se verá acelerado con
una de estas tarjetas.

Otra API es OpenGL, unas librerías de programación creadas por


Silicon Graphics para sus estaciones gráficas. Cada vez más tarjetas
(ATI, Voodoo, Millenium, Hercules, etc.) soportan esta API, utilizada
por programas como Lightwave, Softimage o la impresionante versión
de Quake, GLQuake (que usa el motor mini-GL). Estas dos API's
tienen defensores y detractores, pero cada una es mejor para cosas
diferentes. Otras API son Criterion's Renderware, Argonaut's
BRender, QuickDraw 3D Rave, Intel's 3DR y Speedy CGL.

Evidentemente la tarjeta que compremos debe soportar las API que


necesitemos. Sería tonto comprar una que no tenga controladores
para OpenGL si vamos a usar el Lightwave.

Terminología 3D
Con la aparición de estas tarjetas gráficas, ha surgido todo un nuevo
vocabulario. Aquí se tiene una lista de los términos que suelen
aparecer en la propaganda de una tarjeta 3D, pero se podra ver una
lista más detallada en Meristation, en la sección de Hardware, en un
artículo titulado "La guía 3D", hecho por un servidor y otro colega del
GUI.

3D API. Ya mencionadas antes, las API son colecciones de rutinas,


un "libro de recetas", para escribir un programa que soporte un tipo
de hardware o un sistema operativo determinados. Una API 3D
permite a un programador crear software 3D que automáticamente
haga uso de toda la capacidad de un acelerador 3D. La programación
directa del chip de la tarjeta puede ser muy diferente incluso entre
modelos de la misma marca, por lo que esto facilita las cosas.

Bump Mapping. Consiste en darle una textura de rugosidad a un


objeto. Los colores cercanos al negro se convertirán en hendiduras y
los cercanos al blanco, serán protuberancias. Aquí hay un ejemplo
para ver cómo aumenta la calidad de imagen.

Canal alfa (Alpha Blending). Es una técnica que permite crear


objetos transparentes. Normalmente, un píxel que aparece en
pantalla tiene valores de rojo, verde y azul. Si el escenario 3D
permite usar un valor alfa para cada pixel, tenemos un canal alfa. Un
objeto puede tener diferentes niveles de transparencia: por ejemplo,
una ventana de cristal limpia tendría un nivel muy alto de
transparencia (un valor alfa muy bajo), mientras que un cubo de
gelatina podría tener un valor alfa medio. El Alpha Blending es el
proceso de combinar dos objetos en pantalla teniendo en cuenta los
valores alfa. Así sería posible tener un monstruo medio oculto tras un
cubo de gelatina de fresa que estaría teñido de rojo y difuminado. Si
la tarjeta soporta alpha blending por hardware, el programador no
necesita usar una rutina por software más lenta para asegurarse de
que los objetos transparentes se dibujan correctamente.

Niebla y difuminado de profundidad (Depth Cueing). La niebla


hace que los límites del mundo virtual queden cubiertos por un halo.
El Depth Cueing consiste en reducir el color y la intensidad de un
objeto en función de la distancia al observador. Por ejemplo, una bola
roja brillante se verá más oscura cuanto mas lejos.
Estas dos herramientas son útiles para determinar cómo se verá el
horizonte. Permiten al programador crear un mundo 3D sin
preocuparse de extenderlo infinitamente en todas direcciones o de
que los objetos alejados aparezcan brillantes y confundan al
observador ya que con estos efectos se difuminarán en la distancia.
Además, así se consigue que los objetos no surjan de repente cuando
te acercas a ellos.

Glow: le da un halo brillante a un punto de luz u objeto


autoiluminado.

Hilite: Creo que es mejor que lo veáis:


Flare: Refracciones en la lente de la cámara.

Sombreado: Flat (Plano), Gouraud y Texture Mapping


(Mapeado de texturas). La mayoría de objetos 3D están hechos de
polígonos, que deben ser coloreados y rellenados de manera que no
parezcan redes de alambre (wire frames).

El sombreado Flat (plano) es el método más sencillo y rápido y


consiste en que cada polígono se rellena de un color uniforme.Esto da
resultados poco realistas pero es el mejor para paisajes rápidos
donde la velocidad es más importante que el detalle. El sombreado
Gouraud es ligeramente mejor.

Cada punto del polígono tiene un umbral asignado y se dibuja un


degradado de color sobre el polígono, creando un efecto de
sombreado según la luz definida en la escena. Por ejemplo, un
polígono podría ser coloreado con un degradado del rojo brillante al
rojo oscuro.

También está el sombreado Phong que consiste en que además de


que el objeto tenga sombra (como el Gouraud) proyecta su sombra
sobre los demás objetos de la escena. De momento este sombreado
se hace mediante software.

El mapeado de texturas es el método más realista de dibujar un


objeto, y el tipo que los juegos más modernos requieren. Un dibujo o
foto digitalizada se pega al polígono (se mapea según el argot). Esto
permitiría ver el dibujo de unos neumáticos o la pegatina de la
bandera que lleva un avión. Este mapeado se puede hacer con
animaciones o videos además de con imágenes estáticas.

Corrección de perspectiva. Este proceso es necesario para que los


objetos mapeados parezcan realistas. Se trata de un calculo
matemático que asegura que una textura converge correctamente en
las partes de un objeto que están más alejadas del observador.

Esta tarea requiere un uso extensivo del procesador, así que es vital
que un acelerador 3D ofrezca esta característica para conservar el
realismo. Aquí se puede ver una imagen sin corrección de
perspectiva; mirar en las rejillas de los lados y cómo ondulan. Lo
mismo pasa con el techo y el suelo.
Filtrado bilineal y trilineal. Estos dos métodos se emplean para el
mapeado de texturas. El filtrado bilineal, dicho un poco por encima,
pone una textura a un píxel con una media de las imágenes de los
pixels que lo rodean en el eje X e Y. Sin esta técnica, cada píxel
tendría la misma textura que los de alrededor.

Esto es lo que pasa en Doom cuando te acercas a los monstruos, que


se convierten en amasijos de píxels. El filtrado trilineal es más
sofisticado, además de hacer el bilineal con las texturas, hace
interpolación entre dos texturas empleadas para diferentes
distancias, por lo que el cambio de una a otra es mucho más suave.

Filtrado anisotrópico. Cuando un chip hace un filtrado trilineal, lo


hace de toda la escena que tiene que rendir. El filtrado anisotrópico,
sólo lo hace de los objetos que vayan a ser visibles, por lo que
permite escenas más complejas sin pérdida de velocidad.

MIP-mapping (mapeado MIP). Esta técnica de mapeado de


texturas usa múltiples versiones de cada mapa de texturas, cada uno
a diferente nivel de detalle. Cuando el objeto se acerca o se aleja del
observador, el mapa apropiado se aplica. Esto hace que los objetos
tengan un alto grado de realismo y acelera el tiempo de proceso,
permitiendo al programa mapear de forma más simple (con mapas
menos detallados) cuando los objetos se alejan. MIP proviene del
latín Multi in Parvum (muchos en poco).

Z-buffering. Es una técnica para eliminar superficies ocultas, para


que objetos detrás de otros no se muestren. Hacer esto por
hardware, libera a las aplicaciones de software de tener que calcular
el complejo algoritmo "hidden surface removal" (eliminación de
superficies ocultas).

Procesadores gráficos
Voodoo 3 ¡NUEVO!
TNT2 / TNT2 Ultra ¡NUEVO!

Voodoo 3:

3dfx fué la empresa que revolucionó el mercado de las tarjetas


3D con sus chips Voodoo, ofreciendo unas prestaciones nunca
vistas hasta su llegada.

Actualmente ya estamos en su tercera generación de chips, que a pesar de ser


todavía tremendamente rápidos, tienen grandes competidores que ofrecen
velocidades a su nivel, sino mejorándolas.

Con las tarjetas Voodoo todavía pasa lo mismo que con otros grandes
"estándares" como las tarjetas SoundBlaster de Creative, y es que es
prácticamente imposible encontrar un juego o programa 3D que no las pueda
utilizar. Sin embargo, el caso contrario sí nos puede suceder, encontrando
muchos programas que sólo utilizan el API propio de estas tarjetas (el Glide).

Sin embargo, esta situación actualmente ya ha cambiado, pues esta API está
en franca decadencia respecto de los nuevos estándares más abiertos que han
ido apareciendo como las Direct3D.

A diferencia de cuando empezó, 3Dfx no comercializa sus chips, sino que los
utiliza para construir sus propias tarjetas.

Que utilizen este chip podemos encontrar tres modelos, la 2000, la 3000 y la
3500, trabajando a diferentes frecuencias de reloj. El modelo 3500 utiliza
memoria SGRAM, mientras el resto se conforma con SDRAM.

Podemos decir que la Voodoo 3 es una mezcla de la Voodoo 2 con la Banshee,


eso sí, a más megaherzios, por lo que sus características técnicas no llegan a
estar a la altura de algunas de sus contrincantes como la TNT2, aún siendo
una opción todavía válida por su rapidez sobretodo en máquinas algo antiguas.

Especificaciones de la gama Voodoo 3 2000 / 3000 / 3500


Nº bits 128
Tecnología 0,25 µ
Freq. Procesador 143 / 166 / 183 Mhz.
memoria máxima 16 MB
Ancho de banda memoria 2,9 GB/seg.
Profundidad de color render 16 bits
Freq. RAMDAC 300 / 350 Mhz.
Tamaño máx. textura 256 x 256 pixels
Triangulos x segundo 6 / 7 / 8 millones
Pixels x segundo 286 / 333 / 366
Resolución máxima 2.046 x 1.536
DirectX Si
OpenGL Si
Glide Si
Alpha Blending Si
Optimizado 3DNow No
Optimizado PIII No
AGPx4 No
PCI Si (la 2000)

Información "oficial" de la web de 3dfx.

TNT 2 / TNT 2 Ultra:

Este es uno de los mejores chips que podemos encontrar hoy día. nVIDIA no
fabrica tarjetas gráficas, por lo que sólo suministra sus procesadores para que
otros los utilizen en sus productos finales.

Básicamente la única diferencia que podemos encontrar en ambos productos


es su frecuencia de trabajo, que es menor en la TNT 2 "normal". Por otro lado,
nVIDIA deja a criterio del integrador la velocidad final de la Ultra, que partiendo
de los 150 Mhz es capaz de llegar hasta los 183 Mhz, con lo que las
prestaciones pueden mejorar bastante respecto de las especificaciones
"básicas" descritas para ella en la tabla.
Especificaciones de la gama TNT2 / TNT2 Ultra
Nº bits 128
Tecnología 0,25 µ
Freq. Procesador 125 / 150
memoria máxima 32 MB
Ancho de banda memoria 2,9 GB/seg.
Profundidad de color render 32 bits
Freq. RAMDAC 300 Mhz.
Tamaño máx. textura 2048 x 2048 pixels
Triangulos x segundo 7,5 / 9 millones
Pixels x segundo 250 / 300
Resolución máxima 2.048 x 1.536
DirectX Si
OpenGL Si
Glide No
Alpha Blending Si
Optimizado 3DNow Si
Optimizado PIII Si
AGPx4 Si
PCI No

Algunos fabricantes que utilizan chips TNT2 en sus productos son:

Asus.
Creative Labs.
Diamond.
Elsa.
Guillemot.
Hercules.
Leadtek.
Microstar.

Discos
En el mundo del PC hay dos grandes estándares, IDE y
SCSI, aunque el primero está mucho más extendido que
el segundo, la tecnología SCSI está presente en otras muchas plataformas,
como los Mac , sistemas Unix, AS/400, etc...

Los dos estándares han ido sufriendo a lo largo del tiempo distintas
implementaciones para intentar seguir el ritmo marcado por otros componentes
cada vez más rápidos, como los procesadores.

Parámetros a tener en cuenta:

Capacidad: Aconsejable que sea a partir de 2,1 Gbytes en adelante.

Tiempo de acceso: Importante. Este parámetro nos indica la capacidad para


acceder de manera aleatoria a cualquier sector del disco.

Velocidad de Transferencia: Directamente relacionada con el interface.


En un dispositivo Ultra-2 SCSI es de 80 MBytes/seg. mientras que en el Ultra
DMA/33 (IDE) es de 33,3 MBytes/seg. en el modo DMA-2. Esta velocidad es la
máxima que admite el interface, y no quiere decir que el disco sea capaz de
alcanzarla.

Velocidad de Rotación: Tal vez el más importante. Suele oscilar entre las
4.500 y las 7.200 rpm (revoluciones por minuto).

Caché de disco: La memoria caché implementada en el disco es importante,


pero más que la cantidad es importante la manera en que ésta se organiza. Por
ello este dato normalmente no nos da por si solo demasiadas pistas. Son
normales valores entre 64 y 256 Kb.

El interface:

IDE:

Cronologicamente, y empezando por el primero no encontramos con los


primeros discos IDE con su limitación a 528 Mb. y pudiendo solo conectar
hasta 2 de ellos.

Después vinieron los discos EIDE (FastATA), desarrollados por la compañía


Western Digital,compatibles con los primeros, pero con algunas mejoras,
basadas en la especificación ATA-2, que ya soporta unidades de CD-ROM
(ATAPI) y de cinta.
Otra mejora importante es el soporte de 2 canales para conectar hasta 4
unidades.
Además se definen varios modos de transferencia de datos, que llegan hasta
los 16,6 Mb./seg. como el PIO-4, o mejor aún el DMA-2, que soporta la misma
tasa pero sin intervención de la CPU.

La última especificación, desarrollada por Quantum es la Ultra DMA/33


(UltraATA), que permite transferencias DMA a 33 Mb./seg.

SCSI:
En el caso de los discos SCSI, tenemos el primero, llamado SCSI-1, con un
ancho de bus de 8 bits, aunque ya en esta primera especificación se incluian
características muy destacadas, como la posibilidad de conectar hasta 7
dispositivos de todo tipo, discos, cinas, escáners, CD-ROM, etc...

Después viene el SCSI-2, que ya dispone de un ancho de bus de 16 bits. El


siguiente paso es el Fast-SCSI, considerado el doble de rápido. Después viene
el Wide SCSI, ya con un ancho de bus de hasta 32 bits, así como un mayor
rendimiento.

Instalación de varios dispositivos:

En el caso de querer instalar más de un dispositivo IDE, hay que tener en


cuenta algunos detalles muy importantes.

En las controladoras EIDE, disponemos de dos canales IDE independientes,


con lo que podemos llegar a instalar hasta cuatro dispositivos, dos por canal. El
primer dispositivo de cada canal se conoce como "master" (maestro) y el
segundo como "slave" (esclavo).

En un canal cualquiera, sólo un dispositivo puede hacerse con el control del


bus, es decir, no pueden utilizar el bús concurrentemente, con lo que si
ponemos dos discos en el mismo canal, estos se "pelearan" por él, y el
rendimiento de ambos bajará notablemente.

En el caso de tener sólo dos dispositivos, se deberán poner a ambos como


"maestros", uno en cada canal, es decir, conectaremos un cable a cada disco, y
cada cable irá a un conector en la placa base.
Es aconsejable que es disco más rápido sea colocado en el primer canal
(Primario), pués aparte de ser el disco que arranca el sistema operativo, es
donde, normalmente, está ubicado el archivo de intercambio de la memoria
virtual, con lo que el rendimiento general del equipo aumentará.

Si tenemos dos discos y un CD-ROM, el CD-ROM se colocará como "esclavo"


del segundo canal (secundario). Esto es así porque normalmente el segundo
disco tendrá menos actividad que el primero (recordemos que Windows y otros
sistemas operativos hacen un uso intensivo del archivo de intercambio).

Para poder configurar el disco como maestro o como esclavo necesitaremos


saber la posición exacta de unos puentes o "jumpers" que normalmente todos
los discos poseen. Por desgracia, cada fabricante utiliza su propio criterio.
En la mayoría de los casos, disponemos de 3 puentes, serigrafiados como SP,
DS y CS, y en este caso, quitaremos todos los puentes para modo esclavo, y
colocaremos uno sólo en "DS" para maestro.
En otro caso, deberemos consultar el manual si disponemos de él , o fijarnos
en la serigrafía, o en todo caso, acudir a la página web del fabricante (ver
sección links).
En el caso de disponer de una controladora y dispositivos SCSI, ninguna de
estas precauciones es necesaria. Pues SCSI soporta hasta 6 dispositivos
concurrentemente (o 14 en los modelos más modernos).

En casi todas las placas 486 y en algunas Pentium antiguas, existe un límite
de 528 MB. impuesto por la BIOS, si a tu placa le ocurre esto, acude a nuestra
sección de Software y bájate el EZ-Drive. Para más información consulta la
sección de Trucos (el nº 5).

Análisis en profundidad:

Prueba de la controladora PCI IDE Abit Hot Rod 66.

Tutorial sobre los discos duros, las controladoras y su historia (por Alberto
Cobo, Pablo García-Rodeja y Héctor González)

Nuestra sección de software para discos

Discos duros y controladoras


(por Alberto Cobo, Pablo García-Rodeja y Héctor González)

Introducción

Unidad de disco duro

Controladoras

Distribución de la información: Grabación y Acceso

Tiempos de Acceso, velocidades y su medición

Ultimas tecnologías y tendencias

Estructuras lógicas de los discos duros

Ventajas e inconvenientes frente a otros sistemas de


almacenamiento
Introducción
Los discos duros pertenecen a la llamada memoria secundaria o
almacenamiento secundario. Al disco duro se le conoce con gran cantidad de
denominaciones como disco duro, rígido (frente a los discos flexibles o por su
fabricación a base de una capa rígida de aluminio), fijo (por su situación en el
ordenador de manera permanente), winchester (por ser esta la primera marca
de cabezas para disco duro). Estas denominaciones aunque son las habituales
no son exactas ya que existen discos de iguales prestaciones pero son
flexibles, o bien removibles o transportables, u otras marcas diferentes
fabricantes de cabezas.

Las capacidades de los discos duros varían desde 10 Mb. hasta varios Gb. en
minis y grandes ordenadores. Para conectar un disco duro a un ordenador es
necesario disponer de una tarjeta controladora. La velocidad de acceso
depende en gran parte de la tecnología del propio disco duro y de la tarjeta
controladora asociada al discos duro.

Estos están compuestos por varios platos, es decir varios discos de material
magnético montados sobre un eje central sobre el que se mueven. Para leer y
escribir datos en estos platos se usan las cabezas de lectura/escritura que
mediante un proceso electromagnético codifican / decodifican la información
que han de leer o escribir. La cabeza de lectura/escritura en un disco duro está
muy cerca de la superficie, de forma que casi vuela sobre ella, sobre el colchón
de aire formado por su propio movimiento. Debido a esto, están cerrados
herméticamente, porque cualquier partícula de polvo puede dañarlos.

Unidades de disco
Los discos duros se presentan recubiertos de una capa magnética delgada,
habitualmente de óxido de hierro, y se dividen en unos círculos concéntricos
cilindros (coincidentes con las pistas de los disquetes), que empiezan en la
parte exterior del disco (primer cilindro) y terminan en la parte interior (último).
Asimismo estos cilindros se dividen en sectores, cuyo número esta
determinado por el tipo de disco y su formato, siendo todos ellos de un tamaño
fijo en cualquier disco. Cilindros como sectores se identifican con una serie de
números que se les asignan, empezando por el 1, pues el numero 0 de cada
cilindro se reserva para propósitos de identificación mas que para
almacenamiento de datos. Estos, escritos/leídos en el disco, deben ajustarse al
tamaño fijado del almacenamiento de los sectores. Habitualmente, los sistemas
de disco duro contienen más de una unidad en su interior, por lo que el número
de caras puede ser más de 2. Estas se identifican con un número, siendo el 0
para la primera. En general su organización es igual a los disquetes. La
capacidad del disco resulta de multiplicar el número de caras por el de pistas
por cara y por el de sectores por pista, al total por el número de bytes por
sector.

Para escribir, la cabeza se sitúa sobre la celda a grabar y se hace pasar por
ella un pulso de corriente, lo cual crea un campo magnético en la superficie.
Dependiendo del sentido de la corriente, así será la polaridad de la celda. ara
leer, se mide la corriente inducida por el campo magnético de la celda. Es decir
que al pasar sobre una zona detectará un campo magnético que según se
encuentre magnetizada en un sentido u otro, indicará si en esa posición hay
almacenado un 0 o un 1. En el caso de la escritura el proceso es el inverso, la
cabeza recibe una corriente que provoca un campo magnético, el cual pone la
posición sobre la que se encuentre la cabeza en 0 o en 1 dependiendo del
valor del campo magnético provocado por dicha corriente.

Los componentes físicos de una unidad de disco duro son:

 CABEZA DE LECTURA / ESCRITURA: Es la


parte de la unidad de disco que escribe y lee los
datos del disco. Su funcionamiento consiste en una
bobina de hilo que se acciona según el campo
magnético que detecte sobre el soporte magnético,
produciendo una pequeña corriente que es
detectada y amplificada por la electrónica de la
unidad de disco.
 DISCO: Convencionalmente los discos duros
están compuestos por varios platos, es decir varios
discos de material magnético montados sobre un eje
central. Estos discos normalmente tienen dos caras
que pueden usarse para el almacenamiento de
datos, si bien suele reservarse una para almacenar
información de control.

 EJE: Es la parte del disco duro que actúa como


soporte, sobre el cual están montados y giran los
platos del disco.

 IMPULSOR DE CABEZA: Es el mecanismo que


mueve las cabezas de lectura / escritura radialmente
a través de la superficie de los platos de la unidad
de disco.

Mientras que lógicamente la capacidad de un disco duro puede ser medida


según los siguientes parámetros:

 CILINDRO: Es una pila tridimensional de pistas


verticales de los múltiples platos. El número de
cilindros de un disco corresponde al número de
posiciones diferentes en las cuales las cabezas de
lectura/escritura pueden moverse.

 CLUSTER: Es un grupo de sectores que es la


unidad más pequeña de almacenamiento
reconocida por el DOS. Normalmente 4 sectores de
512 bytes constituyen un Cluster (racimo), y uno o
más Cluster forman una pista.
 PISTA: Es la trayectoria circular trazada a través
de la superficie circular del plato de un disco por la
cabeza de lectura / escritura. Cada pista está
formada por uno o más Cluster.

 SECTOR: Es la unidad básica de almacenamiento


de datos sobre discos duros. En la mayoría de los
discos duros los sectores son de 512 Bytes cada
uno, cuatro sectores constituyen un Cluster.

Otros elementos a tener en cuenta en el funcionamiento de la unidad es el


tiempo medio entre fallos, MTBF (Mean Time Between Failures), se mide en
horas (15000, 20000, 30000..) y a mayor numero mas fiabilidad del disco, ya
que hay menor posibilidad de fallo de la unidad. Otro factor es el AUTOPARK o
aparcamiento automático de las cabezas, consiste en el posicionamiento de las
cabezas en un lugar fuera del alcance de la superficie del disco duro de
manera automático al apagar el ordenador, esto evita posibles daños en la
superficie del disco duro cuando la unidad es sometida a vibraciones o golpes
en un posible traslado.

Controladoras
El interface es la conexión entre el mecanismo de la unidad de disco y el bus
del sistema. El interface define la forma en que las señales pasan entre el bus
del sistema y el disco duro. En el caso del disco, su interface se denomina
controladora o tarjeta controladora, y se encarga no sólo de transmitir y
transformar la información que parte de y llega al disco, sino también de
seleccionar la unidad a la que se quiere acceder, del formato, y de todas las
órdenes de bajo nivel en general. La controladora a veces se encuentra dentro
de la placa madre.

Se encuentran gobernados por una controladora y un determinado interface


que puede ser:

· ST506: Es un interface a nivel de dispositivo; el


primer interface utilizado en los PC’s. Proporciona
un valor máximo de transferencia de datos de
menos de 1 Mbyte por segundo (625k por segundo
con codificación MFM, y 984k por segundo con
codificación RLL). Actualmente esta desfasado y ya
no hay modelos de disco duro con este tipo de
interface.

· ESDI: Es un interface a nivel de dispositivo


diseñado como un sucesor del ST506 pero con un
valor más alto de transferencia de datos (entre 1,25
y 2.5 Mbytes por segundo).Ya ha dejado de
utilizarse este interface y es difícil de encontrar.

· IDE: Es un interface a nivel de sistema que cumple


la norma ANSI de acoplamiento a los AT y que usa
una variación sobre el bus de expansión del AT (por
eso también llamados discos tipo AT) para conectar
una unidad de disco a la CPU, con un valor máximo
de transferencia de 4 Mbytes por segundo. En
principio, IDE era un término genérico para cualquier
interface a nivel de sistema. La especificación inicial
de este interface está mal definida. Es más rápida
que los antiguos interfaces ST506 y ESDI pero con
la desaparición de los ATs este interface
desaparecerá para dejar paso al SCSI y el SCSI-2.

Íntimamente relacionado con el IDE, tenemos lo que


se conoce como ATA, concepto que define un
conjunto de normas que deben cumplir los
dispositivos. Años atrás la compañía Western Digital
introdujo el standard E-IDE (Enhanced IDE), que
mejoraba la tecnología superando el límite de
acceso a particiones mayores de 528 Mb. y se
definió ATAPI, normas para la implementación de
lectores de CD-ROM y unidades de cinta con
interfaz IDE. E-IDE se basa en el conjunto de
especificaciones ATA-2. Como contrapartida
comercial a E-IDE, la empresa Seagate presento el
sistema FAST-ATA-2, basado principalmente en las
normas ATA-2. En cualquier caso a los discos que
sean o bien E-IDE o FAST-ATA, se les sigue
aplicando la denominación IDE como referencia.

Para romper la barrera de los 528 Mb. las nuevas


unidades IDE proponen varias soluciones:

* El CHS es una traducción entre los parámetros


que la BIOS contiene de cilindros, cabezas y
sectores (ligeramente incongruentes) y los incluidos
en el software de sólo lectura (Firmware) que
incorpora la unidad de disco.

* El LBA (dirección lógica de bloque), estriba en


traducir la información CHS en una dirección de 28
bits manejables por el sistema operativo, para el
controlador de dispositivo y para la interfaz de la
unidad.

Debido a la dificultad que entraña la implemetación


de la compatibilidad LBA en BIOS, muchos de los
ordenadores personales de fabricación más reciente
continúan ofreciendo únicamente compatibilidad con
CHS. El techo de la capacidad que permite las
solución CHS se sitúa en los 8,4 Gb, que por el
momento parecen suficientes.

· SCSI: Es un interface a nivel de sistema, diseñado


para aplicaciones de propósito general, que permite
que se conecten hasta siete dispositivos a un único
controlador. Usa una conexión paralela de 8 bits que
consigue un valor máximo de transferencia de 5
Mbytes por segundo. Actualmente se puede oír
hablar también de SCSI-2 que no es más que una
versión actualizada y mejorada de este interface. Es
el interface con más futuro, si bien tiene problemas
de compatibilidad entre las diferentes opciones de
controladoras, discos duros, impresoras, unidades
de CD-ROM y demás dispositivos que usan este
interface debido a la falta de un estándar
verdaderamente sólido.

Las mejoras del SCSI-2 sobre el SCSI tradicional


son el aumento de la velocidad a través del bus,
desde 5 Mhz a 10 Mhz, duplicando de esta forma el
caudal de datos. Además se aumenta el ancho del
bus de 8 a 16 bits, doblando también el flujo de
datos. Actualmente se ha logrado el ancho de 32
bits, consiguiendo velocidades teóricas de hasta 40
Mbytes / seg.

Los interfaces IDE y SCSI llevan la electrónica del controlador en el disco, por
lo que el controlador realmente no suele ser mas que un adaptador principal
para conectar el disco al PC. Como se puede ver unos son interfaces a nivel de
dispositivo y otros a nivel de sistema, la diferencia entre ambos es:

· INTERFACE A NIVEL DE DISPOSITIVO: Es un


interface que usa un controlador externo para
conectar discos al PC. Entre otras funciones, el
controlador convierte la ristra de datos del disco en
datos paralelos para el bus del microprocesador
principal del sistema. ST506 y ESDI son interfaces a
nivel de dispositivo.

· INTERFACE A NIVEL DE SISTEMA: Es una


conexión entre el disco duro y su sistema principal
que pone funciones de control y separación de
datos sobre el propio disco (y no en el controlador
externo), SCSI e IDE son interfaces a nivel de
sistema.
Distribución de la información:
Grabación y acceso
Para grabar información en la superficie, se siguen una serie de códigos, que
transforman un patrón de bits en una secuencia de celdas con diferentes
estados de magnetización.

Procesos de grabación

· GCR (Group Coding Recording - Codificación de


grupo de grabación) Es un proceso de
almacenamiento en el que los bits se empaquetan
como grupos y son almacenados bajo un
determinado código. Es utilizado por los discos que
utilizan codificación RLL.

· ZBR (ZoneBit Recording) Es un proceso de


almacenamiento que coloca más sectores sobre las
pistas exteriores del disco que son más largas, pero
mantienen un valor constante de rotación. Esta
diseñado para colocar más datos sobre el disco,
sólo puede usarse con interfaces inteligentes.

Proceso de Codificación

· FM: Es la codificación más sencilla, consiste en la


grabación de un cambio de flujo para cada uno , y el
omitir el cambio de flujo para cada cero. Este
procedimiento se puede realizar con una electrónica
de control relativamente simple, pero tiene el
inconveniente de que cada bit de datos consume
dos cambios de flujo, limitando mucho la capacidad
del disco.

· MFM (Modified Frequency Modulation -


Modulación de frecuencia modificada) Método de
codificación magnética de la información que crea
una correspondencia 1 a 1 entre los bits de datos y
transiciones de flujo (cambios magnéticos) sobre un
disco. Emplea una menor densidad de
almacenamiento y presenta una velocidad más baja
de transferencia que el RLL.

Esta tecnología es usada en los discos flexibles y en


los primeros discos duros. Cada bit de datos es
almacenado sobre una región física lo
suficientemente grande para contener 2 posibles
posiciones 00, 01 ó 10. Entre cada 2 bits de datos
hay un bit que se llama de "reloj" y que se usa para
validar las lecturas, así como para sincronizarlas.
Este bit hace que sea uno cuando está situado entre
2 bits de datos a cero y se hace cero cuando está
situado entre cualquier otra combinación de bits de
datos. Así se hace imposible que se puedan leer
más de 3 bits consecutivos con un valor de cero, o
mas de un bit seguido a uno. Esto es cierto para
todas las informaciones almacenadas en el disco
excepto para las áreas de control del mismo cuyas
marcas de comienzo de pista, sector y datos tienen
4 bits consecutivos a cero en su "adress mark".
Evidentemente, estos sistemas, aunque fiables, son
unos grandes consumidores de espacio ya que
emplean prácticamente la mitad del espacio en bits
de reloj.

· RLL: (Run Length Limited - Longitud recorrido


limitado) Método de codificar la información
magnéticamente que usa GCR para almacenar
bloques en vez de bits individuales de datos.
Permite densidades mayores de almacenamiento y
velocidades mas altas de transferencia que MFM.
En la práctica, permite incrementar en un 50% la
capacidad de un disco respecto al sistema de
grabación MFM. Los métodos de grabación RLL
utilizan un conjunto complejo de reglas para
determinar el patrón de pulsos para cada bit basado
en los valores de los bits precedentes. Este sistema
se puede clasificar dependiendo de la distancia
máxima y mínima de silencios entre dos pulsos, por
ejemplo; el RLL 2,7 tiene una distancia mínima entre
pulsos de 2 silencios y una máxima de 7.

Interleave, Track Skewing y Cyllinder Skewing

El Interleaving o espaciamiento es un método de distribuir los sectores del


disco para compensar la lentitud de transferencia de datos al procesador
central. Con este sistema los sectores no son colocados consecutivamente.
Esta forma de espaciar los datos sobre la unidad de disco evita las rotaciones
adicionales que de otra manera serían necesarias para que la cabeza se
colocará sobre los datos sucesivos. Con esto se consigue que, después de un
sector lógico pasen unos cuantos sectores adicionales por delante del cabezal,
hasta que aparezcan justo el buscado. El tiempo necesario para la rotación de
una cabeza sobre los sectores siguientes se emplea para mandar los datos al
procesador o desde él en caso de una operación de escritura.
Esto se mide en el llamado factor de interleave, que designa la cantidad de
sectores en el cual se han desplazado los números de sector lógico con
respecto a los números verdaderos (físicos). El número de vueltas necesarias
para leer la pista completa indica este factor, si hacen falta 3 vueltas para leer
una pista entera tendrá un factor de 3:1. Este factor ha ido bajando hasta el 1:1,
esto es, los sectores están organizados consecutivamente y el ordenador y el
disco duro se encuentran sincronizados para leer todos los sectores de una
pista de una sola vez, con lo que velocidad y rendimiento son óptimos.

Una codificación adecuada de los números de sector lógicos no sale a cuenta


referido a la lectura secuencial de una pista. Ya que después de leer una pista,
habitualmente sigue el acceso al siguiente cilindro. Pero de eso se encarga ya
el sistema operativo, que en su numeración de sectores primero pasa por todos
los diferentes cilindros de una pista, antes de cambiar al siguiente cilindro. Ya
que el cambio de un cilindro a otro sólo necesita una breve conmutación del
cabezal correspondiente, mientras que el acceso a otra pista implica un
posicionamiento de brazo completo de lectura/escritura lo que consume mucho
más tiempo.

A pesar de todo, incluso la conmutación del cabezal necesita algo de tiempo,


en ese tiempo el disco duro sigue girando. Si se acaba de leer el último sector
de un cilindro, el primer sector del siguiente cilindro ya ha pasado por debajo
del cabezal, de modo que es necesaria casi una vuelta completa, antes de que
pueda realizarse el acceso.

Para evitar esto, también entre las pistas de un cilindro se realiza una especie
de interleaving, que se denomina CILINDER SKEWING. Los sectores en las
diferentes pistas de un cilindro se desplazan de forma que, a pesar de
conmutar al siguiente cabezal, se pueda leer inmediatamente el primer sector
de la primera pista del siguiente cilindro.
Aparte de esto, existe también el TRACK SKEWING, que trabajo según el
mismo principio , pero tiene en cuenta el tiempo que se necesita para mover el
bazo completo hasta la siguiente pista.

Todos estos factores se ajustan durante el formateo de bajo nivel del disco
duro, aunque algunos de ellos puede ser modificado con posterioridad.

Datos de control del disco

Es casi imposible evitar impurezas en la superficie magnética del disco, esto


provoca que existan determinados sectores que son defectuosos.

En los antiguos discos estos sectores venían apuntados por el control de


calidad del fabricante del disco. En el formateo de bajo nivel, el usuario debería
indicárselos al programa formateador. En los modernos, las direcciones de
estos sectores se graban en pistas especiales o se reconocen durante el
formateo a bajo nivel del disco, estos sectores se saltan o bien son sustituidos
por otros que están en zonas protegidas. Es allí donde se guardan las tablas
que marcan los sectores defectuosos y sus sustituciones. Esto disminuye el
acceso al disco duro, pero teniendo en cuenta que el porcentaje de sectores
defectuosos es mínimo, prácticamente no tiene importancia.

Hay que tener en cuenta que no toda la información que se encuentra en la


superficie de los discos son datos, existen zonas donde se almacena
información de control.

Entre la información que se encuentran dentro de un sector:


 Numero de sector y cilindro

 El ECC (Error Correction Code) DATA.

 La zona de datos

 Zonas de separación entre zonas o entre pistas

También existen pistas extra donde se recogen otras informaciones como:

 Pistas "servo" donde se guardan cambios de flujo según un esquema


determinado, para la sin-
cronización al pulso de datos, necesario para la correcta compresión de las
informaciones en RLL.

 Pistas de reserva, normalmente usadas como reserva de sectores


defectuosos.

 Pistas de aparcamiento, usadas para retirar los cabezales evitando así


choques del cabezal con
la superficie con datos ante vibraciones o golpes de la unidad.

Tiempos de acceso,
velocidades y su medición
Existen una serie de Factores de Velocidad relacionados con los discos duros
que son necesarios conocer para comprender su funcionamiento y sus
diferencias.

· Tiempo de búsqueda de pista a pista : intervalo


de tiempo necesario para desplazar la cabeza de
lectura y escritura desde una pista a otra adyacente.

· Tiempo medio de acceso : tiempo que tarda,


como media, para desplazarse la cabeza a la
posición actual. Este tiempo promedio para acceder
a una pista arbitraria es equivalente al tiempo
necesario para desplazarse sobre 1/3 de las pistas
del disco duro. El antiguo IBM PC/XT utilizaba
discos de 80 a 110 milisegundos, mientras que los
AT usaban discos de 28 a 40 milisegundos, y los
actuales sistemas 386, 486 y PENTIUMÒ usan
discos de menos de 20 milisegundos.
· Velocidad de Rotación: Número de vueltas por
minuto (RPM) que da el disco.

· Latencia Promedio : Es el promedio de tiempo


para que el disco una vez en la pista correcta
encuentre el sector deseado, es decir el tiempo que
tarda el disco en dar media vuelta. Velocidad de
transferencia : velocidad a la que los datos (bits)
pueden transferirse desde el disco a la unidad
central. Depende esencialmente de dos factores : la
velocidad de rotación y la densidad de
almacenamiento de los datos en una pista

3600 rpm = 1 revolución cada 60/3600 segundos (16,66 milisegundos)

Si calculamos el tiempo de ½ vuelta --> Latencia Promedio 8,33 milisegundos

Una comparativa entre un disquete y un disco duro de todos estos Factores mencionados
anteriormente sería:

T.Pista T.MAcceso Rotación Latencia V.Transfrencia


FD 6-12 mls 93 mls 300 rpm 100 mls 125-250 Kb / seg
360k 3600 1-5 Mb / seg
8-10 mls 40-28 mls rpm 8,3 mls
HD AT
30

El tiempo de búsqueda depende del tamaño de la unidad (2", 3"½, 5"¼), del
número de pistas por pulgada (que a su vez depende de factores como el
tamaño de los dominios magnéticos) y de la velocidad y la precisión de los
engranajes del cabezal. La latencia depende de la velocidad de rotación y
equivale a la mitad del tiempo que tarda el disco en describir un giro completo.
El rendimiento total también depende de la disposición de los dominios
magnéticos, uso de ZBR.

Para mejorar el tiempo de acceso se reduce esa latencia acelerando la rotación


del disco o velocidad de eje. Hace unos años todos los discos duros giraban a
la misma velocidad unos 3600 rpm, la latencia resultante era de 8,3
milisegundos. Hoy las unidades de disco más rápidas para PC giran a 5400
rpm (un 50% más rápidas) y por tanto su latencia es de 5,6 milisegundos.
Algunos discos siguen usando los 3600 rpm para consumir menos energía.

RPM 1 Vuelta cada Latencia


3600 16,66 mseg. 8,33 mseg.
4500 13,33 mseg. 6,66 mseg.
5400 11,11 mseg. 5,55 mseg.
7200 8,33 mseg. 4,16 mseg.
10000 6,00 mseg. 3,00 mseg.

El trabajar a velocidades elevadas plantea varios problemas: El primer


problema es que a esta velocidad la disipación del calor se concierte en un
problema. El segundo es que exige a usar nuevos motores articulados pro
fluidos para los engranajes, los actuales motores de cojinetes no pueden
alcanzar estas velocidades sin una reducción drástica de fiabilidad, se
quemarían demasiado rápido.

Además de todas estas características de velocidades y tiempos de acceso de


los discos duros existen una serie de técnicas que nos permiten aminorar los
accesos a disco así como acelerar las transferencias de datos entre el sistema
y el dispositivo en cuestión. Una de las técnicas más conocidas en la
informática para hacer esto es la del uso de memorias intermedias, buffers o
cachés.

· Buffer De Pista: Es una memoria incluida en la


electrónica de las unidades de disco, que almacena
el contenido de una pista completa. Así cuando se
hace una petición de lectura de una pista, esta se
puede leer de una sola vez, enviando la información
a la CPU, sin necesidad de interleaving.

· Cachés De Disco: Pueden estar dentro del propio


disco duro, en tarjetas especiales o bien a través de
programas usar la memoria central. La gestión de
esta memoria es completamente invisible y consiste
en almacenar en ella los datos más pedidos por la
CPU y retirar de ella aquellos no solicitados en un
determinado tiempo. Se usan para descargar al
sistema de las lentas tareas de escritura en disco y
aumentar la velocidad.

Aparte de la velocidad del disco duro y de la controladora la forma en que se


transfieren los datos de ésta a la memoria deciden también la velocidad del
sistema. Se pueden emplear 4 métodos:

· Programed I/O (Pio Mode): La transferencia de


datos se desarrolla a través de los diferentes puerto
I/O de la controladora que también sirven para la
transmisión de comandos (IN / OUT). La tasa de
transferencia está limitada por los valores del bus
PC, y por el rendimiento de la CPU. Se pueden
lograr transferencias de 3 a 4 Mbytes. Con el modo
de transferencia PIO 4, que es el método de acceso
que actualmente utilizan los discos más modernos,
es posible llegar a tasas de transferencia de 16,6
Mbytes / seg.

· Memory mapped I/O: La CPU puede recoger los


datos de la controladora de forma más rápida, si los
deja en una zona de memoria fija, ya que entonces
se puede realizar la transferencia de los datos a una
zona de memoria del programa correspondiente con
la introducción MOV, más rápida que los accesos
con IN y OUT. El valor teórico máximo es de 8
Mbytes / seg.

· DMA: Es la transferencia de datos desde el disco a


la memoria evitando pasar por la CPU. La ventaja
de usar el DMA es que se libera al procesador para
trabajar en otras tareas mientras las transferencias
de datos se realizan por otro lado. El DMA además
de ser inflexible es lento, no se puede pasar de más
de 2 Mb. por segundo.

· Bus Master DMA: En esta técnica la controladora


del disco duro desconecta la controladora del bus y
transfiere los datos con la ayuda de un cotrolador
Bus Master DMA con control propio. Así se pueden
alcanzar velocidades de 8 a 16 Mb. por segundo.

Ultimas tecnologías y tendencias


La aceleración del los nuevos disco IDE se basan en dos métodos:

· Con el control de flujo a través de IORDY (en


referencia a la línea de bus ATA " Canal de e/s
preparado" se acelera el control PIO. Gracias al
control de flujo, la parte electrónica de la unidad de
disco puede regular las funciones de transferencia
de datos del microprocesador, y el disco duro puede
comunicarse con el bus a mayor velocidad de
manera fiable. El standard PIO modo 3 tiene una
transferencia teórica máxima de 11,1 Mbytes / seg.,
el nuevo PIO modo 4 de 16,6 Mbytes, y el futuro
PIO modo 5 promete hasta 33 Mbytes / seg.

· El otro método alternativo denominado FAST


Multiword DMA con el controlador DMA (acceso
directo a memoria) sustituye al procesador en el
gobierno de las transferencias de datos entre el
disco duro y la memoria del sistema. SSF define que
el Modo 1 de transferencias DMA soporte
velocidades internas de hasta 13,3 Mbps, lo que es
equiparable a los resultados del control PIO en
modo 3.

Los disco duros de hoy (especialmente los de mañana) se adentran en


complicadas tecnologías y campos científicos (mecánica cuántica,
aerodinámica, y elevadas velocidades de rotación). La combinación de estas
tecnologías permite que la capacidad de los discos duros aumente cerca de un
60 % cada año; cada cinco años se multiplica por diez su capacidad. Los
analistas esperan que este ritmo de crecimiento no se mantenga hasta finales
de siglo.

Para mejorar las posibilidades del disco duro hay que acercar los cabezales a
la superficie del disco. Los cabezales pueden escribir y leer dominios
magnéticos menores, cuanto menor sean éstos mayor densidad de datos
posible de cada plato. Pero cuanto más cerca estén los cabezales, mayor será
la probabilidad de colisión con la superficie. Una solución es recubrir el plato
con materiales protectores, rediseñar las características aerodinámicas de los
cabezales, etc. Además el paso de una mayor cantidad de datos por los
cabezales exige perfeccionar los componentes electrónicos, e incluso puede
obligar a ampliar la memoria caché integrada . Además no hay que olvidar que
los dominios menores son estables a las temperaturas de funcionamiento
normales. Y todo esto a un precio competitivo.

Ejemplo de nuevos diseños es la tecnología MR (Magnetoresistiva) de IBM que


utiliza nuevos materiales. Usa cabezales con mejor relación señal /ruido que
los de tipo inductivo, separando los de lectura de los de escritura. Pueden
trabajar con dominios magnéticos menores aumentando la densidad de
almacenamiento. Además son menos sensibles al aumento de la velocidad
permitiendo velocidades de rotación mayores. Sus inconvenientes son su
dificultad y alto precio de fabricación, y su sensibilidad ante posibles cargas
eléctricas. Se investiga en una mejora llamada GMR (MR Gigante) que emplea
el efecto túnel de electrones de la mecánica cuántica.

Nuevas tecnologías van encaminadas a potenciar la resistencia de la superficie


magnética de los platos con materiales antiadherentes derivados del carbono.
Esto junto con las técnicas de cabezales de grabación en proximidad, los TRI-
PAD (cabezales trimorfos) y los de contacto virtual permiten acercar los
cabezales hasta incluso entrar ocasionalmente en contacto con la superficie del
plato.

A través de la técnica de carga dinámica del cabezal se garantiza la distancia


de vuelo del cabezal respecto a la superficie, usando zonas de seguridad y
cierres inerciales en las cabezas. Así no se necesita una preparación especial
de la superficie del plato.

Estructura lógica de los discos duros


Lo que interrelaciona los discos duros con los disquetes, es su estructura, que
se resumen en diferentes funciones del BIOS, que sirven entre otras cosas
para el acceso a los mismos.

En primer lugar, internamente los discos duros se pueden dividir en varios


volúmenes homogéneos. Dentro de cada volumen se encuentran una
estructura que bajo el sistema operativo del Ms-Dos, sería la siguiente:

Sector de Arranque.
Primera tabla de localización de archivos (FAT).
Una o más copias de la FAT.
Directorio Raíz (eventualmente con etiqueta de
volumen).
Zona de datos para archivos y subdirectorios.

Como se muestra en el cuadro anterior, cada volumen se divide en diferentes


zonas que por una parte acogen las diferentes estructuras de datos del sistema
de archivos, y por otra los diferentes archivos y subdirectorios. En dicho cuadro
no se han hecho referencia al tamaño de las diferentes estructuras de datos y
zonas. Pero no es posible describirlas, ya que se adaptan individualmente al
tamaño del volumen correspondiente

· El Sector de Arranque : Al formatear un volumen,


el sector de arranque se crea siempre como primer
sector del volumen, para que sea fácil de localizar
por el DOS. En él se encuentra información acerca
del tamaño, de la estructura del volumen y sobre
todo del BOOTSTRAP-LOADER, mediante el cual
se puede arrancar el PC desde el DOS. A ésta parte
se le llama sector de arranque (BOOT).

· La Tabla de Asignación de Ficheros (File


Allocation Table) (FAT) : Si el DOS quiere crear
nuevos archivos, o ampliar archivos existentes, ha
de saber qué sectores del volumen correspondiente
quedan libres, Estas informaciones las toma la
llamada FAT. Cada entrada a esta tabla se
corresponde con un número determinado de
sectores, que son adyacentes lógicamente en el
volumen. Cada uno de estos grupos de sectores se
llama Cluster. El tamaño de las diferentes entradas
de esta tabla en las primeras versiones del DOS era
de 12 bits. con lo que se podían gestionar hasta
4.096 Clusters, correspondiente a una capacidad
aproximada de 8 Mbytes. En vista del problema que
surgió al aparecer discos duros de capacidades más
elevadas, se amplió el tamaño a 16 bits.,
permitiendo el direccionamiento de un máximo de
65.535 Clusters. Actualmente se está creando FAT’s
de hasta 32 bits, para discos duros capaces de
almacenar Gigas de información.

· Una o más copias de la FAT : El DOS permite a


un programa de formateo crear no sólo una, sino
varias copias idénticas de la FAT. Si el DOS
encuentra uno de estos medios, cuida todas las
copias de la FAT simultáneamente, así que guarda
allí los nuevos clusters ocupados o liberados al
crear o borrar archivos. Esto ofrece la ventaja de
que se puede sustituir la FAT primaria en caso de
defecto por una de sus copias, para evitar la pérdida
de datos.

· El directorio Raíz : La cantidad máxima de


entradas en el directorio raíz se limita por su
tamaño, que se fija en el sector de arranque. Ya que
el directorio raíz representa una estructura de datos
estática, que no crece si se guardan más y más
archivos o subdirectorios. De ahí que, dependiendo
del tamaño, bien un disco duro o bien de volumen,
se selecciona el tamaño del directorio raíz en
relación al volumen.

· La Zona de Datos : Es la parte del disco duro en


la que se almacena los datos de un archivo. Esta
zona depende en casi su totalidad de las
interrelaciones entre las estructuras de datos que
forman el sistema de archivos del DOS, y del
camino que se lleva desde la FAT hacia los
diferentes sectores de un archivo.

Ventajas e inconvenientes frente a


otros dispositivos de almacenamiento

Floppys (Disquetes):

 Ventajas:
- Bajo coste de fabricación.

- Standarización de los formatos; número de cabezas, sectores, cilindros.

- Es extraible y compatibilidad.

 Inconvenientes:

- Poca fiabilidad de los datos almacenadas.

- Una escasa capacidad de almacenamiento.

Unidades de CD-ROM:

 Ventajas:

- Velocidad de lectura similar a los Discos Duros.

- Gran capacidad a muy bajo coste.

- La cabeza lectora no va incorporada en el disco.

 Inconvenientes:

- Es de sólo lectura.

- El disco únicamente reescribible una sola vez.

- El disco de CD-ROM no lleva los cabezales de lectura / escritura


incorporados.

Streamers (Unidades de Cinta):

 Ventajas:

- Seguridad en la grabación de los datos.

- Gran capacidad a bajo coste.

 Inconvenientes:

- Los Discos duros son mucho más rápidos en


lectura / escritura, ya que la cinta realiza una lectura
secuencia, mientras que la cabeza lectura de los
discos duros se posiciona en cualquier parte la
superficie en tiempos casi despreciable

Memoria RAM:
 Ventajas:

- Mayor rapidez que los discos duros.

 Inconvenientes:

- Elevado coste en relación a su capacidad.

- La información contenida en la memoria es volátil, mientras que el


almacenamiento en discos
duros es estática.

- La memoria de un ordenador es 100 veces menor que la capacidad de los


discos duros.

Papel:

 Ventajas:

- Portabilidad.

- Suele deteriorarse con más facilida que un disco duro.

 Inconvenientes:

- No es ecológico,

- Las búsquedas son machismo más lentas.

- El elevado coste en comparación con la capacidad de las páginas de textos,


documentos, etc. que
es capaz de almacenar un disco duro.

Software-Discos
Pulsa en para bajar el software, en el enlace para ir a la web del producto

(si la hay), y en para ver un "pantallazo" del programa.

NTFS for Windows 98: Impresionante utilidad que nos


permite acceder a particiones NTFS (las nativas de Windows
NT) desde Windows 95/98. Este programa actúa como un
"driver" y una vez instalado permite un acceso transparente a
las unidades que se encuentren en este formato.
La versión que se puede descargar gratuitamente permite
acceso en modo de sólo lectura.
El programa de instalación es de 796 KB.
Para obtener la versión que permite acceso total
necesitaremos registrarnos y pagar 49 $.

FAT32 for Windows NT 4.0: Como su nombre nos indica,


esta utilidad nos permite justo lo contrario: Acceder a
particiones en formato FAT32 desde Windows NT.
No existe ninguna versión de evaluación, por lo que para
efectuar la descarga del producto debemos estar dispuestos
a pagar 39 $. Es justo recordar que Windows 2000 (el
sucesor de NT 4) ya incorpora esta funcionalidad.

FAT16 EasyRecovery (Tiramisu): Este programa permite recuperar


datos de discos duros que ya no se pueden leer
correctamente por acción de algún virus, formateo accidental,
FAT32
manipulación indebida del FDISK o cualquier otro imprevisto.
Permite recuperar la información y almacenarla en otro
soporte magnético. La versión de prueba permite recuperar
NTFS sólo 5 archivos. Existen versiones para FAT16, FAT32, NTFS
Netware (nativa de Windows NT) y para Novell Netware. También hay
una versión especial para unidades ZIP y Jaz.

ZIP/Jaz

¡Novedad!
EZ-Drive para Maxtor: Esta aplicación,llamada MaxBlast es
la versión del EZ-Drive de Maxtor y nos permite entre otras
muchas utilidades romper las barreras impuestas por BIOS
antiguas que puede ser de 528 MB, 2,1 GB, 4,2 GB, 8,4 GB y
32 GB. Permite además, particionar y formatear de una
manera fácil y cómoda cualquier disco duro, incluso copiando
los datos del disco antiguo al nuevo. Archivo ejecutable de
559 Kb. Requiere de un disquete para instalarse.. gratuito

¡Actualizado!
EZ-Install para Western Digital: Programa que sustituye a
EZ-Drive en los discos de Western Digital. En realidad el
paquete se llama Data Lifeguard Tools e incluye además
programas de diagnóstico y utilidades. Al igual que Disk
Manager, permite instalar unidades en máquinas antiguas
cuya BIOS no las soporte. Archivo ejecutable de casi 1 MB
que nos permitirá crear un disquete de arranque bajo
Windows o DOS (No bajo NT). gratuito

¡Novedad!
Disk Manager: Uno de los mejores programas de su
Seagate
género. Permite particionar y formatear cualquier disco de
1MB
forma automática. Posibilita instalar discos de más de 528
MB en máquinas sin soporte de LBA en BIOS (casi todos los
486 y algunos Pentium) soportando los modos Fast ATA PIO
Quantum 3 y 4.
1,5MB Proporciona soporte para discos de más de 8,4 GB bajo DOS
5 o 6 y Windows 3.1x.
Incorpora en la ayuda la configuración de los jumpers de
prácticamente todos los discos duros del mercado.
Fujitsu Hay que recordar que deberemos escoger la versión que se
1,2MB
corresponda con la de nuestro disco y que dependiendo de
ella podremos encontrarnos con programas de diagnóstico y
utilidades como la que nos ayuda en la tarea de migrar los
IBM datos de un disco a otro, la que permite efectuar un formateo
1,5MB
de bajo nivel o la que incorpora los controladores de 32 bits
para Windows 3.1. La única en español es la de Fujitsu. El
resto están en inglés.
Se trata de un archivo ejecutable que bajo Windows nos crea
un disquete de arranque en el que instala el producto.
¡gratuito!.

¡Novedad!
Seagate Find-ATA v1.0: Otra utilidad que funciona
correctamente sólo con los discos de Seagate y nos
proporciona un montón de información sobre nuestros discos,
como el tamaño de la caché física del disco, los modos que
soporta, características físicas, etc. (Ver gráfico adjunto).
Archivo ZIP de sólo 19 KB con documentación incluida.
¡gratuito!

¡Novedad!
Seagate NFDisc 1.20: Ofrece información sobre el registro
de la tabla de partición de los discos duros. También incluye
la utilidad FindSector 1.0, que permite visualizar cualquier
sector del disco en ASCII o en hexadecimal. Funciona con
cualquier disco, aunque no sea Seagate. Archivo ejecutable
autoextraible de 78 KB.¡gratuito!

¡Novedad!
Seagate SeaTools Disc Diagnostic: Utilidad de testeo de
discos duros. Dispone de una prueba genérica que funciona
con cualquier disco IDE y que nos proporciona bastante
información, comprobando la integridad de nuestros discos y
otros parámetros como el soporte de S.M.A.R.T. En el caso
de que dispongamos de alguna unidad Seagate, cuenta con
pruebas más especificas, aunque por lo que se ve no
reconoce todos los modelos...
El archivo es un ejecutable de casi 1 MB y genera un
disquete autoarrancable que podremos utilizar en cualquier
máquina. ¡gratuito!

¡Novedad!
Seagate DiscWizard 2000: Juego de utilidades que se
entrega con todos los discos de Seagate que facilita la
configuración e instalación de sus discos en entorno
Windows e incluye entre otros DiscManager y FileCopy. Esta
última una utilidad para migrar los datos desde el disco
antiguo al nuevo. OJO: El archivo a descargar es de más de
5 MB.¡gratuito!

Cacheman: Windows 95/98 utiliza toda la memoria que


puede como caché de disco. El problema aparece cuando
nos quedamos sin RAM suficiente. En lugar de vaciar el
caché, utiliza el archivo de intercambio. Esta utilidad cambia
dicho comportamiento, haciendo que vacíe la caché hasta un
límite, aumentando el rendimiento. Archivo ZIP de 109 Kb.

Ranish Partition Manager: Permite crear, borrar y


redimensionar particiones. Muy útil para pasar a FAT32 y
convertir varias particiones en una.Permite crear un menú de
arranque para gestionar varios sistemas operativos.
Pulsa aquí para bajarte el parche de traducción al español.
Es totalmente gratuito.

GRDuw: Este programa permite entre otras cosas


formatear disquettes en formato DMF a 1,68 Mb. Este
formato puede ser leído por cualquier ordenador con
Windows 95/98/NT. Para MS-DOS es necesario un pequeño
driver de 1 Kb.
Para la versión hispana, bájate este parche.

WinImage: Utilidad que permite trabajar con "imágenes", es


decir, una copia binaria exacta de un disquette, disco o CD-
ROM. Tambien permite formatear disquettes a 1,68 Kb.
(DMF) e incluso a 1,72 Mb. Versión limitada a 30 días de uso.
Ocupa 280 Kb. Versión para Windows 95/NT o Win 3.1 +
Win32s (ver sección de varios). También está disponible un
parche (beta) con la traducción del programa al español.

Norton Speed Disk: Uno de los mejores desfragmentadores


de disco para Windows NT. Sirve tanto tanto para NTFS
como para FAT. Plenamente funcional pero limitado a un
periodo de 30 días. Ocupa 2 Mb y requiere NT 4.

Diskeeper Lite para NT: Otro buen desfragmentador de


disco para Windows NT. Versión reducida del mismo, pero
funcional e ilimitada en el tiempo. (gratuita). Requiere de NT
4.

FAT16cvt: Permite convertir bajo Windows 95 una partición


FAT16 a FAT32.(148 Kb.)

CORETEST: Mide las prestaciones de los discos


duros instalados en el PC. Muy útil si tenemos varios
discos y queremos saber cual es el más rápido.
Programa gratuito de 20 Kb.

CD y DVD-Rom
La unidad de CD-ROM ha dejado de ser un accesorio opcional para convertirse
en parte integrante de nuestro ordenador, sin la cual no podríamos ni siquiera
instalar la mayor parte del software que actualmente existe, por no hablar ya de
todos los programas multimedia y juegos.

Pero vayamos a ver las características más importantes de estas unidades.

En primer lugar vamos a diferenciar entre lectores, grabadores y regrabadores.


Diremos que los más flexibles son los últimos, ya que permiten trabajar en
cualquiera de los tres modos, pero la velocidad de lectura, que es uno de los
parámetros más importantes se resiente mucho, al igual que en los grabadores.

Así tenemos que en unidades lectoras son habituales velocidades de alrededor


de 34X (esto es 34 veces la velocidad de un lector CD de 150 Kps.), sin
embargo en los demás la velocidad baja hasta los 6 ó 12X.
Dado que las unidades lectoras son bastante económicas, suele ser habitual
contar con una lectora, y una regrabadora, usando la segunda sólo para
operaciones de grabación.

En cuanto a las velocidades de grabación suelen estar sobre las 2X en


regrabadoras y las 2 ó 4X en grabadoras).
Y después de la velocidad de lectura y grabación nos encontramos con otro
tema importante como es el tipo de bus. Al igual que en los discos, este puede
ser SCSI o EIDE. Aconsejamos SCSI (Ultra Wide) para entornos profesionales
y EIDE (Ultra DMA) para los demás. Para saber más, acudir a la sección de
Discos.

Otro aspecto que vamos a comentar es el tipo de formatos que será capaz de
leer / grabar. Es interesante que sea capaz de cumplir con todos:

- ISO 9660: Imprescindible. La mayor parte de los demás son modificadores de


este formato.
- CD-XA y CD-XA entrelazado: CD's con mezcla de música y datos.
- CD Audio: Para escuchar los clásico Compact Disc de música.
- CD-i: Poco utilizado.
- Vídeo-CD: Para peliculas en dicho formato.
- Photo-CD Multisesión: Cuando llevas a revelar un carrete puedes decir que te
lo graben en este formato.

Y para las regrabadoras el formato utilizado es el UDF.

Software

En el caso de las regrabadoras necesitaremos un software de la casa Adaptec,


llamado DirectCD, que será el encargado de poder utilizar nuestra unidad como
si de un disco duro se tratara. Normalmente este software ya nos vendrá con la
unidad que compremos. Actualmente se utiliza la versión 2.0.

Si además queremos crear nuestros propios CD's personalizados, existe en el


mercado un amplio abanico de programas que nos permitirán crear nuestras
propias grabaciones en casi todos los formatos.

Algunos de ellos son:

Easy CD Creator, de Adaptec. Es el más utilizado.

Gear CD Windows: Muy bueno.

Win On CD: Otro software de grabación de la casa CeQuadrat.

HyCD DATA: de la casa Creative Digital Research.

Visita tambiñen nuestra sección de software para los CD-ROM y software


para grabadoras de CD.

Formatos físicos (por Ignacio Gomez Burzaco) -Resumido-


Formatos lógicos (por Ignacio Gomez Burzaco) -Resumido-

El formato físico de los CD-ROM -Avanzado- Incluye 11 subtemas

El formato lógico de los CD-ROM -Avanzado- Incluye 7 subtemas

Para saber más sobre grabadoras.

Como hacer una copia de seguridad de nuestros datos en cinco pasos.


(inglés)

Como copiar un CD-ROM en tres pasos. (inglés)

Como grabar un CD-Audio en cinco pasos. (inglés)

Como hacer un CD autoarrancable (a nivel de S.O.) (inglés)

Como hacer un CD-R autoarrancable (a nivel de S.O.) (inglés)

Formatos físicos de los


CD
por Ignacio Gomez Burzaco

Muchos usuarios interesados en la grabación de CD habrán oído hablar del


"libro rojo", "libro naranja", "libro verde", etcétera, a la hora de definir los
distintos tipos de discos compactos que existen en el mercado.

Estos "libros" definen el formato físico de los discos y lo de los colores sólo es
una anécdota que proviene de tiempos de la publicación de las primeras
especificaciones de los discos compactos de audio, que se editaron en un libro
con tapas rojas.

Precisamente, fueron los CD de audio, los populares discos de música, los


primeros en aparecer a principios de los años 80. Sus especificaciones se
recogieron en el "Red Book", o Libro Rojo y es el formato más popular en la
actualidad, aunque ya se habla de su sustitución por otro tipo de discos de
música con una mayor fidelidad de sonido.

En 1984 se presentó el "Libro Amarillo", que recoge la especificación de los


populares CD ROM e incluye dos posibilidades.
El Modo 1, que sólo se utiliza en el caso de grabaciones de datos y el Modo 2,
que se utiliza para comprimir datos, imágenes, audio, video y almacenarlos en
un mismo CD.

El "Libro Verde" es otra especificación que define el estándar de los Discos


Compactos Interactivos, o CD-I. Este tipo de discos casi no se conocen en
España, salvo una faceta de los mismos: los Photo-CD, para los que se
vendieron en su momento algunos reproductores específicos que se
enchufaban a la televisión y permitían ver fotografías digitalizadas y realizar
diversos efectos, como zoom y otros.

A partir de este momento, se planteó la necesidad de contar con unas


especificaciones para poder lanzar al mercado las primeras grabadoras de
discos compactos, una demanda del mercado que las compañías del sector
empezaron a satisfacer a principios de los años 90. Para ello se publicó el
"Libro Naranja", que contempla diversos casos: los discos magneto ópticos,
CD-MO, que fueron los primeros en utilizarse y popularizarse, pero que son
diferentes a los discos grabables actuales, ya que utiliza soporte magnético.

Otro caso son los discos grabables, o CD-R, que son los discos que, gracias
a una grabadora, pueden almacenar hasta 650 Mbytes de información, aunque
no se pueden borrar y volver a grabar. Este es el tercer caso contemplado en el
"Libro Naranja": los discos compactos regrabables, o CD-RW, que permiten
grabar y borrar datos hasta 1.000 veces.
El problema de este último tipo de discos es que no pueden ser leídos por
muchas unidades lectoras antiguas de CD-ROM ni por muchos lectores de CD
de música, como los que vienen en las cadenas musicales de alta fidelidad,
equipos de coches o los lectores CD portátiles.

Con posterioridad, apareció el "Libro Blanco", que contempla la especificación


de los conocidos como Video-CD, un tipo de discos que pueden almacenar
hasta 70 minutos de video comprimido, de calidad equivalente, más o menos, a
la de una cinta de video VHS. Este tipo de discos no han alcanzado mucha
difusión en España, aunque si han sido populares en otros países, sobre todo
de Asia.
Su existencia ya está sentenciada con la aparición de los discos DVD.

El último libro de especificaciones es el "Libro Azul", que se publicó para


permitir la existencia de los CD-Plus, también conocidos como CD-Extra. En
este tipo de discos, hay varias pistas de sonido, grabadas según las
especificaciones del "Libro Rojo", así como una pista de datos, como si fuera
un CD ROM. Se puede utilizar tanto en un lector de CD de música como en un
lector de CD ROM de ordenador.
Un ejemplo de este tipo de CD es el primer disco de los BackStreet Boys, que
al margen de los temas musicales, incorpora un programa multimedia donde se
pueden ver fotos, videos y datos del grupo.
Formatos lógicos de los
CD
por Ignacio Gomez Burzaco

A la hora de ordenar los datos en un disco compacto, sea de grabación o de


sólo lectura, se utilizan diversos formatos lógicos. Estos formatos tienen su
correspondencia con los formatos físicos de los discos, aunque con matices.

En primer lugar, tenemos el formato Audio-CD, que fue el primero que


apareció y se utiliza en los compactos de música.

El segundo formato en aparecer es el que se utiliza en los CD ROM, e incluye


un sistema para corregir errores producidos por defectos en el disco, como
huellas de dedos, rayadudas, polvo, etcétera.
Este formato dio paso al estándar ISO-9660, que es uno de los más
extendidos, ya que los datos grabados en discos CD bajo este estándar
pueden ser leídos por una gran cantidad de sistemas operativos, como el MS-
DOS, Windows 95 y 98, UNIX, MacOS, etcétera.
Este estándar contempla varios niveles particulares a la hora de permitir
nombres de ficheros y su situación.

 El primero de ellos solo permite nombres de ficheros y


directorios de ocho caracterés, con algunas limitaciones.
 El segundo nivel permite nombres largos para archivos y
directorios, pero no permite que los archivos en el disco
estén fragmentados.
 El tercer nivel no tiene estas limitaciones.

Al margen de este estándar ISO-9660, han aparecido algunas variaciones,


específicas de los propios sistemas operativos. Así, por ejemplo, Windows 95,
98 y NT 4 utilizan la especificación Joliet, que almacena en el disco un nombre
de archivo corto y otro largo, algo imprescindible para poder utilizarlo bajo MS-
DOS.

Hay otra especificación de Microsoft, Romeo, que sólo contempla nombres


largos.

En Unix se utiliza la extensión Rock-Ridge, mientras Apple tiene la Apple-


ISO, utilizada en los ordenadores Macintosh.

Otros formatos lógicos son el Photo-CD, utilizado para almacenar fotografías,


que se pueden leer tanto en ordenadores PC compatibles como Macintosh, así
como en lectores CD-I que se conectan a la televisión.
En este punto me gustaría dejar claro que un Photo-CD no es un disco normal
lleno de fotografías archivadas en este formato. Un disco así no funcionará en
ningún lector de CD-I. Los verdaderos discos Photo-CD deben contener datos
específicos, al margen de las propias fotos, para indicar a los aparatos lectores
la forma de manipular las imágenes.

Por último, mencionar el formato de los CD en modo mixto, que almacenan


sonido y datos. Este tipo de discos pueden ser utilizados tanto en lectores de
audio como en ordenadores.

El formato físico
El diámetro de estos discos es de 12 cm y su espesor es de 1,2 mm.

El agujero que hay en medio del CD tiene un diámetro de 15 cm. El CD tiene


una capa metálica reflectante recubierta por una capa protectora a base de
barniz transparente.

Las informaciones a almacenar se impresionan sobre la capa metálica en


forma de los llamados pits y lands, que son pequeñas protuberancias y
cavidades que representan los diferentes bits.
Los pits y lands se alinean a lo largo de una única espiral que va desde dentro
hacia fuera y cubre todo el CD.

En contraposición a un disco de vinilo, un CD comienza su reproducción


desde el margen interior y no desde el exterior.

Dado que los pits tienen una anchura de sólo 0,6 ym (un ym o micrómetro
corresponde a una millonésima de metro), las diferentes vueltas de esta espiral
están separadas únicamente 1,6 ym.
Así pues, la densidad de un CD alcanza casi las 16.000 pistas por pulgada
(tracks per inch , TPI), lo cual resulta difícilmente comparable con las 135 TPI
que presentan los disquetes de alta densidad de 3,5".

La longitud de esta espiral es aproximadamente de 6 kilómetros en los que se


albergan no menos de dos billones de pits.
De la misma manera, el rayo de lectura debe ser también reducido para poder
desenmarañar la secuencia de pits y lands.
El diámetro del rayo es de 1 ym y se estrecha por la longitud de onda de la luz
que constituye el rayo.

Encabezamiento del CD

CAV y CLV

Almacenamiento de bit y byte


Frame

Sectores

Sub channel

Capacidad de almacenamiento

Corrección de errores

El formato de CD-ROM

El formato XA

Photo CD y CD-WO

Encabecamiento del CD
La superficie grabable de un CD se divide en tres partes: el lead in, la zona de
datos, y el lead out.

El lead in (el "encabezamiento") ocupa los cuatro primeros milímetros del CD


en el margen interior y contiene una especie de índice.

A continuación sigue la zona de datos que como mucho ocupa 33 mm,


dependiendo del nivel de ocupación del CD.

Por último, la parte final la constituye la zona del lead out, que es como una
especie de marca final. Se encuentra inmediatamente detrás del final de la
zona de datos ocupada y tiene una anchura de un milímetro.

CAV y CLV
En el almacenamiento de datos sobre medios giratorios se diferencian dos
procedimientos cuyos nombres son CAV y CLV.

CAV significa "constant angular velocity" y CLV "constant linear velocity" y


ambos se refieren a la velocidad de rotación del medio de almacenamiento.

Los discos duros y disquetes, que están divididos en pistas y sectores,


trabajan bajo el principio CAV. Este se basa en una velocidad angular constante
(exactamente el mismo número de vueltas por unidad de tiempo; la velocidad
angular no es la velocidad de la cabeza lectora).
Independientemente de dónde se encuentra la cabeza de lectura y escritura, el
medio gira siempre con una velocidad constante debajo de ella.
Si la cabeza se encuentra sobre una pista de la zona interior, escribirá una
pista significativamente más corta que la que escribiría de encontrarse en la
zona exterior. Esto lo utilizan los modernos discos duros empaquetando más
sectores en las pistas exteriores (con más superficie).

En comparación con el procedimiento CLV, lo determinante del procedimiento


CAV es que la velocidad de rotación del medio no varía, independientemente
de dónde se encuentre la cabeza de lectura y escritura.

En cambio, en el procedimiento CLV, que es el que utiliza también la


tecnología CD, sucede exactamente lo contrario. En este caso, el cabezal de
escritura recorre exactamente la misma distancia por unidad de tiempo
independientemente de si se encuentra en el margen exterior o en el margen
interior del CD.
Para ello, la velocidad de rotación debe ajustarse continuamente a la posición
actual del cabezal (Velocidad de rotación es lo mismo que velocidad angular).

La unidad aumenta la velocidad de rotación en la medida que el cabezal se


desplaza desde el margen interior del disco hacia el margen exterior. Esta es
una de las razones por las que una unidad de CD-ROM, en comparación con
una unidad de disco duro, presenta velocidades de acceso mucho menores: la
velocidad de rotación debe variar constantemente y por consiguiente, las
correspondientes aceleraciones y deceleraciones consumen un tiempo
innecesario para la lectura de datos.
Además, es mucho más complicado encontrar un sector a lo largo de una
espiral de 6 KM de longitud que encontrarlo en un medio elegante y
limpiamente dividido en pistas y sectores.

Almacenamiento de bit y byte


A pesar de que la utilización de pits y lands conlleva la sospecha de que
sobre el CD las informaciones binarias se almacenan en forma de ceros (lands)
y unos (pits), la realidad es otra diferente.

El principio de funcionamiento de la óptica de lectura de una unidad CD-ROM


no permite esta sencilla asignación. En su lugar, el valor 1 de un bit se
contempla siempre como el paso de un pit a un land o al revés.

La longitud del pit o del land representa el número de bits con valor 0 que
siguen al bit con valor 1. Por lo demás no hay diferencias substanciales con
respecto a la grabación de datos sobre soportes magnéticos como discos
duros, sólo que en ese caso un cambio de campo magnético toma el papel de
los pits y lands.

En relación a la representación de los llamados "Channel 1" -esto es, bit con
el valor 1-, el procedimiento presenta una clara contrariedad: no se pueden
situar dos channel 1 seguidos.
Pero entonces, ¿cómo puede haber dos cambios, de pit a land y luego de land
a pit, sin que haya al menos un pequeño land en medio que los separe? A un
channel 1 necesariamente le debe seguir como mínimo un channel 0 (un bit
con el valor 0).

En la realidad se ha comprobado que como mínimo deben ser dos los


channel 0 que sigan a un channel 1. Sólo entonces la distancia hasta el
próximo channel 1 es suficientemente grande como para que no pase
desapercibido a la óptica de lectura.

Por otro lado, los pits y lands no deben ser demasiado largos pues resultaría
complicado para la electrónica de la unidad medir exactamente la longitud y
con ello poder averiguar el número de channel 0. Como máximo, en el
desarrollo del CD, se ha probado una longitud de 11bits.

Todos estos condicionantes desembocan en el procedimiento EFM, "eight to


fourteen modulation", en el que un byte a almacenar se traduce junto con sus
ocho bit en 14 channel bit. La secuencia de channel 0 y channel 1 dentro de
estos 14 channel bit está determinada por una sencilla tabla de conversión que
es parte integrante de la electrónica de control de cada unidad CD-ROM.
Los códigos de la tabla EFM están escogidos de manera que se evita tanto la
existencia de dos channel 1 consecutivos como la de una cadena de channel 0
seguidos demasiado larga, estando limitada a un máximo de 11 channel 0.

De todas maneras, la conversión vía tabla EFM no contempla un problema: la


separación de bits unitarios. Cuando por ejemplo un primer byte con un
channel 1 y con ello el cambio de pit a land (o al revés) acaban, el siguiente
byte no puede empezar de nuevo con el mismo tipo de cambio puesto que en
medio no hay ningún espacio.
Por este motivo, a cada byte con sus 14 channel bit se le añaden tres channel
bit más que se denominan merging bits. Estos separan los bytes uno de otro y
con ello elevan el número de channel bits a 17 por byte.

Frame
De los bytes codificados en forma de 17 channel bit, se obtiene el bloque de
información coherente más pequeño de un CD, lo que se denomina como
frame.

Un frame contiene 24 bytes (cada uno con 17 channel bit) que junto con
alguna otra información constituyen el frame como bloque de datos.
El inicio está formado por lo que se denomina Sync-Pattern, un diseño concreto
de, en total, 27 channel bit, que indica a la unidad el comienzo de un nuevo
frame. A continuación se encuentra un byte de control y sólo entonces se
encuentran los 24 bytes de datos del frame.

Un frame acaba con 8 bytes de corrección de errores que a su vez están también constituidos
por 17 channel bit. Así, sumando sumando, se llega a un total de 588 channel bit por frame,
como muestra el siguiente gráfico.
Channel bit Sync-Pattern
27 Bytes de control
1 * 17 Datos
24 * 17 Corrección de errores
8 * 17 588 channel bit por frame

Sectores
En el siguiente nivel se engloban 98 frame para constituir un sector, donde
por un lado se juntan los distintos bytes de datos de los frame y por otro los
bytes de control y los bytes para la corrección de errores.

De esta manera se obtiene un sector, que en total está constituido por 3234
bytes, de los cuales 2352 bytes están disponibles como bytes de datos útiles
mientras que los restantes 882 bytes se componen de los datos para la
corrección de errores y de 98 bytes de control. Este es el formato original de los
CD DA en el que se basan todos los CD de audio.

El formato CD DA presentado (CD Digital Audio) sólo es válido para pistas de


audio, sin embargo permite extraer conclusiones interesantes acerca del modo
de funcionamiento y los ratios de transmisión de datos de los sistemas CD.

Cada sector corresponde a 1/75 segundos, es decir, una unidad CD-ROM lee
75 sectores por segundo. Si se tiene en cuenta que un reproductor CD trabaja
con una frecuencia de barrido de 44,1 KHz, 16 bit samples y dos canales, se
obtienen 1.441.200 bit por segundo (44100 * 16 * 2).

Esto lleva a un ratio de transmisión de datos de 18816 bit por 1/75 segundos,
lo cual se corresponde exactamente con los 2352 bytes que contiene un sector
en el formato CD-DA para datos.

Dado que los sectores se reproducen en un espacio concreto de tiempo, el


direccionamiento se lleva a cabo por unidad de tiempo y, en realidad, en el
formato minutos/segundos/sector, por ejemplo, 62/03/15 para el sector número
quince del tercer segundo en el minuto número 62 de reproducción del CD.

Sub channel
Mientras los bytes para la corrección de errores no tienen ningún significado
para el direccionamiento del CD, los 98 bytes de control de los 98 frame de un
sector contienen información muy importante.
Los bytes se desdoblan en lo que se denomina sub channel, donde por
ejemplo todos los bit 0 de los 98 bytes forman los llamados sub channel P.

Para obtener la información del sub channel P, primero se deben posicionar


los primeros 98 bits de los bytes de control seguidos de lo que se obtienen 12
bytes (y 2 bits). Concretamente, este sub channel se utiliza para indicar el inicio
de una grabación de audio, es decir, de datos digitales.

De la misma manera se procede con los segundos bits de los 98 bytes de


control, que forman el denominado sub channel Q, que contiene las
informaciones cruciales que indican la posición de un sector en el CD. El canal
Q tiene un atarea especial en la zona de lead in de un CD, pues aquí se
encuentra lo que se conoce como Table of Contents (TOC), de donde se
obtiene, por ejemplo, el número de pistas de audio de un CD.

Los restantes 6 bits de los 98 bytes de control se engloban en el llamado R/W


sub channel, que dispuestos de este modo, comprenden 73 bytes y se utilizan
para tareas de sincronización.

Capacidad de almacenamiento
Del número de sectores se obtiene la capacidad total de un CD-ROM. Hay
varios números en circulación que van de 500 a 680 MB, y que depende de si
se utiliza o no toda la superficie impresionable del CD-ROM.

Al principio, las prensas tenían problemas para trabajar en los 5 mm


exteriores del CD-ROM y por eso se dejaron sin utilizar. La capacidad se limitó
por ello a 550 MB.

Con el tiempo se llegó a poder aprovechar la anchura total del CD con lo que
se pudo alcanzar la máxima capacidad de un CD-ROM, 682 MB.

Corrección de errores
Los 2 x 392 bytes que se guardan en cada sector para corrección de errores
están basados en un algoritmo que está especificado en el Red Book y que en
todos los reproductores de CD de audio y unidades de CD-ROM tiene como
misión preocuparse a nivel hardware de una transferencia de sectores libre de
errores.

Este algoritmo se fundamenta en la técnica ampliamente difundida con el


nombre de "Reed Solomon Code", que en este caso se ha modificado un poco
recibiendo el nombre de "Cross Interleave Reed Solomon Code", abreviado
CIRC.
Mediante este procedimiento se obtiene un ratio de errores de 10 elevado a
-8, es decir, cada cien millones de bits, aparece uno que por error no se
reconoce y por tanto no se corrige.
Mientras que para escuchar un CD, y debido a la elevada sucesión de sectores
con una frecuencia de 1/75 segundos de audio, apenas se percibe un error de
este tipo, este ratio de errores es todavía demasiado grande para el ámbito de
los ordenadores.

En definitiva, cada aparición de un bit erróneo en el código del programa o en


una estructura de datos importante puede llevar a que el sistema quede
ligeramente colgado. Por este motivo, los CD-ROM trabajan con un formato de
sector ligeramente modificado con respecto al del Red Book.

Formato de CD-ROM
El formato de sector para CD-ROM está contenido en el denominado Yellow
Book.
Mientras en el Red Book se describen los CD de audio y sus correspondientes
reproductores, en el Yellow Book se describe el CD-ROM.

El Yellow Book está fundamentado en el Red Book en el sentido de que se


basa en los estándares dados para los CD de audio, a partir de los cuales
establece un mecanismo regulador para el almacenamiento de datos de
ordenador sobre CD (de audio).

El formato según el Yellow Book a nivel de sectores sólo se diferencia del


formato de CD de audio en la zona de datos.

Para disminuir el número de errores, el formato del Yellow Book almacena


más informaciones para la detección y corrección de errores.

La zona de datos se reduce por este motivo a 2048 bytes (2KB), lo cual es
mucho más fácil de manejar para los ordenadores que los 2352 bytes del
formato de los CD de audio.

El Yellow Book conoce dos formatos para los sectores del CD-ROM, los
denominados modo 1 y modo 2.

En el modo 2 se ahorran de nuevo las informaciones para la corrección de


errores puesto que estos sectores están previstos para el almacenamiento de
todo tipo de información para la que un error de lectura no conlleva grandes
influencias sobre un programa, como por ejemplo gráficos que se muestran
brevemente en pantalla.
De todos modos, la corrección de errores básica de la unidad CD-ROM se
conserva. Así, los 2336 bytes que se obtienen por no utilizar la correspondiente
información para la corrección de errores pueden ubicarse en un sector.
En la práctica, los sectores en modo 2 son poco utilizados. Prácticamente
todos los CD-ROM en circulación contienen únicamente sectores en modo 1,
salvo alguna excepción.

Como efecto adicional, la velocidad de transferencia de datos de una unidad


aumenta, si bien lo hace poco, con sectores en modo 2. Con los 75 sectores en
modo 1 leídos por segundo se obtiene una velocidad de transferencia de 75 * 2
KB = 150 KB por segundo, mientras que en modo 2, 75 * 2336 bytes / 1024
bytes por KB = 171 KB por segundo.

Lógicamente, las unidades dobles, triples, cuádruples y hasta de doce


velocidades de hoy en día consiguen velocidades de transferencia mayores.
Actualmente disponemos de lectores IDE capaces de transmitir datos al
ordenador del orden de 1.200 Kbytes/s.

Ambos formatos de sector tienen en común que 12 bytes de sincronización al


principio del sector, así como una cabecera de 4 bytes que reproduce el
número de sectores en formato Red Book así como el tipo de los mismos. El
tipo modo 0 se designa por un sector vacío, ocupado exclusivamente por ceros.

El formato XA
Las modernas unidades CD-ROM y controladores hoy en día son capaces de
gestionar también un formato que fue desarrollado por voluntad de sus autores
y ha llegado a convertirse en formato estándar para multimedia sobre CD-
ROM. Se trata del formato XA, conocido más exactamente como CD-ROM XA,
tal y como lo bautizaron Sony y Phillips en colaboración con Microsoft en 1989.

En 1991 se perfeccionó y hoy se conoce como un formato con "eXtended


Architecture" (XA), si bien durante largo tiempo ganó pocos adeptos.

Por otro lado, el formato CD-ROM XA se encuentra muy próximo al formato


CD-I que Phillips ha desarrollado para su sistema de CD interactivo.

La principal característica del estándar XA es su capacidad de interdireccionar


archivos por el procedimiento conocido como Interleave.

Detrás de todo ello se halla el típico problema de las aplicaciones multimedia.


Cuando, por ejemplo, se tiene que mostrar un texto en la pantalla mientras se
reproduce un vídeo al tiempo que, como fondo, suena una música de
acompañamiento, la aplicación tiene que trabajar con tres fuentes de datos de
tres archivos diferentes y además en tiempo real.

Como sólo se dispone de un CPU, esta debe dedicar su atención a pequeños


intervalos tanto al texto como a la reproducción de vídeo y audio.
Esto significa que en una rápida secuencia debe leer y cargar una parte del
archivo con el texto, luego del archivo de audio y luego del archivo de vídeo.

Si los archivos se encuentran en lugares alejados del disco, o incluso aunque


se encuentren uno a continuación del otro, la cabeza lectora debe desplazarse
continuamente de un archivo a otro, y vistos los malos tiempos de acceso de
las unidades CD-ROM, el colorista mundo de la multimedia pronto sería llevado
al fracaso. El vídeo iría a saltos, el sonido quedaría absorbido y el texto ya no
se ajustaría a la pantalla.

Es justo en este punto donde la especificación XA puede proporcionar ayuda


pues a través de la posibilidad del interleaving, pues este se ocupa de que la
CPU pueda cargar partes de texto, vídeo y audio que precisa sin necesidad de
desplazar la cabeza lectora, puesto que los archivos sencillamente están
anidados.
Primero hay tres sectores con texto, después cuatro con vídeo y tres con audio
y se repite de nuevo la secuencia hasta la finalización de las tres fuentes de
datos.

En la información contenida en el directorio a nivel lógico, se determina


exactamente cómo están intrincados los archivos, si primero hay dos o tres
sectores con texto a los que siguen cinco o quince sectores con datos de vídeo,
etc. A nivel físico, sólo se consigue, con un nuevo formato de sector, la
posibilidad de asignar individualmente los sectores a determinadas fuentes de
datos (es decir archivos).

El formato CD-ROM XA tiene exactamente igual que el formato normal CD-


ROM del Yellow Book, dos formatos de sector diferentes que en este caso no
se denominan modo 1 y modo 2 sino forma 1 y forma 2. Ambos se parecen al
modo 1 del formato de sector de CD-ROM pero presentan pequeñas
diferencias en la parte inicial del formato del sector, donde se almacenan los
datos.

Tanto forma 1 como forma 2 usan los ocho bytes que el modo 1 de CD-ROM
deja sin utilizar entre los datos para la detección de errores (EDC) y para la
corrección de errores (ECC). En el formato XA estos bytes se trasladan al
principio del sector donde constituyen un subheader inmediatamente a
continuación del header en el cual se almacenan las informaciones adicionales,
por ejemplo para el interleaving, que diferencian el formato XA del formato
normal CD-ROM.

Photo CD y CD-WO
El más reciente descubrimiento en el ámbito de los CD es el Photo CD, que
pertenece a la categoría de los CD-WO (CD-Write Once), conocidos también
como CD-R, abreviatura de CD-Recordable.
Lo que diferencia estos CD es su capacidad, a nivel físico, de grabar varias
sesiones, esto es la posibilidad de ser grabados varias veces una detrás de
otra. Este estándar se publicó en la más joven de las especificaciones de la
"serie arco iris", el Orange Book, en 1990.

Resulta fácil para los usuarios reconocer un CD grabable porque, al contrario


que sus parientes de sólo lectura, su brillo no es plateado sino dorado. Puesto
que el CD debe alcanzar una elevada reflexión, en esta capa, en lugar de los
habituales pits y lands, se encuentra una sustancia de color cuyas propiedades
de reflexión se determinan vía láser, simulando pits y lands consiguiendo de
este modo que las unidades CD-ROM normales puedan ser capaces de leer
estos CD.

Debido a su capacidad de ser grabado varias veces, la estructura de un CD-


WO es necesariamente diferente a la de un CD_ROM normal. Mientras el
comienzo de un CD-ROM normal está señalizado por la zona del lead in, en un
CD-WO hay dos zonas que anteceden al lead in y que se utilizan para el ajuste
fino del láser sobre cada CD.

En cada proceso de grabación de un CD-WO se escribe en el actual lead in


una indicación detrás del actual lead out. Esta información se guarda en el
TOC, que es parte del lead in.
En el siguiente proceso de grabación del disco, el láser se posiciona
inmediatamente detrás del lead out de la última zona y crea un nuevo volumen
con su lead in, su zona de datos y su lead out. Como los lead in están
relacionados a través de sus TOC, una unidad puede moverse por todo el CD y
con ello recoger todo su contenido.

El formato lógico
La base de todo medio de almacenamiento de datos la constituye siempre el
formato físico del soporte de datos, como se comentó en la sección anterior.
Además, si se quiere acceder a los datos almacenados no en forma de
sectores sino como archivos y directorios, se precisa de un formato lógico.

Naturalmente, cada fabricante puede asignar libremente el formato lógico que


desee a sus CD-ROM, pero entonces se precisará siempre del controlador
apropiado para poder leer esos CD-ROM bajo un sistema operativo y, si
hablamos de la posibilidad de utilización de los CD bajo diferentes sistemas
operativos, se precisará un controlador específico para cada sistema operativo
y cada tipo de formato de CD-ROM.

Esto es razón suficiente como para desarrollar también para el formato lógico
de los CD-ROM una especificación que estandarice y regule la distribución de
un CD-ROM en archivos y directorios.
En el año 1985, diferentes distribuidores de software y fabricantes de
hardware trabajaron conjuntamente obteniendo como fruto el llamado formato
HSG, vigente aún hoy en día en los CD para ordenadores PC y también para
muchos sistemas UNIX. Todos los CD-ROM que actualmente inserta en la
unidad de su PC están provistos de este formato.

El nombre de este formato viene de "High Sierra Group", que es el nombre


que recibieron los diferentes técnicos que participaron en el desarrollo del HSG
en honor al primer lugar donde se reunieron, el hotel y casino "High Sierra" en
el estado de Nevada, Estados Unidos.
Un año después, las autoridades de normalización americanas ISO
estandarizaron la propuesta, que se presentó bajo el título "Volume and File
Structure of Compact Read Only Optical Disk for Information Interchange".
Desde entonces se habla de la norma ISO 9660 o simplemente de la ISO 9660.

Este sistema de ficheros se diseñó para que fuera común a los ordenadores
basados en plataformas DOS, Unix y VAX/VMS. En el caso de MS-DOS, el
programa redirector que se encarga de interpretar la información que esconden
los CDs es el MSCDEX, que se carga en el fichero "autoexec.bat".

A pesar de que la norma ISO aceptó el 99,5 % de la propuesta del HSG,


existen algunas pequeñas diferencias que se hacen patentes sobre todo en la
estructura de las entradas de los directorios. Por ello a veces se habla del
formato HSG, otras de ISO 9660 y algunas de HSG/ISO 9660. En el fondo todo
es lo mismo.

A continuación se resumen los conceptos más importantes de la


especificación ISO, desde el punto de vista tanto del usuario como del
programador.
Quien desee acceder a los títulos y archivos de un CD-ROM desde el DOS
pocas veces entrará en contacto con todos estos conceptos, pues para ello los
CD se han transformado en un medio de almacenamiento de lo más normal,
direccionable, como lo es un disco duro.

Pero si lo que se pretende es acceder directamente al hardware del


controlador de una unidad CD-ROM para, por ejemplo, iniciar la reproducción
de unas pistas de audio, como mínimo uno se ha de familiarizar con los
conceptos aquí enunciados.

Sectores lógicos

Bloques lógicos

Archivos y nombres de archivo

Directorios y subdirectorios

Path table

Extended Attribute Records (XAR)


Volúmenes

Sectores lógicos
Para no perderse en el nivel de los sectores físicos, el formato HSG define en
primer lugar el sector lógico.

Este, en cuanto a su tamaño, está orientado a los sectores físicos según el


Yellow Book y contiene 2048 bytes, es decir 2 KB.

Cada sector posee un número inequívoco, el denominado "logical sector


number", abreviado LSN. El primer LSN direccionable lleva el número 0 y se
corresponde con el sector físico cuya dirección, según el Red Book, es
00:02:00.

Es decir, los primeros 150 sectores físicos que constituyen los dos primeros
segundos de un CD no pueden direccionarse desde el nivel de formato lógico.
Al mismo tiempo, de esto se deduce la fórmula de conversiones entre las
direcciones del Red Book (mm:ss:ff) y LSN, que es: LSN (mm:ss:ff) = (mm x 60
+ ss) x 75 - 150

Bloques lógicos
Para poder direccionar mejor los elementos de los sectores lógicos y al
mismo tiempo refinar la granulosidad de los mismos, HSG divide nuevamente
el sector lógico en varios bloques lógicos.

Cada bloque lógico (LBN) puede tener un tamaño de 512 bytes, 1024 bytes o
2048 bytes lo cual, en último caso, se corresponde con el tamaño del sector
lógico. Los LBN también se direccionan con números.

El tamaño de bloque de 512 bytes es el que mejor se presta para mostrar un


ejemplo. En este caso, hay un 0 para el primer "bloque" lógico del primer sector
"lógico", un 1 para el segundo, un 2 para el tercero y un 3 para el cuarto. El
bloque lógico 4 se encuentra al principio del segundo sector "lógico".

Archivos y nombres de archivo


Los archivos en los CD HSG se almacenan como una secuencia continua de
bloques lógicos, lo que se denomina Extent.

Por este motivo y al contrario que en las unidades DOS, no existe una File
Allocation Table (FAT). Si se conoce la posición del inicio de un archivo y su
longitud, se conocen también todos los LBN en los que está guardado el
archivo.

Esto resulta así de sencillo debido a que los archivos no se pueden borrar de
un CD-ROM y con ello desaparece también la necesidad de aprovechar los
espacios vacíos que se originan al eliminar archivos para almacenar
fragmentos de otros archivos nuevos, causa única para la existencia de una
estructura información como la FAT de una unidad DOS.

Además, HSG contempla la agradable y a la vez exótica posibilidad de que


los archivos se extiendan a lo largo de varios CD, cosa que DOS no soporta.

Dado que los archivos siempre tienen un nombre, HSG/ISO define las reglas
para la construcción y longitud de los nombres de archivo.
Este es uno de los pocos aspectos en que se diferencian HSG e ISO. Las
reglas de HSG dejan entrever a Microsoft como uno de los autores de este
estándar, puesto que los nombres de archivo deben seguir su arquetipo de
DOS, es decir, un máximo de ocho caracteres para el nombre, a continuación
un punto y por último un máximo de tres caracteres para la extensión. HSG
sólo se diferencia de DOS en relación a los caracteres que permite utilizar, y los
limita a las cifras del 0 al 9, las letras mayúsculas de la A a la Z y el carácter _ o
subguión.

En cuanto a los caracteres permitidos, la variante ISO coincide con la variante


HSG, pero por otra parte se inclina más bien por la conocida longitud de
nombre de archivo de UNIX, esto es, un máximo de 31 caracteres con o sin
punto de separación, aunque uno sólo, en cualquier lugar del nombre de
archivo.
El nombre debe concluir con un punto y coma, que separa la entrada opcional
del número de versión, del nombre del archivo.

En los CD para DOS, no se encuentran nombres de este tipo, si bien, como


comprobaremos en el siguiente apartado, hay suficiente espacio para nombres
de archivos largos en las entradas de directorio.

Directorios y
subdirectorios
Para la estructuración de los archivos almacenados, un CD ISO contiene un
directorio principal a partir del cual se pueden declarar cuantos subdirectorios
se desee que, a su vez, pueden contener subdirectorios, obteniéndose la
conocida estructura de árbol de DOS y UNIX, con la única limitación de que el
número máximo de niveles de directorios se restringe a ocho.
El directorio principal, así como los subdirectorios que paren de él se
almacenan como archivos. Estos "archivos-directorio" pueden, por tanto,
disponerse en el lugar que se desee entre los otros archivos del CD.

Las entradas de directorio se difieren entre ISO y HSG en cuanto al campo


Tiempo y el flag Bytes a él asociado, pero por lo demás son idénticas.
Seguramente resulta llamativo que una larga serie de campos estén
duplicados, una vez con el sufijo I y otra con el sufijo M.

Detrás de ello se encuentra un problema básico de intercambio de datos


entre dos sistemas. En todos los números para cuya representación se
precisan más de 8 bits se plantea la cuestión de en qué secuencia deben
disponerse los diferentes bytes que lo componen.

La respuesta de Intel es conocida: primero el menos significativo y después el


más significativo. Sin embargo, muchos procesadores trabajan exactamente al
revés, como por ejemplo los de Motorola. Por este motivo, toda información de
16 o 32 bits se guarda por duplicado, una vez en formato Intel (sufijo I) y otra
en formato Motorola (sufijo M). Con ello el sistema operativo tiene la posibilidad
de escoger el campo en el formato con el que trabaja el procesador sobre el
que corre el propio sistema operativo.

Mientras que a nivel físico el formato de sectores de CD-ROM XA cumple las


condiciones para permitir el interleaving de archivos, este se encuentra
realmente en el nivel lógico de las entradas de directorio. Los campos il_size e
il_skip muestran cuantos sectores lógicos de un archivo hay seguidos y
cuántos deben saltarse a continuación para acceder al siguiente bloque de
sectores del mismo archivo.

Para que al buscar un archivo en un archivo de directorio, aquel se pueda


encontrar de la manera más rápida, es recomendable no poner más de 40
archivos dentro del mismo directorio, puesto que este número de entradas de
directorio caben en un sólo sector lógico y por tanto para encontrar un archivo
determinado sólo es necesario cargar el primer sector de un archivo de
directorio.

Path table
Guardar los directorios como si de archivos se tratase es un procedimiento
tan sencillo como elegante, pero no exento de inconvenientes. Sobre todo en la
búsqueda de archivos en subdirectorios de niveles profundos dentro de la
estructura, pues se tienen que buscar y leer demasiados archivos de directorios
hasta que se acierta con el directorio en el que se encuentra el archivo
buscado.
Por este motivo, y en vista de la relativamente lenta velocidad de búsqueda
de las unidades de CD-ROM, se construye una especie de abreviación de los
subdirectorios que se conoce como Path Table.

En el Path Table se enumeran los nombres de todos los directorios y


subdirectorios de un CD juntamente con el número del sector lógico en que
comienza cada uno de ellos. Si se tiene esta tabla en la memoria, basta la
lectura de un sector para averiguar la dirección de un archivo, siempre que,
evidentemente, la entrada de directorio del archivo se encuentre en el primer
sector de los datos de directorio, de lo contrario, se han de ir cargando los
diferentes sectores de datos de directorio hasta encontrarlo.

Dado que el Path Table contiene como números de sector números enteros
de 32 bits, sobre un CD-ROM siempre hay dos copias del Path Table, una con
los números en formato Intel y otra en formato Motorola.

Extended Attribute Records (XAR)


Otra característica interesante la constituyen los denominados "eXtended
Attribute Records", abreviado XAR.

Estos registros ofrecen la posibilidad de, al crear un archivo, almacenar


cualquier información que se desee sobre el mismo, lo cual es básico para
estructurar un sistema de archivos orientados a objeto.

Por ejemplo se puede guardar quien ha creado el archivo, hasta qué punto en
el tiempo funciona el programa, porque por ejemplo a partir de entonces los
datos ya no son válidos, etc.

Para que los archivos de directorio no aumenten innecesariamente con estas


informaciones, estas no se guardan en le entrada de directorio de un archivo,
sino que constituyen el primer sector lógico del mismo.

Cuando se accede a un archivo para lectura, el sistema operativo (o un


programa) debe primero averiguar en la entrada de directorio del archivo
cuántos sectores XAR tiene dicho fichero al principio, para poder así saltarlos.

Junto a los atributos libremente definibles, HSG prevé también unos atributos
predefinidos, como por ejemplo una identificación del usuario, derechos de
acceso, informaciones sobre la estructura del bloque de datos que está
guardando en el archivo y otros más. Bajo DOS, todos estos atributos no
juegan ningún papel, puesto que el DOS ignora todas las entradas XAR.

Volúmenes
Al igual que sucede con otros medios de almacenamiento masivo, por encima
del nivel de archivos y directorios se encuentra el nivel de volumen.

El conjunto de archivos y directorios que están almacenados en un CD


constituyen un volumen.

HSG describe un formato de volumen basado en dos componentes: una zona


de sistema y una zona de datos.

La zona de sistema contiene básicamente los 16 primeros sectores lógicos de


un CD (LSN 0 hasta LSN 15).
Su utilización no está definida y permanece reservada para los
correspondientes sistemas operativos bajo los que el CD se utilizará. Por
ejemplo, en caso de que se quiera arrancar el ordenador dese el CD, puede
disponerse un sector de arranque.

La zona de datos de un volumen está encabezada por los denominados


"Volume Descriptors" (VD), de los que hay hasta 5 diferentes definidos por
HSG. Cada uno describe un aspecto concreto del medio y ocupa un sector
lógico completo, en cualquier caso, de los cinco posibles VD, solo es
imprescindible el "Standard Volume Descriptor", los restantes son opcionales.

Se está buscando en balde un campo que suministre el número de VD, pero


en lugar de ello, hay un Volume Sequence Terminator que muestra el final de
los VD.

Un Standard Volume Descriptor contiene como información más importante la


dirección del archivo de directorios con el directorio principal y la dirección de la
Path Table. Además se mencionan los nombres de los archivos de "Copyright"
y de los "Abstract Files", que son archivos incluidos en el directorio principal y
que contienen información en texto ASCII sobre el autor del CD (Copyright file)
y su contenido (Abstract file).

Tarjetas de sonido
En el mundo de los ordenadores compatibles el estandar en sonido lo ha
marcado la empresa Creative Labs y su saga de tarjetas Sound Blaster.

Si escojemos una tarjeta que no sea de esta marca, y queremos ejecutar todo
tipo de software es importante comprobar que sea SB compatible a nivel de
hardware, y si así es, informarnos de con que modelo es compatible.

En el caso de que sólo nos interese que funcione con programas Windows 95,
esta precaución no será importante, entonces sería mas interesante saber que
dispone de drivers de calidad, y de que Microsoft la soporte a nivel hardware en
sus DirectX.

Otro factor a tener en cuenta es si la tarjeta admite la modalidad "full duplex",


es decir si admite "grabar" y "reproducir" a la vez, o lo que es lo mismo, si
puede procesar una señal de entrada y otra de salida al mismo tiempo. Esto es
importante si queremos trabajar con algún programa de videoconferencia tipo
"Microsoft NetMeeting" el cual nos permite mantener una conversación con
otras personas, pues la tarjeta se comporta como un teléfono, y nos deja oir la
voz de la otra persona aunque en ese momento estemos hablando nosotros.
Muchas de las tarjetas de Creative no poseen este soporte a nivel de hardware,
pero si a nivel de software con los drivers que suministra la casa para algunos
S.O.

También es importante el soporte de "MIDI". Este es el estandar en la


comunicación de instrumentos musicales electronicos, y nos permitirá
reproducir la "partitura" generada por cualquier sintetizador y a la vez que
nuestra tarjeta sea capaz de "atacar" cualquier instrumento que disponga de
dicha entrada.
Hay que tener claro que el formato MIDI realmente no "graba" el sonido
generado por un instrumento, sino sólo información referente a que instrumento
estamos "tocando", que "nota" , y que características tiene de volumen,
velocidad, efectos, etc..., con lo que el sonido final dependerá totalmente de la
calidad de la tarjeta.

Otro punto importante es la memoria. Esta suele ser de tipo ROM, y es utilizada
para almacenar los sonidos en las tarjetas de tipo "síntesis por tabla de ondas".
Este tipo de tarjetas nos permiten "almacenar" el sonido real obtenido por el
instrumento, con lo que la reproducción gana mucho en fidelidad. Cuanta más
memoria dispongamos, más instrumentos será capaz de "guardar" en ella y
mayor será la calidad obtenida.
En las tarjetas de síntesis FM este datos no es importante.

Tarjetas de sonido para PC, Un apasionante artículo a cargo del profesor


Fernando Sánchez Gómez.

Tarjetas de sonido Un artículo a cargo de Mosse.

Gama Sound Blaster Una relación de todos los productos comercializados por
la compañía Creative Labs.

Nuestra sección de software


para las tarjetas de sonido

Cajas
Como ya se comenta en la
sección de placas base, la
principal distinción la tenemos en
el formato de la placa a la que
sustenta.
Así tenemos que puede ser ATX ó Baby AT.

El siguiente factor serán las dimensiones de la misma. De menor a mayor las


más normales son: Mini-torre, sobremesa, midi-torre ó semi-torre, y gran torre,
así como modelos para algunos servidores que requieren el montaje en
dispositivos tipo rack.
Cuanto mayor sea el formato, mayor será el número de bahías para sustentar
dispositivos tales como unidades de almacenamiento. Normalmente también
será mayor la potencia de la fuente de alimentación.

Las características de un modelo mini torre típicas son: soporte para hasta 7
ranuras de expansión. 2 unidades externas de 5 1/4, 2 también externas de 3
1/2 y 1 interna, fuente de alimentación de 200 w, pilotos de encendido, disco y
turbo, pulsadores de reset y turbo. En los modelos más modernos, el pulsador
y la luz de turbo se suelen sustituir por los de sleep.

Los modelos MIDI suelen traer 1 bahías más para dispositivos externos de 5
1/4, así como una F.A. de 220 w.

Artículo sobre las fuentes de alimentación ¡No te lo pierdas!

Placas base
Una primera distinción la tenemos en el formato de la placa, es decir, en sus
propiedades físicas.
Dicho parámetro está
directamente
relacionado con la
caja, o sea, la carcasa
del ordenador.
Hay dos grandes
estándares: ATX y
Baby AT

La segunda distinción
la haremos por el
zócalo de la CPU, así
como los tipos de
procesador que
soporte y la cantidad de ellos. Tenemos el estándar Tipo 4 o 5 para Pentium, el
tipo 7 para Pentium y MMX, el Super 7 para los nuevos procesadores con bus
a 100 Mhz, el tipo 8 para Pentium Pro, el Slot 1 para el Pentium II y el Celeron,
y el Slot 2 para los Xeon. Estos son los más conocidos.

La siguiente distinción la haremos a partir del chipset que utilicen:


Los más populares son los de Intel. Estos están directamente relacionados con
los procesadores que soportan, así tenemos que para el Pentium están los
modelos FX, HX, VX y TX.
Para Pentium PRO los GX, KX y FX. Para Pentium II y sus derivados, además
del FX, los LX, BX, EX, GX y NX. Para Pentium MMX se recomienda el TX,
aunque es soportado por los del Pentium 'Classic'.

También existen placas que usan como chipset el de otros fabricantes como
VIA, SiS, UMC o Ali (Acer).

El siguiente parámetro es el tipo de bus. Hoy en día el auténtico protagonista


es el estandar PCI de 32 bits en su revisión 2.1, pero también es importante
contar con alguna ranura ISA de 16 bits, pues algunos dispositivos como
módems internos y tarjetas de sonido todavía no se han adaptado a este
estándar, debido básicamente a que no aprovechan las posibilidades de ancho
de banda que éste posee.
Tambien existe un PCI de 64 bits, aunque de momento no está muy visto en el
mundo PC.

Otros tipos de bus son el ISA de 8 bits, no usado ya por ser compatible con el
de 16 bits, el EISA, usado en algunas máquinas servidoras sobre todo de
Compaq, el VL-Bus, de moda en casi todos los 486, o el MCA, el famoso bus
microcanal en sus versiones de 16 y 32 bits patrocinado por IBM en sus
modelos PS/2.

Otra característica importante es el formato y cantidad de zócalos de memoria


que admite. En parte viene determinado por el chipset que utiliza. La más
recomendable es la DIMM en formato SDRAM y como mínimo 3 zócalos. En el
caso de módulos SIMM de 72 contactos el mínimo es de 6 (recordad que van
de 2 en 2).

Por último, en las placas basadas en socket 7 y super 7, tambien debemos


tener en cuenta la memoria caché. Normalmente está directamente soldada a
la placa base y en cantidades de 512 o 1024 Kb. Para saber más sobre ella
acuda a la sección de memorias

ATX:

El estandar ATX es el más moderno y el que mayores ventajas ofrece. Está


promovido por Intel, aunque es una especificación abierta, que puede ser
usada por cualquier fabricante sin necesidad de pagar royalties. La versión
utilizada actualmente es la 2.01.

Entre las ventajas de la placa cabe mencionar una mejor disposición de sus
componentes, conseguida básicamente girandola 90 grados. Permite que la
colocación de la CPU no moleste a las las tarjetas de expansión, por largas que
sean. Otra ventaja es un sólo conector de alimentación, que además no se
puede montar al revés.

La memoria está colocada en un lugar más accesible.

La CPU está colocada al lado de la F.A. (Fuente de Alimentación) para recibir


aire fresco de su ventilador.
Los conectores para los dispositivos IDE y disqueteras quedan más cerca,
reduciendo la longitud de los cables y estorbando menos la circulación del aire
en el interior de la caja.

Además de todas estas ventajas dicho estandar nos da la posibilidad de


integrar en la placa base dispositivos como la tarjeta de video o la tarjeta de
sonido, pero sacando los conectores directamente de la placa, dándonos un
diseño más compacto, y sin necesidad de perder ranuras de expansión.

Así podemos tener integrados los conectores para teclado y ratón tipo PS/2,
série, paralelo o USB que son habituales en estas placas, pero también para
VGA, altavoces, micrófono, etc... sin apenas sacrificar espacio.

Baby AT:

Este formato está basado en el original del IBM PC-AT, pero de dimensiones
más reducidas gracias a la mayor integración en los componentes de hoy en
día, pero físicamente compatible con aquel.

Aún hoy en día es el más extendido. En este tipo de placas es habitual el


conector para el teclado 'gordo'

Entre sus ventajas cabe destacar el mejor precio tanto de éstas como de las
cajas que las soportan, aunque esta ventaja desaparecerá a medida que se
vaya popularizando su contrincante.

Leyendo las ventajas de las placas ATX se pueden entrever los inconvenientes
de dicha arquitectura.

Tarjeta madre por Manuel Nicolas Mabroidis Ramos

Características de las placas base Baby-AT. por César San Juan Revilla

Características de las placas base ATX. por César San Juan Revilla

Prueba: ABIT BP6: Placa Socket 370 biprocesador.

Características de los chipset de Intel.

Características de los puertos U.S.B. (Universal Serial Bus)

Lista de placas base y sus características por Juan Carlos Bogo

Tutorial sobre los buses del PC y su historia por Alberto Barreu y Alejandro
Lloro

Para más información sobre los puertos serie y paralelo, vista nuestra sección
dedicada a los puertos
Nuestra sección de software para las placas base

Tarjeta madre
Fácilmente se puede afirmar que el componente más importante
en un sistema PC es la tarjeta principal o tarjeta madre.
Crit
erios Algunas compañías, como IBM, se refieren a la tarjeta madre
de como tarjeta del sistema o tarjeta plana. Los términos tarjeta
selec madre, tarjeta principal, tarjeta del sistema o tarjeta plana se
ción emplean indistintamente.

Compatibil TARJETA MADRE:


idad
del
ROM
BIOS

Uso de
part
es
con
veloc
idad
corre
cta

Formatos
de
tarje Algunos fabricantes han ido tan lejos como para hacer sus
tas sistemas tan incompatibles físicamente con otros sistemas como
madr sea posible, de tal suerte que las refacciones, reparaciones y
e actualizaciones son prácticamente imposibles de encontrar o
realizar - excepto, por supuesto, con el fabricante original del
sistema, a un precio significativamente más alto del que costaría
la parte equivalente en un sistema estándar.

Por ejemplo, si falla la tarjeta madre en chasis AT actual (o


cualquier sistema que utilice una tarjeta madre y gabinete Baby-
AT), se puede encontrar un sin número de tarjetas de reemplazo
que se ajustarán directamente, con su propia selección de
procesadores y velocidades de reloj, a muy buen precio. Si falla
la tarjeta madre en una computadora reciente de IBM, Compaq,
Hewlett - packard, Packard Bell, Gateway, AST u otro sistema
con características propias, usted pagara por una refacción
disponible sólo con el fabricante original y tendrá poca o ninguna
oportunidad para seleccionar un procesador más rápido o mejor
que el que falló.

En otras palabras, actualizar o reparar estos sistemas mediante


sustitución de la tarjeta madre es difícil y por lo regular no es
costeable.

Criterios de selección
A continuación se numeran los aspectos más importantes para seleccionar un
sistema.

El objetivo consiste en asegurar que el sistema seleccionado sea


verdaderamente compatible y tenga por delante una larga vida de servicio y
actualizaciones.

Es posible que no tenga que satisfacer cada uno de estos criterios para
considerar un sistema en particular, pero si no se satisfacen más de unos
cuantos de estos, considere que se debe descartar dicho sistema.

Los primeros elementos de la lista son los más importantes y los que se
encuentran el final tienen quizás menor importancia (aunque son todos
importantes).

- Procesador.
Una tarjeta madre Pentium debe utilizar como mínimo la segunda generación
3.3v de procesadores Pentium, la cual tiene una configuración Socket 5 o
Socket 7 de 296 pins, la cual difiere físicamente del diseño de primera
generación Socket 4 de 273 pins.

Las tarjetas madre con la configuración Socket 7 también manejan los


recientes procesadores con la tecnología MMX, incluyendo a los K6 de AMD.

Todos los Pentium de segunda generación (75 MHZ y superiores) tienen por
completo las mejoras SL.

Los mas recientes Procesadores Pentium Pro y Pentium II tienen


configuraciones propias, únicas de tarjeta madre y por ello no son compatibles
con otras tarjetas madre basadas en Pentium.

- Sockets de procesador.
Una tarjeta madre Pentium debe tener por lo menos un Socket ZIF que siga la
especificación Socket 7 (321 pins) de Intel.
Este Socket, con uno adyacente para el VRM (Módulo Regulador de Voltaje),
permitiría que seleccionen futuros procesadores Pentium disponibles a
velocidades más altas.

Aunque el Socket 5 es similar al Socket 7, muchos de los más recientes y


rápidos Pentium -incluyendo los procesadores equipados con MMX - requieren
del Socket 7.

Las tarjetas madre Pentium Pro (P6) usan el Socket 8 y muchas están
preparadas para admitir varios procesadores. Antes de incurrir en el gasto de
comprar una tarjeta de procesadores múltiples, asegúrese de que su sistema
operativo pueda manejarla.

- Velocidad de la tarjeta madre.


Una tarjeta madre Pentium o Pentium Pro debe operar a 60 o 66 MHZ y poder
alternar entre estas velocidades.

Observe que todos los procesadores Pentium y Pentium Pro que se venden
hoy en día operan a un múltiplo de velocidad de la tarjeta madre. Por ejemplo,
el Pentium 75 opera a una velocidad de tarjeta madre de 50 MHZ; los chips
Pentium de 60, 90, 120, 150 y 180 MHZ operan a una velocidad base de la
tarjeta madre de 60 MHZ; y los Pentium de 66, 100, 133, 166 y 200MHZ
operarán para una configuración de la velocidad de 66 MHZ de la tarjeta
madre.

Los Pentium Pro 150, 180, y 200 operan a velocidades de 50, 60 y 66 MHZ,
respectivamente. Todos los componentes de la tarjeta madre (en especial la
memoria caché) debén estar habilitados para operar a la máxima velocidad
permisible de la tarjeta madre.

- Memoria Caché
Todas las tarjetas madre Pentium deben tener en ellas un caché de Nivel 2, de
256 a 512 Kb.

La mayoría de los procesadores Pentium Pro tienen integrada un cache de este


tipo, pero podrían tener mas caches de nivel 2 sobre la tarjeta madre para un
desempeño aún mejor.

El caché de nivel 2 debe ser de diseño de escritura -hacia -atrás y debe


contener chips lo suficientemente rápidos para manejar la velocidad máxima de
tarjetas madre, lo que implica 15 ns o mas rápidos para velocidades máximas
de tarjetas madre de 66 MHz.

Para la tarjetas Pentium Pro, el caché debe ser de tipo SRAM Síncrona (RAM
estática), a la que también se le denomina SRAM en ráfaga por conductos.

- Memoria RAM
Todas las tarjetas madre Pentium y Pentium Pro deben emplear ya sea SIMMs
(Modulo sencillo de memoria en línea) de 72 pins, o bien DIMMs(Modulo Dual
de Memoria en líneas) de 168 pins.

Debido al diseño de 64 bits de estas tarjetas, los SIMMs de 72 pins deben


instalarse por pares, mientras que los DIMMs se instalan uno a la vez uno por
banco de 64 bits.

Considere con cuidado la cantidad total de memoria que puede manejar la


tarjeta. Mientras que se considera que 16 Mb son apenas el mínimo para las
aplicaciones consumidoras de memorias de hoy en día, en realidad podría
requerir mucho más.

Las tarjetas madre Pentium deben de manejar un mínimo de 128 Mb, y muchas
tarjetas Pentium II actuales ¡manejan mas de 1 Gb¡ Una tarjeta madre debe
contener por lo menos cuatro conectores de memoria (de 72 o 168 pins, o una
combinación) y entre más, mejor.

Para un máximo desempeño, busque sistema que manejen SIMMs/DIMMs de


tipo SDRAM (DRAM Sincrona) o EDO (salida de Datos Ampliada). Los SIMMs
deberán tener una velocidad de 70 ns o más.

Lo ideal en los sistemas de misión crítica es que usen SIMMs de paridad y


asegurarse de que la tarjeta madre maneje por completo la verificación de
paridad o incluso también el ECC Código de corrección de errores.

Observe que el popular conjunto de chips Tritón Pentium de Intel (82439 NX) y
él más reciente Tritón Pentium de Intel (82430FX) no maneja ninguna
verificación de paridad, pero sus otros conjuntos de chips Pentium, como el
anterior Neptuno (82439NX) y él más reciente tritón II (82430 HX) en efecto
ofrece el manejo de la paridad.

El Tritón II ofrece la capacidad ECC utilizando SIMMs estándar de paridad


Todos los conjuntos de chips Pentium Pro actuales manejan también paridad
de memoria y son ideales para servidores y otros usos de misión crítica cuando
están equipados con SIMMs o DIMMs de paridad.

- Tipo de bus.
Las tarjetas madre Pentium. Pentium Pro y Pentium II deben tener cuatro
ranuras de bus ISA y tres o cuatro ranuras de bus local PCI. Observar el diseño
de las ranuras para asegurarse de que las tarjetas que se inserten en ellas no
bloqueen el acceso a los conectores de memoria, o queden bloqueadas por
otros componentes del gabinete.

- Bios.
La tarjeta madre deberá emplear un BIOS estándar de la industria como son
los de AMI, Phoenix, Microid Reseach o Award.
El diseño del BIOS debe ser de ROM rápida (Flash ROM) o EEPROM
(memoria Programable y borrable Eléctricamente Solo de lectura), para una
fácil actualización.

El BIOS debe manejar la especificación plug and Play, IDE, Mejorada o ATA
rápida, así como unidades de disco flexible de 1.44 Mb. Asimismo, dentro del
BIOS debe estar integrado el manejo de APM (administración Avanzada de
corriente).

- Factor de la forma (formato).


Para una flexibilidad máxima, el factor de forma de la Baby - AT es aún una
buena elección.

Se puede instalar en la más amplia variedad de diseños de gabinete y en la


mayoría de los sistemas, es ajustable. Para el mas alto desempeño y futura
flexibilidad, muchas tarjetas madre y sistemas recientes incorporan el nuevo
factor de tamaño ATX, el cual tiene un desempeño distinto y ventajas
funcionales sobre la Baby - AT.

- Interfaces integradas.
De manera ideal, una tarjeta madre debe contener tantos controladores e
interfaces estándar integrados como sea posible (con excepción del vídeo).

Una tarjeta madre debe tener integrado un controlador de disco flexible que
maneje unidades de 1.44 Mb, buses locales primario y secundario (bus PCI o
VL) integrados; conectores IDE mejorados (también llamados ATA rápidos);
Dos puertos seriales integrados de alta velocidad (deben usar UARTs de tipo
16550 A con búfer); y un puerto paralelo integrado de alta velocidad
(compatible con EEP/ESP).

Algunos sistemas recientes, en particular los que tienen factor de forma ATX o
NLX, deben incluir integrado un puerto USB (Bus Serial Universal).

En el futuro próximo, los puertos USB se convertirán en un elemento


"obligatorio " en los sistemas multimedia.

En estándares ASPI (interfaz de Programación Avanzada SCSI).

Los adaptadores de red integrados son aceptables, pero por lo regular una
tarjeta de red para ranura ISA se maneja con mas facilidad por parte de los
controladores estándar y también se actualiza mas fácilmente.

- Plug and Play o (PnP).


La tarjeta madre debe manejar por completo la especificación PnP de Intel.
Esto permite la configuración automática de adaptadores PCI, así como de
adaptadores ISA PnP.
- Administración de corriente.
La tarjeta madre debe manejar por completo los procesadores SL mejorados
con APM (administración Avanzada de Corriente) y protocolos SMM (modo de
Administración del sistema), que permita disminuir la energía en diversos
componentes del sistema a diferentes niveles de estados de actividad y
consumo de energía.

- Conjuntos de chips de la tarjeta madre.


Las tarjetas madre Pentium y Pentium MMX deben utilizar un conjunto de chips
de alto desempeño, de preferencia uno que permita la verificación de paridad,
como el Tritón II de Intel (430 HX).

El popular conjunto de chips original Tritón Intel (430 FX), junto con las mas
recientes 430 TX y 430 VX, no maneja la verificación de paridad de memoria.

Para aplicaciones críticas que usan tarjetas madre Pentium, en donde es


importante la precisión e integridad de los datos, se recomienda usar una
tarjeta basada en el conjunto de chips Tritón II (430 HX) o cualquier otro similar
que maneje el ECC de memoria empleando módulos de paridad efectiva de
memoria.

Como algo adicional, el conjunto de chips 430 HX maneja el USB y varias


CPUs, duales, haciéndolo realmente versátil.

Actualmente las tarjetas madre Pentium II tiene el conjunto de chips Orinó (450
KX y 450 GX) de alta tecnología.

- Documentación.
Una buena documentación técnica es obligatoria.

Debe contener información sobre todos y cada uno de los jumpers e


interruptores que se encuentran en la tarjeta, la descripción de pins de todos
los conectores, las especificaciones de chips de caché RAM; SIMMs y otros
componentes conectables, así como cualquier otra información técnica
aplicable.

Yo adquiriría también, por separado, la documentación del fabricante del BIOS,


que cubra el BIOS específico utilizado en el sistema, así como los manuales
que comprendan el conjunto de chips específicos que emplean la tarjeta
madre.

En forma adicional, son recomendables los manuales de cualquier otro chip


controlador o de E/S que tenga la tarjeta, los cuales se podrían adquirir con el
respectivo fabricante.

También convendría tener disponible un soporte en línea y actualizaciones de


la documentación, aunque esto no debe aceptarse en sustitución de buenos
manuales impresos.
Advertencia

La mayoría de los fabricantes de conjuntos de chips sólo hacen un chip en


particular por poco tiempo, superándolo con rapidez con una versión mejorada
o modificada. Los manuales sólo están disponibles durante el tiempo en que se
fabrica el chip, de modo que si se espera demasiado, se encontrara con que
dichos documentos ya no están disponibles. ¡El momento de reunir la
documentación sobre su tarjeta madre es ahora!

Compatibilidad del ROM BIOS


El aspecto de la compatibilidad del ROM BIOS es importante.

Si el BIOS no es compatible, pueden surgir diversos problemas.

Varias compañías respetables que producen componentes compatibles han


desarrollado su propio ROM BIOS de tipo propietario que funciona tal como el
de IBM.

Además, muchos de los OEMs (Fabricantes de Equipo Original) de compatibles


han diseñado ROMs que funcionan de manera especifica en sus sistemas con
características adicionales, en tanto que ocultan los defectos de estas mejoras
a cualquier programa que "protestaría" frente a dichas diferencias.

Muchos OEMs han desarrollado de manera independiente sus propios ROMs


compatibles. Compañías como Compaq y AT&T han desarrollado sus propios
productos BIOS, que serían comparables a los que ofrecen AMI, Phoenix y
otros. Estas compañías ofrecen también actual-OEMs.

Actualizaciones a las versiones más recientes que a menudo brindan mas


características y mejoras o solucionan problemas de versiones anteriores.

Si usa un sistema con una ROM de tipo propietario, asegúrese de que sea de
una compañía grande con una trayectoria y que proporcione actualizaciones y
ajustes según se requiera.

-AMI.
Aunque AMI adapta el código ROM para un sistema en particular no vende al
OEM el código fuente ROM.

Un fabricante de equipo original debe obtener cada nueva versión cuando esta
disponible. Como muchos de ellos no necesitan o no desean cada nueva
versión antes de obtener la licencia de una nueva.

El AMI BIOS es actualmente el BIOS más popular en los sistemas de


computadoras personales. Las versiones más recientes del AMI BIOS se
denominan Hi-Flex debido a la alta flexibilidad que se encuentra en el programa
de configuración del BIOS.
El AMI Hi-Flex BIOS es utilizado por Intel, AMI y muchos otros fabricantes de
tarjetas madre.

TIP.
Un buen truco para ayudarle a visualizar el identificador del BIOS consiste en
apagar e incluso desconectar el teclado, o presionar una tecla al encender de
nuevo.

Esto provocara un error del teclado, y la cadena de identificación permanecerá


en la pantalla.

Todo AMI BIOS exhibe la cadena de identificación principal del BIOS durante la
POST (Pruebe Automática al Encender), en la esquina inferior izquierda de la
pantalla, bajo el mensaje propiedad.

El AMI Hi-Flex BIOS puede además exhibir dos cadenas adicionales de


identificación si se presiona la tecla Insert durante POST. Estas cadenas
adicionales exhiben las opciones que están instaladas en el BIOS.

El BIOS AMI tiene muchas características, incluyendo el programa integrado de


configuración que se activa al presionar la tecla Supr o Esc durante los
primeros segundos cuando sé inicializa la computadora. El BIOS indicara
brevemente que tecla oprimir y cuando hacerlo.

El BIOS de AMI ofrece la definición por parte del usuario del tipo del disco duro,
que es esencial para el uso optimo de muchas unidades IDE o ESDI. Las
versiones más recientes del BIOS manejan unidades IDE mejoradas y
configurarán de manera automática los parámetros de la unidad.

Una característica única del BIOS de AMI es que, además de la configuración,


tiene integrado un paquete de diagnostico manejado por menú que en esencia
es una versión reducida del producto independiente AMIDIAG.

- Award.
Es único entre los fabricantes de BIOS, ya que vende su código de BIOS al
OEM y permite que este adapte el BIOS. Por supuesto, el BIOS ya no es en
este caso un BIOS de Award, sino más bien una versión altamente
personalizada.

El BIOS de Award tiene las características normales que usted esperaría


incluyendo el programa integrado de configuración que se activa al presionar
Ctrl-Alt-Esc, esta configuración ofrece al usuario la posibilidad de definir el tipo
de unidad de disco, lo cual se requiere para el empleo de unidades de disco
IDE o ESDI en toda su extensión.

En general, el BIOS de Award es de alta calidad, tiene un mínimo de problemas


de compatibilidad y ofrece un elevado nivel de apoyo.
- Phoenix.
Por muchos años el BIOS de Phoenix ha sido el estándar de compatibilidad
mediante el que se juzga a los demás.

Fue una de las primeras compañías en intervenir legalmente la ingeniería del


BIOS de IBM por medio de un enfoque de "cuarto tipo".

En este enfoque, un grupo de ingenieros estudió el BIOS de IBM y escribieron


una especificación de cómo debe funcionar el BIOS y que características debe
comprender. Luego, esta información se pasa a un segundo grupo de
ingenieros los cuales nunca habían visto el BIOS de IBM.

Ellos podían entonces escribir legalmente un nuevo BIOS para las


especificaciones establecidas por el primer grupo. Así, este trabajo sería único
y no una copia del BIOS de IBM; sin embargo, funcionaría del mismo modo.

Este código ha sido refinado a través de los años y tiene muy pocos problemas
de compatibilidad en comparación con algunos otros distribuidores de BIOS.

El Bios emite un amplio conjunto de códigos de sonido que pueden emplearse


para diagnosticar problemas severos de la tarjeta madre que evitaría la
operación normal del sistema.

Las tarjetas madre de Micronics siempre han utilizado el BIOS de Phoenix, y se


utilizan en muchos de los sistemas compatibles de marcas populares.

Phoenix ha sido uno de los más grandes OEMs del MS-DOS de Microsoft. Si
tiene MS-DOS, también tendrá la versión OEM de Phoenix. Por su estrecha
relación con Microsoft, ha tenido acceso al código fuente del DOS, lo cual
ayuda a eliminar problemas de compatibilidad.

Uso de partes con velocidad


correcta
Para ahorrar dinero, algunos distribuidores de computadoras compatibles usan
partes que están por debajo del estándar.

La CPU es uno de los componentes más caros en la tarjeta madre, y muchas


tarjetas madre se venden a los ensambladores de sistemas sin la CPU
instalada, por lo que resulta tentador para el ensamblador instalar una CPU con
rango de velocidad menor a la velocidad operativa real.

Por ejemplo, se podría vender un sistema como si su CPU fuera de 100Mhz,


pero al examinarla detenidamente podría descubrirse que se trata de una de
solo 90Mhz. El sistema parece funcionar en forma correcta pero, ¿por cuánto
tiempo?.
Si la compañía que fabrica el chip de CPU instalado en este sistema, probo el
chip para operar de manera confiable a 100Mhz, hubiera etiquetado la parte de
acuerdo a ello.

Después de todo, la compañía podría vender más caro el chip si funcionara ala
velocidad de reloj más alta.

Es fácil caer en esta practica porque los chips con especificaciones de


velocidad mayores cuestan más, Intel y otros fabricantes de chips por lo regular
especifican sus productos en forma conservadora.

Se ha tomado varios procesadores 486 a 25Mhz y se han operado a 33Mhz y


parecen funcionar muy bien. Los chips Pentium 90 que se han probado parece
que operan bien a 100Mhz. Aunque pudiera comprar un sistema Pentium 90 y
tomara la decisión de operarlo ha 100Mhz, si experimentase bloqueos y fallas
en la operación, regresaría de inmediato a 90Mhz y probaría de nuevo.

Si comprara un sistema de 100Mhz de un distribuidor, esperaría que todas sus


partes fueran de 100Mhz y ¡no partes de 90Mhz operando por arriba de su
velocidad! Actualmente, muchos chips tendrán alguna forma de disipador de
calor, lo cual ayuda a prevenir el sobrecalentamiento, pero que también puede
servir para encubrir a un chip "forzado".

Para determinar la velocidad en la que esta catalogado un chip de CPU,


observe lo que esta escrito sobre el chip. La mayoría de las veces, el numero
de parte terminara con un sufijo -xxx, en donde xxx un numero que indica la
velocidad máxima. Pro ejemplo-100 indica que el chip esta catalogado o tiene
la especificación para operar a 100Mhz.

Advertencia.

Al ejecutar programas para determinar la velocidad del procesador.

Dichos programas solo pueden indicarle la velocidad ala que esta operado el
chip en el momento en que se prueba no es su verdadera capacidad.

También ignore las luces del indicador de velocidad en la parte frontal de


algunos gabinetes. Estos indicadores digitales se pueden ajustar mediante
jumpers para mostrar ¡prácticamente cualquier velocidad que desee! No
guardan una relación directa con la velocidad real del sistema.

Formatos de tarjetas madre


Existen varios factores de forma compatibles que se utilizan para las tarjetas
madres.
El factor de forma se refiere a las dimensiones físicas y al tamaño de la tarjeta
y dicta el tipo de gabinete en que puede ajustarse la tarjeta.

En general, los tipos de factores de forma de tarjeta madre disponible son los
siguientes:

*Sistemas de plano posterior *LPX


*AT de tamaño natural *ATX
*Baby-AT *NLX

Sistema de plano posterior

No todos los sistemas tienen una tarjeta madre en el sentido estricto de la


palabra.

En algunos sistemas, los componentes que por lo regular se encuentran en una


tarjeta madre, se ubican en una tarjeta adaptadora de expansión conectada a
una ranura.

En estos sistemas, la tarjeta con las ranuras se denomina plano posterior, en


vez de tarjeta madre. A los sistemas que usan este tipo de construcción se les
llama sistema de plano posterior.

Un plano posterior activo significa que la tarjeta principal del plano posterior
contiene el control del bus y además, por lo regular, otros circuitos.

Los diseños de sistema de tarjeta madre y de plano posterior tiene tantas


ventajas como desventajas. La mayoría de las computadoras personales
originales se diseñaron como plano posteriores a finales de los años setenta.

Apple e IBM cambiaron el mercado a la ahora tradicional tarjeta madre con un


tipo de diseño de ranura, ya que este tipo de sistema generalmente es mas
barato que producir en masa, que uno con el diseño de plano posterior.

El procesador actualizable representa otro clavo en el ataúd de los diseños de


plano posterior. Intel ha diseñado todos sus procesadores 486, Pentium MMX y
Pentium Pro para que sean actualizables en el futuro a procesadores más
rápidos (en ocasiones llamados over drive), simplemente intercambiando (o
agregando) el nuevo chip de procesador.
Cambiar sólo el chip de procesador por uno más rápido es una de las formas
más sencillas y en general más costeables de hacer actualizaciones sin
cambiar toda la tarjeta.

AT de tamaño natural

A la tarjeta madre AT de tamaño completo se le llama así debido a que


corresponde al diseño de la tarjeta madre original de la IBM AT.
Esto permite una tarjeta muy grande de hasta 12 pulgadas de ancho por 13.8
pulgadas de largo.

El conector del teclado y los conectores de ranuras deben apegarse a


requerimientos específicos de ubicación para ajustarse a las aperturas del
gabinete.

Este tipo de tarjeta sólo se ajusta en los gabinetes populares Baby-AT o


minitorres y debido a los avances en la miniaturización en cómputo, la mayoría
de los fabricantes ya no las producen.

BABY AT

Factor de forma Baby-AT es en esencia el mismo de la tarjeta madre de la IBM


XT original, con modificaciones en las posiciones de los orificios de, tornillos,
para ajustarse en un gabinete de tipo AT.

Estas tarjetas madre tienen también una posición especifica del conector del
teclado y de los conectores de ranuras para alinearse con las aperturas del
gabinete.

La tarjeta madre Baby-AT se ajustara a cualquier tipo de gabinete con


excepción de los de perfil bajo y línea esbelta. Debido a su flexibilidad, este es
ahora el factor más popular.

LPX

Otros factores de forma popular que se utilizan en las tarjetas madre hoy en día
son el LPX y el mini-LPX. Este factor de forma fue desarrollado primero por
Western Digital para algunas de sus tarjetas madre.

Las tarjetas LPX se distinguen por varias características particulares.

La más notable consiste que las ranuras de expansión están montadas sobre
una tarjeta de bus vertical que se conecta en la tarjeta madre.

Las tarjetas de expansión deben conectarse en forma lateral en la tarjeta


vertical. Esta colocación lateral permite el diseño de gabinete de perfil bajo. Las
ranuras se colocan a uno o ambos lados de la tarjeta vertical dependiendo del
sistema y diseño del gabinete.

Otra característica distintiva del diseño LPX es la colocación estándar de


conectores en la parte posterior de la tarjeta. Una tarjeta LPX tiene una fila de
conectores para vídeo(VGA de 14 pins), paralelo (de 25 pins), dos puertos
seríales (cada uno de 9 pins) y conectores de ratón y teclado de tipo mini-DIN
PS/2.
ATX

El factor de forma ATX es una velocidad reciente en los factores de forma de


tarjetas madre.

El ATX es una combinación de las mejores características de los diseños de las


tarjetas madre Baby-AT y LPX, incorporando muchas nuevas mejoras y
características.

El factor de forma ATX es en esencia una tarjeta madre Baby-AT girada de lado
en el chasis, junto con una ubicación y conector de la fuente de poder
modificada lo mas importante por saber en primera instancia sobre el factor de
forma ATX consiste que es físicamente incompatible con los diseños previos
tanto del Baby-AT como del LPX.

En otras palabras se requiere de un gabinete y una fuente de poder diferentes


que correspondan con la tarjeta madre ATX. Estos nuevos diseños de gabinete
se han vuelto comunes y se les puede encontrar en muchos sistemas.

La especificación oficial ATX fue liberada por Intel en julio de 1995, y esta
escrita como una especificación abierta para la industria. La ultima revisión de
la especificación es la versión 2.01, publicada en febrero de 1997. Intel ha
publicado especificaciones detalladas para que otros fabricantes puedan
emplear el diseño ATX en sus sistemas.

El ATX mejora a las tarjetas madre Baby-AT y LPX en diversas áreas


principales:

Panel conector externo de E/S de doble altura integrada.

La parte posterior de la tarjeta madre incluye un área de conectores de E/S


aplicado, que es de 6.25 pulgadas de ancho por 1.75 pulgadas de alto. Esto
permite que los conectores externos se coloquen directamente sobre la tarjeta
y evita la necesidad de cables que vayan desde los conectores internos hacia
la parte posterior del gabinete, como ocurre en los diseños Baby-AT.

Conector interno de la fuente de poder de forma única.


Esto es una bendición para el usuario final promedio, el cual siempre tiene que
preocuparse respecto al intercambio de los conectores de la fuente de poder y,
en consecuencia, ¡echar a perder la tarjeta madre!
La especificación ATX incluye un conector de corriente que tiene una forma
única fácil de enchufar y que no puede instalarse de manera incorrecta.

CPU y memoria reubicadas.

Los módulos de CPU y memoria están reubicados de modo que no interfieran


con ninguna tarjeta de expansión de bus y no se pueda tener acceso a ellos
para su actualización sin retirar ninguna de las tarjetas adaptadoras de bus
instalada.
El CPU y la memoria se reubicán cerca de la fuente de poder el cual tiene un
solo ventilador que le suministran aire, eliminando Así la necesidad de
ventiladores de enfriamiento de la CPU, los cuales son ineficientes y propensos
a fallas.

También hay espacio para un disipador de calor pasivo grande sobre la CPU.

Conectores internos de E/S reubicados.

Los conectores internos de E/S para las unidades de disco duro y flexibles
están reubicados para estar cerca de los compartimentos de las unidades y
retirados de la parte inferior de las áreas de la ranura de la tarjeta de expansión
y de las bahías de unidades.

Enfriamiento mejorado.

La CPU y la memoria principal se enfrían directamente mediante el ventilador


de la fuente de poder, eliminando la necesidad de ventiladores separados para
el gabinete o la CPU.

También el ventilador de la fuente de poder sopla dentro del chasis, lo que


presuriza y minimiza en gran medida la entrada de polvo y la suciedad al
sistema.

Menor costo de manufactura.

Las especificaciones ATX eliminan la maraña de cables hacia los conectores de


puertos externos que se encuentran en la tarjetas madre Baby-AT, eliminan la
necesidad de ventiladores adicionales para la CPU o el gabinete, así como de
reguladores integrados de voltaje de 3.3 v, utilizan un solo conector de la fuente
de poder y permiten el uso de cables internos mas cortos para las unidades de
disco.

Todo esto contribuye a reducir en gran medida no solo el costo de la tarjeta


madre, sino que también el costo de un sistema completo, incluyendo en
gabinete y la fuente de poder.

En resumen la tarjeta madre ATX es básicamente un diseño Baby-AT girado


hacia los lados.

Las ranuras de expansión están ahora paralelas a la dimensión más corta y no


interfieren con la CPU, la memoria o los conceptos de E/S. Además del diseño
ATX del tamaño natural, Intel ha especificado también un diseño mini-ATX, el
cual se ajustará al mismo gabinete.

Aunque los orificios son similares a los del gabinete Baby-AT, por lo general no
son compatibles los gabinetes para los dos formatos. La fuente de poder
requeriría de un adaptador de conector para ser intercambiables, aunque el
diseño de la fuente de poder de la ATX básica es similar a la fuente de poder
estándar de la línea esbelta.

De manera clara, las ventajas del factor ATX hacen de él una buena elección
para sistemas de alta calidad.

NLX

Es el más reciente desarrollo en la tecnología de tarjetas madre de escritorio y


podría convertirse en el factor de forma de elección en el futuro cercano.

Se trata de un factor de forma de factor bajo, similar en apariencia al LPX, pero


con varias mejoras diseñadas para permitir una integración total de las ultimas
tecnologías.

Mientras que la principal limitante de las tarjetas LPX comprenden la


incapacidad de manejar el tamaño físico de los nuevos procesadores, así como
sus características térmicas más elevadas, el factor de forma NLX se diseño
específicamente para abordar estos problemas.

Las ventajas específicas que ofrece el factor de forma NLX:

- Manejo de tecnologías de procesadores actuales.


- Flexibilidad ante el rápido cambio de tecnologías de procesadores.
- Manejo de otras tecnologías emergentes.

ABIT BP6
Introducció
n

Característi
cas

Ultra
ATA/
66

Rendimient
o

Overclockin
g

Conclusion
es

Introducción:

En la pasada feria de Computex '99 fueron presentadas dos placas


base con unas características "increibles", ya que fueron anunciadas
como "dual Celeron" y según Intel, eso es "imposible". Una de ellas
utilizaba un zocalo slot 1 y un adaptador que incorporaba 2 zócalos
370. Dicho adaptador sólo era utilizable con esa placa en concreto,
por lo que lo del adaptador no tenía mucho sentido, y sólo servía para
encarecer el producto. La otra placa la presentó ABIT y la solución es
mucho más racional al incluir los dos zocalos en la propia placa base,
abaratando el conjunto y permitiendo una mejor refrigeración,
contando además con unas dimensiones bastante reducidas para
todas las características que incorpora. Esta es la placa que vamos a
analizar.

Es evidente que, el que los procesadores Celeron no soporten (según


Intel) arquitectura multiprocesador es símplemente una cuestión de
marketing, ya que el núcleo de ambos procesadores es el mismo, y
por tanto sus capacidades idénticas, pero para marcar distancias
respecto de los Pentium II-III, Intel todavía utiliza en él el ya
desfasado bus de 66 Mhz y "deshabilita" sus capacidades para
trabajar en entornos multiprocesador.
Esto es parecido a lo que ocurrió con el 386SX, que era la versión
"light" del 386, es decir no disponía de FPU (coprocesador
matemático como se le llamaba entonces).
Intel no disponía de una línea de fabricación propia para dichos
procesadores (o mejor dicho, si la tenía pero la eliminó), y lo que
hacía era producir 386DX (que sí incorporaban la FPU) y en una fase
posterior quemaba algunos transistores para anularla.
Es evidente que a Intel le costaba más fabricar los SX que los DX y
sin embargo los vendía a mitad de precio... puro marketing...

Bien, si hay que ser sincero, la idea de una placa "dual celeron" no es
nueva, y de hecho con cualquier placa dual para slot1 es posible
conseguirlo. Previamente deberemos realizar unas "modificaciones"
en cada uno de los procesadores, si bien AVISO que éstas son aptas
sólo para "manitas". Aquí podreis ver cómo hacerlo.

La que sí es nueva es la idea de una placa que ya esté lista para la


configuración dual y además en formato socket370, lo que ha
molestado terriblemente a Intel, ya que ahora sí cualquiera puede
tener una placa "dual celeron".

El único problema con que vamos a encontrarnos es que parece que


esta placa no es compatible con los nuevos procesadores que Intel
acaba de presentar basados en el núcleo del "Coppermine". Esto
limita su uso a los actuales Celeron en configuraciones máximas de
hasta 2 x 500 MHz. (que no está nada mal).

Otra característica que incorpora y que en un principio parece


"imposible" en una placa basada en el chipset BX de Intel es la
incorporación de 2 canales Ultra ATA/66, ya que esta característica no
está implementada en el propio chipset. Esta vez la solución viene de
una empresa llamada Hight Point y concretamente de su producto
HPT366, que no es más que un controlador IDE integrado en un chip
y que ha sido hábilmente incorporado a la placa base.

Características:

Las características técnicas de las placas basadas en el chipset BX


son todas bastante parecidas, diferenciandose únicamente unas de
otras por la calidad de la cadena de montaje donde han sido
ensambladas y el posterior control de calidad, así como el soporte
técnico por parte del fabricante. En este último punto cada vez cobra
mayor importancia un buen soporte a través de la web.

Sin duda, Abit cuenta con una calidad en sus productos nada
desdeñable y soporte a través de Internet, pero eso no es suficiente
para destacar de la competencia, y por ello esta empresa de Taiwan
se ha caracterizado hasta ahora por ofrecer productos realmente
innovadores, tal como demostró ya en su día con su software Soft-
menú incorporado en la BIOS y que permite ajustar parámetros que
hasta su llegada debían realizarse mediante "jumpers" en la placa
base como la frecuencia de trabajo del bus o el voltaje.

Tal como ya hemos apuntado, y ya centrándonos en este producto,


las características que más destacan son la posibilidad de instalar 1 o
2 procesadores basados en socket 370 y los dos canales adicionales
IDE Ultra ATA/66, y decimos adicionales porque se conservan los
conectores de la controladora incorporada en el chipset BX,
obteniendo así un total de 4 canales, con lo que podremos conectarle
hasta un máximo de 8 unidades IDE.

La unidad dispone de 3 sensores de temperatura que se encargan


de controlar cada uno de los procesadores y la temperatura ambiente
dentro de la caja.

Monitorización de hasta 3 ventiladores. Uno por cada procesador y


otro que puede estar ubicado en la caja o dónde nos convenga.

Monitorización de todos los voltajes con los que trabaja la placa.

Configuracion de la CPU Plug and Play, permitiendo mediante el


setup de la BIOS y a través de sus software Soft menú II configurar
la frecuencia del bus (FSB), el voltaje Core o el multiplicador (aunque
este parámetro está bloqueado por la propia Intel en la mayoría de
sus procesadores). Para más detalles visitar el apartado referente al
overclocking.

Una de las pocas "pegas" que le hemos podido encontrar es la


dificultad de levantar la palanca que libera la CPU al quedar a menos
de 2 milímetros de unos condensadores electrolíticos que allí se
encuentran. De todas formas, hemos tenido constancia de que Abit
ha sustituido los actuales zocalos por otros más modernos en los que
dicha palanca es de material plástico y un poco más larga que el
propio zócalo, por lo que la labor es ahora bastante más cómoda.
Especificaciones de la Abit BP6
Frecuencia de bus (FSB) hasta 133 Mhz

Procesadores soportados Celeron 300-500

Voltajes 1.30V - 2.30V

Multiplicadores x2.0 - x8.0

memoria máxima y nº de zócalos 3 x 256 = 768 MB

Chipset Intel 440BX

AGP 1x / 2x

Slots PCI / ISA 5/2

Canales IDE ATA/33 2

Canales IDE ATA/66 2

Tipo ATX

Sonido integrado NO

Video integrado NO
conectores USB SI (2)

Salidas serie Si (2)

Salida paralelo / Tipo Si (1) /ECP-EPP

Conector IrDA SI

Conector Wake on Lan SI

Conector Wake on Ring SI

Conector SB-Link SI

Conector Teclado / ratón PS/2 SI / SI

Otras características:

Otras características interesantes que encontramos en esta placa


base están relacionadas con la nueva norma PC99 y con el manejo
del consumo de energía, que cada vez recibe más importancia en las
nuevas máquinas.

Una de las que se aprecian a simple vista es concerniente a las


comentadas especificaciones PC99 y la propuesta de marcar cada
conector con un color distinto para evitar confusiones y facilitar el
proceso de instalación del ordenador.
Así pues, los conectores serie están construidos con un plástico de
color celeste, mientras que la salida paralelo es de color morado. El
conector para el teclado PS/2 es lila y el correspondiente al ratón es
verde claro. Los conectores USB están construidos en color negro.

Otra característica que hemos encontrado muy interesante es la


posibilidad de arrancar la máquina pulsando un par de teclas en el
teclado. Incluso contando con un teclado provinente de un IBM PS/2
286 conseguimos arrancar la máquina mediante la pulsación de Crtl-
F1. Esto es muy interesante en los casos en los que la unidad central
se encuentra alejada o escondida debajo de la mesa, evitando
muchas veces tener que hacer verdaderos malabarismos para
arrancar el PC.
Por supuesto si disponemos de uno de los nuevos teclados que
incorporan las tres nuevas teclas para pasar a alguno de los tres
estados de energía contemplados por la norma ACPI (apagado/stand-
by/sleep) todavía sacaremos más provecho de estas nuevas
funcionalidades.

Otros métodos para arrancar la máquina son mediante la pulsación


de uno de los botones del ratón (siempre que sea de tipo PS/2),
mediante un modem externo (al recibir una llamada) o mediante el
reloj interno, es decir, programándolo para que, por ejemplo, cada
día arranque 15 minutos antes de nuestra llegada a la oficina y
descargue todos los mensajes de nuestro buzón de Internet.

Otro detalle es que se puede configurar la BIOS para que al pulsar el


botón de encendido/apagado del PC por un tiempo de menos de 4
segundos se ponga en stand-by, mientras que si lo mantenemos
pulsado por más tiempo pasaremos a apagar totalmente la máquina.

Ultra ATA/66:

Como ya hemos comentado, la incorporación de la controladora Hight


Point HPT366 a la placa base nos permite disfrutar de este nuevo
estandar sin tener que esperar a futuros chipsets de Intel, o utilizar
otros actualmente disponibles pero orientados al mercado de gama
baja como el i810.

Estos canales adicionales, marcados como IDE3 e IDE4, están


diseñados para ser utilizados con dispositivos de alta velocidad, con lo
que Abit no aconseja conectarles unidades de CD-ROM u otros
dispositivos IDE que no sean discos.

En el caso de utilizar unidades ATA/66, deberemos tener la


preocupación de emplear unos nuevos cables que han sido
expresamente diseñados para la nueva norma. Estos se diferencian
de los actales en que utilizan el doble de conductores de los
habituales (80 contra 40), aunque se mantiene el mismo conector en
los extremos de los discos, ya que en realidad hay un cable que hace
de "masa" para cada unos de los pines, con lo que se consiguen
menos interferencias y así alcanzar las elevadas velocidades que
marca este estandar.
Dichos cables además, no pueden conectarse de cualquier manera,
sino que el conector de color azul debe ir forzosamente a la placa
base, ya que dispone de una conexión especial ubicada en la parte
externa del mismo.
Por suerte, con la propia placa se suministra uno de ellos.

Por último, necesitaremos de los drivers pertinentes para el sistema


operativo que utilicemos. En el caso de DOS a partir de la versión 5 o
Windows 3.1x no será necesario, pero sí para el resto. Con el CD que
se adjunta encontraremos soporte para Windows 95/98 y para NT4, y
en Internet podremos encontrar drivers para Linux y para Windows
2000.

Una de las primeras observaciones que realizamos fué que la


controladora integrada en el HPT366 utiliza DMA para la transferencia
con el disco sin necesidad de configurar nada. Esto que puede
parecer una obviedad no lo es tanto, ya que Windows 98 no lo utiliza
por defecto, y son pocos los usuarios que aprovechan sus ventajas.
Hay que decir que la práctica totalidad de discos pueden
aprovecharse de este tipo de transferencia, incluso discos muy
antiguos y que su activación puede representar un aumento en el
rendimiento de hasta un 30 %. Para los que todavía no sacais
provecho de ésta característica muchas veces ignorada no perdais
tiempo y acudid a nuestra sección de Trucos.

Rendimiento:

Valorar el rendimiento de una placa multiprocesador es más


complicado de lo que parece, pues si bien con aplicaciones
multithread podemos alcanzar rendimientos mucho más altos que los
obtenidos con una única CPU, por desgracia esta situación no es fácil
de encontrar.

En la mayoría de situaciones, y aún contando con sistemas operativos


que soportan SMP, es dificil encontrar una mejora apreciable, y en
muchos casos suele ser aconsejable un único procesador a más
velocidad que una configuración dual aunque aparentemente
logremos "doblar" megahercios.

Esto es debido a que este tipo de configuraciones son aún raras hoy
en día, y a los fabricantes de software no les compensa realizar
modificaciones en sus programas para adaptarlos a este tipo de
hardware.

Una de las sensaciones que más de agradece en estas configraciones


es la sensación de un funcionamiento más "fino" de la máquina,
sobretodo en el manejo de muchas tareas simultaneas.

Pero cuando hablamos de máquinas que trabajan como servidores y


entornos multitarea con programas que aprovechan el multithead, el
aumento de prestaciones es brutal. Como muestra de ello, en una de
las configuraciones que utilizamos de prueba basada en 2
procesadores a 400 MHz, conseguimos doblar los valores
proporcionados por la FPU respecto de la misma configuración en
monoprocesador utilizando para ello uno de los programas de testeo
más utilizado: el Winstone 99.
Overclocking:

Una de las características que está siendo cada vez más valorada y
que permite diferenciar un producto de otro es la capacidad de variar
los principales parámetros de la CPU.

Esta característica se suele aprovechar para realizar un "overclocking"


a los componentes de nuestra máquina para mejorar así las
prestaciones sin necesidad de que nuestro bolsillo se resienta,
aunque es una práctica que puede resultar peligrosa.

Otra ventaja de esta personalización es la posibilidad de incorporar


nuevos procesadores que no existían en el momento de su fabricación
y que por tanto no estaban contemplados en un inicio, pero que
mediante una actualización de la BIOS (que muchas veces no es ni
necesaria) pasan a ser plenamente reconocidos.

En este apartado, la BP6 es una placa realmente interesante, ya que


está disponible a través del setup de la BIOS una amplia gama de
valores posibles.

Dichos parámetros los podemos resumir de esta forma:

Frecuencia del bus o FSB (entre paréntesis figura la relación


FSB/PCI):
66MHz(1/2) 72MHz(1/2) 75 MHz(1/2) 78MHz(1/2) 80MHz(1/2)
82MHz(1/2) 83MHz(1/2) 84 MHz(1/2) 85MHz(1/2) 86MHz(1/2)
87MHz(1/2) 88MHz(1/2) 89MHz(1/2) 90MHz(1/2) 91MHz(1/2)
92MHz(1/3) 93MHz(1/3) 94MHz(1/3) 95MHz(1/3) 96MHz(1/3)
97MHz(1/3) 98MHz(1/3) 99MHz(1/3) 100MHz(1/3) 104MHz(1/3)
106MHz(1/3) 108MHz(1/3) 110MHz(1/3) 124MHz(1/4) 133MHz(1/4)

Voltaje del Core: 1,95 - 2 - 2,05 - 2,1 - 2,2 - 2,3

Relación FSB/AGP: 1/1 - 2/3

Turbo: Aumenta en un 2,5 tanto el voltaje como la frecuencia de


bus (FSB)

Multiplicador: 2 - 2,5 - 3 - 3,5 - 4 - 4,5 - 5 - 5,5 - 6 - 6,5 - 7 - 7,5 -


8

Nuestra experiencia al respecto fué que no es aconsejable subir la


frecuencia muy por encima de los 75 MHz en la frecuencia de bus
(FSB) debido a que se corrompen rápidamente los datos en el disco
duro, al subir la frecuencia del bus PCI por encima de los 37,5 Mhz.
Por desgracia, el divisor FSB/PCI es fijo, y desde los 66 hasta los 91
MHz es de 1/2, pasando a partir de aquí a ser de 1/3.
Tambien intentamos trabajar con el bus a 92 Mhz para evitar dicho
problema, pero ninguna de las unidades a 366 y 400 lo aguantaron,
ni siquiera subiendo el voltaje hasta los 2,2 voltios.

Tambien decir que la BIOS no permite ajustar el voltaje en más de 2


puntos por encima o por debajo de la que marca la CPU para evitar
daños irreparables, así que no nos permitió subir hasta los 2,3 V
máximos que permite el hardware.
De todas formas, hemos descubierto un método para "engañar" a la
placa y permitirnos llegar hasta ese máximo. Este pasa por subir el
voltaje hasta los 2,1 o 2,2 V y en esta situación efectuar una
actualización de la flash BIOS.

Conclusiones:

Como ya hemos comentado, una placa base dual no es apta para


todo el mundo, ya que no todos los usuarios utilizarán un "entorno"
que permita sacarle todo su jugo, pero su bajo precio y sus buenas
características permiten recomendarla tanto en configuración
monoprocesador como dual.

Tambien hay que reconocer que la llegada de Windows 2000


mejorará esta situación acercando el kernel multiprocesador a
muchos más usuarios, permitiendonos pasar de una configuración
monoprocesador ahora con Windows 98 a una biprocesador con sólo
añadir un segundo Celeron...

En el caso de pequeños servidores corriendo bajo Windows NT, Linux


o cualquier otro sistema operativo que admita SMP o cuando
utilicemos programas y un S.O. que sepan sacar provecho de estas
habilidades sin duda es la opción con mejor relación
precio/rendimiento que jamás hayamos visto.

La combinación del nuevo estandar Ultra DMA/66 con la configuración


dual nos permite tener una máquina muy potente a un precio
realmente bajo si lo complementamos con un buen disco IDE, mucha
memoria y un par de procesadores Celeron a una buena velocidad.

Por último, no podemos evitar comentar otras cuestiones importantes


como la facilidad que supone utilizar el Soft Menú II para "ajustar" los
parámetros de la CPU y la ámplia gama de valores disponibles en él.

BIOS
¿ Qué es la BIOS ?
La BIOS (Basic Input Output System, Sistema de entrada/salida básico) es una
memoria ROM, EPROM o FLASH-Ram la cual contiene las rutinas de más bajo
nivel que hace posible que el ordenador pueda arrancar, controlando el teclado,
el disco y la disquetera permite pasar el control al sistema operativo.

Además, la BIOS se apoya en otra memoria, la CMOS (llamada así porque


suele estar hecha con esta tecnología), que almacena todos los datos propios
de la configuración del ordenador, como pueden ser los discos duros que
tenemos instalados, número de cabezas, cilindros, número y tipo de
disqueteras, la fecha, hora, etc..., así como otros parámetros necesarios para el
correcto funcionamiento del ordenador.

Esta memoria está alimentada constantemente por una batería, de modo que,
una vez apaguemos el ordenador no se pierdan todos esos datos que nuestro
ordenador necesita para funcionar.
Ahora todas las placas suelen venir con una pila tipo botón, la cual tiene una
duración de unos 4 ó 5 años (aunque esto puede ser muy variable), y es muy
fácil de reemplazar. Antiguamente, las placas traían una pila corriente soldada
en la placa base, lo que dificultaba muchísimo el cambio, además de otros
problemas como que la pila tuviera pérdidas y se sulfataran ésta y la placa.

Además, la BIOS contiene el programa de configuración, es decir, los menús y


pantallas que aparecen cuando accedemos a los parámetros del sistema,
pulsando una secuencia de teclas durante el proceso de inicialización de la
máquina.

Actualmente el interface es mucho mas amigable (las BIOS marca AMI, se


gestionan con ventanas y con el ratón) y dan muchas facilidades, como la
autodetección de discos duros. Todavía recuerdo mi primer PC, un 286, en el
que por supuesto tenías que seleccionar tu flamante disco duro de 40 MB’s
entre una lista interminable (solías acertar al intento número 20), y las opciones
de la BIOS se seleccionaban en una matriz de ceros y unos.

Actualizaciones de la BIOS

Mucho cuidado con esto, MUCHO CUIDADO. En principio es la cosa más fácil
del mundo, pero si lo haces mal, lo mas seguro es que tengas que tirar tu placa
base a la basura. El autor no se hace responsable de los daños que se puedan
ocasionar a tu placa. Este texto es meramente informativo.

Si tienes una placa con una FLASH BIOS, la puedes actualizar por otra mas
moderna que incluirá nuevas características y soporte para algunas nuevas
funciones. Debes sopesar cuidadosamente si merecen la pena el riesgo y si
realmente vas a sacar partido a las funciones de la nueva BIOS. En el 98 % de
los casos, no merece la pena el riesgo que vas a correr, pero si crees que
puedes mejorar tu equipo de esta manera, o necesitas alguna de las nuevas
opciones, adelante...

El método a seguir es muy sencillo: es tan fácil que solo tienes que tener el
programa de actualización y una imagen de la nueva ROM en un disquette.
Ejecutas el programa y listo. (Recuerda hacer una copia de la ROM actual) Eso
si: ES IMPRESCINDIBLE que la versión de la BIOS que vas a instalar sea
soportada por tu placa. Si tu placa es clónica, lo mejor es olvidarse del tema; si
tu placa es de marca, localiza a su fabricante y busca una actualización para tu
placa.
No uses la de otra muy parecida, aunque te hayan dicho que funcionará. Hazlo
sólo si indica claramente el nombre y número de versión de tu placa. Si no lo
ves claro, si te queda alguna duda, sencillamente no lo hagas, te ahorrarás un
buen disgusto.

Una vez hecho esto, tienes que reiniciar el ordenador para que los cambios
surtan efecto. Si todo ha ido bien el ordenador arrancará sin problemas, pero si
va mal... Bueno, lo primero recupérate del ataque cardiaco. Te recomiendo que
te tomes una tila y que te relajes (lo digo por experiencia) para pensar con
claridad. Si la pantalla se queda negra, si no suena el pitido del altavoz, si no
pasa nada es que todo ha ido mal.

Ahora solo puedes hacer 3 cosas:

Coger el disquete con la imagen de la ROM (la original), sacar de la placa el


chip de la BIOS, y buscar en tu ciudad una tienda de electrónica donde te
puedan volcar la imagen original de la rom al chip de la BIOS. Esta opción es la
que más probabilidades de éxito tiene. Si no tienes posibilidad de hacer esto,
pasa al punto 2.

Lo primero es que esta opción no está contrastada en absoluto (a mi no me


funcionó, ni a nadie que yo sepa). Algunas placas lo tienen previsto y
contemplan la posibilidad de que con el disquete de la ROM insertado en la
disquetera ( un disquete formateado a 1.44, y solo el fichero de la imagen de la
ROM), y pulsando una serie de teclas cuando enciendes el ordenador la BIOS
se "autoprograme" con la imagen contenida en ese fichero. Algunas de las
teclas necesarias para esto son: Supr, Ins, Esc, Ctrl+Ins, Ctrl+Supr, Ctrl+Esc,
etc, etc... Recuerda mantenerlas pulsadas antes de encender el ordenador.
Todo esto es muy relativo y puede variar de una placa a otra.

Y por ultimo, solo te queda preguntar en tiendas de informática, si por


casualidad tienen alguna placa estropeada (del mismo tipo de la tuya), que les
quiten la BIOS y que la prueben en tu placa. Con suerte (mucha suerte)
conseguirás que por lo menos arranque la placa.

Por cierto: si se te ocurre coger otro ordenador, arrancarlo, sacarle la BIOS en


caliente (es decir, con el ordenador encendido), pinchar la tuya e intentar
reprogramarla con tu imagen de la rom original, olvídate. Es muy probable que
estropees ese ordenador. Además, no te dejará reprogramar tu BIOS.

Recuerda lo más importante: si tienes alguna duda de lo que vas a hacer,


simplemente no lo hagas.

Fabricantes de BIOS son: AMI, Award, Phoenix, IBM y MrBios, y fabricantes de


BIOS para actualizaciones Unicore y Tti.
En la sección de software puedes encontrar entre otros, un programa para
saber si tu BIOS soportará el año 2.000, y otro que obtiene a través de ella
información sobre la placa base (marca, modelo, URL del fabricante, etc...)

Discos
En el mundo del PC hay dos grandes estándares, IDE y
SCSI, aunque el primero está mucho más extendido que
el segundo, la tecnología SCSI está presente en otras
muchas plataformas, como los Mac , sistemas Unix,
AS/400, etc...

Los dos estándares han ido sufriendo a lo largo del tiempo distintas
implementaciones para intentar seguir el ritmo marcado por otros componentes
cada vez más rápidos, como los procesadores.

Parámetros a tener en cuenta:

Capacidad: Aconsejable que sea a partir de 2,1 Gbytes en adelante.

Tiempo de acceso: Importante. Este parámetro nos indica la capacidad para


acceder de manera aleatoria a cualquier sector del disco.

Velocidad de Transferencia: Directamente relacionada con el interface.


En un dispositivo Ultra-2 SCSI es de 80 MBytes/seg. mientras que en el Ultra
DMA/33 (IDE) es de 33,3 MBytes/seg. en el modo DMA-2. Esta velocidad es la
máxima que admite el interface, y no quiere decir que el disco sea capaz de
alcanzarla.

Velocidad de Rotación: Tal vez el más importante. Suele oscilar entre las
4.500 y las 7.200 rpm (revoluciones por minuto).

Caché de disco: La memoria caché implementada en el disco es importante,


pero más que la cantidad es importante la manera en que ésta se organiza. Por
ello este dato normalmente no nos da por si solo demasiadas pistas. Son
normales valores entre 64 y 256 Kb.

El interface:

IDE:

Cronologicamente, y empezando por el primero no encontramos con los


primeros discos IDE con su limitación a 528 Mb. y pudiendo solo conectar
hasta 2 de ellos.

Después vinieron los discos EIDE (FastATA), desarrollados por la compañía


Western Digital,compatibles con los primeros, pero con algunas mejoras,
basadas en la especificación ATA-2, que ya soporta unidades de CD-ROM
(ATAPI) y de cinta.
Otra mejora importante es el soporte de 2 canales para conectar hasta 4
unidades.
Además se definen varios modos de transferencia de datos, que llegan hasta
los 16,6 Mb./seg. como el PIO-4, o mejor aún el DMA-2, que soporta la misma
tasa pero sin intervención de la CPU.

La última especificación, desarrollada por Quantum es la Ultra DMA/33


(UltraATA), que permite transferencias DMA a 33 Mb./seg.

SCSI:

En el caso de los discos SCSI, tenemos el primero, llamado SCSI-1, con un


ancho de bus de 8 bits, aunque ya en esta primera especificación se incluian
características muy destacadas, como la posibilidad de conectar hasta 7
dispositivos de todo tipo, discos, cinas, escáners, CD-ROM, etc...

Después viene el SCSI-2, que ya dispone de un ancho de bus de 16 bits. El


siguiente paso es el Fast-SCSI, considerado el doble de rápido. Después viene
el Wide SCSI, ya con un ancho de bus de hasta 32 bits, así como un mayor
rendimiento.

Instalación de varios dispositivos:

En el caso de querer instalar más de un dispositivo IDE, hay que tener en


cuenta algunos detalles muy importantes.

En las controladoras EIDE, disponemos de dos canales IDE independientes,


con lo que podemos llegar a instalar hasta cuatro dispositivos, dos por canal. El
primer dispositivo de cada canal se conoce como "master" (maestro) y el
segundo como "slave" (esclavo).

En un canal cualquiera, sólo un dispositivo puede hacerse con el control del


bus, es decir, no pueden utilizar el bús concurrentemente, con lo que si
ponemos dos discos en el mismo canal, estos se "pelearan" por él, y el
rendimiento de ambos bajará notablemente.

En el caso de tener sólo dos dispositivos, se deberán poner a ambos como


"maestros", uno en cada canal, es decir, conectaremos un cable a cada disco, y
cada cable irá a un conector en la placa base.
Es aconsejable que es disco más rápido sea colocado en el primer canal
(Primario), pués aparte de ser el disco que arranca el sistema operativo, es
donde, normalmente, está ubicado el archivo de intercambio de la memoria
virtual, con lo que el rendimiento general del equipo aumentará.

Si tenemos dos discos y un CD-ROM, el CD-ROM se colocará como "esclavo"


del segundo canal (secundario). Esto es así porque normalmente el segundo
disco tendrá menos actividad que el primero (recordemos que Windows y otros
sistemas operativos hacen un uso intensivo del archivo de intercambio).
Para poder configurar el disco como maestro o como esclavo necesitaremos
saber la posición exacta de unos puentes o "jumpers" que normalmente todos
los discos poseen. Por desgracia, cada fabricante utiliza su propio criterio.
En la mayoría de los casos, disponemos de 3 puentes, serigrafiados como SP,
DS y CS, y en este caso, quitaremos todos los puentes para modo esclavo, y
colocaremos uno sólo en "DS" para maestro.
En otro caso, deberemos consultar el manual si disponemos de él , o fijarnos
en la serigrafía, o en todo caso, acudir a la página web del fabricante (ver
sección links).

En el caso de disponer de una controladora y dispositivos SCSI, ninguna de


estas precauciones es necesaria. Pues SCSI soporta hasta 6 dispositivos
concurrentemente (o 14 en los modelos más modernos).

En casi todas las placas 486 y en algunas Pentium antiguas, existe un límite
de 528 MB. impuesto por la BIOS, si a tu placa le ocurre esto, acude a nuestra
sección de Software y bájate el EZ-Drive. Para más información consulta la
sección de Trucos (el nº 5).

Disqueteras
Refiriendonos exclusivamente al mundo del PC, en las unidades de disquette
sólo han existido dos formatos físicos considerados como estandar, el de 5 1/4
y el de 3 1/2.

En formato de 5 1/4, el IBM PC original sólo contaba con unidades de 160 Kb.,
esto era debido a que dichas unidades sólo aprovechaban una cara de los
disquettes.
Luego, con la incorporación del PC XT vinieron las unidades de doble cara con
una capacidad de 360 Kb.(DD o doble densidad), y más tarde, con el AT, la
unidad de alta densidad (HD) y 1,2 Mb.

El formato de 3 1/2 IBM lo impuso en sus modelos PS/2. Para la gama 8086 las
de 720 Kb. (DD o doble densidad) y para el resto las de 1,44 Mb. (HD o alta
densidad) que son las que hoy todavía perduran.
En este mismo formato, también surgió un nuevo modelo de 2,88 Mb. (EHD o
Extra alta densidad), pero no consiguió cuajar.

iomega ZIP

Tiempo más tarde surgió una unidad de almacenamiento


removible, conectable a un puerto SCSI, que utilizaba
unos cartuchos parecidos a los disquettes, pero que
lograban contener 100 Mb. en datos.
Esta unidad es la Zip de iomega, que con el tiempo se ha ido convirtiendo en
una seria alternativa al disquette de 1,44.
Hoy en dia se ha abaratado su coste, tanto la unidad en sí como los cartuchos,
y se han creado unidades conectables al puerto IDE y a la salida paralelo del
ordenador, habiendo, por tanto unidades internas y externas.
También se ha conseguido que muchos fabricantes de placas base incorporen
en sus ROM's código para hacerlas autoarrancables, y así poder substituir por
completo a la disquetera tradicional.

Imation LS-120

Más tarde, Imation, actualmente una división de 3M, sacó


al mercado una disquetera, capaz de leer y grabar en todos
los formatos del estandar de 3 1/2, pero que también
permite, con unos disquettes especiales y en un nuevo
formato, almacenar 120 Mb.
Esta unidad recibe el nombre de LS-120, y actualmente
algunas empresas como Panasonic, ya están comercializando unidades tanto
externas, conectables al puerto paralelo, como internas conectables al IDE.
Al igual que la ZIP de iomega, tambíen está implementada en la ROM de
algunos ordenadores para ser usada com unidad de arranque.

Sony HiFD

El tercero en discordia ha surgido hace poco tiempo, pero constituye un serio


peligro para los dos anteriores, por dos motivos.
El primero es que lo ha desarrollado el gigante Sony junto con Fuji Film, y el
segundo que técnicamente es superior a los demás.
A esto hay que unirle el hecho de que ninguno de los anteriores ha conseguido
hacerse con el estandar en todo este tiempo.También hay que tener en cuenta
que Sony fué la "inventora" del actual disquette de 3 1/2.
Esta unidad, a la que le han puesto el nombre de HiFD, cuenta con
compatibilidad total con los anteriores formatos de 3 1/2, permite almacenar
hasta 200 Mb. y es bastante más rápida que sus rivales, sobretodo la LS-120,
la más lenta del grupo y la más perjudicada.
El único punto que tiene en contra es el tiempo. Pues dicha unidad todavía no
se comercializa, mientras que sus rivales ya han ido tomando posiciones en el
mercado.

Tarjetas gráficas
Hoy en día todas las tarjetas de vídeo son gráficas e incluyen aceleración por
hardware, es decir, tienen "chips" especializados que se encargan de procesar
la información recibida desde el bus e interpretarla para generar formas,
efectos, texturas, que de otra forma no serían posibles o con peor calidad, o
colapsarían al ordenador y a su bus.

La primera distinción a efectuar es si la tarjeta soporta aceleración 2D, 3D o


ambas. Las tarjetas con aceleración 3D tambien suelen tener soporte para 2D,
pero algunas 3D sólo trabajan como complemento a las 2D, añadiendoles
dicho soporte.

Es muy importante entender que las tarjetas aceleradoras 3D sólo sirven para
juegos y para programas de diseño gráfico 3D que estén preparados para
sacarles partido. Si habitualmente trabajamos con programas ofimáticos tipo
"Office", no obtendremos ningún beneficio de estas nuevas tarjetas.

Productos como el i740 de Intel han permitido poder fabricar tarjetas con
aceleración 2 y 3D en un solo chip y a un precio realmente económico, por lo
estan capacidades se han convertido ya en lo mínimo exigible...

En cuanto al tipo de bus, actualmente sólo encontramos dos estandares, el PCI


y el AGP. Aunque en un principio el segundo todavía no estaba lo
suficientemente bién implementado como para sacarle ventaja al primero, éste
será el único que sobrevivirá en cuanto a la interconexión con la tarjeta gráfica,
si bien el mercado PCI todavía es grande. El apoyo de Intel y las subsiguientes
mejoras que ha sufrido el estándar hasta llegar al actual 4x han hecho que sea
ya pieza obligada en cualquier placa base.

En las tarjetas 2D las más utilizadas en los PC's son las fabricadas por la casa
S3, entre otras cosas porque se hicieron con el mercado OEM. Tenemos toda
la saga de chips Trio: 32, 64, 64V+ y 64V2.

En las tarjetas 3D dicha marca fué de las primeras en ofrecer capacidades 3D


en sus chips Virge, aunque no fueron competitivos con los productos de la
competencia, como los chips de Rendition, 3Dfx, nVidia, NEC (PowerVR), Intel
(i740), etc...

Otro factores a tener en cuenta:

Memoria: En las tarjetas 2D, la cantidad de memória sólo influye en la resolución y el


número de colores que dicha tarjeta es capaz de reproducir. Lo habitual suele ser 1 ó 2
Megas.

Relación entre memoria y Resoluciónes máximas


Memoria Maximas resoluciónes y colores
1024x768-16 800x600-256
512 Kb.
colores colores
1280x1024-16 1024x768-256 800x600-64k 640x480-16,7M
1 Mb.
colores colores colores col.
1280x1024-256 1024x768-64K 800x600-16,7M
2 Mb. idem
colores colores colores

16 colores = 4 bits.
256 colores = 8 bits.
64k = 65.536 colores = 16 bits
16,7 M = 16.777.216 colores = 24 bits.
En cuanto a la programación en 3D, en un inicio, prácticamente cada fabricante
utilizaba su propia API, que es algo así como el "lenguaje" a utilizar para que
los programas se comuniquen con el hardware.

Actualmente sólo sobreviven 3:

Glide, que es la propia de las tarjetas Voodoo de 3dfx y que consiguió


imponerse a las demás gracias a la aceptación de estos chips por su elevado
rendimiento en comparación con otras soluciones.

Direct3D, que es parte de las DirectX de Microsoft.

Open GL. Que es propiedad de Silicon Graphics y que hace ya mucho tiempo
se utilizaba en las estaciones de trabajo de esta marca.

Parece que en un futuro cercano sólo sobrevivirá una de ellas, y ésta no será
más que Direct3D, aunque eso sí, gracias a un acuerdo alcanzado con S.G.
que permitirá fusionar totalmente ambas plataformas (de hecho en las DirectX
6 ya está presente gran parte del API OpenGL).

Glide tenderá a desaparecer, ya que es una solución que sólo se puede


implementar en las tarjetas de 3dfx, y aunque durante mucho tiempo ha sido la
reina, se puede decir que ahora ese honor debe compartirlo...

Tarjetas de sonido
En el mundo de los ordenadores compatibles el estandar en sonido lo ha
marcado la empresa Creative Labs y su saga de tarjetas Sound Blaster.

Si escojemos una tarjeta que no sea de esta marca, y queremos ejecutar todo
tipo de software es importante comprobar que sea SB compatible a nivel de
hardware, y si así es, informarnos de con que modelo es compatible.

En el caso de que sólo nos interese que funcione con programas Windows 95,
esta precaución no será importante, entonces sería mas interesante saber que
dispone de drivers de calidad, y de que Microsoft la soporte a nivel hardware en
sus DirectX.

Otro factor a tener en cuenta es si la tarjeta admite la modalidad "full duplex",


es decir si admite "grabar" y "reproducir" a la vez, o lo que es lo mismo, si
puede procesar una señal de entrada y otra de salida al mismo tiempo. Esto es
importante si queremos trabajar con algún programa de videoconferencia tipo
"Microsoft NetMeeting" el cual nos permite mantener una conversación con
otras personas, pues la tarjeta se comporta como un teléfono, y nos deja oir la
voz de la otra persona aunque en ese momento estemos hablando nosotros.
Muchas de las tarjetas de Creative no poseen este soporte a nivel de hardware,
pero si a nivel de software con los drivers que suministra la casa para algunos
S.O.
También es importante el soporte de "MIDI". Este es el estandar en la
comunicación de instrumentos musicales electronicos, y nos permitirá
reproducir la "partitura" generada por cualquier sintetizador y a la vez que
nuestra tarjeta sea capaz de "atacar" cualquier instrumento que disponga de
dicha entrada.
Hay que tener claro que el formato MIDI realmente no "graba" el sonido
generado por un instrumento, sino sólo información referente a que instrumento
estamos "tocando", que "nota" , y que características tiene de volumen,
velocidad, efectos, etc..., con lo que el sonido final dependerá totalmente de la
calidad de la tarjeta.

Otro punto importante es la memoria. Esta suele ser de tipo ROM, y es utilizada
para almacenar los sonidos en las tarjetas de tipo "síntesis por tabla de ondas".
Este tipo de tarjetas nos permiten "almacenar" el sonido real obtenido por el
instrumento, con lo que la reproducción gana mucho en fidelidad. Cuanta más
memoria dispongamos, más instrumentos será capaz de "guardar" en ella y
mayor será la calidad obtenida.
En las tarjetas de síntesis FM este datos no es importante.

Tarjetas de sonido para PC, Un apasionante artículo a cargo del profesor


Fernando Sánchez Gómez.

Tarjetas de sonido Un artículo a cargo de Mosse.

Gama Sound Blaster Una relación de todos los productos comercializados


por la compañía Creative Labs.

La tarjeta de sonido
Este componente es el que va a permitir que
escuchemos música y sonidos cuando ejecutemos
nuestros juegos o aplicaciones. Con una tarjeta de
Síntesis FM
sonido, podremos conectar a ella nuestro lector de CD-
Tabla de ondas ROM y oír la música a través de los altavoces de la
tarjeta. Hoy en día es un periférico prácticamente
MIDI imprescindible debido al auge que han cobrado las
conversaciones telefónicas vía Internet, el
Digitalización
reconocimiento de voz o los programas multimedia .
Sonido
envolvente La reproducción de música en una tarjeta de
sonido se puede llevar a cabo de dos maneras:
Síntesis FM o Tabla de ondas.

Síntesis FM
Es el método más antiguo de reproducción musical. Consiste en
recrear o imitar el sonido de un instrumento musical manipulando
una onda hasta que el sonido que ofrece es similar al que estamos
buscando. No es fácil conseguir que una onda suene igual que una
batería o que una guitarra eléctrica. Para reproducir música, el
programa debe decirle al ordenador qué parámetros de la onda hay
que modificar y qué notas debe tocar, ocupando un tiempo precioso
del procesador .

La primera tarjeta que salió con síntesis FM fue la Adlib, allá a


mediados de los 80 y fue toda una revolución debido a su bajo precio.
Esta tarjeta tenía 11 canales que podía usar para hacer 6 de
percusión y 5 para melodía con su chip Yamaha OPL, y lo único que
hacía era interpretar lo que recibía del procesador, con lo cual, los
juegos iban más lentos si activábamos la música . Multitud de
fabricantes imitaron esta tarjeta .

La siguiente tarjeta, usando esta tecnología, fue la Sound Blaster (y


luego la versión 2.0) de Creative Labs que incorporaba un nuevo chip
de Yamaha (el OPL-2) e inmediatamente se convirtió en un estándar.
Era idéntica a una Adlib pero tenía un canal de digitalización, con lo
que era capaz de grabar y reproducir sonidos reales con una
frecuencia de muestreo de 22 Khz en mono.

Evidentemente, con los discos duros de entonces no se podían grabar


demasiadas canciones... Unos meses después, apareció la Sound
Blaster Pro que incorporaba dos chips OPL-2, con lo que conseguía
más canales y en estéreo, pero apenas tuvo repercusión porque
apareció la Sound Blaster Pro II con el nuevo OPL-3, capaz de hacer
sonar 20 canales en estéreo.
También podía grabar y reproducir sonidos reales en estéreo a 22
Khz (en mono hasta 44 Khz) e incorporaba un controlador para
unidades CD-ROM de Creative (que empezaron a salir por aquellos
tiempos).

La siguiente revolución fue hacer una Sound Blaster Pro pero en una
tarjeta de 16 bits con lo que se estableció el estándar de calidad CD,
(hasta entonces todas las tarjetas eran de 8 bits) y sustituyendo el
OPL-2 por el OPL-3 (su sucesor).
Además llevaba un ASP (Advanced Signal Processor : Procesador
avanzado de señal) que conseguía hacer efectos de reverberación y
coro en tiempo real (es decir , mientras sonaba la música). Dado su
alto precio, más tarde apareció la Sound Blaster 16 Value Edition que
eliminaba el ASP. Esta tarjeta apareció con controladores de CD para
CD-ROM Sony , Mitsumi y Creative e incluso había una versión con
controlador SCSI .

Todas estas tarjetas llevaban un puerto MIDI compatible con MPU-


401 que permite la comunicación entre ordenadores y dispositivos
MIDI (teclados, módulos de percusión , ...). Este puerto se podía usar
como puerto de joystick, ahorrándonos así un slot en nuestra placa
base, ya que antes los ordenadores no solían llevar puerto de este
tipo y había que adquirir una tarjeta por separado.

Hoy en día hay multitud de tarjetas de sonido (algunas placas


incluyen un OPL-3, como la Intel Tucson) que soportan el estándar de
Sound Blaster, aunque no todas son compatibles 100 %, teniendo
que sufrir un poco hasta conseguir que suenen las cosas (o tener que
instalar el parche para nuestra tarjeta).
Hoy sólo hay tarjetas de 16 bits y todas las que llevan sonido por FM,
llevan un OPL-3 de Yamaha con capacidad de 20 voces en estéreo. La
opción FM es más barata y no es lo más recomendable si vas a
componer música con instrumentos MIDI o si buscas música de
calidad en tus juegos. Por el contrario, si sólo queremos la tarjeta
para oír o grabar sonido digitalizado (o del CD) una de estas tarjetas
será suficiente.

Retomando lo de la compatibilidad, todas las tarjetas incluyen


controladores para Windows 95 (muy pocas para X-Window o
Windows NT) y para MS-DOS. Bajo Windows 95, no suele haber
problemas, ya que el driver usa el modo nativo de la tarjeta, pero
bajo MS-DOS hay que cargar algún pequeño programa para emular
Adlib o Sound Blaster u otro estándar similar.

Tabla de ondas
La síntesis por tabla de ondas consiste en grabar (digitalizar) el
instrumento correspondiente y luego reproducirlo. El resultado es una
reproducción electrónica muy precisa, muy lejos de la síntesis FM.
Para hacer sonar música por este método basta decirle al ordenador
qué instrumento tocar y con qué nota. Los instrumentos se ordenan
de varias formas diferentes:

· General MIDI. Es el estándar más utilizado actualmente. Todas las


tarjetas con síntesis por tabla de ondas de hoy en día soportan este
sistema.

· Roland MT-32. Más antiguo que el anterior, procede de cuando


Roland empezó a adaptar la tabla de ondas de sus sintetizadores a
tarjetas de sonido de PC. Es de peor calidad y sólo lo soportan unas
cuantas tarjetas aunque se
usa sobre todo para aplicaciones antiguas .

Evidentemente, debemos guardar los sonidos digitalizados en algún


sitio bien de uno en uno (patches para las Gravis) o por bancos (los
bancos SBK de las AWE). Las tarjetas de sonido que usan este tipo
de síntesis están equipadas con memoria RAM o ROM idéntica a la
utilizada por la placa base. Usar un tipo u otro de memoria tiene
ventajas e inconvenientes :

· ROM. Las tarjetas más baratas sólo llevan 1 Mb de este tipo de


memoria. Como los instrumentos están ahí desde el momento de
encender el ordenador, es más rápido que tenerlos en RAM pero no
podemos modificarlos. En este mega de ROM suelen llevar los
instrumentos según el estándar General MIDI, pero si la tarjeta tiene
más ROM los sonidos serán de más calidad.

· RAM. Aunque algunas tarjetas vengan con 512 Kb o 1 Mb de RAM,


lo más habitual es que carezcan de ella, de serie, y haya que añadirla
al precio de la tarjeta. Cada vez que queramos usar la tarjeta
debemos cargar los instrumentos que queramos en la RAM (desde el
disco duro, donde podemos modificarlos o desde la ROM). Podremos
cargar los instrumentos que nosotros queramos para emular
cualquiera de los dos estándares anteriormente mencionados o
cogerlos y poner los grabados por nosotros. Hasta hace poco las
tarjetas usaban RAM de 30 contactos, pero se ha dejado de fabricar y
ahora cada marca pone su propio tipo de memoria (más cara y
menos compatible, por supuesto).

Tarjetas que utilizan síntesis por tabla de ondas (o Wave Table) son
las Gravis Ultrasound (todos los modelos), las Sound Blaster (32,
AWE 32 y AWE 64) y todas las tarjetas que soporten General MIDI (si
bien sólo funcionarán bajo este estándar si el programa las soporta o
bajo Windows 95 con sus drivers). De todas formas las dos marcas
subrayadas son las que más se usan, aunque las Gravis ya no se
fabrican.

Desde que apareció el Pentium, han aparecido programas que


prometen que vuestra tarjeta FM sonará como una con tabla de
ondas, como el Virtual Sound Canvas o el Yamaha Soft
Syntethizer. Ambos programas funcionan bajo Windows 95 y
requieren un procesador Pentium ya que hacen un uso extensivo de
éste para crear ondas mucho más próximas a los instrumentos que
quieren imitar. No llegan a la calidad de una buena tarjeta aunque no
están mal, pero debido al gran esfuerzo que exigen al procesador, el
resto de nuestras aplicaciones se pueden resentir si trabajamos a la
vez que escuchamos un fichero MIDI.

MIDI
MIDI significa Musical Instrument Digital Interface (Interface
Digital para Instrumentos Musicales). Es un estándar que permite a
los instrumentos electrónicos musicales (teclados, guitarras ,...)
comunicarse bidireccionalmente con el ordenador. Para ello,
necesitaremos que tanto el instrumento como la tarjeta de sonido
dispongan de un puerto MIDI MPU-401 y cables adecuados.
Entonces conseguiremos que lo que toquemos quede registrado en el
ordenador en forma de partitura que luego podremos modificar (con
un buen secuenciador) .

Para una reproducción decente necesitaremos que la tarjeta pueda


hacer sonar 32 voces como mínimo (de ahí el sufijo 32 que ostentan
muchas tarjetas). Algunas tarjetas presumen de tener 64 voces pero
las nuevas 32 se consiguen por software con el resultado de siempre:
mayor lentitud si hacemos muchas cosas a la vez .

Estos 32 canales son necesarios para reproducir 16 instrumentos


distintos en estéreo (necesitamos canal derecho e izquierdo por cada
instrumento) si bien dentro de cada instrumento podremos tener
polifonía (varias voces a la vez, como un acorde).

El protocolo MIDI no sólo dice qué instrumento hay que tocar y con
qué nota sino que además hace uso de los siguientes parámetros :

Profundidad (depth) : Determina lo larga que va a ser la variación en


volumen o escala (pitch) para un trémolo o un vibrato.

· Rate : Para un trémolo o un vibrato determina lo rápida que va a


ser la variación de escala o volumen.
· Sustain : Cuando este parámetro está activado , una nota sonará
durante la primera parte de su envolvente y luego mantendrá una
razón constante de aumento o disminución del volumen mientras el
programa indique que esta nota está sonando. Cuando deja de sonar,
recorre el resto de la envolvente con lo que el sonido no se apagará
inmediatamente y se mezclará con la siguiente nota.

Digitalización
La grabación digital captura el sonido almacenando los valores de
amplitud de una onda a intervalos regulares de tiempo. La amplitud
(altura) de una onda de sonido determina su volumen; la frecuencia
(medida en Hertzios o Hz) determina su escala (lo grave o aguda que
suena).

Las ondas de sonido son continuas (analógicas) en la naturaleza, pero


un ordenador sólo puede trabajar con información digital (on/off). Así
que el ordenador almacena la amplitud de una señal grabada en
instantes determinados. Luego recrea el sonido convirtiendo las
muestras digitales de sonido de vuelta a una señal analógica
mediante un DAC (Digital to Analog Converter: Convertidor Digital
a Analógico) . La frecuencia de muestreo indica cuántas muestras del
sonido se toman en un segundo. Así una frecuencia de 22 Khz indica
22.000 muestras por segundo. El ser humano puede oír entre 20 Hz y
20 Khz.

El número de bits también influye en la calidad de la grabación ya


que indica el número de pasos medibles del sonido: con 8 bits
podremos medir 256 pasos en cada muestra y con 16 bits, 65.535.
La calidad CD es un estándar que indica que ese sonido está grabado
a 16 bits y 44.1 Khz .

Sonido envolvente
En los últimos meses se ha puesto de moda el sonido envolvente.
Con una tarjeta de sonido que soporte alguno de los sistemas que
describo a continuación y altavoces suficientes, nuestros juegos
cobrarán una nueva dimensión.

Dolby Surround Pro Logic. El sistema más veterano. Lo bueno es


que cualquier tarjeta lo soporta porque basta con comprar un
decodificador de este tipo, seis altavoces y listos. El problema es el
precio, claro.
Este sistema utiliza cinco altavoces: delanteros izquierdo y derecho,
traseros derecho e izquierdo y altavoz central (por el que salen los
diálogos). El sexto altavoz es un subwoofer, un altavoz dedicado
exclusivamente a los sonidos graves.

No proporciona una sensación real de sonido delante-detrás, pero


juegos como los Fifa, o Need for Speed III lo aprovechan y la
diferencia con la utilización de dos altavoces es abrumadora. Así, en
el Fifa 99 podremos escuchar los gritos de los aficionados por todos
los altavoces, con lo que la inmersión en el juego es total.

Aureal. Los motores de Quake 2 y Unreal soportan este sistema de


sonido envolvente, por lo que cualquier juego que utilice estos
motores lo aprovechará (Halflife, Sin, Heretic 2, Klingon Honor Guard,
etc.). Las tarjetas de sonido que incorporan esta tecnología llevan dos
salidas para un total de cuatro altavoces, utilizando una pareja para
los sonidos delanteros y la otra para los traseros, aunque con dos
altavoces también consiguen un efecto muy bueno.
Tarjetas que lo soporten son por ejemplo las Diamond Monster Sound
MX300 y el Aureal ya va por su versión 2.0.

EAX. Creative no se quiso perder su tajada del pastel y las tarjetas


Sound Blaster Live! utilizan Creative Audio Extensions, que igual que
el Aureal usa cuatro altavoces, pero en este caso son obligatorios o
no oiremos los sonidos que se produzcan detrás nuestro. Cada vez
más juegos incorporan soporte para este nuevo estándar: Halflife y
Fifa 99 mediante parche, por ejemplo.

Direct Sound 3D. Las dos tecnologías anteriores soportan estas


librerías DirectX, pero los juegos todavía no. Pero bueno, se supone
que algún día empezarán a usarlo por eso de la compatibilidad.
Además de las tarjetas mencionadas, las Maxi Sound 64 de Guillemot
también son compatibles con
esto.

Cajas
Como ya se comenta en la
sección de placas base, la
principal distinción la tenemos en
el formato de la placa a la que
sustenta.
Así tenemos que puede ser ATX ó Baby AT.

El siguiente factor serán las dimensiones de la misma. De menor a mayor las


más normales son: Mini-torre, sobremesa, midi-torre ó semi-torre, y gran torre,
así como modelos para algunos servidores que requieren el montaje en
dispositivos tipo rack.
Cuanto mayor sea el formato, mayor será el número de bahías para sustentar
dispositivos tales como unidades de almacenamiento. Normalmente también
será mayor la potencia de la fuente de alimentación.

Las características de un modelo mini torre típicas son: soporte para hasta 7
ranuras de expansión. 2 unidades externas de 5 1/4, 2 también externas de 3
1/2 y 1 interna, fuente de alimentación de 200 w, pilotos de encendido, disco y
turbo, pulsadores de reset y turbo. En los modelos más modernos, el pulsador
y la luz de turbo se suelen sustituir por los de sleep.

Los modelos MIDI suelen traer 1 bahías más para dispositivos externos de 5
1/4, así como una F.A. de 220 w.

La Fuente de alimentación
Este es uno de los elementos que menos es tenido en
cuenta a la hora de evaluar la compra o ensamblaje de
un sistema informático, y sin embargo, su importancia
es patente en muchos aspectos.
Introducción y
funcionamie Raramente se vende "suelto" a no ser como
nto recambio, siendo lo habitual que al efectuar la
compra de la caja (o gabinete) nos venga ya
Características instalada en su interior.
Conexiones,
Normalmente en estos casos solemos fijarnos en
prueba y que la caja sea bonita y que tenga el tamaño y el
reparación número de bahías adecuado y como mucho nos
fijamos en la "potencia" que es capaz de
Refrigeración
suministrar la fuente de alimentación...

En este artículo pretendemos mostrar su


importancia.

Introducción
La fuente de alimentación (Power supply en ingés) es como su
nombre indica, la encargada de suministrar energía eléctrica a los
distintos elementos que componen nuestro sistema informático.
La electricidad que llega hasta nuestros hogares u oficinas es del tipo
conocido como "corriente alterna" y nos es suministrada
habitualmente con una tensión (o voltaje) que suele ser de alrededor
de 115 o 230 voltios. Este tipo de corriente no es en absoluto
adecuada para alimentar equipos electrónicos, y más concretamente
dispositivos informáticos, en dónde es necesario trabajar con
"corriente continua" y voltajes mucho más bajos...

Por tanto, este dispositivo es el que se encarga de "reducir" el voltaje


(mediante un transformador) y posteriormente convertir la corriente
alterna en continua (con un puente de diodos) para finalmente
filtrarla (mediante condensadores electrolíticos).

Evidentemente el esquema es mucho más complejo que el


comentado, ya que en su interior se encuentran muchos otros
componentes, pero ello ya sería entrar en el mundo de la
electrónica...

Características técnicas
Uno de los aspectos mesurables de una fuente de alimentación es
su potencia. Esta viene expresada en vatios e indica la capacidad
para alimentar más dispositivos o de mayor consumo. Suele ser
habitual encontrar modelos entre 200 y 300 w (vatios), aunque
también existen otros, sobretodo los que siguen el estándar MicroATX
o FlexATX que ofrecen potencias menores.

Otra característica bastante obvia es la tensión soportada, así como


la frecuencia de la misma. Existen modelos que sólo funcionan con un
tipo determinado, y otros, normalmente bitensión que permiten ser
utilizados prácticamente en cualquier zona del mundo. De éstos, la
mayoría incluyen un pequeño conmutador para pasar de una a otra o
incluso algunos más sofisticados realizan esta misma tarea
automáticamente.

Es muy importante que si compramos un modelo en una zona


geográfica que no sea la nuestra tengamos mucha precaución con
este aspecto, ya que conectar un equipo a una tensión más alta de la
permitida puede ocasionar grandes daños en él.

Otros aspectos a tener en cuenta son la protección contra


cortocircuitos y subidas de tensión, aunque en la práctica, sin un
buen estabilizador de tensión es dificil obtener una buena protección.

Conexiones
En la parte trasera encontraremos el
típico conector que utilizaremos para
enchufar la fuente a la red eléctrica, y
también es corriente encontrar otro del
mismo tipo pero "hembra" al que
podemos conectar el monitor en el caso
de que tengamos el cable adecuado (no
es lo habitual). En todo caso, siempre
podremos adquirir uno (ver foto). La
principal ventaja es que al apagar el ordenador (y en las placas ATX
esto se puede hacer por software) también cortamos la alimentación
del monitor.

También encontraremos los cables de alimentación para las


unidades de almacenamiento tales como discos, CD-ROM, etc. En
general suelen ser 4 conectores. También encontraremos uno o dos
para la disquetera y por último el que alimenta la placa base, que en
las placas ATX es un único conector y en las AT son dos conectores,
normalmente marcados como P8 y P9. En este último caso es muy
importante no confundirse, pues ambos son físicamente iguales. Una
forma de comprobar que los estamos conectando de forma correcta
es comprobar que los cables de color negro estén juntos y en el
centro de ambos.

En los modelos para máquinas AT es también imprescindible que


incorporen un interruptor para encender y apagar la máquina, no así
en las basadas en ATX, pues la orden de encendido le llegará a través
de una señal desde la propia placa base. Todo y así es bastante
habitual encontrar uno para "cortar" el fluido eléctrico a su interior,
pues los ordenadores basados en éste estándar están
permanentemente alimentados, aun cuando están apagados. Es por
ello que siempre que trasteemos en su interior es IMPRESCINDIBLE
que o bien utilicemos el interruptor comentado o bien desenchufemos
el cable de alimentación.

Por último comentar que para poder probar una de estas fuentes sin
necesidad de conectarlas a un ordenador (seguimos hablando de las
ATX) es necesario cortocircuitar los pines 14 y 15 del conector de
alimentación de la placa base (ver esquema del mismo en enlace
inferior) durante unos segundos, con lo que conseguiremos simular la
señal que arranque que envía la placa base. Acto seguido hemos de
ver como el ventilador se pone en marcha. Para apagarla,
procederemos de nuevo a efectuar el cortocircuito o simplemente
quitaremos la alimentación.

Esquema del conector que lleva el cable de alimentación de las


unidades de almacenamiento.

Esquema del conector que lleva el cable de alimentación de la


disquetera.

Esquema del conector que lleva el cable de alimentación de las


placas base AT.

Esquema del conector que lleva el cable de alimentación de las


placas base ATX.

Reparación:

Reparación de fuentes PC AT

Reparación avanzada de fuentes PC AT/ATX

Detectando problemas con la fuente de alimentación

Alimentación unidades
almacenamiento
Este es el conector que proviene de la fuente de alimentación y que
provee de energía eléctrica a los discos, unidades de CD-ROM y la
mayoría de dispositivos internos.

Pin Nombre Color Descripción


1 +12V Amarillo +12 VCC
2 Masa Negro Masa +12 V
3 Masa Negro Masa +5 V (igual que la anterior)
4 +5V Rojo +5 VCC
Alimentación unidades de
disquete
Este es el conector que proviene de la fuente de alimentación y que
se utiliza para suministrar energía eléctrica a las disqueteras de 3
1/2.

Pin Nombre Color Comentarios


1 +5VCC Rojo
2 COM Negro Masa +5 V
3 COM Negro Masa +12 V (igual que la anterior)
4 +12VCC Amarillo

Alimentación placas base AT


Este es el esquema de los dos conectores que provienen de la fuente
de alimentación y que se utilizan para suministra energía eléctrica a
las placas base de tipo AT. Normalmente vienen marcados como P8 y
P9. Es importante recordar que no se pueden intercambiar entre sí,
debiendo quedar siempre los cables negros juntos y en el centro.

Son del tipo MOLEX 90331-0001 o equivalente.

P8
Pin Nombre Color Comentarios

Alimentación Correcta, +5 VCC cuando todos los voltajes están


1 PG Naranja
estabilizados

2 +5VCC Rojo
3 +12VCC Amarillo

4 -12VCC Azul

5 COM Negro Masa

6 COM Negro Masa

P9
Pin Nombre Color Comentarios

1 COM Negro Masa

2 COM Negro Masa

3 -5VCC Blanco o Amarillo

4 +5VCC Rojo

5 +5VCC Rojo

6 +5VCC Rojo

Alimentación placas base ATX


Este es el esquema del conector que provine de la fuente de
alimentación y que se utiliza para suministrar energía eléctrica a las
placas base de tipo ATX.

Es del tipo MOLEX 39-01-2200 o equivalente.


Pin Señal Color Comentarios

1 +3VCC Naranja

2 +3VCC Naranja

3 COM Negro Masa

4 +5VCC Rojo

5 COM Negro Masa

6 +5VCC Rojo

7 COM Negro Masa

8 PWR_OK Gris Tensiones estables

9 +5VSB Plateado Tensión de mantenimiento

10 +12VCC Amarillo

11 +3,3VCC Naranja [Marrón]

12 -12VCC Azul

13 COM Negro Masa

14 PS_ON# Verde Señal de apagado/encendido

15 COM Negro Masa

16 COM Negro Masa


17 COM Negro Masa

18 -5VCC Blanco

19 +5VCC Rojo

20 +5VCC Rojo

Refrigeración
Uno de los aspectos más importantes de las fuentes de alimentación
es su capacidad para evacuar el calor generado por los distintos
componentes electrónicos que se encuentran dentro de la caja. A
pesar de que en las cajas "ATX" está prevista la incorporación de
ventiladores que se encarguen de esta función, no suele ser lo
habitual, dejando normalmente todo el trabajo a nuestra sufrida
fuente de alimentación.

En las de tipo "AT" el esquema seguido normalmente siempre es el


mismo. Un ventilador colocado en la parte más externa de la misma
evacua el calor que genera dicha fuente y de paso, mediante unas
aberturas que le comunican con el interior de la caja la propia
corriente de aire generada aspira el aire caliente que en ella se
encuentra.

En las que son de tipo ATX, el esquema utilizado varía bastante,


pudiendo encontrar modelos que siguen el mismo método que el
comentado para las AT o alguna variación que incorpora unas ranuras
situadas justo encima del procesador.

Otro esquema utilizado es el que el ventilador se coloca justo encima


del procesador, ya que éste es uno de los focos de calor más
importantes. Esta disposición además tiene otra ventaja que es la de
poder colocar un ventilador más grande (ver foto, pero pensar que
está colocada justo al revés para que se vea el ventilador).
Sin embargo son muchos los fabricantes que utilizan esta disposición
para "soplar" aire al procesador en vez de expulsarlo, lo que no
siempre permite una buena refrigeración de nuestro sistema debido a
que el aire caliente no es expulsado al exterior, sino que por el
contrario estamos introduciendo en él aire ya caliente provinente de
la fuente de alimentación.

Además, el propio procesador ya incorpora su radiador y ventilador,


por lo que lo único que logramos es remover el aire caliente que se
encuentra en el interior de nuestra caja y que éste sea cada vez más
caliente.

En el caso de que nuestro sistema adolezca de ese problema,


podemos desmontar la misma e intentar darle la vuelta. Yo lo he
hecho con algunos sin ningún problema...

CD y DVD-Rom
La unidad de CD-ROM ha dejado de ser un accesorio opcional para convertirse
en parte integrante de nuestro ordenador, sin la cual no podríamos ni siquiera
instalar la mayor parte del software que actualmente existe, por no hablar ya de
todos los programas multimedia y juegos.

Pero vayamos a ver las características más importantes de estas unidades.

En primer lugar vamos a diferenciar entre lectores, grabadores y regrabadores.


Diremos que los más flexibles son los últimos, ya que permiten trabajar en
cualquiera de los tres modos, pero la velocidad de lectura, que es uno de los
parámetros más importantes se resiente mucho, al igual que en los grabadores.

Así tenemos que en unidades lectoras son habituales velocidades de alrededor


de 34X (esto es 34 veces la velocidad de un lector CD de 150 Kps.), sin
embargo en los demás la velocidad baja hasta los 6 ó 12X.
Dado que las unidades lectoras son bastante económicas, suele ser habitual
contar con una lectora, y una regrabadora, usando la segunda sólo para
operaciones de grabación.

En cuanto a las velocidades de grabación suelen estar sobre las 2X en


regrabadoras y las 2 ó 4X en grabadoras).
Y después de la velocidad de lectura y grabación nos encontramos con otro
tema importante como es el tipo de bus. Al igual que en los discos, este puede
ser SCSI o EIDE. Aconsejamos SCSI (Ultra Wide) para entornos profesionales
y EIDE (Ultra DMA) para los demás. Para saber más, acudir a la sección de
Discos.

Otro aspecto que vamos a comentar es el tipo de formatos que será capaz de
leer / grabar. Es interesante que sea capaz de cumplir con todos:

- ISO 9660: Imprescindible. La mayor parte de los demás son modificadores de


este formato.
- CD-XA y CD-XA entrelazado: CD's con mezcla de música y datos.
- CD Audio: Para escuchar los clásico Compact Disc de música.
- CD-i: Poco utilizado.
- Vídeo-CD: Para peliculas en dicho formato.
- Photo-CD Multisesión: Cuando llevas a revelar un carrete puedes decir que te
lo graben en este formato.

Y para las regrabadoras el formato utilizado es el UDF.

Software

En el caso de las regrabadoras necesitaremos un software de la casa Adaptec,


llamado DirectCD, que será el encargado de poder utilizar nuestra unidad como
si de un disco duro se tratara. Normalmente este software ya nos vendrá con la
unidad que compremos. Actualmente se utiliza la versión 2.0.

Si además queremos crear nuestros propios CD's personalizados, existe en el


mercado un amplio abanico de programas que nos permitirán crear nuestras
propias grabaciones en casi todos los formatos.

Algunos de ellos son:

Easy CD Creator, de Adaptec. Es el más utilizado.

Gear CD Windows: Muy bueno.

Win On CD: Otro software de grabación de la casa CeQuadrat.

HyCD DATA: de la casa Creative Digital Research.

Visita tambiñen nuestra sección de software para los CD-ROM y software


para grabadoras de CD.

Formatos físicos (por Ignacio Gomez Burzaco) -Resumido-


Formatos lógicos (por Ignacio Gomez Burzaco) -Resumido-

El formato físico de los CD-ROM -Avanzado- Incluye 11 subtemas

El formato lógico de los CD-ROM -Avanzado- Incluye 7 subtemas

Para saber más sobre grabadoras.

Como hacer una copia de seguridad de nuestros datos en cinco pasos.


(inglés)

Como copiar un CD-ROM en tres pasos. (inglés)

Como grabar un CD-Audio en cinco pasos. (inglés)

Como hacer un CD autoarrancable (a nivel de S.O.) (inglés)

Como hacer un CD-R autoarrancable (a nivel de S.O.) (inglés)

Información sobre DVD-ROM no disponible.

Monitor
El monitor es una parte del ordenador a la que
muchas veces no le damos la importancia que
se merece.

Hay que tener en cuenta que junto con el


teclado y el ratón son las partes que interactúan
con nuestro cuerpo, y que si no le prestamos la
atención debida, podremos llegar incluso a
perjudicar nuestra salud.

Evidentemente no en el caso de personas que hacen un úso esporádico, pero


si en programadores impenitentes o navegadores incansables, que puedan
pasarse muchas horas diarias al frente de la pantalla.

Vamos a explicar los parámetros que influyen en la calidad de un monitor:

Tamaño:

El tamaño de los monitores se mide en pulgadas, al igual que los televisores.


Hay que tener en cuenta que lo que se mide es la longitud de la diagonal, y que
además estamos hablando de tamaño de tubo, ya que el tamaño aprovechable
siempre es menor.
El tamaño es importante porque nos permite tener varias tareas a la vez de
forma visible, y poder trabajar con ellas de manera cómoda.
También es importante en el caso de que se manejen documentos de gran
tamaño o complejidad, tales como archivos de CAD, diseño, 3D, etc que
requieren de gran detalle. En estos casos son aconsejables tamaños de 21".

También es importante tener en cuenta que con Windows 98 ya es posible


conectar varios monitores al mismo PC, por lo que en el caso de requerir la
visualización de varias tareas a la vez puede ser importante, por ejemplo,
sustituir un monitor de 27 pulgadas por dos de 15, que será una solución más
barata y quizás más cómoda.

Nunca hemos de aceptar menos de 15" (pulgadas). Hoy en día es el estándar,


y es lo mínimo exigible, además de ser los que mejor precio ofrecen.

Tubo:

Otro aspecto importante es la marca del tubo y el tipo, así como otros detalles
relacionados con él. Fabricantes de monitores hay muchos, pero de tubos son
contados, con lo que si sabemos que modelo de tubo lleva nuestro monitor
sabremos ya bastantes cosas importantes de él.

Fabricantes de tubos son: Sony, Mitsubishi, Nec, Phillips, etc...

Y normalmente cada fabricante se identifica con un tipo de tubo, por ejemplo


Sony con el Trinitron (que sigue siendo punto de referencia), Mitsubishi con el
DiamondTron, etc...

El tubo nos definirá si la pantalla es más o menos plana y cuadrada, el tamaño


del punto (dot pix) si tiene tratamiento antirreflejos, etc...

También nos servirá para comparar entre diferentes marcas, ya que si


encontramos dos con el mismo tubo, pues ya sabemos que son iguales en casi
todas las características más importantes, y por tanto no debería haber mucha
diferencia en cuanto a precio, a no ser que uno contara con muchos aditivos
como controles digitales y características multimedia y el otro no. Tengamos
presente que casi todo el coste del monitor es debido al tubo.

Tamaño de punto:

Esta es una de las características que depende del tubo, y define el tamaño
que tendrá cada uno de los puntos que forman la imagen, por tanto cuanto más
pequeño más preciso será.

No hay que confundir el tamaño de punto con el "pixel". El pixel depende de la


resolución de la pantalla, y puede variar, mientras que el punto es fijo, y
depende exclusivamente del tubo.

Tamaños "normales" son alrededor de 0,28 mm. y es aconsejable que no sea


de mayor tamaño, en todo caso menor, como los 0,25 de los tubos Trinitron.
Frecuencia de refresco:

Aquí si que podemos decir claramente que cuanto más mejor. La frecuencia de
refresco está proporcionalmente ligada a la estabilidad de la imagen, y por
tanto al descanso y confort de nuestra vista.
Nunca deberíamos escoger valores por debajo de los 75 Hz en modos de
1.024 x 768 puntos, aunque un valor óptimo sería de 90 Hz., que sería el
mínimo exigible en resoluciones menores.
En resoluciones mayores, seguramente nos tengamos que conformar con
valores más bajos.

También hay que tener claro que la tarjeta de video debe ser capaz de
proporcionar esos valores, ya que de no ser así, de nada nos servirá que el
monitor los soporte.

Resoluciones:

Resolución de pantalla se denomina a la cantidad de pixels que se pueden


ubicar en un determinado modo de pantalla. Estos pixels están a su vez
distribuidos entre el total de horizontales y el de verticales.

Todos los monitores pueden trabajar con múltiples modos, pero dependiendo
del tamaño del monitor, unos nos serán más útiles que otros:

A nivel general se recomienda lo siguiente:

Tamaño en
Resoluciones recomendables
pulgadas
14 640 x 480 800 x 600
15 800 x 600 1.024 x 768
17 1.024 x 768 1.280 x 1.024
19 1.280 x 1.024 1.600 x 1.024
21 1.600 x 1200 1.280 x 1200

Cuando hablamos de resoluciones, hay que decir lo mismo que con las
frecuencias de refresco, si nuestra tarjeta de video no las soporta, no podremos
usarlas.

Hay que tener mucho cuidado de que estas resoluciones se obtengan de


manera "no entrelazada", ya que sino, la calidad de la imagen se resiente de
una forma inaceptable, reduciendo la frecuencia de refresco REAL a la mitad.

Otras consideraciones:

Es habitual encontrarse con monitores "digitales". Este calificativo lo reciben


los monitores que basan sus ajustes (como el brillo y el contraste) en unos
pulsadores que permiten cambiar sus valores, en contraposición con los
mandos analógicos que incorporaban los monitores más antiguos, en donde
debes girar una pequeña ruedecilla para modificar estos parámetros.
Tienen importantes ventajas reales, como por ejemplo poder fijar para cada
frecuencia los ajustes pertinentes, y que no se "desajusten" de nuevo al
cambiar de resolución.

Otra consideración es el tipo de conector, que en ambientes domésticos y de


oficina es el estándar de 15 pines marcado por IBM con su VGA, pero en
entornos especializados en donde es imprescindible contar con monitores de
gran tamaño y calidad, se hace necesario contar con los 5 conectores BNC,
que ofrecen una mayor protección frente a interferencias, y por tanto una mayor
calidad de imagen.

Tampoco hemos hablado de las pantallas TFT, ya que aunque empiezan a ser
estándar en monitores de ordenadores portátiles, para ordenadores "desktop"
todavía son una opción demasiado cara, aunque al ritmo que vamos quizás no
tardemos mucho en conseguir que sea un opción viable (y muy buena).

En el apartado de Software, encontraremos un programa muy bueno, de la


casa Nokia, que nos permitirá ajustar nuestro monitor para sacarle el máximo
rendimiento, y a su vez comprobar su calidad.

El modem
El modem es otro de los
periféricos que con el tiempo se
ha convertido ya en
imprescindible y pocos son los
modelos de ordenador que no
estén conectados en red que no
lo incorporen. Su gran utilización
viene dada básicamente por dos
motivos: Internet y el fax,
aunque también le podemos dar
otros usos como son su utilización como contestador automático
incluso con funciones de centralita o para conectarnos con la red local
de nuestra oficina o con la central de nuestra empresa.

Aún en el caso de estar conectado a una red, ésta tampoco se libra


de éstos dispositivos, ya que en este caso será la propia red la que
utilizará el modem para poder conectarse a otras redes o a Internet
estando en este caso conectado a nuestro servidor o a un router.

Lo primero que hay que dejar claro es que los modem se utilizan
con líneas analógicas, ya que su propio nombre indica su principal
función, que es la de modular-demodular la señal digital proveniente
de nuestro ordenador y convertirla a una forma de onda que sea
asimilable por dicho tipo de líneas.
Es cierto que se suelen oír expresiones como modem ADSL o incluso
modem RDSI, aunque esto no es cierto en estos casos, ya que estas
líneas de tipo digital no necesitan de ningún tipo de conversión de
digital a analógico, y su función en este caso es más parecida a la de
una tarjeta de red que a la de un modem.

Uno de los primeros parámetros que lo definen es su velocidad. El


estándar más habitual y el más moderno está basado en la actual
norma V.90 cuya velocidad máxima está en los 56 Kbps (Kilobites por
segundo). Esta norma se caracteriza por un funcionamiento
asimétrico, puesto que la mayor velocidad sólo es alcanzable "en
bajada", ya que en el envío de datos está limitada a 33,6 Kbps.
Otra consideración importante es que para poder llegar a esta
velocidad máxima se deben dar una serie de circunstancias que no
siempre están presentes y que dependen totalmente de la compañía
telefónica que nos presta sus servicios, pudiendo ser en algunos
casos bastante inferiores.

Evidentemente, el modem que se encuentre al otro lado de la línea


telefónica, sea nuestro proveedor de Internet o el de nuestra oficina
debe ser capaz de trabajar a la misma velocidad y con la misma
norma que el nuestro, ya que sino la velocidad que se establecerá
será la máxima que aquel soporte.

Otras normas habitualmente utilizadas son:

Velocidad
Norma Otras velocidades
máxima
57.333, 54.666, 53.333, 52.000, 50.666,
V.90 y 49.333, 48.000, 46.666, 45.333, 44.000,
56.000 bps
X2* 42.666, 41.333, 40.000, 38.666, 37.333,
36.000, 34.666 bps
V.34+ 33.600 bps 31.200 bps
26.400, 24.000, 21.600, 19.200, 16.800
V.34 28.800 bps
bps
V.32bis 14.400 bps 12.000 bps
V.32 9.600 bps 7.200 bps
V.23 4.800 bps
V.22bis 2.400 bps
V.22 y
1.200 bps
Bell 212A
V.21 y
300 bps
Bell 103

* protocolo propietario de 3Com, es decir, no estándar.

Otra funcionalidad ya considerada como obligatoria en cualquier modem es el soporte


de funciones de FAX. Lo estándares son los siguientes:

Norma Velocidad máxima Otras velocidades


V.17 14.400 bps 12.000 bps
V.29 9.600 bps 7.200 bps
V.27ter 4.800 bps 2.400 bps
V.21 300 bps

Otros estándares considerados como imprescindibles son los de


control de errores y compresión de datos. Los más habituales son:
V.42, V.42bis y MNP 2-5.

No podemos dejar de comentar otros aspectos igualmente


importantes como el de contar con una memoria de tipo flash que nos
permita la actualización del firmware al igual que ocurre con las BIOS
de las placas base.

Este detalle ha sido extremadamente importante en los modem que


utilizaban los distintos estándares de 56K anteriores a la norma V.90,
ya que gracias a ello y mediante una simple actualización ha sido
posible no quedarse con un modelo desfasado.
Igualmente algunos modelos que funcionaban a 33,6 Kbps han
podido ser actualizados y funcionar a 56 Kbps con el mismo método y
sin necesidad de actualizar el hardware.

Modem externos para puerto serie

Modem internos
Modem externos para puerto USB

Modem PC-Card (PCMCIA)

El modem serie externo


Este es el modem "clásico" por
antonomasia y posiblemente
aún el más utilizado, a pesar de
que la competencia de los
modelos basados en USB es
cada vez más fuerte. Por tanto,
los mejores modelos se suelen
encontrar aún en este formato
y es ya habitual encontrarse en ellos funciones de contestador
automático, fax y centralita telefónica, actuando incluso en el caso de
que nuestro ordenador esté apagado, gracias a la memoria que
incorporan. Algunos modelos también integran un altavoz y un
micrófono, por lo que se convierten en plenamente autónomos...

En éste tipo de dispositivos es muy importante utilizar un puerto


serie que implemente una UART del tipo 16550 o alguna de sus
variaciones como la 16550AF que nos permitirá un flujo de datos con
el ordenador de 115.000 bps. UART más antiguas como las 16540 o
peor aún las 8250 son hoy día inaceptables por su baja velocidad.
(Consultar nuestra sección de Puertos)

La forma más sencilla de conocer qué UART implementan nuestros


puertos serie es mediante el programa MSD que viene con casi todas
las versiones de MS-DOS y Windows (si no está en tu disco duro
busca en el CD o los disquetes de instalación)

Hay que tener en cuenta que la velocidad de comunicación del


modem con el puerto serie debe ser bastante mayor de la que éste es
capaz de transmitir a través de la línea telefónica, entre otros
motivos por la compresión hardware que es capaz de realizar a los
datos que le llegan.

Velocidad máxima
UART Recomendado para modem a:
puerto série

16550 115.000 bps hasta 56K

28.800 bps sin o con compresión


16450 38.400-57.600 bps
dependiendo de la rapidez del ordenador.

14.400 bps sin compresión o modos más


8250 19.200 bps
lentos con compresión

Ventajas:

No ocupan ninguna ranura de expansión, lo que es adecuado para


ordenadores con nulas o pocas posibilidades de ampliación.

Sólo utilizan los recursos del propio puerto serie al que están
conectados.

Disponen de indicadores luminosos que nos informan del estado de


la conexión y del propio modem.

Se pueden "reiniciar" sin necesidad de hacerle un "reset" al


ordenador o simplemente apagar cuando no lo utilizamos.

Por último, algunos modelos externos implementan botoncitos


adicionales para subir o bajar el volumen del altavoz o para activar
las funciones de contestador o incluso implementan un micrófono o
un altavoz, que en los modelos internos difícilmente podremos
encontrar.

Inconvenientes:

En máquinas muy antiguas nos podemos encontrar con que la


velocidad de transferencia del puerto serie limitará la velocidad del
modem, por lo que será necesario sustituir nuestra tarjeta I/O por
una más moderna.

Necesitan de una fuente de alimentación externa y ocupan lugar en


nuestro escritorio.
Necesitan un puerto serie libre.

El modem interno
En este tipo de configuración normalmente
encontramos modelos de gama baja y
prestaciones recortadas, como ocurre en el
caso de los "Winmodem", también llamados
"softmodem" o HSP. Sin embargo esto no es
más que una estrategia de los fabricantes
debido a que este tipo de modem suelen resultar más económicos
que los externos.

Aquí igualmente podremos hacer una segunda distinción


dependiendo del tipo de bus al que vayan conectados. Encontraremos
modelos para ranura ISA, para PCI o para las mas novedosas AMR.
Debido a que el primero está tendiendo a desaparecer, cada vez es
más dificil encontrar modelos para él, siendo lo habitual los
dispositivos PCI, que además tienen la ventaja del Plug and Play
(PnP) que siempre es una ayuda en el momento de su instalación.

Los modelos basados en AMR sólo podremos utilizarlos en las placas


más modernas como las que utilizan el chipset i810, y están
orientados al mercado de gama baja, debido a que la mayor parte de
la funcionalidad del dispositivo está ya implementada en la propia
placa base y al igual que ocurre en el caso de los Winmodem su
funcionamiento está más basado en el software que en el hardware,
lo que repercute en un menor precio de coste pero por el contrario su
utilización consume ciclos de CPU y su portabilidad está limitada ya
que no todos los sistemas operativos disponen del soporte software
adecuado para hacerlos funcionar.

Ventajas:

No necesitan una fuente de alimentación externa y


no ocupan lugar en nuestro escritorio, lo que
normalmente es de agradecer...

No ocupan ninguno de los puertos serie existentes en


nuestra máquina.

En máquina muy antiguas no hay que preocuparse


de posibles problemas en la velocidad de transferencia
por causa de un puerto serie lento debido a la
utilización de algún chip UART anticuado. (Consulte
nuestra sección de Puertos)
Inconvenientes:

Ocupan una ranura de expansión, lo que puede ser


contraproducente cuando disponemos de pocas en el interior de
nuestra máquina.

Utilizan recursos que muchas veces son preciosos si el número de


dispositivos que tenemos instalado es muy elevado como suele ser el
caso de las IRQ. Esto también puede llevar a problemas de conflictos
que nos pueden producir más de un quebradero de cabeza aún en el
caso de dispositivos PnP.

No tienen "lucecitas" que nos informen del estado de la conexión y


del propio modem. Tampoco se pueden "reiniciar" cuando tenemos
algún problema con él, aunque esto último suele ser hoy día bastante
raro...

Por último, algunos modelos externos implementan botoncitos


adicionales para subir o bajar el volumen del altavoz o para activar
las funciones de contestador o incluso implementan un micrófono o
un altavoz, que en los modelos internos difícilmente podremos
encontrar.

El modem USB
Este tipo de configuración es la más
reciente dentro del mundo de los
modem. La principal ventaja la
tenemos en el propio método de
conexión, por lo que os remitimos a
nuestra sección dedicada a este
puerto.

Respecto del modelo externo para


puerto serie tiene la ventaja de que no hay que preocuparse por la
velocidad de conexión de éste con el ordenador, pues en este caso el
caudal proporcionado es más que suficiente. Tampoco es problema el
contar con pocos puertos USB, pues siempre podremos adquirir un
hub para interconectar más dispositivos. De todas formas para evitar
este gasto sería interesante que el propio modem incorporara como
mínimo dos conectores, aunque no suele ser lo habitual.

Ventajas:

No ocupan ninguna ranura de expansión, lo que es adecuado para


ordenadores con nulas o pocas posibilidades de ampliación, incluso
para ordenadores portátiles, aunque hay que tener en cuenta que su
consumo normalmente será mayor que el de un dispositivo de tipo
PC-Card.

Sólo utilizan los recursos del propio USB al que están conectados.

Suelen dispone de indicadores luminosos que nos informan del


estado de la conexión y del propio aparato.

Algunos modelos disponen de un interruptor para apagarlo cuando


no lo utilizamos. En todo caso, al igual que ocurre con cualquier otro
dispositivo USB, siempre se puede desconectar (y por supuesto
conectar) "en caliente", es decir, con el ordenador en marcha.

Una ventaja sobre los modem externos serie es que no precisan de


ninguna alimentación externa.

Inconvenientes:

Ocupan lugar en nuestro escritorio.

Necesitan un conector USB libre, bien en el propio ordenador, bien


en algún otro dispositivo USB conectado a nuestra máquina que actúe
de hub.

El modem en formato PC Card


Este tipo de modem es el adecuado para
los ordenadores portátiles, pues tiene las
mismas prestaciones que el resto de tipos
analizados, pero con el tamaño de una
tarjeta de crédito.

Ventajas:

No necesita fuente de alimentación


externa y su consumo eléctrico es reducido, aunque no es
conveniente abusar de él cuando lo utilizamos en un ordenador
portátil usando las baterías.

Inconvenientes:

Requieren una ranura PC-Card libre, normalmente de tipo I (las más


estrechas)

Impresoras
Tipos de Impresoras

Según la tecnología que empleen se puede hacer una primera clasificación.


Los más comunes son los siguientes: Matricial, de inyección de tinta (o inkjet) y
láser.

Matriciales.

Las impresoras matriciales han sido muy


empleadas durante muchos años, ya que las
otras tecnologías han sido desarrolladas
posteriormente, y en un principio eran muy
caras. Hoy en día han sido sustituidas en
muchos entornos por sus competidoras, pero
todavía son irreemplazables en algunas tareas.

Asi pues, son las únicas que permiten obtener varias copias de un mismo
impreso. Esto resulta muy conveniente cuando tenemos la necesidad de
realizar varias copias de un mismo documento con la mayor rapidez y que se
ejecuten en distintos impresos.
Por ejemplo, cuando necesitamos que cada copia esté hecha en un papel de
distinto color, y con algún texto identificativo. En este caso, mediante papel
autocopiativo de varias hojas lo podemos realizar de una forma rápida y barata,
principalmente cuando la información es de tipo textual.

Al igual que los otros tipos de impresora, sus características básicas a


considerar son la velocidad, la calidad y la posibilidad de impresión en color. La
velocidad se mide en cps o caracteres por segundo, ya que como hemos dicho
esta es la principal función que suelen realizar. La calidad normalmente viene
marcada por el número de agujas, que suelen oscilar entre las 8 y las 24,
siendo mejor cuanto de mayor número disponga.

A pesar de que en un principio se desarrolló la tecnología matricial en color


como competencia directa con las de inyección de tinta, actualmente las
impresoras que encontramos suelen ser monocromas, ya que no es la
tecnología más adecuada para la impresión de colores, sobretodo en modos
gráficos.

Sus principales características son su elevado ruido, y su poca definición, pero


en la vertiente de ventajas podemos considerar su economía tanto en compra
como en mantenimiento. Aunque hoy en día sus precios de compra van parejos
a los de las inkjet, ofreciendo éstas más ventajas. Son sólo aconsejables para
la impresión de texto, siempre que éste no requiera gran calidad, y mayormente
cuando empleamos papel continuo.

Inyección de tinta (inkjet)


Aunque en un principio tuvo que competir
duramente con sus adversarias
matriciales, hoy son las reinas
indiscutibles en el terreno domestico, ya
que es un entorno en el que la economía
de compra y la calidad, tanto en color
como en blanco y negro son factores más
importantes que la velocidad o la
economía de mantenimiento, ya que el
número de copias realizadas en estos
entornos es bajo.

Su funcionamiento se basa en la
expulsión de gotas de tinta líquida a
través de unos inyectores que impactan
en el papel formando los puntos necesarios para la realización de gráficos y
textos.

La tinta se obtiene de unos cartuchos reemplazables que dependiendo del tipo


de impresora pueden ser más o menos.

Algunas impresoras utilizan dos cartuchos, uno para la tinta negra y otro para la
de color, en donde suelen están los tres colores básicos. Estas impresoras
tienen como virtud la facilidad de manejo, pero en contra, si utilizamos más un
color que otro, nos veremos obligados a realizar la sustitución del cartucho
cuando cualquiera de los tres colore se agote, aunque en los demás
compartimentos todavía nos quede tinta de otros colores.
Esto hace que estas impresoras sean bastante más caras de mantenimiento
que las que incorporan un cartucho para cada color, pero también suelen ser
más económicas en el precio de compra.

También podemos encontrar las famosas impresoras con calidad fotográfica,


que suelen contar con cartuchos de 4 colores en vez de 3.

Las características principales de una impresora de inyección de tinta son la


velocidad, que se mide en páginas por minuto (ppm) y que suele ser distinta
dependiendo de si imprimimos en color o en monocromo, y la resolución
máxima, que se mide en puntos por pulgada (ppp). En ambos valores, cuanto
mayores mejor.

Como en otros componentes, es importante disponer de los "drivers"


adecuados, y que estos estén convenientemente optimizados.

Láser.

Las últimas impresoras que vamos a ver van a ser


las de tecnología láser. Esta tecnología es la
misma que han utilizado mayormente las máquinas
fotocopiadoras desde un principio, y el material que
se utiliza para la impresión es un polvo muy fino
que pasa a un rodillo que previamente magnetizado en las zonas que
contendrán la parte impresa, es pasado a muy alta temperatura por encima del
papel, que por acción de dicho calor se funde y lo impregna.

Estas impresoras suelen ser utilizadas en el mundo empresarial, ya que su


precio de coste es más alto que el de las de inyección de tinta, pero su coste
de mantenimiento es más bajo, y existen dispositivos con una muy alta
velocidad por copia y calidad y disponibilidad superiores, así como también
admiten una mayor carga de trabajo.

Una pega es que aun y existiendo modelos en color, su precio todavía sigue
siendo astronómico para la mayor parte de economías, y su velocidad
relativamente baja, siendo los modelos más habituales los monocromos.

Una de las características más importantes de estas impresoras es que pueden


llegar a velocidades muy altas, medidas en páginas por minuto. Su resolución
también puede ser muy elevada y su calidad muy alta. Empiezan a ser
habituales resoluciones de 1.200 ppm (puntos por pulgada) y velocidades de
16 ppm, aunque esta velocidad puede ser mucho mayor en modelos
preparados para grupos de trabajo, hasta 40 ppm y más.

Otras características importantes son la cantidad de memoria disponible y el


modelo de procesador, que suele ser de tipo RISC. La memoria es importante
para actuar como "buffer" en donde almacenar los trabajos que le van llegando
y para almacenar fuentes y otros motivos gráficos o de texto que permitan
actuar como "preimpresos" e imprimirlos en cada una de las copias sin
necesidad de mandarlos en cada página.

Puertos
Los ordenadores personales actuales aún conservan prácticamente todos los
puertos heredados desde que se diseñó el primer PC de IBM. Por razones de
compatibilidad aún seguiremos viendo este tipo de puertos, pero poco a poco
irán apareciendo nuevas máquinas en las que no contaremos con los típicos
conectores serie, paralelo, teclado, etc... y en su lugar sólo encontraremos
puertos USB, Fireware (IEE 1394) o SCSI.

Un ejemplo típico lo tenemos en las máquinas iMac de Apple, que aunque no


se trate de máquinas PC-Compatibles, a nivel hardware comparten muchos
recursos, y nos están ya marcando lo que será el nuevo PC-2000 en cuanto a
que sólo disponen de bus USB para la conexión de dispositivos a baja-media
velocidad, como son el teclados, ratón, unidad ZIP, módem, etc..

Tampoco hay que olvidar otro tipo de conectores que son ya habituales en los
ordenadores portátiles como los puertos infrarrojos, que pueden llegar a
alcanzar velocidades de hasta 4 Mbps y que normalmente cumplen con el
estándar IrDA, o las tarjetas PC-Card (antiguamente conocidas como PCMCIA)
ideales para aumentar la capacidad de dichas máquinas de una manera
totalmente estándar.
Para más información sobre dispositivos SCSI o IDE visita nuestra sección
dedicada a los discos.

Para más información sobre puertos USB, paralelo y serie, visita nuestra
sección de placas base.

Universal Serial Bus (U.S.B.)

Puerto paralelo (por Javier Olcina y David Romero).

Puerto serie (por Javier Olcina y David Romero).

Patillaje y especificaciones de los conectores

Esquemas de los cables más utilizados

Esquemas de los adaptadores más utilizados

U.S.B.
Desde que nació el PC de la mano de I.B.M., por motivos de
compatibilidad, algunas de sus características han permanecido
inalterables al paso del tiempo.

Conectores como el de la salida paralelo (o Centronics), la salida serie (RS-


232) o el conector del teclado han sufrido muy pocas variaciones.

Si bien es cierto que estos conectores todavía hoy cumplen su función


correctamente en casos como la conexión de un teclado, un ratón o un modem,
se han quedado ya desfasados cuando tratamos de conectar dispositivos más
rápidos como por ejemplo una cámara de video digital.

USB nace como un estandar de entrada/salida de velocidad media-alta que va


a permitir conectar dispositivos que hasta ahora requerían de una tarjeta
especial para sacarles todo el rendimiento, lo que ocasionaba un
encarecimiento del producto además de ser productos propietarios ya que
obligaban a adquirir una tarjeta para cada dispositivo.

Pero además, USB nos proporciona un único conector para solventar casi
todos los problemas de comunicación con el exterior, pudiendose formar una
auténtica red de periféricos de hasta 127 elementos.

Mediante un par de conectores USB que ya hoy en día son estandar en todas
las placas base, y en el espacio que hoy ocupa un sólo conector serie de 9
pines nos va a permitir conectar todos los dispositivos que tengamos, desde el
teclado al modem, pasando por ratones, impresoras, altavoces, monitores,
scaners, camaras digitales, de video, plotters, etc... sin necesidad de que
nuestro PC disponga de un conector dedicado para cada uno de estos
elementos, permitiendo ahorrar espacio y dinero.

Al igual que las tarjeta ISA tienden a desaparecer, todos los conectores
anteriormente citados también desaparecerán de nuestro ordenador,
eliminando además la necesidad de contar en la placa base o en una tarjeta de
expansión los correspondientes controladores para dispositivos serie, paralelo,
ratón PS/2, joystick, etc...

Como podeis ver, realmente es un estándar que es necesario para facilitarnos


la vida, ya que además cuenta con la famosa característica PnP (Plug and
Play) y la facilidad de conexión "en caliente", es decir, que se pueden conectar
y desconectar los periféricos sin necesidad de reiniciar el ordenador.

Otras características que también deberemos saber


son:

Dos velocidades de acceso, una baja de 1,5 Mbps


para dispositivos lentos como pueden ser joysticks
o teclados y otra alta de 12 Mbps para los dispositivos que necesiten mayor
ancho de banda.

Topología en estrella, lo que implica la necesidad de dispositivos tipo "hub"


que centralicen las conexiones, aunque en algunos dispositivos como teclados
y monitores ya se implementa esta característica, lo que permite tener un sólo
conector al PC, y desde estos dispositivos sacar conexiones adicionales.
Por ejemplo en los teclados USB se suele implementar una conexión adicional
para el ratón, o incluso otras para joystick, etc.. y en los monitores varias
salidas para el modem, los altavoces...

Permite suministrar energía electrica a dispositivos que no tengan un alto


consumo y que no estén a más de 5 metros, lo que elimina la necesidad de
conectar dichos periféricos a la red eléctrica, con sus correspondientes fuentes
de alimentación, como ahora ocurre por ejemplo con los modems externos.

En los ordenadores Mac más modernos (como el iMAC) también están


implementados dichos conectores, lo que da una idea de su estandarización, y
redundará en favor de una mayor gama de productos y mejor competitividad.

Si trabajamos bajo Windows necesitaremos como mínimo la versión OSR 2.1


del Windows 95 para que reconozca los dispositivos.

Teclado
El teclado es un componente al que se le da poca importancia, especialmente
en los ordenadores clónicos. Si embargo es un componente esencial, pues es
el que permitirá que nuestra relación con el ordenador sea fluida y agradable,
de hecho, junto con el ratón son los responsables de que podamos interactuar
con nuestra máquina.

Así, si habitualmente usamos el procesador de textos, hacemos programación,


u alguna otra actividad en la que hagamos un uso intensivo de este
componente, es importante escoger un modelo de calidad. En el caso de que
seamos usuarios esporádicos de las teclas, porque nos dediquemos más a
juegos o a programas gráficos, entonces cualquier modelo nos servirá, eso sí,
que sea de tipo mecánico. No acepteis
ningún otro.

Parámetros importantes a tener en cuenta


son el tacto, no debe de ser gomoso, y el
recorrido, no debe de ser muy corto.
También es importante la ergonomía, es
aconsejable que disponga de una amplia
zona en la parte anterior, para poder
descansar las muñecas. Y hablando de la
ergonomía, este es uno de los parámetros que más destaca en un teclado, uno
de los ya clasicos en este aspecto es el "Natural keyboard" de Microsoft.

Los mejores teclados que yo haya


visto jamás son los de IBM, sobre
todo los antiguos, aunque para
entornos no profesionales, quizá
puedan resultar incluso
incómodos, por la altura de las
teclas, su largo recorrido, y sus escandalosos "clicks". Estos teclados,
fabricados después por Lexmark, y ahora por Unicomp, tienen una bien ganada
fama de "indestructibles".

Y ya pasando a aspectos más técnicos, vamos a describir en detalle sus


características.

Actualmente sólo quedan dos estándares en cuanto a la distribución de las


teclas, el expandido, que IBM lo introdujo ya en sus modelos AT, y el de
Windows95, que no es más que una adaptación del extendido, al que se le han
añadido tres teclas de más, que habitualmente no se usan, y que sólo sirven
para acortar la barra espaciadora hasta límites ridículos.

En cuanto al conector, también son dos los estándares, el DIN, y el mini-DIN. El


primero es el clásico de toda la vida, y aún es
el habitual en equipos clónicos.
El segundo, introducido por IBM en sus
modelos PS/2, es usado por los fabricantes
"de marca" desde hace tiempo, y es el
habitual en las placas con formato ATX.
De todas formas, no es un aspecto
preocupante, pues hay convertidores de un
tipo a otro.
Nos dejamos otro tipo de conector cada vez más habitual, el USB, pero la
verdad es que de momento apenas hay teclados que sigan este estándar.

Si quieres construirte un adaptador para conectar un teclado DIN a una placa


mini-DIN.

Si quieres construirte un adaptador para conectar un teclado mini-DIN a una


placa DIN.

Puerto paralelo
por Javier Olcina y David Romero.

Introducción

Norma IEE 1284

Modo compatible

Modo EPP

Modo ECP

Introducción
Tras la acentuada falta de estandarización del interfaz paralelo, surgió
Centronics como un standard en este tipo de conexión, debido a la facilidad de
uso y la comodidad a la hora de trabajar con él.

A raíz de este interfaz, posteriormente apareció una norma standard (IEEE


1284) para el interfaz paralelo en los ordenadores personales, en la cual se
tratan varios tipos de protocolos los cuales se verán a lo largo de este trabajo.

La transmisión en paralelo entre un ordenador y un periférico, se basa en la


transmisión de datos simultáneamente por varios canales, generalmente 8 bits.
Por esto se necesitan 8 cables para la transmisión de cada bit, mas otros
tantos cables para controles del dispositivo, el numero de estos dependerá del
protocolo de transmisión utilizado.

Los principales tipos y nombres de canales que son utilizados como control
son:

1. STROBE - a través de el, el ordenador comunica al


periférico que esta preparado para transmitir.
2. BUSY - el periférico comunica a través de el, que NO esta
preparado para recibir datos.
3. ACK - el periférico comunica a través de el, que esta
preparado para recibir datos.

4. SELECT Y SELECTIN - indican el tipo de error producido


en el periférico.

5. ERROR - indica que se ha producido un error en el


periférico.

6. PE - depende del tipo del periférico, en el caso de la


impresora indica que no tiene papel.

Algunos de estos canales pueden ser utilizados para alguna acción adicional
o cambiar la anteriormente descrita, según el protocolo que se utilice.

Norma IEE 1284


La reciente norma: "IEEE Std. 1284-1994 Standard Signaling Method for a Bi-
directional Parallel Peripheral Interface for Personal Computers", supone tal
avance para el puerto paralelo como el Pentium frente al 286. Esta norma
provee una alta velocidad de comunicación bi-direccional entre el ordenador y
el periférico externo lo que hace la comunicación de 50 a 100 veces mas rápido
que el puerto paralelo original. A parte del incremento de velocidad la gran
ventaja es que la compatibilidad con todos los periféricos existentes que
puedan usar el puerto paralelo.

La norma 1284 define 5 modos de transmisión de datos. Cada tipo provee un


método de transmisión de datos ya sea la dirección ordenador - periférico, la
inversa (Periférico - Ordenador) o bi-direccional. Los modos son:

 Ordenador - Periférico :Compatibility Mode : "Centronics"


en modo standard.
 Periférico - Ordenador : Byte Mode : 8 bits al mismo
tiempo usando líneas de datos, algunas veces puede
funcionar como un puerto bi-direccional.

 Bi-direccional

 EPP : Puerto Paralelo Ampliado, usado principalmente por


periféricos como: CD-ROM, cintas, discos duros,
adaptadores de redes, etc. excluyendo las impresoras.
 ECP : Puerto con Capacidad Extendida, usado
principalmente por scanners e impresoras de nueva
generación.

Todos lo puertos paralelo pueden usarse en modo bi-direccional usando el


modo Compatibility. El modo Byte puede ser utilizado por al menos el 25% de
las bases instaladas de puertos paralelos.
Todos los modos utilizan software solo para la transmisión de datos, el driver
se encarga de escribir los datos, comprobar las líneas de unión (BUSY), hacer
valer las señales de control apropiadas (STROBE) y luego pasar al siguiente
byte. Este software limita la efectiva transmisión de datos a unos ratios de 50 a
100 Kbytes por segundo.

Además de los 2 anteriores modos, EPP y ECP están siendo implementados


sobre los mas nuevos controladores de E/S por la mayoría de fabricantes.
Estos modos usan hardware para ayudar a la transmisión de datos. Por
ejemplo en el modo EPP, un byte de datos puede ser enviado al periférico por
una simple instrucción de salida. El control E/S controla todo el intercambio y
transmisión de datos al periférico.

En resumen, la norma 1284 nos indica lo siguiente:

 5 tipos de operaciones para transmitir datos.


 Un método para el ordenador y el periférico para
determinar el modo de transmisión mantenido y negociar el
modo requerido.
 Define el interfaz físico:
o Cables.

o Conectores.

 Defina el interfaz eléctrico.


o Drivers.

o Terminación.

o Impendancia.

 Modo compatible
 Este modo define los pasos a seguir por la mayoría de PC's a la hora
de transferir datos a una impresora. Es conocido con el nombre de
"Centronics". Los datos se sitúan sobre la línea por la que van a ser
enviados y se comprueba el estado de la impresora para comprobar que
no esté ocupada (BUSY). Por último, el software genera un impulso a
través de la línea STROBE para detener el envío de datos a la
impresora.

 Pasos en la fase de transmisión:

 1. Escribe los datos en el registro de datos.


 2. El programa lee el estado del registro para comprobar que la
impresora no esta ocupada (BUSY).

 3. Si no esta ocupada, entonces escribe al registro de control para hacer


valer la línea STROBE.

 4. Escribe al registro de control para dejar de hacer valer la línea


STROBE.

 En la siguiente figura se describe el método de transmisión seguido:

 Como se puede observar, para sacar 1 byte de información se requiere


4 instrucción de E/S y tantas instrucciones adicionales más como se
requieran. El efecto neto de esto es una limitación de las capacidades
del ancho de banda del puerto del orden de 150 Kbytes por segundo.

 Este ancho de banda es suficiente para comunicaciones punto a punto


con muchas impresoras, pero es muy limitado para adaptadores pocket
LAN, discos duros móviles y las nuevas generaciónes de impresoras
láser. Desde luego este modo es solamente para el canal directo y debe
ser combinado con un canal inverso para conseguir un completo canal
bi-direccional.

 Fue incluido para proveer compatibilidad a la amplia gama de


periféricos e impresoras instalados.

 Muchos controladores de E/S integrados han implementado un modo


que, conservando su compatibilidad con éste, utiliza un buffer FIFO para
transferir datos. Se le conoce como "Fast Centronics" o "Modo FIFO de
puerto paralelo". Los ratios que pueden alcanzarse con él son de mas de
500 Kbytes por segundo, sin embargo no está descrito en la norma
IEEE 1284.
Modo EPP
El protocolo EPP fue originalmente desarrollado por Intel, Xircom y Zenith
Data Systems, como una manera de obtener un puerto paralelo de alta
resolución totalmente compatible con el puerto paralelo standard. Esta
capacidad fue implementada por Intel en el procesador 386SL.

El protocolo EPP ofreció muchas ventajas a los fabricantes de periféricos que


utilizaban puertos paralelos y fue rápidamente adoptado por muchos de ellos.
Una asociación de 80 fabricantes se unió para el desarrollo de este protocolo,
esta asociación se llamo el Comité EPP. Este protocolo fue desarrollado antes
de la aparición de la norma IEEE 1284, por lo tanto hay una pequeña diferencia
entre el anterior EPP y el nuevo EPP después de la norma.

El protocolo EPP realiza cuatro ciclos de transferencia:

1. Ciclo de escritura de datos


2. Ciclo de lectura de datos
3. Ciclo de escritura de direcciones
4. Ciclo de lectura de direcciones

Los ciclos de datos están pensados para transferir datos tanto al ordenador como al
periférico. Los ciclos de direcciones son usados para transferir direcciones, canales,
comandos e información de control. La siguiente tabla describe las señales EPP y sus
señales asociadas SPP.

SEÑAL SPP NOMBRE In/Out DESCRIPCIÓN


Inactivo indica una operación de
STROBE WRITE OUT escritura. Activo un ciclo de
lectura.
Inactivo Operación de lectura o
AUTOFEED DATASTB OUT escritura de datos que esta en
proceso.
Inactivo Operación de lectura o
SELECTIN ADDRSTB OUT escritura de direcciones, que
esta en proceso.
INIT RESET OUT Inactivo resetea periférico
El periférico genera una
ACK INTR IN
interrupción al ordenador
BUSY WAIT IN Inactivo indica OK para
comenzar el ciclo
Activo indica OK para finalizar el
ciclo
Fluyen bi-direccionalmente
D[8:1 AD[8:1 BI-DI
direcciones y datos
definido por
PE IN Diferentes usos según periférico
usuario
definido por
SELECT IN Diferentes usos según periférico
usuario
definido por
ERROR IN Diferentes usos según periférico
usuario

Fases de transmisión de ciclo de escritura de datos:

1. El programa ejecuta un ciclo de escritura E/S al puerto 4


(Puerto de datos EPP).
2. La línea WRITE indica la salida de datos hacia el puerto
paralelo.
3. Se confirma el DataStrobe ya que el canal WAIT esta
desactivado.
4. El puerto de reconocimiento desde el periférico.
5. El DataStrobe se desconecta y finaliza el ciclo EPP.
6. El ciclo ISA E/S finaliza.
7. El canal WAIT es desactivado para indicar que el próximo
ciclo puede comenzar.

Una de las mas importantes características es que la transferencia de datos


ocurre en un ciclo ISA E/S. El resultado es que mediante el uso del protocolo
EPP para la transmisión de datos un sistema puede mejorar los ratios de
transmisión desde 500 K hasta 2Mbytes por segundo, de esta manera los
periféricos de puertos paralelos pueden operar tan eficientemente como un
periférico conectado directamente a la placa.

En la anterior figura el canal DataStrobe puede ser conectado a causa de que


el canal WAIT esta desactivado, el canal WAIT se desactiva en respuesta a un
canal DataStrobe conectado, un canal DataStrobe se desactiva en respuesta a
que un canal WAIT esta siendo desconectado. Un canal WAIT se conecta en
respuesta a un canal DataStrobe esta siendo desconectado, de esta manera el
periférico puede controlar el tiempo de inicialización requerido para su
operación. Esto se hace de la siguiente manera: el tiempo de inicialización es el
que transcurre desde la activación del canal DataStrobe a la desactivación del
canal WAIT, los periféricos son los encargados de controlar este tiempo.

Al empezar la transmisión el canal DataStrobe o el AddStrobe se activaría


según el estado de la señal WAIT. Esto significa que el periférico puede que no
espera el comienzo de un ciclo al tener desactivado el canal WAIT.

La siguiente figura muestra un ejemplo de un ciclo de lectura de direcciones:

Modo ECP
El protocolo de puerto de capacidad extendida o ECP, fue propuesto por
Hewlett Packard y Microsoft como un modo avanzado para la comunicación de
periféricos del tipo de los scanners y las impresoras. Como el protocolo EPP, el
ECP proporciona una alta resolución en la comunicación bi-direccional entre el
adaptador del ordenador y el periférico.

El protocolo ECP proporciona los siguientes ciclos, en ambas direcciones :

1. Ciclos de Datos
2. Ciclos de Comandos

Las características principales del ECP incluyen la RLE (Run Length


Encoding) o compresión de datos en los ordenadores, FIFO para los canales
directo e inverso y DMA.

La característica RLE mejora la compresión de datos en tiempo real y puede


lograr una compresión de datos superior 64:1. Esto es particularmente útil para
las impresoras y scanners que transfieren gran cantidad de imágenes y tienen
largas cadenas de datos idénticos.

El canal de direcciones contiene una pequeña diferencia con el del EPP. El


canal de dirección se intenta que se use para sistemas lógicos múltiples de
dirección con un sistema físico único. Piense en esta idea como un nuevo
sistema multi-función como por ejemplo un Fax/Impresora/Módem. Con este
protocolo se puede estar enviado datos a la impresora y al Módem a la vez.

Pasos en la fase de transmisión directa :

1. El ordenador sitúa los datos sobre las líneas de datos,


inicia un ciclo de datos activando el HostAck.
2. El ordenador desactiva HostClk para indicar un dato valido.
3. El periférico reconoce el ordenador activando PeriphAck.
4. El ordenador activa HostClk. Este es el punto que debería
ser usado para cerrar los datos al periférico.

5. El periférico desactiva PeriphAck indicando que esta


preparado para recibir el siguiente byte.

6. El ciclo se repite pero en un ciclo de comando ya que


HostAck esta desactivado.

La siguiente tabla describe las señales de este protocolo :

SEÑAL SPP NOMBRE In/Out DESCRIPCIÓN


Usado con PeriphAck para
STROBE HostClk OUT transmitir datos o direcciones
en la dirección directa.
AUTOFEED HostAck OUT Proporciona estado de datos y
de comando en la dirección
directa. Usado con PeriphClk
transfiere datos en la dirección
inversa.
Cuando el ordenadores esta
SELECTIN 1284Active OUT en el modo de transmisión
1284 se activa.
Se desactiva para colocar el
INIT ReverseRequest OUT
canal en dirección inversa.
Usado con HostAck para
ACK PeriphClk IN transmisión de datos en la
dirección inversa.
Usado con HostClk para
transmisión de información de
datos o direcciones en la
BUSY PeriphAck IN
dirección directa. Proporciona
estado de comandos y datos
en la dirección inversa.
Desactivado para reconocer
PE AckReverse IN
Reverse Request.
SELECT Xflag IN Flag de extensibilidad.
Desactivado por el periférico
ERROR PeriphRequest IN para indicar que es posible la
transferencia inversa.
Usado para proporcionar datos
Data[8:1 Data[8:1 BI-DI entre el periférico y el
ordenador.

La primera figura muestra los dos ciclos de transmisión de datos directos,


cuando HostAck esta activado indica que un ciclo de datos se esta llevando a
cambio. Cuando HostAck esta desactivado se lleva a cabo un ciclo de
comandos, los datos representan un calculo de RLE o un canal de direcciones.
El bit 8 del byte de datos se usa para indicar una RLE, si el bit 8 es cero
entonces los bits del 1 al 7 representan un calculo de la longitud de cadena de
transmisión, si el bit es 1 entonces los bits 1 al 7 representan un canal de
dirección.
La siguiente figura muestra en proceso inverso de transferencia, con las
diferencias entre el protocolo ECP y EPP, con el software del EPP puede
mezclar operaciones de lectura escritura sin ningún problema. Con el protocolo
ECP los cambios en la dirección de datos deben ser negociados, el ordenador
debe pedir una transmisión por el canal inverso desactivando el canal
ReverseRequest, entonces esperar que el periférico reconozca la señal
desactivando AckReverse. Solamente entonces una transmisión de datos por
canal inverso puede llevarse a cabo.

Pasos en la fase de transmisión inversa :

1. El ordenador pide una transmisión por el canal inverso


desactivando ReverseRequest.
2. El periférico señala que esta de acuerdo para proceder
desactivando AckReverse.
3. El periférico sitúa los datos sobre las líneas de datos e
indica un ciclo de datos activando PeriphAck.
4. El periférico desactiva PeriphClk para indicar un dato
valido.
5. El ordenador reconoce la señal activando HostAck.
6. El periférico PeriphClk. Esta manera debería ser usada
para guardar los datos en el ordenador.
7. El ordenador desactiva Host.Ack para indicar que esta
preparado para el siguiente byte.
8. El ciclo se repite pero esta vez es un ciclo de comando
porque PeriphAck esta desactivado.

9. Puerto serie
por Javier Olcina y David Romero.

10. Introducción

11. Conectores

12. Direcciones

13. Transmisión de datos

14. Tipos de puerto serie

15. Otros tipos

16. Introducción
17. El puerto serie de un ordenador es un adaptador asíncrono utilizado
para poder intercomunicar varios ordenadores entre sí.

18. Un puerto serie recibe y envía información fuera del ordenador mediante
un determinado software de comunicación o un driver del puerto serie.

19. El software envía la información al puerto carácter a carácter,


conviertiéndolo en una señal que puede ser enviada por un cable serie o
un módem.

20. Cuando se ha recibido un carácter, el puerto serie envía una señal por
medio de una interrupción indicando que el carácter está listo. Cuando el
ordenador ve la señal, los servicios del puerto serie leen el carácter.
21. Conectores
22. En nuestros PC's, se emplea como conector del interface serie un terminal
macho al que llamaremos DTE (Data Terminal Equipment) que, a través de un
cable conectamos a un periférico que posee un conector hembra al que
llamaremos DCE (Data Comumunications Equipment). En nuestro terminal
DTE, tenemos las siguientes conexiones (para un conector DB-25):

PIN Nombre Dirección Función


1 P.G. -- Tierra de seguridad
2 TD -->DCE Salida datos DTE
3 RD -->DTE Entrada de datos DTE
4 RTS -->DCE Petición de emisión DTE
5 CTS -->DTE Listo para trasmitir DCE
6 DSR -->DTE CE listo para com. con DTE
7 GND -- Masa común del circuito
8 DCD -->DTE Detección de portadora
20 DTR -->DCE Señal de terminal disponible
23 DSRD <--> Indicador de velocidad de Tx.

Direcciones
El puerto serie utiliza direcciones y una línea de señales, un IRQ para llamar
la atención del procesador. Además el software de control debe conocer la
dirección.

La mayoría de los puertos series utilizan direcciones standard predefinidas.


Éstas están descritas normalmente en base hexadecimal. Cuando se instala un
nuevo puerto, normalmente se mueve un jumper o switch para seleccionar un
puerto (COM1, COM2, COM3, etc., con lo que se asigna una dirección y una
interrupción usada por la tarjeta del puerto.

Las direcciones e IRQ usadas por los puertos serie fueron definidas al
diseñar el ordenador originalmente ; sin embargo, las del COM3 y COM4 no se
han definido oficialmente, aunque están aceptadas por convenios.

Las señales son :

Dirección Interrupción (IRQ)


COM1 3F8 4
COM2 2F8 3
COM3 3E8 4
COM4 2E8 3

Se pueden añadir gran cantidad de puertos serie a un PC, ya que existe gran
flexibilidad a la hora de definir direcciones no standard, siempre que se
encuentren entre el rango 100 y 3FF hexadecimal y siempre que no entren en
conflicto con otros dispositivos.

Los ordenadores IBM PS/2 usan la Microchannel Architecture, que define las
direcciones e IRQs para los puertos desde COM1 a COM8:

Dirección Interrupción (IRQ)


COM1 3F8 4
COM2 2F8 3
COM3 3E8 4
COM4 2E8 3
COM5 4220 3
COM6 4228 3
COM7 5220 3
COM8 5228 3

Transmisión de datos
Para el protocolo de transmisión de datos, sólo se tienen en cuenta dos
estados de la línea, 0 y 1, también llamados Low y High. Cuando no se
transmite ningún carácter, la línea esta High. Si su estado pasa a Low, se sabe
que se transmiten datos. Por convenio se transmiten entre 5 y 8 bits, pero la
BIOS sólo soporta una anchura de datos de 7 u 8 bits. Durante la transmisión,
si la línea está Low, se envía un 0 y si está High indica un bit a uno. Se envía
primero el bit menos significativo, siendo el más significativo el último en
enviarse.

A continuación se envía un bit de paridad para detectar errores. Finalmente


se mandan los bits de stop, que indican el fin de la transmisión de un carácter.
El protocolo permite utilizar 1, 1,5 y 2 bits de stop.

El número de bits que componen cada palabra dependen del código a


emplear, así, si se quieren transmitir datos ASCII normales, serán de 7 bits,
pero si se quiere enviar el juego completo de caracteres, cada una debería
estar formada por 8 bits.

Dependiendo de esto, si se emplea paridad y el numero de bits de stop, se


mandarán un determinado número de caracteres dependiendo de la velocidad
en baudios (bits por segundo) por el puerto serie.

En la siguiente figura se puede ver con detalle la transmisión del carácter


ASCII A, que es el 65 y su representación binaria es 0100001.

Tipos de puertos serie


Hay muchos tipos de puertos serie, que están definidos normalmente por el
tipo de UART (Universal Asynchronous Receiver / Transmitter,
Receptor/Transmisor Asíncrono Universal) usado por el puerto serie. El UART
es un chip del puerto serie que convierte los datos de formato paralelo
utilizados por el PC en datos de formato serie para su envío.

A continuación se enumeran los diferentes tipos de UARTs existentes :

UART's sin buffer:

Los UARTs sin buffer fueron diseñados cuando los módem más rápidos
transmitían a 1200 bps. No tienen buffer de carácter extra en el UART, por lo
que dependen del procesador para borrar cada carácter enviado por el módem
antes de que el siguiente carácter sea enviado.

Los UARTs sin buffer comprenden las series 8250, el 16450 y el original 16550.
UART con buffer
Los UARTs con buffer han sido diseñados como apoyo a los módem rápidos de
la actualidad. El UART original con buffer es el 16550A, que puede acumular 16
caracteres en un buffer antes de que el procesador lea el dato. Esto hace que
el software del PC tenga una mayor facilidad para comunicarse con el módem,
creándose menos errores y una mayor velocidad de transmisión.

El 16550A

Esta es una versión mejorada del 16550, donde el buffer trabaja, y es el


standard UART de los 90, que requieren las transmisiones rápidas con los
actuales módem. El buffer colabora en los sistemas operativos Windows y
OS/2. Asimismo, evita los overrun y los errores CRC que se puedan producir en
aplicaciones DOS u ordenadores más rápidos.

Existen diferentes versiones del 16550A creadas por diferentes fabricantes. Así,
hay quienes han optado por poner dos UARTs en un mismo chip. Otros han
hecho el "super-I/O", que incluye dos puertos serie, y los controles del disco
duro y la diskettera. Estas modificaciones lo han mejorado con el paso del
tiempo.

 El StarTech 16650 UART

Este chip es una versión mejorada del 16550A UART, que posee un buffer
FIFO de 32 bytes, control de flujo automático y un gran potencial en
comunicaciones. Desgraciadamente, su diseño no lo hace completamente
compatible con el 16550A, lo que supone que en algunas ocasiones puede no
trabajar con algunas aplicaciones y drivers. Particularmente, muchas
aplicaciones DOS no funcionan adecuadamente con este chip cuando corren
en una ventana DOS bajo otro sistema operativo. Además no existen drivers
para Windows 95, Windows NT u OS/2.

 Texas Instruments 16750 UART

Texas Instruments hizo un UART totalmente compatible con el 16550A. El


16750 posee un buffer de 64 bytes y capacidad de control de flujo automático

UART's con buffer:

Los UARTs con buffer han sido diseñados como apoyo a los módem rápidos
de la actualidad. El UART original con buffer es el 16550A, que puede acumular
16 caracteres en un buffer antes de que el procesador lea el dato. Esto hace
que el software del PC tenga una mayor facilidad para comunicarse con el
módem, creándose menos errores y una mayor velocidad de transmisión.
UART's sin buffer
El 8250 y 8250B

El 8250 fue el original UART usado en el IBM PC/XT, y el 8250B es una versión
un poco más lenta, aunque lo suficiente para un PC/XT. Este UART no debería
ser usado en un IBM AT o una máquina más rápida, ya que muchos programas
de chequeo muestran un informe erróneo, y existen riesgos ocasionales de
error, e incluso pueden producirse fallos si se utilizan en estas máquinas.

El 8250A

El 8250A UART es una versión mejorada del 8250 / 8250B UART que trabaja
un poco más rápido sobre el bus del PC, no sobre el módem, y con menos
problemas. Este chip es lo suficientemente rápido para trabajar con máquinas
basadas en el procesador 8086 diseñado entre 1.983 y 1.985, pero no es lo
suficientemente rápido para ser aplicado en los tipos AT.

El 16450

El 16450 es una versión más rápida, también sobre el bus del 8250A que fue
diseñado para su uso en máquinas del tipo AT. Un 16450 es lo suficientemente
rápido para soportar las velocidades de transmisión de los ordenadores
actuales.

Como curiosidad, apuntar que no existe forma de que un software detecte la


diferencia entre un 16450 y un 8250A, por lo que un programa de diagnóstico
puede dar diferentes resultados.

El 16550

El 16550 es un UART que fue montado durante un corto período de tiempo.


Este UART tiene un buffer interno de 16 bytes que no trabaja. Muchos de los
IBM PS/2 incluyen este chip.

Otros tipos
Pequeños puertos serie

Existen algunas tarjetas diseñadas específicamente para dotar de un puerto


serie de alta velocidad para comunicaciones. Estas tarjetas tienen un
microprocesador en su interior que asiste al PC en las comunicaciones.
Además, disponen de un modo de transferencia de datos de alta velocidad que
es mucho más eficiente que el interface de puerto serie normal. Estas tarjetas
necesitan unos drivers especiales para su uso, pero también disponen de un
interface standard de puerto serie por motivos de compatibilidades.

Hayes ESP-I y ESP-II

Hayes ha introducido tres diferentes tipos de "Enhanced Serial Ports", o tarjeta


ESP. La original tarjeta ESP (ESP-I) es una tarjeta "full-length 8-bit" con dos
16550A puertos serie y un procesador que tiene en cuenta las transmisiones
entre el puerto original y el procesador. Esta tarjeta no es soportada por
Windows ni OS/2, por lo que se hace necesario el uso del puerto standard.

La tarjeta ESP-II está disponible con un o dos puertos serie. Este producto
reemplazó al modelo original y dispone de drivers para diferentes entornos al
mismo tiempo,, e incluso reciente Hayes ha introducido un driver para Windows
95.

Practical Peripherals High Speed Serial Port HSSP

Un Practical Peripheral High Speed Serial Port (HSSP) es una versión


mejorada de la tarjeta Hayes ESP-II, y es idéntica en su construcción a la ESP-
II. Tiene los drivers que la ESP-II.

El T/Port

El T/Port de Telcor Systems, Inc. es una tarjeta especial que incluye un


microprocesador y es utilizada para la comunicación con un host durante un
tiempo elevado. El T/Port mejora el funcionamiento del ordenador,
especialmente cuando opera bajo Windows u OS/2. Presenta una emulación
del interface 16450.

Otros tipo de puertos serie

Algunos módem internos utilizan chips con la apariencia de un 16450 UART,


pero realmente son procesadores simulando ese UART.

Otros módem, también disponen de un segundo buffer que aumenta la


capacidad del principal y ofrece una considerable protección ante caracteres
perdidos (overrun errors).

S-ar putea să vă placă și