Sunteți pe pagina 1din 83

1

2
DEFINICIÓN DE LA CARRERA TÉCNICA EN INSTALACIÓN Y
MANTENIMIENTO

La instalación de los programas


computacionales (software) es
el proceso fundamental por el
cual los nuevos programas son
transferidos a un computador
con el fin de ser configurados, y
preparados para ser
desarrollados. Un programa
recorre diferentes fases de
desarrollo durante su vida útil:

1. Programador: esto te sirve


mucho para poder
programar.
2. Desarrollo: cada
programador necesita el programa instalado, pero con las
herramientas, códigos fuente, bancos de datos y etc., para
modificar el programa.
3. Prueba: antes de la entrega al usuario, el software debe ser
sometido a pruebas. Esto se hace, en caso
de software complejos, en una instalación ad hoc.
4. Producción: Para ser utilizado por el usuario final.
En cada una de esas fases la instalación cumple diferentes
objetivos. En español, programa sirve para señalar tanto un guion o
archivo ejecutable, ejemplo tar, como un conjunto de archivos que
sirven un fin común, ejemplo OpenOffice.org. Por eso usaremos el
neologismo software para programas computacionales.

PROCESOS DE LA INSTALACIÓN

 Verificación de la compatibilidad: Se debe comprobar si se


cumplen los requisitos para la instalación en cuanto
a hardware y software. A veces es necesario desinstalar
versiones antiguas del mismo software.
 Verificación de la integridad: Se verifica que el paquete de
software es el original, esto se hace para evitar la instalación de
programas maliciosos.

3
 Creación de los directorios requeridos: Para mantener el orden
en el directorio cada sistema operativo puede tener un estándar
para la instalación de ciertos archivos en ciertos directorios. Ver
por ejemplo Linux Standard Base.
 Creación de los usuarios requeridos: Para deslindar
responsabilidades y tareas se pueden o deben usar diferentes
usuarios para diferentes paquetes de software.
 Concesión de los derechos requeridos: Para ordenar el sistema y
limitar daños en caso necesario, se les conceden a los usuarios
solo el mínimo necesario de derechos.
 Copia, desempaque y descompresión de los archivos desde
el paquete de software: Para ahorrar Ancho de banda y tiempo
en la transmisión por internet o espacio de Disco duro, los
paquetes vienen empacados y comprimidos.
 Archivos principales, sean de fuente o binarios.
 Archivos de datos, por ejemplo, datos, imágenes, modelos,
documentos XML-Document, etc.
 Documentación
 Archivos de configuración
 Bibliotecas
 Enlaces duros o enlaces simbólicos a otros archivos
 Compilación y enlace con las bibliotecas requeridas: En algunos
casos no se puede evitar el complicado paso de la compilación
y enlace que a su vez tiene severos requerimientos de software
al sistema. El enlace con bibliotecas requeridas puede ser un
problema si en su instalación no se acataron los estándares
establecidos.
 Configuración: Por medio de archivos de configuración se le da
a conocer al software con que parámetros debe trabajar. Por
ejemplo, los nombres de las personas que pueden usar el
software, como verificar su clave de ingreso, la ruta donde se
encuentran los archivos con datos o la dirección de nuestro
proveedor de correo electrónico. Para sistemas complejos se
debe desarrollar el Software Configuration Management.
 Definir las variables de entorno requeridas: Algunos
comportamientos del software solo pueden ser determinados
por medio de estas variables. Esto es parte de la configuración,
aunque es más dinámica.
 Registro ante el dueño de la marca: Para el Software
comercial a veces el desarrollador de software exige el registro
de la instalación si se desea su servicio.

4
MANTENIMIENTO DEL PC

Se puede definir Mantenimiento


del PC como una serie de rutinas
periódicas que debemos realizar a
la PC, necesarias para que la
computadora ofrezca un
rendimiento óptimo y eficaz a la
hora de su funcionamiento. De esta
forma podemos prevenir o
detectar cualquier falla que pueda
presentar el computador.

RAZONES PARA HACER UN MANTENIMIENTO AL PC

Las computadoras funcionan muy bien y están protegidas cuando


reciben mantenimiento. Si no se limpian y se organizan con
frecuencia, el disco duro se llena de información,
el sistema de archivos se desordena y el rendimiento general
disminuye.
Si no se realiza periódicamente un escaneo del disco duro para
corregir posibles errores o fallas, una limpieza de archivos y la
desfragmentación del disco duro, la información estará más
desprotegida y será más difícil de recuperar.
El mantenimiento que se debe hacer, se puede resumir en tres
aspectos básicos importantes, los cuales son:

1. Diagnóstico.
2. Limpieza.
3. Desfragmentación.

DIAGNÓSTICO

La computadora trabaja más de lo que normalmente se cree. Está


constantemente dando prioridad a las tareas, ejecutando órdenes
y distribuyendo la memoria.
Sin embargo, con el tiempo ocurren errores en el disco duro,
los datos se desorganizan y las referencias se vuelven obsoletas.
Estos pequeños problemas se acumulan y ponen lento el sistema
operativo, las fallas del sistema y software ocurren con más
frecuencia y las operaciones de encendido y apagado se
demoran más.

5
Para que el sistema funcione adecuadamente e incluso para que
sobre todo no se ponga tan lento, se debe realizar un
mantenimiento periódico.
Asegurándonos de incluir en la rutina del mantenimiento estas
labores:
 Exploración del disco duro para saber si tiene errores y solucionar los
sectores alterados.
 Limpieza de archivos.
 Desfragmentación el disco duro.

LIMPIEZA

Para garantizar un rendimiento óptimo y eficaz de la computadora,


debemos mantenerla limpia y bien organizada.
Debemos eliminar los programas antiguos, programas que no
utilicemos y las unidades de disco para liberar la memoria y reducir
la posibilidad de conflicto del sistema.
Un disco duro puede presentar diversas deficiencias, que casi
siempre se pueden corregir estas son:
1. Poco espacio disponible.
2. Espacio ocupado por archivos innecesarios.
3. Alto porcentaje de fragmentación.

Se debe eliminar los archivos antiguos y temporales. Además, entre


más pocos archivos innecesarios tenga la computadora, estará
más protegida de amenazas como el hurto de
la identidad en Internet.
Cuando el espacio libre de un disco se acerca peligrosamente a
cero, la PC entra en una fase de funcionamiento errático: se torna
excesivamente lenta, emite mensajes de error (que en ocasiones no
especifican la causa), algunas aplicaciones no se inician, o se
cierran después de abiertas, etc.
Como factor de seguridad aceptable, el espacio vacío de un disco
duro no debe bajar del 10% de su capacidad total, y cuando se
llega a este límite deben borrarse archivos innecesarios, o
desinstalar aplicaciones que no se usen, o comprimir archivos.
Todas las aplicaciones de Windows generan archivos temporales.
Estos archivos se reconocen por la extensión .tmp y generalmente
existe uno o varios directorios donde se alojan.
En condiciones normales, las aplicaciones que abren archivos
temporales deben eliminarlos cuando la aplicación concluye, pero
esto a veces no sucede cuando se concluye en condiciones
anormales, o Windows "se cuelga" o por una
deficiente programación de la aplicación.

6
Estos archivos temporales deben borrarse del disco duro.
Existen otro tipo de archivos que pueden borrarse, y no son
temporales: la papelera de reciclaje, el caché de Internet
(Windows\temporary internet files) y algunas carpetas que
permanecen el disco después que se baja o se instala un programa.
El caché de Internet debe borrarse si resulta estrictamente
necesario, ya que después de borrado no podrán verse las páginas
visitadas sin estar conectado.
Debe hacerse mediante la función explícita del navegador, y
además ajustarse el tamaño del caché.
Un usuario experimentado puede intentar otras posibilidades, como
por ejemplo eliminar DLL duplicadas, instaladores, datos de
aplicaciones desinstaladas, etc.
Debe obrar con mucho cuidado cuando haga esta "limpieza
profunda" y si no hay plena seguridad de que un archivo en
cuestión puede ser borrado, no debe eliminarlo de la papelera de
reciclaje hasta comprobarlo, pudiendo reponerse a su ubicación
original si resultara necesario.
En general lo que se debe realizar son estas labores:
 Eliminar los programas antiguos y archivos temporales.
 Eliminar la información obsoleta
 Asegurarnos de guardar de manera segura la información.
 Eliminar las entradas de registro inválidas y los accesos directos
dañados.

DESFRAGMENTACIÓN

De todos los componentes de una PC, el disco duro es el más


sensible y el que más requiere un cuidadoso mantenimiento.
La detección precoz de fallas puede evitar a tiempo un desastre
con pérdida parcial o total de información (aunque este evento no
siempre puede detectarse con anticipación).

 Alto porcentaje de fragmentación: Durante el uso de una PC existe


un ininterrumpido proceso de borrado de archivos e instalación de
otros nuevos.

Estos se instalan a partir del primer espacio disponible en el disco y


si no cabe se fracciona, continuando en el próximo espacio vacío.
Un índice bajo de fragmentación es tolerable e imperceptible, pero
en la medida que aumenta, la velocidad disminuye en razón del
incremento de los tiempos de acceso al disco ocasionado por la
fragmentación, pudiendo hacerse notable.

7
Todas las versiones de Windows incluyen el desfragmentador de
disco.
El proceso de desfragmentación total consume bastante tiempo
(en ocasiones hasta horas), y aunque puede realizarse como tarea
de fondo no resulta conveniente la ejecución simultanea de otro
programa mientras se desfragmenta el disco, debiendo
desactivarse también el protector de pantalla.

ESTRUCTURA DEL COMPUTADOR

Independientemente de su tamaño o
propósito todos los computadores se
componen del mismo conjunto de
partes básicas.

Un computador se divide
fundamentalmente en dos partes:
el Hardware y el Software.
El hardware es la parte física del
computador, la parte tangible; es decir
aquello que podemos tocar del computador. El software es la parte
lógica del computador, es decir el conjunto de instrucciones que le
ordenan al hardware que tarea debe realizar.

ARQUITECTURA DEL HARDWARE

El Hardware es la parte tangible del computador, aquella que se


puede palpar. Los componentes Hardware se refiere a las partes
físicas y accesorios complementarios que componen la Unidad
Central de Procesamiento (CPU) así como a los dispositivos externos,
tales como, monitor, impresora, teclado, mouse, cornetas. Si vemos
el computador como una estructura de hardware, notaremos que
está constituido por dispositivos, que clasificaremos según la
función que desempeñen. De acuerdo a esta clasificación
tendremos:

 Dispositivos de Entrada.
 Dispositivos de Salida.

8
 Dispositivos de Comunicación.
 Dispositivos de Almacenamiento.
 Dispositivos de Cómputo.

DISPOSITIVOS DE ENTRADA

Son todos aquellos que permiten la entrada de datos a un


computador. Entre estos encontramos: el teclado, el ratón, el
escáner, el micrófono, la cámara web, el capturador de y firmas
digitales o lápices ópticos, memorias USB, CD, DVD, etc.

DISPOSITIVOS DE SALIDA

Son todos aquellos que permiten mostrar la información procesada


por el computador. Entre estos encontramos: la pantalla, la
impresora, los altavoces, etc.

DISPOSITIVOS DE ALMACENAMIENTO
Son todos aquellos que permiten almacenar los datos en el
computador. Entre estos encontramos: el disquete, el disco duro
(interno y externo), el CD, el DVD, la memoria USB, etc.

9
DISPOSITIVOS DE COMUNICACIÓN
Son todos aquellos que permiten la comunicación entre
computadores. Entre estos encontramos: el módem, la tarjeta de
red y el enrutador (router).

DISPOSITIVOS DE CÓMPUTO
Son todos aquellos que realizan las operaciones y controlan las
demás partes del computador. Entre estos encontramos: la Unidad
Central de Procesamiento, la memoria y el bus de datos.

UNIDAD CENTRAL DE PROCESAMIENTO (CPU)]


Unidad central de proceso o CPU (mejor conocida por sus siglas en
inglés, CPU), es un circuito microscópico que interpreta y ejecuta
instrucciones. La CPU se ocupa del control y del proceso de datos
en las computadoras. Generalmente, la CPU es un

10
microprocesador fabricado en un chip, un único trozo de silicio que
contiene millones de componentes electrónicos. El
microprocesador de la CPU está formado por una unidad
aritmético-lógica que realiza cálculos y comparaciones y toma
decisiones lógicas (determinando si una afirmación es cierta o falsa
mediante las reglas del álgebra de Boole. Para aceptar órdenes del
usuario, acceder a los datos y presentar los resultados, la CPU se
comunica a través de un conjunto de circuitos o conexiones
llamado bus. El bus conecta la CPU a los dispositivos de
almacenamiento (por ejemplo, un disco duro), los dispositivos de
entrada (por ejemplo, un teclado o un mouse) y los dispositivos de
salida (por ejemplo, un monitor o una impresora).

LA MEMORIA
Es la encargada de almacenar toda la información que el
computador está usando. Las hay de tres tipos y son:
 MEMORIA RAM
Del inglés Random Access Memory, es la memoria principal. Se
caracteriza y diferencia de la memoria ROM porque una vez
apagado el sistema operativo, toda la información almacenada en
la memoria RAM es automáticamente borrada.

 MEMORIA ROM
Del inglés Read Only Memory, Es permanente, ya que lo que
permanece en la ROM no se pierden, aunque el computador se
apague.
Su función principal es guardar información inicial que el
computador necesita para colocarse en marcha una vez que se
enciende. Solo sirve para leer. Se puede leer la información desde
esta memoria y no recibir información.

11
MEMORIA CACHÉ
Es aquella que se usa como puente entre la CPU y la memoria RAM
para evitar demoras en el procesamiento de los datos. Existen varios
núcleos de esta memoria (denominados con la letra L y un número,
por ejemplo, L1). Cuanto menor el número más rápida es la
memoria.
La memoria Caché es, por proximidad a la CPU, mucho más rápida
que la memoria RAM. También es mucho más pequeña. La
velocidad de la caché con respecto a la memoria RAM
convencional es del orden de 5 a 10 veces superior.

EL BUS DE DATOS O CABLES DE DATOS


Es el conjunto de interconexiones entre las distintas partes del
computador que permiten la comunicación entre todos los
dispositivos del mismo. También un bus es un conjunto cableado
que sirve para que los dispositivos hardware puedan comunicarse
entre sí. Son rutas compartidas por todos los dispositivos y les
permiten transmitir información de unos a otros, son, en definitiva,
las autopistas de la información interna, las que permiten las
transferencias de toda la información manejada por el sistema.

LOS TIPOS DE COMPUTADORAS

Los tipos de computadoras son:

1. Computadora de escritorio
2. Portátiles
3. Netbooks
4. Computadoras de mano
5. Estaciones de Trabajo
6. Servidores
7. Mainframes
8. Minicomputadoras
9. Las supercomputadoras

En algunas partes del mundo le dicen computador, en otras


computadoras, en España generalmente es llamado ordenador.
Todos estos términos hacen referencia a un dispositivo que recibe
datos a través de un ratón, teclado y otras herramientas. Este

12
dispositivo cuenta con un microchip y muestra los resultados a las
solicitudes que le enviamos.

Existen muchos tipos de computadoras, pero todas comparten un


mismo conjunto de componentes que incluyen una memoria, una
unidad central de procesamiento, dispositivo de almacenamiento
(Disco duro), dispositivos de entrada (teclado, ratón), y dispositivos
de salida (monitor).
Estos son los tipos de computadoras:

Computadora de escritorio

Las computadoras de escritorio son el


tipo de computadora más común
que existe. Llamado generalmente
como computadora de escritorio, de
sobremesa, o simplemente PC, son
equipos utilizados en mayoría en los
hogares. Estos modelos incluyen un
monitor, ratón, teclado y un envase
donde aloja todos los componentes
internos. Las computadoras de escritorio están principalmente
diseñadas para aplicaciones de uso diario como jugar, navegar por
Internet, procesamiento de textos, almacenamiento de fotos y
vídeos, entre otras funciones básicas.

Portátiles

Su nombre en inglés “laptop”,


que viene de la combinación
de 2 palabras: lap (que
significa “regazo”) y top
(encima), de esta forma
llamaron a estos dispositivos
que pueden disponerse sobre
las piernas. También los llaman
notebooks (que significa
cuaderno), por su gran parecido físico a estos objetos.
Estos modelos contienen pantallas planas, un teclado, dispositivo
señalador, memoria y procesador. Las computadoras portátiles son
muy livianas pues su peso no supera los 3 kilos y son especializadas
para usuarios móviles. Tienen las mismas funciones que las

13
computadoras de escritorio, pero son más caros debido a su
tamaño reducido y compacto. Estos modelos son ideales para toda
persona que necesita el poder, y el procesamiento de una
computadora de escritorio combinado con la portabilidad.

Netbooks

Los netbooks son una versión


más pequeña, ligera y
compacta que la
computadora portátil. Estos
dispositivos están diseñados
principalmente para navegar
por la web de forma
inalámbrica. Debido a su
tamaño, los notebooks
generalmente tienen
pantallas de muy poco
tamaño, en promedio es de
10,1 pulgadas. Este tipo de computadora contiene una memoria
con muy poco espacio de almacenamiento, no incluyen unidad de
CD o DVD, no tienen puertos de conexión y son poco potentes.
Cuando salieron al mercado lograron grandes ventas, pero estas
han disminuido luego de la llegada de las tabletas.

Computadoras de mano

Las computadoras de mano, o


también llamadas PDA (Asistente
digital personal) por sus siglas en
inglés, son computadoras
sumamente compactas sin
teclado y con pantalla táctil. Estas
fueron diseñadas principalmente
como agenda electrónica,
calendario, documentos de texto,
lista de contactos, reproductor de
sonido, navegador, por Internet,
correos electrónicos, recordatorios, entre otras funciones. Estos
dispositivos han sido reemplazados por los Smartphone o también
llamados teléfonos inteligentes.

14
Estaciones de Trabajo

Las estaciones de trabajo son


un tipo de computadora con
grandes monitores, los cuales
son capaces de presentar
gráficos de alta calidad, este
modelo contiene un
procesador muy potente,
memoria interna capaz de
procesar datos de gran
complejidad, y unidades de
disco duro para almacenar
gran cantidad de datos. Estas características hacen que las
estaciones de trabajo sean especializadas para uso de
profesionales matemáticos, ingenieros, arquitectos, y
desarrolladores de software o de juegos que necesitan de una
computadora que soporte grandes datos e imágenes de alta
resolución.

Servidores

Los servidores son otro tipo de


computadora optimizado
para ofrecer servicios a otras
computadoras, todo a través
de una red. Generalmente los
servidores cuentan con
potentes procesadores,
memoria interna que pueda
almacenar gran cantidad de
información. Son equipos que
están encendidos durante todo el día.

15
Estos servidores tienen como función principal realizar las
comunicaciones entre varias computadoras al tiempo.

Mainframes

Son computadoras de gran


tamaño, que ocupan el
espacio de una habitación o
incluso de una planta entera.
Son equipos caros, que están
diseñados principalmente
para procesar múltiples tareas
realizadas por miles de
usuarios al tiempo.
Generalmente las empresas utilizan estos equipos para procesar
aplicaciones que necesitan para su negocio, incluyendo
transacciones financieras, y análisis estadísticos.

Minicomputadoras

Las minicomputadoras, son en


ocasiones llamados servidores
de gama media, pues estos
son menos potentes que los
mainframes, pero más
potentes que las
computadoras de escritorio.
Estos equipos cuentan con
capacidad de cumplir varias
tareas al tiempo, contiene un
procesador rápido, y puede soportar cientos de usuarios a la vez.

Las supercomputadoras

16
Las supercomputadoras son
utilizadas principalmente para
realizar grandes cantidades
de cálculos numéricos en
periodos cortos de tiempo, las
supercomputadoras cuentan
con la mayor y más costosa
tecnología disponible. Estos
equipos son solo empleados
para aplicaciones
especializados como investigaciones científicas, previsiones
meteorológicas, análisis de datos geológicos, entre otras tareas que
necesiten de grandes cantidades de procesamiento.
La supercomputadora ROadDrunner de IBM, es un claro ejemplo de
lo potente que puede llegar a ser estos equipos, pues tardaron 6
años en construirla y costó millones de dólares.

TOPOLOGÍA FÍSICA Y TECNOLOGICA DE PC

La topología de una red es la configuración o relación de los


dispositivos de red y las interconexiones entre ellos. Las topologías
LAN y WAN se pueden ver de dos maneras:

 Topología física: se refiere a las conexiones físicas e identifica


cómo se interconectan los dispositivos finales y de
infraestructura, como los routers, los switches y los puntos de
acceso inalámbrico. Las topologías físicas generalmente son
punto a punto o en estrella.

17
Topología Anillo

En esta topología los datos se


transmiten de una computadora a otra
hasta que llegan a la computadora de
destino. El cable transfiere una trama
de datos completa permitiendo un bit
por vez en el cable. Para enviar datos
los computadores tienen que esperar
su turno. Esta topología se conoce
como activa ya que la señal es
regenerada al pasar por cualquier PC
de la topología.

Topología de Bus

Se conoce como topología pasiva ya


que esta no regenera la señal en cambio
para esta función son utilizados los
repetidores.
Esta topología utiliza solo un tramo de
cable, que se extiende de un extremo de
la red hasta otro. Los usuarios están
conectados al cable central por medio
de segmentos de cables.
Esta topología tiene más desventajas
que ventajas; las ventajas son el bajo
costo y la facilidad de configuración.
Las desventajas: requiere terminales en ambos extremos si no puede
producir un rebote de señal que puede interrumpir las
comunicaciones en la red. También en un extremo de la red debe
estar conectado a tierra.
Dificultad para detectar un fallo, y la principal si el cable es cortado

18
los demás equipos de la red quedaran sin comunicación.
Por lo tanto, muy pocas redes nuevas se diseñan como buses físicos.

Topología en estrella

La topología en estrella y en estrella


extendida son las más comunes en las
conexiones de redes.
La topología en estrella conecta todos
los cables a un punto central. Por lo
general este punto es un dispositivo de
red, como un switche.
Es fácil de diseñar y de instalar y también
es escalable para agregar más
estaciones de trabajo o servidores solo se
debe conectar otro cable al dispositivo central o switche. Otra de
las ventajas es que si un cable falla solo se verá afectado el
dispositivo que este al otro extremo de ese cable el resto de la red
seguirá funcionando. Haciendo así más fácil un diagnóstico de
fallas en la red. Sin embargo, una de las grandes desventajas es su
dependencia del dispositivo central sea un switche o un router. Si
este dispositivo falla se verá afectada toda la red.

Topología en estrella extendida

Una topología en estrella extendida se


crea mediante el enlace de varias
topologías en estrella a un punto central la
desventaja es la misma que la de
topología en estrella. Es la topología de red
más utilizada en medianas y grandes
organizaciones.
Es la principal topología para cableado
estructurado.

19
Topología Jerárquica

La topología jerárquica impone un


orden en la red por medio de
agrupamiento de equipos basándose
en la ubicación física en la red. La
desventaja de la topología jerárquica
es que si un cable falla puede afectar
a los demás host que necesitan este
cable para poder acceder a otros
lugares de la red.

Topología de Anillo Doble

La topología de anillo doble tiene el


beneficio de proporcionar rutas
predecibles para la recuperación de
errores. La topología de anillo doble
ofrece mayor confiabilidad que la
topología de anillo sencillo ya que posee
dos rutas para que el tráfico fluya. Si se
presenta una falla los sensores pueden
sellar la sección con fallas y restaurar la
conectividad por medio del otro anillo.

Topología en Malla

La topología en malla proporciona


redundancia en una red
conectando un host con cada uno
de los otros hosts que se encuentra
en la red.
Es una solución muy costosa. Esta
topología es implementada cuando
no se puede interrumpir las
comunicaciones es muy confiada
pero muy compleja y ya desplazada por la topología de estrella o
estrella extendida.

20
 Topología lógica: se refiere a la forma en que una red transfiere
tramas de un nodo al siguiente. Esta disposición consta de
conexiones virtuales entre los nodos de una red. Los protocolos
de capa de enlace de datos definen estas rutas de señales
lógicas. La topología lógica de los enlaces punto a punto es
relativamente simple, mientras que los medios compartidos
ofrecen métodos de control de acceso al medio deterministas
y no deterministas.

Protocolos de red:

Podemos definir un protocolo como el conjunto de normas que


regulan la comunicación (establecimiento, mantenimiento y
cancelación) entre los distintos componentes de una red
informática. Existen dos tipos de protocolos: protocolos de bajo nivel
y protocolos de red. Los protocolos de bajo nivel controlan la forma
en que las señales se transmiten por el cable o medio físico.
Los protocolos de red organizan la información (controles y datos)
para su transmisión por el medio físico a través de los protocolos de
bajo nivel.

Veamos algunos de ellos:


 ipx/spx
Ipx (internetwork packet exchange) es un protocolo de Novell que
interconecta redes que usan clientes y servidores Novell NetWare.
Es un protocolo orientado a paquetes y no orientado a conexión.

 NetBIOS
NetBIOS (network Basic input/output system) es un programa que
permite que se comuniquen aplicaciones en diferentes
ordenadores dentro de una LAN.
 netbeui
NetBIOS extended user interface o interfaz de usuario para
NetBIOS es una versión mejorada de NetBIOS que sí permite el
formato o arreglo de la información en una transmisión de datos.
 AppleTalk
Es el protocolo de comunicación para ordenadores Apple
Macintosh y viene incluido en su sistema operativo, de tal forma que
el usuario no necesita configurarlo. Existen tres variantes de este
protocolo.

21
 tcp/ip
Es realmente un conjunto de protocolos, donde los más conocidos
son tcp (transmission control protocol o protocolo de control de
transmisión) e ip dicha conjunto o familia de protocolos es el que se
utiliza en internet.

TECNOLOGÍAS CISC Y RISC


Una de las primeras
decisiones a la hora de
diseñar un
microprocesador es
decidir cuál será su
juego de instrucciones.
La decisión por dos
razones; primero, el
juego de instrucciones
decide el diseño físico
del conjunto; segundo,
cualquier operación
que deba ejecutarse
en el microprocesador
deberá poder ser
descrita en términos de un lenguaje de estas instrucciones. Frente a
esta cuestión caben dos filosofías de diseño; máquinas
denominadas CISC y máquinas denominadas RISC.

Cuando hablamos de microprocesadores CISC, computadoras


con un conjunto de instrucciones complejo, (del inglés complex
instruction set computer), y procesadores RISC, computadoras con
un conjunto de instrucciones reducido, (del inglés reduced
instruction set computer), se piensa que los atributos complejo y
reducido describen las diferencias entre los dos modelos de
arquitectura para microprocesadores.
Esto es cierto solo de forma superficial, pues se requiere de muchas
otras características esenciales para definir los RISC y los CISC.

Hasta hace solo algunos años, la división era tajante: RISC se


utilizaba para entornos de red, mientras que CISC se aplicaba en
ordenadores domésticos. Pero en la actualidad se alzan voces que
afirman que CISC está agotando sus posibilidades, mientras otras
defienden fervientemente que CISC ya ha alcanzado a RISC,
adoptando algunas de sus principales características.

22
Arquitectura RISC

En la arquitectura computacional, RISC (del inglés reduced


instruction set computer) es un tipo de microprocesador con las
siguientes características fundamentales:

 Instrucciones de tamaño fijo y presentadastamaños fijos y


presentados en un reducido número de formatos.
 Sólo las instrucciones de carga y almacenamiento acceden a la
memoria de datos.

El objetivo de diseñar máquinas con esta arquitectura es posibilitar


la segmentación y el paralelismo en la ejecución de instrucciones y
reducir los accesos a memoria.

Las máquinas RISC protagonizan la tendencia actual de


construcción de microprocesadores. PowerPC, DEC Alpha, MIPS,
ARM, SPARC... son ejemplos de algunos de ellos.
RISC es una filosofía de diseño de CPU para computadora que está
a favor de conjuntos de instrucciones pequeñas y simples que
toman menor tiempo para ejecutarse.

El tipo de procesador más comúnmente utilizado en equipos de


escritorio, el x86, está basado en CISC en lugar de RISC, aunque las
versiones más nuevas traducen instrucciones basadas en CISC x86
a instrucciones más simples basadas en RISC para uso interno antes
de su ejecución.
La idea fue inspirada por el hecho de que muchas de las
características que eran incluidas en los diseños tradicionales de
CPU para aumentar la velocidad estaban siendo ignoradas por los
programas que eran ejecutados en ellas. Además, la velocidad del
procesador en relación con la memoria de la computadora que
accedía era cada vez más alta. Esto con llevó la aparición de
numerosas técnicas para reducir el procesamiento dentro del CPU,
así como de reducir el número total de accesos a memoria.

23
Características:

En pocas palabras esto significa que, para cualquier nivel de


desempeño dado, un chip RISC típicamente tendrá menos
transistores dedicados a la lógica principal. Esto permite a los
diseñadores una flexibilidad considerable; así pueden, por ejemplo:

 Incrementar el tamaño del conjunto de registros.


 Mayor velocidad en la ejecución de instrucciones.
 Implementar medidas para aumentar el paralelismo interno.
 Añadir cachés enormes.
 Añadir otras funcionalidades, como E/S y relojes para mini
controladores.
 Construir los chips en líneas de producción antiguas que de otra
manera no serían utilizables.
 No ampliar las funcionalidades, y por lo tanto ofrecer el chip para
aplicaciones de bajo consumo de energía o de tamaño limitado.

Las características que generalmente son encontradas en los


diseños RISC son:

 Codificación uniforme de instrucciones, lo que permite una de


codificación más rápida.
 Un conjunto de registros homogéneo, permitiendo que cualquier
registro sea utilizado en cualquier contexto y así simplificar el diseño
del compilador.
 Modos de direccionamiento simple con modos más complejos
reemplazados por secuencias de instrucciones aritméticas simples.
 Los tipos de datos soportados en el hardware no se encuentran en
una máquina RISC.
 Los diseños RISC también prefieren utilizar como característica un
modelo de memoria Harvard, donde los conjuntos de instrucciones
y los conjuntos de datos están conceptualmente separados.

RISC Moderno:

Los diseños RISC han llevado a un gran número de plataformas y


arquitecturas al éxito, algunas de las más grandes:

 La línea MIPS Technologies Inc., que se encontraba en la mayoría


de las computadoras de Silicon Graphics hasta 2006, y estuvo en las
consolas ya descatalogadas Nintendo 64, PlayStation y PlayStation
2. Actualmente se utiliza en la PlayStation Portable y algunos routers.

24
 La serie IBM POWER, utilizado principalmente por IBM en Servidores
y superordenadores.

 La versión PowerPC de Motorola e IBM (una versión de la serie IBM


POWER) utilizada en los ordenadores AmigaOne, Apple Macintosh
como el iMac, e Mac, Power Mac y posteriores (hasta 2006).
Actualmente se utiliza en muchos sistemas empotrados en
automóviles, routers, etc., así como en muchas consolas de
videojuegos, como la PlayStation 3, Xbox 360 y Wii.

 El procesador SPARC y UltraSPARC de Sun Microsystems y Fujitsu, que


se encuentra en sus últimos modelos de servidores (y hasta 2008
también en estaciones de trabajo).

 El PA-RISC y el HP/PA de Hewlett-Packard, ya descatalogados.


 El DEC Alpha en servidores HP Alpha Server y estaciones de trabajo
AlphaStation, ya descatalogados.

 El ARM – El paso de hardware de instrucciones x86 en operaciones


RISC llega a ser significativo en el área y la energía para dispositivos
móviles e integrados. Por lo tanto, los procesadores ARM dominan
en PALM, Nintendo DS, Game Boy Advance y en múltiples PDA’s,
Apple iPods, Apple iPhone, iPod Touch (Samsung ARM1176JZF, ARM
Cortex-A8, Apple A4), Apple iPad (Apple A4 ARM -based SoC),
videoconsolas como Nintendo DS (ARM7TDMI, ARM946E-S),
Nintendo Game Boy Advance (ARM7TDMI).

 El Atmel AVR usado en gran variedad de productos, desde mandos


de la Xbox a los coches de la empresa BMW.

 La plataforma SuperH de Hitachi, originalmente usada para las


consolas Sega Super 32X, Saturn y Dreamcast, ahora forman parte
del corazón de muchos equipos electrónicos para el consumo.
SuperH es la plataforma base del grupo Mitsubishi - Hitachi. Estos dos
grupos, unidos en 2002, dejaron aparte la propia arquitectura RISC
de Mitsubishi, el M32R.

 Los procesadores XAP usados en muchos chips Wireless de poco


consumo (Bluetooth, wifi) de CSR.

25
Placa base

La placa base, también conocida como placa madre o placa


principal (motherboard o mainboard en inglés), es una tarjeta
de circuito impreso a la que se
conectan los componentes que
constituyen la computadora.
Es una parte fundamental para
montar cualquier computadora
personal de escritorio o portátil.
Tiene instalados una serie
de circuitos integrados, entre los que
se encuentra el circuito integrado
auxiliar (chipset), que sirve como
centro de conexión entre
el microprocesador (CPU),
la memoria de acceso
aleatorio (RAM), las ranuras de
expansión y otros dispositivos.
Va instalada dentro de
una carcasa o gabinete que por lo general está hecha de chapa
y tiene un panel para conectar dispositivos externos y muchos
conectores internos y zócalos para instalar componentes internos.
La placa madre, además incluye un firmware llamado BIOS, que le
permite realizar las funcionalidades básicas, como pruebas de los
dispositivos, vídeo y manejo del teclado, reconocimiento de
dispositivos y carga del sistema operativo.
Componentes de la placa base

Una placa base típica admite los siguientes componentes:

 Conectores de alimentación de energía eléctrica.


 Zócalo de CPU (monoprocesador) o zócalos
de CPU (multiprocesador).
 Ranuras de RAM.
 Chipset.

26
Conectores de la fuente de alimentación de tipo ATX2 para PC:
(1) mini molex para FDD.
(2) Molex universal: para
dispositivos IDE, HDD y unidad de disco
óptico.
(3) para dispositivos SATA.
(4) para tarjetas gráficas de 8 pines, separable para 6 pines.
(5) para tarjeta gráfica de 6 pines.
(6) para placa base de 8 pines.
(7) para CPU P4, combinado para el conector de la placa base
de 8 pines a 12V.
(8) ATX2 de 24 pines.
Por uno o varios de estos conectores de alimentación, una
alimentación eléctrica proporciona a la placa base los diferentes
voltajes e intensidades necesarios para su funcionamiento.
Zócalo de CPU

El zócalo (socket) de CPU es un


receptáculo que encastra
el microprocesador y lo conecta con el
resto de componentes a través del bus
frontal de la placa base.
Si la placa madre dispone de un único
zócalo para microprocesador, se
denomina monoprocesador. En cambio, si dispone de dos o más
zócalos, se denomina placa multiprocesador.
Ranuras de RAM
Las placas bases constan de ranuras (slots) de memoria de acceso
aleatorio, su número es de 2 a 6 ranuras en una misma placa base
común.
En ellas se insertan dichas memorias del tipo conveniente
dependiendo de la velocidad, capacidad y fabricante requeridos
según la compatibilidad de cada placa base y la CPU.
Chipset
El chipset es una serie o conjunto de circuitos electrónicos, que
gestionan las transferencias de datos entre los diferentes
componentes de la computadora (procesador, memoria, tarjeta
gráfica, unidad de almacenamiento secundario, etcétera).
El chipset, generalmente se divide en dos secciones:

27
1. puente norte (northbridge): gestiona la interconexión entre el
microprocesador, la memoria RAM y la unidad de
procesamiento gráfico;
2. puente sur (southbridge): gestiona la interconexión entre los
periféricos y los dispositivos de almacenamiento, como
los discos duros o las unidades de disco óptico.
Las nuevas líneas de procesadores de escritorio tienden a integrar
el propio controlador de memoria dentro del procesador, además
de que estas tardan en degradarse aproximadamente de 100 a 200
años.
Otros componentes importantes

 El reloj: regula la velocidad de ejecución de las instrucciones


del microprocesador y de los periféricos internos.
 La CMOS: una pequeña memoria que preserva cierta
información importante (como la configuración del equipo,
fecha y hora), mientras el equipo no está alimentado por
electricidad.
 La pila de la CMOS: proporciona la electricidad necesaria
para operar el circuito constantemente y que este último no
se apague perdiendo la serie de configuraciones guardadas,
como la fecha, hora, secuencia de arranque...
 El BIOS: un programa registrado en una memoria no
volátil (antiguamente en memorias ROM, pero desde hace
tiempo se emplean memorias flash). Este programa es específico
de la placa base y se encarga de la interfaz de bajo nivel entre
el microprocesador y algunos periféricos. Recupera, y después
ejecuta, las instrucciones del registro de arranque
principal (Master Boot Record, MBR), o registradas en un disco
duro o un dispositivo de estado sólido, cuando arranca el
sistema operativo.
 Actualmente, las computadoras modernas sustituyen el MBR
por la tabla de particiones GUID (GPT) y el BIOS por Extensible
Firmware Interface (EFI).
 El bus frontal o bus delantero (front-side bus o FSB): también
llamado “bus interno”, conecta el microprocesador al chipset.
Está cayendo en desuso frente a HyperTransport y Quickpath.
 El bus de memoria conecta el chipset a la memoria temporal.
 El bus de expansión (también llamado bus E/S): une el
microprocesador a los conectores de entrada/salida y a las
ranuras de expansión.

28
 Los conectores de entrada/salida que cumplen normalmente
con la norma PC 99; estos conectores incluyen:
 Los puertos serie, para conectar dispositivos antiguos.
 Los puertos paralelos, para la conexión de impresoras
antiguas.
 Los puertos PS/2 para conectar teclado y ratón; estas
interfaces tienden a ser sustituidas por USB.
 Los puertos USB (en inglés Universal Serial Bus), por ejemplo,
para conectar diferentes periféricos, como por ejemplo:
mouse, teclado, memoria USB, teléfonos inteligentes,
impresoras.
 Los conectores RJ-45, para conectarse a una red informática.
 Los conectores VGA, DVI, HDMI o DisplayPort para la
conexión del monitor de computadora o proyector de vídeo.
 Los conectores IDE o Serial ATA, para conectar dispositivos de
almacenamiento, tales como discos duros (HDD), dispositivos
de estado sólido (SDD) y unidades de disco óptico.
 Los conectores jacks de audio, para conectar dispositivos de
audio, por ejemplo: altavoces y auriculares (código de color:
verde), y micrófonos (código de color: rosado).
 Las ranuras de expansión: se trata de receptáculos (slots) que
pueden acoger placas o tarjetas de expansión (estas tarjetas se
utilizan para agregar características o aumentar el rendimiento
de la computadora; por ejemplo, una tarjeta gráfica se puede
añadir para mejorar el rendimiento 3D). Estos puertos pueden ser
puertos:
 ISA (Industry Standard Architecture) interfaz antigua,
 PCI (Peripheral Component Interconnect),
 AGP (Accelerated Graphics Port) y,
 PCI e o PCI-Express, son los más recientes.

 Con la evolución de las computadoras, más y más


características se han integrado en la placa base, tales como
circuitos electrónicos para la gestión del vídeo, de sonido o de
redes, evitando así la adición de tarjetas de expansión:
 interfaz gráfica integrada o unidad de procesamiento
gráfico (GPU, Graphics Processing Unit, o IGP, Integrated
Graphic Processor);
 interfaz integrada de audio o sonido;
 interfaz integrada Ethernet o puertos de red integrados
((10/100 Mbit/s)/(/ (1 Gbit/s)).

29
 En la placa también existen distintos conjuntos de pines,
llamados jumpers o puentes, que sirven para configurar otros
dispositivos:
 JMDM1: Sirve para conectar un módem por el cual se puede
encender el sistema cuando este recibe una señal.
 JIR2: Este conector permite conectar módulos de infrarrojos
IrDA, teniendo que configurar el BIOS.
 JBAT1: Se utiliza para poder borrar todas las configuraciones
que como usuario podemos modificar y restablecer las
configuraciones que vienen de fábrica.
 JP20: Permite conectar audio en el panel frontal.
 JFP1 Y JFP2: Se utiliza para la conexión de los interruptores del
panel frontal y los ledes.
 JUSB1 Y JUSB3: Es para conectar puertos USB del panel frontal.

Tipos de bus
Los buses son espacios físicos que permiten el transporte de
información y energía entre dos puntos de la computadora.
Los buses generales son cinco:
1. Bus de datos
Los buses de datos son las líneas de comunicación por donde
circulan los datos externos e internos del microprocesador.
2. Bus de dirección
El bus de dirección es la línea de comunicación por donde viaja la
información específica sobre la localización de la dirección de
memoria del dato o dispositivo al que se hace referencia.
3. Bus de control
El bus de control es la línea de comunicación por donde se controla
el intercambio de información con un módulo de la unidad central
y los periféricos.
4. Bus de expansión
Los buses de expansión son el conjunto de líneas de comunicación
encargado de llevar el bus de datos, el bus de dirección y el de
control a la tarjeta de interfaz (entrada, salida) que se agrega a la
placa principal.

30
5. Bus del sistema
Todos los componentes de la placa madre se vinculan a través del
bus del sistema, mediante distintos tipos de datos del
microprocesador y de la memoria principal, que también involucra
a la memoria caché de nivel 2. La velocidad de transferencia del
bus de sistema está determinada por la frecuencia del bus y el
ancho.

Placa multiprocesador

Este tipo de placa base incluye zócalos


para instalar
varios procesadores (generalmente 2,
4, 8 o más). No nos estamos refiriendo a
instalar un procesador con varios
núcleos, si no a que podemos instalar
varios procesadores. Algunos
fabricantes proveen placas base que
pueden acoger hasta 8 procesadores
(en el caso de socket 939 para
procesadores AMD Opteron y
sobre socket 604 para procesadores
Intel Xeon).

31
ARQUITECTURAS ISA, VESA, PCI, MCA.

 Arquitectura ISA
En informática, Industry Standard Architecture o ISA (en español:
Arquitectura Estándar de la Industria), es una arquitectura
de bus creada en 1980 por IBM, en Boca Ratón (Florida), para ser
empleado en las computadoras IBM PC.
ISA se creó en 1980 como un sistema de 8 bits en la IBM PC, y
en 1983 se extendió como la XT bus architecture. El nuevo estándar
de 16 bits se introduce en 1984 y se le llama habitualmente AT bus
architecture. Diseñado para conectar tarjetas de ampliación a
la placa base, el protocolo también permite el bus mastering,
aunque sólo los primeros 16 MiB de la memoria principal están
disponibles para acceso directo. El bus de 8 bits funciona a
4,77 MHz (la misma velocidad que el procesador Intel
8088 empleado en el IBM PC), mientras que el de 16 bits opera a 8
MHz (el de Intel 80286 del IBM AT). Está también disponible en
algunas máquinas que no son compatibles IBM PC, como
el AT&T Hobbit (de corta historia), los Commodore Amiga 2000, 3000
y 4000, así como los BeBox basados en PowerPC. Físicamente, la
ranura XT es un conector de borde de tarjeta de 62 contactos (31
por cara) y 8,5 centímetros, mientras que el AT se añade un segundo
conector de 36 contactos (18 por cara), con un tamaño de 14 cm.
Ambos suelen ser en color negro. Al ser retrocompatibles, puede
conectarse una tarjeta XT en un slot AT sin problemas, excepto en
placas mal diseñadas.
En 1987, IBM comienza a reemplazar el bus ISA por su bus propietario
MCA (Micro Channel Architecture) en un intento por recuperar el
control de la arquitectura PC y con ello del mercado PC. El sistema
es mucho más avanzado que ISA, pero incompatible física y
lógicamente, por lo que los fabricantes de ordenadores responden
con el Extended Industry Standard Architecture (EISA) y
posteriormente con el VESA Local Bus (VLB). De hecho, VLB usa
algunas partes originalmente diseñadas para MCA debido a que
los fabricantes de componentes ya tienen la habilidad de
fabricarlos. Ambos son extensiones compatibles con el estándar ISA.
Los usuarios de máquinas basadas en ISA tenían que disponer de
información especial sobre el hardware que iban a añadir al
sistema. Aunque un puñado de tarjetas eran esencialmente plug-
and-play (enchufar y listo), no era lo habitual. Frecuentemente
había que configurar varias cosas al añadir un nuevo dispositivo,
como la IRQ, las direcciones de entrada/salida, o el canal

32
de acceso directo a memoria (DMA). MCA había resuelto esos
problemas, y actualmente PCI incorpora muchas de las ideas que
nacieron con MCA (aunque descienden más directamente de
EISA).
Estos problema con la configuración llevaron a la creación de ISA
PnP, un sistema plug-and-play que usa una combinación de
modificaciones al hardware, la BIOS del sistema, y el software
del sistema operativo que automáticamente maneja los detalles
más gruesos. En realidad, ISA PnP acabó convirtiéndose en un dolor
de cabeza crónico, y nunca fue bien soportado excepto al final de
la historia de ISA. De ahí proviene la extensión de la frase
sarcástica plug-and-pray (enchufar y rezar).
Las ranuras PCI fueron el primer puerto de expansión físicamente
incompatible con ISA que lograron expulsarla de la placa base. Al
principio, las placas base eran en gran parte ISA, incluyendo
algunas ranuras del PCI. Pero a mitad de la década de 1990, los dos
tipos de ranuras estaban equilibradas, y al poco los ISA pasaron a
ser minoría en las computadoras de consumo. Las
especificaciones PC 97 de Microsoft recomendaban que los slots
ISA se retiraran por completo, aunque la arquitectura del sistema
todavía requiera de ISA en modo residual para direccionar las
lectoras de disquete, los puertos RS-232, etc. Los slots ISA
permanecen por algunos años más y es posible ver placas con un
slot Accelerated Graphics Port (AGP) justo al lado de la CPU, una
serie de slots PCI, y uno o dos slots ISA cerca del borde.
Es también notable que los slots PCI están "rotados" en comparación
con los ISA. Los conectores externos y la circuitería principal de ISA
están dispuestos en el lado izquierdo de la placa, mientras que los
de PCI lo están en el lado derecho, siempre mirando desde arriba.
De este modo ambos slots podían estar juntos, pudiendo usarse sólo
uno de ellos, lo que exprimía la placa madre.
El ancho de banda máximo del bus ISA de 16 bits es de
16 Mbyte/segundo. Este ancho de banda es insuficiente para las
necesidades actuales, tales como tarjetas de vídeo de alta
resolución, por lo que el bus ISA no se emplea en las PC modernas,
en los que ha sido sustituido por el bus PCI.

33
ARQUITECTURA VESA

Antecedentes
En el mercado existe una arquitectura abierta local bus; es decir
que los periféricos pueden hacer uso de ella interconectándose
con el motherboard por medio de un slot. Este tipo arquitectura fue
diseñado por VESA (Video Electronics, Standard Association), con el
objetivo de incrementar la eficiencia de los programas gráficos
conocidos comúnmente como GUI (Graphics Users Interface). Esta
arquitectura esencialmente refleja las señales del microprocesador
80486DX.

Concepto:
El bus VESA (Video Electronics Standards Association, la compañía
que lo diseñó) es un tipo de bus de datos para ordenadores
personales, utilizado sobre todo en equipos diseñados para el
procesador Intel 80486. Permite conectar directamente
la tarjeta gráfica al procesador.
Fue utilizado en equipos diseñados para el procesador Intel 80486.

 Conexión directa de la tarjeta gráfica al procesador.


 Mejora la respuesta gráfica
 solucionando el problema de la insuficiencia de flujo de datos
de su predecesor.

34
COMPATIBILIDAD:
Este bus es compatible con el bus ISA, pero mejora la respuesta
gráfica, solucionando el problema de la insuficiencia de flujo de
datos de su predecesor.

DIFERENCIAS: VESA Vs. PCI

 VESA gran tamaño y menor velocidad de reloj.


 PCI fue mucho más rápido en velocidad de reloj, con menor
longitud y mayor versatilidad,
 PCI hizo desaparecer al VESA, aunque sigue existiendo en
algunos equipos antiguos.

RANURA DE EXPANSIÓN VESA:


Una ranura de expansión, bus de expansión o "slot" es un elemento
que permite introducir dentro de sí, otros dispositivos
llamados tarjetas de expansión (son tarjetas que se introducen en la
ranura de expansión y dan más prestaciones al equipo de
cómputo).
Los bits en las ranuras de expansión significan la capacidad de
datos que es capaz de proveer, este dato es importante ya que,
por medio de una fórmula, es posible determinar la transferencia
máxima de la ranura o de una tarjeta de expansión.

35
Funcionamiento
La gran revolución estaba por llegar. Por un lado, los procesadores
Intel 80486 y por otro la invasión en el mercado de los sistemas
gráficos como Windows hicieron necesario la aparición de un
nuevo tipo de bus que estuviese a la altura de estos hitos. Al
manejarse gráficos en color se producían grandes cuellos de
botella al pasar del procesador al bus ISA (el 80486 funcionaba a 33
MHz y el bus ISA a 8.33 MHz).

Conclusiones:

• VESA Local Bus creado con fines de mejora en el procesamiento


de video.
• Su bus de datos es de 32 Bits y funcionaba sincrónicamente con
el CPU (de ahí el Local Bus).
• Su rendimiento hizo que no sea adoptado masivamente y
perdiera terreno con el PCI pues al ser sincrónico, a medida que los
CPU aumentaban su velocidad el VLB iba a ser más caro, así como
sus placas fabricadas, además de una falta de compatibilidad
entre generaciones de CPU.

36
ARQUITECTURA PCI

En informática, Peripheral Component Interconnect o PCI (en


español: Interconexión de Componentes Periféricos), es
un bus estándar de computadoras para conectar
dispositivos periféricos directamente a la placa base. Estos
dispositivos pueden
ser circuitos
integrados ajustados en
esta (los llamados
dispositivos planares en
la especificación PCI) o
tarjetas de expansión
que se ajustan en
conectores. Es común
en computadoras
personales, donde ha
desplazado al ISA como
bus estándar, pero
también se emplea en otro tipo de computadoras.

En diferencia de los buses ISA, el bus PCI permite configuración


dinámica de un dispositivo periférico. En el tiempo de arranque del
sistema, las tarjetas PCI y el BIOS interactúan y negocian los recursos
solicitados por la tarjeta PCI. Esto permite asignación de las IRQ y
direcciones del puerto por medio de un proceso dinámico diferente
del bus ISA, donde las IRQ tienen que ser configuradas
manualmente usando jumpers externos. Las últimas revisiones de
ISA y el bus MCA de IBM ya incorporaron tecnologías que
automatizaban todo el proceso de configuración de las tarjetas,
pero el bus PCI demostró una mayor eficacia en tecnología plug
and play. Aparte de esto, el bus PCI proporciona una descripción
detallada de todos los dispositivos PCI conectados a través del
espacio de configuración PCI.

37
Reseña histórica Arquitectura PCI

Ranuras PCI-X de 64 bits de un Power


Macintosh G4.

El PCI 1.0 fue lanzado el 22 de


junio de 1992, y era solamente una
especificación a nivel de componentes.
El PCI 2.0, lanzado en 1993, fue el
primero en establecer el estándar para
el conector y la ranura (slot) de la placa
base.
El PCI 2.1 se lanzó al mercado el 1 de
junio de 1995.
PCI fue inmediatamente puesto al uso
de los servidores, reemplazando a los buses MCA y EISA como
opción al bus de expansión. En PC fue más lento en reemplazar
al VESA Local Bus y no ganó la suficiente penetración en el
mercado hasta después de 1994 con la segunda generación de los
Pentium. Para 1996 el VESA se extinguió y las compañías
reemplazaron hasta en las computadoras 80486. Apple adoptó el
PCI para el Power Macintosh (reemplazando al NuBus) a mediados
de 1995 y el Performa (reemplazando a LC PDS) a mediados
de 1996.
Las nuevas versiones PCI añadieron características y mejoras en el
rendimiento, incluyendo un estándar a 66MHz y 3,3V y otro de
133MHz: llamados PCI-X. Ambos PCI-X 1.0b y PCI-X 2.0 son
compatibles con sus predecesores. Con la introducción de la
versión serial PCI Express en el 2004, los fabricantes de placas base
van incluyendo cada vez menos ranuras PCI a favor del nuevo
estándar.
Autoconfiguración
El PCI tiene dos espacios de dirección separados de 32-bit y 64-bit,
correspondientes a la memoria y puerto de dirección de
entrada/salida de la familia de procesadores de X86. El
direccionamiento es asignado por el software. Un tercer espacio de
dirección llamado “Espacio de Configuración PCI” (PCI
Configuration Space), el cual utiliza un esquema de
direccionamiento corregido que permite al software determinar la
cantidad de memoria y espacio de direcciones entrada/salida

38
necesario por cada dispositivo. Cada dispositivo que se conecta
puede solicitar hasta seis áreas de espacio de memoria o espacios
de puerto entrada/salida a través de su registro de espacio de
configuración.
Especificaciones de hardware

Típica tarjeta PCI de 32 bits. En este caso, una


controladora SCSI de Adaptec.

Las siguientes especificaciones


representan a la versión de PCI usada más
comúnmente en las PC:

 Reloj de 33,33 MHz con transferencias


síncronas.
 Ancho de bus de 32 bits o 64 bits.
 Tasa de transferencia máxima de 133 MB por segundo en el bus
de 32 bits (33,33 MHz × 32 bits ÷ 8 bits/byte = 133 MB/s).
 Tasa de transferencia máxima de 266 MB/s en el bus de 64 bits.
 Espacio de dirección de 32 bits (4 GB).
 Espacio de puertos I/O de 32 bits (actualmente obsoleto).
 256 bytes de espacio de configuración.
 3,3 V o 5 V, dependiendo del dispositivo.
 Reflected-wave switching.

Tarjeta de tamaño completo


La tarjeta original PCI de “tamaño completo” tiene un grosor de
unos 107 mm (4.2 pulgadas) y un largo de 312 mm (12.283
pulgadas). La altura incluye el conector de borde de tarjeta. Sin
embargo, las tarjetas PCI más modernas son de medio cuerpo o
más pequeñas (mirar debajo) y a muchos ordenadores personales
no se les pueden encajar una tarjeta de tamaño lleno.

Tarjeta backplate
Además de estas dimensiones el tamaño del backplate está
también estandarizado. El backplate es la pieza de metal situada
en el borde que se utiliza para fijarla al chasis y contiene los
conectores externos. La tarjeta puede ser de un tamaño menor,
pero el backplate debe ser de tamaño completo y localizado
propiamente. Respecto del anterior bus ISA, está situado en el lado
opuesto de la placa para evitar errores.

39
Tarjeta de extensión de medio cuerpo (estándar de facto)
Esto es de hecho el estándar práctico en la actualidad - la mayoría
de las tarjetas modernas PCI son aptas dentro de estas dimensiones:

 Anchura: 0,6 pulgadas (15,24 mm)


 Profundidad: 6,9 pulgadas (175,26 mm)
 Altura: 4,2 pulgadas (106,68 mm)

Tarjeta de perfil bajo (altura media)


La organización PCI ha definido un estándar para tarjetas de perfil
bajo que es básicamente apto en las gamas siguientes:

 Altura: 1,42 pulgadas (36,07 mm) a 2,536 pulgadas (64,41 mm)


 Profundidad: 4,721 pulgadas (119,91 mm) a 6,6 pulgadas (167,64
mm)
El anaquel también es reducido en altura a un estándar de 3,118
pulgadas (79,2 mm). El anaquel más pequeño no encaja en un
ordenador personal estándar. Muchos fabricantes solucionan esto
suministrando ambos tipos de anaquel (los anaqueles típicamente
son atornillados a la tarjeta entonces el cambio de ellos no es difícil).
Estas tarjetas pueden ser conocidas por otros nombres como
delgado.

Mini PCI
Mini PCI fue añadida a la versión 2.2 PCI para el empleo en
ordenadores portátiles y usa un bus de 32 bits, de 33 MHz con
conexiones alimentadas (3,3 V solo) y soporte de bus mastering y
DMA. El tamaño estándar para tarjetas Mini PCI es
aproximadamente 1/4 de sus similares de tamaño completo. Como
no hay ningún acceso externo a la tarjeta de la misma manera que
hay para las tarjetas PCI de sobremesa, hay limitaciones en las
funciones que p PCI han sido desarrollados, tales como Wi-Fi,
Ethernet Rápida, Bluetooth, módems (a menudo Winmodems),
tarjetas de sonido, aceleradores criptográficos, controladores SCSI,
IDE/ATA, SATA, tarjetas de combinación. Las tarjetas regulares PCI
pueden ser usadas con el hardware Mini PCI-equipado y viceversa,
usando de-Mini PCI a PCI y de PCI-a los-Mini PCI convertidores. Mini
PCI ha sido reemplazado por PCI Express Mini Card.

40
Detalles técnicos de tarjetas Mini PCI
Las tarjetas Mini PCI tienen un consumo máximo de 2W, que
también limita la funcionalidad que puede ser puesta en práctica
en este factor de forma. Requieren que ellos también soporten la
señal PCI CLKRUN#, empleada para arrancar y detener el reloj PCI
por motivos de control de energía.
Hay tres factores de forma de tarjeta: Tipo I, Tipo II, y Tipo III. El
conector de tarjeta usado para cada tipo incluye: El tipo I y II usan
un conector de colocación de 100 pines, mientras el Tipo III emplea
un conector de borde de 124 pines, p. ej.: el conector para Tipo I y
II se diferencian por esto del Tipo III, donde el conector está sobre el
borde de una tarjeta, como con un SO-DIMM. Los 24 pines
adicionales proporcionan las señales suplementarias requeridas a la
ruta de entrada salida por atrás del sistema conector (audio, el
eslabón de corriente alterna, el LAN, la interfaz de línea telefónica).
El tipo II de tarjetas tienen montados los conectores RJ11 Y RJ45.
Estas tarjetas deben ser localizadas en el borde del ordenador o la
estación que se atraca de modo que el RJ11 y puertos RJ45 puedan
ser montados para el acceso externo.

Otras variaciones físicas


Los típicos sistemas de consumidores específica "ranuras N x PCI " sin
especificar las dimensiones reales del espacio disponible. En
algunos pequeños sistemas de factor de forma, esto no es suficiente
aún para que las tarjetas PCI "de medio cuerpo" entren en dicha
ranura. A pesar de esta limitación, estos sistemas son todavía útiles
porque muchas tarjetas PCI modernas son bastante más pequeñas
que las de medio cuerpo.

Tarjeta de banco
Las típicas tarjetas PCI presentan una o dos muescas claves, según
su voltaje señalado. Las tarjetas que requieren 3.3 voltios tienen una
muesca de 56.21mm al frente de la tarjeta (donde están los
conectores externos), mientras aquellos requieren 5 voltios tienen
una de muesca 104.47mm del frente de la tarjeta. Las llamadas "
tarjetas Universales " tienen ambas muescas claves y pueden
aceptar los dos tipos de señales.

41
ARQUITECTURA MCA

El Bus MCA estaba limitado al


mundo “IBM”, siendo
el precursor en algunas
tecnologías existentes como el
plug and play, la modalidad
grafica VGA entre otros; pero
resultaba físicamente
incompatible con otro tipo de
placas y conjuntamente con la
decisión de patentarlo por parte
de IBM este bus no tuvo el
desarrollo esperado por lo cual
al poco tiempo salió del mercado.

Antecedente
En 1987 IBM lo crea conjuntamente con los módulos PS/2,
totalmente incompatible con el bus ISA, asincrónico en su
funcionamiento y una transferencia de hasta 20 Mb/s.
El esquema de interrupciones de un bus MCA era superior al del ISA,
y con una mejora técnica importante sobre el bus AT como:
- Configuración automática al insertar alguna tarjeta en la
computadora sin necesidad de una configuración especial, a
diferencia que en el bus AT se tenía que configurar por medio de
switches o jumpers en la tarjeta en sí.
- Operaba independientemente de la velocidad e incluso del tipo
del procesador del sistema gracias a un circuito de control especial
a cargo del bus que implemento IBM.
En este bus se da la evolución de una nueva modalidad gráfica
denominada VGA (Video Graphics Array) con 16 colores y 640 por
480 puntos, que adelante se convertiría el nuevo estándar de la
industria.
A pesar de tantas innovaciones esta tarjeta no llego a tener éxito
en la plataforma PC, aunque todavía es utilizado por IBM en
algunas de sus RISC 6000 servidores UNIX.

42
Concepto

BUS MCA. - Significa "Micro Channel Architecture"), también


llamado Bus de Micro Canal. Era una arquitectura diseñada con el
objetivo de poder interconectar futuros microprocesadores y
adaptarse a la velocidad de respuesta de los periféricos
conectados a este tipo de bus con la capacidad de auto
configurarse y satisfacer las necesidades de los sistemas operativos
multitasking como lo son: OS/2 y UNIX dando así un mayor tiempo
de vida productiva para los PC que utilicen este tipo de Bus.

VENTAJAS DESVENTAJAS
Las tarjetas y los sistemas MCA
IBM no desarrollo un mercado de
no necesitan ser configurados
periféricos para la tarjeta de MCA.
con Jumper
El MCA utiliza adaptadores que
Eran pocos los fabricantes
generan menor interferencia
de tarjetas periféricas que elaboraron
eléctrica lo que suministra
diseños por su propia cuenta.
mayor integridad de datos.
Respondía mejor a solicitudes Eran comparativamente más caros que los
de interrupciones. buses ISA.
El MCA suministra adaptadores
especiales llamados bus
masters, que contienen sus
Tenía incompatibilidad con la mayoría
propios procesadores y
de tarjetas y periféricos.
pueden efectuar su trabajo en
forma independiente al
microprocesador principal.
IBM decidió hacer la MCA bus propietario,
patentándolo.

43
DISCOS DUROS ESTÁNDARES SATA, IDE Y SCSI

Definición de disco duro SATA

Un disco duro SATA, es un dispositivo electromecánico que se


encarga de almacenar y leer grandes volúmenes de información
con altas velocidades por medio de pequeños
electroimanes (también llamadas cabezas de lectura y escritura),
sobre un disco cerámico recubierto de limadura magnética. Los
discos cerámicos vienen montados sobre un eje que gira a altas
velocidades. El interior del dispositivo está totalmente libre de aire
y de polvo, para evitar choques entre partículas y, por ende,
pérdida de datos, el disco permanece girando todo el tiempo que
se encuentra encendido.

Los discos duros SATA buscaban reemplazar del mercado a los


discos duros IDE, pero no se logró la meta.

Los discos duros SATA han sido descontinuados del mercado y son
reemplazados por los discos duros SATA 2.

SATA significa "Serial Advanced Technology Attachment" o


tecnología avanzada adjunta serial.

Esta es una nueva especificación que maneja la transferencia


de datos de modo serial mejorado con un cable de datos de 7
conectores y genera una transferencia de datos (Rate) de hasta
150 MegaBytes/segundo (MB/s). Permite la conexión de solo un
dispositivo por conector y n máximo de 1 m de longitud. Este tipo de
discos tienen una característica denominada "Hot Swappable", lo
que significa poder conectarlo y desconectarlo sin necesidad de
apagar la computadora.

El disco duro SATA puede tener 2 medidas, estas se refieren al


diámetro que tiene el disco cerámico físicamente, por lo tanto, el
tamaño de la cubierta también variará.

3.5 pulgadas (3.5"), para discos duros internos para computadora


de escritorio.

2.5" para discos duros internos para computadoras portátiles


(Laptop) o Notebook.

44
Los discos duros SATA cuentan con las características que a
continuación se detallan:

"Frontal Side Bus", transporte frontal interno


Para discos duros significa la velocidad de transferencia de datos
del disco duro, en función de los demás dispositivos. Se mide en
MegaBytes/segundo (MB/s) y es denominado también "Rate". Este
dato en discos duros SATA es de 150 MB/s.

Disco duro SATA que muestra las siguientes características:


marca Maxtor®, caché 8 MB, 80 GB, 7200 RPM, FSB 150 MB*. * Este
último dato indica que el FSB soportado es 150 MB/s.

Caché Acelerador

Es una memoria SRAM integrada en el cuerpo del disco duro


SATA, que almacena los datos que se han accesado
frecuentemente; así cuando el microprocesador solicite un dato, la
memoria lo ofrece y evita volver a buscarlo en el disco duro. Se mide
en MegaBytes (MB) y lo más común es que integren 8 MB.

Disco duro SATA que muestra las siguientes características:


marca Maxtor®, 80 GB, 7200 RPM, FSB 150 MB, caché 8 MB*. * Este
último dato indica que tiene integrados 8 MB de memoria caché.

"Revolutions per Minute", vueltas por minuto

Este valor determina la velocidad a que los discos internos giran


cada minuto. Su unidad de medida es: revoluciones por minuto
(RPM). Este dato en discos duros SATA puede estar entre 5200 RPM
hasta 7200 RPM.

Disco duro SATA que muestra las siguientes características:


marca Maxtor®, caché 8 MB, 80 GB, FSB 150 MB, 7200 RPM*. * Este
último dato indica que el su eje de giro permite hasta 7200 vueltas
por minuto.

Capacidad de almacenamiento del disco duro SATA

Es el total de Bytes o símbolos que es capaz de almacenar un disco


duro. Su unidad de medida es el Byte, pero actualmente se utilizan
medidas como el Gigabytes (GB) y el Terabytes (TB). Para discos

45
duros SATA este dato puede estar entre 80 GigaBytes (GB) hasta 400
GB.
Ejemplo: un disco duro SATA que muestra las siguientes
características: marca Maxtor®, caché 8 MB, 7200 RPM, FSB 150 MB,
80 GB*. * Este último dato indica que permite almacenar hasta 80
GigaBytes de datos.

Estructura lógica de un disco duro

Se le llama estructura lógica porque es la forma en que se


acomoda la información por medio de las cabezas de
lectura/escritura, y ello determina las características que podrá
ofrecer el disco duro. La estructura lógica de un disco consiste en
las siguientes partes principales:

1.- Caras: Cada uno de los lados de cada plato.


2.- Pistas o Cilindros: Son anillos internos de limadura magnética,
donde se va acomodando la información.
3.- Sectores: Es un área que contiene 520 Bytes por sector, y de los
cuáles 8 se usan para 2 tipos de información:
a) Información Inicial: Número de pista, datos, número de sector.
b) Información final: Clave del sector, "checksum" (coincidencia
de Bytes para determinar integridad).
El sistema reconoce el sector 0 ó sector de inicio, no tener
limadura magnética en una pequeña parte de su superficie.
4.- "Clusters" o racimos: Conjunto de sectores con los que trabaja el
sistema operativo para hacer más eficaz la lectura y escritura de
datos.

5.- Sector de arranque maestro: Se encarga de comenzar a cargar


en la memoria RAM el sistema operativo; consta de los siguientes
elementos:
a) IPL: significa "Initial Program Loading"; o su traducción al español
es programa inicial de carga: es un pequeño programa que
permite a la computadora reconocer al disco duro como
arrancable.
b) Archivos para el arranque: Son archivos pertenecientes al sistema
operativo que se pretende cargar. Ejemplo: para el sistema
operativo Microsoft® Windows 98 se utilizan los archivos io.sys y
msdos.sys.
c) Tabla de particiones: Guarda la información del número de
unidades y partes en que está dividido el disco duro.

46
d) Características del disco: Guarda información sobre el disco
duro, tales como la capacidad, número de sectores, número de
cabezas, número de pistas etc.
6. FAT y copia de la FAT: Significa "File Allocation Table" o su
traducción al español es tabla para asignación de archivos.
Registra el estado general de todos los clusters (defectuosos, libres,
ocupados, etc.), así como también guarda la dirección específica
dónde se almacenaron las partes de un archivo dentro del disco
duro.
7.- Directorio raíz o "Root directory": Almacena la información de la
cantidad máxima de archivos que puede guardar un disco duro,
así como la información esencial de cada uno de ellos (Nombre,
extensión, atributos, hora, fecha, etc.).
8.- Zona de datos: es la parte dónde se almacenarán los archivos
del usuario, programas del sistema operativo, música, videos, etc.

Definición de disco duro IDE

El disco duro IDE, es un dispositivo electromecánico que se


encarga de almacenar y leer grandes volúmenes de información a
altas velocidades por medio de pequeños electroimanes (también
llamadas cabezas de lectura y escritura), sobre un disco cerámico
recubierto de limadura magnética. Los discos cerámicos vienen
montados sobre un eje que gira a altas velocidades. El interior del
dispositivo está totalmente libre de aire y de polvo, para evitar
choques entre partículas y, por ende, pérdida de datos, el disco
permanece girando todo el tiempo que se encuentra encendido.
Fue desarrollado y presentado por la empresa IBM® en el año de
1956.

Los discos duros IDE compiten actualmente en el mercado contra


los discos duros SATA II.

Significado de IDE - ATA -PATA


Estas siglas se refieren al mismo estándar:

IDE significa "Integrated Device Electronic", su traducción es


componente electrónico integrado.

ATA significa "Advanced Technology Attachment" o tecnología


avanzada de contacto.

47
PATA: significa "Parallel Advanced Technology Attachment" o
tecnología paralela avanzada de contacto. Es una nueva sigla
acuñada a partir de la inserción en el mercado de los discos SATA,
ello para diferenciarlos entre sí.

Esta especificación permite transferencia de datos de modo


paralelo, con un cable de datos de 40 conectores, genera una
transferencia de datos (Rate) de 66, 100 y hasta 133
MegaBytes/segundo (MB/s). Por sus características de circuito
paralelo, permite conectar hasta 2 dispositivos por conector. Este
tipo de discos duros no se pueden conectar y desconectar con el
equipo funcionando, por lo que es necesario apagar el equipo
antes de instalar o desinstalar.

El disco duro IDE puede tener 2 medidas, estas se refieren al


diámetro que tiene el disco cerámico físicamente, por lo tanto, el
tamaño de la cubierta también variará.

3.5 pulgadas (3.5"), para discos duros internos para computadora


de escritorio (Desktop).

2.5" para discos duros internos para computadoras portátiles Laptop


o Notebook.

Características del disco duro IDE

Los discos duros cuentan con características que son comunes


y que a continuación se detallan:

"Frontal Side Bus", transporte frontal interno

Para discos duros significa la velocidad de transferencia de datos


del disco duro, en función de los demás dispositivos. Se mide en
MegaBytes/segundo (MB/s) y es denominado también "Rate". Este
dato en discos duros IDE puede estar entre 66 MB/s, 100 MB/s y 133
MB/s.

Disco duro IDE tiene dentro de sus características lo siguiente:


Marca Maxtor®, 80 GB, 7200 RPM, FSB 100/133*. * Este último dato
indica que el FSB soportado es 100 MB/s hasta 100 MB/s.

48
"Revolutions per Minute", vueltas por minuto

Este valor determina la velocidad a que los discos internos giran


cada minuto. Su unidad de medida es: revoluciones por minuto
(RPM). Este dato en discos duros IDE puede ser 4800 RPM, 5200 RPM
y hasta 7200 RPM.

Disco duro IDE tiene dentro de sus características lo siguiente:


Marca Maxtor®, 80 GB, FSB 100/133, 7200 RPM*. * Este último dato
indica que el su eje de giro permite hasta 7200 vueltas por minuto.

Capacidad del disco duro IDE

La capacidad del total de Bytes o símbolos que es capaz de


almacenar un disco duro. Su unidad de medida básica es el Byte,
pero actualmente se utiliza el GigaBytes (GB). Para discos duros IDE
este dato puede estar entre 10 MegaBytes (MB) hasta 750 GB.

- Ejemplo: un disco duro IDE tiene dentro de sus características lo


siguiente: Marca Maxtor®, FSB 100/133, 80 GB*. * Este último dato
indica que permite almacenar hasta 80 GigaBytes de datos.

Conector de datos del disco duro IDE

El conector que utiliza el disco duro IDE para transmitir y recibir los
datos es de con 40 pines y es de forma rectangular.

Definición de disco duro SCSI

El disco duro SCSI es un dispositivo electromecánico que se


encarga de almacenar y leer grandes volúmenes de información a
altas velocidades por medio de pequeños electroimanes (también
llamadas cabezas de lectura y escritura), sobre un disco cerámico
recubierto de limadura magnética. Los discos cerámicos vienen
montados sobre un eje que gira a altas velocidades. El interior del
dispositivo está totalmente libre de aire y de polvo, para evitar
choques entre partículas y, por ende, pérdida de datos, el disco
permanece girando todo el tiempo que se encuentra encendido.

49
El disco duro SCSI durante mucho tiempo no tuvo competencia
importante en el mercado, pero actualmente compite
directamente contra los discos duros SATA II, aunque por su alta
velocidad de giro, aún no logra ser reemplazado.

El disco duro SCSI será reemplazado por el estándar de disco duro


SAS.

Significado de SCSI

SCSI proviene de las siglas de ("Small Computer System Interface"),


su traducción es pequeña interfase de sistema para computadora.
Es un estándar para dispositivos de alta velocidad que incluyen
discos duros entre sus especificaciones.

Estos discos duros no son muy populares a nivel doméstico como


los discos duros IDE o los discos duros SATA; por lo que son utilizados
principalmente por grandes empresas y sus precios son muy altos en
comparación con los anteriores mencionados.

Puede depender de una tarjeta controladora SCSI para trabajar


y ser instalados, también puede necesitar cable para datos de 40,
50, 68 u 80 conectores, dependiendo el modelo. Algunos modelos
tienen la característica denominada "Hot Swappable", lo que
significa poder conectarlo y desconectarlo sin necesidad de
apagar la computadora.

Las llamadas tarjetas controladoras SCSI, de las cuáles depende


algunas veces, no es más que una tarjeta de expansión tipo ISA ó
PCI, que permite interconectar el disco duro con la tarjeta principal
("Motherboard"), ello porque al no ser tan popular, no viene
soportado en las tarjetas principales comerciales. Estas tarjetas
también pueden tener conectores para disqueteras, puertos de
comunicación, unidades de CD-ROM, etc. El disco duro SCSI tiene
una medida estándar que es de 3.5 pulgadas (3.5") para
computadora de escritorio (Desktop).

50
Características del disco duro SCSI

Los discos duros cuentan


con características que son
comunes y que a
continuación se detallan:

RPM SCSI: Significa


"Revolutions per Minute" o
vueltas por minuto. Este
valor determina la
velocidad a la que los
discos internos giran cada
minuto. Su unidad de
medida es: revoluciones por minuto (RPM). Este dato puede ser
10,000 RPM hasta 15,000 RPM.

- Ejemplo: Disco duro SCSI tiene dentro de sus características lo


siguiente: Marca Quantum®, modelo Atlas 18 WLS, 18 GB, 68 pin,
10,000 RPM*. * Este último dato indica que el su eje de giro permite
hasta 10000 vueltas por minuto.

Pulgadas SCSI: se refiere al formato de tamaño de la unidad, esta


puede ser de 3.5" ó de 2.5".

- Ejemplo: Disco duro SCSI tiene dentro de sus características lo


siguiente: marca Hewlett Packard®, modelo DG146A8A84 2.5". Este
último dato indica el formato de disco.

Capacidades de almacenamiento SCSI: Es el total de Bytes o


símbolos que es capaz de almacenar un disco duro. Su unidad de
medida es el byte, pero
actualmente se utilizan
medidas como el Gigabyte
(GB) y el Terabyte (TB). Para
discos duros SCSI este dato
puede estar entre 10
Megabytes (MB) hasta 300
GB.

- Ejemplo: Un disco duro


SCSI tiene dentro de sus
características lo siguiente:

51
Marca Quantum®, modelo Atlas 18 WLS, 68 pin, 10,000 RPM, 18
GB*. * Este último dato indica puede almacenar hasta 18
Gigabytes de datos.

Número de pines: Es la cantidad de conectores de datos que tiene


integrado y que serán conectados a la tarjeta controladora SCSI.
Puede tener 40, 50, 68 u 80 pines.

MONITORES CRT Y PLASMA

Monitores CRT
El monitor está basado en un elemento CRT (Tubo de rayos
catódicos), los actuales monitores, controlados por
un microprocesador para almacenar muy diferentes formatos, así
como corregir las eventuales distorsiones, y con capacidad de
presentar hasta 1600x1200 puntos en pantalla. Los monitores CRT
emplean tubos cortos, pero con la particularidad de disponer de
una pantalla completamente plana.
Monitores color:
Las pantallas de estos monitores están formadas internamente por
tres capas de material de fósforo, una por cada color básico (rojo,
verde y azul). También consta de tres cañones de electrones, e igual
que las capas de fósforo hay una por cada color.
Para formar un color en pantalla que no sea ninguno de
los colores básicos, se combina las intensidades de loas haces de
electrones de los tres colores básicos.
Monitores monocromáticos:
Muestra por pantalla u solo color: negro sobre blanco o ámbar, o
verde sobre negro. Uno de estos monitores con una resolución
equivalente a la de un monitor a color, si es de buena calidad,
generalmente es más nítido y legible.

Funcionamiento de un monitor CRT

En la parte trasera del tubo encontramos la rejilla catódica, que


envía electrones a la superficie interna del tubo. Estos electrones al
estrellarse sobre el fósforo hacen que este se ilumine. Un CRT es
básicamente un tubo vacío con un cátodo (el emisor
de luz electrónico y un ánodo (la pantalla recubierta de fósforo)
que permiten a los electrones viajar desde el terminal negativo al
positivo. El yugo del monitor, una bobina magnética, desvía la

52
emisión de electrones repartiéndolo por la pantalla, para pintar las
diversas líneas que forman un cuadro o imagen completa.
Los monitores monocromos utilizan un único tipo de fósforo, pero los
monitores de color emplean un fósforo de tres colores distribuidos
por triadas. Cada haz controla uno de los colores básicos: rojo, azul
y verde sobre los puntos correspondientes de la pantalla.
A medida que mejora la tecnología de los monitores, la separación
entre los puntos disminuye y aumenta la resolución en pantalla (la
separación entre los puntos oscila entre 0.25mm y 0.31mm). Loa
avances en los materiales y las mejoras de diseño en el haz de
electrones, producirían monitores de mayor nitidez y contraste. El
fósforo utilizado en un monitor se caracteriza por su persistencia,
esto es, el periodo que transcurre desde que es excitado (brillante)
hasta que se vuelve inactivo (oscuro).

Características de monitores CRT

El refresco de pantalla:
El refresco es el número de veces que se dibuja a pantalla por
segundo. Evidentemente, cuando mayor sea la cantidad de veces
que se refresque, menos se nos cansara la vista y trabajaremos más
cómodos y con menos problemas visuales.
La velocidad del refresco se mide en hertzios (Hz. 1/segundo), así
que 70 Hz significan que la pantalla se dibuja 70 veces por segundo.
Para trabajar cómodamente necesitaremos esos 70 Hz. Para
trabajar con el mínimo de fatiga visual, 80Hz o más. El mínimo son 60
Hz; por debajo de esa cifra los ojos sufren demasiado, y unos minutos
basta para empezar a sentir escozor o incluso un pequeño dolor de
cabeza.
La frecuencia máxima de refresco de un monitor se ve limitada por
la resolución de la pantalla. Esta última decide el número de líneas
o filas de la máscara de la pantalla y el resultado que se obtiene
del número de las filas de un monitor y de su frecuencia de
exploración vertical (barrido o refresco) es la frecuencia de
exploración horizontal; esto es el número de veces por segundo que
el haz de electrones debe desplazarse de izquierda a derecha de
la pantalla.
Quien proporciona estos refrescos es la tarjeta gráfica, pero quien
debe presentarlos es el monitor. Si ponemos un refresco de pantalla
que el monitor no soporta podríamos dañarlo, por lo que debemos
conocer sus capacidades a fondo.

53
Resolución:
Se denomina resolución de pantalla a la cantidad de píxeles que
se pueden ubicar en un determinado modo de pantalla. Estos
píxeles están a su vez distribuidos entre el total de horizontales y el
de vértices. Todos los monitores pueden trabajar con múltiples
modos, pero dependiendo del tamaño del monitor, unos nos serán
más útiles que otros.
Un monitor cuya resolución máxima sea de 1024x768 píxeles puede
representar hasta 768 líneas horizontales de 1024 píxeles cada una,
probablemente además de otras resoluciones inferiores como
640x480 u 800x600. Cuanto mayor sea la resolución de un monitor,
mejor será la calidad de la imagen de pantalla, y mayor será la
calidad del monitor. La resolución debe ser apropiada además al
tamaño del monitor; hay que decir también que aunque se
disponga de un monitor que trabaje a una resolución de 1024x768
píxeles, si la tarjeta gráfica instalada es VGA (640x480) la resolución
de nuestro sistema será esta última.

Tipos de monitores por resolución:


TTL: Solo se ve texto, generalmente son verdes o ámbar.
CGA: Son de 4 colores máximo o ámbar o verde, son los
primeros gráficos con una resolución de 200x400 hasta 400x600.
EGA: Monitores a colores 16 máximo o tonos de gris, con
resoluciones de 400x600, 600x800.
VGA: Monitores a colores de 32 bits de color verdadero o en tono
de gris, soporta 600x800, 800x1200
SVGA: Conocido como súper VGA q incrementa la resolución y la
cantidad de colores de 32 a 64 bits de color verdadero, 600x400 a
1600x1800.
UVGA: No varía mucho del súper VGA, solo incrementa la resolución
a 1800x1200.
XGA: Son monitores de alta resolución, especiales para diseño, su
capacidad grafica es muy buena. Además, la cantidad de colores
es mayor.

Tamaño:
El tamaño de los monitores CRT se mide en pulgadas, al igual que
los televisores. Hay que tener en cuenta que lo que se mide es la
longitud de la diagonal, y que además estamos hablando de
tamaño de tubo, ya que el tamaño aprovechable siempre es
menor.

54
Radiación:
El monitor es un dispositivo que pone en riesgo la visión del usuario.
Los monitores producen radiación electromagnética no ionizante
(EMR). Hay un ancho de banda de frecuencia que oscila entre la
baja frecuencia extrema (ELF) y la muy baja frecuencia, que ha
producido un debate a escala mundial de los altos tiempos
de exposición de dichas emisiones por parte de los usuarios. Los
monitores que ostentan las siglas MPRII cumplen con las normas de
radiación toleradas fuera de los ámbitos de discusión.

Foco y convergencia:
De ellos depende la fatiga visual y la calidad del texto y de
las imágenes. El foco se refiere especialmente a la definición que
hay entre lo claro y lo oscuro. La convergencia es lo mismo que el
foco, pero se refiere a la definición de los colores del tubo. La
convergencia deberá ser ajustada cuando los haces de electrones
disparados por los cañones no estén alineados correctamente.

LCD – (Liquid Cristal Display)

La tecnología LCD es, hoy en día, una de las más pujantes y que
más rápidamente evoluciona mejorándose continuamente.

Aunque la tecnología que los cristales líquidos es relativamente


reciente, parte de las curiosas propiedades de los cristales líquidos
ya fueron observados en 1888 cuando se experimentaba con una
sustancia similar al colesterol, esta sustancia permanecía turbia
a temperatura ambiente y se aclaraba según se calentaba; al
enfriarse más y más azulado se tornaba de color hasta solidificarse
y volverse opaca.

Este efecto paso desapercibido hasta que la compañía RCA


aprovecho sus propiedades para crear el primer prototipo de
visualizador LCD. A partir de ese momento el desarrollo y aplicación
de estos dispositivos ha sido y es espectacular.

Funcionamiento:
El fenómeno LCD está basado en la existencia de algunas
sustancias que se encuentran en estado solidó y liquido
simultáneamente, con lo que las moléculas que las forman tienen
una capacidad de movimiento elevado, como en los líquidos,
presentando además una tendencia a ordenarse en el espacio de
una forma similar a los cuerpos sólidos cristalinos.

55
El display o visualizador LCD está formado por una capa muy
delgada d cristal líquido, del orden de 20 micras encerrada entre
dos superficies planas de vidrio sobre las que están aplicados unos
vidrios polarizados ópticos que solo permiten la transmisión de
la luz según el plano horizontal y vertical.
El nombre cristal líquido es si mismo contradictorio, normalmente
entendemos a los cristales como algo sólido y todo lo contrario para
un líquido, aunque ambos puedan ser transparentes a la luz. Pues
bien, y por extraño que parezca, existen sustancias que tienen
ambas características.

Cambio en la polarización:
El estado líquido ofrece una acción de cambio de polarización de
luz incidente en un ángulo de 90° por el cristal y si encuentra un
polarizador vertical situado en el vidrio posterior, podrá pasar a
través del mismo. Si se aplica una determinada tensión eléctrica
entre las superficies que encierran el cristal, las moléculas del mismo
dejaran pasar la luz sin introducir ningún cambio sobre la misma,
entonces al llegar al polarizado será detenida, comportándose el
conjunto como un cuerpo opaco.
En realidad, el material de cristal líquido está organizado en capas
sucesivas; la posición de las moléculas de cada capa está
ligeramente desfasada unas de otras, de tal manera que entre la
primera y la última capa hay un desfase total de 90° cuando no hay
influencia de ningún campo eléctrico. La luz polarizada se obtiene
de hacer pasar la luz incidente en el display por unos filtros ópticos
o polarizados situados en ambas caras del dispositivo: uno
colocado verticalmente y otro horizontal, esto es desfasados 90°
uno del otro.
Aplicando un campo eléctrico por medio de un electrodo a una
determinada zona del cristal, las moléculas de cristal de esta zona
toman una posición igual y en fase con el primer filtro pero no con
el segundo, no dejando pasar la luz y por lo tanto nada q reflejar
por el espejo, sin embargo las zonas del cristal sin influencia del
campo eléctrico sigue siendo transparente, el contraste se obtiene
así de la relación luz/oscuridad entre zonas transparentes y opacas.

Aplicaciones:
Los LCD evolucionaron con el tiempo para cubrir aplicaciones más
ambiciosas como pantalla de TV, monitores de PC y en general
visualizadores de mayor resolución: esto complicó sus diseños
haciéndolos cada vez más sofisticados. Con el paso del tiempo se

56
han sucedido varias tecnologías de fabricación de LCD’s, las
principales son:
De plano común: Apropiada para displays sencillos como los que
incorporan calculadoras y relojes, se emplea un único electrodo
posterior para generar campo eléctrico.
De matriz pasiva: Para crear imágenes de buena resolución. En
estos displays hay dos matrices de electrodos en forma de líneas
paralelas, el modo de funcionamiento es multiplexado y controlado
normalmente por circuitos integrados especializados en esta
aplicación. Son baratos y fáciles de construir, pero tienen una
respuesta lenta al refresco de imágenes.
De matriz activa: Cada píxel está compuesto por un transistor y un
condensador, cada uno de estos grupos esta activado de forma
secuencial por líneas de control, la tensión en placas de cada
condensador determina el nivel de contraste de ese píxel con lo
que se puede crear una escala de grises controlando de forma
adecuada la tensión.

Ventajas y desventajas frente a los CRT


Ventajas:
 Su tamaño.
 Su menor consumo.
 La pantalla no emite parpadeos.

Desventajas:
 El costo.
 El ángulo de visión.
 La menor gama de los colores.
 La pureza del color.

Monitores de plasma
Se basan en el principio de que
haciendo pasar un alto voltaje por
un gas a baja presión se genera luz.
Estas pantallas usan fósforo como los
CRT, pero son emisivas como las LCD y
frente a estas consiguen una gran
mejora del color y un estupendo ángulo
de visión.
Estas pantallas son como fluorescentes, y cada píxel es como una
pequeña bombilla de color, el problema de esta tecnología es la
duración y el tamaño de los píxeles, por lo que su implantación más
común es en grandes pantallas de TV.

57
Están conformadas por miles y miles de píxeles que conforman
la imagen, y cada píxel está constituido por tres sub-pixeles, uno
con fósforo rojo otro con verde y el último con azul, cada uno de
estos sub-pixeles tienen un receptáculo de gas (una combinación
de xenón, neón y otros gases).
Un par de electrodos en cada sub-pixel ioniza al gas volviéndolo
plasma, generando luz ultravioleta que excita al fósforo que a su
vez emite luz que en su conjunto forma una imagen.
Es por esta razón que se necesitaron 70 años para conseguir una
nueva tecnología que pudiese conseguir mejores resultados que los
CRT’s o cinescopios.

Características:
El diseño de este tipo de productos permite q podamos colgarlo en
la pared como si tratase de un cuadro. Las pantallas de plasma
cuentan con un panel de celdas con las que consigue, mayores
niveles de brillo y blancos más puros, lo cual es una combinación
que mejora los sistemas anteriores. Además, las imágenes son aún
más nítidas, naturales y brillantes.
El gran inconveniente de estos productos es el precio el cual es
demasiado elevado para el común de los usuarios.

Interconexión de ordenadores
La interconexión de ordenadores consiste en la unión de los equipos
informáticos, por cable o por vía inalámbrica, haciendo uso de
diferentes dispositivos de telecomunicación que permiten la
trasmisión y compresión de la información en la red.

1. Ordenador: Es el dispositivo que utiliza el


usuario para comunicarse.

2. Tarjeta de red: Es el dispositivo instalado en el


ordenador que habilita la conexión a la red por
cable o en modo inalámbrico.

58
3. Elementos de interconexión: son los
dispositivos que hacen posible la comunicación
ente los equipo. Por ejemplo, un modem o un
router.

4. Servidor: Es un ordenador especifico que


proporciona funciones de administración para
establecer cómo se van a comunicar los equipos
que se encuentran conectados entre sí y como
realizaran la compartición de recursos.

TARJETAS DE REDES
La tarjeta de red, también conocida como placa de
red, adaptador de red, adaptador LAN, Interfaz de red física, o sus
términos en inglés Network Interface Card o Network interface
controller (NIC), cuya traducción literal del inglés es «tarjeta de
interfaz de red» (TIR), es un componente de hardware que conecta
una computadora a una red informática y que posibilita compartir
recursos (como archivos, discos duros enteros, impresoras e internet)
entre dos o más computadoras, es decir, en una red de
computadoras.

IMPLEMENTACIÓN
Las primeras tarjetas de interfaz de red se implementaban
comúnmente en tarjetas de expansión que se conectaban en un
bus de la computadora. El bajo costo y la ubicuidad del
estándar Ethernet hizo posible que la mayoría de las computadoras
modernas tengan una interfaz de red integrada en la placa base.
Las placas base de servidor más nuevas pueden incluso tener
interfaces de red duales incorporadas.
Las capacidades de Ethernet están ahora integradas en
el chipset de la placa base o implementadas a través de un chip
Ethernet dedicado de bajo costo, conectado a través del
bus PCI (o el nuevo PCI Express), así que no se requiere una tarjeta

59
de red por separado a menos que se necesiten interfaces
adicionales o se utilice otro tipo de red.
Las modernas Tarjetas de red ofrecen funciones avanzadas como
interfaz de interrupción y DMA para los procesadores host, soporte
para múltiples colas de recepción y transmisión, particionamiento
en múltiples interfaces lógicas y procesamiento de tráfico de red en
controlador, como el motor de descarga TCP.
La NIC puede utilizar una o más de las siguientes técnicas para
indicar la disponibilidad de paquetes a transferir:

 Polling, donde la CPU examina el estado del periférico bajo el


control del programa.
 IRQ-E/S controlada, donde el periférico alerta a la CPU de que
está listo para transferir datos.
Además, los NIC pueden utilizar una o más de las siguientes técnicas
para transferir datos de paquetes:

 Entrada/salida programada, donde la CPU mueve los datos


hacia o desde la NIC a la memoria.
 DMA, donde algún otro dispositivo que no sea la CPU asume el
control del bus de sistema para mover datos hacia o desde la
NIC a la memoria. Esto elimina la carga de la CPU, pero requiere
más lógica en la tarjeta.
Además, un búfer de paquetes en la NIC puede no ser necesario y
puede reducir la latencia. Existen dos tipos de DMA:

 DMA de terceros, en el que un controlador DMA distinto del NIC


realiza transferencias y,
 Bus mastering, donde el propio NIC realiza transferencias.
Una tarjeta de red Ethernet normalmente tiene un
socket 8P8C donde está conectado el cable de red. Las NICs más
antiguas también proporcionaban conexiones BNC, o AUI.
Algunos LEDs informan al usuario si la red está activa y si se produce
o no transmisión de datos. Las tarjetas de red Ethernet suelen
soportar Ethernet de 10 Mbit/s, 100 Mbits/s y 1000 Mbits/s. Tales
tarjetas son designadas como "10/100/1000", lo que significa que
pueden soportar una tasa de transferencia máxima nocional de 10,
100 o 1000 Mbit/s. También están disponibles NIC de 10 Gbits/s y, a
partir de noviembre de 2014, están empezando a estar disponibles
en la placa madre del ordenador.

60
SITEMAS DE FICHEROS

Todos nuestros ordenadores y dispositivos móviles han de manejar


alguna vez archivos y directorios. Es algo a lo que estamos
suficientemente habituados como para no preguntarnos cómo
funciona.

Aunque, como sabéis, de vez en cuando nos gusta profundizar en


asuntos que muchas veces pasamos por alto. En esta ocasión
vamos a hablar de sistemas de ficheros, piezas indispensables de
todo sistema operativo de hoy, y de cómo funcionan por dentro.

Lo básico: ¿qué es un archivo y un directorio?

Desde el punto de vista de un sistema de ficheros, un archivo no es


sino una colección de bytes con un formato determinado. Estos
bytes, en el disco duro y a bajo nivel, se estructuran en sectores o
bloques.

De hecho, es el sistema de ficheros quien se encarga de darle


sentido a esa colección de bytes: almacena y controla qué bloques
pertenecen a qué archivos y qué bloques no pertenecen a ningún
archivo (es decir, están disponibles para ser utilizados por otros
ficheros.

¿Y un directorio? Hay distintas aproximaciones para implementar


este concepto en los sistemas de ficheros, aunque a grandes rasgos
podríamos decir que un directorio no es más que un fichero con un
formato especial. Profundizaremos en distintos sistemas de ficheros
algo más adelante, en este mismo artículo.

FAT: antiguo, sencillo, limitado y robusto

FAT es un sistema de ficheros muy simple. Originalmente fue utilizado


en MS-DOS, aunque su soporte perdura (con distintas
actualizaciones y nuevas versiones) en todos los sistemas operativos
de hoy. Esto es así porque, realmente, sigue siendo usado, sobre
todo en dispositivos extraíbles no ópticos.

Pongamos un caso de uso: queremos acceder a un fichero en un


directorio. Los ficheros-directorio contienen el nombre del fichero,
algunos atributos extendidos (si es read-only, por ejemplo), así como
el número identificador del primer clúster en el que el fichero está
contenido.

61
Claro que habitualmente un fichero es más grande que un clúster
(que apenas suele ocupar unos cuantos kilobytes). En este caso
haremos uso de la llamada file allocation table: una tabla en la
que se almacena el siguiente clúster a uno previamente dado. De
este modo, si un fichero comienza en el clúster 5, buscaremos la
entrada 5 en la FAT para conocer el siguiente clúster de ese fichero.
Cuando llegamos al final la FAT pone una marca especial (algo
parecido a NULL). Esta tabla es en sí también parte del sistema de
ficheros, y está en una zona del disco concreta y establecida en el
momento de formatearlo.

Esta tabla debería mantenerse siempre en la memoria RAM, dado


que todas las lecturas de ficheros requieren acceder a ella, y
pueden hacerse especialmente lentas, sobre todo cuando
hablamos de acceso aleatorio (no secuencial). Esto es así porque
para saber la dirección de un clúster debemos conocer la del
clúster que le precede y realizar la consulta correspondiente a la
FAT.

Existen distintas variantes de FAT: FAT12, FAT16, FAT32, exFAT, FATX


(para sistemas Xbox). Son distintas entre sí, evidentemente, aunque
el concepto principal no cambia: únicamente lo hacen algunos
detalles de su implementación para adaptarse a los tiempos o a
dispositivos concretos.

NTFS

NTFS es el sistema
de ficheros que
forma parte de la
rama NT de
Windows desde
siempre (con
distintas
actualizaciones,
por supuesto).
Tiene muchas
mejoras sobre
FAT, como el
hecho de
utilizar journaling,
listas de control
de acceso, el

62
soporte de metadatos para cada fichero, el soporte integrado
para compresión y el uso de estructuras de datos avanzadas para
mejorar el rendimiento y optimizar el uso que hacemos de nuestro
disco.

La madre de todo volumen formateado con NTFS es la Master File


Table, una base de datos que contiene los atributos de todos los
ficheros. Podríamos considerarlo similar en funciones a la FAT,
aunque hace mucho más.

Cada fichero tiene asociada una entrada en la MFT que contiene


una serie de atributos. Debemos distinguir entre
atributos internos (almacenados en el propio registro de la MFT)
y externos, que son referenciados mediante punteros en la MFT. Casi
todos los atributos de cada fichero pueden ser internos o externos.

¿Qué atributos se almacenan de cada fichero? Una cabecera, que


es siempre interna; un atributo con información estándar
(timestamps para creación, modificación y acceso de cada
fichero), así como si un fichero es de solo lectura, oculto y demás;
otro atributo con el nombre del fichero (teniendo en cuenta que es
posible que cada fichero tenga muchos nombres, dado que
podemos realizar hard links en distintos directorios a un mismo
archivo); otro atributo con los datos del propio fichero, y un
descriptor de seguridad (como las listas de control de acceso).

Adicionalmente, los directorios indizan los archivos en estructuras


más complejas que en el caso de FAT. De meras colecciones de
registros pasamos a utilizar una estructura compleja como es el caso
de un árbol B+, ofreciendo un rendimiento bastante superior en
operaciones que involucren a subconjuntos de ficheros o a ficheros
únicos.

La principal desventaja de NTFS es que, como podemos imaginar, la


MFT puede transformarse en un verdadero monstruo (dado que
controla todo el sistema de ficheros). En el momento de formatear
un volumen con este sistema de fichero se reserva
aproximadamente un 12,5% del tamaño del volumen para la MFT
(dado que contiene que esté almacenada en zonas contiguas del
disco). Esto hace de NTFS un sistema de ficheros poco adecuado
para sistemas de archivos pequeños.

63
HFS+

El diseño del sistema de archivos por defecto de OS X es en cierto


modo "similar" al de NTFS. Obviamente difieren en mucho, pero hay
algunos detalles en conceptos que los hacen similares.

Por ejemplo, el catálogo. Se trata de un árbol B+ (volvemos a


toparnos con esa estructura) que contiene entradas para todo
fichero y directorio que esté en ese volumen.

Por lo demás es similar a todos los demás, con un detalle: cuando


OS X almacena metadatos de un fichero lo hace en este catálogo.
Cuando el sistema de archivos es distinto, lo suele hacer en una serie
de archivos, siendo .DS_Store el más conocido.

Ext

Los sistemas de archivos de Linux, particularmente ext3 y ext4, son a


la vez similares y distintos a los anteriores. Son similares porque existe
una estructura por cada volumen con información de los archivos.
Son distintos, a su vez, por el tipo de estructura.

Es inevitable hablar de inodos: registros identificados por un número


entero que contienen los metadatos de los archivos. El concepto
fue acuñado por Dennis Ritchie y se trata, realmente, de una
estructura de datos que contiene características de todo objeto
contenido en un sistema de ficheros, salvo su nombre, que se
almacena en los ficheros de directorio.

Los directorios siguen siendo ficheros especiales con registros que,


en esta ocasión, contienen referencias a los inodos de los archivos
que contiene. Más de un directorio puede tener referencias a un
inodo concreto (lo que se llama un enlace duro o hard link).

Obviamente la estructura de inodo no es imprescindible (ReiserFS,


de hecho, podría prescindir de la estructura como tal), aunque la
información tendría que ser almacenada en otro sitio y el sistema
tendría que seguir contando con una funcionalidad equivalente,
aunque no existieran los inodos "como ente".

64
DIAGNÓSTICO Y RESOLUCIÓN DE AVERÍAS

1. Pautas Generales

Contando los dispositivos hardware y firmware hay unas 20 causas


posibles de averías (o 20 elementos que nos pueden dar una
avería), sin contar que la avería puede venir de la mala conexión
de los componentes, por lo tanto, el proceso de reparación debe
ser inmediato y metódico para evitar introducir nuevas averías o
alargar la reparación.

Pautas a seguir:
1. Antes de conectar o desconectar nada se debe desenchufar
el cable de alimentación de la caja, en caso contrario lo más
probable es que introduzcamos una nueva avería.
2. Deben tenerse en cuenta las mismas precauciones cuando se
monta y desmonta el PC. Destornilladores, electricidad
estática, uso de aspiradores para el polvo…etc.
3. Conviene pensar detenidamente sobre los síntomas y sus
posibles causas, así como lo que se va a hacer a
continuación.
4. Cualquiera operación sería de avería requiere el
conocimiento a nivel funcional de todos los dispositivos del
PC, así como el proceso de arranque del ordenador desde
que se pulsa el botón de encendido hasta que se carga el SO.
5. Escribir de forma clara y precisa los síntomas o los indicados
por el cliente.
6. En ocasiones los síntomas son una consecuencia de una
operación reciente pero habitual que hemos llevado a cabo
sobre el PC y que no recordamos.
7. Probar cualquier cambio importante que hagamos en el
software o firmware nada más hacerlo.
8. Comprobar si el PC ha sido manipulado antes por otra
persona.
9. Antes de desconectar y substituir componentes es
conveniente ejecutar herramientas de diagnóstico.
10. Es conveniente quitar todos los componentes del PC
para dejar una configuración básica e ir añadiéndolos uno a
uno, si los problemas desaparecen estará en uno de los
componentes desconectados.
11. Suponemos siempre de hipótesis inicial que hay un
componente estropeado, pero a veces hay más de un

65
dispositivo estropeado, sobre todo los producimos por picos
de energía.
12. la carga de parámetros por defecto del BIOS puede
evitarnos muchos quebraderos.
13. Deberemos tener una tarjeta post.
14. Si comprobamos comportamiento errático o difícil de
explicar una buena idea es poner una fuente de alimentación
con bastante potencia.
15. No desmontar nunca la fuente de alimentación.
16. Muchos de los elementos del ordenador se pueden
diagnosticar a nivel básico a través del post y de la utilidad de
configuración del BIOS.
17. La prueba final de que un dispositivo esté mal es
substituirlo por otro y se valla la avería
18. Intentar llevar un manual de averías diagnosticadas.

2. Proceso de arranque de un ordenador

Desde que se pulsa el interruptor de encendido hasta que se carga


el sistema operativo, el ordenador realizar una serie de tareas para
verificar el buen funcionamiento del hardware instalado. El
chequeo inicial que lleva a cabo se denomina post (power on self
test) y consiste en una prueba para comprobar que el equipo físico
esté bien. Este chequeo se realiza con unos programas que están
en el BIOS.

3. Proceso de chequeo completo

1. Al encender el ordenador la tensión llega a todos los


componentes desde la fuente.
2. El microprocesador se inicia al recibir la tensión desde la placa
base. El propio circuito hace un reset de todos los registros
para comenzar siempre en el mismo sitio. A partir de ahí el
microprocesador se va a la primera dirección de la memoria
para ejecutar el programa que allí está instalado.
3. El programa de arranque lo interpreta el microprocesador y
ejecuta la rutina de la que esté formada.
4. El microprocesador envía las señales de arranque a través del
bus del sistema para detectar la presencia y el
funcionamiento de todos los dispositivos conectados al PC.

66
Los dispositivos PNP se activan y solicitan al microprocesador
los recursos necesarios. El microprocesador recoge todos los
recursos solicitados de forma que el so cuando arranque
pueda asignárselos, llegados aquí la tarjeta gráfica se
inicializa y empieza a mostrar los primeros mensajes.
5. Nos muestra a continuación el post que consiste en
almacenar y recuperar unos datos verificando así su correcto
funcionamiento. Presenta en pantalla un contador de la
memoria a media que se va ejecutando.
6. Se comprueba el funcionamiento del teclado. Una vez
superada se permite al usuario interrumpir el proceso para
configurar algún parámetro en el BIOS.
7. Superadas todas las pruebas, el programa de arranque del
BIOS chequea las unidades de almacenamiento, para
determinar la unidad de inicio que posé el sector de arranque
que cargará en memoria y ejecutará para obtener el control.

Si todo ha ido bien se sigue el proceso de forma similar a lo que se


ha indicado, pero si se para en algún punto sabremos donde está
el error.

4. Organigrama para la localización de averías

Anteriormente nombramos que había averías software y hardware,


para determinarlas se debe seguir un procedimiento que tiene
como objetivo averiguar el elemento que tiene el fallo.
El organigrama siguiente tiene como misión determinar y localizar el
fallo enviándose en cada caso a una serie de comprobaciones
rutinarias o a un apartado de este manual.

67
Encendemos el ordenador

El ordenador no hace nada Emite un sonido breve y sigue El ordenador emite una serie
funcionando de pitidos y se para

¿Es correcta la conexión de la


red? El post es correcto hasta el El post ha detectado un error
punto 4

Si NO ¿Se ve en pantalla algún


mensaje o código de error? C08D Field Code C
0C9E
A79F9
BACE
SI NO
118C8
Error Revisar 200A
! cables y A004
Refer conexión ¿Ha salido BA90
ence El código es
B0200
sourc diferente en cada algún mensaje 00000
e not BIOS, necesitamos de error? 80000
foun
d.A0
el manual 00020
00000
8D0 43000
C9E No Si
000
A79 Descargar y
F9B
ACE comprobar el
118C código Hay que
averiguar dónde Error de
8200
AA0 está el fallo configuración
04B en el setup
A90
B020
0000 BB08
0080 D0C9
0000 EA79
0020 F9B
0000
ACE
0410 A. El ordenador no hace nada,
118Cen este caso es posible que
0000
0 ni siquiera comience a funcionar
8200 el BIOS y la avería esté
localizada en: AA00
4BA9
1. La fuente de alimentación 0B02
0000
2. La placa base 0008
0000
3. El microprocesador 0002
0000
4. El BIOS
0042
5. O algún elemento mal conectado 0000
00

68
Pasos a seguir:

1. Verificamos la conexión de todos los elementos


2. Siempre comprobamos la tensión de la fuente de
alimentación.
3. verificamos la configuración de la velocidad del
microprocesador. Si todo está bien seguiremos las
instrucciones en caso de avería de la fuente o de la placa
base.

B. El ordenador emite un tono breve y sigue funcionando, esto


significa que todo el hardware funciona bien y comienza la carga
de los dispositivos. Esto se hace pasado el punto cuatro. Por tanto,
en caso de avería se mirará todo lo posterior a este punto.
Tenemos varios casos:

 Si el PC se queda esperando para cargar el sistema operativo


y no se carga desde el disco duro, pero si desde otra unidad,
pero reconoce el disco duro hay un error en la lectura o carga
de éste. Esto puede ser bebido a:

o El boot está estropeado, para restaurarlo utilizaremos un


fdisk /mbr.
o Se han borrado los archivos del sistema.
o Es posible que tengamos un virus.
o El sector de arranque está estropeado. Para solucionarlo
formateamos el disco duro. Si al instalar el sistema
operativo sigue igual, el disco duro estará estropeado y
habrá que cambiarlo.

 Si el error es después de empezar a cargar el sistema


operativo, el fallo es de algún controlador que está dañado.

69
C. El ordenador emite una serie de tonos y se para. Nos muestra
donde se origina el error, deberemos consultar la siguiente tabla:

Tono ininterrumpido Fallo en el suministro eléctrico


Tonos cortos Placa base estropeada
constantes
Memoria RAM no funciona o no hay
1 tono largo memoria RAM instalada
1 tono largo y 1 Fallo de placa base en la memoria ROM
tono corto
1 tono largo y 2 Fallo en la tarjeta gráfica, mal conectada,
tonos cortos estropeada o no está presente
1 tono largo y 3 Fallo gráfico o no hay monitor conectado
tonos cortos
1 tono largo y varios Errores en la tarjeta gráfica
tonos cortos
2 tonos largos y 1 Fallo en la sincronización de imagen
tono corto
Error de paridad en la memoria. Paridad
2 tonos cortos no soportada
Fallo de memoria en los primeros 64Kb de
3 tonos cortos RAM
4 tonos cortos Temporizador de la placa defectuoso
Error de procesador o memoria de video
5 tonos cortos bloqueada
Fallo en el controlador del teclado, suele
6 tonos cortos ocurrir conectando/desconectando el
teclado con el sistema encendido
Error de excepción del procesador. Modo
7 tonos cortos virtual del procesador activo
La tarjeta gráfica no existe o su memoria
8 tonos cortos de vídeo está fallando. Fallo de escritura
de la RAM de video
9 tonos cortos Error de checksum de la ROM BIOS
10 tonos cortos Error CMOS
11 tonos cortos Fallo de memoria caché externa

70
5. Actuación en cada caso

 En los casos de 1,2, y 3 tonos se revisará la memoria y si todas


están bien conectadas y siguen fallando las cambiaríamos
por otras.
 Seis tonos, verificamos primero el teclado puede estar
estropeado el controlador del teclado o algún fusible.
 Ocho tonos, se reemplaza la memoria de video o la tarjeta
gráfica.
 Nueve tonos, se cambia la pila o batería si se sospecha que
está agotada. Si sigue igual habrá que cambiar el chip de la
ROM BIOS.
 Once tonos, se reemplaza la memoria caché de la placa
base.
 En caso de 4, 5, 6, 7,10…tonos cambiaremos la placa base.
 Un tono largo y dos, tres…tonos cortos verificamos la conexión
del monitor, si es correcta cambiaremos la tarjeta gráfica.

6. Software de ayuda para la localización de averías

Cuando el ordenador arranca, pero se detectan una serie de


anomalías que pueden no ser demasiado grabes lo ideal es poseer
un software de diagnóstico para localizar el hardware estropeado.
Existen muchos programas destinados a este fin entre ellos podemos
encontrar el PC Doctor, memtest…etc.

7. Protocolos de actuación sobre averías generales

o El sistema está completamente parado:

a. Comprobamos la tensión de la línea


b. Verificamos que el cable esté conectado.
c. Comprobamos el interruptor.
d. Usando un polímetro comprobamos el conecto de
la placa base.
e. Verificamos si el fusible los fusibles están bien
siempre y cuando el ordenador no esté en
garantía.
f. Retiramos todas las tarjetas de expansión y
desconectamos la alimentación de las unidades
de disco. Volvemos a comprobar las tensiones de
salida y la señal de alimentación correcta de la

71
fuente de alimentación, en caso de sobrecarga se
producirá un cortocircuito. Si todavía no hay
corriente cambiaremos la fuente de alimentación.
g. Si hay energía comprobaremos si la fuente de
alimentación es suficientemente potente, en caso
contrario, iremos conectando las tarjetas y los
dispositivos hasta comprobar cuál es la que
consume demasiada energía.

o El sistema funciona momentáneamente pero después se


para:
a. Comprobaremos el cable de alimentación por si
no estuviese conectado.
b. Comprobamos el interruptor si lo tuviera.
c. Comprobamos las tensiones de salud y la
alimentación con un polímetro.
d. Verificamos los apartados f y g del caso anterior.

o El sistema falla después de un tiempo funcionando.


a. Comprobamos el cable.
b. Comprobamos la temperatura, si es alta
comprobamos los ventiladores.
c. Comprobamos que la fuente de alimentación sea
suficientemente potente.
d. Comprobamos las tensiones con un polímetro.

o El sistema se bloquea o re-arranca por si solo


a. Generalmente el problema viene de un software.
b. Se comprueba los apartados anteriores.
c. Cambiamos el ordenador de sitio.

o El ordenador se enciende, la pantalla permanece negra y


no se activa el ventilador de la fuente de alimentación ni
el disco duro comienza a girar:
a. Si el cable de conexión con la fuente de
alimentación y el enchufe hembra de la pared
están en óptimas condiciones, seguramente nos

72
enfrentamos a un problema en la fuente de
alimentación.
b. Para averiguar si es la fuente está defectuosa o si
hay otro componente que puede provocar un
cortocircuito e impedir una correcta alimentación
del sistema, iremos desconectando del suministro
un dispositivo tras otro, y encenderemos y
apagaremos el ordenador cada vez para verificar
si el ventilador de la fuente de alimentación
funciona. Empezaremos por las disqueteras y
seguiremos con los discos duros.
c. Si en medio de estas operaciones el ventilador se
pusiera de nuevo en marcha, volveremos a
conectar, por seguridad, el último dispositivo
conectado, y volveremos a encenderlo. Si el
ventilador no se activa es que el dispositivo en
cuestión ha sufrido un cortocircuito y debe ser
cambiado.
d. Si lo anterior no da resultado, se desconectará la
placa madre de la fuente de alimentación y,
antes de volver a poner en marcha el equipo hay
que conectar algún otro dispositivo,
preferiblemente el disco duro, ya que la mayoría
de las fuentes de alimentación no deben operar
sin ningún dispositivo conectado.
e. Si el ventilador sigue sin funcionar, la fuente de
alimentación puede estar defectuosa.
f. En el caso de que el ventilador funcionará y el
disco duro también, el fallo estará en la placa
base.

o El PC enciende, la pantalla permanece negra y no se


activa el ventilador de la fuente ni el disco duro comienza
a girar.
a. Comprobamos el cable.
b. Comprobamos uno por uno los dispositivos
conectados a la fuente ya que alguno puede
estar causando un cortocircuito.
c. Si al quitar algún dispositivo el ventilador se pusiera
en marcha, se volvería a enchufar el último

73
dispositivo y si vuelve a fallar, este dispositivo sería
el causante del cortocircuito.
d. Si el ventilador sigue sin funcionar la fuente de
alimentación podría estar defectuosa, habría que
comprobar su correcto funcionamiento.

o EL PC no arranca o se comporta de forma errática.


a. Comprobamos la fuente de alimentación.
b. Si funciona, quitaremos todas las tarjetas excepto
la gráfica y volveremos a encender el ordenador,
si sigue sin arrancar quitaremos la gráfica y
comprobaremos si el disco duro arranca.
c. Si se sospecha que es un problema de
configuración del setup, borraremos la CMOS
para arrancar por defecto.
d. Comprobaremos que todos los demás
componentes funcionan
e. Si todo funciona el fallo estará en la placaba base.

8. Averías en los distintos dispositivos de un PC

a. Caja

Salvo problemas térmicos, la caja como tal (excluyendo la fuente


de alimentación) es difícil que introduzca problemas, pues tiene
pocos componentes y muy simples. Típicamente tiene pulsadores
de reset y encendido, LEDs de disco duro y encendido, conectores
de puertos USB, conectores de audio frontales y quizás uno o más
ventiladores.
Los pulsadores pueden comprobarse fácilmente con un polímetro
desconectándolos previamente de la placa base. Los pulsadores
deben presentar una resistencia muy elevada (del orden de
muchos megaohmios) cuando estos no se pulsan. Por el contrario,
cuando se pulsan la resistencia debe ser muy pequeña (inferior a un
ohmio).

Una avería que nos podemos encontrar es en los leds de encendido


y de disco duro, estos pueden estar fundidos o al igual que en el
caso anterior, el cable puede venir estropeado.
Los puertos USB de la caja que no funcionan se pueden probar en
otros conectores USB de la placa base. Si no funciona con ninguno,
pero funcionan los demás puertos USB del PC, la avería está
probablemente en el cable USB o el conector USB de la caja.

74
Si funcionan los conectores de audio traseros (ubicados en la placa
base), pero no los delanteros (ubicados en la caja), el problema
puede provenir de una deficiente conexión de los cables
correspondientes o de una mala configuración de ciertos jumpers
de la placa base.

b. Fuente de alimentación

En los casos más sencillos, la fuente de alimentación se puede


diagnosticar fácilmente porque no hay ningún tipo de actividad en
el sistema: la pantalla está en blanco, los discos duros no giran, los
ventiladores no giran. En otros casos, si medimos las tensiones de
alimentación con un polímetro, o usando las medidas
proporcionadas por el BIOS, alguna puede estar fuera de
tolerancias. No obstante, hay que asegurarse de que la fuente de
alimentación está conectada a la placa base, pues hace falta una
carga mínima para que funcione.

En otros casos, la fuente de alimentación tiene fallos erráticos menos


drásticos y provoca apagados y reinicios del sistema aleatorios que
suelen ser bastante desconcertantes. La forma más directa de
detectar estos problemas es emplear un osciloscopio digital, lo cual
no está al alcance de todos. Las fuentes de alimentación de escasa
potencia pueden provocar estos mismos síntomas. Las averías que
nos podemos encontrar son:

o El PC no vuelve a modo activo


a. Se completa la secuencia de arranque
correctamente, entramos en el modo de bajo
consumo y al intentar volver al modo activo no nos
deja.
b. Solución: La fuente de alimentación tiene poca
potencia para volver a llevar el PC al estado
activo deberemos sustituirla.

o El PC no enciende
a. Comprobamos que en el enchufe hay corriente.
b. Comprobamos que el cable de alimentación esté
correctamente conectado.
c. Deberemos comprobar el correcto
funcionamiento de la fuente de alimentación

75
mediante un polímetro o realizando un puente, si
está no arrancará estará defectuosa.

o El pc no vuelve a modo activo


Se completa la secuencia de arranque correctamente,
entramos en el modo de bajo consumo y al intentar volver al
modo activo no nos deja.

Solución: La fuente de alimentación no tiene poca potencia para


volver a llevar el pc al estado activo.

c. CPU

Las dos principales causas que hacen que una CPU en perfecto
estado no funcione correctamente son sobrecalentamiento y una
deficiente inserción en el zócalo.

Las CPUs actuales incorporan protección frente a


sobrecalentamiento. Cuando la temperatura supera un cierto
umbral la velocidad de la CPU decrece con la temperatura, hasta
que llega a un punto en que la CPU provoca el reinicio del sistema.
En estos casos el problema no suele provenir de la CPU sino de la
refrigeración.

El problema del sobrecalentamiento se detecta fácilmente


empleando las mediciones de temperatura proporcionas por la
BIOS o aplicaciones que se ejecutan en el sistema operativo. Se
observa además que el reinicio tarda más en producirse cuando el
PC se arranca después de un periodo de inactividad. Si no da
tiempo siquiera a observar estas mediciones, se debería comprobar
el correcto funcionamiento del ventilador de la CPU o probar a
tocar con cuidado su disipador (para no quemarnos).

Cuando la CPU se inserta incorrectamente en su zócalo, lo más


probable es que alguna patilla se haya doblado (si tiene patillas) y
en ese caso poco se puede hacer. Cuando la CPU está
estropeada, habitualmente no es capaz de ejecutar ni una sola
instrucción del POST. Por lo tanto, será incapaz de emitir pitido
alguno por el altavoz o escribir mensajes en la pantalla. Sentiremos
el ruido de los ventiladores, pero por lo demás el sistema parecerá
“muerto”. No obstante, en ese caso la causa puede ser también un
problema en la placa base o en la fuente de alimentación. Por

76
ejemplo, si al extraer los módulos de memoria oímos una larga
secuencia de pitidos, esto significa que la CPU está al menos “viva”.
Las averías que nos podemos encontrar son:

o El ordenador no arranca, pero el microprocesador se


calienta
a. El fallo puede deberse a la placa base, al zócalo
del propio microprocesador o incluso a una mala
colocación.

o El ordenador se bloquea frecuentemente


a. La frecuencia de trabajo puede no ser la correcta.
b. Comprobaremos que está bien colocado.
c. Comprobaremos la configuración tanto de setup
como de jumpers.
d. Comprobar todo lo que tenga relación con el
microprocesador.
e. Si el ordenado sigue si arrancar el fallo está en el
microprocesador.

o El ordenador se bloquea después de un tiempo


funcionando.
a. Comprobamos el cable de alimentación del PC.
b. Comprobamos la temperatura, si es alta
comprobamos los ventiladores.
c. Comprobamos que la fuente de alimentación sea
suficientemente potente.
d. Comprobamos si es correcta la frecuencia de
trabajo del microprocesador.

d. Refrigeradores

Las averías de estos dispositivos son fáciles de detectar, pues los


dispositivos que enfrían están demasiado calientes. Por ejemplo,
temperaturas superiores a 50 º C deberían considerarse
sospechosas. En algunos casos esto es debido a que el ventilador
gira a una velocidad inferior a la que debe o incluso ni siquiera gira.
Puesto que la velocidad de giro de los ventiladores es mostrada por
la BIOS o aplicaciones que se ejecutan sobre el sistema operativo,

77
resulta muy fácil detectar el problema. En general velocidades de
giro inferiores a 1500 rpm son sospechosas.

Cuando el ventilador está parado es muy fácil saberlo, pues


podemos ver sus aspas y no percibimos movimiento de aire al
acercarle la mano. Una fuente de problemas de los refrigeradores
que hacen que pierdan progresivamente su capacidad de enfriar
es el polvo que se queda pegado en el disipador. Deben limpiarse
sin usar aspiradoras, empleando por ejemplo botes de aire
comprimido. Una forma sencilla de probar el refrigerador de una
CPU es cargar la CPU al 100 % de su capacidad y observar la
evolución de su temperatura.

Finalmente, debe tenerse en cuenta que la efectividad del


refrigerador de cualquier dispositivo, incluida la CPU, no viene dada
por la temperatura del dispositivo, sino por la diferencia de
temperaturas entre el dispositivo y el interior de la caja. Por ejemplo,
si observamos que la temperatura de la CPU es de 60 º, la primera
idea será pensar que hay algún problema con el refrigerador de la
CPU. Sin embargo, si la temperatura en el interior de la caja es de
45 º, el problema no está en dicho refrigerador, sino en la
refrigeración de la caja.

Generalmente se utilizan ventiladores para la disipación del calor


en los ordenadores, estos pueden dejar de funcionar debido a
varios factores:

o Mala conexión del cable de alimentación con la placa


base.
o La placa base no le pasa suficiente corriente (en este
caso la avería sería de la placa base y habría que
sustituirla)
o Debido al desgaste de un uso prolongado puede llegar
a estropearse.
o En algunos casos el problema proviene de que los
ventiladores están llenos de polvo, deben limpiarse
evitando usar aspiradores.

e. Placa base

Al ser el elemento más complejo, es más proclive que otros a fallar.

o Un fallo de la placa base puede parecer un fallo de otro


elemento. Por ejemplo, si un disco duro no funciona la

78
tendencia es pensar que el disco está estropeado, pero
el problema puede provenir de la controladora de disco
ubicada en la placa base.

o Si una placa base falla, debe comprobarse que no hay


ninguna pieza metálica (como puede ser un tornillo) en
contacto con la placa base.

o Una mala configuración de los jumpers de la misma


puede ocasionar problemas.

o Para desechar problemas provenientes del BIOS, deben


cargarse sus parámetros por defecto.

o Una vez estemos seguros de que el problema proviene


de la placa base, podemos actualizar el BIOS como
último recurso.

Averías que nos podemos encontrar:


o El pc no pasa el post y no pita
El ordenador enciende, pero al momento se detiene, no realiza el
post y no pita para indicarnos que haya algún error.

Solución: El speaker no está conectado o está estropeado, al


conectarlo la placa base pita y podemos detectar el error con la
lista de códigos de pitidos.

o El ordenador enciende, pero los datos del BIOS no se


guardan.

El ordenador enciende correctamente, pero no arranca, entramos


en el BIOS y configuramos algún parámetro como por ejemplo la
secuencia de arranque o la alarma por temperatura elevada. Al
salir y salvar datos todos los parámetros que introducimos han
desparecido.

Solución: El jumper jav o jcc está colocado en posición de borrado


RAMCMOS
Jumper.

79
f. Pila o batería

Cuando se agota la pila aparece un mensaje en pantalla


indicándolo o bien nos muestra un error en el BIOS. A veces no
aparece ningún mensaje en la pantalla y deberemos comprobar si
se retrasa la hora y la fecha. Hoy en día viene una configuración
por defecto, aun así, si se tiene que cambiar la pila deberemos
apuntar la configuración para asegurarnos. Para substituir la pila
apuntaremos sus características para comprar una exactamente
igual.

g. Memoria principal

Pueden ser de tres tipos:


1. La memoria está dañada
2. La memoria esté mal instalada.
3. La placa base o el zócalo estén dañados.

Los errores más comunes son:


o Mezclar módulos de diferente voltaje.
o Llenar primero zócalos numéricamente
o más altos.
o Mezclar módulos DIMM y SIMM.
o Mezclar módulos de diferente velocidad.
o Mezclar módulos de simple y doble cara.
o Mezclar módulos de distinto fabricante.

Los casos más comunes son:


o El ordenador no arranca después de haber insertado la
memoria.
a. Verificamos que hemos insertado bien la memoria.
b. Comprobaremos con la ayuda del manual si
hemos hecho una ampliación correcta.
c. Comprobaremos si los bancos se han llenado
correctamente.
d. Si sigue sin funcionar la memoria estará dañada.

80
o El ordenador se detiene tras el pitido inicial y el disco duro
no ha iniciado.
a. La memoria puede no estar bien montada.
b. Verificamos la colocación en los zócalos
c. Consultamos el manual por si los módulos de
memoria deben ir colocados de una forma en
concreto.

o Nos falla la instalación del sistema operativo y el error nos lo


da aleatoriamente en un punto distinto de la instalación.
a. La memoria tiene una celda defectuosa y al
intentar cargar un dato en ella para ser procesada
da error y el ordenador se bloquea.

o El SO se bloquea pasado un tiempo

El SO funciona durante un tiempo hasta que se bloquea mostrando


un mensaje de error por pantalla.

Solución: La memoria RAM está mal colocada en su zócalo o hay


sobre-calentamiento de los módulos de memoria por mala
ventilación o por una velocidad de bus demasiado elevada.

h. Tarjetas de expansión

El problema de que las tarjetas no funcionen o no funcionen bien


puede deberse a que no estén bien colocadas, estar mal
configuradas o que estén estropeadas. Para configurar bien una
tarjeta deberemos tener siempre el manual.

Aquellas tarjetas defectuosas que se conectan a buses,


pueden provocar un mal funcionamiento de otras tarjetas en
perfecto estado conectadas al mismo bus.

Cuando la tarjeta no pueda probarse sin antes haber arrancado el


SO, es muy importante cargar la última versión de su driver, por si el
problema fuese software y no hardware.

Antes de desechar una tarjeta, puede probarse a actualizar si


firmware, si es posible, o a limpiar sus contactos.

81
i. Memoria caché

Por norma general los chips de memoria no fallan. Es más probable


un error en los jumpers que configuran la cantidad de memoria
caché instalada, en el caso de que no sea automática.

Los pasos a seguir son:


1. Comprobar con el manual si los jumpers están bien
situados.
2. Si sigue sin funcionar pueden estar estropeados los chips
de memoria caché, para comprobarlo entraremos en el
setup y desactivamos la caché externa. El ordenador irá
más lento, pero funcionará.
3. Si al desactivar la memoria caché el ordenador sigue
fallando la avería estará en la propia placa base.

j. Discos duros y unidades ópticas

Los fallos en las unidades ópticas y en los discos duros se manifiestan


cuando al arrancar el sistema estos no son detectados. Sin
embargo, el problema podría provenir también del cable de datos
o de la placa base.
Si se trata de dispositivos IDE, debe comprobarse la correcta
configuración maestro/esclavo y la correcta conexión del cable de
datos.
La diagnosis de unidades ópticas que son detectadas, pero
funcionan correctamente se puede hacer empleando utilidades
específicas o simplemente cambiándola por otra que funciona
correctamente.

o Instalamos un segundo disco duro SATA y no nos detecta el


que teníamos IDE.
a. Hay placas bases que no soportan la conexión
ambas interfaces trabajando al mismo tiempo,
deberemos de comprobarlo con el manual de la
placa base.

82
o Instalamos un segundo HD y no nos detecta el que
teníamos

Tenemos un HD IDE en el pc, conectamos un HD SATA y no nos lo


detecta, en otro equipo con la misma configuración si nos funciona
y nos detecta correctamente ambos HD.

Solución: Hay placas bases que no soportan la conexión ambas


interfaces trabajando al mismo tiempo.

k.Controladoras IDE

Cuando la avería está en la controladora el equipo tardará en


arrancar más de lo normal y cuando lo hace nos dará un error. Si
todo lo demás funciona bien y el fallo es de controladora lo
solucionaremos comprando una controladora PCI para instalarla.
En el BIOS desactivaremos el IDE de la placa base.

l. Cables de datos

Los fallos en los cables de datos son fácilmente comprobables


sustituyéndolos por otro cable que funcione correctamente.
Cuando un dispositivo no es reconocido por el ordenador el error
puede provenir de tres sitios, que la placa base no lo reconozca o
esté estropeada, que el dispositivo esté estropeado o del cable,
para asegurarnos probaremos con un cable que sepamos que
funciona y si el dispositivo es reconocido por el ordenador el error
estará en el cable.

83

S-ar putea să vă placă și