Sunteți pe pagina 1din 101

UNIVERSIDAD TECNOLÓGICA DE LOS ANDES

FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

“AÑO DE LA CONSOLIDACIÓN
DEL MAR DE GRAU”
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVIL
CURSO: Informática
DOCENTE: José Luis Merma Aroni
ESTUDIANTE: Solange Rivera Gutiérrez
CÓDIGO DE MATRÍCULA: 201600282D
SEMESTRE: 2016-II
GRUPO:”A”
AÑO: 2016
ABANCAY - APURÍMAC

i
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

DEDICATORIA:

Dedico este trabajo primeramente a Dios, seguidamente a Jesús; quienes me


dieron la fe, la fortaleza, la salud y la esperanza para terminar este trabajo. A mis
padres que están presentes siempre cuando los necesito y son mi motivo de
seguir adelante.

ii
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

AGRADECIMIENTO:
La autora de este trabajo desea expresar su más sincero agradecimiento mis
hermanas, por la disposición, constante colaboración, comentarios y sugerencias
que permitieron la consecución de este trabajo.
A mi familia por colaboración y paciencia, a mis padres y amigos, por su invaluable
apoyo.
Y primordialmente a Dios a quien debo y agradezco todo lo que soy y todo lo que
tengo, ese ser que está siempre de manera incondicional y con el cual todo es
posible.

iii
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

HARDWARE
DE LA
COMPUTADORA

iv
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

ÍNDICE GENERAL

Tabla de contenido
INTRODUCCIÓN .................................................................................................... 1
CAPÍTULO 1: HISTORIA......................................................................................... 2
CAPÍTULO 2: CONCEPTO ................................................................................... 13
CAPÍTULO 3: ARQUITECTURA DE PCS ............................................................. 14
TÍTULO 1: ARQUITECTURA VON NEUMANN ................................................. 14
TÍTULO 2: ARQUITECTURA DE MICROPROCESADORES ............................ 14
2.1. CISC Y RISC ........................................................................................... 14
2.2. Little-Endian (little-to-end) y Big-Endian (big-to-end) ............................... 16
2.3. Memoria interna (caché) ........................................................................ 16
CAPÍTULO 4: CLASIFICACIÓN DE HARDWARE ............................................... 17
TÍTULO 1: ALMACENAMIENTO ........................................................................ 18
1.1. UNIDAD CENTRAL DE PROCESAMIENTO ........................................... 18
1.1.1. CPU de transistores y de circuitos integrados discretos ....................... 21
1.1.2. Microprocesadores ............................................................................... 23
1.1.3. Operaciones ......................................................................................... 25
1.1.3.1. Fetch .................................................................................................. 25
1.1.3.2. Decode .............................................................................................. 26
1.1.3.3. Execute .............................................................................................. 26
1.1.3.4. Writeback ........................................................................................... 27
1.1.4. Diseño e implementación ...................................................................... 28
1.1.4.1. Rango de enteros .............................................................................. 28
1.1.4.2. Frecuencia de reloj ............................................................................ 29
1.1.4.3. Paralelismo ........................................................................................ 31
1.1.4.5. ILP: Segmentación y arquitectura superescalar................................. 32

v
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

1.1.4.6. Paralelismo a nivel de hilos ............................................................... 34


1.1.4.7. Paralelismo de datos ......................................................................... 36
1.1.5. Desempeño .......................................................................................... 37
1.2. PLACA BASE ......................................................................................... 38
1.2.1. Introducción .......................................................................................... 38
1.2.2. Placas ATX .......................................................................................... 39
1.2.3. Fuentes de alimentación ....................................................................... 39
1.2.4. CHIPSET .............................................................................................. 40
1.2.5. Métodos de transferencia de datos ....................................................... 42
TÍTULO 2: ALMACENAMIENTO ........................................................................ 42
2.1. MEMORIA RAM ....................................................................................... 42
2.1.1 Definición ............................................................................................... 42
2.1.2. Características ...................................................................................... 42
2.1.3. DUAL-CHANNEL .................................................................................. 43
2.1.4. Variantes ............................................................................................... 44
2.1.5. Variantes comerciales ........................................................................... 45
2.1.5.1. SIMM ................................................................................................ 45
2.1.5.2. SDR SDRAM .................................................................................... 45
2.1.5.3. DDR SDRAM ..................................................................................... 46
2.1.5.4. RDRAM .............................................................................................. 46
2.1.5.5. DDR2 SDRAM ................................................................................... 47
2.1.5.6 DDR3 SDRAM .................................................................................... 48
2.1.5.7. Memoria RAM dinámica ..................................................................... 48
2.1.5.8. Memorias RAM especiales ................................................................ 50
TÍTULO 3: PERIFÉRICO ................................................................................... 51
3.1. TECLADO ................................................................................................ 51
3.1.1. Historia.................................................................................................. 51
3.1.1.1. Primeros teclados ............................................................................. 51
3.1.1.2. Los teclados de IBM ......................................................................... 52

vi
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

3.1.1.3. El teclado Windows ........................................................................... 53


3.1.1.4. Teclado estándar ............................................................................... 53
3.1.2. Tipos de teclado.................................................................................... 55
3.1.3. Teclas inertes ....................................................................................... 59
3.2. MONITOR DE COMPUTADORA ............................................................. 60
3.2.1. Historia.................................................................................................. 60
3.2.2. Parámetros de una pantalla .................................................................. 61
3.2.3. Tamaño de la pantalla y proporción ...................................................... 63
3.2.4. Medición del tamaño de la pantalla....................................................... 64
3.2.5. Resolución máxima............................................................................... 64
3.2.6. Colores ................................................................................................. 65
3.2.3. CLASIFICACIÓN DE MONITORES ...................................................... 66
3.2.4. Ventajas y desventajas ......................................................................... 67
3.2.4.1. Monitores LCD .................................................................................. 67
3.2.4.2. Monitores CRTVentajas: ................................................................... 68
3.2.4.3. Datos técnicos, comparativos entre sí .............................................. 68
3.3. RATÓN O MAUSE ................................................................................... 69
3.3.1. EL NOMBRE ......................................................................................... 70
3.3.2. HISTORIA ............................................................................................. 70
3.3.2.1. Primera maqueta ............................................................................... 71
3.3.2.2. Presentación ...................................................................................... 71
3.3.2.3. Caso de éxito ..................................................................................... 72
3.3.3. ACTUALIDAD ....................................................................................... 73
3.3.4. FUNCIONAMIENTO ............................................................................. 74
3.3.5. EL CONTROLADOR............................................................................. 74
3.3.6. UNO, DOS O TRES BOTONES ........................................................... 75
3.3.7. TIPOS O MODELOS ............................................................................ 76
3.3.7.1. Por mecanismo .................................................................................. 77
3.3.7.2. Por conexión ...................................................................................... 78

vii
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

3.3.8. PROBLEMAS FRECUENTES .............................................................. 79


3.4. Disco Duro ............................................................................................... 80
3.5. UNIDAD DE CD/DVD .............................................................................. 81
3.6. QUEMADOR CD/DVD ............................................................................. 81
3.7. FUENTE DE PODER ............................................................................... 82
3.8. TARJETAS DE SONIDO, VIDEO Y RED ................................................ 83
TÍTULO 4: PERIFÉRICOS MIXTOS .................................................................. 84
4.1. DISPOSITIVOS DE SALIDA DE INFORMACIÓN (S) .............................. 84
4.2. DISPOSITIVOS MIXTOS (E/S DE INFORMACIÓN) ............................... 84
4.3. Hardware gráfico...................................................................................... 85
REFERENCIAS ..................................................................................................... 88

viii
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

ÍNDICE DE FIGURAS

Figura 1. 1969: Data General Nova------------------------------------------------------------------------------------4


Figura 2. 1971: Intel 4004 -----------------------------------------------------------------------------------------------5
Figura 3. 1976: Súper computador Cray-1---------------------------------------------------------------------------6
Figura 4. Minicomputadoras --------------------------------------------------------------------------------------------7
Figura 5. Apple III ----------------------------------------------------------------------------------------------------------8
Figura 6. 1975: Altaír 8800 ----------------------------------------------------------------------------------------------9
Figura 7. Apple II --------------------------------------------------------------------------------------------------------- 11
Figura 8. TRS-80 Model I ----------------------------------------------------------------------------------------------- 12
Figura 9. Commodore PET --------------------------------------------------------------------------------------------- 12
Figura 10. Historia de HARWARE ------------------------------------------------------------------------------------ 12
Figura 11. Hw ------------------------------------------------------------------------------------------------------------- 13
Figura 12. HOMBRE ----------------------------------------------------------------------------------------------------- 19
Figura 13. Cableado ----------------------------------------------------------------------------------------------------- 21
Figura 14. Procesadores ----------------------------------------------------------------------------------------------- 23
Figura 15. Microprocesadores ---------------------------------------------------------------------------------------- 23
Figura 16. Placa ATX ---------------------------------------------------------------------------------------------------- 39
Figura 17. Fuentes de alimentación--------------------------------------------------------------------------------- 40
Figura 18. CHIPSET ------------------------------------------------------------------------------------------------------ 41
Figura 19. SIMM --------------------------------------------------------------------------------------------------------- 45
Figura 20. Memoria RAM DINÁMICA ------------------------------------------------------------------------------- 49
Figura 21. Teclado inalámbrico--------------------------------------------------------------------------------------- 51
Figura 22. Teclado de un terminal CT-1024 ----------------------------------------------------------------------- 51
Figura 23. Teclado XT (IBM 5150) ----------------------------------------------------------------------------------- 52
Figura 24. TECLADO AT ------------------------------------------------------------------------------------------------- 52
Figura 25. El modelo M de IBM -------------------------------------------------------------------------------------- 54
Figura 26. Teclado ajustable de Apple------------------------------------------------------------------------------ 55
Figura 27. Teclado en pantalla --------------------------------------------------------------------------------------- 56
Figura 28. Teclado QWERTY------------------------------------------------------------------------------------------- 58
Figura 29. Monitor LCD------------------------------------------------------------------------------------------------- 60
Figura 30. Monitor Philips --------------------------------------------------------------------------------------------- 61
Figura 31. Medida de la pantalla para TFT ------------------------------------------------------------------------ 63
Figura 32. MOUSE ------------------------------------------------------------------------------------------------------- 70
Figura 33. Copia del primer prototipo ------------------------------------------------------------------------------ 71
Figura 34. Ratones de APPLE ----------------------------------------------------------------------------------------- 72
Figura 35. Funcionamiento -------------------------------------------------------------------------------------------- 74

ix
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

Figura 36. Modelo inalámbrico con 4 botones ------------------------------------------------------------------- 75


Figura 37. Modelo inalámbrico con ruedas y botones --------------------------------------------------------- 75
Figura 38. Modelo Mighty Mouse de Apple ---------------------------------------------------------------------- 75
Figura 39. Parte inferior de un ratón con cable y sensor óptico --------------------------------------------- 76
Figura 40. Un modelo trackball de Logitech ---------------------------------------------------------------------- 76
Figura 41. Ratón o mouse multitáctil ------------------------------------------------------------------------------- 76
Figura 42. Ratón inalámbrico Arc de Microssoff ----------------------------------------------------------------- 77
Figura 43. MECÁNICO -------------------------------------------------------------------------------------------------- 77
Figura 44. Disco Duro --------------------------------------------------------------------------------------------------- 80
Figura 45. Unidad de CD/DVD ---------------------------------------------------------------------------------------- 81
Figura 46. Fuente de poder ------------------------------------------------------------------------------------------- 82
Figura 47. Tarjeta de sonido ------------------------------------------------------------------------------------------ 83
Figura 48. Piezas de un Disco Duro ---------------------------------------------------------------------------------- 84
Figura 49. GPU ----------------------------------------------------------------------------------------------------------- 85

x
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

ÍNDICE DE TABLAS

Tabla 1. CISC Y RISC ----------------------------------------------------------------------------------------------------- 15


Tabla 2. Placa Base ------------------------------------------------------------------------------------------------------ 38
Tabla 3. Unbuffered/Registered ------------------------------------------------------------------------------------- 44
Tabla 4. SRD --------------------------------------------------------------------------------------------------------------- 45
Tabla 5. DDR SDRAM --------------------------------------------------------------------------------------------------- 46
Tabla 6. RDAM------------------------------------------------------------------------------------------------------------ 47
Tabla 7. DDR2------------------------------------------------------------------------------------------------------------- 47
Tabla 8. DDR 3 SDRAM ------------------------------------------------------------------------------------------------- 48
Tabla 9. Resoluciones más usadas----------------------------------------------------------------------------------- 65

xi
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

ÍNDICE DE GRÁFICOS

Gráfico 1. MIP 32 Add Immediate Instruction -------------------------------------------------------------------- 25


Gráfico 2. Execute ------------------------------------------------------------------------------------------------------- 26
Gráfico 3. Rango de enteros ------------------------------------------------------------------------------------------ 28
Gráfico 4. Paralelismo -------------------------------------------------------------------------------------------------- 31
Gráfico 5. Segmentación ----------------------------------------------------------------------------------------------- 32
Gráfico 6. Teclado QWERTY de 104 teclas, Estados Unidos --------------------------------------------------- 57
Gráfico 7. Teclado QWERTY de 105 teclas, Hispanoamérica-------------------------------------------------- 57
Gráfico 8. Teclado QWERTY de 105 teclas, España-------------------------------------------------------------- 58
Gráfico 9. Resolución máxima ---------------------------------------------------------------------------------------- 64
Gráfico 10. Geometría de los pixeles ------------------------------------------------------------------------------- 66

xii
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

ÍNDICE DE ECUACIONES MATEMÁTICAS

Ecuación 1 Factoriales -------------------------------------------------------------------------------------------------- 12


Ecuación 2. Limites ------------------------------------------------------------------------------------------------------ 23
Ecuación 3. Expansión TAYLOR --------------------------------------------------------------------------------------- 41
Ecuación 4. Limites exponenciales ---------------------------------------------------------------------------------- 65
Ecuación 5. ÁREA DEL CÍRCULO -------------------------------------------------------------------------------------- 87
Ecuación 6. Matriz identidad ----------------------------------------------------------------------------------------- 87
Ecuación 7. Baskara ----------------------------------------------------------------------------------------------------- 87

xiii
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

INTRODUCCIÓN

Hardware de computadora comenzando en 1960 está marcada por la conversión


desde el tubo de vacío a los dispositivos de estado sólido como el transistor y
posteriormente el circuito integrado. Por 1959 los transistores discretos eran
considerados suficientemente confiables y económicos que hicieron no
competitivos los computadores de tubos de vacío. La memoria principal del
computador lentamente se movió lejos de los dispositivos de memoria de núcleo
magnético a la memoria de semiconductor estática y dinámica de estado sólido,
que redujo grandemente el costo, tamaño y consumo de energía de los
dispositivos del computador. Eventualmente, el costo de los dispositivos de circuito
integrado fue lo suficientemente bajo que los computadores caseros y
los computadores personales llegaron a ser comunes.
El incremento masivo en el uso de los computadores se aceleró con los
computadores de la tercera generación. Éstos generalmente confiaron en la
invención de Jack Kilby delcircuito integrado (o microchip), comenzando desde
alrededor 1965. Sin embargo, el IBM System/360 usó circuitos híbridos, que eran
dispositivos de estado sólido interconectados en un substrato con alambres
discretos.
El primer circuito integrado fue producido en septiembre de 1958 pero los
computadores que los usaban no comenzaron a aparecer hasta 1963. Algunas de
sus usos tempranos eran en los sistemas embebidos, notablemente usados por
la NASA para el Apoyo Guidance Computer del programa Apolo, y por los militares
en el misil balístico incontinentemente LGM-30 Minuteman.
Antes de 1971, el supercomputador ILLIAC IV, que fue el computador más rápido
del mundo por varios años, usó alrededor de un cuarto de millón de circuitos
integrados de puertas ECL de baja escala de integración para hacer sesenta y
cuatro procesadores de datos paralelos.

1
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

CAPÍTULO 1: HISTORIA

La clasificación evolucionista del hardware del computador electrónico está


dividida en generaciones, donde cada una supone un cambio tecnológico notable.
El origen de las primeras es sencillo de establecer, ya que en ellas el hardware fue
sufriendo cambios radicales.
Los componentes esenciales que constituyen la electrónica del computador
fueron totalmente reemplazados en las primeras tres generaciones, originando
cambios que resultaron trascendentales. En las últimas décadas es más difícil
distinguir las nuevas generaciones, ya que los cambios han sido graduales y
existe cierta continuidad en las tecnologías usadas. En principio, se pueden
distinguir:

1. ª Generación (1945-1956): electrónica implementada con tubos de vacío.


Fueron las primeras máquinas que desplazaron los componentes
electromecánicos (relés).

2. ª Generación (1957-1963): electrónica desarrollada con transistores. La


lógica discreta era muy parecida a la anterior, pero la implementación resultó
mucho más pequeña, reduciendo, entre otros factores, el tamaño de un
computador en notable escala.

3. ª Generación (1964-hoy): electrónica basada en circuitos integrados.


Esta tecnología permitió integrar cientos de transistores y otros componentes
electrónicos en un único circuito integrado impreso en una pastilla de silicio.

Las computadoras redujeron así considerablemente su costo, consumo y tamaño,


incrementándose su capacidad, velocidad y fiabilidad, hasta producir máquinas
como las que existen en la actualidad.

2
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

4. ª Generación (futuro): probablemente se originará cuando los circuitos de


silicio, integrados a alta escala, sean reemplazados por un nuevo tipo de material
o tecnología.

La aparición del microprocesador marca un hito de relevancia, y para muchos


autores constituye el inicio de la cuarta generación.7
A diferencia de los cambios tecnológicos anteriores, su invención no supuso la
desaparición radical de los computadores que no lo utilizaban. Así, aunque el
microprocesador 4004 fue lanzado al mercado en 1971, todavía a comienzo de los
80's había computadores, como el PDP-11/44,8 con lógica carente de
microprocesador que continuaban exitosamente en el mercado; es decir, en este
caso el desplazamiento ha sido muy gradual.
Otro hito tecnológico usado con frecuencia para definir el inicio de la cuarta
generación es la aparición de los circuitos integrados VLSI (very large scale
integration), a principios de los ochenta.
Al igual que el microprocesador, no supuso el cambio inmediato y la rápida
desaparición de los computadores basados en circuitos integrados en más bajas
escalas de integración. Muchos equipos implementados con tecnologías VLSI
y MSI (medium scale integration) aún coexistían exitosamente hasta bien entrados
los 90.
TERCERA GENERACIÓN

El incremento masivo en el uso de los computadores se aceleró con los


computadores de la tercera generación. Éstos generalmente confiaron en la
invención de Jack Kilby delcircuito integrado (o microchip), comenzando desde
alrededor 1965. Sin embargo, el IBM System/360 usó circuitos híbridos, que eran
dispositivos de estado sólido interconectados en un substrato con alambres
discretos.
El primer circuito integrado fue producido en septiembre de 1958 pero los
computadores que los usaban no comenzaron a aparecer hasta 1963. Algunas de
sus usos tempranos eran en los sistemas embebidos, notablemente usados por
la NASA para el Apoyo Guidance Computer del programa Apolo, y por los militares
en el misil balístico incontinentemente LGM-30 Minuteman.
Antes de 1971, el supercomputador ILLIAC IV, que fue el computador más rápido
del mundo por varios años, usó alrededor de un cuarto de millón de circuitos

3
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

integrados de puertas ECL de baja escala de integración para hacer sesenta y


cuatro procesadores de datos paralelos.1
Mientras que los grandes computadores mainframes como
el System/360 aumentaron las capacidades de almacenamiento y procesamiento,
el circuito integrado también permitió el desarrollo de computadores mucho más
pequeños. El minicomputador fue una innovación significativa en los años 1960 y
1970. Trajo poder de computación a más gente, no sólo por medio de un tamaño
físico más conveniente sino también ampliando el campo del vendedor de
computadora. Digital Equipment Corporation se convirtió en la compañía número
dos de computadores detrás de IBM con sus populares sistemas de
computación PDP y VAX. Un hardware más pequeño, asequible, también provocó
el desarrollo de importantes nuevos sistemas operativos como Unix.
La integración en gran escala de los circuitos condujo al desarrollo de unidades de
procesamiento muy pequeñas. Un ejemplo temprano de esto fue el procesador
clasificadoCADC usado para analizar los datos de vuelo en el avión de combate
del F-14 Tomcat de la Armada de los Estados Unidos. Este procesador fue
desarrollado por Steve Geller,Ray Holt y un equipo de Garrett
AiResearch y American Microsystems.
En 1966, Hewlett-Packard entró en el negocio de computadores de propósito
general con su HP-2116, ofreciendo poder de computación antes encontrado
solamente en computadores mucho más grandes. Soportó una gran variedad
de lenguajes, entre ellos BASIC, ALGOL, y FORTRAN.

Figura 1. 1969: Data General Nova

En 1969, Data General despachó un total de 50.000 Novas por $8000 cada uno.
El Nova fue uno de los primeros minicomputadores de 16 bits y condujo hacia las
longitudes de palabra que eran múltiplos del byte de 8 bits. Era el primero en
emplear circuitos de mediana escala de integración (MSI) de Fairchild
Semiconductor, con modelos subsecuentes usando circuitos integrados de gran
escala de integración (LSI). También fue notable en que la unidad central de
proceso entera estaba contenida en una tarjeta de circuito impreso de 15
pulgadas.

4
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

En 1973, el TV Typewriter, diseñado por Don Lancaster, proporcionó a los


aficionados de la electrónica con una exhibición de información alfanumérica en
un televisor ordinario. Usó $120 en componentes electrónicos, como se
esquematizaba en la revista Radio Electronicsde septiembre de 1973. El diseño
original incluyó dos tarjetas de memoria y podía generar y almacenar 512
caracteres como 16 líneas de 32 caracteres. Una cinta de cassettede 90 minutos
proporcionó el almacenamiento suplementario para cerca de 100 páginas de texto.
Su diseño usó hardware minimalístico para generar la temporización de las varias
señales necesarias para crear la señal de TV. Más adelante, Clive Sinclair usó el
mismo acercamiento en su legendario Sinclair ZX80.
CUARTA GENERACIÓN

La base de la cuarta generación fue la invención del microprocesador por un


equipo en Intel.
A diferencia de los minicomputadores de la tercera generación, que eran
esencialmente versiones reducidas de los computadores mainframes, los orígenes
de la cuarta generación son fundamentalmente diferentes. Los computadores
basados en microprocesadores originalmente eran muy limitados en su velocidad
y capacidad de cómputo, y no eran, de ninguna manera, un intento de reducir el
tamaño del minicomputador. Se dirigían a un mercado enteramente diferente.
Aunque las capacidades de procesamiento y memoria hayan crecido desde los
años 1970 más allá de todo reconocimiento, la tecnología subyacente de
microchips de alta escala de integración (LSI) o muy alta escala de
integración (VLSI) ha continuado siendo básicamente la misma, así que se
considera extensamente que la mayor parte de los computadores de hoy todavía
pertenecen a la cuarta generación.
Microprocesadores

Figura 2. 1971: Intel 4004

El 15 de noviembre de 1971, Intel lanzó el primer microprocesador comercial del


mundo, el 4004. Fue desarrollado para una compañía japonesa
de calculadoras, Busicom, como una alternativa al circuito cableado (hardwired),

5
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

pero fueron desarrollados computadores alrededor de él, con mucha de sus


capacidades de procesamiento proporcionadas por un pequeño chip
microprocesador. Acoplado con uno de los otros productos de Intel - el chip
de RAM, basado en una invención por Robert Dennard de IBM, (kilobits de
memoria en un chip) - el microprocesador permitió que los computadores de la
cuarta generación fueran más pequeños y más rápidos que los anteriores. El 4004
solamente era capaz de 60.000 instrucciones por segundo, pero sus sucesores,
los Intel 8008, 8080 (usados en muchas computadoras con el sistema
operativo CP/M), y la familia 8086/8088 (el computador personal IBM (PC) y los
compatibles usan procesadores todavía compatibles hacia atrás con en 8086)
brindaron aún una creciente velocidad y poder a los computadores. Otros
productores también hicieron microprocesadores que eran ampliamente usados en
microcomputadores.
Supercomputadores

Figura 3. 1976: Súper computador Cray-1

En el otro extremo del espectro computacional al de los microcomputadores, los


poderosos supercomputadores de la era también usaron tecnología del circuito
integrado. En 1976 el Cray-1 fue desarrollado por Seymour Cray, quien había
dejado Control Data en 1972 para formar su propia compañía. Esta máquina, el
primer supercomputador en hacer práctico al procesamiento vectorial, tenía una
característica forma de herradura, para acelerar el procesamiento acortando las
trayectorias de los circuitos. El procesamiento vectorial, que usa una instrucción
para realizar la misma operación en muchos argumentos, ha sido desde entonces
un método de procesamiento fundamental de los supercomputadores. El Cray-1
podía calcular 150 millones de operaciones de coma flotante por segundo
(150megaflops). 85 Cray-1 fueron despachados a un precio de $5 millones cada
uno. El Cray-1 tenía un CPU que fue construido en su mayor parte de circuitos
integrados SSI y MSI ECL.

6
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

Mainframes y minicomputadores

Figura 4. Minicomputadoras

Antes de la introducción del microprocesador a principios de los años 1970, los


computadores eran generalmente grandes, costosos, sus dueños eran
instituciones grandes como corporaciones, universidades, agencias de gobierno, y
similares. Los usuarios, eran experimentados especialistas, que usualmente no
interactuaban con la máquina en sí misma, sino que preparaban tareas para el
computador en equipos fuera de línea, tal como perforadoras de tarjetas. Un
número de asignaciones para el computador serían recolectadas y procesadas en
modalidad de procesamiento por lotes. Después de que los trabajos hubieran
terminado, los usuarios podían recoger las salidas en listados impresos y en
tarjetas perforadas. En algunas organizaciones podía tardar horas o días entre
someter un trabajo al centro de computación y la recepción de la salida.
Una forma más interactiva de uso del computador se desarrolló comercialmente a
mediados de los años 1960. En un sistema de tiempo compartido,
múltiples terminales de teletipo le permitieron a mucha gente, compartir el uso de
un procesador de computador mainframe. Esto fue común en aplicaciones
empresariales y en ciencia e ingeniería.
Un diferente modelo del uso del computador fue presagiado por la manera en que
los primeros computadores no comerciales fueron usados, donde un usuario tenía
uso exclusivo de un procesador.2 Algunos de los primeros computadores que
pudieron haberse llamado "personales" fueron tempranos minicomputadores tales
como el LINC y el PDP-8, y después el VAX y minicomputadores más grandes de
Digital (DEC), Data General, Prime Computer, y de otros. Ellos se originaron,
como procesadores periféricos para los computadores mainframes, tomando
algunas tareas rutinarias y liberando el procesador para el cómputo. Por los

7
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

estándares de hoy eran físicamente grandes (alrededor del tamaño de un


refrigerador) y costosos (típicamente decenas de miles de dólares), y así
raramente fueron comprados por individuos. Sin embargo, eran mucho más
pequeños, menos costosos, y generalmente más simples de operar que los
computadores mainframes de ese tiempo, y así asequibles por laboratorios
individuales y proyectos de investigación. Los minicomputadores liberaron en gran
parte, a estas organizaciones, del procesamiento por lotes, y de la burocracia de
un centro de computación comercial o universitaria.
Además, los minicomputadores eran más interactivos que las unidades centrales,
y pronto tendrían sus propios sistemas operativos. El minicomputador Xerox
Alto (1973) fue un punto destacado en el desarrollo de los computadores
personales, debido a su interface gráfica de usuario, pantalla de mapa de bits de
alta resolución, grande almacenamiento de memoria interno y externo, ratón, y
software especial.
El microprocesador y la reducción de costos

Figura 5. Apple III

Los antepasados (minicomputadores) del moderno computador personal usaban


tecnología de circuitos integrados, que redujeron el tamaño y el costo, comparado
a los transistores discretos. El proceso fue realizado por circuitos con una gran
cantidad de componentes dispuestos en múltiples tarjetas grandes de circuitos
impresos. Los minicomputadores eran consecuentemente físicamente grandes y
costosos en producir comparado con posteriores sistemas de microprocesadores.
Después de que el "computador en un chip" fuera comercializado, el costo de
producir un sistema de computación cayó dramáticamente. La aritmética, lógica, y
las funciones de control que previamente ocuparon varias costosas tarjetas de
circuitos, ahora estaban disponibles en un circuito integrado que era muy costoso
de diseñar pero barato de producir en grandes cantidades. Concurrentemente, los
avances en el desarrollo de la memoria de estado sólido eliminaron la abultada,

8
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

costosa, hambrienta de energía memoria de núcleo magnético usada en


anteriores generaciones de computadores.

El Altaír 8800 y el IMSAI 8080

El desarrollo del microprocesador en un solo chip fue un enorme catalizador en la


popularización de verdaderos computadores personales baratos y fáciles de usar.
El Altair 8800, introducido en un artículo de la revista Popular Electronics en la
edición de enero de 1975, fijó en ese entonces un nuevo punto de bajo precio para
una computadora, trayendo la posesión del computador a un mercado ciertamente
selecto en los años 1970. Esto fue seguido por el computador IMSAI 8080 (un clon
del Altair 8800), con capacidades y limitaciones similares. El Altair y el IMSAI eran
esencialmente minicomputadores reducidos y eran incompletos: para conectar
un teclado o un teletipo a ellos se requerían "periféricos" pesados y costosos.
Ambas máquinas ofrecían un panel delantero con interruptores y luces, que se
comunicaban con el operador en binario. Para programar la máquina después de
encenderla, el programa bootstrap loader (cargador de arranque) tenía que ser
entrado, sin errores, en binario, y luego, un interpretadorBASIC se cargaba desde
un lector de cinta de papel. Teclear el cargador requería la configuración hacia
arriba o hacia abajo de un banco de ocho interruptores y presionar el botón de
"cargar" (load), una vez para cada byte del programa, que típicamente era de
cientos de bytes de longitud. La computadora podría correr programas escritos en
BASIC una vez que el interpretador había sido cargado.

Figura 6. 1975: Altaír 8800

El MITS Altair 8800, el primer kit de microprocesador comercialmente exitoso, fue


ofrecido en la cubierta de la revista Popular Electronics en enero de 1975. Fue el
primer kit del mundo, producido en masa, de un computador personal, así como el
primer computador en usar un procesador Intel 8080. Fue un éxito comercial con
10.000 Ataires despachados. El Altair también inspiró los esfuerzos de desarrollo
de programas de Paul Allen y de su amigo de la universidad, Bill Gates, que
desarrollaron un interpretador BASIC para el Altair, y después crearon Microsoft.

9
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

El Altair 8800 de MITS efectivamente creó una nueva industria de


microcomputadores y de kits de computadores, con muchos otras siguiendo, por
ejemplo una onda de pequeños computadores de negocios al final de los años
1970 basados en los microprocesadores Intel 8080, Zilog Z80 e Intel. La mayoría
corriendo el sistema operativo CP/M-80 desarrollado por Gary Kildall en Digital
Research. CP/M-80 fue el primer sistema operativo de microcomputador popular a
ser usado por muchos vendedores diferentes de hardware, y muchos paquetes de
softwares fueron escritos para él, tales como WordStar y de Base II.
A mediados de los años setenta, muchos aficionados diseñaron sus propios
sistemas, con varios grados de éxito, y se congregaron juntos para facilitar el
trabajo. Fuera de estas reuniones caseras, el Homebrew Computer Club se
convirtió en un lugar donde los aficionados se encontraban para hablar de lo que
habían hecho, intercambiar diagramas esquemáticos y software y demuestra sus
sistemas. Mucha gente construyó o ensambló sus propios computadores según
diseños publicados. Por ejemplo, muchos miles de personas construyeron el
computador casero Galaksija más adelante a principios de los años 1980.
Podría decirse que el computador Altair, generó el desarrollo de las
empresas Apple, así como de Microsoft la cual produjo y vendió el interpretador de
lenguaje de programación Altair BASIC, primer producto de Microsoft. La segunda
generación de microcomputadores, los que aparecieron al final de los años 1970,
provocado por la inesperada demanda para los computadores de kit en los clubs
de aficionados de la electrónica, eran usualmente conocidos como computadores
caseros. Para su uso en el ámbito de negocios, estos sistemas eran menos
capaces y en cierto modo menos versátil que los computadores de negocio
grandes de esos días. Fueron diseñados para la diversión y propósitos educativos,
no tanto para el uso práctico. Y aunque se podían usar en ellos algunas
aplicaciones simples de oficina/productividad, fueron generalmente usados por los
entusiastas de los computadores para aprender a programar y para correr juegos
de computadora, para los cuales los computadores personales del período eran
menos convenientes y mucho más costosos. Para los aficionados más técnicos,
los computadores caseros también fueron usados para la interface electrónica, por
ejemplo controlar modelos de trenes, y otras actividades de aficionado.
Micral N

En Francia, la compañía Réalisations et Etudes Electroniques (R2E)4 formada por


dos ingenieros anteriores de la compañía de Intertechnique, André Truong Trong
Thi yFrançois Gernelle, introdujo en febrero de 1973 un microcomputador,
el Micral N basado en el Intel 8008.8 Originalmente, el computador había sido
diseñado por Gernelle, Lacombe, Beckmann y Benchitrite para el Institut National
de la Recherche Agronomique para automatizar mediciones higrométricas. El
Micral N costó un quinto del precio de un PDP-8, alrededor de 8500FF ($1300). El
reloj del Intel 8008 fue fijado en 500kHz, la memoria fue de 16 kilobytes. Un bus,
llamado Pluribus fue introducido y permitía la conexión de hasta 14 tarjetas.

10
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

Diferentes tableros para entrada/salida digital, entrada/salida análoga, memoria,


disco floppy, estaban disponibles por R2E. El sistema operativo de Micral fue
llamado inicialmente Sysmic, y fue más tarde renombrado Prologue. R2E fue
absorbida por Groupe Bull en 1978. Aunque Groupe Bull continuaría la producción
de computadoras Micral, no estaban interesados en el mercado del computador
personal y los computadores Micral fueron confinados sobre todo a las puertas de
peaje de carretera (donde permanecieron en servicio hasta 1992) y similares
mercados muy especializados.
El microcomputador emerge

El advenimiento del microprocesador y de la memoria de estado sólido hizo la


computación casera asequible. Los primeros sistemas de computadores para el
aficionado, como el Altair 8800 y el Apple I, introducidos alrededor de 1975
marcaron el lanzamiento de los chips de procesador de 8 bits de bajo costo, que
tenían suficiente poder de computación para ser de interés para usuarios
aficionados y experimentales. Por 1977, sistemas pre ensamblados como el Apple
II, Commodore PET, y el TRS-80 (más adelante denominados como la "Trinidad
de 1977" por la revista Byte)11 comenzaron la era de los computadores
personales mercadeados en masa; mucho menos esfuerzo fue requerido para
obtener una computadora operando, y aplicaciones tales como juegos,
procesamiento de palabras, y hojas de cálculo comenzaron a proliferar. A
diferencia de los computadores usados en hogares, los pequeños sistemas
empresariales fueron típicamente basados en el CP/M, hasta que IBM introdujera
el IBM PC, que fue adoptado rápidamente. El PC fue fuertemente clonado,
llevando a la producción en masa y a la consiguiente reducción de costos a través
de los años 1980. Esto expandió la presencia de los PC en los hogares,
reemplazando la categoría del computador casero durante los años 1990
y llevando a la actual mono cultura de computadores personales
arquitectónicamente idénticos.

 La 'Trinidad de 1977'. Estos fueron los primeros microcomputadores que


comenzaron la era del computador personal

Figura 7. Apple II

11
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

Figura 8. TRS-80
Model I

Figura 9. Commodore
PET

Figura 10. Historia de HARWARE

Ecuación 1 Factoriales

𝑥 𝑥2 𝑥3
𝑒𝑥 = 1 + + + +⋯ , −∞ < 𝑥 < ∞
1! 2! 3!

12
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

CAPÍTULO 2: CONCEPTO

La palabra hardware se refiere a las partes físicas tangibles de un sistema


informático; sus componentes eléctricos, electrónicos, electromecánicos y
mecánicos. Cables, gabinetes o cajas, periféricos de todo tipo y cualquier otro
elemento físico involucrado componen el hardware; contrariamente, el soporte
lógico e intangible es el llamado software.
El término es propio del idioma inglés, su traducción al español no tiene un
significado acorde, por tal motivo se lo ha adoptado tal cual es y suena. La Real
Academia Española lo define como «Conjunto de los componentes que integran la
parte material de una computadora”.
El término, aunque sea lo más común, no solamente se aplica a las
computadoras, también un robot, un teléfono móvil, una cámara fotográfica,
un reproductor multimedia o cualquier otro electrónico que procese datos
posee hardware (y software).
La historia del hardware de computador se puede clasificar en cuatro
generaciones, cada una caracterizada por un cambio tecnológico de importancia.
Una primera delimitación podría hacerse entre hardware básico, como el
estrictamente necesario para el funcionamiento normal del equipo, y
el complementario, como el que realiza funciones específicas.
Un sistema informático se compone de una unidad central de procesamiento (UCP
o CPU), encargada de procesar los datos, uno o varios periféricos de entrada, los
que permiten el ingreso de la información y uno o varios periféricos de salida, que
posibilitan dar salida (normalmente en forma visual o auditiva) a
los datos procesados. Su abreviatura es Hw.

Figura 11. Hw

13
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

CAPÍTULO 3: ARQUITECTURA DE PCS

TÍTULO 1: ARQUITECTURA VON NEUMANN

La arquitectura de von Neumann también llamada de Eckert-Mauchly, es una


familia de arquitecturas de computadoras que se caracteriza por utilizar el mismo
dispositivo de almacenamiento tanto para las instrucciones como para los datos, a
diferencia por ejemplo de la arquitectura Harvard. La gran mayoría de equipos
modernos están basados en ella.

Diferencia cinco partes fundamentales:


Unidad aritmetico-logica (ALU) (en la actualidad generalmente integrada en
el microprocesador)
Unidad de control -microprocesador- (CPU: Central Processing Unit)
Memoria (en los PCs actuales SDRAM)
Dispositivo(s) de entrada/salida
Bus(es) de datos (actualmente gobernados por el chipset de la placa madre
-NorthBridge y SouthBridge-)

La evolución de los equipos está marcada en generaciones diferenciadas por las


tecnologías utilizadas en su CPU:

(1a Gen.) Tubos de vacío; (2a Gen.) Transistores; (3a Gen.) Circuitos Integrados;
(4a Gen.) Microchips.

TÍTULO 2: ARQUITECTURA DE MICROPROCESADORES

2.1. CISC Y RISC

Existen dos variantes fundamentales de arquitectura de procesadores: CISC


(Complex Instruction Set Computer) y

RISC (Reduced Instruction Set Computer).

Los microprocesadores CISC tienen un conjunto de instrucciones que se


caracteriza por ser muy amplio y permitir operaciones complejas entre operandos
situados en la memoria o en los registros internos. Este tipo de arquitectura
dificulta el paralelismo entre instrucciones, por lo que, en la actualidad, la mayoría
de los sistemas CISC de alto rendimiento implementan un sistema que convierte

14
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

dichas instrucciones complejas en varias instrucciones simples del tipo RISC,


llamadas generalmente microinstrucciones.

El nombre CISC apareció por contraposición a RISC cuando apareció esta nueva
arquitectura de diseño (finales 1980).

Algunos chips que usan la arquitectura CISC son: Motorola 68000, Zilog Z80 y
toda la familia Intel x86 y AMD.

RISC -llamada a veces carga/descarga- es una filosofía de diseño de CPU para


computadora que está a favor de conjuntos de instrucciones pequeños y simples
que se ejecutan más rápidamente y acceden a registros internos. Esta filosofía
proviene del hecho de que muchas de las características de los diseños de las
CPU estaban siendo ignoradas por los programas que eran ejecutados en ellas,
principalmente por una simplificación de los compiladores que tienden a utilizar
siempre las mismas instrucciones. Además, la velocidad del procesador en
relación con la memoria de la computadora que accedía era cada vez más alta,
por lo que se decidió reducir los accesos a memoria. Esto llevo a la aparición de
RISC que utiliza diversas técnicas para reducir el procesamiento dentro del CPU,
así como de reducir el número total de accesos a memoria.

Algunos chips que usan la arquitectura RISC son: PA-RISC de HP, MIPS1 en
equipos SGI y consolas Nintendo64 y

PlayStation; Sun SPARC; Motorola PowerPC o ARM usados en dispositivos


móviles Nokia, Nintendo DS, Palm...

Tabla 1. CISC Y RISC

CISC RISC

Compiladores más sencillos. Cada instrucción puede ser


ejecutada en un solo ciclo del
Código más compacto.
CPU.
Facilita la depuración de errores. Menos acceso a memoria,
accesos a registros del micro.
CPU más rápida.

15
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

2.2. Little-Endian (little-to-end) y Big-Endian (big-to-end)

Dado el valor hexadecimal 0x4A3B2C1D el sistema big-endian adoptado por


Motorola entre otros, codificaría en memoria la secuencia {4A, 3B, 2C, 1D}; el
sistema little-endian adoptado por Intel entre otros, codificaría como {1D,

2C, 3B, 4A}.

Algunas arquitecturas de microprocesador pueden trabajar con ambos formatos


(ARM, PowerPC, DEC Alpha, PARISC,

Arquitectura MIPS), y a veces son referidas como sistemas middle-endian.

1 "Microprocessor without Interlocked Pipeline Stages". No confundir con MIPS


(Millones de Instrucciones Por Segundo).

2.3. Memoria interna (caché)

Los microprocesadores disponen de registros internos de memoria que permiten


reducir el tiempo medio de acceso a memoria. Este conjunto de registros se
conoce como memoria cache y es más rápida y más pequeña que la memoria
principal. Además puede organizarse jerárquicamente por niveles siendo L1 (Level
1) el primer nivel consultado, el más rápido y el más pequeño. Algunos micros
pueden tener hasta tres niveles de memoria cache (L1-L3).

Dependiendo de la configuración de la memoria cache el procesador busca los


registros primero en L1, después en L2,

L3... después en la memoria principal y por último en la memoria virtual (swap).

La memoria cache puede estar configurada como exclusiva -cada registro solo se
encuentra en uno de los niveles- (por ejemplo AMD Athlon), estrictamente
inclusiva -cada registro de nivel Ln se encuentra replicado en el nivel Ln+1- o si
definir (p.e. Intel Pentium 4). En la gestión exclusiva se utilizan tipos y tamaños de
registros similares, mientras que en la gestión estrictamente inclusiva hay más
registros de nivel Ln+1 -y generalmente más lentos- que de nivel Ln.

La mayoría de microprocesadores actuales además utiliza tres memorias cache:


una para datos, otra para instrucciones y otra para registros TLB (Translación
Look-aside Buffer) utilizados para localizar paginas en la memoria principal.

16
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

CAPÍTULO 4: CLASIFICACIÓN DE HARDWARE

Una de las formas de clasificar el hardware es en dos categorías: por un lado,


el básico, que abarca el conjunto de componentes indispensables necesarios
para otorgar la funcionalidad mínima a una computadora; y por otro lado,
el hardware complementario, que, como su nombre indica, es el utilizado para
realizar funciones específicas (más allá de las básicas), no estrictamente
necesarias para el funcionamiento de la computadora.
Necesita un medio de entrada de datos, la unidad central de procesamiento, la
memoria RAM, un medio de salida de datos y un medio de almacenamiento
constituyen el hardware básico.
Los medios de entrada y salida de datos estrictamente indispensables dependen
de la aplicación: desde el punto de vista de un usuario común, se debería
disponer, al menos, de un teclado y un monitor para entrada y salida de
información, respectivamente; pero ello no implica que no pueda haber una
computadora (por ejemplo controlando un proceso) en la que no sea necesario
teclado ni monitor; bien puede ingresar información y sacar sus datos procesados,
por ejemplo, a través de una placa de adquisición/salida de datos.
Las computadoras son aparatos electrónicos capaces de interpretar y ejecutar
instrucciones programadas y almacenadas en su memoria; consisten básicamente
en operaciones aritmético-lógicas y de entrada/salida. Se reciben las entradas
(datos), se las procesa y almacena (procesamiento), y finalmente se producen las
salidas (resultados del procesamiento). Por ende todo sistema informático tiene, al
menos, componentes y dispositivos hardware dedicados a alguna de las funciones
antedichas; a saber:

Procesamiento: Unidad central de procesamiento


Almacenamiento: Memorias
Entrada: Periféricos de entrada (E)
Salida: Periféricos de salida (S)
Entrada/Salida: Periféricos mixtos (E/S)

Desde un punto de vista básico y general, un dispositivo de entrada es el que


provee el medio para permitir el ingreso de información, datos
y programas (lectura); un dispositivo de salida brinda el medio para registrar la

17
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

información y datos de salida (escritura); la memoria otorga la capacidad de


almacenamiento, temporal o permanente (almacenamiento); y la CPU provee la
capacidad de cálculo y procesamiento de la información ingresada
(transformación).
Un periférico mixto es aquél que puede cumplir funciones tanto de entrada como
de salida; el ejemplo más típico es el disco rígido (ya que en él se lee y se graba
información y datos).

TÍTULO 1: ALMACENAMIENTO

1.1. UNIDAD CENTRAL DE PROCESAMIENTO

La unidad central de procesamiento o unidad de procesamiento central (conocida


por las siglas CPU, del inglés: central processing unit), es el hardware dentro de
un ordenador u otros dispositivos programables, que interpreta
las instrucciones de un programa informático mediante la realización de las
operaciones básicas aritméticas, lógicas y de entrada/salida del sistema. El
término, y su acrónimo, han estado en uso en la industria de la Informática por lo
menos desde el principio de los años 1960. La forma, el diseño de CPU y la
implementación de las CPU ha cambiado drásticamente desde los primeros
ejemplos, pero su operación fundamental sigue siendo la misma.
Un ordenador puede tener más de una CPU; esto se llama multiprocesamiento.
Todas las CPU modernas son microprocesadores, lo que significa que contienen
un solo circuito integrado (chip). Algunos circuitos integrados pueden contener
varias CPU en un solo chip; estos son denominados procesadores multinúcleo. Un
circuito integrado que contiene una CPU también puede contener los dispositivos
periféricos, y otros componentes de un sistema informático; a esto se llama
un sistema en un chip (SoC).
Dos componentes típicos de una CPU son la unidad aritmético lógica (ALU), que
realiza operaciones aritméticas y lógicas, y la unidad de control (CU), que extrae
instrucciones de la memoria, las decodifica y las ejecuta, llamando a la ALU
cuando sea necesario.

18
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

Figura 12. HOMBRE

No todos los sistemas computacionales se basan en una unidad central de


procesamiento. Una matriz de procesador o procesador vectorial tiene múltiples
elementos cómputo paralelo, sin una unidad considerada el "centro". En el modelo
de computación distribuido, se resuelven problemas mediante un conjunto
interconectado y distribuido de procesadores.
Los primeros ordenadores, como el ENIAC, tenían que ser físicamente
recableados para realizar diferentes tareas, lo que hizo que estas máquinas se
denominaran "ordenadores de programa fijo". Dado que el término "CPU"
generalmente se define como un dispositivo para la ejecución
de software (programa informático), los primeros dispositivos que con razón
podríamos llamar CPU vinieron con el advenimiento del ordenador con programa
almacenado.
La idea de un ordenador con programa almacenado ya estaba presente en el
diseño de John Presper Eckert y en el ENIAC de John William Mauchly, pero esta
característica se omitió inicialmente para que el aparato pudiera estar listo antes.
El 30 de junio de 1945, antes de que se construyera la ENIAC, el matemático John
von Neumann distribuyó el trabajo titulado First Draft of a Report on
theEDVAC (Primer Borrador de un Reporte sobre el EDVAC). Fue el esbozo de un
ordenador de programa almacenado, que se terminó en agosto de 1949. 2 EDVAC
fue diseñado para realizar un cierto número de instrucciones (u operaciones) de

19
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

varios tipos. Significativamente, los programas escritos para el EDVAC se crearon


para ser almacenados en la memoria de alta velocidad del ordenador y no para
que los especificara el cableado físico del ordenador. Esto superó una severa
limitación del ENIAC, que era el importante tiempo y esfuerzo requerido para
volver a configurar el equipo para realizar una nueva tarea. Con el diseño de von
Neumann, el programa o software que corría EDVAC podría ser cambiado
simplemente cambiando el contenido de la memoria. Sin embargo, EDVAC no fue
el primer ordenador de programa almacenado; la Máquina Experimental de
Pequeña Escala de Mánchester, un pequeño prototipo de ordenador de programa
almacenado, ejecutó su primer programa el 21 de junio de 1948 3 y la Manchester
Mark I ejecutó su primer programa en la noche del 16 al 17 junio de 1949.
Las primeras CPU fueron diseñadas a medida como parte de un ordenador más
grande, generalmente un ordenador único en su especie. Sin embargo, este
método de diseñar las CPU a medida, para una aplicación particular, ha
desaparecido en gran parte y se ha sustituido por el desarrollo de clases de
procesadores baratos y estandarizados adaptados para uno o varios propósitos.
Esta tendencia de estandarización comenzó generalmente en la era de
los transistores discretos, computadoras centrales y microcomputadoras y fue
acelerada rápidamente con la popularización del circuito integrado (IC), este ha
permitido que sean diseñados y fabricados CPU más complejas en espacios
pequeños en la orden de nanómetros). Tanto la miniaturización como la
estandarización de las CPU han aumentado la presencia de estos dispositivos
digitales en la vida moderna mucho más allá de las aplicaciones limitadas de
máquinas de computación dedicadas. Los microprocesadores modernos aparecen
en todo, desde automóviles hasta teléfonos móviles o celulares y juguetes de
niños.
Si bien von Neumann muchas veces acreditado por el diseño de la computadora
con programa almacenado debido a su diseño del EDVAC, otros antes que él,
como Konrad Zuse, habían sugerido y aplicado ideas similares. La
denominada arquitectura Harvard del Harvard Mark I, que se completó antes de
EDVAC, también utilizó un diseño de programa almacenado usando cinta de papel
perforada en vez de memoria electrónica. La diferencia clave entre las
arquitecturas de von Neumann y la de Harvard es que la última separa el
almacenamiento y tratamiento de instrucciones de la CPU y los datos, mientras
que el primero utiliza el mismo espacio de memoria para ambos. La mayoría de
los CPU modernos son de diseño von Neumann, pero los CPU con arquitectura
Harvard se ven así, sobre todo en aplicaciones embebidas; por ejemplo, los
microcontroladoresAtmel AVR son procesadores de arquitectura Harvard.

20
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

Los relés eléctricos y los tubos de vacío (válvulas termoiónicas) eran usados
comúnmente como elementos de conmutación; un ordenador útil requiere miles o
decenas de miles de dispositivos de conmutación. La velocidad global de un
sistema depende de la velocidad de los conmutadores. Los ordenadores de tubo,
como el EDVAC, tendieron en tener un promedio de ocho horas entre fallos,
mientras que los ordenadores de relés, (anteriores y más lentos), como el Harvard
Mark I, fallaban muy raramente. Al final, los CPU basados en tubo llegaron a ser
dominantes porque las significativas ventajas de velocidad producidas
generalmente pesaban más que los problemas de confiabilidad. La mayor parte de
estas tempranas CPU síncronas corrían en frecuencias de reloj bajas comparadas
con los modernos diseños microelectrónicas. Eran muy comunes en este tiempo
las frecuencias de la señal del reloj con un rango desde 100 kHz hasta 4 MHz,
limitado en gran parte por la velocidad de los dispositivos de conmutación con los
que fueron construidos.

Figura 13. Cableado

1.1.1. CPU de transistores y de circuitos integrados discretos

La complejidad del diseño de las CPU aumentó junto con facilidad de la


construcción de dispositivos electrónicos más pequeños y confiables. La primera
de esas mejoras vino con el advenimiento del transistor. Las CPU transistorizadas
durante los años 1950 y los años 1960 no tuvieron que ser construidos con
elementos de conmutación abultados, no fiables y frágiles, como los tubos de
vacío y los relés eléctricos. Con esta mejora, fueron construidas CPU más
complejas y más confiables sobre una o varias tarjetas de circuito impreso que
contenían componentes discretos (individuales).
Durante este período, ganó popularidad un método de fabricar muchos
transistores en un espacio compacto. El circuito integrado (IC) permitió que una
gran cantidad de transistores fueran fabricados en una simple oblea basada
en semiconductor o "chip". Al principio, solamente circuitos digitales muy básicos,

21
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

no especializados, como las puertas NOR fueron miniaturizados en IC. Las CPU
basadas en estos IC de "bloques de construcción" generalmente son referidos
como dispositivos de pequeña escala de integración "small-scale integration"
(SSI). Los circuitos integrados SSI, como los usados en el computador guía del
Apollo (Apollo Guidance Computer), usualmente contenían transistores que se
contaban en números de múltiplos de diez. Construir un CPU completo usando IC
SSI requería miles de chips individuales, pero todavía consumía mucho menos
espacio y energía que diseños anteriores de transistores discretos. A medida que
la tecnología microelectrónica avanzó, en los IC fue colocado un número creciente
de transistores, disminuyendo así la cantidad de IC individuales necesarios para
una CPU completa. Los circuitos integrados MSI y el LSI (de mediana y gran
escala de integración) aumentaron el número de transistores a cientos y luego a
miles.
En 1964, IBM introdujo su arquitectura de ordenador System/360, que fue usada
en una serie de ordenadores que podían ejecutar los mismos programas con
velocidades y desempeños diferentes. Esto fue significativo en un tiempo en que
la mayoría de los ordenadores electrónicos eran incompatibles entre sí, incluso las
hechas por el mismo fabricante. Para facilitar esta mejora, IBM utilizó el concepto
de microprograma, a menudo llamado «microcódigo», ampliamente usado aún en
las CPU modernas.4 La arquitectura System/360 era tan popular que dominó el
mercado del mainframe durante las siguientes décadas y dejó una herencia que
todavía aún perdura en los ordenadores modernos, como el IBM zSeries. En el
mismo año de 1964, Digital Equipment Corporation (DEC) introdujo otro ordenador
que sería muy influyente, dirigido a los mercados científicos y de investigación,
el PDP-8. DEC introduciría más adelante la muy popular línea del PDP-11, que
originalmente fue construido con IC SSI pero eventualmente fue implementado
con componentes LSI cuando se convirtieron en prácticos. En fuerte contraste con
sus precursores hechos con tecnología SSI y MSI, la primera implementación LSI
del PDP-11 contenía una CPU integrada únicamente por cuatro circuitos
integrados LSI.5
Los ordenadores basados en transistores tenían varias ventajas frente a sus
predecesores. Aparte de facilitar una creciente fiabilidad y un menor consumo de
energía, los transistores también permitían que CPU operara a velocidades mucho
más altas debido al corto tiempo de conmutación de un transistor en comparación
a un tubo o relé. Gracias tanto a esta creciente fiabilidad como al dramático
incremento de velocidad de los elementos de conmutación que por este tiempo
eran casi exclusivamente transistores, se fueron alcanzando frecuencias de reloj
de la CPU de decenas de megahercios. Además, mientras que las CPU de

22
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

transistores discretos y circuitos integrados se usaban comúnmente, comenzaron


a aparecer los nuevos diseños de alto rendimiento como procesadores
vectoriales SIMD (single instrucción múltiple data – instrucción única, datos
múltiples). Estos primeros diseños experimentales dieron lugar más adelante a la
era de los superordenadores especializados, como los hechos por Cray Inc.

Figura 14. Procesadores

1.1.2. Microprocesadores

Figura 15. Microprocesadores

Ecuación 2. Limites

1
lim (1 + ) 𝑥 =∈
𝑥→∞ 𝑥

23
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

En la década de 1970 los inventos fundamentales de Federico Faggin (ICs Silicon


Gate MOS con puertas auto alineadas junto con su nueva metodología de diseño
de lógica aleatoria) cambiaron el diseño e implementación de las CPU para
siempre. Desde la introducción del primer microprocesador comercialmente
disponible, el Intel 4004, en 1970 y del primer microprocesador ampliamente
usado, el Intel 8080, en 1974, esta clase de CPU ha desplazado casi totalmente el
resto de los métodos de implementación de la Unidad Central de procesamiento.
Los fabricantes de mainframes y miniordenadores de ese tiempo lanzaron
programas de desarrollo de IC propietarios para actualizar sus arquitecturas de
computadoras más viejas y eventualmente producir microprocesadores
con conjuntos de instrucciones que eran retro compatibles con sus hardwares y
softwares más viejos. Combinado con el advenimiento y el eventual vasto éxito de
la ahora ubicua computadora personal, el término "CPU" es aplicado ahora casi
exclusivamente a los microprocesadores.
Las generaciones previas de CPU fueron implementadas como componentes
discretos y numerosos circuitos integrados de pequeña escala de integración en
una o más tarjetas de circuitos. Por otro lado, los microprocesadores son CPU
fabricados con un número muy pequeño de IC; usualmente solo uno. El tamaño
más pequeño del CPU, como resultado de estar implementado en una simple
pastilla, significa tiempos de conmutación más rápidos debido a factores físicos
como el decrecimiento de la capacitancia parásita de las puertas. Esto ha
permitido que los microprocesadores síncronos tengan tiempos de reloj con un
rango de decenas de megahercios a varios gigahercios. Adicionalmente, como ha
aumentado la capacidad de construir transistores excesivamente pequeños en un
IC, la complejidad y el número de transistores en un simple CPU también se han
incrementado dramáticamente. Esta tendencia ampliamente observada es descrita
por la ley de Moore, que ha demostrado hasta la fecha, ser una predicción
bastante exacta del crecimiento de la complejidad de los CPUs y otros IC.
Mientras que, en los pasados sesenta años han cambiado drásticamente, la
complejidad, el tamaño, la construcción y la forma general de la CPU, es notable
que el diseño y el funcionamiento básico no hayan cambiado demasiado. Casi
todos los CPU comunes de hoy se pueden describir con precisión como máquinas
de programa almacenado de von Neumann. A medida que la ya mencionada ley
del Moore continúa manteniéndose verdadera, se han presentado preocupaciones
sobre los límites de la tecnología de transistor del circuito integrado. La

24
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

miniaturización extrema de puertas electrónicas está causando los efectos de


fenómenos que se vuelven mucho más significativos, como la electro migración y
el subumbral de pérdida. Estas nuevas preocupaciones están entre los muchos
factores que hacen a investigadores estudiar nuevos métodos de computación
como la computación cuántica, así como ampliar el uso de paralelismo y otros
métodos que extienden la utilidad del modelo clásico de von Neumann.

1.1.3. Operaciones

La operación fundamental de la mayoría de las CPU es ejecutar una secuencia de


instrucciones almacenadas llamadas «programa». El programa es representado
por una serie de números que se mantienen en una cierta clase de memoria de
ordenador. Hay cuatro pasos que casi todos las CPU de arquitectura de von
Neumann usan en su operación: fetch, decode, execute, y writeback, (leer,
decodificar, ejecutar y escribir).

Gráfico 1. MIP 32 Add Immediate Instruction

1.1.3.1. Fetch

El primer paso, leer, implica el recuperar una instrucción, (que es representada por
un número o una secuencia de números), de la memoria de programa. La
localización en la memoria del programa es determinada por un contador de
programa (PC), que almacena un número que identifica la dirección de la siguiente
instrucción que se debe buscar. Después se lee una instrucción, el PC es
incrementado por la longitud de la instrucción en términos de unidades de
memoria de modo que contendrá la dirección de la siguiente instrucción en la
secuencia. Frecuentemente, la instrucción a ser leída debe ser recuperada de
memoria relativamente lenta, haciendo detener al CPU mientras espera que la

25
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

instrucción sea devuelta. Esta cuestión se trata en gran medida en los


procesadores modernos por los cachés y las arquitecturas pipeline (ver abajo).

1.1.3.2. Decode

En el paso de decodificación, la instrucción es dividida en partes que tienen


significado para otras unidades de la CPU. La manera en que el valor de la
instrucción numérica es interpretado está definida por la arquitectura del conjunto
de instrucciones (el ISA) de la CPU. A menudo, un grupo de números en la
instrucción, llamados opcode, indica qué operación realizar. Las partes restantes
del número usualmente proporcionan información requerida para esa instrucción,
como por ejemplo, operando para una operación de adición. Tales operando se
pueden dar como un valor constante (llamado valor inmediato), o como un lugar
para localizar un valor, que según lo determinado por algún modo de dirección,
puede ser un registro o una dirección de memoria. En diseños más viejos las
unidades del CPU responsables de decodificar la instrucción eran dispositivos de
hardware fijos. Sin embargo, en CPUs e ISAs más abstractos y complicados, es
frecuentemente usado un micro programa para ayudar a traducir instrucciones en
varias señales de configuración para el CPU. Este microprograma es a veces
reescribirle de tal manera que puede ser modificado para cambiar la manera en
que el CPU decodifica instrucciones incluso después de que haya sido fabricado.

1.1.3.3. Execute

Gráfico 2. Execute

26
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

Después de los pasos de lectura y decodificación, es llevado a cabo el paso de


la ejecución de la instrucción. Durante este paso, varias unidades del CPU son
conectadas de tal manera que ellas pueden realizar la operación deseada. Si, por
ejemplo, una operación de adición fue solicitada, una unidad aritmético
lógica (ALU) será conectada a un conjunto de entradas y un conjunto de salidas.
Las entradas proporcionan los números a ser sumados, y las salidas contendrán la
suma final. La ALU contiene la circuitería para realizar operaciones simples de
aritmética y lógica en las entradas, como adición y operaciones de bits (bitwise). Si
la operación de adición produce un resultado demasiado grande para poder ser
manejado por el CPU, también puede ser ajustada una bandera (flag)
de desbordamiento aritmético localizada en un registro de banderas (ver abajo la
sección sobre rango de números enteros).

1.1.3.4. Writeback

El paso final, la escritura, simplemente «escribe» los resultados del paso de


ejecución a una cierta forma de memoria. Muy a menudo, los resultados son
escritos a algún registro interno del CPU para acceso rápido por subsecuentes
instrucciones. En otros casos los resultados pueden ser escritos a una memoria
principal más lenta pero más barata y más grande. Algunos tipos de instrucciones
manipulan el contador de programa en lugar de directamente producir datos de
resultado. Estas son llamadas generalmente "saltos" (jumps) y facilitan
comportamientos como bucles, la ejecución condicional de programas (con el uso
de saltos condicionales), y funciones en programas. Muchas instrucciones también
cambiarán el estado de dígitos en un registro de "banderas". Estas banderas
pueden ser usadas para influenciar cómo se comporta un programa, puesto que a
menudo indican el resultado de varias operaciones. Por ejemplo, un tipo de
instrucción de "comparación" considera dos valores y fija un número, en el registro
de banderas, de acuerdo a cuál es el mayor. Entonces, esta bandera puede ser
usada por una posterior instrucción de salto para determinar el flujo de programa.
Después de la ejecución de la instrucción y la escritura de los datos resultantes, el
proceso entero se repite con el siguiente ciclo de instrucción, normalmente
leyendo la siguiente instrucción en secuencia debido al valor incrementado en el
contador de programa. Si la instrucción completada era un salto, el contador de
programa será modificado para contener la dirección de la instrucción a la cual se
saltó, y la ejecución del programa continúa normalmente. En CPUs más complejos
que el descrito aquí, múltiples instrucciones pueden ser leídas, decodificadas, y

27
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

ejecutadas simultáneamente. Esta sección describe lo que es referido


generalmente como el "entubado RISC clásico" (Classic RISC pipeline), que de
hecho es bastante común entre los CPU simples usados en muchos dispositivos
electrónicos, a menudo llamados micro controladores.

1.1.4. Diseño e implementación

1.1.4.1. Rango de enteros

La manera en que un CPU representa los números es una opción de diseño que
afecta las más básicas formas en que el dispositivo funciona. Algunas de las
primeras calculadoras digitales usaron, para representar números internamente,
un modelo eléctrico del sistema de numeración decimal común (base diez).
Algunas otras computadoras han usado sistemas de numeración más exóticos
como el ternario (base tres). Casi todos los CPU modernos representan los
números en forma binaria, en donde cada dígito es representado por una cierta
cantidad física de dos valores, como un voltaje "alto" o "bajo".

Gráfico 3. Rango de enteros

Con la representación numérica están relacionados el tamaño y la precisión de los


números que un CPU puede representar. En el caso de un CPU binario, un bit se
refiere a una posición significativa en los números con que trabaja un CPU. El
número de bits (o de posiciones numéricas, o dígitos) que un CPU usa para
representar los números, a menudo se llama "tamaño de la palabra", "ancho de
bits", "ancho de ruta de datos", o "precisión del número entero" cuando se ocupa
estrictamente de números enteros (en oposición a números de coma flotante).
Este número difiere entre las arquitecturas, y a menudo dentro de diferentes
unidades del mismo CPU. Por ejemplo, un CPU de 8 bits maneja un rango de
números que pueden ser representados por ocho dígitos binarios, cada dígito
teniendo dos valores posibles, y en combinación los 8 bits teniendo 2 8 o 256
números discretos. En efecto, el tamaño del número entero fija un límite de

28
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

hardware en el rango de números enteros que el software corre y que el CPU


puede usar directamente.
El rango del número entero también puede afectar el número de posiciones en
memoria que el CPU puede direccionar (localizar). Por ejemplo, si un CPU binario
utiliza 32 bits para representar una dirección de memoria, y cada dirección de
memoria representa a un octeto (8 bits), la cantidad máxima de memoria que el
CPU puede direccionar es 2 octetos, o 4 GB. Esta es una vista muy simple
del espacio de dirección del CPU, y muchos diseños modernos usan métodos de
dirección mucho más complejos como paginación para localizar más memoria que
su rango entero permitiría con un espacio de dirección plano.
Niveles más altos del rango de números enteros requieren más estructuras para
manejar los dígitos adicionales, y por lo tanto, más complejidad, tamaño, uso de
energía, y generalmente costo. Por ello, no es del todo infrecuente, ver micro
controladores de 4 y 8 bits usados en aplicaciones modernas, aun cuando están
disponibles CPU con un rango mucho más alto (de 16, 32, 64, e incluso 128 bits).
El micro controlador más simple es generalmente más barato, usan menos
energía, y por lo tanto disipan menos calor. Todo esto pueden ser consideraciones
de diseño importantes para los dispositivos electrónicos. Sin embargo, en
aplicaciones del extremo alto, los beneficios producidos por el rango adicional,
(más a menudo el espacio de dirección adicional), son más significativos y con
frecuencia afectan las opciones del diseño. Para ganar algunas de las ventajas
proporcionadas por las longitudes de bits tanto más bajas, como más altas,
muchas CPUs están diseñadas con anchos de bit diferentes para diferentes
unidades del dispositivo. Por ejemplo, el IBM System/370 usó un CPU que fue
sobre todo de 32 bits, pero usó precisión de 128 bits dentro de sus unidades
de coma flotante para facilitar mayor exactitud y rango de números de coma
flotante.4 Muchos diseños posteriores de CPU usan una mezcla de ancho de bits
similar, especialmente cuando el procesador está diseñado para usos de propósito
general donde se requiere un razonable equilibrio entre la capacidad de números
enteros y de coma flotante.

1.1.4.2. Frecuencia de reloj

La mayoría de los CPU, y de hecho, la mayoría de los dispositivos de lógica


secuencial, son de naturaleza síncrona. Es decir, están diseñados y operan en
función de una señal de sincronización. Esta señal, conocida como señal de reloj,
usualmente toma la forma de una onda cuadrada periódica. Calculando el tiempo
máximo en que las señales eléctricas pueden moverse en las varias bifurcaciones

29
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

de los muchos circuitos de un CPU, los diseñadores pueden seleccionar


un período apropiado para la señal del reloj.
Este período debe ser más largo que la cantidad de tiempo que toma a una señal
moverse, o propagarse en el peor de los casos. Al fijar el período del reloj a un
valor bastante mayor sobre el retardo de la propagación del peor caso, es posible
diseñar todo el CPU y la manera que mueve los datos alrededor de los "bordes"
de la subida y bajada de la señal del reloj. Esto tiene la ventaja de simplificar el
CPU significativamente, tanto en una perspectiva de diseño, como en una
perspectiva de cantidad de componentes. Sin embargo, esto también tiene la
desventaja que todo el CPU debe esperar por sus elementos más lentos, aun
cuando algunas unidades de la misma son mucho más rápidas. Esta limitación ha
sido compensada en gran parte por varios métodos de aumentar el paralelismo del
CPU (ver abajo).
Sin embargo, las mejoras arquitectónicas por sí solas, no solucionan todas las
desventajas de CPUs globalmente síncronas. Por ejemplo, una señal de reloj está
sujeta a los retardos de cualquier otra señal eléctrica. Velocidades de reloj más
altas en CPUs cada vez más complejas hacen más difícil de mantener la señal del
reloj en fase (sincronizada) a través de toda la unidad. Esto ha conducido que
muchos CPU modernos requieran que se les proporcione múltiples señales de
reloj idénticas, para evitar retardar una sola señal lo suficiente como para hacer al
CPU funcionar incorrectamente. Otro importante problema cuando la velocidad del
reloj aumenta dramáticamente, es la cantidad de calor que es disipado por el CPU.
La señal del reloj cambia constantemente, provocando la conmutación de muchos
componentes (cambio de estado) sin importar si están siendo usados en ese
momento. En general, un componente que está cambiando de estado, usa más
energía que un elemento en un estado estático. Por lo tanto, a medida que la
velocidad del reloj aumenta, así lo hace también la disipación de calor, causando
que el CPU requiera soluciones de enfriamiento más efectivas.
Un método de tratar la conmutación de componentes innecesarios se llama
el clock gating, que implica apagar la señal del reloj a los componentes
innecesarios, efectivamente desactivándolos. Sin embargo, esto es
frecuentemente considerado como difícil de implementar y por lo tanto no ve uso
común fuera de diseños de muy baja potencia. Un notable diseño de CPU tardío
que utiliza una amplia compuerta del reloj para reducir los requisitos de potencia
de la consola de videojuegos es la de la Xbox 360 basada en la Power PC de
IBM.7 Otro método de tratar algunos de los problemas de una señal global de reloj
es la completa remoción de la misma. Mientras que quitar la señal global del reloj

30
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

hace, de muchas maneras, considerablemente más complejo el proceso del


diseño, en comparación con diseños síncronos similares, los diseños asincrónicos
(o sin reloj) tienen marcadas ventajas en el consumo de energía y la disipación de
calor. Aunque se trate de algo infrecuente, las CPUs completas se han construido
sin utilizar una señal global de reloj. Dos notables ejemplos de esto son
el AMULET, que implementa la arquitectura del ARM, y el MiniMIPS, compatible
con el MIPS R3000. En lugar de remover totalmente la señal del reloj, algunos
diseños de CPU permiten que ciertas unidades del dispositivo sean asincrónicas,
como por ejemplo, usando ALU en conjunción con pipelining superescalar para
alcanzar algunas ganancias en el desempeño aritmético. Mientras que no esté
completamente claro si los diseños totalmente asincrónicos pueden
desempeñarse a un nivel comparable o mejor que sus contrapartes síncronas, es
evidente que por lo menos sobresalen en las operaciones matemáticas más
simples. Esto, combinado con sus excelentes características de consumo de
energía y disipación de calor, los hace muy adecuados para sistemas embebidos.

1.1.4.3. Paralelismo

Gráfico 4. Paralelismo

La descripción de la operación básica de un CPU ofrecida en la sección anterior


describe la forma más simple que puede tomar un CPU. Este tipo de CPU,
usualmente referido como subescalar, opera sobre y ejecuta una sola instrucción
con una o dos piezas de datos a la vez.
Este proceso da lugar a una ineficacia inherente en CPU subescalares. Puesto
que solamente una instrucción es ejecutada a la vez, todo el CPU debe esperar
que esa instrucción se complete antes de proceder a la siguiente instrucción.
Como resultado, la CPU subescalar queda "paralizado" en instrucciones que
toman más de un ciclo de reloj para completar su ejecución. Incluso la adición de
una segunda unidad de ejecución (ver abajo) no mejora mucho el desempeño. En
lugar de un camino quedando congelado, ahora dos caminos se paralizan y
aumenta el número de transistores no usados. Este diseño, en donde los recursos

31
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

de ejecución de la CPU pueden operar con solamente una instrucción a la vez,


solo puede, posiblemente, alcanzar el desempeño escalar (una instrucción por
ciclo de reloj). Sin embargo, el desempeño casi siempre es subescalar (menos de
una instrucción por ciclo).
Las tentativas de alcanzar un desempeño escalar y mejor, han resultado en una
variedad de metodologías de diseño que hacen comportarse al CPU menos
linealmente y más en paralelo. Cuando se refiere al paralelismo en los CPU,
generalmente son usados dos términos para clasificar estas técnicas de diseño.

 El paralelismo a nivel de instrucción, en inglés instruction level


parallelism (ILP), busca aumentar la tasa en la cual las instrucciones son
ejecutadas dentro de un CPU, es decir, aumentar la utilización de los recursos
de ejecución en la pastilla.
 El paralelismo a nivel de hilo de ejecución, en inglés thread level
parallelism (TLP), que se propone incrementar el número
de hilos (efectivamente programas individuales) que un CPU pueda ejecutar
simultáneamente.
Cada metodología se diferencia tanto en las maneras en las que están
implementadas, como en la efectividad relativa que producen en el aumento del
desempeño de la CPU para una aplicación.

1.1.4.5. ILP: Segmentación y arquitectura superescalar

Gráfico 5. Segmentación

Uno de los métodos más simples para lograr incrementar el paralelismo es


comenzar los primeros pasos de leer y decodificar la instrucción antes de que la
instrucción anterior haya terminado de ejecutarse. Esta es la forma más simple de

32
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

una técnica conocida como segmentación (instruction pipelining en inglés), y es


utilizada en casi todas los CPU de propósito general modernos. Al dividir la ruta de
ejecución en etapas discretas, la tubería permite que más de una instrucción sea
ejecutada en cualquier tiempo. Esta separación puede ser comparada a una línea
de ensamblaje, en la cual una instrucción es hecha más completa en cada etapa
hasta que sale de la tubería de ejecución y es retirada.
Sin embargo, la tubería introduce la posibilidad de una situación donde es
necesario terminar el resultado de la operación anterior para completar la
operación siguiente; una condición llamada a menudo como conflicto de
dependencia de datos. Para hacer frente a esto, debe ser tomado un cuidado
adicional para comprobar estas clases de condiciones, y si esto ocurre, se debe
retrasar una porción de la tubería de instrucción. Naturalmente, lograr esto
requiere circuitería adicional, los procesadores entubados son más complejos que
los subescalares, pero no mucho. Un procesador entubado puede llegar a ser casi
completamente escalar, solamente inhibido por las abruptas paradas de la tubería
(una instrucción durando más de un ciclo de reloj en una etapa).
Una mejora adicional sobre la idea del entubado de instrucción (instruction
pipelining) condujo al desarrollo de un método que disminuye incluso más el
tiempo ocioso de los componentes del CPU. Diseños que se dice que son superes
calares incluyen una larga tubería de instrucción y múltiples unidades de ejecución
idénticas.9 En una tubería superescalar, múltiples instrucciones son leídas y
pasadas a un despachador, que decide si las instrucciones se pueden o no
ejecutar en paralelo (simultáneamente). De ser así, son despachadas a las
unidades de ejecución disponibles, dando por resultado la capacidad para que
varias instrucciones sean ejecutadas simultáneamente. En general, cuanto más
instrucciones un CPU superescalar es capaz de despachar simultáneamente a las
unidades de ejecución en espera, más instrucciones serán completadas en un
ciclo dado.
La mayor parte de la dificultad en el diseño de una arquitectura superescalar de
CPU descansa en crear un despachador eficaz. El despachador necesita poder
determinar rápida y correctamente si las instrucciones pueden ejecutarse en
paralelo, tan bien como despacharlas de una manera que mantenga ocupadas
tantas unidades de ejecución como sea posible. Esto requiere que la tubería de
instrucción sea llenada tan a menudo como sea posible y se incrementa la
necesidad, en las arquitecturas superescalares, de cantidades significativas
de caché de CPU. Esto también crea técnicas para evitar peligros como
la predicción de bifurcación, ejecución especulativa, y la ejecución fuera de orden,

33
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

cruciales para mantener altos niveles de desempeño. Tratando de predecir qué


rama (o trayectoria) tomará una instrucción condicional, la CPU puede minimizar el
número de veces que todo el canal debe esperar hasta que se complete una
instrucción condicional. Frecuentemente, la ejecución especulativa proporciona
aumentos modestos del desempeño al ejecutar porciones de código que no puede
ser necesario después de completarse una operación condicional. Fuera de la
orden de ejecución cambia de algún modo el orden en que se ejecutan las
instrucciones para reducir retardos debido a las dependencias de datos. También
en el caso de instrucciones individuales de datos múltiples — los procesadores
modernos, en caso de que se hayan procesado una gran cantidad de datos del
mismo tipo, pueden desactivar partes de la tubería de manera que cuando se
ejecuta una sola sentencia muchas veces, la CPU salta la captación y decodifica
fases y por lo tanto aumenta considerablemente el rendimiento en ciertas
ocasiones, sobre todo en los motores de programas altamente monótonos como el
software de creación de video y procesamiento de fotografías.
En el caso donde una porción de la CPU es superescalar y una parte no lo es, la
parte que no es superescalar sufre en el desempeño debido a las paradas de
horario. El Intel Pentium original (P5) tenía dos ALUs superescalares que podían
aceptar, cada una, una instrucción por ciclo de reloj, pero su FPU no podía aceptar
una instrucción por ciclo de reloj. Así el P5 era superescalar en la parte de
números enteros pero no era superescalar de números de coma (o punto
[decimal]) flotante. El sucesor a la arquitectura del Pentium de Intel, el P6, agregó
capacidades superescalares a sus funciones de coma flotante, y por lo tanto
produjo un significativo aumento en el desempeño de este tipo de instrucciones.
Tanto el diseño superescalar como el entubado simple aumentan el ILP de una
CPU al permitir a un solo procesador completar la ejecución de instrucciones en
ratios que sobrepasan una instrucción por ciclo (IPC). La mayoría de los modernos
diseños de CPU son por lo menos algo superescalares, y en la última década, casi
todos los diseños de CPU de propósito general son superescalares. En los últimos
años algo del énfasis en el diseño de computadores de alto ILP se ha movido del
hardware del CPU hacia su interfaz de software, o ISA. La estrategia very long
instruction word o VLIW, causa a algún ILP a ser implícito directamente por el
software, reduciendo la cantidad de trabajo que el CPU debe realizar para darle un
empuje significativo al ILP y por lo tanto reducir la complejidad del diseño.

1.1.4.6. Paralelismo a nivel de hilos

34
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

Otra estrategia para lograr el rendimiento es ejecutar varios programas o hilos en


paralelo. Esta área de investigación se conoce como computación paralela. En la
taxonomía de Flynn, esta estrategia se conoce como múltiples instrucciones de
varios datos o MIMD.
Una tecnología utilizada para este propósito fue el multiprocesamiento (MP). El
puntapié inicial de esta tecnología se conoce como multiprocesamiento
simétrico (SMP), donde un pequeño número de CPU comparte una visión
coherente de su sistema de memoria. En este esquema, cada CPU tiene un
hardware adicional para mantener una visión constantemente actualizada de la
memoria. Para evitar visitas rancias de la memoria, las CPU pueden cooperar en
el mismo programa y los programas pueden migrar desde una CPU a otra. Para
aumentar el número de CPUs que cooperan más allá de unas pocas, se
introdujeron en 1990, los esquemas tales como el non-uniform memory Access
(acceso no uniforme a memoria) (NUMA) y los protocolos de coherencia basados
en directorios. Los sistemas SMP se limitan a un pequeño número de CPU
mientras que los sistemas NUMA se han construido con miles de procesadores.
Inicialmente, el multiprocesamiento se construyó usando múltiples CPUs discretas
y tableros para implementar la interconexión entre los procesadores. Cuando los
procesadores y su interconexión hayan sido implementadas en un único chip de
silicio, la tecnología se conoce como un procesador.
Posteriormente, se reconoció que existía un paralelismo muy estrecho con un
único programa. Un único programa podría tener varios hilos (o funciones) que
podrían ser ejecutadas por separado o en paralelo. Algunos de los primeros
ejemplos de esta tecnología implementaban procesamiento de entrada/salida tales
como el acceso directo a memoria como un hilo separado del hilo computado. En
la década de 1970, se introdujo un enfoque más general a esta tecnología, cuando
se diseñaron sistemas para ejecutar múltiples hilos de computación en paralelo.
Esta tecnología se conoce como multihilo (MT).
Este enfoque se considera más rentable que la del multiprocesamiento, ya que
solo se replica un pequeño número de componentes dentro de una CPU para
soportar MT en oposición a la totalidad de la CPU en el caso de MP. En MT, las
unidades de ejecución y el sistema de memoria incluyendo los cachés son
compartidos entre varios hilos. La desventaja de MT es que el soporte de
hardware para multihilo es más visible para el software que la de MP y por lo tanto
el software supervisor como el de los sistemas operativos tiene que someterse a
los cambios más grandes para apoyar MT. Un tipo de MT que se implementó es
conocido como bloque multihilo, donde se ejecuta un hilo hasta que se paralice

35
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

esperando que regresen los datos desde la memoria externa. En este esquema, la
CPU tendría luego que cambiar rápidamente a otro hilo que está listo para
funcionar, el interruptor muchas veces realiza un ciclo de reloj de la CPU, como la
tecnología UltraSPARC. Otro tipo de MT se denomina multihilo simultáneo, en
donde las instrucciones de múltiples hilos se ejecutan en paralelo dentro de un
ciclo de reloj de la CPU.

1.1.4.7. Paralelismo de datos

Un menos común pero cada vez más importante paradigma de CPU (y de hecho,
de computación en general) trata con vectores. Los procesadores de los que se ha
hablado anteriormente son todos referidos como cierto tipo de dispositivo escalar.
Como implica su nombre, los procesadores vectoriales se ocupan de múltiples
piezas de datos en el contexto de una instrucción, esto contrasta con los
procesadores escalares, que tratan una pieza de dato por cada instrucción. Estos
dos esquemas de ocuparse de los datos son generalmente referidos
respectivamente como SISD (single instruction, single data) y SIMD (single
instruction, múltiple data). La gran utilidad en crear CPU que se ocupen de
vectores de datos radica en la optimización de tareas que tienden a requerir la
misma operación, por ejemplo, una suma, o un producto escalar, a ser realizado
en un gran conjunto de datos. Algunos ejemplos clásicos de este tipo de tareas
son las aplicaciones multimedia (imágenes, vídeo, y sonido), así como muchos
tipos de tareas científicas y de ingeniería. Mientras que una CPU escalar debe
completar todo el proceso de leer, decodificar, y ejecutar cada instrucción y valor
en un conjunto de datos, una CPU vectorial puede realizar una simple operación
en un comparativamente grande conjunto de datos con una sola instrucción. Por
supuesto, esto es solamente posible cuando la aplicación tiende a requerir
muchos pasos que apliquen una operación a un conjunto grande de datos.
La mayoría de las primeras CPU vectoriales, como el Cray-1, se asociaron casi
exclusivamente a aplicaciones de investigación científica y criptografía. Sin
embargo, a medida que la multimedia se desplazó en gran parte a medios
digitales, ha llegado a ser significativa la necesidad de una cierta forma de SIMD
en CPUs de propósito general. Poco después de que comenzara a ser común
incluir unidades de coma flotante en procesadores de uso general, también
comenzaron a aparecer especificaciones e implementaciones de unidades de
ejecución SIMD para las CPU de uso general. Algunas de estas primeras
especificaciones SIMD, como el MMX de Intel, fueron solamente para números
enteros. Esto demostró ser un impedimento significativo para algunos

36
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

desarrolladores de software, ya que muchas de las aplicaciones que se


beneficiaban del SIMD trataban sobre todo con números de coma flotante.
Progresivamente, estos primeros diseños fueron refinados y rehechos en alguna
de las comunes, modernas especificaciones SIMD, que generalmente están
asociadas a un ISA. Algunos ejemplos modernos notables son el SSE de Intel y el
AltiVec relacionado con el PowerPC (también conocido como VMX).

1.1.5. DESEMPEÑO

El "desempeño" (performance) o la velocidad de un procesador depende de, entre


muchos otros factores, la velocidad del reloj (generalmente dada en múltiplos de
hertz) y las instrucciones por ciclo de reloj (IPC), que juntos son los factores para
las instrucciones por segundo (IPS) que el CPU puede rendir.10 Muchos reportes
de valores IPS han representado tasas de ejecución "pico" en secuencias de
instrucciones artificiales con pocas ramas, mientras que las cargas de trabajo
realistas consisten en una combinación de instrucciones y de aplicaciones,
algunas de las cuales requieren más tiempo para ejecutar que otras. El
rendimiento de la jerarquía de memoria también afecta en gran medida al
rendimiento del procesador, un tema muy poco tenido en cuenta en los cálculos de
MIPS. Debido a estos problemas, para este fin, se han desarrollado varios
exámenes estandarizados, tales como SPECint muchas veces llamados "puntos
de referencia" - para tratar de medir el rendimiento real efectivo en aplicaciones de
uso cotidiano.
El desempeño de procesamiento de las computadoras se incrementa
utilizando procesadores multinúcleo, que en esencia es conectar dos o más
procesadores individuales (llamados núcleos en este sentido) en un solo circuito
integrado. Idealmente, un procesador de doble núcleo sería casi dos veces tan
potente como un procesador de núcleo único. En la práctica, la ganancia de
desempeño es mucho menor, solo alrededor del 50%, debido a la implementación
de algoritmos imperfectos de software. El aumento del número de núcleos en un
procesador (es decir, dual-core, quad-core, etc) aumenta la carga de trabajo que
se puede manejar. Esto significa que el procesador ahora puede manejar
numerosos eventos asíncronos, interrupciones, etc que pueden tomar un "peaje"
en la CPU (Central Processing Unit) cuando se abruma. Estos núcleos pueden
considerarse como diferentes plantas en una planta de procesamiento, con el
manejo de cada piso una tarea diferente. En ocasiones, estos núcleos se manejan
las mismas tareas que los núcleos adyacentes a ellos si un solo núcleo no es
suficiente para manejar la información.

37
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

Debido a las capacidades específicas de las CPU modernas, como Hyper-


Threading y Uncore, que implican el intercambio de recursos reales de la CPU
mientras que el objetivo de una mayor utilización, supervisar los niveles de
rendimiento y la utilización del hardware se fue convirtiendo gradualmente en una
tarea más compleja. Como respuesta, algunas CPUs implementan lógica de
hardware adicional que controla la utilización real de las diversas partes de una
CPU y proporciona varios contadores accesibles a software; un ejemplo es la
tecnología Performance Counter Monitor ("Monitor de contador de rendimiento")
de Intel.

1.2. PLACA BASE

1.2.1. Introducción

El estándar ATX (Advanced Technology eXtended) fue creado por Intel en 1995 y
sigue siendo el formato más utilizado en equipos de sobremesa. ATX reemplazo
completamente al antiguo estándar AT, ya que resuelve muchos de los problemas
que el estándar Baby-AT (la variante más común del AT) causaba a los
fabricantes de sistemas. Otros estándares con placas más pequeñas (incluyendo
Baby-ATX -en la imagen-, microATX, FlexATX y mini-ITX) mantienen la
distribución básica original pero con un tamaño de la placa y un numero de bahías
(slots) de expansión menor.
En 2003, Intel anuncio un nuevo estándar, el BTX, que intenta ser un reemplazo
del ATX, pero lo han adoptado solamente los fabricantes de equipos completos
como Dell o HP.
Tabla 2. Placa Base

TIPO ALIMENTACIÓN CARACTERÍSTICAS


AT 2x6 pines Tienen interruptor de
corriente.
ATX 1x20 pines Siempre encendida
(standby).
ATX2 1x24 pines + 1x4 pines Para placas P4.

BTX 1x24 pines (2x12) + 1x8 Con un adaptador se


pines puede poner ATX.

LPX Servidores, más delgadas


que ATX.
NLX Equipos de bastidor
(rack).

38
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

1.2.2. Placas ATX

Figura 16. Placa ATX

1.2.3. Fuentes de alimentación

En cuanto a los conectores, utilizan conectores ATX de 20 pines, además de un


conector independiente de 4 pines y 12 voltios. El formato ATX2 añade 4 pines
más (aparte de los 4 pines independientes), uno de cada voltaje (12, 5 y 3.3
voltios2) más uno de masa.
Las fuentes de alimentación ATX siempre están suministrando un canal de 5
voltios a la placa base para mantener constante la función de encendido a un
contacto controlado por la placa base, que mediante un corto envía una señal que
es la encargada de activar o desactivar la fuente.
También permiten activarse mediante otros medios, como puede ser mediante la
tarjeta de red o el modem.
La línea de 3.3V alimenta memorias, chipset, circuitería de la placa madre, tarjetas
PCI y AGP. La línea de 5V alimenta puertos USB y tarjetas lógicas de discos
duros y unidades ópticas. La línea de 12V alimenta al microprocesador y los
motores de discos duros y unidades ópticas.

39
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

Figura 17. Fuentes de alimentación

1.2.4. CHIPSET

Los componentes de la placa están gobernados por un conjunto de chips conocido


como Chipset.
Este conjunto se divide en dos partes, el puente norte (NorthBridge) o GMCH
(Graphic and Memory Controller Hub) y el puente sur (SouthBridge) o ICH (I/O
Controller Hub) comunicados por el interfaz DMI (Direct Media Interface) o
Internal Bus. Se puede ver dos diagramas detallados de un Chipset Intel y un
Chipset AMD en el Anexo I.
El NorthBridge, llamado así por estar situado en la parte superior de las placas
ATX, se encarga de gestionar el microprocesador, la frecuencia del
FSB (Front Side Bus), la memoria RAM y el bus de la tarjeta gráfica, sea
AGP o PCI Express x16. Al principio tenía también el control de PCI, pero esa
funcionalidad ha pasado al puente sur.

40
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

En la actualidad, en los chipset para micros AMD la memoria es gestionada


directamente por el procesador, descargando al Northbridge de esta labor y
permitiendo una gestión de la memoria más rápida y directa.
Dada la complejidad de los Northbridge, la mayoría de fabricantes instalan encima
un disipador propio.
El SouthBridge se encarga de gestionar el resto de componentes: buses PCI,
audio, USB, IO, BIOS, dispositivos SATA, controlador de interrupciones, reloj de
tiempo real, Ethernet...
Muchos de estos elementos son controlados por una serie de chips
independientes (caso de Ethernet o audio, por ejemplo), pero de esta pasa el
control al Southbridge.

Figura 18. CHIPSET

Ecuación 3. Expansión TAYLOR

𝑥
𝑥 𝑥2 𝑥3
𝑒 =1+ + + +⋯ , −∞ < 𝑥 < ∞
1! 2! 3!

41
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

1.2.5. Métodos de transferencia de datos

Los primeros PCs utilizaban para la transferencia de datos entre la CPU y otros
dispositivos como discos ATA, puertos externos o tarjetas de red el método
llamado PIO (Programmed Input/Output) que fue sustituido por DMA (Direct
Memory Access).
Con PIO la CPU se ocupa de realizar toda la transferencia. Con DMA la CPU solo
se ocupa de iniciar la transferencia y después pasa a realizar otras tareas hasta
que recibe una interrupción DMA indicando el final de la misma.
El uso de PIO se ha reducido hasta casi hacerlo desaparecer, quedando todavía
en uso para los puertos PS/2 de teclado y ratón, algunos usos del puerto paralelo,
dispositivos antiguos...
DMA se utiliza en los accesos a discos duros, en casi todos los dispositivos
modernos (tarjetas de red, graficas, sonido...) e incluso transferencias intra-chip en
procesadores multinucleado.
Las principales funciones que presenta una placa base son:

Conexión física
Administración, control y distribución de energía eléctrica
Comunicación de datos
Temporización
Sincronismo
Control y monitoreo

TÍTULO 2: ALMACENAMIENTO

2.1. MEMORIA RAM

2.1.1 Definición

La memoria de acceso aleatorio (RAM: Random Access Memory) es una memoria


volátil -la información se pierde si dejan de recibir electricidad- de acceso aleatorio.
Normalmente se llama memoria RAM a la memoria principal de una computadora,
aunque en realidad la memoria principal es solo una de las memorias de acceso
aleatorio que posee una computadora14.

2.1.2. Características

42
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

Físicamente está formada por módulos con chips tipo SMD (Superficial Mounted
Device) bien por una sola cara
(SIMM: Single In-line Memory Module) bien por las dos Caras (DIMM: Dual In-line
Memory Module).
Las memorias RAM que se usan en los PCs actuales son dinamicas15 (necesitan
refresco para no perder la información) y síncronas (trabajan en base a una señal
de reloj) por lo que se llaman SDRAM (Synchronous Dynamic RAM).
El bus que conecta el procesador con la memoria se denomina FSB (Front Side
Bus) y depende del GMCH
(NorthBridge) del chipset de la placa. La velocidad del FSB es una característica
de cada procesador pero es independiente de la velocidad del mismo. Por
ejemplo: Pentium 4, FSB= 400MHz; Athlon XP, FSB= 266MHz.
El ancho de banda de pico es la velocidad máxima de transferencia no sostenida
posible. Se calcula multiplicando la frecuencia del bus por el ancho de bytes por el
número de transferencias en cada ciclo de reloj.
Así por ejemplo una memoria DDR (dos transferencias por ciclo), con frecuencia
de 100 Mhz y un ancho de bus de 64 bits (8 bytes) tendrá un ancho de banda de
pico de: 2*100*8 = 1600 MB/s.
Para hacer referencia a las memorias se utilizan dos nomenclaturas diferentes.
Una hace referencia al FSB efectivo -característico de los chips- (DDR-200) y otra
hace referencia al ancho de banda de pico, a veces redondeado, -característico de
los módulos- (PC-1600).
La latencia es el tiempo que la memoria emplea desde que se solicita una lectura
hasta que ofrece el dato correspondiente; por tanto, no todos los ciclos de reloj
son productivos. Cuanto menor sea la latencia más rápida es la memoria. A veces
es mejor disponer de una baja latencia que de un ancho de banda de pico mayor.
– SDR: se indica según el valor “latencia de CAS” (CL), los valores posibles son 2
y 3 (CL2, CL3).
– RDRAM: alta latencia, depende del número de chips.
– DDR: igual que SDR; los valores posibles son 2 y 2.5 (CL2, CL2.5).
– DDR2: igual que DDR; los valores posibles son 3, 4, 5, 6 y 7.
– DDR3: igual que DDR; los valores posibles son 5, 6, 7 y 9.

2.1.3. DUAL-CHANNEL

Algunas placas que utilizan módulos DDR pueden configurarse como “Dual
Memory Channel” (2 bancos de varias bahías o “slots”, generalmente dos) 16.

43
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

Trabajando en modo bicanal, el controlador de memoria puede acceder a dos


módulos a la vez, mejorando la latencia y la velocidad de transferencia teórica.
Esto se consigue mediante un segundo controlador de memoria en el NorthBrigde.
No obstante, suele obligar a emplear módulos idénticos dentro del mismo canal.
Esta tecnología afecta por tanto al bus de la memoria -la placa-, no a la memoria
en si -los módulos-.

2.1.4. Variantes

● Non-parity / Parity / ECC:


○Las memorias habituales de equipos de trabajo no disponen de control de
paridad (non-parity).
Las memorias con control de paridad (parity) detectan errores en 1 bit. Se
distinguen por tener un número de chips múltiplo de 3, sin ser todos del
mismo tipo.
Las memorias con ECC (Error Correction Coding) detectan errores en dos
bits (de 64 bits de datos) y son capaces de corregir errores en 1 bit. Esto
requiere 8 bits más por lo que los módulos de memoria que incorporan ECC
tienen 72 líneas de datos en lugar de 64. Se distinguen por tener un número
de chips múltiplo de 3, siendo todos del mismo tipo.
● Unbuffered / Registered:
Las memorias habituales de equipos de trabajo vienen en módulos
“Unbuffered”, es decir todos los módulos suponen una carga para el bus,
por lo que se limita el número de módulos en el sistema.
En módulos “Registered” se incorporan chips adicionales para disminuir la
carga del bus, lo que permite disponer de más módulos de memoria.
Las variantes parity, ECC y registered anaden latencia al sistema, pero también le
aportan mayor fiabilidad.
Ejemplos:

Tabla 3. Unbuffered/Registered

44
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

8 chips: Non-parity
Sin chips adicionales: Unbuffered 9chips iguales: ECC
Es el tipo de memoria más habitual Chips adicionales: Registered

2.1.5. Variantes comerciales

2.1.5.1. SIMM

Las memorias montadas en SIMM (Single In-line Memory Module) han quedado
obsoletas. Comercialmente se utilizaron módulos de 30 pines con un ancho de 8
bits y posteriormente módulos de 72 pines con un ancho de 32 bits y un pin-out.

Figura 19. SIMM

2.1.5.2. SDR SDRAM

La memoria SDR (Single Date Rate) fue la primera memoria en montarse en


DIMMs por lo que inicialmente se le conocía simplemente como “memoria DIMM”,
sin embargo esta denominación es confusa ya que todas las memorias posteriores
también se han montado en DIMMs.
El ancho de bus es de 64 bits (8 bytes) y trabaja a una transferencia por ciclo.
Tabla 4. SRD

SDR SDRAM
Módulos 168 2 Pin- 3.3V 64
DIMM Pines outs bits

Frecuencias de reloj / FSB 66 / 66 100 / 133 /


efectivo: 100 133
Denominaciones: SDR66 o SDR100 SDR133
PC533 o o

45
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

PC800 PC1066

2.1.5.3. DDR SDRAM

La memoria DDR (Dual Date Rate) trabaja a dos transferencias por ciclo. Para ello
utiliza búferes que anaden latencia.
Fue adoptada primero por AMD. Se comercializan módulos de hasta 1GB.
El ancho de bus es de 64 bits (8 bytes) y trabaja a dos transferencias por ciclo.

Tabla 5. DDR SDRAM

DDR SDRAM
Módulo 184 1 Pin- 2.5V 64 bits
s Pines outs
DIMM

Frecuencias de reloj / FSB 100 / 133 / 150 / 166 / 200 /


efectivo: 200 266 300 333 400

Denominaciones: DDR20 DDR266 DDR30 DDR33 DDR40


0o o 0o 3o 0o
PC160 PC2100 PC240 PC270 PC320
0 17 0 0 0

2.1.5.4. RDRAM

La memoria RDRAM obtiene un FSB efectivo de 400 MHz para una frecuencia de
reloj de 100 MHz “quad dumped”.
El ancho de bus es de 16 bits (2 bytes) pero se usa en configuración de doble
canal, obteniendo un ancho de 32 bits (4 bytes) y trabaja a dos transferencias por
ciclo.
Esta memoria se monta en módulos RIMM (Rambus In-line Memory Module) con
chips por ambas caras y disipador incorporado. En las ranuras libres de la placa
base deben colocarse módulos CRIMM (Continuity RIMM).

46
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

Tabla 6. RDAM

RDRAM
Modulos 184 2 Pin- 16 x 2 bits
RIMM + Pines outs
CRIMM

100 / 400
Frecuencias de reloj /
FSB efectivo:
Denominaciones: RDRAM800
o
PC3200

2.1.5.5. DDR2 SDRAM

La memoria DDR2 es una evolución de DDR, pero incompatible con ella. El pin-
out queda en otra posición para evitar confusiones. Utiliza un búfer de 4 bits lo que
hace que tenga mayor latencia que DDR. Sin embargo trabaja con buses más
rápidos y a menor potencia. Se comercializan módulos de hasta 2x2GB.
El ancho de bus es de 64 bits (8 bytes) y trabaja a cuatro transferencias por ciclo.

Tabla 7. DDR2

DDR2 SDRAM
Módulos 240 1 Pin- 1.8V 64 bits
DIMM Pines outs

Frecuencias de reloj / FSB 100 / 133 / 166 / 200 / 266 /


efectivo: 400 533 667 800 1066
Denominaciones: DDR2- DDR2- DDR2- DDR2- DDR2-
400 533 667 800 1066
o PC2- o PC2- o PC2- o PC2- o PC2-
3200 4200 5300 6400 8500

47
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

2.1.5.6 DDR3 SDRAM

La memoria DDR3 es una evolución de DDR2, pero incompatible con ella. El pin-
out queda en otra posición para evitar confusiones. Utiliza un búfer de 8 bits lo que
hace que tenga mayor latencia que DDR2. Sin embargo trabaja con buses más
rápidos y a menor potencia. Se comercializan módulos de hasta 8GB.
El ancho de bus es de 64 bits (8 bytes) y trabaja a ocho transferencias por ciclo.

Tabla 8. DDR 3 SDRAM

DDR3 SDRAM
Módulos 240 1 Pin- 1.5V 64 bits
DIMM Pines outs

Frecuencias de reloj / FSB 100 / 133 / 166 / 200 / 266 /


efectivo: 800 1066 1333 1600 2128
Denominaciones: DDR3- DDR3- DDR3- DDR3- DDR3-
800 1066 1333 1600 1866
o PC3- o PC3- PC3- PC3- PC3-
6400 8500 10667 12800 1702

2.1.5.7. Memoria RAM dinámica

Es la presentación más común en computadores modernos (computador


personal, servidor); son tarjetas de circuito impreso que tienen soldados circuitos
integrados de memoria por una o ambas caras, además de otros elementos, tales
como resistores y condensadores. Esta tarjeta posee una serie de contactos
metálicos (con un recubrimiento de oro) que permite hacer la conexión eléctrica
con el bus de memoria del controlador de memoria en la placa base.
Los integrados son de tipo DRAM, memoria denominada "dinámica", en la cual
las celdas de memoria son muy sencillas (un transistor y un condensador),
permitiendo la fabricación de memorias con gran capacidad (algunos cientos
de Megabytes) a un costo relativamente bajo.

48
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

Las posiciones de memoria o celdas, están organizadas en matrices y almacenan


cada una un bit. Para acceder a ellas se han ideado varios métodos y protocolos
cada uno mejorado con el objetivo de acceder a las celdas requeridas de la
manera más eficiente posible.

Figura 20. Memoria RAM DINÁMICA

Memorias RAM con tecnologías usadas en la actualidad.

Entre las tecnologías recientes para integrados de memoria DRAM usados en los
módulos RAM se encuentran:

SDR SDRAM: Memoria con un ciclo sencillo de acceso por ciclo de reloj.
Actualmente en desuso, fue popular en los equipos basados en el Pentium
III y los primeros Pentium 4.
DDR SDRAM: Memoria con un ciclo doble y acceso anticipado a dos
posiciones de memoria consecutiva. Fue popular en equipos basados en
los procesadores Pentium 4 y Athlon 64.
DDR2 SDRAM: Memoria con un ciclo doble y acceso anticipado a cuatro
posiciones de memoria consecutivas.
DDR3 SDRAM: Memoria con un ciclo doble y acceso anticipado a ocho
posiciones de memoria consecutivas. Es el tipo de memoria más actual,
está reemplazando rápidamente a su predecesora, la DDR2.
DDR4 SDRAM: Los módulos de memoria DDR4 SDRAM tienen un total de
288 pines DIMM. La velocidad de datos por pin, va de un mínimo de 1,6
GT/s hasta un objetivo máximo inicial de 3,2 GT/s. Las memorias DDR4
SDRAM tienen un mayor rendimiento y menor consumo que las memorias
DDR predecesoras. Tienen un gran ancho de banda en comparación con
sus versiones anteriores.

49
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

Los estándares JEDEC, establecen las características eléctricas y las físicas de


los módulos, incluyendo las dimensiones del circuito impreso.

Los estándares usados actualmente son:

DIMM Con presentaciones de 168 pines (usadas con SDR y otras tecnologías
antiguas), 184 pines (usadas con DDR y el obsoleto SIMM) y 240 (para las
tecnologías de memoria DDR2 y DDR3).

SO-DIMM Para computadores portátiles, es una miniaturización de la versión


DIMM en cada tecnología. Existen de 144 pines (usadas con SDR), 200 pines
(usadas con DDR y DDR2) y 240 pines (para DDR3).

2.1.5.8. Memorias RAM especiales

Hay memorias RAM con características que las hacen particulares, y que
normalmente no se utilizan como memoria central de la computadora; entre ellas
se puede mencionar:

SRAM: Siglas de Static Random Access Memory. Es un tipo de memoria


más rápida que la DRAM (Dynamic RAM). El término "estática" deriva del
hecho que no necesita el refresco de sus datos. Si bien esta RAM no
requiere circuito de refresco, ocupa más espacio y utiliza más energía que
la DRAM. Este tipo de memoria, debido a su alta velocidad, es usada como
memoria caché.
NVRAM: Siglas de Non-Volatile Random Access Memory. Memoria RAM no
volátil (mantiene la información en ausencia de alimentación eléctrica). Hoy
en día, la mayoría de memorias NVRAM son memorias flash, muy usadas
para teléfonos móviles y reproductores portátiles de MP3.
VRAM: Siglas de Video Random Access Memory. Es un tipo de memoria
RAM que se utiliza en las tarjetas gráficas del computador. La característica
particular de esta clase de memoria es que es accesible de forma
simultánea por dos dispositivos. Así, es posible que la CPU grabe
información en ella, al tiempo que se leen los datos que serán visualizados
en el Monitor de computadora.

De las anteriores a su vez, hay otros subtipos más.

50
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

TÍTULO 3: PERIFÉRICO

3.1. TECLADO

Figura 21. Teclado inalámbrico

En informática, un teclado es un dispositivo o periférico de entrada, en parte


inspirado en el teclado de las máquinas de escribir, que utiliza una disposición de
botones o teclas, para que actúen como palancas mecánicas o interruptores
electrónicos que envían información a la computadora.
Después de las tarjetas perforadas y las cintas de papel, la interacción a través de
los teclados, al estilo teletipo, se convirtió en el principal dispositivo de entrada
para las computadoras.

3.1.1. HISTORIA

Figura 22. Teclado de un terminal CT-1024

3.1.1.1. Primeros teclados

51
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

Además de teletipos y máquinas de escribir eléctricas como la IBM Selectric, los


primeros teclados solían ser una computadora que se comunicaba por puerto
serial con la computadora. Además de las normas de teletipo, se diseñó un
estándar de comunicación serie, según el tiempo de uso basado en el juego de
caracteres ANSI, que hoy sigue presente en las comunicaciones por módem y con
impresora (las primeras computadoras carecían de monitor, por lo que solían
comunicarse, o bien por luces en su panel de control, o bien enviando la respuesta
a un dispositivo de impresión). Se usaba para ellos las secuencias de escape, que
se generaban o bien por teclas dedicadas, o bien por combinaciones de teclas,
siendo una de las más usadas la tecla Ctrl .
La llegada de la computadora doméstica trae una inmensa variedad de teclados y
de tecnologías y calidades (desde los muy reputados por duraderos del Dragon
32 a la fragilidad de las membranas de los equipos Sinclair), aunque la mayoría de
equipos incorporan la madre bajo el teclado, y es la CPU o un circuito auxiliar
(como el chip de sonido General Instrument AY-3-8910 en los MSX) el encargado
de leerlo. Son casos contados los que recurren o soportan comunicación serial
(curiosamente es la tecnología utilizada en el Sinclair Spectrum 128 para
el keypad numérico). Sólo los MSX establecerán una norma sobre el teclado, y los
diferentes clones del TRS-80 seguirán el diseño del clonado.

3.1.1.2. Los teclados de IBM

Figura 23. Teclado XT (IBM 5150)

Figura 24. TECLADO AT

52
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

El éxito de las computadoras personales de IBM en los años 80 creó un estándar


imitado por gran parte de la industria, esta estandarización también afectó a los
teclados. Mientras que el teclado del IBM PC y la primera versión del IBM AT no
tuvo influencia más allá de los clónicos PC, el Multifunción II (o teclado extendido
AT de 101/102 teclas) aparecido en 1987 refleja y estandariza de facto el teclado
moderno.

 Teclado XT de 83 teclas: se usaba en el PC XT (8086/88).


 Teclado AT de 84 teclas: usado con los PC AT (286/386).
 Teclado expandido de 101/102 teclas: es el teclado actual, con un mayor
número de teclas.
Con cuatro bloques diferenciados: un bloque alfanumérico con al menos una tecla
a cada lado de la barra espaciadora para acceder a símbolos adicionales; sobre él
una hilera de 10 o 12 teclas de función; a la derecha un teclado numérico, y entre
ambos grandes bloques, las teclas de cursor y sobre ellas varias teclas de edición.
Con algunas variantes este será el esquema usado por los Atari ST, los
Commodore Amiga (desde el Commodore Amiga 500), los Sharp X68000, las
estaciones de trabajo SUN y Silicon Graphics y los Acorn Archimedes/Acorn RISC
PC. Sólo los Mac siguen con el esquema bloque alfanumérico + bloque numérico,
pero también producen teclados extendidos AT, sobre todo para los modelos con
emulación PC por hardware.

3.1.1.3. El teclado Windows

Microsoft, además de hacerse un hueco en la gama de calidad alta y de presentar


avances ergonómicos como el Microsoft Natural Keyboard, añade tres nuevas
teclas tras del lanzamiento de Windows 95. A la vez se generalizan los teclados
multimedia que añaden teclas para controlar en la PC el volumen, el lector de CD-
ROM o el navegador, incorporan en el teclado altavoces, calculadora, almohadilla
sensible al tacto o bola trazadora.

3.1.1.4. Teclado estándar

53
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

Figura 25. El modelo M de IBM

En 1987 IBM desarrolló el MF-II (Multifunción II o teclado extendido) a partir del


AT. Sus características son que usa la misma interfaz que el AT, añade muchas
teclas más, se ponen ledes y soporta el Scan Code set 3, aunque usa por defecto
el 2. De este tipo hay dos versiones, la americana con 101 teclas y la europea con
102.
El teclado está dividido en cuatro bloques:

1. Bloque de funciones: va desde la tecla F1 a F12 , en tres bloques de


cuatro: de F1 a F4 , de F5 a F8 y de F9 a F12 . Funcionan de acuerdo
al programa o aplicación que esté abierto. Por ejemplo, en muchos
programas al presionar la tecla F1 se accede a la ayuda asociada a ese
programa. Además, a la izquierda de este bloque suele estar la tecla Esc .

1. Bloque alfanumérico: está ubicado en la parte inferior del bloque de


funciones, contiene los números arábigos del 1 al 0 y el alfabeto
organizado como en una máquina de escribir, además de algunas teclas
especiales, como por ejemplo Tab ↹ (tabulador), ⇪ Bloq Mayús (Bloq
Mayús), ⇧ Mayús (tecla Shift), Ctrl , ⊞ Win (tecla
Windows), Alt , espaciador , Alt Gr , ↵ Entrar (tecla Enter, entrar o Intro).
2. Bloque especial: está ubicado a la derecha del bloque alfanumérico,
contiene algunas teclas especiales como Impr Pant o PetSis , Bloq
Despl , Pausa , Insert , Supr , Inicio , Fin , RePág , AvPág , y las flechas
direccionales que permiten mover el punto de inserción en las cuatro
direcciones ( ↑ , ↓ , ← , → ).

54
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

3. Bloque numérico: está ubicado a la derecha del bloque especial, se activa


al presionar la tecla Bloq Num , contiene los números arábigos organizados
como en una calculadora con el fin de facilitar la digitación de cifras.
Además, contiene el punto o coma decimal . , y los signos de las cuatro
operaciones básicas: suma + , resta - , multiplicación * y división / ;
también contiene una tecla de Intro o ↵ Entrar .

3.1.2. Tipos de teclado

3.1.2.1. Según su forma física

3.1.2.1.1. Teclado ergonómico

Figura 26. Teclado ajustable de Apple

Diseñados para dar una mayor comodidad para el usuario, ayudándole a tener
una posición más relajada de los brazos.
3.1.2.1.2. Teclado multimedia

Añade teclas especiales que llaman a algunos programas en el computador, a


modo de acceso directo, como pueden ser el programa de correo electrónico, la
calculadora, el reproductor multimedia, etc.
3.1.2.1.3. Teclado flexible

Estos teclados son de plástico suave o silicona que se puede doblar sobre sí
mismo. Durante su uso, estos teclados pueden adaptarse a superficies irregulares,

55
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

y son más resistentes a los líquidos que los teclados estándar. Estos también
pueden ser conectados a dispositivos portátiles y teléfonos inteligentes. Algunos
modelos pueden ser completamente sumergidos en agua, por lo que hospitales y
laboratorios los usan, ya que pueden ser desinfectados.1
3.1.2.1.4. Teclado en pantalla

Teclado en pantalla disponible en un teléfono Android.

Figura 27. Teclado en pantalla

Hoy en día existen también los teclados en pantalla, también llamados teclados
virtuales, que son (como su mismo nombre indica) teclados representados en la
pantalla, que se utilizan con el ratón o con un dispositivo especial (podría ser
un joystick). Estos teclados los utilizan personas con discapacidades que les
impiden utilizar adecuadamente un teclado físico. En el mercado hay una gran
variedad de teclados.
3.1.2.1.5. Teclados de proyección

Existen teclados de proyección, de igual tamaño que un teclado estándar pero que
utilizan láser. Se pueden conectar por USB, Bluetooth Wi-Fi.
3.1.2.2. Según la tecnología de sus teclas

Teclados de cúpula de goma.


Teclados de membrana.
Teclados capacitivos.

56
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

Teclados de contacto metálico


Teclados mecánicos.
3.1.2.3. Según el puerto de conexión

Pueden ser:

 Teclados con USB: Aunque los teclados USB comienzan a verse al poco de
definirse el estándar USB, es con la aparición de la Apple iMac, que trae tanto
teclado como mouse USB de serie cuando se estandariza el soporte de este
tipo de teclado. Además tiene la ventaja de hacerlo independiente del
hardware al que se conecta.

Gráfico 6. Teclado QWERTY de 104 teclas, Estados Unidos

Gráfico 7. Teclado QWERTY de 105 teclas, Hispanoamérica

57
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

Gráfico 8. Teclado QWERTY de 105 teclas, España

La disposición del teclado es la distribución de las teclas del teclado de una


computadora, una máquina de escribir u otro dispositivo similar. Existen distintas
disposiciones de teclado, para que se puedan utilizar en diversos lenguajes.
La disposición de las teclas se remonta a las primeras máquinas de escribir, que
eran completamente mecánicas. Al pulsar una tecla, se movía un pequeño martillo
mecánico, que golpeaba el papel a través de una cinta impregnada en tinta.

3.1.2.4. QWERTY

Figura 28. Teclado QWERTY

El tipo estándar de teclado inglés se conoce como QWERTY. Denominación de


los teclados de computadora y máquinas de escribir que se utilizan habitualmente
en los países occidentales, con alfabeto latino. Las siglas corresponden a las
primeras letras del teclado, comenzando por la izquierda en la fila superior.
 Variantes de QWERTY
QWERTY se pensó para el inglés de EE. UU.. Con el tiempo se han creado
múltiples variantes para adaptarlo a las particularidades de otros idiomas y/o
países.
Para el idioma español las principales variantes son:

58
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

 El teclado QWERTY para España.


 Su versión latinoamericana.
Ambas se basaban en cambios en la disposición según las teclas más
frecuentemente usadas en cada idioma. A los teclados en versión para español
además de la Ñ, se les añadieron los caracteres de acento agudo ( ´ ), grave ( ` ), la
diéresis( ¨ ) y circunflejo ( ^ ), y exclusivamente en la distribución española la ce
cedilla ( Ç ) aunque estos caracteres son de mayor uso en francés, portugués o
en catalán.

3.1.2.5. Distribuciones alternativas

La distribución de teclado QWERTY ha recibido muchas críticas por su escasa


ergonomía. Se han sugerido distintas alternativas como: Colemak, Carpalx,
o Workman, indicando ventajas tales como mayores velocidades de tecleado o
disminución de esfuerzo. La alternativa más famosa es el Teclado Simplificado
Dvorak.
Las computadoras modernas permiten utilizar las distribuciones de teclado de
varios idiomas distintos en un teclado que físicamente corresponde a un solo
idioma. En sistemas operativos Windows, como también en Mac OS o
en Linux por ejemplo, pueden instalarse distribuciones adicionales desde el Panel
de Control o de Herramientas de configuración o Personalización.

3.1.2.6. Distribuciones personalizadas

Existen programas como Microsoft Keyboard Layout Creator2 y KbdEdit,3 que


hacen muy fácil la tarea de crear nuevas distribuciones, ya para satisfacer las
necesidades particulares de un usuario, ya para resolver problemas que afectan a
todo un grupo lingüístico. Estas distribuciones pueden ser modificaciones a otras
previamente existentes (como el teclado latinoamericano extendido 4 o el gaélico5 ),
o pueden ser enteramente nuevas (como la distribución para el Alfabeto Fonético
Internacional, o el pan ibérico ).

3.1.3. Teclas inertes

Algunas lenguas incluyen caracteres adicionales al teclado inglés, como los


caracteres acentuados. Teclear los caracteres acentuados resulta más sencillo
usando las teclas inertes. Cuando se utiliza una de estas teclas, si se presiona la
tecla correspondiente al acento deseado nada ocurre en la pantalla, por lo que, a
continuación se debe presionar la tecla del carácter a acentuar. Esta combinación

59
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

de teclas requiere que se teclee una secuencia aceptable. Por ejemplo, si se


presiona la tecla inerte del acento (ej. ´ ) seguido de la letra A , obtendrá una "a"
acentuada (á). Sin embargo, si se presiona una tecla inerte y a continuación la
tecla T , no aparecerá nada en la pantalla o aparecerán los dos caracteres por
separado (´t), a menos que la fuente particular para su idioma incluya la "t"
acentuada.
Para teclear una marca de acento diacrítico, simplemente se presiona la tecla
inerte del acento, seguida de la barra de espacio.

3.2. MONITOR DE COMPUTADORA

Figura 29. Monitor LCD

El monitor de computadora (en Hispanoamérica) o pantalla del


ordenador (en España) es el principal dispositivo de salida (interfaz), que
muestra datos o información al usuario.
También puede considerarse un periférico de Entrada/Salida si el monitor
tiene pantalla táctil o multitáctil.

3.2.1. Historia

Las primeras computadoras se comunicaban con el operador mediante unas


pequeñas luces, que se encendían o se apagaban al acceder a determinadas
posiciones de memoria o ejecutar ciertas instrucciones.
Años más tarde aparecieron ordenadores que funcionaban con tarjeta perforada,
que permitían introducir programas en el computador. Durante los años 60, la

60
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

forma más común de interactuar con un computador era mediante un teletipo, que
se conectaba directamente a este e imprimía todos los datos de una sesión
informática. Fue la forma más barata de visualizar los resultados hasta la década
de los 70, cuando empezaron a aparecer los primeros monitores de CRT (tubo de
rayos catódicos). Seguían el estándar MDA (Monochrome Display Adapter), y eran
monitores monocromáticos (de un solo color) de IBM.
Estaban expresamente diseñados para modo texto y soportaban subrayado,
negrita, cursiva, normal e invisibilidad para textos. Poco después y en el mismo
año salieron los monitores CGA (Color Graphics Adapter –gráficos adaptados a
color–) fueron comercializados en 1981 al desarrollarse la primera tarjeta gráfica a
partir del estándar CGA de IBM. Al comercializarse a la vez que los MDA los
usuarios de PC optaban por comprar el monitor monocromático por su costo.
Tres años más tarde surgió el monitor EGA (Enhanced Graphics Adapter -
adaptador de gráficos mejorados) estándar desarrollado por IBM para la
visualización de gráficos, este monitor aportaba más colores (16) y una mayor
resolución. En 1987 surgió el estándar VGA (Video Graphics Array - Matriz gráfica
de video) fue un estándar muy acogido y dos años más tarde se mejoró y rediseñó
para solucionar ciertos problemas que surgieron, desarrollando así SVGA (Súper),
que también aumentaba colores y resoluciones, para este nuevo estándar se
desarrollaron tarjetas gráficas de fabricantes hasta el día de hoy conocidos
como S3 Graphics, NVIDIA o ATI entre otros.

Figura 30. Monitor Philips

Con este último estándar surgieron los monitores CRT que hasta no hace mucho
seguían estando en la mayoría de hogares donde había un ordenador.

3.2.2. Parámetros de una pantalla

61
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

 Píxel: unidad mínima representable en un monitor. Los monitores pueden


presentar píxeles muertos o atascados. Se notan porque aparecen en blanco.
Más común en portátiles.
 Tamaño de punto o (dot pitch): el tamaño de punto es el espacio entre dos
fósforos coloreados de un píxel. Es un parámetro que mide la nitidez de la
imagen, midiendo la distancia entre dos puntos del mismo color; resulta
fundamental a grandes resoluciones. Los tamaños de punto más pequeños
producen imágenes más uniformes. Un monitor de 14 pulgadas suele tener un
tamaño de punto de 0,28 mm o menos. En ocasiones es diferente en vertical
que en horizontal, o se trata de un valor medio, dependiendo de la disposición
particular de los puntos de color en la pantalla, así como del tipo de rejilla
empleada para dirigir los haces de electrones. En LCD y en CRT de apertura
de rejilla, es la distancia en horizontal, mientras que en los CRT de máscara de
sombra, se mide casi en diagonal. Lo mínimo exigible en este momento es que
sea de 0,28mm. Para CAD o en general para diseño, lo ideal sería de 0,25 mm
o menor. 0,21 en máscara de sombra es el equivalente a 0.24 en apertura de
rejilla.
 Área útil: el tamaño de la pantalla no coincide con el área real que se utiliza
para representar los datos.
 Ángulo de visión: es el máximo ángulo con el que puede verse el monitor sin
que se degrade demasiado la imagen. Se mide en grados.
 Luminancia: es la medida de luminosidad, medida en Candela.
 Tiempo de respuesta: también conocido como latencia. Es el tiempo que le
cuesta a un píxel pasar de activo (blanco) a inactivo (negro) y después a activo
de nuevo.
 Contraste: es la proporción de brillo entre un píxel negro a un píxel blanco que
el monitor es capaz de reproducir. Algo así como cuantos tonos de brillo tiene
el monitor.
 Coeficiente de contraste de imagen: se refiere a lo vivo que resultan los
colores por la proporción de brillo empleada. A mayor coeficiente, mayor es la
intensidad de los colores (30000:1 mostraría un colorido menos vivo que
50000:1).
 Consumo: cantidad de energía consumida por el monitor, se mide en Vatio.
 Ancho de banda: frecuencia máxima que es capaz de soportar el monitor.
 Hz o frecuencia de refresco vertical: son 2 valores entre los cuales el monitor
es capaz de mostrar imágenes estables en la pantalla.

62
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

 Hz o frecuencia de refresco horizontal: similar al anterior pero en sentido


horizontal, para dibujar cada una de las líneas de la pantalla.
 Blindaje: un monitor puede o no estar blindando ante interferencias eléctricas
externas y ser más o menos sensible a ellas, por lo que en caso de estar
blindando, o semi-blindado por la parte trasera llevara cubriendo prácticamente
la totalidad del tubo una plancha metálica en contacto con tierra o masa.
 Tipo de monitor: en los CRT pueden existir 2 tipos, de apertura de rejilla o de
máscara de sombra.
 Líneas de tensión: son unas líneas horizontales, que tienen los monitores de
apertura de rejilla para mantener las líneas que permiten mostrar los colores
perfectamente alineadas; en 19 pulgadas lo habitual suelen ser 2, aunque
también los hay con 3 líneas, algunos monitores pequeños incluso tienen una
sola.

3.2.3. Tamaño de la pantalla y proporción

Figura 31. Medida de la pantalla para TFT

El tamaño de la pantalla es la distancia en diagonal de un vértice de la pantalla al


opuesto, que puede ser distinto del área visible cuando hablamos de CRT ,
mientras que la proporción o relación de aspecto es una medida de proporción
entre el ancho y el alto de la pantalla, así por ejemplo una proporción de 4:3 (
Cuatro tercios ) significa que por cada 4 píxeles de ancho tenemos 3 de alto, una
resolución de 800x600 tiene una relación de aspecto 4:3, sin embargo estamos
hablando de la proporción del monitor.
Estas dos medidas describen el tamaño de lo que se muestra por la pantalla,
históricamente hasta no hace mucho tiempo y al igual que las televisiones los
monitores de ordenador tenían un proporción de 4:3. Posteriormente se

63
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

desarrollaron estándares para pantallas de aspecto panorámico 16:9 (a veces


también de 16:10 o 15:9) que hasta entonces solo veíamos en el cine.

3.2.4. Medición del tamaño de la pantalla

Las medidas de tamaño de pantalla son diferentes cuando se habla de


monitores CRT y monitores LCD.

 Para monitores CRT la medida en pulgadas de la pantalla toma como


referencia los extremos del monitor teniendo en cuenta el borde, mientras que
el área visible es más pequeña.
 Para monitores LCD la medida de tamaño de pantalla se hace de punta a
punta de la pantalla sin contar los bordes.
Los tamaños comunes de pantalla suelen ser de 15, 17, 19, 21 pulgadas. La
correspondencia entre las pulgadas de CRT y LCD en cuanto a zona visible se
refiere, suele ser de una escala inferior para los CRT, es decir una pantalla LCD
de 17 pulgadas equivale en zona visible a una pantalla de 19 pulgadas del monitor
CRT (aproximadamente).

3.2.5. Resolución máxima

Gráfico 9. Resolución máxima

Es el número máximo de píxeles que pueden ser mostrados en cada dimensión,


es representada en filas por columnas. Está relacionada con el tamaño de la
pantalla y la proporción.

64
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

Los monitores LCD solo tienen una resolución nativa posible, por lo que si se
hacen trabajar a una resolución distinta, se escalará a la resolución nativa, lo que
suele producir artefactos en la imagen.
Las resoluciones más usadas son.

Tabla 9. Resoluciones más usadas

% de usuarios
Estándar Nombre Ancho Alto
de Steam

XGA eXtended Graphics Array 1024 768 15,37%

Widescreen eXtended Graphics


WXGA 1280 800 7,35%
Array

SXGA Super eXtended Graphics Array 1280 1024 21,01%

Widescreen Super eXtended


WSXGA 1440 900 11,12%
Graphics Array

Widescreen Super eXtended


WSXGA+ 1680 1050 18,48%
Graphics Array Plus

3.2.6. Colores

Ecuación 4. Limites exponenciales

𝟏
𝐥𝐢𝐦 (𝟏 + 𝑿)𝑿
𝑿→∞

65
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

Gráfico 10. Geometría de los pixeles

Cada píxel de la pantalla tiene interiormente 3 subpíxeles, uno rojo, uno verde y
otro azul; dependiendo del brillo de cada uno de los subpíxeles, el píxel adquiere
un color u otro de forma semejante a la composición de colores RGB.
La manera de organizar los subpíxeles de un monitor varía entre los dispositivos.
Se suelen organizar en líneas verticales, aunque algunos CRT los organizan en
puntos formando triángulos. Para mejorar la sensación de movimiento, es mejor
organizarlos en diagonal o en triángulos. El conocimiento del tipo de organización
de píxeles, puede ser utilizado para mejorar la visualización de imágenes de
mapas usando rende rizado de subpíxeles.

La mayor parte de los monitores tienen una profundidad 8 bits por color (24 bits en
total), es decir, pueden representar aproximadamente 16,8 millones de colores
distintos.

3.2.3. CLASIFICACIÓN DE MONITORES

En Hardware, un monitor es un periférico que muestra la información de forma


gráfica de una computadora. Los monitores se conectan a la computadora a través
de una tarjeta gráfica (o adaptador o tarjeta de video).

 Un monitor puede clasificarse, según la tecnología empleada para formar las


imágenes en:
 Tubo de rayos catódicos o CRT (Cathode Ray Tube)
 Pantalla de cristal líquido o LCD (Liquid Crystal Display)
 Pantalla de plasma o PDP (Plasma Display Panel)

66
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

 TFT LCD (Thin Film Transistor: transistor de películas finas)


 Pantalla LED (Light Emitting Diode: diodo emisor de luz)
 OLED (Organic Light-Emitting Diode: diodo orgánico de emisión de luz)
 AMOLED (Active Matrix OLED: OLED de matriz activa)
 Super AMOLED (Super Active Matrix Organic Light-Emitting Diode:
Súper AMOLED)

 En tanto, según el estándar, un monitor puede clasificarse en: Monitor


numérico, MDA, CGA, EGA, analógico, VGA, SVGA, entre otros.

 En cuanto a los colores que usan los monitores pueden ser:


 Monitor monocromático
 Monitor poli cromático.

 En cuanto a si es solamente un dispositivo de entrada (E) o Periférico de


Entrada/Salida (E/S):
 Monitor no táctil: E
 Pantalla táctil (touch screen): E/S
 Multitáctil (multitouch): E/S

 Existen algunos conceptos cuantificables relacionados a los monitores y sirven


para medir su calidad, estos son: píxel, paso (dot pitch), resolución, tasa de
refresco, dimensión del tubo, tamaño de punto, área útil.
Básicamente, los monitores pueden clasificarse en dos tipos generales:

1. Monitor de “pantalla curva” o CRT


2. Monitor de pantalla plana: LCD, TFT, LED, PDP
En Software, un monitor de un programa es toda aquella herramienta que viene
con un programa que sirve para controlar alguna situación. Por ejemplo el monitor
de un antivirus, encargado de monitorear continuamente la computadora para
verificar que no se ejecute ningún virus.

3.2.4. Ventajas y desventajas

3.2.4.1. Monitores LCD

 Ventajas:
 El grosor es inferior por lo que pueden utilizarse en portátiles.

67
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

 Cada punto se encarga de dejar o no pasar la luz.


 La geometría es siempre perfecta, lo determina el tamaño del píxel

 Desventajas:
 Solamente pueden reproducir fielmente la resolución nativa, con el resto,
se ve un borde negro, o se ve difuminado por no poder reproducir medios
píxeles.
 Por sí solas no producen luz, necesitan una fuente externa.
 Si no se mira dentro del cono de visibilidad adecuado, desvirtúan los
colores.
 El ADC y el CDA de un monitor LCD para reproducir colores limita la
cantidad de colores representable.
 El ADC (Convertidor Analógico a Digital) en la entrada de vídeo
analógica (cantidad de colores a representar).
 El DAC (Convertidor Digital a Analógico) dentro de cada píxel (cantidad
de posibles colores representables).
 En los CRT es la tarjeta gráfica la encargada de realizar esto, el monitor
no influye en la cantidad de colores representables, salvo en los
primeros modelos de monitores que tenían entradas digitales TTL en
lugar de entradas analógicas.

3.2.4.2. Monitores CRT Ventajas:

 Distintas resoluciones se pueden ajustar al monitor.


 En los monitores de apertura de rejilla no hay moiré vertical.
 Permiten reproducir una mayor variedad cromática
 Desventajas:
 Ocupan más espacio (cuanto más fondo, mejor geometría).
 Los modelos antiguos tienen la pantalla curva.
 Los campos eléctricos afectan al monitor (la imagen vibra).
 Para disfrutar de una buena imagen necesitan ajustes por parte del
usuario.
 En los monitores de apertura de rejilla se pueden apreciar (bajo fondo
blanco) varias líneas de tensión muy finas que cruzan la pantalla
horizontalmente.

3.2.4.3. Datos técnicos, comparativos entre sí

68
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

 En los CRT, la frecuencia de refresco es la que tiene la tarjeta gráfica, en los


LCD no siempre es la que se le manda
 Los CRT pueden tener modo progresivo y entrelazado, los LCD tienen otro
método de representación.
 En los CRT se pierde aproximadamente 1 pulgada del tamaño, que se utiliza
para la sujeción del tubo, en los LCD es prácticamente lo que ocupa el LCD
por si mismo.
 El peso de un LCD se ve incrementado por la peana para darle estabilidad,
pero el monitor en sí no pesa prácticamente nada.
 Los LCD suelen necesitar de un transformador externo al monitor, en los CRT
toda la electrónica va dentro del monitor.
 En los LCD el consumo es menor, y la tensión de utilización por parte de la
electrónica también.
 En los CRT pueden aparecer problemas de "quemar" el fósforo de la pantalla,
esto ocurre al dejar una imagen fija durante mucho tiempo, como la palabra
"insert coin" en las recreativas, en los LCD los problemas pueden ser de
píxeles muertos (siempre encendido o, siempre apagado), aparte de otros
daños.
 El parpadeo de ambos tipos de pantallas es debido a la baja frecuencia de
refresco, unido a la persistencia del brillo del fósforo, y a la memoria de cada
píxel en un CRT y LCD respectivamente, que mitigan este defecto.
 Con alta velocidad de refresco y un tiempo grande de persistencia del
fósforo, no hay parpadeo, pero si la persistencia del fósforo es baja y el
refresco es bajo, se produce este problema. Sin embargo esto puede
causar un efecto de desvanecimiento o visión borrosa, al permanecer
todavía encendido un punto, en el siguiente refresco de la pantalla.

3.3. RATÓN O MAUSE

El ratón o mouse (en inglés, pronunciado [maʊs]) es un dispositivo


apuntador utilizado para facilitar el manejo de un entorno gráfico en una
computadora. Generalmente está fabricado en plástico, y se utiliza con una de
las manos. Detecta su movimiento relativo en dos dimensiones por la superficie
plana en la que se apoya, reflejándose habitualmente a través de un
puntero, cursor o flecha en el monitor. El ratón se puede conectar de forma
alámbrica (puertos PS/2 y USB) o inalámbricamente (comunicación
inalámbrica o wireless, por medio de un adaptador USB se conecta a la

69
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

computadora y esta manda la señal al ratón, también pueden ser por medio de
conectividad Bluetootho o infrarrojo).
Es un periférico de entrada imprescindible en una computadora de escritorio para
la mayoría de las personas, y pese a la aparición de otras tecnologías con una
función similar, como la pantalla táctil, la práctica demuestra todavía su vida útil.
No obstante, en el futuro podría ser posible mover el cursor o el puntero con
los ojos o basarse en el reconocimiento de voz.

Figura 32. MOUSE

3.3.1. EL NOMBRE

Cuando se patentó recibió el nombre "X-Y Position Indicator for a Display


System" (Indicador de Posición X-Y para un Sistema con Pantalla); el nombre
“ratón” (mouse, en inglés) se lo dio el equipo de la Universidad Stanford durante
su desarrollo, ya que su forma y su “cola” (cable) recuerdan a un ratón.
En América predomina el término inglés mouse (plural mouses y no mice),
mientras que en España se utiliza prácticamente de manera exclusiva elcalco
semántico «ratón».1 2 El Diccionario de la lengua española únicamente acepta la
entrada “ratón” para este dispositivo informático, e indica que es un
españolismo.3 El Diccionario de americanismos de la ASALE, publicado en 2010,
consigna el anglicismo mouse.4 El diccionario panhispánico de
dudas remite mouse a ratón, e indica que al existir el calco semántico es
innecesario usar el anglicismo.

3.3.2. HISTORIA

Fue diseñado por Douglas Engelbart y Bill English durante los años 1960 en
el Stanford Research Institute, un laboratorio de la Universidad Stanford, en
pleno Silicon Valley en California. Más tarde fue mejorado en los laboratorios
de Palo Alto de la compañía Xerox (conocidos como Xerox PARC). Con su

70
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

aparición, logró también dar el paso definitivo a la aparición de los primeros


entornos o interfaces gráficas de usuario.

3.3.2.1. Primera maqueta

Figura 33. Copia del primer prototipo

La primera maqueta fue construida artesanalmente en madera, y se patentó con el


nombre X-Y Position Indicador for a Display System.
A pesar de su aspecto arcaico, el funcionamiento básico sigue siendo igual hoy en
día. Tenía un aspecto de adoquín, encajaba bien en la mano y disponía de dos
ruedas metálicas que, al desplazarse por la superficie, movían dos ejes: uno para
controlar el movimiento vertical del cursor en pantalla y el otro para el sentido
horizontal, contando además con un botón rojo en su parte superior.
Por primera vez se lograba un intermediario directo entre una persona y la
computadora, era algo que, a diferencia del teclado, cualquiera podía aprender a
manejar sin apenas conocimientos previos. En esa época además la informática
todavía estaba en una etapa primitiva: ejecutar un simple cálculo necesitaba de
instrucciones escritas en un lenguaje de programación.

3.3.2.2. Presentación

En San Francisco, el 9 de diciembre de 1968 se presentó públicamente el primer


modelo oficial.6 Durante hora y media además se mostró una
presentación multimedia de un sistema informático interconectado en red de
computadoras y también por primera vez se daba a conocer un entorno gráfico
con el sistema de ventanas que luego adoptarían la práctica totalidad de sistemas
operativos modernos. En ese momento además, se exhibió hipermedia, un
mecanismo para navegar por Internet y usar videoconferencia.

71
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

Engelbart realmente se adelantó varias décadas a un futuro posible, ya desde


1951 había empezado a desarrollar las posibilidades de conectar computadoras
en redes, cuando apenas existían varias docenas y bastante primitivas, entre otras
ideas como el propio correo electrónico, del que sería su primer usuario. Pensó
que la informática podía usarse para mucho más que cálculos matemáticos, y el
ratón formaba parte de este ambicioso proyecto, que pretendía aumentar la
inteligencia colectiva fundando por el Augmentation Research Center (Centro para
la Investigación del Incremento) en la Universidad de Stanford.
Y pese a las esperanzas iniciales de Engelbart de que fuera la punta
del iceberg para un desarrollo de distintos componentes informáticos similares,
una década después era algo único, revolucionario, que todavía no había cobrado
popularidad. De hecho varios de los conceptos e ideas surgidos aún hoy en día
han conseguido éxito. Engelbart tampoco logró una gran fortuna, la patente
adjudicaba todos los derechos a la Universidad de Stanford y él recibió
un cheque de unos 10 000 dólares.

3.3.2.3. Caso de éxito

Figura 34. Ratones de APPLE

El 27 de abril de 1981 se lanzaba al mercado la primera computadora con ratón


incluido: Xerox Star 8010, fundamental para la nueva y potente interfaz gráfica que
dependía de este periférico, que fue a su vez, otra revolución. Posteriormente,
surgieron otras computadoras que también incluyeron el periférico, algunas de
ellas fueron la Commodore Amiga, el Atari ST, y la Apple Lisa. Dos años después,
Microsoft, que había tenido acceso al ratón de Xerox en sus etapas de prototipo,
dio a conocer su propio diseño disponible además con las primeras versiones del
procesador de texto Microsoft Word. Tenía dos botones en color verde y podía
adquirirse por 195 dólares, pero su precio elevado para entonces y el no disponer

72
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

de un sistema operativo que realmente lo aprovechara, hizo que pasara


completamente inadvertido.
Este periférico se popularizó con la aparición de la computadora Macintosh,
en 1984. Su diseño y creación corrió a cargo de nuevo de la Universidad de
Stanford, cuando Apple en 1980 pidió a un grupo de jóvenes un periférico seguro,
barato y que se pudiera producir en serie. Partían de un ratón basado en
tecnología de Xerox de un coste alrededor de los 400 dólares, con un
funcionamiento regular y casi imposible de limpiar. Steve Jobs, quería un precio
entre los 10 y los 35 dólares.
Si bien existen muchas variaciones posteriores, algunas innovaciones recientes y
con éxito han sido el uso de una rueda de desplazamiento central o lateral, el
sensor de movimiento óptico por diodo led, ambas introducidas por Microsoft en
1996 y 1999 respectivamente, o el sensor basado en un láser no visible del
fabricante Logitech.
En la actualidad, la marca europea Logitech es una de las mayores empresas
dedicadas a la fabricación y desarrollo de estos periféricos, más de la mitad de su
producción la comercializa a través de terceras empresas como IBM, Hewlett-
Packard, Compaq o Apple.

3.3.3. ACTUALIDAD

El ratón se compone habitualmente de al menos dos botones y otros dispositivos


opcionales como una «rueda», más otros botones secundarios o de distintas
tecnologías como sensores del movimiento que pueden mejorar o hacer más
cómodo su uso.
Se suele presentar para manejarse con ambas manos por igual, pero algunos
fabricantes también ofrecen modelos únicamente para usuarios diestros o zurdos.
Los sistemas operativos pueden también facilitar su manejo a todo tipo de
personas, generalmente invirtiendo la función de los botones.
En los primeros años de la informática, el teclado era el dispositivo más popular
para la entrada de datos o control de la computadora. La aparición y éxito del
ratón, además de la posterior evolución de los sistemas operativos, logró facilitar y
mejorar la comodidad, aunque no relegó el papel primordial del teclado. Aún hoy
en día, pueden compartir algunas funciones, dejando al usuario que escoja la
opción más conveniente a sus gustos o tareas.

73
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

Con el avance de las nuevas computadoras, el ratón se ha convertido en un


dispositivo esencial a la hora de jugar, destacando no solo para seleccionar y
accionar objetos en pantalla en juegos estratégicos, sino para cambiar la dirección
de la cámara o la dirección de un personaje en juegos de primera o tercera
persona. Comúnmente en la mayoría de estos juegos los botones del ratón se
utilizan para accionar las armas u objetos seleccionados y la rueda del ratón sirve
para recorrer los objetos o armas de nuestro inventario.
Con la llegada de las tabletas y el sistema operativo Windows 8, orientado hacia lo
táctiles, si es un éxito seguramente el ratón en su forma clásica se vea seriamente
amenazado y le siga toda una revolución en estos accesorios.

3.3.4. FUNCIONAMIENTO

Figura 35. Funcionamiento

El funcionamiento de un ratón depende de la tecnología utilizada para capturar el


movimiento al ser desplazado sobre una superficie plana o alfombrilla especial
para ratón, y transmitir esta información para mover una flecha o puntero sobre el
monitor de la computadora. Dependiendo de las tecnologías empleadas en el
sensor del movimiento o por su mecanismo y del método de comunicación entre
éste y la computadora, existen multitud de tipos o familias.
El objetivo principal o más habitual es seleccionar distintas opciones que pueden
aparecer en la pantalla, con uno o dos clics, mediante pulsaciones en algún botón
o botones. Para su manejo, el usuario debe acostumbrarse tanto a desplazar el
puntero como a pulsar con uno o dos clics para la mayoría de las tareas.

3.3.5. EL CONTROLADOR

74
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

Es, desde hace un tiempo, común en cualquier equipo informático, de tal manera
que todos los sistemas operativos modernos suelen incluir de serie un
software controlador (driver) básico para que éste pueda funcionar de manera
inmediata y correcta. No obstante, es normal encontrar software propio del
fabricante que puede añadir una serie de funciones opcionales, o propiamente los
controladores si son necesarios.

3.3.6. UNO, DOS O TRES BOTONES

Figura 36. Modelo inalámbrico con 4 botones

Figura 37. Modelo inalámbrico con ruedas y botones

Figura 38. Modelo Mighty Mouse de Apple

Hasta mediados de 2005, la empresa Apple, para sus sistemas Mac apostaba por
un ratón de un solo botón, pensado para facilitar y simplificar al usuario las
distintas tareas posibles. Actualmente ha lanzado un modelo con dos
botones simulados virtuales con sensores debajo de la cubierta plástica, dos
botones laterales programables, y una bola para mover el puntero, llamado Mighty
Mouse.

75
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

En Windows, lo más habitual es el uso de dos o tres botones principales. En


sistemas Unix como GNU/Linux que utilicen entorno gráfico (X Window), era
habitual disponer de tres botones (para facilitar la operación de copiar y pegar
datos directamente). En la actualidad la funcionalidad del tercer botón queda en
muchos casos integrada en la rueda central de tal manera que además de poder
girarse, puede pulsarse.
Hoy en día cualquier sistema operativo moderno puede hacer uso de hasta estos
tres botones distintos e incluso reconocer más botones extra a los que el software
reconoce, y puede añadir distintas funciones concretas, como por ejemplo asignar
a un cuarto y quinto botón la operación de copiar y pegar texto.
La sofisticación ha llegado a extremos en algunos casos, por ejemplo el MX610 de
Logitech, lanzado en septiembre de 2005. Preparado anatómicamente para
diestros, dispone de hasta 10 botones.

3.3.7. TIPOS O MODELOS

Figura 39. Parte inferior de un ratón con cable y sensor óptico

Figura 40. Un modelo trackball de Logitech

Figura 41. Ratón o mouse multitáctil

76
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

Figura 42. Ratón inalámbrico Arc de Microssoff

3.3.7.1. Por mecanismo

Mecánico

Figura 43. MECÁNICO

Tienen una gran esfera de plástico o goma, de varias capas, en su parte inferior
para mover dos ruedas que generan pulsos en respuesta al movimiento de éste
sobre la superficie. Una variante es el modelo de Honeywell que utiliza dos ruedas
inclinadas 90 grados entre ellas en vez de una esfera.
La circuitería interna cuenta los pulsos generados por la rueda y envía la
información a la computadora, que mediante software procesa e interpreta.

Óptico
Es una variante que carece de la bola de goma que evita el frecuente problema de
la acumulación de suciedad en el eje de transmisión, y por sus características
ópticas es menos propenso a sufrir un inconveniente similar. Se considera uno de
los más modernos y prácticos actualmente. Puede ofrecer un límite de 800 ppp,
como cantidad de puntos distintos que puede reconocer en 2,54 centímetros (una
pulgada); a menor cifra peor actuará el sensor de movimientos. Su funcionamiento
se basa en un sensor óptico que fotografía la superficie sobre la que se encuentra
y detectando las variaciones entre sucesivas fotografías, se determina si el ratón
ha cambiado su posición. En superficies pulidas o sobre determinados materiales
brillantes, el ratón óptico causa movimiento nervioso sobre la pantalla, por eso se
hace necesario el uso de una alfombrilla de ratón o superficie que, para este tipo,

77
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

no debe ser brillante y mejor si carece de grabados multicolores que puedan


"confundir" la información luminosa devuelta.
Láser
Este tipo es más sensible y preciso, haciéndolo aconsejable especialmente para
los diseñadores gráficos y los jugadores de videojuegos. También detecta el
movimiento deslizándose sobre una superficie horizontal, pero el haz de luz de
tecnología óptica se sustituye por un láser con resoluciones a partir de 2000 ppp,
lo que se traduce en un aumento significativo de la precisión y sensibilidad.
Trackball

En concepto de trackball es una idea que parte del hecho: se debe mover el
puntero, no el dispositivo, por lo que se adapta para presentar una bola, de tal
forma que cuando se coloque la mano encima se pueda mover mediante el dedo
pulgar, sin necesidad de desplazar nada más ni toda la mano como antes. De esta
manera se reduce el esfuerzo y la necesidad de espacio, además de evitarse un
posible dolor deantebrazo por el movimiento de éste. A algunas personas, sin
embargo, no les termina de resultar realmente cómodo. Este tipo ha sido muy útil
por ejemplo en la informatización de la navegación marítima.
Mouse touch
Es también conocido como "Magic Mouse" está diseñado con una carcasa
superior de una pieza. Su superficie es lisa es decir sin botón, ya que gracias al
área multitáctil, todo el ratón hace de botón y lo puedan usar tanto los diestros
como los zurdos.

3.3.7.2. Por conexión

Cableado
Es el formato más popular y más económico, sin embargo existen multitud de
características añadidas que pueden elevar su precio, por ejemplo si hacen uso de
tecnologíaláser como sensor de movimiento. Actualmente se distribuyen con dos
tipos de conectores posibles, tipo USB y PS/2; antiguamente también era popular
usar el puerto serie.
Es el preferido por los videojugadores experimentados, ya que la velocidad de
transmisión de datos por cable entre el ratón y la computadora es óptima en
juegos que requieren de una gran precisión.
Inalámbrico

78
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

En este caso el dispositivo carece de un cable que lo comunique con la


computadora, en su lugar utiliza algún tipo de tecnología inalámbrica. Para ello
requiere un receptor que reciba la señal inalámbrica que produce,
mediante baterías, el ratón. El receptor normalmente se conecta a la computadora
a través de un puerto USB o PS/2. Según la tecnología inalámbrica usada pueden
distinguirse varias posibilidades:
Radio Frecuencia
La Radio Frecuencia (RF) es el tipo más común y económico de este tipo de
tecnologías. Funciona enviando una señal a una frecuencia de 2.4 GHz, popular
en la telefonía móvil o celular, la misma que los estándares IEEE 802.11b y IEEE
802.11g. Es popular, entre otras cosas, por sus pocos errores de desconexión o
interferencias con otros equipos inalámbricos, además de disponer de un alcance
suficiente: hasta unos 10 metros.
Infrarrojo
La tecnología infrarroja (IR) utiliza una señal de onda infrarroja como medio de
trasmisión de datos, popular también entre los controles o mandos remotos
de televisiones,equipos de música o en telefonía celular. A diferencia de la
anterior, tiene un alcance medio inferior a los 3 metros, y tanto el emisor como el
receptor deben estar en una misma línea visual de contacto directo ininterrumpido
para que la señal se reciba correctamente. Por ello su éxito ha sido menor,
llegando incluso a desaparecer del mercado.
Bluetooth
La tecnología Bluetooth (BT) es la más reciente como transmisión inalámbrica
(estándar IEEE 802.15.1), que cuenta con cierto éxito en otros dispositivos. Su
alcance es de unos 10 metros o 30 pies (que corresponde a la Clase 2 del
estándar Bluetooth).

3.3.8. PROBLEMAS FRECUENTES

 Puntero que se “atasca” en la pantalla: es el fallo más frecuente, se origina


a causa de la acumulación de suciedad, frenando o dificultando el movimiento
del puntero en la pantalla. Puede retirarse fácilmente la bola de goma por la
parte inferior y así acceder a los ejes de plástico para su limpieza, usando un
pequeño pincel de cerdas duras. Para retardar la aparición de suciedad en el
interior del ratón es recomendable usar una alfombrilla de ratón. Este problema

79
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

es inexistente con tecnología óptica, ya que no requiere partes mecánicas para


detectar el desplazamiento. Es uno de los principales motivos de su éxito.

 Pérdida de sensibilidad o contacto de los botones: se manifiesta cuando se


pulsa una vez un botón y la computadora lo recibe como ninguno, dos o más
clics consecutivos, de manera errónea. Esto se debe al desgaste de las piezas
de plástico que forman parte de los botones del ratón, que ya no golpean o
pulsan correctamente sobre el pulsador electrónico. En caso de uso frecuente,
el desgaste es normal, y suele darse a una cifra inferior al milímetro por cada 5
años de vida útil.

 Dolores musculares causados por el uso del ratón: si el uso de la


computadora es frecuente, es importante usar un modelo lo
más ergonómico posible, ya que puede acarrear problemas físicos en
la muñeca o brazo del usuario (síndrome del túnel carpiano). Esto es por la
posición totalmente plana que adopta la mano, que puede resultar forzada, o
puede también producirse un fuerte desgaste del huesecillo que sobresale de
la muñeca, hasta el punto de considerarse una enfermedad profesional.
Existen alfombrillas de ratón especialmente diseñadas para mejorar la
comodidad al usar el ratón.

3.4. Disco Duro

Figura 44. Disco Duro

80
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

Es un dispositivo de almacenamiento no volátil, es decir, la información guardada


en él no se borra, queda de forma permanente. En el disco duro tenemos
guardados nuestros documentos, música, películas, sistema operativo, software
entre otros. Tal y como sale de fábrica, el disco duro no puede ser utilizado por un
sistema operativo. Antes tenemos que definir en él un formato de bajo nivel, una o
más particiones y luego hemos de darles un formato que pueda ser entendido por
nuestro sistema. Cada disco duro tiene diferente capacidad como lo pueden ser de
80, 160, 250, 500 GB respectivamente, hasta otros de mayor capacidad como 1
TB por ejemplo.

3.5. UNIDAD DE CD/DVD

Figura 45. Unidad de CD/DVD

Es la unidad encargada de leer un disco óptico, es decir de lectura mediante un


rayo láser, no recargable utilizado para el almacenamiento de información en
sistemas informáticos. Dependiendo del tipo de lector, este puede soportar no
solo la lectura de Cd`s si no también en formato DVD con lo cual ya tendríamos la
opción de ver películas por ejemplo.

3.6. QUEMADOR CD/DVD

Un quemador de CD o DVD nos permite la lectura de discos ópticos, pero a su vez


también nos permite grabar información en ellos siempre y cuando el disco sea

81
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

virgen o re-grabable, utilizando un programa para grabación de discos o el mismo


asistente del sistema operativo.

3.7. FUENTE DE PODER

Figura 46. Fuente de poder

La fuente de poder (Power supply en ingés) es como su nombre indica, la


encargada de suministrar energía eléctrica a los distintos elementos que
componen nuestro equipo.

La electricidad que llega hasta nuestros hogares u oficinas es del tipo conocido
como “corriente alterna” y es suministrada habitualmente con una tensión (o
voltaje) que suele ser de alrededor de 115 o 230 voltios. Este tipo de corriente no
es en absoluto adecuada para alimentar equipos electrónicos, y más
concretamente dispositivos informáticos, en dónde es necesario trabajar con
“corriente continua” y voltajes mucho más bajos. Basicamente la fuente de poder
regula el voltaje que entra por uno menor y que puedan soportar las demas partes.

Aun contamos con algunos componentes más que nuestra computadora puede
tener, un ejemplo son las tarjetas gráficas, de sonido, de red etc. Las cuales nos
permiten escuchar música, ver videos, jugar, conectarse a una red entre otras
cosas. Para ello hacemos uso de drivers del mismo hardware, estos drivers o

82
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

controladores son aplicaciones que nos permiten instalar este tipo de dispositivos
y hacer uso de ellos.

3.8. TARJETAS DE SONIDO, VIDEO Y RED

Figura 47. Tarjeta de sonido

La función básica de la tarjeta de sonido es dar salida al audio a través de una


aplicación llamada driver o controlador. Sin esta aplicación, será imposible que el
sistema operativo pueda interactuar adecuadamente con el hardware
instalado. La tarjeta de sonido se instala en la tarjeta madre en las ranuras de
expansión.
La tarjeta de video se encarga de obtener los datos desde el microprocesador,
los interpreta y los transforma en información que sea capaz de procesar un
monitor, es decir, se encarga de mandarnos la imagen de salida de todo lo que se
está procesando. También se instala en una ranura de expansión en la tarjeta
madre y se le puede llegar a conocer como adaptador de pantalla o acelerador de
gráficos.
La tarjeta de red tiene como objetivo principal que la computadora donde esté
presente pueda conectarse a una red y así compartir sus recursos
(información) como por ejemplo conectarse a internet o a una
impresora. Actualmente encontramos tarjetas de red que utilizan conectores RJ45
y cable Ethernet, pero también encontramos tarjetas de red inalámbricas (sin
necesidad de cables). Actualmente este tipo de tarjetas llegan a alcanza una
velocidad de 1000 Mbps / 10000 Mbps.

83
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

TÍTULO 4: PERIFÉRICOS MIXTOS

4.1. DISPOSITIVOS DE SALIDA DE INFORMACIÓN (S)

Son aquellos que permiten emitir o dar salida a la información resultante de las
operaciones realizadas por la CPU (procesamiento).
Los dispositivos de salida aportan el medio fundamental para exteriorizar y
comunicar la información y datos procesados; ya sea al usuario o bien a otra
fuente externa, local o remota.
Los dispositivos más comunes de este grupo son los monitores clásicos (no de
pantalla táctil), las impresoras, y los altavoces.
Entre los periféricos de salida puede considerarse como imprescindible para el
funcionamiento del sistema, al monitor. Otros, aunque accesorios, son sumamente
necesarios para un usuario que opere un computador moderno.

4.2. DISPOSITIVOS MIXTOS (E/S DE INFORMACIÓN)

Figura 48. Piezas de un Disco Duro

Son aquellos dispositivos que pueden operar de ambas formas: tanto de entrada
como de salida.11 Típicamente, se puede mencionar como periféricos mixtos o
de entrada/salida a: discos rígidos, disquetes, unidades de cinta magnética, lecto-
grabadoras de CD/DVD, discos ZIP, etc. También entran en este rango, con sutil
diferencia, otras unidades, tales como: Tarjetas de Memoria flash o unidad de
estado sólido, tarjetas de red, módems, tarjetas de captura/salida de vídeo, etc.10

84
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

Si bien se puede clasificar al pendrive (lápiz de memoria), memoria


flash o memoria USB o unidades de estado sólido en la categoría dememorias,
normalmente se los utiliza como dispositivos de almacenamiento masivo; siendo
todos de categoría Entrada/Salida.15
Los dispositivos de almacenamiento masivo10 también son conocidos como
"Memorias Secundarias o Auxiliares". Entre ellos, sin duda, el disco duro ocupa un
lugar especial, ya que es el de mayor importancia en la actualidad, en el que se
aloja el sistema, todas las aplicaciones, utilitarios, etc. que utiliza el usuario;
además de tener la suficiente capacidad para albergar información y datos en
grandes volúmenes por tiempo prácticamente indefinido. Los servidores Web,
de correo electrónico y de redes con bases de datos, utilizan discos rígidos de
grandes capacidades y con una tecnología que les permite trabajar a altas
velocidades como SCSI incluyendo también, normalmente, capacidad de
redundancia de datos RAID; incluso utilizan tecnologías híbridas: disco rígido y
unidad de estado sólido, lo que incrementa notablemente su eficiencia. Las
interfaces actuales más usadas en discos duros son: IDE, SATA, SCSI y SAS; y
en las unidades de estado sólido son SATA yPCI-Express ya que necesitan
grandes anchos de banda.
La pantalla táctil (no el monitor clásico) es un dispositivo que se considera mixto,
ya que además de mostrar información y datos (salida) puede actuar como un
dispositivo de entrada, reemplazando, por ejemplo, a algunas funciones del ratón
o del teclado.

4.3. Hardware gráfico

Figura 49. GPU

85
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

El hardware gráfico lo constituyen básicamente las tarjetas gráficas. Dichos


componentes disponen de su propia memoria y unidad de procesamiento, esta
última llamada unidad de procesamiento gráfico (o GPU, siglas en inglés
de Graphics Processing Unit). El objetivo básico de la GPU es realizar los cálculos
asociados a operaciones gráficas, fundamentalmente encoma flotante,16 liberando
así al procesador principal (CPU) de esa costosa tarea (en tiempo) para que éste
pueda efectuar otras funciones en forma más eficiente. Antes de esas tarjetas de
vídeo con aceleradores por hardware, era el procesador principal el encargado de
construir la imagen mientras la sección de vídeo (sea tarjeta o de la placa base)
era simplemente un traductor de las señales binarias a las señales requeridas por
el monitor; y buena parte de la memoria principal (RAM) de la computadora
también era utilizada para estos fines.
Dentro de ésta categoría no se deben omitir los sistemas gráficos integrados
(IGP), presentes mayoritariamente en equipos portátiles o en equipos
prefabricados (OEM), los cuales generalmente, a diferencia de las tarjetas
gráficas, no disponen de una memoria dedicada, utilizando para su función la
memoria principal del sistema. La tendencia en los últimos años es integrar los
sistemas gráficos dentro del propio procesador central. Los procesadores gráficos
integrados (IGP) generalmente son de un rendimiento y consumo notablemente
más bajo que las GPU de las tarjetas gráficas dedicadas, no obstante, son más
que suficiente para cubrir las necesidades de la mayoría de los usuarios de un PC.
Actualmente se están empezando a utilizar las tarjetas gráficas con propósitos no
exclusivamente gráficos, ya que en potencia de cálculo la GPU es superior, más
rápida y eficiente que el procesador para operaciones en coma flotante, por ello se
está tratando de aprovecharla para propósitos generales, al concepto,
relativamente reciente, se le denomina GPGPU (General-Purpose Computing on
Graphics Processing Units).
La Ley de Moore establece que cada 18 a 24 meses la cantidad de transistores
que puede contener un circuito integrado se logra duplicar; en el caso de los GPU
esta tendencia es bastante más notable, duplicando, o aún más, lo indicado en la
ley de Moore.17
Desde la década de 1990, la evolución en el procesamiento gráfico ha tenido un
crecimiento vertiginoso; las actuales animaciones por computadoras y videojuegos
eran impensables veinte años atrás.

86
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

Ecuación 5. ÁREA DEL CÍRCULO

𝐴 = 𝜋𝑟 2

Ecuación 6. Matriz identidad

1 0 0
0 1 0
0 0 1

Ecuación 7. Baskara

−𝑏 ± √𝑏2 − 4𝑎𝑐
𝑥=
2𝑎

87
UNIVERSIDAD TECNOLÓGICA DE LOS ANDES
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA CIVÍL

REFERENCIAS

1. «MasterMagazine». Portal de tecnología.


2. «hardware.». Diccionario de la lengua española.
3. «Computation of Customized Symbolic robot models on peripheral
array processors». IEEE Xplore.
4. «Robotics and Automation Society». The IEEE Robotics and
Automation Society.
5. «Origen de las generaciones». Universidad de Columbia.
6. «Diario de Ciencia y Tecnología».
7. «¿ Cuáles son las Generaciones de la Computadora ?». Consultado
el 2009.
8. Jörg Hoppes. «My PDP-11/44» (en inglés). Consultado el 2009.

88

S-ar putea să vă placă și