Sunteți pe pagina 1din 17

Profesor:

Ing.
Integrantes:
Ral Zamorano

Arquitectura Paralela
El procesamiento paralelo ofrece una gran ventaja en cuanto a costos. Sin
embargo, su principal beneficio, la escalabilidad (crecer hacia arquitecturas de
mayor capacidad), puede ser difcil de alcanzar an.
Esto se debe a que conforme se aaden procesadores, las disputas por los
recursos compartidos se intensifican.

Algunos diseos diferentes de procesamiento paralelo enfrentan este problema
fundamental:

Multiprocesamiento simtrico
Procesamiento masivamente paralelo
Procesamiento paralelo escalable
Arquitectura Paralela
1. MULTIPROCESAMIENTO SIMETRICO (SMP)
El Multiprocesamiento simtrico (symmetric multiprocessing ) tiene un diseo
simple pero aun as efectivo. En SMP, mltiples procesadores comparten la
memoria RAM y el bus del sistema.

Debido a que SMP comparte globalmente la memoria RAM, tiene solamente un
espacio de memoria, una memoria globalmente compartida tambin facilita la
sincronizacin de los datos.
Arquitectura Paralela
Sin embargo, esta memoria global contribuye el problema ms grande de SMP:
Conforme se aaden procesadores, el trfico en el bus de memoria se satura. Al
aadir memoria cach a cada procesador se puede reducir algo del trfico en el
bus, pero el bus generalmente se convierte en un cuello de botella al manejarse
alrededor de ocho o ms procesadores.
SMP es considerada una tecnologa no escalable.

Arquitectura Paralela
2. PROCESAMIENTO MASIVAMENTE PARALELO (MPP)
El Procesamiento masivamente paralelo (Massively parallel processing ) en este
modelo para evitar los cuellos de botella en el bus de memoria, no utiliza
memoria compartida. En su lugar, distribuye la memoria RAM entre los
procesadores de modo que se asemeja a una red.
nicamente cuando un procesador no dispone de la memoria RAM suficiente, utiliza la memoria
RAM sobrante de los otros procesadores. MPP es una tecnologa escalable.
Arquitectura Paralela
La parte negativa de MPP es que la programacin se vuelve difcil, debido a que
la memoria se rompe en pequeos espacios separados, correr (y escribir) una
aplicacin que requiere una gran cantidad de RAM (comparada con la memoria
local), puede ser difcil. La sincronizacin de datos entre tareas ampliamente
distribuidas tambin se vuelve difcil.

Arquitectura Paralela
3. PROCESAMIENTO PARALELO ESCALABLE (SPP)
El Procesamiento paralelo escalable (Scalable parallel processing), es un hbrido
de SMP y MPP, que utiliza una memoria jerrquica de dos niveles, la primera
capa de memoria consiste de un nodo que es esencialmente un sistema SMP y
se construyen sistemas SPP grandes interconectando dos o ms nodos a travs
de la segunda capa de memoria.
Procesamiento Paralelo

Un proceso paralelo es aquel que se realiza al mismo tiempo que otro, siendo
ejecutados ambos de modo simultneo.

El proceso paralelo slo es posible si disponemos de varias unidades de proceso,
generalmente ncleos o procesadores. Esto se debe a que los procesadores son
secuenciales, esto es, ejecutan las rdenes una por una, y por tanto no pueden
ejecutar dos a la vez.

El procesamiento paralelo es un trmino que se usa para denotar un grupo de
tcnicas significativas que se usan para proporcionar tareas simultneas de
procesamiento de datos con el fin de aumentar la velocidad computacional de un
sistema de computadoras.

En lugar de procesar cada instruccin en forma secuencial como es una
computadora convencional, un sistema de procesamiento paralelo puede
ejecutar procesamiento concurrente de datos para conseguir un menor tiempo
de ejecucin.
Procesamiento Paralelo
El sistema puede tener 2 o mas ALUS y ser capaz de ejecutar dos o mas
instrucciones al mismo tiempo. Adems, el sistema puede tener dos o ms
procesadores operando en forma concurrente.

EL propsito del procesamiento paralelo es acelerar las posibilidades de
procesamiento de la computadora y aumentar su eficiencia, esto es, la capacidad
de procesamiento que puede lograrse durante un cierto intervalo de tiempo.

Hay 2 formas bsicas de obtener partes independientes en un programa
paralelo:

descomposicin funcional
descomposicin de datos, que describiremos a continuacin.


Procesamiento Paralelo
Descomposicin de datos. Consiste en dividir el proceso entre todos los
procesadores disponibles y que cada uno resuelva su fragmento sin
preocuparse de qu hacen los dems, al final, los resultados parciales se
recolectan y se suman convenientemente. Con n procesadores es posible
resolver el problema n veces ms rpido que haciendo uso de uno slo
consiguiendo una aceleracin lineal con el nmero de procesadores.

Descomposicin funcional. Un modelo computacional se basa por empezar,
en que una aplicacin consiste en varias tareas, cada tarea es responsable de
una parte de la carga de procesamiento de la aplicacin en general y a su vez,
cada tarea realiza una operacin independiente de las otras tareas. Los
algoritmos de cada tarea son diferentes, este modelo se denomina
descomposicin funcional y se puede aprovechar las caractersticas
particulares de cada tipo de tarea para ejecutarlas en la maquina que sea
mas conveniente para tal efecto.


Procesamiento Paralelo
VENTAJAS

El procesamiento en paralelo ejecuta procesos en donde cada procesador se encarga de uno u otro y aceleran
de esta forma el clculo.


DESVENTAJAS


Costes de inicio: en una operacin paralela compuesta por miles de proceso, el tiempo de inicio puede llegar
ser mucho mayor que le tiempo real de procesamiento, lo que influye negativamente en la ganancia de
velocidad.

Interferencia: como lo procesos que se ejecutan en un proceso paralelo acceden con frecuencia a recursos
compartidos, pueden sufrir un cierto retardo como consecuencia de la interferencia de cada nuevo proceso en
la competencia, este fenmeno afecta tanto la ganancia de velocidad como la ampliabilidad.

Sesgo: normalmente es difcil dividir una tarea en partes exactamente iguales, entonces se dice que la forma
de distribucin de los tamaos es sesgada.

El procesamiento paralelo implica una serie de dificultades a nivel programacin de software, es difcil lograr
una optimizacin en el aprovechamiento de los recursos de todas las CPU con el que se est trabajando sin
que se formen cuello de botella.

Clasificacin Procesamiento Paralelo
Existen varias maneras de clasificar el procesamiento paralelo, puede
considerarse a partir de la organizacin interna de los procesadores, desde la
estructura de interconexin entre los procesadores o desde del flujo de
informacin a travs del sistema.

La taxonoma de Flynn propuesta por Michael J. Flynn en 1972, es una
clasificacin de arquitecturas de computadoras.

Esta clasificacin considera la organizacin de un sistema de computadora
mediante el nmero de instrucciones concurrentes y en los flujos de datos
disponibles en la arquitectura:

Flujo de instrucciones concurrentes.
Flujo de datos.



Clasificacin Procesamiento Paralelo
La operacin normal de una computadora es recuperar instrucciones de la
memoria y ejecutarlas en el procesador.

La secuencia de instrucciones ledas de la memoria constituye un flujo de
instrucciones.

Las operaciones ejecutadas sobre los datos en el procesador constituyen un flujo
de datos.

El procesamiento paralelo puede ocurrir en el flujo de instrucciones, en el flujo
de datos o en ambos.


Clasificacin Procesamiento Paralelo
La operacin normal de una computadora es recuperar instrucciones de la
memoria y ejecutarlas en el procesador.

Las cuatro clasificaciones definidas por Flynn se basan en el nmero de
instrucciones concurrentes (control) y en los flujos de datos disponibles en la
arquitectura:


Taxonoma de Flynn

Una
instruccin
Mltiples
instrucciones
Un dato SISD MISD
Mltiples datos SIMD MIMD
Clasificacin Procesamiento Paralelo
SISD [Single Instruction Single Data] . Representa la organizacin de una
computadora nica que contiene una unidad de control, una unidad de
procesador y una unidad de memoria. Las instrucciones se ejecutan en forma
secuencial y el sistema puede tener o no tener posibilidades de
procesamiento paralelo. Ejemplos de arquitecturas SISD son las mquinas
con uni-procesador o monoprocesador tradicionales como el PC o los
antiguos mainframe.

MISD [Multiple Instruction Single Data]. Poco comn debido al hecho de que
la efectividad de los mltiples flujos de instrucciones suele precisar de
mltiples flujos de datos. Sin embargo, este tipo se usa en situaciones de
paralelismo redundante, como por ejemplo en navegacin area, donde se
necesitan varios sistemas de respaldo en caso de que uno falle. Es sola de
intereses terico porque no se ha construido ningn sistema prctico
utilizando esta organizacin.


Clasificacin Procesamiento Paralelo
SIMD [Single Instruction Multiple Data]. Representa una organizacin que
influye muchas unidades de procesamiento bajo la supervisin de una
unidad de control comn. Todos los procesadores reciben la misma
instruccin de la unidad de control, pero operan sobre diferentes conjuntos
de datos. La unidad de memoria compartida debe de contener mdulos
mltiples para que pueda comunicarse con todos los procesadores
simultneamente.


MIMD [Multiple Instruction Multiple Data] se refiere a un sistema de
computadoras capaz de procesar mltiples programas al mismo tiempo la
mayora de los sistemas de multi computadoras y multiprocesador pueden
clasificarse en esta categora.


Clasificacin Procesamiento Paralelo
Esas cuatro arquitecturas son mostradas visualmente a continuacin en donde
cada "PU" (processing unit) es una unidad de procesamiento:

S-ar putea să vă placă și