Apunts Paralelisme CAP Tema 3 PART1pdf ESPECTROSC PDF

Title Apunts Paralelisme CAP Tema 3 PART1pdf ESPECTROSC
Course Espectroscòpia
Institution Universitat Autònoma de Barcelona
Pages 5
File Size 322.8 KB
File Type PDF
Total Downloads 118
Total Views 148

Summary

Apunts Paralelisme CAP Tema 3 PART1pdf ESPECTROSC...


Description

Apunts Paral·lelisme, TEMA 3 Prestacions Algorismes →Determina el nombre d'operacions executades Llenguatge de programació, compilador, arquitectura →Determina el nombre d'instruccions màquina executades per operació Procesador I sistema de memòria → Determina la velocitat d'execució de les instruccions Sistema I/O (Entrada/sortida, inclou Sistema Operatiu) → Determina la velocitat d'execució d'operacions d'E/S Temps → Podem trovar 3 tipus de temps: - Temps d'execució -Temps de resposta (orientat a l’usuari) -Productivitat (Throughput) (orientat al sistema) Capacitat → Dades i Programes Cost → Fabricació i Disseny Limitacions → Ens pot fer més lent el programa, baixar el rendiment, la eficiència: -Consum d'Energia i Calor generat -Mida física, restriccions elèctriques -Fiabilitat!!

Definició: Performance = 1/Execution Time “X is n time faster than Y” (SpeedUp) Exemple: temps que triga l'execució d'un programa -10s en A, 15s en B -Execution TimeB / Execution TimeA = 15s / 10s = 1.5 - A és 1.5 vegades més ràpid que B

Elapsed time → Total response time, including all aspects ➔

Processing, I/O, OS overhead, idle time →Determines system performance

CPU time → Time spent processing a given job →Discounts I/O time, other jobs shares → Comprises user CPU time and system CPU time

Com “executar” aplicacions ràpidament? Existeixen 3 maneres per millorar les prestacions: • Treballar “dur”: Fer servir hardware ràpid: reduir el temps per instrucció (clock cycle).

Cada cop és més car incrementar GHz (freqüència de rellotge) (a pesar d'economia de producció en massa) i apareix un gran problema, la Calor!!. Per aquest problema, tenim una solución: Augmentar el paralelisme!, pero no es fácil. • Treballar “intel·ligentment”: Optimitzar els algorismes. Factor motivador per utilitzar processament paral·lel: Afegir velocitat en càlculs complexes. Cada neurona individualment contesta més lentament. Milions de neurones contesten més ràpidament a una sol·licitud. • Demanar auxili: Múltiples computadors per resoldre el problema: augmentar el nombre d’instruccions executades por cicle de rellotge.

Classificació i definicions: Classificació de Flynn: Una instrucció, una dada (SISD) → • Flux únic d'instruccions i flux únic de dades - Computador seqüencial que no explota el paral·lelisme • Concepte d’arquitectura sèrie de Von Neumann - només s’executa una única instrucció a l’hora. • Totes les màquines SISD tenen un comptador de programa que assegura l’execució en sèrie del programa. • Pràcticament cap computador purament SISD es fabrica en l’actualitat ja que els processadors moderns incorporen algun grau de paral·lelisme Múltiples instruccions, una dada (MISD) → • Flux múltiple d’instruccions i flux únic de dades: vàries instruccions actuen sobre la mateixa dada. • Classe de màquines que requeririen que unitats de processament diferents rebin instruccions diferents operant sobre la mateixa dada • Classe de màquines on un mateix flux de dades flueix a través de nombroses unitats de processament. Exemples: processadors sistòlics (pipelinizats) • Las arquitectures segmentades realitzen el processament vectorial a través d’una sèrie d’etapes, cada una executant una funció específica i produint un resultat intermedi. Una instrucció, múltiples dades (SIMD) → • Flux d’instrucció simple i flux de dades múltiple - una única instrucció és aplicada sobre diferents dades a l’hora. • Vàries unitats de processament diferents són invocades per una única unitat de control. • Suporten processament vectorial (matricial) assignant cada element del vector a una unitat funcional diferent

Múltiples instruccions, múltiples dades (MIMD) → • Flux d’instruccions múltiple i flux de dades múltiple. • Vàries unitats de processament poden realitzar múltiples instruccions sobre dades diferents de forma simultània. • Són les més complexes, però són també les que potencialment ofereixen una major flexibilitat en la execució paral·lela. • No només tenim múltiples processadors operand simultàniament, sinó que a més tenim múltiples programes executant-se a l’hora.

→Podem trovar també una extensió de la classificació: Un programa, múltiples dades (SPMD) → múltiples processadors autònoms que treballen simultàniament sobre el mateix conjunt de instruccions (en punts independents) sobre dades diferents. Múltiples programes, múltiples dades (MPMD) → múltiples processadors autònoms que treballen simultàniament sobre al menys dos programes independents. Un node serà el host o administrador, que corre un programa que gestiona les dades de la resta de nodes executant un segon programa.

Altres Classificacions: UMA (Uniform Memory Access) → ➔ La memòria física està uniformement compartida per tots els processadors ➔ Cada processador pot tenir la seva cache privada, y els perifèrics també es comparteixen d’alguna manera. ➔ Se’ls sol anomenar sistemes fortament acoblats donat l’alt grau de compartició dels recursos. ➔ La xarxa d’interconnexió es veu en aquest cas com un bus comú.

Té 2 propies subclassificacions de tipus de multiprocessadors: ➔ Multiprocessador simètric → tots els processadors tenen el mateix accés a tots els perifèrics. En aquest cas, tots els processadors tenen la mateixa capacitat d'executar programes, com ara el nucli, o el servei de rutines d'entrada/sortida. --➔ Multiprocessador asimètric → només un subconjunt dels processadors poden executar programes. El(s) que pot o poden fer-ho és anomenat mestre. La resta s’anomenen adjunts.

NUMA (Non Uniform Memory Access) → ➔ Un sistema de memòria compartida, on el temps d'accés varia segons la posició de memòria accedida. ➔ Tota la memòria és lògicament compartida però físicament distribuïda a cada processador. ➔ Avantatge - accés de memòria local és més ràpid que en l'UMA encara que un accés de memòria no local és més lent. ➔ S’intenta que la memòria utilitzada pel procés que executa cada processador sigui en la memòria local del processador....


Similar Free PDFs