Struttura Elaboratore Elettronico PDF

Title Struttura Elaboratore Elettronico
Author Michele Scalera
Course Informatica 
Institution Università degli Studi di Bari Aldo Moro
Pages 26
File Size 716.3 KB
File Type PDF
Total Downloads 40
Total Views 143

Summary

L'hardware del computer...


Description

Informatica Gestionale Capitolo 1: Struttura dell'Elaboratore Elettronico 1.1 Un po’ di storia........................................................................................................................................ 2 1.2 Analogico e digitale ................................................................................................................................ 6 1.3 Hardware e Software ............................................................................................................................... 7 1.4 Schema generale di un sistema di elaborazione dati ............................................................................... 8 1.5 Il processore ............................................................................................................................................ 9 1.5.1 Le unità del processore..................................................................................................................... 9 1.5.2 I coprocessori ................................................................................................................................. 11 1.6 Le memorie dell'elaboratore elettronico................................................................................................ 12 1.6.1 La memoria centrale ....................................................................................................................... 13 1.6.2 La memoria cache .......................................................................................................................... 15 1.6.3 La memoria buffer .......................................................................................................................... 16 1.6.4 Le memorie di massa...................................................................................................................... 16 1.6.5 I dischi magnetici ........................................................................................................................... 17 1.6.6 I dischi allo stato solido.................................................................................................................. 17 1.6.7 I sistemi di archiviazione rimovibili............................................................................................... 18 1.7 Il BIOS .................................................................................................................................................. 20 1.8 Input/Output .......................................................................................................................................... 20 1.8.1 Le unità di input ............................................................................................................................. 21 1.8.2 Le unità di output ........................................................................................................................... 24 Bibliografia.................................................................................................................................................. 26

Quest'opera è stata rilasciata con licenza Creative Commons Attribuzione 3.0 Italia.

Per leggere una copia della licenza visita il sito web http://creativecommons.org/licenses/by/3.0/it/ o spedisci una lettera a Creative Commons, PO Box 1866, Mountain View, CA 94042, USA.

Informatica Gestionale

Capitolo 1: Struttura dell’Elaboratore Elettronico

2

1.1 Un po’ di storia Il primo strumento di calcolo utilizzato dall’uomo, dopo le dita della mano, fu l’abaco dotato di palline che potevano essere spostate su un supporto rigido da un lato all’altro. Durante il XVII e il XVIII secolo ci furono vari tentativi di migliorare gli strumenti di calcolo. Lo scozzese J. Nepier inventò uno strumento meccanico di calcolo simile all’ormai dimenticato regolo calcolatore, H. Briggs inventò le tavole logaritmiche e infine Leibnitz e Newton svilupparono, senza mai confrontarsi tra loro, gli elementi fondamentali del calcolo numerico. La prima macchina calcolatrice apparve nel 1820 come risultato degli esperimenti di molti studiosi. Questo meccanismo, capace di eseguire in breve tempo e con bassa possibilità di errore calcoli numerici, era basato su un sistema di ingranaggio con ruote dentate a dieci denti. La macchina funzionava ancora su base decimale, non era ancora emersa la necessità di usare un altro alfabeto. Nel 1830 l’inglese Charles Babbage progettò, senza mai riuscire a realizzarlo, “The analytical engine” (il motore analitico), un meccanismo di calcolo automatico che richiedeva l’intervento umano solo per la fase di inserimento dei dati necessari per risolvere il problema. Questo progetto, presentato nel 1855 alla Paris Exhibition, è stato la base teorica per la realizzazione dei moderni computer. Nel 1930 comparve il primo computer analogico 1 progettato dall’americano Vannevar Bush, che fu utilizzato durante la Seconda guerra mondiale per i sistemi di puntamento delle armi. Il primo computer digitale, il MARK I, fu costruito nel 1944 da Howard Aiken ed altri tecnici dell’IBM. Fu il primo ad essere in grado di risolvere un gran numero di problemi matematici ed a grande velocità. Nel 1946 J. Eckert e J. Mauchly dell’Università della Pennsylvania progettarono il primo computer a valvole chiamato ENIAC. Si può affermare che con il 1946 si entrava nella prima generazione dei calcolatori elettronici. Il già citato ENIAC era un elaboratore elettronico completamente digitale con diciottomila tubi a vuoto termoionici (valvole) e con una velocità di calcolo di duecento operazioni al secondo.

Analogico e digitale sono termini che si incontrano frequentemente quando si parla di tecnologie vecchie e nuove. Nel senso comune, ad analogico è associato il significato di vecchio o passato o di bassa qualità; a digitale, invece, quello di nuovo o innovativo o di qualità. In realtà, come si vedrà nel paragrafo 1.2 i termini digitale ed analogico esprimono tutt’altri concetti.

1

Michele Scalera

Informatica Gestionale - edizione 2020

Informatica Gestionale

Capitolo 1: Struttura dell’Elaboratore Elettronico

3

Figura 1.1: l’ENIAC, il primo computer general purpose

Nello stesso 1946 l’informatica visse un momento fondamentale della sua breve storia: in quell’anno, infatti, J. Von Newmann sviluppò il modello teorico di computer su cui ancora oggi, si basa la scienza dei calcolatori. Tale modello si basa sul concetto, rivoluzionario per l’epoca, che dati e programmi dovessero condividere la stessa memoria e prevede l’utilizzo di tre elementi fondamentali in un calcolatore elettronico: 1. la memoria, in cui sono, appunto, contenuti i dati e le istruzioni del programma in fase di esecuzione; 2. il processore, l’esecutore delle istruzioni contenute in memoria; 3. il bus di comunicazione, un canale mediante il quale dati e istruzioni viaggiano dalla memoria al processore e viceversa.

Figura 1.2: Tubo a vuoto termoionico (valvola)2

John von Neumann3 introduce il principio del programma memorizzato, cioè il concetto di registrare nell’unità di memoria dell’elaboratore sia la sequenza delle istruzioni (il programma) sia i dati da elaborare. Un esempio di computer della prima generazione, capace di eseguire migliaia di operazioni al secondo, fu l’UNIVAC I. La seconda generazione di computer che può essere datata negli anni dal 1955 al 1965, è caratterizzata dalla sostituzione delle valvole con i transistor; componenti dieci volte più potenti delle valvole, più piccoli, più veloci e più affidabili.

2 3

[Fonte Wikipedia https://it.wikipedia.org/wiki/Valvola_termoionica] https://it.wikipedia.org/wiki/John_von_Neumann

Michele Scalera

Informatica Gestionale - edizione 2020

Informatica Gestionale

Capitolo 1: Struttura dell’Elaboratore Elettronico

4

Figura 1.3: Un transistor

Con i transistor si ottenne, inoltre, una notevole diminuzione degli ingombri. In questi stessi anni furono prodotte le memorie centrali a nuclei magnetici e i primi circuiti stampati per una costruzione modulare del computer. Sono gli anni che portano allo sviluppo dei primi linguaggi di programmazione (Fortran, Algol, Cobol, Basic) e dei primi sistemi operativi. La terza generazione di computer apparve nel 1965. È una generazione caratterizzata dall’uso di circuiti integrati contenenti fino a cento componenti per circuito. I circuiti integrati sono costituiti da sottili piastrine di silicio su cui sono realizzati, in miniatura, i circuiti elettronici necessari. Su di essi i vari transistor sono formati tutti nello stesso istante grazie a un unico processo fisico-chimico. Gli elaboratori elettronici di terza generazione potevano eseguire un milione di operazioni al secondo, cioè mille volte la potenza dei primi calcolatori. Rispetto a quelli della seconda generazione occupavano meno spazio ed erano anche più veloci e affidabili. In quegli anni nasce il PASCAL, un linguaggio di programmazione diventato fondamentale per molti programmatori dell’epoca, e i sistemi operativi iniziano utilizzare la memoria virtuale, la modalità denominata time-sharing ed a gestire i multiprocessori. Nei computer di quarta generazione (1971-2000), grazie alla tecnologia VLSI (Very Large Scale Integration), milioni di transistor sono integrati in un unico chip contenente diversi strati di circuiti integrati incapsulati in plastica, ceramica o metallo e capaci di eseguire diversi milioni di operazioni al secondo. Si suole far risalire al 1971 la nascita di questa generazione perché nello stesso anno fu immesso nel mercato il primo microprocessore contenuto su piastrina. Il progetto fu della Intel Corporation per merito dell’ingegnere Edward Hoff.

Figura 1.4: I circuiti integrati

Michele Scalera

Informatica Gestionale - edizione 2020

Informatica Gestionale

Capitolo 1: Struttura dell’Elaboratore Elettronico

5

Il computer diventa un oggetto domestico, in quegli anni sono progettate le prime reti locali e nasce così l’informatica distribuita. Nascono i primi sistemi per la gestione delle basi di dati e la microelettronica entra anche in settori quali la telefonia, gli elettrodomestici. Si arriva così all’epoca attuale dei computer di quinta generazione; i progettisti di tali sistemi sono particolarmente attenti al loro consumo energetico e al loro peso visto l’enorme richiesta di tecnologia mobile. Caratteristica essenziale di questa generazione è l’intelligenza artificiale grazie alla quale il computer ha capacità di autoapprendimento. Come si può notare la scienza dei computer ha avuto negli ultimi decenni un enorme sviluppo. Per fare un paragone con altri settori, si potrebbe dire che se la tecnologia dei trasporti avesse avuto lo stesso tipo di sviluppo, oggi sarebbe possibile attraversare l’oceano atlantico in pochi secondi. Fino alla fine degli anni ‘70 del ventesimo secolo, per computer si intendeva sostanzialmente una macchina enorme e costosissima (mainframe) alla quale si collegavano, attraverso una rete di comunicazione, più terminali; ogni addetto aveva un proprio terminale tramite il quale lavorava sfruttando l’unità centrale del grosso elaboratore elettronico, che era quindi “condivisa” tra tutti gli operatori. Verso il 1980 furono immessi sul mercato i primi elaboratori elettronici “personali” (chiamati così poiché soddisfano le necessità di un singolo utente). Ma è dal 1981 che si è avuta la vera e propria diffusione di tali computer, in quell’anno nasce quello che per l’IBM doveva essere il Personal Computer. Da allora il termine personal computer perde il suo significato più generale e diventa, in pratica, il nome di tutti i computer compatibili con il PC-IBM; ma la stessa IBM, probabilmente, non aveva compreso quale futuro attendeva il PC. L’azienda, fino a quel momento, si era occupata solo di grossi computer (i mainframe), campo in cui aveva guadagnato la fama di azienda creatrice di macchine affidabili, potenti e assistite dai migliori tecnici in circolazione. Il brand IBM rappresentava una garanzia per chi avesse voluto comprare un computer e fu questa la sola ragione del successo del personal computer. Quest’ultimo fu pensato, però, come oggetto marginale del business aziendale, al punto che l’IBM assemblò un computer usando componenti facilmente reperibili; niente grafica, niente colore, niente suono (a parte i penosissimi bip-bip emessi dal suo altoparlante). Tutto come per dire: “Facciamolo, ma presto perché la concorrenza è già sul mercato”. Per quanto riguarda il sistema operativo, componente fondamentale di un sistema informatico, si ragionò allo stesso modo; invece di sviluppare tale software internamente la scelta cadde sul prodotto di una giovane software house (la Microsoft), che su tale scelta fondò la sua fortuna: il Microsoft Disk Operating System (MS-DOS). Naturalmente i primi personal computer furono accolti con molto scetticismo; chi già usava gli elaboratori elettronici, i minielaboratori e i mainframe, pensò che i personal computer non potessero essere affidabili; con il tempo, chiaramente... e per fortuna, si sono ricreduti. Il computer, pur rimanendo chiuso nell’ambito professionale, vide crescere a dismisura il proprio successo. Ciò tuttavia non avvenne in assenza di difficoltà; fino a quel momento il computer era usato solo da persone altamente specializzate, che in genere era reduce da intensi e specialistici corsi di formazione. I personal computer fecero avvicinare al mondo dell’informatica molti impiegati pubblici e privati, che spesso nutrivano nei confronti della macchina un certo timore reverenziale, unito all’odio verso quell’oggetto reo di aver sovvertito la loro routine quotidiana.

Michele Scalera

Informatica Gestionale - edizione 2020

Informatica Gestionale

Capitolo 1: Struttura dell’Elaboratore Elettronico

6

La democratizzazione dell’informatica pose quindi un primo problema di semplificazione dell’interazione uomo-macchina. Il personal computer appariva quindi ancora immaturo per entrare in tutti gli uffici e ancor più nelle case. Una svolta decisiva derivò dall’invenzione di un americano, Steve Jobs, che presentò al mondo un nuovo computer. Si trattava del Macintosh che, in seguito, generazione dopo generazione, cambiò nella forma e nelle caratteristiche, aprendo la strada a molte innovazioni. Per la prima volta un computer diventava obiettivamente facile da usare. La sua filosofia era molto semplice: l’uso del computer doveva rispecchiare l’esecuzione delle normali operazioni quotidiane. E così lo schermo si trasformava in una sorta di scrivania, la tastiera diventava simile a quella di una macchina da scrivere e sulla scena fece la comparsa un nuovo dispositivo: il mouse. L’introduzione di questa strana scatoletta era destinata a rappresentare una rivoluz ione nel mondo dell’informatica: per cancellare un documento bastava “trascinarlo nel cestino”; le impostazioni del computer potevano essere configurate tramite un unico pannello di controllo senza mai toccare la tastiera, le operazioni avvenivano semplicemente perché indicate con il mouse. L’introduzione della grafica, che da allora fu utilizzata dai successivi sistemi operativi di Microsoft, tuttavia comportò un notevole aumento di complessità dei programmi e quindi una maggiore necessità di risorse hardware. Ora i personal computer, ma anche gli smartphone, sono delle macchine potentissime con prestazioni che fino a qualche anno fa erano difficilmente raggiungibili anche dai mainframe. L’Information Technology ha permesso, negli ultimi decenni, di cambiare la catena di montaggio nelle fabbriche, l’organizzazione del lavoro nelle imprese, gli usi e i comportamenti di milioni di cittadini nel mondo. Grazie allo scambio di informazioni in tempo reale e quindi all’abbattimento dei confini fisici, si concepiscono luoghi e modelli nuovi per ottimizzare i costi, ridurre i consumi e per favorire una maggiore e diversa produttività e socializzazione. Alla base di tutto c’è la Rete, Internet: la Rete è la sfida del futuro che ha consentito il passaggio alla cosiddetta “terza piattaforma” di cui mobility, cloud computing, big data analytics e social sono i quattro pilastri essenziali.

1.2 Analogico e digitale I computer sono strumenti digitali. Il termine digitale deriva da digit, cifra; infatti, uno strumento digitale mostra un digit, una cifra. In linea generale, la differenza fra analogico e digitale corrisponde alla differenza fra la rappresentazione continua e quella discreta di una grandezza. Un apparecchio analogico restituisce il valore assoluto di ciò che misura; l’indicatore si ferma in un punto e quello è esattamente il valore misurato; non richiede, quindi, un codice di lettura, il dato si riproduce per analogia. Una rappresentazione analogica, o continua, è ad esempio quella fornita da una lancetta che si sposta sul quadrante di uno strumento. Così, un termometro analogico mostra la temperatura attraverso l'altezza della colonnina di mercurio e quest'altezza varia in modo continuo col variare della temperatura, un orologio analogico mostra l'ora attraverso la posizione delle sue lancette e una bilancia analogica mostra il peso attraverso il movimento dell'ago sul quadrante. Una rappresentazione digitale avviene tipicamente attraverso i numeri; è un numero, infatti, la temperatura mostrata da un termometro digitale, l’ora indicata da un orologio digitale e il peso misurato Michele Scalera

Informatica Gestionale - edizione 2020

Informatica Gestionale

Capitolo 1: Struttura dell’Elaboratore Elettronico

7

da una bilancia digitale. Tali indicazioni, però, sono discontinue, nel senso che se la bilancia digitale ha, ad esempio, la precisione di due cifre decimali, potrà mostrare i valori pari a 12,15 e 12,16 kg, ma non i pesi intermedi: la cifra sullo schermo “scatta” da 12,15 a 12,16. A prima vista, una rappresentazione analogica sembrerebbe rispondere meglio alla natura continua della maggior parte dei fenomeni che l’essere umano vuole misurare; d'altro canto, però, la capacità di discriminare fra rappresentazioni analogiche di valori molto vicini attraverso l'uso di strumentazioni meccaniche convenzionali è minore di quella offerta da uno strumento digitale sufficientemente preciso. A questo si aggiunga che la costruzione di apparecchiature meccaniche in grado di rendere leggibile in maniera analogica la differenza fra valori molto vicini è spesso assai complesso e costoso. L’ingresso della tecnologia informatica ha, di fatto, avviato la progressiva sostituzione di strumentazioni meccaniche, ovvero analogiche, con strumentazioni elettroniche, quindi digitali, ottenendo così un progresso nella precisione delle misurazioni. L'elettronica digitale ha a che fare con circuiti e sistemi che agiscono sfruttando due possibili stati di funzionamento; ad esempio due livelli di tensione o di corrente. Nei sistemi digitali i due diversi stati servono a rappresentare numeri, caratteri e simboli. Nei sistemi numerici a due stati, detti sistemi binari, le due cifre sono “1” e “0” e ciascuna di esse costituisce ciò che è appunto chiamato bit.

Figura 1.5: Esempio di segnale analogico (in alto) e di segnale digitale (in basso)

Un segnale analogico può assumere, in un determinato istante di tempo, tutti i valori continui appartenenti a un certo intervallo. Un segnale digitale, invece, può assumere solo due valori. La differenza fondamentale tra i due tipi di segnale è che mentre in quelli analogici l'informazione è contenuta nella "forma" stessa del segnale, nei segnali digitali l'informazione da elaborare è codificata in serie di simboli (convenzionalmente 1 e 0). La forma del segnale quindi non ha importanza, basta che sia possibile discernere in ogni istante a quale valore logico corrisponde il segnale.

1.3 Hardware e Software Il compito di un calcolatore elettronico è di acquisire dati, memorizzarli, elaborarli e fornire in...


Similar Free PDFs