Informatica prof Furini Marco - integrazione libro PDF

Title Informatica prof Furini Marco - integrazione libro
Course Fondamenti di Informatica II e Lab.
Institution Università degli Studi di Modena e Reggio Emilia
Pages 15
File Size 849.4 KB
File Type PDF
Total Downloads 72
Total Views 91

Summary

Lo scenario digitaleDue principali motivi portano al cambiamento e alla trasformazione della comunicazione: Progressi scientifico-tecnologici Efficacia integrazione di diversi media Per produrre una corretta forma comunicativa multimediale, i media devono essere analizzati sotto diversi punti di vis...


Description

Lo scenario digitale Due principali motivi portano al cambiamento e alla trasformazione della comunicazione: 1. Progressi scientifico-tecnologici 2. Efficacia integrazione di diversi media Per produrre una corretta forma comunicativa multimediale, i media devono essere analizzati sotto diversi punti di vista che comprendono: - Percezione  modo in cui vengono percepite le informazioni contenute nel flusso comunicativo - Rappresentazione  come vengono rappresentati i media nei diversi dispositivi - Presentazione  sapere dove e come la comunicazione verrà presentata x essere efficace ed efficiente - Memorizzazione  grandezza spazio di archiviazione - Trasmissione  velocità/ fibra ecc Rappresentazione dell’informazione Le informazioni, in qualsiasi formato digitale, sono rappresentate dai bit (binary digit), questo definisce due valori alternativi l’uno all’altro: 0 e 1. I calcolatori utilizzano un sistema a base due. Se vogliamo calcolare il valore decimale di una sequenza di bit dobbiamo fare la somma dei valori di ogni bit es. 101= 1*2^0+0*2+^1+1*2^2=1+0+4=5 I bit rappresentano di per sé funzioni elementari. Se ogni bit assume due diversi valori, allora con due bit si hanno quattro sequenze che ci permettono di definire quattro diversi stati. In generale una sequenza di n bit permette di identificare 2^n possibili stati es voglio 64 colori  2^6=64 Il byte indica una sequenza di 8 bit quindi 256 perché è 2^8( p.e.32bit=4byte), e si utilizza per informazioni più complesse come memorie digitali, dimensione delle immagini ecc. Kilobyte=1000 byte, ma se si parla con un informatico allora sono 1024 byte. La grandezza di un’immagina può essere espressa in kilobyte o megabyte, la velocità di una connessione può essere espressa in megabit, lo spazio di un hard disk può essere nell’ordine dei giga o terabyte. Classificazione: Kylobyte  1024 byte / Megabyte 1024^2 byte / Gigabyte 1024^3 byte / Terabyte  1024^4 Petabyte  1024^5 byte / Exabyte  1024^6 Rappresentare i caratteri: ASCII insieme di sequenze di 7 bit per rappresentare 95 simboli, è necessario prendere in considerazione 7 sequenze di bit dove 2^7=128; è internazionale, ma nonostante questo non riesce a soddisfare le richieste grammaticali di tutte le lingue, per questo è stato introdotto l’extended ASCII che rappresenta tutte le lettere delle lingue occidentali, la sequenza di bit che passa a 8=256 diverse sequenze. Trasmissione delle informazioni La più grande rete di comunicazione al mondo, nasce nel 1969 con il nome di ARPANET. Connette milioni di dispositivi chiamati end-systems, end-host o semplicemente host, in tutto il mondo. La rete supporta il funzionamento di applicazioni che sfruttano la rete per comunicare (es. www, e-mail). Nel 1987 nascono le GIF, l’anno successivo nasce l’MPEG ovvero l’MP3. Nel 1991 nasce il www da Berners Lee al CERN di Ginevra. 2001 Wikipedia / 2004 Facebook / 2005 Youtube / 2006 Twitter e Spotify / 2009 Uber / 2010 Instagram, WhatsApp / 2016 Telegram Internet è la rete di trasmissione. PC client  rete internet (router) Server Il client effettua una richiesta e il server risponde a tale richiesta. Le trasmissioni avvengono tramite protocolli di comunicazione TCP/IP. Se parliamo di mobile parliamo di diverse tecnologie: gsm, edge, 3g, 4g, 5g ecc. Le reti di comunicazione Reti residenziali: DIAL-UP  velocità fino a 56kbps (56mila bit al secondo) ADSL  velocità di diversi Mbps (megabit al secondo) in download e diverse centinaia di Kbps (kilobit) in upload FIBRA  velocità fino a 100 Mbps(megabit) in download e in upload A livello di reti mobile: GPRS/G 100 kbps EDGE/E  100-200 kbps UMTS/3G  400 kbps HSDPA/H  megabit/secondo LTE/4G  centinaia di megabit secondo 5G  gigabit al secondo

2. LE IMMAGINI I COLORI COME FENOMENO FISICO Il sistema visivo umano percepisce i colori grazie alle radiazioni di onde che quando irradiano un oggetto, questo riflette un particolare colore e sulla base della lunghezza delle onde siamo in grado di definire i colori. Quello che noi vediamo si chiama spettro visivo. La lunghezza delle onde va da 380 nanometri a 780 nanometri, all’interno di questo spettro vanno dal viola a 400 al rosso a 700. Oltre questo spettro >780 sono gli infrarossi, < 380 sono gli ultravioletti in entrambi i casi l’occhio umano non è in grado di percepirli. La percezione del colore non dipende solo dalla lunghezza d’onda ma anche da: brillantezza quantità di energia che stimola il nostro occhio ed è rappresentata da una scala di grigi. Il livello più basso è il nero, mentre quello più alto è il bianco. Questo parametro non è influenzato dal colore della sorgente. tonalità (hue) rappresenta il vero colore della sorgente, è determinato dalla lunghezza d’onda saturazione  rappresenta la forza o la vivacità del colore, indica la presenza del colore bianco all’interno del colore, il rosa è meno saturo del rosso in quanto il rosa ha una componente bianca, mentre il rosso no. Le suddette sono in stretta correlazioni con tre parametri del colore: Luminosità  parametro correlato con la brillantezza Tonalità e Saturazione  sono correlati con i colori della sorgente e sono indicati con componenti cromatiche Tramite l’utilizzo delle componenti cromatiche e della componente luminosa è possibile rappresentare il colore di una sorgente. I colori possono essere rappresentati attraverso diversi metodi che prendono il nome di modelli di colori. Modelli di colori RGB, CMYK, HSV, YCbCr, YUV, YIQ. RGB  E’ stato sviluppato per immagini televisive ed è stato utilizzato anche per monitor dei computer. (R,V,B) Utilizza rosso, verde e blu per rappresentare ogni colore percepibile dal sistema visivo umano. Si dice additivo perché un colore è rappresentato dalla somma delle componenti rossa, verde e blu. Si danno ai tre colori dei valori che vanno da zero ad un valore massimo che dipende dal numero di bit in genere 8, quindi 256 tonalità per ogni colore primario, ma considerando lo zero si va da 0 a 255. Se ogni canale prevede 8 bit avrò 2^24 colori. Il bianco si crea con la presenza massima dei tre (255,255,255). Il nero si crea per assenza di colori (0,0,0). CMYK (C-K, Y-K, ZK, K)  creato per la gestione dei colori nei processi di stampa e editoria e rappresenta i colori mediante quattro componenti primarie: ciano, magenta, giallo e nero. Ogni colore è rappresentato da una sequenza di 8 bit. A differenza del modello RGB, è un modello sottrattivo, un colore si ottiene considerando che un’onda luminosa che colpisce un oggetto viene in parte assorbita e in parte riflessa. I colori si creano per scomposizione. E’ il contrario del modello RGB perché un foglio dove non metto colore è bianco. Alto sx C, Alto dx M, basso sx Y, basso dx K. HSV(0-360) 0 rosso, 120 verde, 240 blu, 360 rosso- caratterizza meglio i colori rispetto al sistema visivo umano. Si gestiscono le diverse componenti Hue, Saturation e Value. YUV  sfrutta il fatto che l’occhio umano è più sensibile alla luminosità rispetto ai colori. Si gestiscono le diverse componenti di luminosità e cromatiche. Definisce i colori in base ad una componente luminosa (Y) e due cromatiche (UV). Veniva utilizzato per la gestione dei colori nei segnali televisivi analogici. TIPOLOGIE DI IMMAGINI La gestione di immagini mediante software prevede due possibili tipologie: vettoriali o bitmap. Vettoriali: non esistono in natura e sono utilizzate nel settore della computer graphics e del disegno geometrico. Bitmap: rappresentano immagini del mondo reale e sono ottenute tramite dispositivi fotografici o scansioni. Si differenziano per la loro rappresentazione all’interno del computer perché le vettoriali sono descritte tramite forme geometriche come linee, cerchi, quadrati ecc, mentre le bitmap sono formate da griglie di punti detti pixel. Infatti le vettoriali sono facilmente ridimensionabili senza perdere qualità e non occupano un grande spazio in memoria, al contrario delle bitmap che devono essere compresse e perdono qualità, inoltre sono convertibili in bitmap.

Immagini vettoriali Si basano su combinazioni di elementi geometrici detti oggetti base, ogni oggetto è definito da entità matematiche chiamate vettori che specificano origine, direzione, verso e lunghezza dell’oggetto base. Alcuni software: cad, pacchetti clip art. Si possono modificare i singoli oggetti che compongono l’immagine senza alterarne gli altri. Immagini bitmap Sono rappresentate all’interno di un computer con matrice tridimensionale di elementi dove la griglia XY rappresenta la dimensione dell’immagine, l’asse Z rappresenta la profondità del colore, cioè il numero di bit utilizzati per rappresentare i colori. Nella risoluzione di queste immagini bisogna considerare: Risoluzione dimensione della griglia XY utilizzata per rappresentare l’immagine. Maggiore è il numero di pixel maggiore è il numero di dettagli dell’immagine che si possono rappresentare. Aspect ratio  rapporto tra larghezza e altezza di un’immagine. Rapporto X/Y (4:3 o 16:9) Profondità di colore  l’aspetto finale dipende anche dal numero di colori che si usano che a sua volta dipende dal numero di bit a disposizione. Il numero di bit a disposizione è rappresentato dalla dimensione dell’asse Z. Generalmente si usano 24 bit per ogni pixel (2^24) per le immagini a colori, mentre per le immagini a toni di grigio generalmente si usano 8 bit (2^8). Qualità  dipende sia dal numero di pixel che compongono la griglia sia dal numero di colori a disposizione. Ciò significa che il numero di elementi che rappresentano l’immagine è un indice di qualità. Spazio di memoria  il numero di elementi che rappresentano l’immagine è un indice di qualità dell’immagine, il problema si pone a livello di spazio di memorizzazione perché potrebbe richiedere un numero di bit troppo elevato affinché la sua trasmissione nel web avvenga senza problemi. Trasmissione  i tempi di trasmissione sono variabili. Consideriamo un’immagine 1920x1080 con profondità di colore di 24 bit. Due utenti, uno si collega con ADSL a 20Mbit al secondo e uno si collega con modem a 56kbit al secondo. Quanto tempo devono aspettare per visualizzare perfettamente l’immagine? Questi devono scaricare il parallelepipedo di 49'766'400 bit(1920*1080*24 x*y*z). Ad ogni secondo l’utente scarica circa 20 milioni di bit, mentre l’altro utente ne scarica 56 mila. L’utente adsl avrà l’immagine dopo 2,5 secondi, mentre l’altro utente avrà l’immagine dopo circa 15 minuti! Si potrebbe pensare di comprimere l’immagine ma potrebbe influenzare negativamente la qualità dell’immagine. Visualizzazione  La scelta della risoluzione dipende dal dispositivo in cui la si vuole visualizzare. Anche i dispositivi elettronici visualizzano l’immagine tramite una griglia di punti , per avere una visualizzazione ottimale, la risoluzione dell’immagine dovrebbe essere almeno pari alla dimensione della griglia del dispositivo. 5. COMPRESSIONE E DATI L’informazione, o un flusso informativo, è composto da due entità: dati entropici, cioè fondamentali, e da una serie di dati ridondanti, cioè superflui. Compressione entropica prevede di non perdere nessun dato entropico. (Lossless) Elimina solamente dati ridondanti. E’ detto reversibile perché consentono di ricostruire il flusso originale L’idea di questo meccanismo è di avere un codificatore e un decodificatore: Flusso A (Dati non compressi)  codificatore  flusso B (Dato compresso)  decodificatore  flusso C (insieme di dati non compresso) Nella compressione entropica FLUSSO A = FLUSSO C Run-lenght  meccanismo di compressione che guarda al lunghezza delle sequenze: (fA)ABBBBBCC  (fB) AB!5CC dove B!5 ripeti B il numero di volte che ti dico  (fC) ABBBBBCC Non conviene fare lo stesso con C perché passerei da due caratteri a 3, quindi conviene usare queste tecnica se il numero di caratteri è >4. Differenze  se ho una sequenza di numeri grandi e simili di tra di loro anziché salvarci per intero tutti i

valori della sequenza, salvo il primo che mi serve per decodificare e gli altri li sottraggo, fA fB 64323 16 bit  64323 16bit  63010 16 bit  1313 11 bit  64000 16 bit  323 9 bit 

fC 64323 16 bit 63010 11 bit 64000 9 bit

fA 48 bit

fC 36 bit

Compressione con perdita  elimina oltre ai dati ridondanti anche una parte di dati entropici. meccanismi di compressione lossi, utile quando la perdita non muta in modo significativo il risultato. Non consentono di ricostruire il flusso originale. Non reversibile Flusso A (Dati non compressi)  codificatore  flusso B (Dato compresso)  decodificatore  flusso C (insieme di dati non compresso) Dove FLUSSO A ≠ FLUSSO C COMPRESSIONE DELLE IMMAGINI Principali meccaniscmi di compressione usati nel web: Bmp, Gif, Jpeg GIF (reversibile, senza perdita) (Graphics Interchange Format) - Sviluppano dalla CompuServe Information Service nel 1987 - Esistono diverse versioni di questo formato. E’ uno standard Il metodo consente di comprimere una immagine di un terzo rispetto all’ immagine originale: A 100kb  codificatore GIF --> B 33kb Decodificatore  C = A mantiene tutte le sue caratteristiche GIF è un meccanismo di compressione reversibile, perché ricostruisce l’immagine partendo da quella compressa. Non introduce perdite perché si basa sull’algoritmo del dizionario Lempel-Ziv-Welsh (dalla parte di chi codifica e decodifica c’è un dizionario comune o una tabella dove ad ogni termine c’è un numero, quindi si trasmettono gli indici. É necessario che le decodifiche abbiano delle basi di conoscenza comune, gli altri invece possono essere fatte da zero) Il cuore della compressione GIF è nella gestione dei colori. Ogni punto dell’immagine è in grado di ridurre questa profondità a 8 bit senza introdurre perdite di qualità. Ogni punto dell’immagine originale ha una profondità di 24 bit, ma questa immagine contiene un numero massimo di 256 colori diversi. Questo consente di creare una tabella colori dove ogni cella è univocamente identificabile grazie ad una sequenza di 8 bit. Grazie all’utilizzo della tabella, ogni punto dell’immagine GIF viene descritto con gli 8 bit dell’indice della tabella e non con i 24 bit del colore originale. Nel momento in cui si visualizza l’immagine GIF, il contenuto del punto viene utilizzato per recuperare dalla tabella il vero colore de punto. Questo comporta che per ogni punto dell’immagine, si risparmiano 16 bit su 24 quindi il formato GIF introduce una compressione di circa 1/3 rispetto all’immagine originale. Caratteristiche - non è un decodificatore per immagini vettoriali - gestione di immagini con 256 colori diversi, non di più - I colori rappresentati sono a 24 bit, ma solamente 256 di questi colori possono essere rappresentati contemporaneamente nell’immagine GIF. - Esiste una tabella 256 elementi, ognuno de quali rappresenta un colore a 24 bit Quando comprimo, gif fa una tabella dove mette i 256 colori con indice che è il numero del contenitore e poi il colore della calza che è a 24 bit. Quando salvo il file gif, gif non me lo memorizza con 24 bit, ma con 8 perché ridotto a 1/3 JPEG (con perdita, non reversibile) Tecnica di compressione per le immagini, sviluppata per la compressione e decompressione di immagini fisse Caratteristiche - indipendente dalla dimensione dell’immagine - indipendente dall’aspetto dell’immagine 4:3 16:9 - il numero di colori utilizzato è arbitrario - il contenuto dell’immagine può essere qualsiasi tipo - la tecnica di compressione deve poter essere utilizzata su computer general purpose (su tutto) Utilizza cinque fasi per comprimere un’immagine:

1. preparazione dell’immagine  : si divide l’immagine in blocchi 8x8 (64 pixel). 2. trasformazione DCT  Scompone il segnale nelle sue componenti di frequenza. 3. Quantizzazione  fase della perdita, elimina le informazioni visive ritenute meno importanti attraverso l’uso di tabelle di quantizzazione. Vettorizzazione 4. codifica entropica  quello che avanza lo comprimo con una codifica entropica che non butta via niente. 5. ricostruzione dell’immagine Immagini nel web Quale usare? Dipende dall’immagine. GIF icone, loghi, immagini sintetiche o con netta separazione di colori JPEG  Immagini del mondo reale o con dolce separazione dei colori JPEG comprime maggiormente un’immagine rispetto a quanto non riesca a fare GIF AUDIO Cosa genera un segnale audio? Un segnale audio è generato da vibrazioni della materia. Queste vibrazioni producono delle onde che variano nel tempo. Nel loro percorso influenzano il comportamento di tutto ciò che incontrano. La percezione del suono si ha quando le onde raggiungono il nostro sistema uditivo. La materia che vibra si chiama sorgente sonora, mentre le onde che trasportano il suono prendono il nome di onde sonore. L’energia delle onde sonore è proporzionale alla forza con la quale vibra la materia. I suoni composti da una singola onda sono detti suoni puri. (Non si trovano in natura) I suoni reali che troviamo in natura sono complessi, sono composti da una moltitudine di onde. Le onde sonore si ripetono ad intervalli regolari, possono essere periodiche o aperiodiche e sono caratterizzate da due parametri: - frequenza  rappresenta il numero di periodi/sec: numero di vibrazioni complete al secondo e si misura in Hz. È la responsabile dell’altezza di un suono ovvero la sensazione di gravità/acutezza che si percepisce I segnali che rientrano nell’insieme di frequenze tra i 20Hz e i 20kHz, sono detti segnali acustici. - ampiezza  rappresenta la variazione dell’onda nella sua posizione media. Distanza massima che la materia assume tra la posizione di equilibrio e il punto più lontano in cui va. Rappresenta l’intensità del suono e indica l’energia trasportata dall’onda. Si misura come pressione del suono SPL (Sound Pressure Level) ed ha come unità di misura il decibel  Maggiore è l’ampiezza, maggiore è l’intensità del suono Il tempo necessario per fare un’oscillazione completa si definisce periodo.

E’ possibile individuare quali onde sonore compongono un segnale audio grazie ad un’analisi spettrale del suono. In particolare, mediante la trasformata di Fourier è possibile individuare le componenti di frequenza di un segnale cioè le singole onde. All’interno dell’intervallo di frequenza dei segnali acustici è possibile capire il tipo di sorgente: se le onde rientrano entro i 10kHz allora la sorgente sonora è probabilmente la voce umana, altrimenti è un segnale musicale. La frequenza di un’onda sonora è direttamente correlata con la percezione di altezza del suono: suoni percepiti come acuti sono prodotti da onde di alta frequenza, mentre suoni percepiti come gravi sono prodotti da onde di bassa frequenza. - Infrasuono: 0-20Hz - Ultrasuono 20.000Hz -1 GHz - Suono 20-20.000 Hz  udibile dall’uomo - Ipersuono 1Ghz -10THz Rappresentazione del suono

-

Segnale audio analogico  attraverso una variazione di intensità elettrica nel tempo, si sviluppa un’onda analoga a quella ampiezza/tempo con l’obiettivo di riprodurre il suono da rappresentare

-

Segnale audio digitale  trasformare i suoni in sequenze di bit, i bit vengono poi trasformati in impulsi elettrici e poi questi ultimi trasformati in onde sonore grazie alla vibrazione della membrana dell’altoparlante di un dispositivo.

Conversione analogico-digitale Il processo di conversione di un segnale analogico a digitale consiste nella misurazione del segnale analogico al fine di produrre una sequenza di numeri che rappresenta il segnale nella sua forma digitale. Frequenza di campionamento  la conversione da segnale audio analogico a digitale avviene campionando il segnale a intervalli regolari. Indica l’intervallo di tempo con il quale vengono fatte le misurazioni del segnale. La frequenza di questi campionamenti è data dal teorema di Nyquist. Teorema di Nyquist  per digitalizzare un segnale di frequenza f, è necessario che la frequenza di campionamento sia di almeno 2f al secondo. Infatti il teorema di Nyquist dice che le frequenze ascoltabili sono la metà della frequenza di campionatura. Una campionatura inferiore del doppio sta a significare una perdita di fedeltà del suono originale. Il CD-AUDIO è campionato alla frequenza si 44.100 Hz, infatti quando si decise lo standard del CD-audio, si stabilì che fosse ragionevole supporre che la massima frequenza udibile dall’uomo fosse p...


Similar Free PDFs