Digital Video Primer - bla blA PDF

Title Digital Video Primer - bla blA
Course Fotografia digitale
Institution Accademia di Belle Arti di Brera
Pages 33
File Size 1.6 MB
File Type PDF
Total Downloads 30
Total Views 131

Summary

bla blA...


Description

The Digital Filmmaking Handbook, 6th edition Sonja Schenk & Ben Long Foreign Film Publishing, 2017

Capitolo: VIDEO PRIMER

Video digitale = una collezione di segnali elettronici registrati con la camera su un supporto di memoria nella forma di informazioni digitali codificate. Supporto di memoria - scheda di memoria, chiave USB, disco duro, SDD, disco ottico (CD, DVD, Blu‐ray), videocassette (Betamax, VHS, Betacam, DV, MiniDV),

VIDEO - sistema tecnologico con cui si possono registrare e visionare immagini e le immagini così prodotte (Simonetta Fadda, Definizione Zero, “Introduzione 1999”) VIDEO - dispositivo elettronico per la registrazione, la riproduzione, la trasmissione, la visualisazione delle immagini in movimento VIDEO - formati di archiviazione delle immagini in movimento (DVD, QuickTime, MPEG-4, VHS, Betamax,...) Il termine video appare con la televisione – l’informazione elettronica rappresentata via immagini in movimento e suono

Segnale elettronico può essere analogico (TV CRT) o digitale (DTV, HD, UHD). Segnale analogico = segnale continuo che contiene quantità variabili. L’immagine analogica cosiste di un numero indefinito dei punti i quali contengono un numero indefinito di colori.

Segnale digitale = segnale elettrico che viene convertito in un modello di bit; ha un valore discreto (definito) in ciascun punto di campionamento; è numerabile e si può analizzare come un insieme di elementi. L’immagine digitale si può dividere in un numero di punti (pixel). Bit - l'unità di misura della quantità (minima quantità) d'informazione (informatica, teoria d’informazione, Claude E. Shannon, 1948); binary digit, cifra binaria, uno dei due valori nel sistema numerico binario (0/1 oppure +/-)

Video digitale - numerabile e contiene un numero definito di elementi; consiste dalle immagini digitali che hanno un numero definito di pixel e di colori rappresentabili (dipendono dalla quantità dei bit per pixel) ad es.: il modello RGB ha 24 bpp > ogni pixel ha 255 possibili sfumature di rosso, 255 di verde e 255 di blu, in totale l'immagine può rappresentare 16,777,216 colori (True color, 24-bit)

Video digitale può essere: - SD (definizione standard) - HD (alta definizione) - UHD (ultra alta definizione)

Video HD - un insieme dei formati e delle specifiche di video digitale. I due formati più utilizzati di HD: 720 e 1080 Video 720HD ha la risoluzione 1280 x 720 px, è sempre scansionato progressivamente, ha frequenza dei fotogrammi (frame rate): 24p, 25p, 30p e 60p, ha il rapporto d’aspetto nativo di 16:9 Video 1080HD ha la risoluzione 1920 x 1080 px, può essere scansionato progressivamente o essere interlacciato, ha frequenza dei fotogrammi: 24p, 30p, 50i e 60i, ha il rapporto d’aspetto nativo di 16:9. Video HD è nato come il formato televisivo, ma oggi ha un uso versatile, specialmente nella produzione dei video per web.

Video UHD - appositamente disegnato per la produzione cinematografica perché cerca di avvicinarsi con la qualità alla pellicola 35mm.

I formati UHD: 2K, 4K, 8K 2K ha la risoluzione 2048 x 1080, è sempre scansionato progressivamente, ha frequenza dei fotogrammi: 24p e 48p, i rapporti d’aspetto nativi sono: 1.85:1 e 2.39:1 4K ha la risoluzione 4096 x 2160, è sempre scansionato progressivamente, ha frequenza dei fotogrammi 24p, i rapporti d’aspetto nativi sono: 1.85:1 e 2.39:1 Esistono le frequenze dei fotogrammi più alte: ad es. film 4K 48p (Peter Jackson, The Hobbit, 2012), film 4K 120p (Ang Lee, Billy Lynn's Long Halftime Walk, 2016) – high frame rate (HFR) I progetti in 2K e HD rimangono di solito nella loro risoluzione originaria fino alla fine. Quando si usa il video 4K, le dimensioni dei file sono troppo elevate e si lavora con i proxy in postproduzione. Proxy = la copia del video file originale che ha una risoluzione più bassa - montaggio offline (non-lineare) vs. montaggio online (lineare)

Ogni video digitale è costituito dalle: tracce (tracks), fotogrammi (frames), linee di scansione (scan lines - le righe di pixel), pixel, e campioni di audio (audio samples) Tracce (tracks): La video camera riprende le informazioni video e audio, le converte nei dati elettronici e li memorizza su un supporto di memoria. Tutti questi dati elettronici sono deposti nelle tracce (canali) separati. Di solito ci sono 1 traccia video e 2 tracce audio.

Fotogrammi (frames): La traccia video consiste di una serie di immagini fisse - fotogrammi - i quali appaiono in sequenza. Ogni secondo del video contiene un numero delle immagini fisse per creare l’illusione del movimento. Il numero delle immagini fisse per il secondo = frequenza dei fotogrammi (frame rate) Film muto aveva frequenza dei fotogrammi di 18 fps (frame per second) *prima16-24, poi 22-26. Dopo l’avvenimento del suono, i film avevano frequenza dei fotogrammi di 24 fps (lo standard). Video digitale ha varie frequenze dei fotogrammi perché doveva essere compatibile con i mezzi già esistenti quando era sviluppato (35mm, TV analogica americana, TV analogica europea).

Frequenze dei fotogrammi di video digitale: 24p e 48p - basate sulla pellicola cinematografica (oggi, HFR arrivano fino a 120p (cinema)) 29.97p, 30p, 59.94i, 60i, 59.94p e 60p - basate sulla TV analogica americana (Oggi ci sono HFR di 120p, 240p e 300p (UHD TV) 25p e 50i - TV analogica europea Frequenze di fotogrammi sopra 24p (cinema) 30p (altri dispositivi) = HFR (high frame rate)

Il trasferimento dell’immagine 24fps (cinema mode) nello standard europeo di 25fps richiede un’accelerazione di 4% dell’immagine - ‘PAL speedup’ (Premiere> “Interpret footage”). Il trasferimento dell’immagine 24fps nello standard americano 29.97fps/30fps richiede il processo ‘2:3 pulldown’ (interlacciare e dupplicare un campo di ogni secondo fotogramma):

Linee di scansione (scan lines): Il fotogramma del video è composto da una serie di linee orizzontali che sono scansionate sullo schermo iniziando dall’alto. Le linee di scansione iniziano dall’alto e vanno fino in fondo dello schermo riempiendolo completamente ‐ la scansione progressiva (p). Le linee di scansione iniziano dall’alto ma solo marcano le linee pari fino in fondo, poi le linee dispari sono disegnate sullo schermo ‐ la scansione interlacciata (i). Ogni passaggio interlacciato - campo. Il fotogramma di un video interlacciato consiste di 2 campi.

Pixel: Pixel (picture element) è la componente più piccola di un’immagine digitale. La risoluzione dell’immagine video digitale = il numero delle linee orizzontali e verticali nell’immagine. La qualità dell’immagine video digitale è descritta con la risoluzione. La risoluzione orizzontale determina la qualità dell'immagine mentre la risoluzione verticale ha un valore fisso. Un fotogramma del video 1080HD consiste della griglia di 1920px in larghezza e 1080px in altezza. Un fotogramma del video 2K consiste della griglia di 2048px in larghezza e 1048px in altezza.

La forma di pixel: un pixel può essere quadrato e rettangolare. Oggi si usa di più il pixel quadrato. Il pixel rettangolare si chiama anche il pixel anamorfico (1440x1080, 1280x1080, 960x720)

Le risoluzioni dei formati 720HD, 1080HD, 2K e 4K

Rapporto d’aspetto (aspect ratio): Rapporto d’aspetto = il rapporto tra la larghezza e l’altezza di un immagine. Tutti i tipi del video digitale contemporaneo hanno un rapporto d’aspetto “widescreen”(a schermo largo). 1080HD e 720HD video - il rapporto d’aspetto 16:9 (1.78:1) 2K e 4K video (e 35mm) ‐ il rapporto d’aspetto nativo di 1.85:1 oppure la versione ultra larga di 2.39:1 (“cinemascope”, formato anamorfico) Vecchi schermi TV analogici (CRT), video SD e vecchi monitor di computer - il rapporto d’aspetto nativo di 4:3 (1.33:1) 16mm, 8mm e Super8 - il rapporto d’aspetto nativo di 4:3.

Standard europeo proiezioni cinematografiche - 1.66:1 (5:4), Standard americano proiezioni cinema - 1.85:1. Attualmente, lo standard universale per il cinema - 1.85:1 o 2.39:1

Descrivere un video d’alta definizione Vari tipi del video digitale d’alta definizione sono descritti tramite tre cose: 1. risoluzione (le dimensioni in pixel) 2. frequenza dei fotogrammi (il numero dei fotogrammi o campi per secondo) 3. interlacciato o progressivo (la modalità di scansione) Sempre nell’ordine dato. Esempi: 720/24p - video digitale con la risoluzione di 1280 x 720 px e la frequenza dei fotogrammi di 24 fps scansionati progressivamente 1080/60i ‐ video digitale con la risoluzione di 1920 x 1080 px e la frequenza dei fotogrammi di 60 campi interlacciati per secondo (la configurazione HD più popolare per la TV). I due campi interlacciati del video 1080/60i si sommano in un fotogramma, perciò la frequenza dei fotogrammi è in realtà 30 fps. Il video HD scansionato progressivamente è descritto con i numero dei fotogrammi: 720/60p ha 60 fotogrammi per secondo.

Tracce/canali Audio Ogni video digitale ha due o più tracce audio. I canali audio possono essere riprodotti simultaneamente o mixati in modi diversi.

Stereo Suono stereo ha due canali audio mixati - un canale si sente arrivare più dal lato sinistro e l’altro dalla destra. Il “campo stereo” crea una percezione 3D del suono. L’unico suono di produzione registrato in stereo è la musica. I microfoni interni delle videocamere sono di solito stereo e non sono adatti per una video produzione seria. Si possono attaccare i microfoni esterni stereo alla videocamera per registrare i due canali audio separati (ma non è necessario se si registrano prevalentemente dialoghi e suoni ambientali).

Final Cut Pro 7: A1,A2,A3,A4 - tracce audio mono; A5 e A6 tracce audio stereo

Premiere Pro CC: traccie A1 e A3 - audio stereo, ognuna contiene due canali (L e R)

Mono Mono consiste di una traccia audio. Quasi tutti suoni che si registrano durante la produzione di un video sono mono. La maggioranza dei microfoni è mono. Se si registra l’audio da un microfono a un registratore audio digitale, in maggior parte dei casi si sta registrando in mono. Anche quando si registrano due canali da un registratore, in realtà si sta registrando in mono, è lo stesso segnale registrato ai due canali del registratore (dual mono).

Premiere Pro CC: A1 - audio mono Final Cut X: configurazione dei canali audio

INPUT 1 (Canale 1) e INPUT 2 (Canale 2) della videocamera (Canon XA30)

Se si attacca un microfono lavalier (microfono a clip) al Canale 1 della videocamera e il microfono interno della videocamera registra il Canale 2, ancora si sta registrando in mono; si creano due registrazioni differenti della stessa cosa. I due canali suonano molto diversamente uno dall’altro a causa della qualità diversa dei microfoni e delle loro posizioni. Questi due canali NON possono essere sommati in una registrazione stereo. Registrare il suono di produzione mono è lo standard.

Collegamento di un microfono esterno alla videocamera (Canon XA30)

Panello d’impostazione dei due canali audio della videocamera - MIC (quando si connette un microfono esterno a uno dei canali della videocamera), LINE (quando si usa il microfono interno della videocamera; CH1/CH2 A o M: controllo della registarzione del suono - automatico o manuale

Registrazione vs. Mix Quando si registra il suono per un video, tipicamente si registrano tante diverse tracce mono. Durante il montaggio del video, queste tracce audio si uniscono per creare un mix, il quale può essere stereo o surround.

Surround Per le proiezioni cinema, disco Blu-ray, DVD e HDTV il surround è la norma. Surround ha 5.1 o 7.1 canali del suono - essi corrispondono alla posizione delle casse audio nello spazio dove si proietta il video. I canali danno insieme un senso del 3D forte, più del stereo. .1 canale si riferisce al subwoofer che dà più basso.

Surround 5.1: 5 casse, 1 subwoofer e 1 amplificatore; il posizionamento del sistema surround in una stanza di proiezione

Campionamento dell’audio (audio sampling) Le onde del suono sono scomposte in campioni (samples) per creare l’audio digitale = campionamento dell’audio. La frequenza di campionato può variare e si misura in Hz. Aumentando la frequenza di campionamento si ottiene il suono digitale di qualità migliore. L’audio digitale professionale è di solito campionato a 48kHz o raramente a 44.1 kHz. Mai registrare sotto 48kHz. Alcuni formati del cinema digitale possono manovrare il campionamento di 96kHz.

Varie frequenze del campionamento di suono

La trasformazione del suono dall’analogico a al digitale (la registrazione) e dal digitale all’analogico (la riproduzione)

File Audio e Codec Quando l’audio viene memorizzato in un file separato dal video, è memorizzato in uno dei formati standard: WAV o AIFF - formati non compressi che appartengono alla categoria dell’audio PCM). Finché si mantiene la stessa frequenza di campionamento, le conversioni tra i diversi file PCM sono “lossless” (senza la perdita della qualità).

MP3 - formato audio altamente compresso, offre i file molto leggeri e una buona qualità del suono. MP3 non è considerato come un buon formato per editing dell’audio (video produzione di alta qualità). MP4, ossia MPEG -4 (MP3 e MP4 fanno parte delle MPEG video specifiche) - offre una compressione migliore rispetto a MP3 e senza la degradazione della qualità (ad es. MP4 di 128K ha la qualità di MP3 di 160K).

AAC è in realtà un MP4 audio file. AC-3 - consiste dei 5.1 canali di Dolby Digital Surround Sound (5.1 canali: sinistra, destra, centro, surround sinistra, surround destra, e la traccia .1 di subwoofer opzionale per i suoni di bassa frequenza). HD formati video offrono il suono AC-3 5.1. Dal 2015 si usa Dolby Surround 7.1 (AC-4)

DTS - uno dei formati audio che si usa per il cinema digitale, audio multicanale (in competizione con Dolby Surround

LA QUALITÀ DELL’IMMAGINE DIGITALE L’immagine che si registra con la videocamera passa attraverso una serie di lavorazioni, le quali condizionano la sua qualità. Il flusso di lavoro: SOGGETTO (include: luce, location, scenografia) >> CAMERA (l’ottica, sensor, digitalizzazione, formato d’acquisizione) >> EDITING (formati video intermediari, formati finali) >> PRESENTAZIONE Un video digitale in piena risoluzione pesa tanto ed è difficile lavorare con esso. Per questo motivo esiste la compressione. Il software che fa la compressione si chiama codec (COding/DECoding). video coding -- video compressione Un progetto video include varie compressioni: nella videocamera durante la registrazione, durante l’importazione del filmato nel programma di montaggio, durante l’esportazione del video finale in vari formati (web, Blu‐ray, proiezioni cinematografiche).

La compressione di un video digitale determina: - come il colore è manipolato: campionamento del colore (color sampling) e profondità di colore/bit (color/bit depth) - quanta compressione è applicata: rapporto di compressione (compression ratio) - quanto velocemente è trasportata l’informazione registrata: velocità di trasmissione (data rate/bit rate)

Campionamento del colore (color sampling) I colori dell’inchiostro sono sottrattivi. I colori primari sottrattivi sono: magenta, giallo e ciano. La sintesi di questi colori dà i colori più scuri, fino a creare il nero. I colori della luce sono additivi. I colori primari della luce sono: rosso (R), verde (G) e blu (B) – RGB. La sintesi di questi colori dà i colori più chiari fino ad ottenere il bianco (la luce). La sintesi additiva e sottrattiva dei colori

Modelli di colore: RGB ‐ imagine elettronica / CMYK ‐ immagine x stampa

Videocamere e TV creano il colore dell’immagine mescolando i tre colori primari additivi. Un video segnale è fatto dai componenti di tre colori (la crominanza, o chroma), e il componente di luminanza, o luma (Y).

L’ottica della videocamera coglie ognuno di questi componenti come le onde analogiche separate, e la videocamera digitale converte le onde in numeri tramite il processo di campionamento - ogni onda viene scomposta in una serie di bit (i quali si memorizzano digitalmente come 0 o 1). La densità del campione aumenta la qualità dell’immagine.

Quando registra un’immagine, la videocamera campiona ogni colore primario e lo comprime rispetto alla luminanza - il sottocampionamento della crominanza (chroma subsampling). Un segnale video non compresso ha il sottocampionamento della crominanza di 4:4:4 ‐ il primo numero sta per luma (Y), altri due numeri indicano la differenza delle componenti cromatiche (Cb e Cr, la differenza dal grigio nel campo del blu e del rosso) - Y’CbCr la formula del segnale cromatico completo dell’immagine di un video digitale (spazio dei colori per la codifica di immagini video digitali, simile a YUV (analogico)) Per ottenere file più leggeri, molti formati di video digitale scartano la metà dell’informazione cromatica, e hanno il sottocampionamento della crominanza - 4:2:2. L’occhio umano è molto più sensibile alle variazioni di chiaro-scuro che ai cambiamenti di colore, per cui la compressione di 4:2:2 non si nota e si chiama ”lossless” (senza perdita). Nelle immagini con i sottocampionamenti della crominanza di 4:1:1 e di 4:2:0 l’infomazione scartata è visibile a l’occhio umano, e questa compressione si chiama ”lossy” (con perdita).

Profondità di colore/bit (color/bit depth) La profondità di colore/bit indica la quantità di bit usati per rappresentare il colore di ogni pixel dell’immagine digitale (ossia, la quantità d’infromazione presente in ogni campione). Un video digitale può avere le profondità di colore/bit: ‐ 8bit (8 bit per ogni canale di colore, 24bpp (True Colour), ogni pixel ha 256 sfumature di rosso, di verde e di blue, in tot. 16,777,216 variazioni di colore)

‐ 10bit (1,024 sfumature per ogni canale di colore, in tot. 1,073,741,824 variazioni di colore) ‐ 12bit (4096 sfumature di rosso, blu e verde, in tot. oltre 68 miliardi di colori) - 16bit (Deep color – 10, 12 e 16bit video, ossia 30/36/48 bit per pixel) Con più bit a disposizione per rappresentare il colore di ogni pixel, aumentano i dettagli e le variazioni cromatiche con i quali si può lavorare durante la manipolazione dell’immagine (importante quando si lavora in chroma key o compositing). NOTA: La maggior parte delle video camere semi‐professionali e camere DSLR registrano video di 8‐bit (spesso formati MOV e AVCHD), e il trasferimento a un formato video di 10‐bit (ProRes) non cambierebbe molto la qualità perché il segnale di output è di 8‐bit (eccezione: Panasonic Lumix GH5 registra 4K in un formato 10‐bit fino a 30fps; Canon EOS C200 registra 4K nel formato RAW di 10‐bit/12‐bit ma anche in MPEG4 di 8‐bit) Le camere cinematografice professonali come RED o Arri registrano i file ProRess di 10‐bit, ma altrettanto i RAW files di 12‐ bit.

Rapporto di compressione (compression ratios) Per memorizzare più dati e facilitare la postproduzione, la maggioranza di formati di video digitale usa la compressione dei dati, il quale influenza la la qualità dell’immagine.

La compressione può essere: senza perdita (lossless) o con perdita (lossy). Un video non compresso ha un rapporto di compressione 1:1 Un video compresso può variare da 1,6:1 a 10:1 (10:1 ha 10% dei dati originali).

alto sinistra: l’immagine non compressa (1:1) alto destra: l’immagine compressa tre volte basso: l’immagine compressa sei volte

Velocità di trasmissione (data rate/ bit rate) La velocità di trasmissione del video digitale indica la quantità d’informazione memorizzata a secondo durante la registrazione del video. HDV (high‐definition video nelle DV camere, codec MPEG2) ha la velocità di trasmissione di 25Mbps. DVCPRO HD varia da 40Mbps a 100Mbps. DCP (MXP video files, codec JPEG 2000) ha fino a 250 Mbit/s. AVCHD (codec H.264/MPEG4) ha fino a 24 Mbit/s. ProRes 422 può avere 220Mbit/s.

Video digitale non compresso di 4:4:4 ha la velocità di trasmissione oltre 800Mbps, Video compresso per streaming online ha la velocità di trasmissione bassa, d...


Similar Free PDFs