Apuntes tecnologias PDF

Title Apuntes tecnologias
Author Antonio M. López Blanca
Course Tecnología y Técnica Audiovisual
Institution Universidad Carlos III de Madrid
Pages 33
File Size 1.8 MB
File Type PDF
Total Downloads 75
Total Views 187

Summary

Apuntes con todas las presentaciones...


Description

Capítulo 1: Vídeo digital Resolución temporal En cada vídeo se graban (y reproducen) una serie de cuadros (frames, imágenes fijas, fps) / segundo. ¿A cuántos fps se ha de grabar? ¿Y si al editar se quieren usar más fps o menos? ¿Qué puede ocurrir? Sugerencia: intentar, al grabar, saber qué resolución temporal necesitamos (si se puede configurar). Resolución espacial ¿Cuántos píxeles tiene cada frame? En ancho por alto (por ejemplo 1920 x 1080), o sólo el ancho (por ejemplo 1080). ¿Usas la misma resolución espacial cuando se graba una imagen, cuando se edita y cuando se reproduce? Y si no, ¿qué ocurre? Cuantos más fps, más tamaño ocupará el fichero. Cuanto mayor número de píxeles por frame, más tamaño ocupará el fichero. Tenemos que multiplicar fps x píxeles. ¿Cuántas líneas vemos a la vez?

¿Y si las vemos todas a la vez?

O sea que, por ejemplo: 1080p25 = 1080 es realmente 1920 x 1080 (no siempre), “p” significa escaneado progresivo (o sea que cada imagen se muestra siempre completa), y si fuera “i” significaría escaneado entrelazado. 25 significa 25fps. Digital Digital significa que usamos bits para representar cada píxel. Cualquier característica de un píxel se expresa mediante unos bits (para el brillo) y otros bits (para cada color). Cuantos más bits, más posibilidades distintas tenemos para cada píxel (distintos tipos de brillo y color), pero también, más espacio necesitamos para guardar cada píxel. El número de bits por píxel se llama profundidad de bits. En vídeo digital, como mínimo, se usan 8 bits (para cada color). Digital también significa que ni el brillo ni el color se captan continuamente, sino mediante muestras. Lo que se guarda en nuestra cámara son los valores de esas muestras, que se convierten luego a algo parecido al color y al brillo real, de forma continua, cuando se reproduce. Muestras en cada píxel Recuerda el sistema aditivo de color: cualquier color puede obtenerse sumando una cantidad de rojo, azul y verde. Luego podemos muestrear el brillo del color rojo, del azul y del verde. El ojo humano es más sensible al brillo que al color. RGB -> YCbCr Lo más importante es conservar el brillo de todos los píxeles y guardar sólo la información de los colores (rojo y azul) de algunos píxeles. Esta práctica se conoce como submuestreo de color y es bastante habitual.

¿Y dónde vemos esto?

La tasa de transferencia (en inglés, bit rate. En castellano también tasa de bits o flujo de bits, en algunos entornos ancho de banda) es el tamaño que se necesita para grabar un solo segundo de vídeo. Cuanto mayor sea más calidad tendrá el fichero pero más ocupará para grabar cada segundo de vídeo. Se calcula multiplicando varios conceptos que hemos visto: fps (resolución temporal), píxeles (resolución espacial), muestras por píxel (submuestreo), y bits por muestra (profundidad de bits). Todo esa da una gran cantidad de bits por segundo (o Kbits, o Mbits…); a veces también aparece con siglas (HQ, SP…).

Y todo esto para conseguir que las imágenes tengan la calidad más adecuada (a veces, no siempre tiene que ser la mejor) ocupando el menor tamaño posible (nos caben más vídeos en nuestros dispositivos y podemos transmitirlos por redes más pequeñas).

Capítulo 2: Compresión de imágenes, códecs, contenedores COMPRIMIR IMÁGENES Intracuadro (compresión espacial) Se aplica a cada frame, se seleccionan grupos de píxeles (mínimo 8 píxeles) y se guarda un solo conjunto de de parámetros para todos los píxeles a la vez. Ahorra espacio al guardar el fichero, pero se puede perder información en algunos detalles. Cuantos más detalles, más pérdida.

Intercuadro (compresión temporal) Se selecciona cada paquete de frames (GOP) y se guarda sólo un frame completo de cada paquete. Se guardan sólo los cambios de algunos frames intermedios (respecto a los frames completos) y cuando se reproduce el vídeo (o se edita), se trata de recomponer todos los frames a partir de esa información. Ahorra mucho espacio pero suele tener mayor pérdida de información.

Codecs Compresión / descompresión en vídeo (también en audio) = codificación / decodificación.  Software que codifica / decodifica = códec. Luego, sin el códec adecuado, no se puede reproducir (ni editar) el vídeo. A veces, se puede elegir el códec empleado en las cámaras, en los editores de vídeo; en la edición, en la exportación (almacenamiento). Contenedores Existen distintos códecs para vídeo, y otros códecs para audio. ¿Cómo usamos ambos a la vez? Mediante formatos contenedores. Un mismo contenedor puede contener distintos tipos de códec de vídeo (y también de audio).

¿Por qué existen distintos códecs? Por razones industriales: cada empresa quiere imponer los suyos. Para distintos usos, algunos ejemplos: ● Cámara: si grabas en baja calidad: mucha compresión (por ejemplo espacial). ● Posproducción: si editas, tratas de usar la mayor cantidad de información, así puedes trabajar con los detalles. ● Difusión: si quieres difundir a través del móvil, tratas de usar la menor cantidad de información (para transmitirla más fácilmente). ¿Qué pasa cuando tienes que combinar distintos códecs? Por ejemplo: grabas con una cámara, y usas un códec. Se comprimirá de una forma determinada usando unos parámetros (resolución temporal, espacial, submuestreo, profundidad de bits = flujo de transferencia…) + compresión (espacial/temporal). Quieres editarlo con la mejor calidad posible y usando la menor cantidad de memoria posible (para evitar que tu programa u ordenador no vaya lento o colapse). Soluciones Si el programa de edición usa códecs distintos al de tu cámara: ● Vincular: cada vez que quieras acceder al vídeo, el programa decodifica cada fragmento de vídeo al formato del programa de edición continuamente y lo



reproduce. El problema es que necesitas mucha memoria intermedia para realizar todo el proceso en tiempo real. Importar: conviertes todo el vídeo a un formato del editor (transcodificar: hacer una copia en un formato distinto). Puede hacerse sin importar (sólo creando la copia, sin importar). Tarda más al principio pero luego requiere menos memoria, va más rápido y tiene menos riesgo de cuelgue.

Para grabar la versión final En un editor de vídeo, guardas un proyecto, una versión del vídeo (y del audio) que sólo puede verse con la aplicación. Puedes exportar tantas versiones finales como quieras usando diferentes formatos (es decir, diferentes códecs): depende de para qué tipo de difusión lo quieres. Alta calidad, cine digital (ej: códecs de almacenamiento). Menos calidad, pero más fácil de transmitir por redes, tv, etc (ej: códecs de difusión). aquí hay una cosa que pone que no entra en los tests ni en la evaluación que es como un extra…… míralo si quieres yo he visto números y me asustao

Capítulo 3: Abriendo una cámara Una tosca imitación del ojo: la cámara oscura Captar la imagen a través de un agujero muy pequeño. ¿Cómo captar la luz adecuada? Ni mucha, ni poca. Definir la imagen. ¿Bordes y formas nítidas? Fijar la imagen en una superfície (foco). ¿Guardar la imagen? Algo más elaborado: una cámara es…

Partes de cualquier cámara

Luz: cuánta, dónde, cuándo Ver en una cámara “lo mismo” que ven tus ojos… Exposición: cantidad de luz en una imagen (respecto a la que vemos con nuestros ojos). Exposición correcta, por lo tanto, es esencialmente la apertura que se ajusta más al rango de brillos de una escena.

Luz: brillo y contraste Brillo: valor de la luz de cada punto de una imagen. Contraste: diferencia entre máximo y mínimo brillo de los puntos de una imagen o entre dos tonos de un mismo color. Usar “cantidades” de brillo: pasos Si se cierra un paso = mitad de la luz que se percibe. Si se abre un paso = doble de la luz que se percibe. ¿Cómo uso los pasos en una cámara? aquí dice que preguntes a un fontanero…… creo que es un chiste La apertura Diafragma: parte que regula la apertura de la cámara para recibir la luz. Mayor apertura = entra mayor cantidad en la cámara. También es llamada exposición o iris.

Los pasos en la apertura: el número F Cerrar 1 paso = entra la mitad de luz. Abrir 1 paso = entra el doble de luz.

El tiempo de apertura: la obturación ¿Cuánto tiempo abrimos la cámara para cada imagen? También velocidad de obturación, shutter, shutter speed… ¿Por qué cambiarla? Cada vez que captamos una imagen, tenemos que captar (idealmente) la cantidad de luz necesaria. Si nos pasamos, la imagen quedará muy clara. Si nos quedamos cortos, la imagen quedará muy oscura. Se mide en fracciones de segundo: la mitad del tiempo = 1 paso más cerrado. 1/100” = la mitad del tiempo que 1/50”. El doble del tiempo = 1 paso más abierto. 1/25” = el doble que 1/50”. ¿Y por qué tenemos dos formas de controlar la cantidad de luz? Cada una tiene efectos distintos. La obturación también afecta a la imagen cuando está en movimiento. La apertura afecta a la zona de la imagen que queda enfocada. Jugar con los dos parámetros: la compensación

Velocidad de obturación Si la velocidad de obturación es muy lenta hay posibilidad de imágenes borrosas, la cámara no es capaz de fijar correctamente cada imagen fija (cuadro) con nitidez. Si la velocidad de obturación es muy rápida la imagen puede parpadear, los movimientos pueden no ser fluidos.

Algunas cámaras ofrecen, por defecto, como velocidad de obturación, el doble del número de cuadros por segundo. ¿Y si la luz es muy alta? ¿Qué ocurre si la cantidad de luz recibida para captar una imagen es muy alta, incluso jugando con la apertura y la obturación? Algunas cámaras de vídeo permiten usar filtros de densidad neutra (ND) para reducir la cantidad de luz recibida. Ejemplo: F4 + filtro ND podría mostrar la misma exposición que F5.6 sin filtro ND. Depende del tipo de filtro ND. Y también, hacer más lenta la velocidad de obturación. Ejemplo: F4 + 1/100 podría mostrar la misma exposición que F4 + 1/50 + filtro ND. Depende del tipo de filtro ND. La luz, después de ser captada: sensor ¿Cómo es percibida la luz que entra en la cámara? En una cámara digital, la luz es dirigida hacia el sensor. Sensor y sensibilidad El sensor es una matriz de puntos que reaccionan al recibir luz (brillo). Esos puntos se llaman píxeles. Esos puntos, al iluminarse, crean una imagen, y esa imagen se convierte en energía eléctrica. La claridad de esa imagen depende de la sensibilidad del sensor (añadiendo energía antes de ser iluminado). Cuanto más sensible el sensor, más clara será la imagen producida (aunque la luz recibida sea la misma). Sensibilidad y ruido En las cámaras digitales (tanto de foto como de vídeo), si la imagen es muy oscura se puede aumentar la sensibilidad del sensor para “aclarar” la imagen, pero también incrementa el riesgo de ruido = puntos demasiado iluminados = distorsionados (negros o con colores diferentes de los reales). Sensibilidad en foto ISO (ASA): medía la sensibilidad de la película fotográfica. 100 ISO = menos sensibilidad, con luces altas (mucho brillo). A mayor número ISO, mayor sensibilidad. Cuanto más oscura es la imagen, más alto el ISO requerido, pero a mayor sensibilidad, mayor riesgo de ruido. Muchas cámaras fotográficas digitales siguen usando esta terminología, aunque el proceso cambia. Sensibilidad en vídeo Se aumenta añadiendo una cantidad de energía extra a todos los píxeles del sensor. Se conoce como ganancia (gain) y se mide en dB. 0 dB = no se aplica ganancia. Cada 6dB ~ abrir 1 paso. Recordad: más ganancia = más riesgo de ruido.

ALGUNAS AYUDAS DE TU CÁMARA Prioridades (usar ajustes automáticos parcialmente) Prioridad a la exposición: ajustar la apertura manualmente, dejar que la cámara controle la obturación. Ejemplo: la luz en las escenas va cambiando y tenemos que modificar rápidamente la apertura de forma manual. Prioridad a la obturación: ajustar la obturación manualmente, dejar que la cámara controle la exposición. Ejemplo: filmación de objetos a gran velocidad. Bandas cebra En cámaras digitales muestran el brillo concreto en algunas zonas. De acuerdo con la escala IRE (negro = 7.5; blanco = 100). Algunas veces, mostradas como porcentajes (7.5% etc). 70% ~ piel caucásica bien expuesta. 100% ~ zona sobrexpuesta.

Bandas cebra, como ayuda durante la exposición Si haces tomas con personas (a plano medio o más cerrado), con piel clara, una estrategia puede ser hacer un ajuste automático parcial, configurar la cámara en modo manual, pero no ajustar manualmente ningún parámetro. Conseguir que en la cámara aparezcan bandas cebra al 70% y al menos la cara estará bien iluminada. Te puede servir de referencia para saber si otras zonas están bien o mal expuestas. aquí hay otra cosa extra de mates que no entra en los exámenes magobiao

Capítulo 4: Afinando la vista Cámara oscura (recordatorio): Se capta la luz de la imagen, se refleja la imagen en un plano focal. Problema: falta de luminosidad. Dónde está el plano focal (en una cámara digital): En el sensor, está al fondo de la cámara, es más pequeño (que la imagen), la luz debe ser dirigida (refractada) hacia él. Cómo redirigir la luz al sensor: Usando un objetivo, en la parte delantera de la cámara, formado por una (o más) lentes. Objetivo de lente focal (fijo) Una cámara puede tener una sola lente = focal fija. Con una distancia focal: de la lente al sensor. Resultado “ideal”: en el plano focal (sensor) se refleja una imagen nítida = la imagen está “enfocada”.

Enfocar: Mover tu anilla de enfoque = elegir cuál es tu punto de enfoque (qué debe de estar enfocado con total seguridad). Por lo tanto, “decirle” a la cámara cuál es la “distancia al objeto”. Eso significa, idealmente, que los rayos de luz refractados por el objetivo tienen que coincidir con el sensor, ni por delante del sensor, ni por detrás. Toda lente tiene una “distancia mínima de enfoque”: distancia mínima desde el objeto a la lente (por debajo no se puede enfocar). ¿Qué pasa si no se enfoca correctamente? Si estás enfocando correctamente, el punto de enfoque se ve nítido en la cámara. Pero si el enfoque no es correcto, la luz no será refractada por la lente en el sensor, sino delante o detrás de él. En ambos casos, cada punto de la imagen se verá como un círculo mayor y más borroso = círculo de confusión (CoC).

Algo más que el punto de enfoque Cuando enfocamos, elegimos un punto de enfoque. Pero hay además un rango de distancias por delante y por detrás de ese punto. Si el objeto está dentro de ese rango, “parece” enfocado. Ese rango de llama profundidad de campo (PDC).

¿Cómo conseguir una PDC más profunda o más plana? Tres parámetros (al menos) para conseguir una PDC: ● Apertura (número F) ● Distancia al objeto ● Distancia focal (también llamada f*) Y los efectos de cada uno se combinan entre sí. *Esto no es el número F. De hecho, el número F es la distancia total (f) dividida entre el diámetro de apertura. La apertura afecta a la PDC

PDC: relación con la distancia desde el objeto a la cámara Usando una misma lente, cuanto menor es la distancia entre el objeto y la cámara, menor es la PDC (y viceversa).

¿PDC y distancia focal (f)?

Mayor f, menor PDC

PDC: más por detrás (en general) La zona que está enfocada, en la imagen, suele estar en su mayor parte detrás del punto de enfoque. Si enfocas a infinito*: ⅓ de la distancia enfocada está por delante del punto de enfoque, ⅔ de la distancia está por detrás del punto de enfoque. *Poner el anillo de enfoque en infinito: tratar de que se vea enfocada la parte de la imagen que esté muy lejana a la cámara. PDC, en resumen: Depende de la apertura (número F), de la distancia al objeto (más distancia = más PDC), y de la distancia focal (más distancia focal = menos PDC). Y los efectos de todos estos factores se combinan entre sí. La distancia focal: cómo afecta a la imagen Tipos de distancia focal (muy en resumen): ● Gran angular (Wide-angle) ● Normal (standard) ● Teleobjetivo (Telephoto) Normal: Distancia focal = mismo tamaño que la diagonal del sensor. Resultado: una imagen similar a la que ve un ojo humano (misma PDC). Gran angular: Capta un ángulo de visión (campo de visión) mayor que un objetivo normal. Teleobjetivo: Capta un ángulo de visión más reducido pero permite captar un detalle de un objeto con mayor distancia de enfoque (más lejos). La distancia focal cambia el modo en que se ve la imagen. Teleobjetivo: Ángulo de visión más estrecho, los objetos parecen más grandes, la escena parece más plana y los objetos más cercanos entre sí, puedes colocar la cámara más lejos de los objetos. Es más difícil estabilizar la imagen y necesita números F más cerrados para poder tener más PDC. Gran angular: Ángulo de visión mayor, los objetos parecen más pequeños, la escena parece más profunda, puedes colocar la cámara muy cerca del objeto pero puedes distorsionar la imagen. Es más fácil estabilizar la imagen. Permite números F más abiertos y ofrece mucha PDC, así que se puede permitir perder parte con mucha apertura. Hiperfocal Muchas lentes permiten enfocar un objeto que esté a una distancia corta de la cámara, tal que la PDC sea: por delante, desde la mitad de la distancia de la cámara al objeto; por detrás, hasta infinito. Esta distancia a la cámara se denomina distancia hiperfocal. Se usa especialmente en planos muy abiertos (ej: paisajes) y más con grandes angulares.

El zoom Puedes usar un conjunto de focales fijas para una misma cámara (si la cámara te lo permite, hay cámaras que tienen una focal fija única), si es así, puedes montar o desmontar las lentes que requieras en cada momento, o usar un zoom; es decir, un objetivo que incluye varias lentes que insertas dentro, y combinarlas para cambiar la distancia focal usando un mecanismo (anillo de zoom, teclas, etc.). Cómo funciona un zoom (de forma esquemática) Una de las lentes del objetivo es la lente de enfoque, la que empleas para definir el punto de enfoque. Cuando mueves el control del zoom (anillo, teclas, etc) combinas esa lente con otras dentro del objetivo, y así aumentas o disminuyes la distancia focal, pero no cambias el punto de enfoque. Sólo cambias (aumentas o disminuyes) la PDC alrededor de ese punto de enfoque. ¿Cómo conseguir que una imagen con zoom salga enfocada? Primero localiza una buena posición para colocar tu cámara cuando quieras realizar una toma: ¿qué quieres grabar/tomar y qué partes han de estar enfocadas? Después, elige un punto de enfoque, y haz zoom todo lo que puedas a ese punto (“cierra cuadro”). A continuación, haz foco. Muy probablemente, tendrás una pequeña PDC, y el tamaño del objeto será mayor en pantalla, así que enfocar te será más fácil. Encuentra los límites del foco con tu anillo de enfoque: gíralo hacia un lado hasta encontrar la imagen que te parezca enfocada, y cuando lo hagas, gíralo hacia el lado contrario, hasta volver a verla desenfocada. Así encontrarás los límites de tu profundidad de foco (hasta dónde puedes mover tu anillo de enfoque para que la imagen esté enfocada). Finalmente, vuelve a encuadrar la imagen (abriendo cuadro = reduciendo el zoom), y ya puedes grabar. Importante: no cambies el enfoque después de volver a encuadrar, corres el riesgo de desenfocar la imagen (aunque tú creas que está enfocado). Cómo reconocer si tu objetivo es de focal fija o de zoom Focal fija: sólo tiene una distancia focal (que suele mostrarse en el objetivo). Objetivo con zoom: tiene dos valores; mínima (gran angular) y máxima (teleobjetivo) distancia focal. Y mínima distancia focal (gran angular) y factor de multiplicación del gran angular al teleobjetivo. Por ejemplo: 14mm, 2X = el teleobjetivo es el doble de 14mm = 28mm. ¿Es útil una focal fija? Tienes que moverte hacia delante o hacia atrás para “acercar” o “alejar” el objetivo. El ángulo de visión no cambia (¿es lo que quieres?). La apertura máxima es mayor (normalmente), en los zoom, a mayor distancia focal, el número F más abierto posible es menor. Todo objetivo (focal o zoom) tiene errores = aberraciones. Cuantas más lentes (un zoom tiene más de una), más posibilidades de aberraciones. oye qué harsh esto de aberraciones…… sólo son fotitos

Algunas aberraciones en las lentes

Capítulo 5: dándole color a...


Similar Free PDFs