miércoles, 19 de mayo de 2021

MÚSICA EN STREAMING LOSSLESS

 Recientemente las distribuidoras de música en streaming a través de aplicaciones como Apple Music, Amazon Music, Spotify entre otras vienen despertando rumores del lanzamiento de canciones en audio sin pérdida (loosless audio), a lo que se le ha llamado también formato de audio de Alta Fidelidad.

De hecho, Apple ya ha hecho el anuncio de manera oficial, ofreciendo estos archivos sin coste adicional para sus suscriptores.

Se ha anunciado la remasterización del catálogo de canciones de Apple Music para ofrecerlas en este formato de gran calidad. Desde un punto de vista técnico el mayor handicap de este tipo de archivos es su peso, llegando a ocupar quizá diez veces más que un archivo comprimido mp3, pero la llegada del 5G y de las tarifas de datos ilimitados que las operadoras están ofreciendo hacen posible este lanzamiento de archivos tan pesados. Además entiendo que los amantes de la música que se alegran de esta noticia preferirán escuchar sus temas favoritos en un equipo que les ofrezca esa fidelidad que este tipo de archivos promete.

Lo que realmente me ha hecho reflexionar de esta noticia ha sido lo de la remasterización.

La remasterización debería tener como objetivo la recuperación de la calidad original de una grabación deteriorada o previamente adulterada de modo que se recuperara el sonido original. Pero también se habla de remasterización como aquella acción encaminada a mejorar el sonido original de una obra. La remasterización se puede realizar con una grabación sonora, pero también con una audiovisual, de modo que también se puede recuperar, así como "mejorar" la calidad original de una película, por ejemplo.

Una vez, escuchando un programa de radio donde hacen una sección de cine en la que aparece un crítico, un tanto pedante como todos, al que tengo especial aversión y refiriéndose a la remasterización de determinadas películas para su paso al formato digital, llegó a afirmar "esa película no está rodada para verse tan bien". En aquel momento y dejándome llevar por mi percepción de ese hombre retrógrado (que presume de no tener movil), me lo imaginé en su casa con un televisor de rayos catódicos y una gran colección de cintas VHS viendo sus clásicos en la pésima resolución que daba ese sistema y creyendo que aquello era mejor que cualquier cosa que viniera después.

Más tarde apareció la noticia de que un ruso había desarrollado un algoritmo con el que consiguió mejorar la película de los hermanos Lumière "El tren llegando a la estación de La Ciotat" y mostrarla en resolución 4K que nos permitía ver detalles que en la película original no se percibían, los rostros de las personas que aparecían en la película de pronto quedan perfectamente definidos, percibimos sus expresiones y sus arrugas.

 

Pieza restaurada de los hermanos Lumière a 4K y 60fps

 Después de ver esto recordé aquella cita del dichoso crítico y reflexioné sobre sus palabras, ¿realmente estamos mejorando una obra original?, ¿Es así cómo querría su autor que se viera en realidad?

La historia del cine, no así tanto la de la música, ha ido unida al desarrollo tecnológico que ha ofrecido nuevas herramientas a los creadores de este arte. Directores, directores de fotografía, guionistas, escenógrafos han planteado sus películas en relación a las posibilidades técnicas del momento.

George Lucas retrasó (22 años nada menos) la realización del resto de capítulos de la enealogía de Star Wars hasta tener las herramientas tecnológicas que le permitieran contar una historia de ciencia ficción con naves que parecieran reales y la recreación de mundos y seres fantásticos fuera lo suficientemente creíble. De hecho, la remasterización de la trilogía original realizada por él mismo añade elementos nuevos mediante técnicas infográficas.

Diferentes versiones de una escena del Imperio Contraataca. Star Wars, capítulo 2, en sus diferentes remasterizaciones.

Otro ejemplo igual de claro: Martin Scorsese, director poco dado a los fuegos artificiales en la pantalla, al estrenar su película "La invención de Hugo" (2011) la segunda que realizaba con la tecnología 3D llegó a asegurar que sus películas "Taxi Driver"(1976) o "El Aviador"(2004) habrían sido mejores obras de haberse rodado con este sistema, vamos, que de haber dispuesto de la tecnología 3D en aquel momento la hubiese utilizado para rodar estas películas.

Esto nos lleva a la reflexión de si al mejorar la obra original con la remasterización estamos cambiando la percepción del artista que la grabó o si por el contrario estamos haciendo lo que él hubiese querido hacer pero no pudo.

Desgraciadamente creo que si no está el artista que creó la obra detrás de dicha remasterización, nunca lo sabremos.

Hay que pensar que tanto en la  música como en lo audiovisual existen modas o tendencias pasajeras relacionadas con, por ejemplo, la ecualización. Hace años el volumen en que se grababa un CD era mucho menor del que se graba en la actualidad, de modo que se apreciaban matices y frecuencias que hoy en día se sacrifican en pos de un mayor volumen de grabación donde se ha de eliminar ese tipo de frecuencias para evitar la saturación. Por otro lado la proliferación de subwoofers en equipos de música ha hecho que los bajos de las canciones se disparen por encima de otras frecuencias medias más melódicas o que resaltaban la voz del interprete.

Todo esto son modas que afectan a la remasterización de un producto, que alteran sus significado inicial, ya no es lo que el artista escribió y además por su naturaleza de "tendencia" no será un producto duradero en el tiempo.

A todo esto hay que añadir que además de una ecualización para mejorar el sonido estos cambios vienen acompañados de modificaciones también relacionadas con la evolución tecnológica, como la implementación en estas canciones del sonido dolby atmos, el sonido envolvente desarrollado por dolby orientado especialmente al cine y al home cinema y que es utilizado para fijar la procedencia de la música escuchada a través de auriculares en un punto del espacio, de modo que si giramos la cabeza parecerá que la música sigue saliendo del mismo lugar de la estancia que lo hacía antes de que realizáramos ese giro de cabeza.

 

Ejemplo de sonido envolvente con Dolby Atmos (utiliza auriculares para su mejor percepción)

Cada vez que hay un avance tecnológico se abren infinidad de posibilidades que siempre tendrán sus apocalípticos e integrados. Por mi parte sean bienvenidas y que cada uno tome esto como más le guste.

La discusión ya hace tiempo que está abierta.

Una puntualización:

 El portal Tidalque dispone de una muy buena aplicación para escuchar música por suscripción, hace ya tiempo que viene ofreciendo calidad master con audio sin pérdidas , pero por ahora tiene un mercado muy reducido. Veremos como le afecta la implementación de esta alta calidad en los servicios más populares. Tidal en su web anuncia un sonido master tal y como sonaba en la mesa de mezclas del artista, por lo tanto ofrece una fidelidad 100% al sonido creado por el artista tal y como el quería que sonara.

viernes, 14 de mayo de 2021

SONIDO 2. LA CAPTACIÓN, ALMACENAMIENTO Y EMISIÓN DEL SONIDO

«Si una membrana provista de un punzón traza un surco sobre la acción de un sonido, ese surco hará vibrar la membrana cuando el punzón vuelva a pasar por el surco, y se recuperará el sonido inicial»
Charles Cros (1842-1888).

Ya hemos hablado en un artículo anterior sobre la captación del sonido por el oído humano.

No volveremos ahora a ello si no es para la comparación de ciertos aspectos de lo anterior con la captación del sonido mediante elementos electrónicos.

Siempre que intentamos capturar un sonido, ya sea de la voz humana, sonido ambiente, música, etc necesitamos convertir las ondas mecánicas propias del sonido en ondas eléctricas, ya que son estas últimas las únicas que se pueden tratar con instrumentos electrónicos. Para ello utilizamos casi siempre la misma herramienta: El micrófono.

Y EL PROCESO SIEMPRE ES EL MISMO

Captamos el sonido con el micrófono mediante las vibraciones de una membrana que son convertidas en ondas eléctricas, estas son amplificadas y como el sonido aún es analógico hay que convertirlo en sonido digital y posteriormente se pueden manipular (filtrar, ecualizar...) con software especializado  y se pueden almacenar con un formato digital para más tarde enviarlas a un reproductor de que nuevo convierte la señal digital en analógica que, amplificada, se envía a un altavoz que revierte el proceso convirtiendo las ondas eléctricas en ondas mecánicas mediante la vibración de una membrana y las lanza de nuevo al aire.

PERO EN REALIDAD NO SIEMPRE EL SONIDO PROCEDE DE LA NATURALEZA

Efectivamente, cuando captamos un sonido ambiente lo solemos hacer con un micrófono, pero no siempre el sonido tiene esta procedencia. De este modo tendremos diferentes fuentes de entrada de un sonido a un aparato de grabación:

MIC

Se llama así a la entrada de sonido procedente de un micrófono. El sonido que procede del micrófono tiene en general una señal muy débil que debe ser amplificada (preamplifricador).

LINE

Es la entrada de un sonido  procedente de otro aparato, es por lo tanto el método de comunicación entre diferentes aparatos de manipulación de sonido. Por ejemplo una grabadora conectada a un ordenador, una mesa de mezclas con dicho ordenador, un midi a una mesa de mezclas...

INST/HiZ

Es la entrada que procede de instrumentos musicales (guitarra, bajo...) conectados a una mesa de mezclas o a un ordenador con software específico.

Entradas MIC, LINE e INST

Y EL MICRÓFONO ES COMO EL OÍDO HUMANO

Porque capta el sonido, lo amplifica y lo envía a una zona de interpretación y registro.

El micrófono es un transductor que convierte las ondas mecánicas en ondas eléctricas, del mismo modo que lo hace el oído humano.

Porque la captación del sonido la hace mediante la vibración de una membrana de manera similar a como lo hace el tímpano humano.

El diafragma o membrana (2) con su vibración hace que una bobina (3) conectada a él se mueva linealmente con las vibraciones producidas, alterando el campo magnético generado por un imán (4) haciendo que la corriente eléctrica (5) que corre por ella produzca determinados impulsos consecuencia de las vibraciones emitidas por el sonido (1) recogido por la membrana.

Esquema de micrófono dinámico. Fuente: wikimedia.org

PERO NO SIEMPRE ES UNA BOBINA

Porque la bobina es el elemento transductor, la cápsula, que se encarga de transformar el sonido en impulsos electromagnéticos, pero para cumplir esta función hay varios métodos o elementos que tienen dicha capacidad y dependiendo de los componentes que se encargan de ello podemos clasificar los tipos de micrófonos en:

  • Dinámicos
  • De condensador
  • De carbón
  • Piezoeléctricos

Micrófonos dinámicos.

Es el que hemos descrito anteriormente, el transductor es una bobina que se
desplaza a lo largo de un imán reproduciendo el movimiento de la membrana a la que está fijado. El movimiento de vaivén de la bobina a lo largo del imán altera el campo magnético produciendo así una variación de tensión en consonancia con el sonido que golpea a la membrana. Los micrófonos dinámicos no necesitan una fuente de alimentación, son robustos y fiables, con lo que su uso fuera del estudio es lo más habitual. Su baja sensibilidad nos permite grabar en entornos muy ruidosos, puesto que matiza el sonido, así como cuando trabajamos con instrumentos con un sonido fuerte, como puede ser una batería.

Micrófonos de condensador.

En los micrófonos de condensador la membrana es sustituida por la parte móvil del condensador, que es un disco conductor que se mueve por la vibraciones recibidas acercándose o alejándose de otra parte fija del condensador variando así la carga de corriente eléctrica por efecto de esta variación de distancia. Esto produce una variación en la tensión eléctrica. Para que todo esto funcione el micrófono de condensador necesita ser alimentado por una corriente continua administrada por una pila o por el amplificador al que se conecta.
El micrófono de condensador es muy sensible, lo que le permite gran calidad de sonido, pero esa misma sensibilidad hace que sea por lo que se recomienda que se utilice en un lugar fijo sujeto con un brazo o con un trípode.
Por otro lado, este tipo de micrófono, es multidireccional, lo que permite regularlo para la captación del sonido unidireccional, bidireccional u omnidireccional.
Debido a su gran sensibilidad en la captación del sonido el entorno debe estar controlado, por lo que es un micrófono principalmente de estudio. Utilizado en doblajes, locuciones y en la creación de efectos de audio que requieren gran nitidez y calidad.

Esquema micrófono de condensador

Micrófonos de carbón

Los micrófonos de carbón, también conocidos como micrófonos de botón, están compuestos por una zona de resistencia encapsulada en la que hay partículas de carbón, grafito o antracita que ofrecen una resitencia al movimiento de la membrana (normalmente una placa de metal). Al vibrar la placa empuja estas partículas variando su posición relativa, provocando así una variación en la resistencia existente entre esta placa móvil y otra fija y por lo tanto en la corriente que lo atraviesa en consonancia al sonido que ha producido la vibración de la membrana. Este tipo de micrófono fue muy utilizado en la telefonía hasta que fue sustituido por los micrófonos de condensación que daban mayor calidad y menor nivel de ruido.

Micrófono de carbón

Micrófonos Piezoeléctricos

Los micrófonos piezoeléctricos utilizan una serie de cristales que tienen la propiedad de, cuando son sometidos a una presión mecánica como la de las ondas sonoras, cambiar el potencial eléctrico de su superficie debido a la fricción de las partículas que las componen. La frecuencia de respuesta es muy irregular en estos micros, lo que hace que no se utilicen a nivel profesional, pero son muy utilizados en pastillas para las guitarras eléctricas debido a que sacan un buen sonido de las cuerdas de este tipo de guitarras.
Pastilla piezoeléctrica

Los micrófonos piezoeléctricos pueden ser de cristal o de cerámica, además de, como hemos dicho, pastillas para guitarras.

PERO, ¿QUÉ HACEMOS CON EL SONIDO QUE RECOGE EL MICRÓFONO?

Pues lo manipulamos y lo reproducimos en un altavoz y además, si queremos, lo recogemos en un soporte para manipularlo posteriormente.
Independientemente de la fuente de entrada de sonido, recordad MIC, INST o LINE, algo tenemos que hacer con ella. Lo habitual es amplificar la señal eléctrica que suele ser muy débil y posteriormente manipularla de manera más profunda para adecuar el sonido a aquel objetivo que buscamos, ya sea grabar una locución, un efecto de sonido o registrar un instrumento. Este registro "en bruto" o "enriquecido" podrá posteriormente utilizarse para ser mezclados con otros para, por ejemplo, la grabación de un tema musical, de una banda sonora o de un podcast.
Ni qué decir tiene que podemos combinar sonidos de diversa índole procedente de diferentes fuentes de entrada o de archivos previamente almacenados.

ALMACENAR EL SONIDO ES POSIBLE

Claro, gracias a ello podemos reproducir cada vez que lo deseemos aquella canción o podcast que nos gusta o ver una película sonora o escuchar nuestro programa de radio musical favorito.
El almacenamiento de sonido es posible, de hecho, desde mediados del siglo XIX gracias a un invento llamado el fonoautógrafo (Édouard-Léon Scott de Martinville, 1857).
Desde entonces la grabación del sonido, como lo fue en el caso de la imagen, avanzó de la mano de los diversos adelantos técnicos, en cuya evolución podemos hacer una gran división entre el registro analógico del sonido y el registro digital.
Fonoautógrafo. Fuente: wikipedia

PORQUE UN CILINDRO DE CERA PUEDE SER GRABADO

Y lo hace una aguja que recibe las vibraciones del sonido ambiente, vibraciones que quedarán plasmadas en los surcos en forma de espiral que deja ésta en este cilindro que gira en una determinada dirección como en el caso del fonógrafo (Thomas Alva Edison, 1877). El gramófono (Emile Berliner, 1887) sustituyo el cilindro por un disco metálico, y el tocadiscos (1925) usa (aún) discos de vinilo. Son quizá los aparatos que más relacionamos con la grabación y la reproducción mecánica del sonido.
Pero con el gramófono y el tocadiscos se perdió la posibilidad de las grabaciones caseras que permitía el fonógrafo y es entonces cuando aparece el magnetófono (1935, AEG-Telefunken), cuya grabación es magnética y poco después la cinta de cassette (Philps, 1963) compacta que permitó a todos poder registrar el sonido de forma sencilla en casa una y otra vez sobre el mismo soporte.
La cinta de cassette era además fácilmente transportable y reproducible en aparatos portátiles y adaptables, por ejemplo, a la consola de un coche.
Tocadiscos y disco de vinilo


Cinta de cassette

Las cintas magnetofónicas pueden ser grabadas gracias a que están cubiertas de partículas de metal imantadas y cuya carga puede ser alterada por un cabezal que gracias a una bobina se magnetiza y genera un campo magnético que al ser aplicado sobre la cinta ésta es capaz de retenerlo, lo que permite un gran número de grabaciones sobre el mismo soporte.
Para reproducir el sonido el proceso se invierte de modo que la cinta magnetizada pasa por un cabezal que no lo está induciendo sobre este un campo magnético que transmite a una bobina que genera un campo eléctrico acorde los impulsos de la grabación, este se amplifica y se envía a un altavoz.
Radiocassete de uso casero, permitía reproducir y grabar cintas magnéticas

Y LA GRABACIÓN MAGNÉTICA TAMBIÉN PUEDE SER DIGITAL

Bueno, la grabación en sí no, pero la información que transporte sí. Porque Sony inventó una cinta magnética que grababa el audio en formato digital la Digital Audio Tape. (DAT) en 1987. Era una cinta muy similar a las cintas de cassette convencionales aunque más pequeña, con una anchura de 4 mm y sin pérdida de audio, puesto que no hay comprensión. Su uso se ha relegado a entornos profesionales.
Cinta DAT. Más pequeña y compacta
que una cinta de cassette analógica.

Y YA NO HAY VUELTA ATRÁS

Porque a partir de aquí la grabación del sonido se hace en formato digital, apareciendo el formato óptico con un soporte que termino extendiéndose como estándar.
El CD o Compact Disc, el Mini Disc o el disco laser son ejemplos de la capacidad de almacenamiento óptico de la grabación digitalizada. Un láser realiza perforaciones en una superficie fotosensible que  luego son leídas por otro láser que interpreta ceros y unos dependiendo de si encuentra una perforación o no.

PORQUE LA INFORMACIÓN DIGITAL ES BINARIA


La grabación digital se hace tomando un muestreo regular de la señal analógica que llega al receptor donde cada muestra recibe un valor numérico en formato binario. La toma de muestra debe realizarse al menos al doble de la frecuencia de la señal recibida, como la señal de audio se recibe a 20 kHz la frecuencia de muestreo es de, al menos, 44,1 kHz. Posteriormente la señal debe ser convertida a analógica para ser reproducida por un altavoz.
La grabación digital tiene en sí varias ventajas:
  • La reducción de ruido se puede realizar en todas las etapas de la grabación, puesto que la grabación se hace muestra a muestra de manera independiente y dentro de cada muestra bit a bit.
  • Se puede añadir información adicional a la puramente sonora como datos del autor, título de la grabación o todos aquellos datos técnicos que sean necesarios.
Del mismo modo que las cintas magnéticas hay cierto soporte óptico que se puede regrabar después de haber sido grabado previamente es un híbrido llamado soporte magnetico-óptico, en el que la grabación se realiza de manera magnética y la lectura se hace mediante láser.

PERO AL FINAL TODO ESTÁ POR LAS NUBES


Porque todos estos formatos de almacenamiento de la música han sido relegados por la música en streaming para el consumo con plataformas como Amazon Music, Apple Music o la exitosa Spotify. Además el almacenamiento a nivel profesional también se hace en la nube. Servidores a los que te conectas a través de internet y por cuyo servicio premium se suele pagar una suscripción temporal.
Las ventajas del almacenamiento en la nube son evidentes: Puedes acceder a los archivos desde cualquier dispositivo y desde cualquier lugar, permitiendo así la movilidad. Por otro lado es una buena manera de preservar tu trabajo de averías en los equipos de trabajo que hagan irrecuperable cualquier dato guardado localmente.
Todo esto es debido a la gran velocidad de transferencia de datos conseguida en internet gracias a la fibra óptica y, ya, al 5G.

PERO ¿EN QUÉ FORMATO ESTÁ ESTO?



Porque puestos a guardar los datos de sonido recogidos por cualquiera de las fuentes que hemos nombrado, tenemos que guardarlos de modo que cualquier ordenador o programa de edición pueda entenderlos.
Los formatos en lo que se guardan los archivos de audio se pueden dividir en dos grandes grupos para empezar:
Formatos que comprimen la información (con pérdida de calidad o no)
Formatos que no comprimen (sin pérdida).

¿QUÉ ES LO QUE TENGO QUE TENER EN CUENTA CUANDO GUARDO SONIDO EN FORMATO DIGITAL?

Ya hemos hablado de la naturaleza de la captación digital del sonido de modo que se toma la señal analógica y se toman muestras a una cadencia regular que debe ser al menos al doble de frecuencia que la de la señal del sonido que como ya hemos dicho es de 20 KHz, esta toma de muestras es llamada el Sample Rate.
Ejemplos del muestreo del sonido en una captación digital
según la cadencia, de menor a mayor

Otro aspecto a tener en cuenta a la hora de almacenar un sonido es la profundidad de Bit, es decir, la cantidad de información que hay en cada muestra tomada de la fuente original, a esto se le llama el Bit Depht.
Ejemplo de profundidad de bit. Observad que a igual velociad de muestreo cuanto mayor es la profundidad de bit mayor es la cantidad de información por muestra, es más fiel al sonido original y muestra menos ruido.

Pues ya tenemos los dos palabros que se toman en cuenta cuando hablamos de la calidad de un archivo de sonido:
Cuando vemos que un archivo está grabado en  32-bit/192kHz o 24-bit/96kHz Estamos hablando de, en primer lugar, la cantidad de información por muestra (32 bits, 24 bits...) y la cantidad de muestras tomadas del sonido analógico (192.000 muestras por segundo, 96.000 muestras por segundo...). Estos dos parámetros determinan la calidad del sonido del archivo de audio.

¿Y ESTO EN QUÉ IDIOMA LO ESCRIBIMOS?

Si tuviéramos que escribir todo en lenguaje máquina, ceros y unos, sería imposible guardar tanta información, para ello tenemos una gente muy inteligente diseñando atajos o algoritmos que permiten captar el sonido e interpretarlo con la mayor calidad posible y, además, escribir esa información en menos espacio.
Este  que veis aquí, es un algoritmo desarrollado para mejorar la escritura a mano cuando es escaneada. No tiene nada que ver con el sonido, pero es un buen ejemplo de como se desarrollan estas herramientas matemáticas cuyo proceso podéis ver en la página de su autor.

Para conseguir esto existen un montón de idiomas llamados codec de audio, que no son exclusivos de un formato determinado, sino que son los diferentes lenguajes en los que está codificada la información. En líneas generales los codecs  se encargan de convertir la señal analógica en digital y a la inversa, en el caso de que estemos escuchando un audio. Por otra parte, como hemos  dicho, al  convertir el audio también se encarga de comprimir la información para conseguir que ocupe menor espacio en la memoria o en una transmisión en tiempo real.
Dependiendo del tipo de codec utilizado se realizarán cálculos de unos parámetros u otros para reducir la cantidad de información, por ejemplo eliminando aquellas frecuencias que no son audibles para el oído humano o eliminando resonancias predecibles.
Los codecs de audio suelen instalarse en el ordenador en un paquete que contienen muchos de estos, pero en general, todos los aparatos que tienen que reproducir sonido deben tenerlos instalados, desde un móvil hasta un coche.
Existen dos tipos de codec de audio los que implican pérdida en la calidad del sonido y los que no. La pérdida normalmente se puede graduar a nuestra voluntad cuando codificamos un archivo, siempre en función de nuestras necesidades de espacio y calidad.

VALE, PERO ¿QUÉ ES ESO DE WAV, MP3, AIFF, OGG...?

De acuerdo, a eso vamos. Cuando hemos hablado de formatos de audio nos referíamos a la extensión que le damos al nombre del archivo y que generalmente es un acrónimo del  nombre del formato. Cada formato lleva una codificación específica que lo hace legible y le da unas cualidades de compresión y calidad.
Como hemos dicho vamos a hablar de los más usuales y que clasificaremos en dos grandes grupos:
Formatos sin comprimir y formatos comprimidos (con pérdida o no).

Formatos sin comprimir:

Los más conocidos son el WAV (Waveform Audio File Format), desarrollado por Microsoft e IBM y el AIFF desarrollado por Apple para sus Macs. Estos formatos permiten almacenar varias frecuencias de muestreo. Aparte de estos formatos está el BWF desarrollado por la Unión Europea de Radiodifusión que además de no comprimir el sonido permite la grabación de metadatos en el archivo de sonido.
Los formatos de audio sin comprimir son utilizados por los programas de edición de sonido profesionales.

Formatos comprimidos:

  • Sin pérdida: Los formatos comprimidos sin pérdida son formatos que reducen un poco el peso del archivo original, pero que siguen siendo de gran tamaño, ocupando aproximadamente dos tercios del original. Estos son los más comunes:
    • AIFF-C (*.aiff, *.aifc): Es una versión comprimida del antes nombrado AIFF cuya frecuencia de muestreo es de 41,1 KHz con una profundidad de 16 bits.
    • MP3HD (*.mp3hd): Igual que el anterior tiene una profundidad de 16 bits y una frencuencia de 41,1KHz, es la versión sin pérdida del popular mp3.
    • FLAC (*.flac): Integrado en el proyecto OGG es un formato de libre distribución, su nombre es un acrónimo de Free Lossless Audio Codec.
  • Con perdida: Los formatos comprimidos con pérdida de calidad permiten reducir considerablemente el peso del archivo original en detrimento de la calidad del sonido. Normalmente al guardar el archivo podremos elegir el nivel de comprensión según nuestras preferencias.
    • MP3 (*.mp3): Desarrollado por el Moving Picture Experts Groupn(MPEG), es uno de los formatos de audio más conocidos y utilizados debido a su gran capacidad de comprensión y en general no es perceptible por el iído humano. Es muy utilizado en internet, en archivos de streaming o en reproductores protátiles, pues es capaz de comprimir un archivo original hasta 1/15 de su tamaño sin gran pérdida de calidad. Sus variantes son MPEG-1 Audio Layer III o MPEG-2 Audio Layer III.
    • Ogg Vorbis (*.ogg): De código abierto este contenedor es un formato de libre distribución. Es el formato utilizado por Spotify en su versión premium. Este formato fue creado para liberarse del pago de royalties a Fraunhfer IIS, creador del MP3, por el uso de su formato. Sus niveles de calidad se mueven entre 32 kbit/s y 500 Kbit/s
    • WMA (*.wma): El Windows Media Audio fue desarrollado por Microsoft para su reporductor Windows Media Player. Muy similar a MP3, además incluye información adicional del autor.

Y AHORA VAMOS A ESCUCHAR UN POCO DE MÚSICA... 

Porque en realidad de eso se trata, ¿no? Estos formatos de audio son guardados para ser escuchados, de modo que ¿cual es el proceso que ha de devolver estos sonidos de nuevo al aire?
Cuando guardamos archivos digitales de audio lo hacemos con algoritmos matemáticos que hemos de convertir de nuevo en ondas sonoras perceptibles por el oído humano.
Para ello el decodificador realiza la tarea inversa a la de la captación del sonido, lee el archivo codificado y lo convierte en impulsos electromagneticos que, amplificados, se transfieren mediante cable un altavoz.

¿UN ALTA QUÉ...?

Un altavoz es un transductor que convierte las ondas electromagnéticas en ondas mecánicas de sonido, es decir, exactamente lo contrario que un micrófono con el cual tiene mucho en común.
Dependiendo, además, de las frecuencias que tenga que reproducir necesitaremos altavoces de diferentes potencias, ya que para las frecuencias bajas (graves) necesitaremos mover más cantidad de aire que para las frecuencias altas (sonidos agudos). De este modo, un sistema de altavoces estará siempre compuesto, al menos, por dos o más de estos.

Y CLARO, COMO EN LOS MICRÓFONOS, TENEMOS DIFERENTES TIPOS DE ALTAVOCES

Porque podemos hablar de altavoces dinámicos o electrostáticos.
Los dinámicos utilizan un transductor electromagnético, es decir, una bobina móvil (como en los micrófonos) que al moverse hacia atrás y hacia adelante a lo largo de un imán arrastra con ella a la membrana que, con su vibración, lanza las ondas al aire.
Funcionamiento de un altavoz
ver más aquí



Los electrostáticos son aquellos que utilizan un transductor electrostático, es decir, como un micrófono de condensador. Con una placa metálica móvil, a modo de diafragma, que se desplaza acercándose o alejándose de otra fija. Como en el micrófono, necesita una corriente contínua que lo alimente y el movimiento es producido por las variaciones de tensión de la corriente. Este movimiento es el que lanza las ondas mecánicas moviendo el aire que transmite el sonido.

Como os he contado, necesitamos varios altavoces para conseguir emitir al aire todas las frecuencias que componen el archivo de sonido, es por ello que existen diversas configuraciones de altavoces específicas para cada espacio. Así, podemos encontrar conjuntos de altavoces especialmente preparados para, por ejemplo los "Home cinemas" con  sistemas de sonido 5.1, en los que tenemos 5 altavoces más un subwoofer encargado de los bajos, o sistemas estereos de alta fidelidad e incluso altavoces especialmente diseñados para emitir el sonido desde el techo. Pero esto ya es harina de otro costal.

martes, 27 de abril de 2021

KRITA: UN GRAN PROGRAMA DE DIBUJO Y RETOQUE FOTOGRÁFICO



Recientemente he estado trabajando con Krita, un programa que puede ser una buena alternativa a Photoshop, pero que está más enfocado al dibujo y la ilustración e incluso se puede hacer en él animación tradicional en 2D. Es un programa de software libre que es gratuito y se puede instalar en todos los sistemas operativos.

Sus herramientas están muy enfocadas al mundo de la ilustración y es por ello que podemos encontrar en él gran cantidad de pinceles de todo tipo. Por otro lado, sus gráficos vectoriales funcionan de mil maravillas y sus efectos de retoque fotográfico no tienen nada que envidiar a los del Photoshop.

Además tanto el programa como su web, en la que puedes encontrar infinidad de recursos y tutoriales, están totalmente en español.

Este es el enlace a su web: https://krita.org/es/


martes, 30 de marzo de 2021

SONIDO 1. LA NATURALEZA DEL SONIDO

Micrófono de estudio
LA NATURALEZA MECÁNICA DEL SONIDO

El fenómeno físico del sonido se produce cuando una serie de ondas mecánicas se desplazan a través de un fluido flexible (sólido, líquido o gaseoso). Esto quiere decir que lo que hace el sonido es deformar el fluido a través del que pasan ejerciendo una fuerza sobre él en forma de ondas o perturbaciones.

A las ondas de sonido las llamamos ondas acústicas. Cuando una onda acústica resulta audible la llamamos onda sonora.

Decimos que las ondas son periódicas cuando se propagan de manera regular por el medio.

Y ESTA ES LA GRAN DIFERENCIA CON LA LUZ

La gran diferencia entre el sonido y la luz es la naturaleza de sus ondas que le dan cualidades diferentes. Mientras que la luz es propagada mediante ondas electromagnéticas, las ondas mediante las que se propaga el sonido son ondas mecánicas, lo que le impide propagarse por el vacío. 

El sonido se propaga más rápidamente en medios sólidos y líquidos que en los gaseosos. Como el sonido necesita de la transmisión de la vibraciones de las moléculas de un cuerpo a otras para propagarse, cuanto mayor sea la densidad de este más rápidamente se propaga.

Onda electromagnética.
Vemos en rojo el campo eléctrico y en azul el magnético

Onda mecánica.
Simulación con la ondulación de una cuerda


LA FRECUENCIA DEL SONIDO

Como hemos dicho, al producirse la vibración de un cuerpo se produce la propagación de ondas (perturbaciones). Estas ondas en la mayoría de las ocasiones son periódicas. En consecuencia, en función de la cantidad de veces que se repita esa perturbación completa (ciclo) durante un segundo obtendremos la Frecuencia, que se miden en hercios (Hz).

Un Hercio es un ciclo que tiene un periodo por segundo, es decir que se repite una vez por segundo.

Cuanto mayor sea el periodo, mayor repetición por segundo y por lo tanto mayor frecuencia.

Ondas de sonido de diferentes frecuencias.


EL SONIDO QUE PODEMOS OIR

Cuando podemos oír una onda acústica esta se denomina onda sonora.

Las frecuencias de sonido que son audibles por el oído humano son las que van desde los 20 Hz hasta los 20.000 Hz (los utrasonidos y los infrasonidos están por encima y por debajo de esto valores respectivamente). De este modo tenemos que aquellos sonidos que tienen una frecuencia más baja (menos ciclos por segundo) son sonidos graves, mientras que por el contrario los sonidos agudos son aquellos que tienen más hercios por segundo.

PERO TAMBIÉN ESTÁN  LA LONGITUD Y LA AMPLITUD DE ONDA

Otra cualidad del sonido es la longitud y la amplitud de la onda.

La longitud de onda en cierta medida se identifica con un periodo, pero la longitud de onda es la distancia que abarca un ciclo completo, mientras que un periodo se identifica con el tiempo que tarda en desplazarse dicho ciclo. Las longitudes de onda de los sonidos audibles por el oído humano van desde los 17 metros hasta los 17 milímetros.

La amplitud es el valor de la cresta de la onda, cuanto mayor sea más intenso será el sonido, intensidad que se identifica con la ganancia o el volumen. La intensidad se mide en decibelios (dB)

La longitud de onda se relaciona con el timbre (agudo o grave),
la amplitud con el volumen

Tabla de diferentes niveles de intensidad de sonido. (Fuente: Wikipedia)
AUNQUE CASI TODO LO QUE OÍMOS ES RUIDO

Pero en la naturaleza lo que normalmente tenemos es ruido. Se denomina así a las ondas aperiódicas, es decir que no son regulares en las que la forma y el periodo de la onda cambia constantemente.

UNA ONDA NO ES 100% PURA

Además las ondas acústicas en general no son puras, es decir, que una onda puede contener más de una frecuencia a la vez, las diferentes frecuencias que surgen de la descomposición de una onda están en múltiplos de la frecuencia principal (frecuencia fundamental) de modo que para una sonido con frecuencia de 20Hz estaremos descomponiendo de ellas frecuencias secundarias de 40 Hz, 50 Hz, 60 Hz, a estas frecuencias secundarias las llamamos armónicos.

En la imagen vemos los armónicos
que surgen de un determinado sonido fundamental

ADEMÁS PODEMOS PERCIBIR ECO Y REVERBERACIÓN

Cuando un sonido rebota sobre una superficie podemos percibir parte de ese sonido, si el obstáculo está a más de 17 metros podemos diferenciar los dos sonidos, el emitido y el rebotado, a lo que llamamos eco. Si por el contrario el obstáculo está a menos de 17 metros esta distinción no se produce, a esto lo llamamos reverberación. Es por ello que en los estudios de sonido se forran las paredes con superficies irregulares, para dispersar el rebote y así amortiguarlo.

Amortiguación del sonido mediante almohadillas
en forma de pirámide para evitar el rebote direccional del sonido

CAPTACIÓN DEL SONIDO POR EL OÍDO HUMANO

Para nuestro objetivo de explicar la captación y manipulación del sonido mediante elementos electrónicos e informáticos nos vendrá bien entender cómo el oído capta el sonido y es interpretado por el cerebro. Del mismo modo que nuestro sentido de la vista ha inspirado el diseño de las cámaras de fotografía y cine, el diseño del sistema de captación del sonido también imita el diseño natural de nuestro sentido auditivo.
Esquema del oído humano

La oreja es una gran antena parabólica que capta las ondas sonoras y las hace pasar por el conducto auditivo hasta el tímpano. Las ondas hacen que el tímpano vibre y a su vez estas vibraciones son transmitidas a una serie de huesecillos en el oído medio llamados martillo,  yunque y estribo. La función de estos huesecillos es amplificar las vibraciones que son enviadas a la cóclea que con su forma de caracol está rellena de líquido que reacciona creando pequeñas olas que sacude una membrana que soporta las células que reaccionan a las vibraciones amplificadas(células ciliadas). Estas células son la base de unas proyecciones muy pequeñas (estereocilios) que al ser empujadas por el movimiento de vaivén de las anteriores, chocan con una membrana que hace que se abran poros y son inoculadas con sustancias químicas produciendo así una señal eléctrica. Finalmente, ésta señal eléctrica es enviada al cerebro mediante el nervio auditivo, donde son interpretadas como los sonidos que nos ponen en contacto con nuestro entorno sonoro. 


En éste vídeo podréis ver una animación que explica de manera sencilla el proceso

domingo, 24 de enero de 2021

PHOTOPEA: UN EDITOR DE IMÁGENES ONLINE

Photopea es gratuito, lo único que verás aparte del programa en sí es un banner a la derecha de la pantalla que no molesta para trabajar. 

Os dejo aquí el enlace a la página de Photopea. Photopea es un programa de edición de imágenes muy similar a Photoshop que puedes ejecutar directamente en su página web desde cualquier navegador. Es gratuito y acepta gran cantidad de formatos, entrre ellos el PSD de Photoshop.

miércoles, 6 de enero de 2021

EL ESPACIO CINEMATOGRÁFICO III: LAS ESCALAS CINEMATOGRÁFICAS

LA FIGURA HUMANA A LO LARGO DE LA HISTORIA DEL ARTE

Pinturas rupestres prehistóricas de más de 4000 años Khao Chan Ngam, Nakhon Ratchasima
Durante toda la historia del arte las manifestaciones artísticas han mostrado el cuerpo del ser humano y sus acciones. Ya sea en los retratos que pretendían hacer permanente la imagen del retratado o las pinturas historicistas o costumbristas, dejando constancia de los hechos, el arte siempre ha querido ser un testigo de su tiempo.
A lo largo de los siglos, la posibilidad de perpetuar la propia imagen fue exclusiva de la aristocracia, clase adinerada capaz de pagar a un artista para que, a través de la pintura o de la escultura, inmortalizara su figura para admiración de generaciones venideras.
Escena de caza en la tumba de Nebamun,
escriba y contable del templo de Karnak. Hacia 1350A.C.


Napoleón en su trono imperial. Jean Auguste Dominique Ingres, 1806.
Narcisismo y propaganda política se unen en este retrato.

Es por ello que la pintura adquiere un valor testimonial, como vemos en el "Retrato de Giovanni Arnolfini y su esposa" de Van Eyck, donde el pintor se erige en notario que da fe de los hechos que presencia y plasma su testimonio en el cuadro. O Velázquez, que eterniza un hecho histórico, la rendición de la ciudad de Breda, para la posteridad como medio de propaganda política o de testimonio periodístico.
El Retrato de Giovanni Arnolfini y su esposa es un cuadro del pintor flamenco Jan van Eyck; fechado en 1434.En él se representa la boda de los retratados, el cura y el testigo a parecen reflejados en el espejo del fondo.
En la pared de fondo se puede observar la inscripción
“Johannes de Eyck fuit hic 1434” (Jan van Eyck estuvo aquí en 1434), como testimonio de que el sacramento se celebró.

Hacia 1635. Muestra como el 5 de junio de 1625 Justino de Nassau, gobernador holandés de Breda, entregó las llaves de la ciudad a Ambrosio Spínola, general genovés al mando de los tercios de Flandes.


Pieter Brueghel el Viejo. El Triunfo de la Muerte. Hacia 1562.
Testimonio de la epidemia de peste que asoló Europa en el siglo XIV

En todas las obras anteriores hay un elemento común: la figura humana, que de una manera u otra protagoniza las escenas, ya sea posando como modelo, escenificando una rendición o luchando inútilmente contra una terrible pandemia, como en el cuadro de Brueghel el Viejo.
En función de la escena que presenciamos la figura humana aparece en diferentes tamaños según la acción que se desarrolla o el objetivo buscado por el artista.
Fijémonos en el retrato de Inocencio X, realizado por el mismo Velázquez. Su mirada, sus rasgos faciales transmiten no poca tensión y nos hablan de una gran profundidad psicológica del personaje. Para resaltar esto, es decir, su fuerza psicológica el pintor tuvo que acercarse lo suficiente al personaje como para captar su expresión, pero no tanto como para no poder pintar sus vestimentas, símbolo de su poder.
Retrato de Inocencio X, Diego Velázquez, 1650
La figura humana de este modo se erige en protagonista de toda una historia del arte marcada por los hechos y la sociedad de cada época. No es de extrañar que llegada la época de su reproductibilidad técnica esta tradición se mantenga.

LA APARICIÓN DE LA FOTOGRAFÍA

En el siglo XIX, siglo de la Revolución Industrial y de la estandarización, se desarrollan técnicas para mecanizar la producciones gráficas.
Con la aparición de la fotografía ya no es exclusivo de las clases privilegiadas obtener la inmortalidad de su imagen, la fotografía populariza el afán narcisista del ser humano y su anhelo por la permanencia de su imagen más allá de su esperanza de vida.
Retrato de estudio de una familia burguesa, mediados s. XIX
Retradto del Zar Nicolás y su familia. 1911
No sólo el retrato, sino también la fotografía en todos sus géneros, se convierte en el medio para dar testimonio de los hechos, inmortalizando instantes irrepetibles y dignos de ser preservados, desde lo cotidiano a lo históricamente trascendente.
La fotografía se convierte así en el medio que permite hacer perdurar una realidad inmutable, atrapada en un instante digno de recordar, "el instante decisivo" como lo llamaría Henri Cartier-Bresson, con lo que en cierta manera sustituye a otras manifestaciones artísticas (pintura y escultura) en esta tarea.
Henry Cartier-Bresson. Esta instantanea representa la naturaleza misma de la fotografía. La congelación del tiempo.



En este vídeo podéis escuchar de palabras del propio Cartier-Bresson
cuales eran sus motivaciones a la hora de realizar sus fotografías.

Dejando el paisajismo de lado, la figura humana y los hechos que protagoniza es, pues, uno de los elementos que más ha atraído, como digo, la atención de los artistas y por ende, de los fotógrafos.
Esta figura humana se plasma en un contexto, un escenario que determina la acción del individuo, acción que poco a poco va tomando importancia.

LA APARICIÓN DEL CINE

La acción implica movimiento, y por deducción lógica, tiempo.
Ya no es suficiente con mostrar un momento -un instante- sino que se necesita ampliar el tiempo mostrado en las imágenes para ver el desarrollo de dicha acción.
De manera que pronto se empieza a buscar el modo de plasmar el tiempo en esas imágenes.
Muchos son los que se lanzan hacia este objetivo, con ello aparece la cronografía, que sirve como base conceptual para el posterior desarrollo del cinematógrafo de los hermanos Lumière.
Ya tenemos la técnica que permite mostrar las acciones y ese tiempo en que se desarrollan, pero la base sigue siendo la misma: una foto fija, el fotograma.
Y dentro del fotograma la imagen de la figura humana sigue siendo la protagonista, de hecho, la primera película proyectada por los hermanos Lumière es "La Salida de los Obreros de la Fábrica" (1895).



Ahora hay que aprender a mostrar las acciones que la figura humana desarrolla en el tiempo de manera que sea entendible por un público amplio y no formado, popularizando así el espectáculo del cine.
Poco a poco se desarrolla para ello el lenguaje cinematográfico, una nueva manera de contar, de plasmar la realidad, nunca antes vista.
Al principio la cámara está fija, mostrando la acción en un espacio amplio que permita percibirla como si de un teatro se tratase, posteriormente se descubre que se puede cambiar la cámara de sitio, acercándola o alejándola del personaje según lo requiera la historia: Aparecen con ello el montaje y los planos cinematográficos.
Como todo lenguaje este nuevo tiene sus códigos y, antes de que la cámara se pueda mover mientras se realiza una toma (travelling, panorámica...), aparecen ya las ESCALAS CINEMATOGRÁFICAS, cuya unidad de referencia es, como desde el principio de la humanidad, la figura humana.

LAS DIFERENTES ESCALAS CINEMATOGRÁFICAS

Llegados a este punto podemos hablar ya de que las escalas se denominan de una manera u otra según el tamaño en que la figura humana aparece en la pantalla.
Dicho esto, estas son las principales escalas cinematográficas cuya función pasaremos a estudiar de ahora en adelante:
Como hemos dicho anteriormente las escalas cinematográficas, es decir, el tamaño en que la persona aparece en un plano está en relación con aquello que se quiere mostrar o expresar.
Veremos, así, que aquellos planos más descriptivos son los que nos enseñan más escenario, apareciendo en ellos la figura humana más pequeña, mientras que a medida que acercamos la cámara al personaje, el escenario va perdiendo importancia y va ganando importancia el aspecto psicológico de dicho personaje.
Lo haremos así, iremos viendo las escalas desde lo descriptivo a lo psicológico:


Gran Plano General: En él aparece la figura humana muy pequeña y es un plano que se utiliza para describir un escenario en el que se va a desarrollar la acción. La figura humana se ve como perdida en medio de una inmensidad que le sobrecoge. También se emplea tanto para mostrar una gran muchedumbre como para mostrar la soledad del personaje en el escenario.
Salvar al Soldado Ryan. Steven Spealberg, 1998

Centauros del Desierto. John Ford, 1961

Plano General: En él aparece la figura humana muy pequeña, apenas ocupa 1/4 de pantalla y es un plano en el que ya se ha iniciado la acción, se muestra las posiciones de cada uno de los elementos que van a formar parte de ella de manera que el espectador se termine de hacer una fotografía mental de lugar.
Centauros del Desierto. John Ford, 1961
Plano Conjunto: La figura ocupa 2/3 de la pantalla y en él se pueden ver un conjunto de personas. Es un plano que se utiliza en el desarrollo de la acción.
Centauros del Desierto. John Ford, 1961
Salvar al Soldado Ryan. Steven Spealberg, 1998
Plano Entero: aparece el personaje ocupando la mayor parte de la pantalla, en él empezamos a ver el aspecto general (ropa, actitud...) del personaje y apreciamos sus expresiones es el primer plano en el que el aspecto psicológico tiene más importancia que el descriptivo.
Sólo ante el peligro. Fred Zinnemann, 1952
Plano Americano: o plano medio largo fue creado en las películas del oeste americano donde era necesario tener un plano donde se vieran las pistoleras. En él aparece el personaje ocupando la mayor parte de la pantalla cortado por las rodillas. Podemos apreciar su expresión y nos transmite ya emociones directas.

Centauros del Desierto. John Ford, 1961
El Bueno, el Feo y el Malo. Sergio Leone, 1968
Plano Medio Estándar: En el aparece el personaje cortado por la cintura podemos apreciar perfectamente sus expresiones y vemos cómo gesticula con los brazos. Es un plano muy expresivo que se emplea en las conversaciones, puesto que el lenguaje no verbal transmitido por las manos tiene mucha fuerza visual.

Gladiator. Ridley Scott, 2000

Joker. Todd Phillips, 2019
Pulp Fiction. Quentin Tarantino, 1995
Plano medio corto: El personaje aparece cortado por el pecho en este plano tiene más importancia la expresión del personaje que las acciones.

Hasta que Llegó su Hora. Sergio Leone, 1970
Balde Runner. Ridley Scott, 1982
Primer plano: Aparece la cabeza del personaje cortada a la altura del cuello ocupando la mayor parte de la pantalla. Intuimos acción a través de los ojos del personaje y su reacción psicológica ante lo que está viendo.
Balde Runner. Ridley Scott, 1982
El Bueno, el Feo y el Malo. Sergio Leone, 1968
Balde Runner. Ridley Scott, 1982
Primerísimo primer plano: es un plano que se centra en un detalle del personaje, un acercamiento máximo a un elemento que enfatiza su expresión (miedo, angustia, tristeza...), los ojos o la boca principalmente.
Balde Runner. Ridley Scott, 1982
Kill Bill: Volumen 2. Quentin Tarantino, 2004

Plano detalle: es un plano que se centra en un detalle del personaje o de la acción, por ejemplo un plano donde aparece un ojo que refleja el entorno en su iris, como en Blade Runner (Ridley Scott, 1982),  una mano que abre una puerta (Bored to Death, HBO, 2009), una mano nerviosa con un revolver...
Balde Runner. Ridley Scott, 1982
Bored to Death. Serie HBO, 2009-2011