miércoles, 19 de mayo de 2021

MÚSICA EN STREAMING LOSSLESS

 Recientemente las distribuidoras de música en streaming a través de aplicaciones como Apple Music, Amazon Music, Spotify entre otras vienen despertando rumores del lanzamiento de canciones en audio sin pérdida (loosless audio), a lo que se le ha llamado también formato de audio de Alta Fidelidad.

De hecho, Apple ya ha hecho el anuncio de manera oficial, ofreciendo estos archivos sin coste adicional para sus suscriptores.

Se ha anunciado la remasterización del catálogo de canciones de Apple Music para ofrecerlas en este formato de gran calidad. Desde un punto de vista técnico el mayor handicap de este tipo de archivos es su peso, llegando a ocupar quizá diez veces más que un archivo comprimido mp3, pero la llegada del 5G y de las tarifas de datos ilimitados que las operadoras están ofreciendo hacen posible este lanzamiento de archivos tan pesados. Además entiendo que los amantes de la música que se alegran de esta noticia preferirán escuchar sus temas favoritos en un equipo que les ofrezca esa fidelidad que este tipo de archivos promete.

Lo que realmente me ha hecho reflexionar de esta noticia ha sido lo de la remasterización.

La remasterización debería tener como objetivo la recuperación de la calidad original de una grabación deteriorada o previamente adulterada de modo que se recuperara el sonido original. Pero también se habla de remasterización como aquella acción encaminada a mejorar el sonido original de una obra. La remasterización se puede realizar con una grabación sonora, pero también con una audiovisual, de modo que también se puede recuperar, así como "mejorar" la calidad original de una película, por ejemplo.

Una vez, escuchando un programa de radio donde hacen una sección de cine en la que aparece un crítico, un tanto pedante como todos, al que tengo especial aversión y refiriéndose a la remasterización de determinadas películas para su paso al formato digital, llegó a afirmar "esa película no está rodada para verse tan bien". En aquel momento y dejándome llevar por mi percepción de ese hombre retrógrado (que presume de no tener movil), me lo imaginé en su casa con un televisor de rayos catódicos y una gran colección de cintas VHS viendo sus clásicos en la pésima resolución que daba ese sistema y creyendo que aquello era mejor que cualquier cosa que viniera después.

Más tarde apareció la noticia de que un ruso había desarrollado un algoritmo con el que consiguió mejorar la película de los hermanos Lumière "El tren llegando a la estación de La Ciotat" y mostrarla en resolución 4K que nos permitía ver detalles que en la película original no se percibían, los rostros de las personas que aparecían en la película de pronto quedan perfectamente definidos, percibimos sus expresiones y sus arrugas.

 

Pieza restaurada de los hermanos Lumière a 4K y 60fps

 Después de ver esto recordé aquella cita del dichoso crítico y reflexioné sobre sus palabras, ¿realmente estamos mejorando una obra original?, ¿Es así cómo querría su autor que se viera en realidad?

La historia del cine, no así tanto la de la música, ha ido unida al desarrollo tecnológico que ha ofrecido nuevas herramientas a los creadores de este arte. Directores, directores de fotografía, guionistas, escenógrafos han planteado sus películas en relación a las posibilidades técnicas del momento.

George Lucas retrasó (22 años nada menos) la realización del resto de capítulos de la enealogía de Star Wars hasta tener las herramientas tecnológicas que le permitieran contar una historia de ciencia ficción con naves que parecieran reales y la recreación de mundos y seres fantásticos fuera lo suficientemente creíble. De hecho, la remasterización de la trilogía original realizada por él mismo añade elementos nuevos mediante técnicas infográficas.

Diferentes versiones de una escena del Imperio Contraataca. Star Wars, capítulo 2, en sus diferentes remasterizaciones.

Otro ejemplo igual de claro: Martin Scorsese, director poco dado a los fuegos artificiales en la pantalla, al estrenar su película "La invención de Hugo" (2011) la segunda que realizaba con la tecnología 3D llegó a asegurar que sus películas "Taxi Driver"(1976) o "El Aviador"(2004) habrían sido mejores obras de haberse rodado con este sistema, vamos, que de haber dispuesto de la tecnología 3D en aquel momento la hubiese utilizado para rodar estas películas.

Esto nos lleva a la reflexión de si al mejorar la obra original con la remasterización estamos cambiando la percepción del artista que la grabó o si por el contrario estamos haciendo lo que él hubiese querido hacer pero no pudo.

Desgraciadamente creo que si no está el artista que creó la obra detrás de dicha remasterización, nunca lo sabremos.

Hay que pensar que tanto en la  música como en lo audiovisual existen modas o tendencias pasajeras relacionadas con, por ejemplo, la ecualización. Hace años el volumen en que se grababa un CD era mucho menor del que se graba en la actualidad, de modo que se apreciaban matices y frecuencias que hoy en día se sacrifican en pos de un mayor volumen de grabación donde se ha de eliminar ese tipo de frecuencias para evitar la saturación. Por otro lado la proliferación de subwoofers en equipos de música ha hecho que los bajos de las canciones se disparen por encima de otras frecuencias medias más melódicas o que resaltaban la voz del interprete.

Todo esto son modas que afectan a la remasterización de un producto, que alteran sus significado inicial, ya no es lo que el artista escribió y además por su naturaleza de "tendencia" no será un producto duradero en el tiempo.

A todo esto hay que añadir que además de una ecualización para mejorar el sonido estos cambios vienen acompañados de modificaciones también relacionadas con la evolución tecnológica, como la implementación en estas canciones del sonido dolby atmos, el sonido envolvente desarrollado por dolby orientado especialmente al cine y al home cinema y que es utilizado para fijar la procedencia de la música escuchada a través de auriculares en un punto del espacio, de modo que si giramos la cabeza parecerá que la música sigue saliendo del mismo lugar de la estancia que lo hacía antes de que realizáramos ese giro de cabeza.

 

Ejemplo de sonido envolvente con Dolby Atmos (utiliza auriculares para su mejor percepción)

Cada vez que hay un avance tecnológico se abren infinidad de posibilidades que siempre tendrán sus apocalípticos e integrados. Por mi parte sean bienvenidas y que cada uno tome esto como más le guste.

La discusión ya hace tiempo que está abierta.

Una puntualización:

 El portal Tidalque dispone de una muy buena aplicación para escuchar música por suscripción, hace ya tiempo que viene ofreciendo calidad master con audio sin pérdidas , pero por ahora tiene un mercado muy reducido. Veremos como le afecta la implementación de esta alta calidad en los servicios más populares. Tidal en su web anuncia un sonido master tal y como sonaba en la mesa de mezclas del artista, por lo tanto ofrece una fidelidad 100% al sonido creado por el artista tal y como el quería que sonara.

viernes, 14 de mayo de 2021

SONIDO 2. LA CAPTACIÓN, ALMACENAMIENTO Y EMISIÓN DEL SONIDO

«Si una membrana provista de un punzón traza un surco sobre la acción de un sonido, ese surco hará vibrar la membrana cuando el punzón vuelva a pasar por el surco, y se recuperará el sonido inicial»
Charles Cros (1842-1888).

Ya hemos hablado en un artículo anterior sobre la captación del sonido por el oído humano.

No volveremos ahora a ello si no es para la comparación de ciertos aspectos de lo anterior con la captación del sonido mediante elementos electrónicos.

Siempre que intentamos capturar un sonido, ya sea de la voz humana, sonido ambiente, música, etc necesitamos convertir las ondas mecánicas propias del sonido en ondas eléctricas, ya que son estas últimas las únicas que se pueden tratar con instrumentos electrónicos. Para ello utilizamos casi siempre la misma herramienta: El micrófono.

Y EL PROCESO SIEMPRE ES EL MISMO

Captamos el sonido con el micrófono mediante las vibraciones de una membrana que son convertidas en ondas eléctricas, estas son amplificadas y como el sonido aún es analógico hay que convertirlo en sonido digital y posteriormente se pueden manipular (filtrar, ecualizar...) con software especializado  y se pueden almacenar con un formato digital para más tarde enviarlas a un reproductor de que nuevo convierte la señal digital en analógica que, amplificada, se envía a un altavoz que revierte el proceso convirtiendo las ondas eléctricas en ondas mecánicas mediante la vibración de una membrana y las lanza de nuevo al aire.

PERO EN REALIDAD NO SIEMPRE EL SONIDO PROCEDE DE LA NATURALEZA

Efectivamente, cuando captamos un sonido ambiente lo solemos hacer con un micrófono, pero no siempre el sonido tiene esta procedencia. De este modo tendremos diferentes fuentes de entrada de un sonido a un aparato de grabación:

MIC

Se llama así a la entrada de sonido procedente de un micrófono. El sonido que procede del micrófono tiene en general una señal muy débil que debe ser amplificada (preamplifricador).

LINE

Es la entrada de un sonido  procedente de otro aparato, es por lo tanto el método de comunicación entre diferentes aparatos de manipulación de sonido. Por ejemplo una grabadora conectada a un ordenador, una mesa de mezclas con dicho ordenador, un midi a una mesa de mezclas...

INST/HiZ

Es la entrada que procede de instrumentos musicales (guitarra, bajo...) conectados a una mesa de mezclas o a un ordenador con software específico.

Entradas MIC, LINE e INST

Y EL MICRÓFONO ES COMO EL OÍDO HUMANO

Porque capta el sonido, lo amplifica y lo envía a una zona de interpretación y registro.

El micrófono es un transductor que convierte las ondas mecánicas en ondas eléctricas, del mismo modo que lo hace el oído humano.

Porque la captación del sonido la hace mediante la vibración de una membrana de manera similar a como lo hace el tímpano humano.

El diafragma o membrana (2) con su vibración hace que una bobina (3) conectada a él se mueva linealmente con las vibraciones producidas, alterando el campo magnético generado por un imán (4) haciendo que la corriente eléctrica (5) que corre por ella produzca determinados impulsos consecuencia de las vibraciones emitidas por el sonido (1) recogido por la membrana.

Esquema de micrófono dinámico. Fuente: wikimedia.org

PERO NO SIEMPRE ES UNA BOBINA

Porque la bobina es el elemento transductor, la cápsula, que se encarga de transformar el sonido en impulsos electromagnéticos, pero para cumplir esta función hay varios métodos o elementos que tienen dicha capacidad y dependiendo de los componentes que se encargan de ello podemos clasificar los tipos de micrófonos en:

  • Dinámicos
  • De condensador
  • De carbón
  • Piezoeléctricos

Micrófonos dinámicos.

Es el que hemos descrito anteriormente, el transductor es una bobina que se
desplaza a lo largo de un imán reproduciendo el movimiento de la membrana a la que está fijado. El movimiento de vaivén de la bobina a lo largo del imán altera el campo magnético produciendo así una variación de tensión en consonancia con el sonido que golpea a la membrana. Los micrófonos dinámicos no necesitan una fuente de alimentación, son robustos y fiables, con lo que su uso fuera del estudio es lo más habitual. Su baja sensibilidad nos permite grabar en entornos muy ruidosos, puesto que matiza el sonido, así como cuando trabajamos con instrumentos con un sonido fuerte, como puede ser una batería.

Micrófonos de condensador.

En los micrófonos de condensador la membrana es sustituida por la parte móvil del condensador, que es un disco conductor que se mueve por la vibraciones recibidas acercándose o alejándose de otra parte fija del condensador variando así la carga de corriente eléctrica por efecto de esta variación de distancia. Esto produce una variación en la tensión eléctrica. Para que todo esto funcione el micrófono de condensador necesita ser alimentado por una corriente continua administrada por una pila o por el amplificador al que se conecta.
El micrófono de condensador es muy sensible, lo que le permite gran calidad de sonido, pero esa misma sensibilidad hace que sea por lo que se recomienda que se utilice en un lugar fijo sujeto con un brazo o con un trípode.
Por otro lado, este tipo de micrófono, es multidireccional, lo que permite regularlo para la captación del sonido unidireccional, bidireccional u omnidireccional.
Debido a su gran sensibilidad en la captación del sonido el entorno debe estar controlado, por lo que es un micrófono principalmente de estudio. Utilizado en doblajes, locuciones y en la creación de efectos de audio que requieren gran nitidez y calidad.

Esquema micrófono de condensador

Micrófonos de carbón

Los micrófonos de carbón, también conocidos como micrófonos de botón, están compuestos por una zona de resistencia encapsulada en la que hay partículas de carbón, grafito o antracita que ofrecen una resitencia al movimiento de la membrana (normalmente una placa de metal). Al vibrar la placa empuja estas partículas variando su posición relativa, provocando así una variación en la resistencia existente entre esta placa móvil y otra fija y por lo tanto en la corriente que lo atraviesa en consonancia al sonido que ha producido la vibración de la membrana. Este tipo de micrófono fue muy utilizado en la telefonía hasta que fue sustituido por los micrófonos de condensación que daban mayor calidad y menor nivel de ruido.

Micrófono de carbón

Micrófonos Piezoeléctricos

Los micrófonos piezoeléctricos utilizan una serie de cristales que tienen la propiedad de, cuando son sometidos a una presión mecánica como la de las ondas sonoras, cambiar el potencial eléctrico de su superficie debido a la fricción de las partículas que las componen. La frecuencia de respuesta es muy irregular en estos micros, lo que hace que no se utilicen a nivel profesional, pero son muy utilizados en pastillas para las guitarras eléctricas debido a que sacan un buen sonido de las cuerdas de este tipo de guitarras.
Pastilla piezoeléctrica

Los micrófonos piezoeléctricos pueden ser de cristal o de cerámica, además de, como hemos dicho, pastillas para guitarras.

PERO, ¿QUÉ HACEMOS CON EL SONIDO QUE RECOGE EL MICRÓFONO?

Pues lo manipulamos y lo reproducimos en un altavoz y además, si queremos, lo recogemos en un soporte para manipularlo posteriormente.
Independientemente de la fuente de entrada de sonido, recordad MIC, INST o LINE, algo tenemos que hacer con ella. Lo habitual es amplificar la señal eléctrica que suele ser muy débil y posteriormente manipularla de manera más profunda para adecuar el sonido a aquel objetivo que buscamos, ya sea grabar una locución, un efecto de sonido o registrar un instrumento. Este registro "en bruto" o "enriquecido" podrá posteriormente utilizarse para ser mezclados con otros para, por ejemplo, la grabación de un tema musical, de una banda sonora o de un podcast.
Ni qué decir tiene que podemos combinar sonidos de diversa índole procedente de diferentes fuentes de entrada o de archivos previamente almacenados.

ALMACENAR EL SONIDO ES POSIBLE

Claro, gracias a ello podemos reproducir cada vez que lo deseemos aquella canción o podcast que nos gusta o ver una película sonora o escuchar nuestro programa de radio musical favorito.
El almacenamiento de sonido es posible, de hecho, desde mediados del siglo XIX gracias a un invento llamado el fonoautógrafo (Édouard-Léon Scott de Martinville, 1857).
Desde entonces la grabación del sonido, como lo fue en el caso de la imagen, avanzó de la mano de los diversos adelantos técnicos, en cuya evolución podemos hacer una gran división entre el registro analógico del sonido y el registro digital.
Fonoautógrafo. Fuente: wikipedia

PORQUE UN CILINDRO DE CERA PUEDE SER GRABADO

Y lo hace una aguja que recibe las vibraciones del sonido ambiente, vibraciones que quedarán plasmadas en los surcos en forma de espiral que deja ésta en este cilindro que gira en una determinada dirección como en el caso del fonógrafo (Thomas Alva Edison, 1877). El gramófono (Emile Berliner, 1887) sustituyo el cilindro por un disco metálico, y el tocadiscos (1925) usa (aún) discos de vinilo. Son quizá los aparatos que más relacionamos con la grabación y la reproducción mecánica del sonido.
Pero con el gramófono y el tocadiscos se perdió la posibilidad de las grabaciones caseras que permitía el fonógrafo y es entonces cuando aparece el magnetófono (1935, AEG-Telefunken), cuya grabación es magnética y poco después la cinta de cassette (Philps, 1963) compacta que permitó a todos poder registrar el sonido de forma sencilla en casa una y otra vez sobre el mismo soporte.
La cinta de cassette era además fácilmente transportable y reproducible en aparatos portátiles y adaptables, por ejemplo, a la consola de un coche.
Tocadiscos y disco de vinilo


Cinta de cassette

Las cintas magnetofónicas pueden ser grabadas gracias a que están cubiertas de partículas de metal imantadas y cuya carga puede ser alterada por un cabezal que gracias a una bobina se magnetiza y genera un campo magnético que al ser aplicado sobre la cinta ésta es capaz de retenerlo, lo que permite un gran número de grabaciones sobre el mismo soporte.
Para reproducir el sonido el proceso se invierte de modo que la cinta magnetizada pasa por un cabezal que no lo está induciendo sobre este un campo magnético que transmite a una bobina que genera un campo eléctrico acorde los impulsos de la grabación, este se amplifica y se envía a un altavoz.
Radiocassete de uso casero, permitía reproducir y grabar cintas magnéticas

Y LA GRABACIÓN MAGNÉTICA TAMBIÉN PUEDE SER DIGITAL

Bueno, la grabación en sí no, pero la información que transporte sí. Porque Sony inventó una cinta magnética que grababa el audio en formato digital la Digital Audio Tape. (DAT) en 1987. Era una cinta muy similar a las cintas de cassette convencionales aunque más pequeña, con una anchura de 4 mm y sin pérdida de audio, puesto que no hay comprensión. Su uso se ha relegado a entornos profesionales.
Cinta DAT. Más pequeña y compacta
que una cinta de cassette analógica.

Y YA NO HAY VUELTA ATRÁS

Porque a partir de aquí la grabación del sonido se hace en formato digital, apareciendo el formato óptico con un soporte que termino extendiéndose como estándar.
El CD o Compact Disc, el Mini Disc o el disco laser son ejemplos de la capacidad de almacenamiento óptico de la grabación digitalizada. Un láser realiza perforaciones en una superficie fotosensible que  luego son leídas por otro láser que interpreta ceros y unos dependiendo de si encuentra una perforación o no.

PORQUE LA INFORMACIÓN DIGITAL ES BINARIA


La grabación digital se hace tomando un muestreo regular de la señal analógica que llega al receptor donde cada muestra recibe un valor numérico en formato binario. La toma de muestra debe realizarse al menos al doble de la frecuencia de la señal recibida, como la señal de audio se recibe a 20 kHz la frecuencia de muestreo es de, al menos, 44,1 kHz. Posteriormente la señal debe ser convertida a analógica para ser reproducida por un altavoz.
La grabación digital tiene en sí varias ventajas:
  • La reducción de ruido se puede realizar en todas las etapas de la grabación, puesto que la grabación se hace muestra a muestra de manera independiente y dentro de cada muestra bit a bit.
  • Se puede añadir información adicional a la puramente sonora como datos del autor, título de la grabación o todos aquellos datos técnicos que sean necesarios.
Del mismo modo que las cintas magnéticas hay cierto soporte óptico que se puede regrabar después de haber sido grabado previamente es un híbrido llamado soporte magnetico-óptico, en el que la grabación se realiza de manera magnética y la lectura se hace mediante láser.

PERO AL FINAL TODO ESTÁ POR LAS NUBES


Porque todos estos formatos de almacenamiento de la música han sido relegados por la música en streaming para el consumo con plataformas como Amazon Music, Apple Music o la exitosa Spotify. Además el almacenamiento a nivel profesional también se hace en la nube. Servidores a los que te conectas a través de internet y por cuyo servicio premium se suele pagar una suscripción temporal.
Las ventajas del almacenamiento en la nube son evidentes: Puedes acceder a los archivos desde cualquier dispositivo y desde cualquier lugar, permitiendo así la movilidad. Por otro lado es una buena manera de preservar tu trabajo de averías en los equipos de trabajo que hagan irrecuperable cualquier dato guardado localmente.
Todo esto es debido a la gran velocidad de transferencia de datos conseguida en internet gracias a la fibra óptica y, ya, al 5G.

PERO ¿EN QUÉ FORMATO ESTÁ ESTO?



Porque puestos a guardar los datos de sonido recogidos por cualquiera de las fuentes que hemos nombrado, tenemos que guardarlos de modo que cualquier ordenador o programa de edición pueda entenderlos.
Los formatos en lo que se guardan los archivos de audio se pueden dividir en dos grandes grupos para empezar:
Formatos que comprimen la información (con pérdida de calidad o no)
Formatos que no comprimen (sin pérdida).

¿QUÉ ES LO QUE TENGO QUE TENER EN CUENTA CUANDO GUARDO SONIDO EN FORMATO DIGITAL?

Ya hemos hablado de la naturaleza de la captación digital del sonido de modo que se toma la señal analógica y se toman muestras a una cadencia regular que debe ser al menos al doble de frecuencia que la de la señal del sonido que como ya hemos dicho es de 20 KHz, esta toma de muestras es llamada el Sample Rate.
Ejemplos del muestreo del sonido en una captación digital
según la cadencia, de menor a mayor

Otro aspecto a tener en cuenta a la hora de almacenar un sonido es la profundidad de Bit, es decir, la cantidad de información que hay en cada muestra tomada de la fuente original, a esto se le llama el Bit Depht.
Ejemplo de profundidad de bit. Observad que a igual velociad de muestreo cuanto mayor es la profundidad de bit mayor es la cantidad de información por muestra, es más fiel al sonido original y muestra menos ruido.

Pues ya tenemos los dos palabros que se toman en cuenta cuando hablamos de la calidad de un archivo de sonido:
Cuando vemos que un archivo está grabado en  32-bit/192kHz o 24-bit/96kHz Estamos hablando de, en primer lugar, la cantidad de información por muestra (32 bits, 24 bits...) y la cantidad de muestras tomadas del sonido analógico (192.000 muestras por segundo, 96.000 muestras por segundo...). Estos dos parámetros determinan la calidad del sonido del archivo de audio.

¿Y ESTO EN QUÉ IDIOMA LO ESCRIBIMOS?

Si tuviéramos que escribir todo en lenguaje máquina, ceros y unos, sería imposible guardar tanta información, para ello tenemos una gente muy inteligente diseñando atajos o algoritmos que permiten captar el sonido e interpretarlo con la mayor calidad posible y, además, escribir esa información en menos espacio.
Este  que veis aquí, es un algoritmo desarrollado para mejorar la escritura a mano cuando es escaneada. No tiene nada que ver con el sonido, pero es un buen ejemplo de como se desarrollan estas herramientas matemáticas cuyo proceso podéis ver en la página de su autor.

Para conseguir esto existen un montón de idiomas llamados codec de audio, que no son exclusivos de un formato determinado, sino que son los diferentes lenguajes en los que está codificada la información. En líneas generales los codecs  se encargan de convertir la señal analógica en digital y a la inversa, en el caso de que estemos escuchando un audio. Por otra parte, como hemos  dicho, al  convertir el audio también se encarga de comprimir la información para conseguir que ocupe menor espacio en la memoria o en una transmisión en tiempo real.
Dependiendo del tipo de codec utilizado se realizarán cálculos de unos parámetros u otros para reducir la cantidad de información, por ejemplo eliminando aquellas frecuencias que no son audibles para el oído humano o eliminando resonancias predecibles.
Los codecs de audio suelen instalarse en el ordenador en un paquete que contienen muchos de estos, pero en general, todos los aparatos que tienen que reproducir sonido deben tenerlos instalados, desde un móvil hasta un coche.
Existen dos tipos de codec de audio los que implican pérdida en la calidad del sonido y los que no. La pérdida normalmente se puede graduar a nuestra voluntad cuando codificamos un archivo, siempre en función de nuestras necesidades de espacio y calidad.

VALE, PERO ¿QUÉ ES ESO DE WAV, MP3, AIFF, OGG...?

De acuerdo, a eso vamos. Cuando hemos hablado de formatos de audio nos referíamos a la extensión que le damos al nombre del archivo y que generalmente es un acrónimo del  nombre del formato. Cada formato lleva una codificación específica que lo hace legible y le da unas cualidades de compresión y calidad.
Como hemos dicho vamos a hablar de los más usuales y que clasificaremos en dos grandes grupos:
Formatos sin comprimir y formatos comprimidos (con pérdida o no).

Formatos sin comprimir:

Los más conocidos son el WAV (Waveform Audio File Format), desarrollado por Microsoft e IBM y el AIFF desarrollado por Apple para sus Macs. Estos formatos permiten almacenar varias frecuencias de muestreo. Aparte de estos formatos está el BWF desarrollado por la Unión Europea de Radiodifusión que además de no comprimir el sonido permite la grabación de metadatos en el archivo de sonido.
Los formatos de audio sin comprimir son utilizados por los programas de edición de sonido profesionales.

Formatos comprimidos:

  • Sin pérdida: Los formatos comprimidos sin pérdida son formatos que reducen un poco el peso del archivo original, pero que siguen siendo de gran tamaño, ocupando aproximadamente dos tercios del original. Estos son los más comunes:
    • AIFF-C (*.aiff, *.aifc): Es una versión comprimida del antes nombrado AIFF cuya frecuencia de muestreo es de 41,1 KHz con una profundidad de 16 bits.
    • MP3HD (*.mp3hd): Igual que el anterior tiene una profundidad de 16 bits y una frencuencia de 41,1KHz, es la versión sin pérdida del popular mp3.
    • FLAC (*.flac): Integrado en el proyecto OGG es un formato de libre distribución, su nombre es un acrónimo de Free Lossless Audio Codec.
  • Con perdida: Los formatos comprimidos con pérdida de calidad permiten reducir considerablemente el peso del archivo original en detrimento de la calidad del sonido. Normalmente al guardar el archivo podremos elegir el nivel de comprensión según nuestras preferencias.
    • MP3 (*.mp3): Desarrollado por el Moving Picture Experts Groupn(MPEG), es uno de los formatos de audio más conocidos y utilizados debido a su gran capacidad de comprensión y en general no es perceptible por el iído humano. Es muy utilizado en internet, en archivos de streaming o en reproductores protátiles, pues es capaz de comprimir un archivo original hasta 1/15 de su tamaño sin gran pérdida de calidad. Sus variantes son MPEG-1 Audio Layer III o MPEG-2 Audio Layer III.
    • Ogg Vorbis (*.ogg): De código abierto este contenedor es un formato de libre distribución. Es el formato utilizado por Spotify en su versión premium. Este formato fue creado para liberarse del pago de royalties a Fraunhfer IIS, creador del MP3, por el uso de su formato. Sus niveles de calidad se mueven entre 32 kbit/s y 500 Kbit/s
    • WMA (*.wma): El Windows Media Audio fue desarrollado por Microsoft para su reporductor Windows Media Player. Muy similar a MP3, además incluye información adicional del autor.

Y AHORA VAMOS A ESCUCHAR UN POCO DE MÚSICA... 

Porque en realidad de eso se trata, ¿no? Estos formatos de audio son guardados para ser escuchados, de modo que ¿cual es el proceso que ha de devolver estos sonidos de nuevo al aire?
Cuando guardamos archivos digitales de audio lo hacemos con algoritmos matemáticos que hemos de convertir de nuevo en ondas sonoras perceptibles por el oído humano.
Para ello el decodificador realiza la tarea inversa a la de la captación del sonido, lee el archivo codificado y lo convierte en impulsos electromagneticos que, amplificados, se transfieren mediante cable un altavoz.

¿UN ALTA QUÉ...?

Un altavoz es un transductor que convierte las ondas electromagnéticas en ondas mecánicas de sonido, es decir, exactamente lo contrario que un micrófono con el cual tiene mucho en común.
Dependiendo, además, de las frecuencias que tenga que reproducir necesitaremos altavoces de diferentes potencias, ya que para las frecuencias bajas (graves) necesitaremos mover más cantidad de aire que para las frecuencias altas (sonidos agudos). De este modo, un sistema de altavoces estará siempre compuesto, al menos, por dos o más de estos.

Y CLARO, COMO EN LOS MICRÓFONOS, TENEMOS DIFERENTES TIPOS DE ALTAVOCES

Porque podemos hablar de altavoces dinámicos o electrostáticos.
Los dinámicos utilizan un transductor electromagnético, es decir, una bobina móvil (como en los micrófonos) que al moverse hacia atrás y hacia adelante a lo largo de un imán arrastra con ella a la membrana que, con su vibración, lanza las ondas al aire.
Funcionamiento de un altavoz
ver más aquí



Los electrostáticos son aquellos que utilizan un transductor electrostático, es decir, como un micrófono de condensador. Con una placa metálica móvil, a modo de diafragma, que se desplaza acercándose o alejándose de otra fija. Como en el micrófono, necesita una corriente contínua que lo alimente y el movimiento es producido por las variaciones de tensión de la corriente. Este movimiento es el que lanza las ondas mecánicas moviendo el aire que transmite el sonido.

Como os he contado, necesitamos varios altavoces para conseguir emitir al aire todas las frecuencias que componen el archivo de sonido, es por ello que existen diversas configuraciones de altavoces específicas para cada espacio. Así, podemos encontrar conjuntos de altavoces especialmente preparados para, por ejemplo los "Home cinemas" con  sistemas de sonido 5.1, en los que tenemos 5 altavoces más un subwoofer encargado de los bajos, o sistemas estereos de alta fidelidad e incluso altavoces especialmente diseñados para emitir el sonido desde el techo. Pero esto ya es harina de otro costal.