EL SONIDO

EL SONIDO I: LA NATURALEZA DEL SONIDO

Micrófono de estudio
LA NATURALEZA MECÁNICA DEL SONIDO

El fenómeno físico del sonido se produce cuando una serie de ondas mecánicas se desplazan a través de un fluido flexible (sólido, líquido o gaseoso). Esto quiere decir que lo que hace el sonido es deformar el fluido a través del que pasan ejerciendo una fuerza sobre él en forma de ondas o perturbaciones.

A las ondas de sonido las llamamos ondas acústicas. Cuando una onda acústica resulta audible la llamamos onda sonora.

Decimos que las ondas son periódicas cuando se propagan de manera regular por el medio.

Y ESTA ES LA GRAN DIFERENCIA CON LA LUZ

La gran diferencia entre el sonido y la luz es la naturaleza de sus ondas que le dan cualidades diferentes. Mientras que la luz es propagada mediante ondas electromagnéticas, las ondas mediante las que se propaga el sonido son ondas mecánicas, lo que le impide propagarse por el vacío. 

El sonido se propaga más rápidamente en medios sólidos y líquidos que en los gaseosos. Como el sonido necesita de la transmisión de la vibraciones de las moléculas de un cuerpo a otras para propagarse, cuanto mayor sea la densidad de este más rápidamente se propaga.

Onda electromagnética.
Vemos en rojo el campo eléctrico y en azul el magnético

Onda mecánica.
Simulación con la ondulación de una cuerda


LA FRECUENCIA DEL SONIDO

Como hemos dicho, al producirse la vibración de un cuerpo se produce la propagación de ondas (perturbaciones). Estas ondas en la mayoría de las ocasiones son periódicas. En consecuencia, en función de la cantidad de veces que se repita esa perturbación completa (ciclo) durante un segundo obtendremos la Frecuencia, que se miden en hercios (Hz).

Un Hercio es un ciclo que tiene un periodo por segundo, es decir que se repite una vez por segundo.

Cuanto mayor sea el periodo, mayor repetición por segundo y por lo tanto mayor frecuencia.

Ondas de sonido de diferentes frecuencias.


EL SONIDO QUE PODEMOS OIR

Cuando podemos oír una onda acústica esta se denomina onda sonora.

Las frecuencias de sonido que son audibles por el oído humano son las que van desde los 20 Hz hasta los 20.000 Hz (los utrasonidos y los infrasonidos están por encima y por debajo de esto valores respectivamente). De este modo tenemos que aquellos sonidos que tienen una frecuencia más baja (menos ciclos por segundo) son sonidos graves, mientras que por el contrario los sonidos agudos son aquellos que tienen más hercios por segundo.

PERO TAMBIÉN ESTÁN  LA LONGITUD Y LA AMPLITUD DE ONDA

Otra cualidad del sonido es la longitud y la amplitud de la onda.

La longitud de onda en cierta medida se identifica con un periodo, pero la longitud de onda es la distancia que abarca un ciclo completo, mientras que un periodo se identifica con el tiempo que tarda en desplazarse dicho ciclo. Las longitudes de onda de los sonidos audibles por el oído humano van desde los 17 metros hasta los 17 milímetros.

La amplitud es el valor de la cresta de la onda, cuanto mayor sea más intenso será el sonido, intensidad que se identifica con la ganancia o el volumen. La intensidad se mide en decibelios (dB)

La longitud de onda se relaciona con el timbre (agudo o grave),
la amplitud con el volumen

Tabla de diferentes niveles de intensidad de sonido. (Fuente: Wikipedia)
AUNQUE CASI TODO LO QUE OÍMOS ES RUIDO

Pero en la naturaleza lo que normalmente tenemos es ruido. Se denomina así a las ondas aperiódicas, es decir que no son regulares en las que la forma y el periodo de la onda cambia constantemente.

UNA ONDA NO ES 100% PURA

Además las ondas acústicas en general no son puras, es decir, que una onda puede contener más de una frecuencia a la vez, las diferentes frecuencias que surgen de la descomposición de una onda están en múltiplos de la frecuencia principal (frecuencia fundamental) de modo que para una sonido con frecuencia de 20Hz estaremos descomponiendo de ellas frecuencias secundarias de 40 Hz, 50 Hz, 60 Hz, a estas frecuencias secundarias las llamamos armónicos.

En la imagen vemos los armónicos
que surgen de un determinado sonido fundamental

ADEMÁS PODEMOS PERCIBIR ECO Y REVERBERACIÓN

Cuando un sonido rebota sobre una superficie podemos percibir parte de ese sonido, si el obstáculo está a más de 17 metros podemos diferenciar los dos sonidos, el emitido y el rebotado, a lo que llamamos eco. Si por el contrario el obstáculo está a menos de 17 metros esta distinción no se produce, a esto lo llamamos reverberación. Es por ello que en los estudios de sonido se forran las paredes con superficies irregulares, para dispersar el rebote y así amortiguarlo.

Amortiguación del sonido mediante almohadillas
en forma de pirámide para evitar el rebote direccional del sonido

CAPTACIÓN DEL SONIDO POR EL OÍDO HUMANO

Para nuestro objetivo de explicar la captación y manipulación del sonido mediante elementos electrónicos e informáticos nos vendrá bien entender cómo el oído capta el sonido y es interpretado por el cerebro. Del mismo modo que nuestro sentido de la vista ha inspirado el diseño de las cámaras de fotografía y cine, el diseño del sistema de captación del sonido también imita el diseño natural de nuestro sentido auditivo.
Esquema del oído humano

La oreja es una gran antena parabólica que capta las ondas sonoras y las hace pasar por el conducto auditivo hasta el tímpano. Las ondas hacen que el tímpano vibre y a su vez estas vibraciones son transmitidas a una serie de huesecillos en el oído medio llamados martillo,  yunque y estribo. La función de estos huesecillos es amplificar las vibraciones que son enviadas a la cóclea que con su forma de caracol está rellena de líquido que reacciona creando pequeñas olas que sacude una membrana que soporta las células que reaccionan a las vibraciones amplificadas(células ciliadas). Estas células son la base de unas proyecciones muy pequeñas (estereocilios) que al ser empujadas por el movimiento de vaivén de las anteriores, chocan con una membrana que hace que se abran poros y son inoculadas con sustancias químicas produciendo así una señal eléctrica. Finalmente, ésta señal eléctrica es enviada al cerebro mediante el nervio auditivo, donde son interpretadas como los sonidos que nos ponen en contacto con nuestro entorno sonoro. 


En éste vídeo podréis ver una animación que explica de manera sencilla el proceso

EL SONIDO II: LA CAPTACIÓN DEL SONIDO

«Si una membrana provista de un punzón traza un surco sobre la acción de un sonido, ese surco hará vibrar la membrana cuando el punzón vuelva a pasar por el surco, y se recuperará el sonido inicial»
Charles Cros (1842-1888).

Ya hemos hablado en un artículo anterior sobre la captación del sonido por el oído humano.

No volveremos ahora a ello si no es para la comparación de ciertos aspectos de lo anterior con la captación del sonido mediante elementos electrónicos.

Siempre que intentamos capturar un sonido, ya sea de la voz humana, sonido ambiente, música, etc necesitamos convertir las ondas mecánicas propias del sonido en ondas eléctricas, ya que son estas últimas las únicas que se pueden tratar con instrumentos electrónicos. Para ello utilizamos casi siempre la misma herramienta: El micrófono.

Y EL PROCESO SIEMPRE ES EL MISMO

Captamos el sonido con el micrófono mediante las vibraciones de una membrana que son convertidas en ondas eléctricas, estas son amplificadas y como el sonido aún es analógico hay que convertirlo en sonido digital y posteriormente se pueden manipular (filtrar, ecualizar...) con software especializado  y se pueden almacenar con un formato digital para más tarde enviarlas a un reproductor de que nuevo convierte la señal digital en analógica que, amplificada, se envía a un altavoz que revierte el proceso convirtiendo las ondas eléctricas en ondas mecánicas mediante la vibración de una membrana y las lanza de nuevo al aire.

PERO EN REALIDAD NO SIEMPRE EL SONIDO PROCEDE DE LA NATURALEZA

Efectivamente, cuando captamos un sonido ambiente lo solemos hacer con un micrófono, pero no siempre el sonido tiene esta procedencia. De este modo tendremos diferentes fuentes de entrada de un sonido a un aparato de grabación:

MIC

Se llama así a la entrada de sonido procedente de un micrófono. El sonido que procede del micrófono tiene en general una señal muy débil que debe ser amplificada (preamplifricador).

LINE

Es la entrada de un sonido  procedente de otro aparato, es por lo tanto el método de comunicación entre diferentes aparatos de manipulación de sonido. Por ejemplo una grabadora conectada a un ordenador, una mesa de mezclas con dicho ordenador, un midi a una mesa de mezclas...

INST/HiZ

Es la entrada que procede de instrumentos musicales (guitarra, bajo...) conectados a una mesa de mezclas o a un ordenador con software específico.

Entradas MIC, LINE e INST

Y EL MICRÓFONO ES COMO EL OÍDO HUMANO

Porque capta el sonido, lo amplifica y lo envía a una zona de interpretación y registro.

El micrófono es un transductor que convierte las ondas mecánicas en ondas eléctricas, del mismo modo que lo hace el oído humano.

Porque la captación del sonido la hace mediante la vibración de una membrana de manera similar a como lo hace el tímpano humano.

El diafragma o membrana (2) con su vibración hace que una bobina (3) conectada a él se mueva linealmente con las vibraciones producidas, alterando el campo magnético generado por un imán (4) haciendo que la corriente eléctrica (5) que corre por ella produzca determinados impulsos consecuencia de las vibraciones emitidas por el sonido (1) recogido por la membrana.

Esquema de micrófono dinámico. Fuente: wikimedia.org

PERO NO SIEMPRE ES UNA BOBINA

Porque la bobina es el elemento transductor, la cápsula, que se encarga de transformar el sonido en impulsos electromagnéticos, pero para cumplir esta función hay varios métodos o elementos que tienen dicha capacidad y dependiendo de los componentes que se encargan de ello podemos clasificar los tipos de micrófonos en:

  • Dinámicos
  • De condensador
  • De carbón
  • Piezoeléctricos

Micrófonos dinámicos.

Es el que hemos descrito anteriormente, el transductor es una bobina que se
desplaza a lo largo de un imán reproduciendo el movimiento de la membrana a la que está fijado. El movimiento de vaivén de la bobina a lo largo del imán altera el campo magnético produciendo así una variación de tensión en consonancia con el sonido que golpea a la membrana. Los micrófonos dinámicos no necesitan una fuente de alimentación, son robustos y fiables, con lo que su uso fuera del estudio es lo más habitual. Su baja sensibilidad nos permite grabar en entornos muy ruidosos, puesto que matiza el sonido, así como cuando trabajamos con instrumentos con un sonido fuerte, como puede ser una batería.

Micrófonos de condensador.

En los micrófonos de condensador la membrana es sustituida por la parte móvil del condensador, que es un disco conductor que se mueve por la vibraciones recibidas acercándose o alejándose de otra parte fija del condensador variando así la carga de corriente eléctrica por efecto de esta variación de distancia. Esto produce una variación en la tensión eléctrica. Para que todo esto funcione el micrófono de condensador necesita ser alimentado por una corriente continua administrada por una pila o por el amplificador al que se conecta.
El micrófono de condensador es muy sensible, lo que le permite gran calidad de sonido, pero esa misma sensibilidad hace que sea por lo que se recomienda que se utilice en un lugar fijo sujeto con un brazo o con un trípode.
Por otro lado, este tipo de micrófono, es multidireccional, lo que permite regularlo para la captación del sonido unidireccional, bidireccional u omnidireccional.
Debido a su gran sensibilidad en la captación del sonido el entorno debe estar controlado, por lo que es un micrófono principalmente de estudio. Utilizado en doblajes, locuciones y en la creación de efectos de audio que requieren gran nitidez y calidad.

Esquema micrófono de condensador

Micrófonos de carbón

Los micrófonos de carbón, también conocidos como micrófonos de botón, están compuestos por una zona de resistencia encapsulada en la que hay partículas de carbón, grafito o antracita que ofrecen una resitencia al movimiento de la membrana (normalmente una placa de metal). Al vibrar la placa empuja estas partículas variando su posición relativa, provocando así una variación en la resistencia existente entre esta placa móvil y otra fija y por lo tanto en la corriente que lo atraviesa en consonancia al sonido que ha producido la vibración de la membrana. Este tipo de micrófono fue muy utilizado en la telefonía hasta que fue sustituido por los micrófonos de condensación que daban mayor calidad y menor nivel de ruido.

Micrófono de carbón

Micrófonos Piezoeléctricos

Los micrófonos piezoeléctricos utilizan una serie de cristales que tienen la propiedad de, cuando son sometidos a una presión mecánica como la de las ondas sonoras, cambiar el potencial eléctrico de su superficie debido a la fricción de las partículas que las componen. La frecuencia de respuesta es muy irregular en estos micros, lo que hace que no se utilicen a nivel profesional, pero son muy utilizados en pastillas para las guitarras eléctricas debido a que sacan un buen sonido de las cuerdas de este tipo de guitarras.
Pastilla piezoeléctrica

Los micrófonos piezoeléctricos pueden ser de cristal o de cerámica, además de, como hemos dicho, pastillas para guitarras.

PERO, ¿QUÉ HACEMOS CON EL SONIDO QUE RECOGE EL MICRÓFONO?

Pues lo manipulamos y lo reproducimos en un altavoz y además, si queremos, lo recogemos en un soporte para manipularlo posteriormente.
Independientemente de la fuente de entrada de sonido, recordad MIC, INST o LINE, algo tenemos que hacer con ella. Lo habitual es amplificar la señal eléctrica que suele ser muy débil y posteriormente manipularla de manera más profunda para adecuar el sonido a aquel objetivo que buscamos, ya sea grabar una locución, un efecto de sonido o registrar un instrumento. Este registro "en bruto" o "enriquecido" podrá posteriormente utilizarse para ser mezclados con otros para, por ejemplo, la grabación de un tema musical, de una banda sonora o de un podcast.
Ni qué decir tiene que podemos combinar sonidos de diversa índole procedente de diferentes fuentes de entrada o de archivos previamente almacenados.

ALMACENAR EL SONIDO ES POSIBLE

Claro, gracias a ello podemos reproducir cada vez que lo deseemos aquella canción o podcast que nos gusta o ver una película sonora o escuchar nuestro programa de radio musical favorito.
El almacenamiento de sonido es posible, de hecho, desde mediados del siglo XIX gracias a un invento llamado el fonoautógrafo (Édouard-Léon Scott de Martinville, 1857).
Desde entonces la grabación del sonido, como lo fue en el caso de la imagen, avanzó de la mano de los diversos adelantos técnicos, en cuya evolución podemos hacer una gran división entre el registro analógico del sonido y el registro digital.
Fonoautógrafo. Fuente: wikipedia

PORQUE UN CILINDRO DE CERA PUEDE SER GRABADO

Y lo hace una aguja que recibe las vibraciones del sonido ambiente, vibraciones que quedarán plasmadas en los surcos en forma de espiral que deja ésta en este cilindro que gira en una determinada dirección como en el caso del fonógrafo (Thomas Alva Edison, 1877). El gramófono (Emile Berliner, 1887) sustituyo el cilindro por un disco metálico, y el tocadiscos (1925) usa (aún) discos de vinilo. Son quizá los aparatos que más relacionamos con la grabación y la reproducción mecánica del sonido.
Pero con el gramófono y el tocadiscos se perdió la posibilidad de las grabaciones caseras que permitía el fonógrafo y es entonces cuando aparece el magnetófono (1935, AEG-Telefunken), cuya grabación es magnética y poco después la cinta de cassette (Philps, 1963) compacta que permitó a todos poder registrar el sonido de forma sencilla en casa una y otra vez sobre el mismo soporte.
La cinta de cassette era además fácilmente transportable y reproducible en aparatos portátiles y adaptables, por ejemplo, a la consola de un coche.
Tocadiscos y disco de vinilo


Cinta de cassette

Las cintas magnetofónicas pueden ser grabadas gracias a que están cubiertas de partículas de metal imantadas y cuya carga puede ser alterada por un cabezal que gracias a una bobina se magnetiza y genera un campo magnético que al ser aplicado sobre la cinta ésta es capaz de retenerlo, lo que permite un gran número de grabaciones sobre el mismo soporte.
Para reproducir el sonido el proceso se invierte de modo que la cinta magnetizada pasa por un cabezal que no lo está induciendo sobre este un campo magnético que transmite a una bobina que genera un campo eléctrico acorde los impulsos de la grabación, este se amplifica y se envía a un altavoz.
Radiocassete de uso casero, permitía reproducir y grabar cintas magnéticas

Y LA GRABACIÓN MAGNÉTICA TAMBIÉN PUEDE SER DIGITAL

Bueno, la grabación en sí no, pero la información que transporte sí. Porque Sony inventó una cinta magnética que grababa el audio en formato digital la Digital Audio Tape. (DAT) en 1987. Era una cinta muy similar a las cintas de cassette convencionales aunque más pequeña, con una anchura de 4 mm y sin pérdida de audio, puesto que no hay compresión. Su uso se ha relegado a entornos profesionales.
Cinta DAT. Más pequeña y compacta
que una cinta de cassette analógica.

Y YA NO HAY VUELTA ATRÁS

Porque a partir de aquí la grabación del sonido se hace en formato digital, apareciendo el formato óptico con un soporte que termino extendiéndose como estándar.
El CD o Compact Disc, el Mini Disc o el disco laser son ejemplos de la capacidad de almacenamiento óptico de la grabación digitalizada. Un láser realiza perforaciones en una superficie fotosensible que  luego son leídas por otro láser que interpreta ceros y unos dependiendo de si encuentra una perforación o no.

PORQUE LA INFORMACIÓN DIGITAL ES BINARIA


La grabación digital se hace tomando un muestreo regular de la señal analógica que llega al receptor donde cada muestra recibe un valor numérico en formato binario. La toma de muestra debe realizarse al menos al doble de la frecuencia de la señal recibida, como la señal de audio se recibe a 20 kHz la frecuencia de muestreo es de, al menos, 44,1 kHz. Posteriormente la señal debe ser convertida a analógica para ser reproducida por un altavoz.
La grabación digital tiene en sí varias ventajas:
  • La reducción de ruido se puede realizar en todas las etapas de la grabación, puesto que la grabación se hace muestra a muestra de manera independiente y dentro de cada muestra bit a bit.
  • Se puede añadir información adicional a la puramente sonora como datos del autor, título de la grabación o todos aquellos datos técnicos que sean necesarios.
Del mismo modo que las cintas magnéticas hay cierto soporte óptico que se puede regrabar después de haber sido grabado previamente es un híbrido llamado soporte magnetico-óptico, en el que la grabación se realiza de manera magnética y la lectura se hace mediante láser.

PERO AL FINAL TODO ESTÁ POR LAS NUBES


Porque todos estos formatos de almacenamiento de la música han sido relegados por la música en streaming para el consumo con plataformas como Amazon Music, Apple Music o la exitosa Spotify. Además el almacenamiento a nivel profesional también se hace en la nube. Servidores a los que te conectas a través de internet y por cuyo servicio premium se suele pagar una suscripción temporal.
Las ventajas del almacenamiento en la nube son evidentes: Puedes acceder a los archivos desde cualquier dispositivo y desde cualquier lugar, permitiendo así la movilidad. Por otro lado es una buena manera de preservar tu trabajo de averías en los equipos de trabajo que hagan irrecuperable cualquier dato guardado localmente.
Todo esto es debido a la gran velocidad de transferencia de datos conseguida en internet gracias a la fibra óptica y, ya, al 5G.

PERO ¿EN QUÉ FORMATO ESTÁ ESTO?



Porque puestos a guardar los datos de sonido recogidos por cualquiera de las fuentes que hemos nombrado, tenemos que guardarlos de modo que cualquier ordenador o programa de edición pueda entenderlos.
Los formatos en lo que se guardan los archivos de audio se pueden dividir en dos grandes grupos para empezar:
Formatos que comprimen la información (con pérdida de calidad o no)
Formatos que no comprimen (sin pérdida).

¿QUÉ ES LO QUE TENGO QUE TENER EN CUENTA CUANDO GUARDO SONIDO EN FORMATO DIGITAL?

Ya hemos hablado de la naturaleza de la captación digital del sonido de modo que se toma la señal analógica y se toman muestras a una cadencia regular que debe ser al menos al doble de frecuencia que la de la señal del sonido que como ya hemos dicho es de 20 KHz, esta toma de muestras es llamada el Sample Rate.
Ejemplos del muestreo del sonido en una captación digital
según la cadencia, de menor a mayor

Otro aspecto a tener en cuenta a la hora de almacenar un sonido es la profundidad de Bit, es decir, la cantidad de información que hay en cada muestra tomada de la fuente original, a esto se le llama el Bit Depht.
Ejemplo de profundidad de bit. Observad que a igual velociad de muestreo cuanto mayor es la profundidad de bit mayor es la cantidad de información por muestra, es más fiel al sonido original y muestra menos ruido.

Pues ya tenemos los dos palabros que se toman en cuenta cuando hablamos de la calidad de un archivo de sonido:
Cuando vemos que un archivo está grabado en  32-bit/192kHz o 24-bit/96kHz Estamos hablando de, en primer lugar, la cantidad de información por muestra (32 bits, 24 bits...) y, en segundo lugar, la cantidad de muestras tomadas del sonido analógico (192.000 muestras por segundo, 96.000 muestras por segundo...). Estos dos parámetros determinan la calidad del sonido del archivo de audio.

¿Y ESTO EN QUÉ IDIOMA LO ESCRIBIMOS?

Si tuviéramos que escribir todo en lenguaje máquina, ceros y unos, sería imposible guardar tanta información, para poder hacerlo tenemos a una gente muy inteligente diseñando atajos o algoritmos que permiten captar el sonido e interpretarlo con la mayor calidad posible y, además, escribir esa información en menos espacio.
Este  que veis aquí, es un algoritmo desarrollado para mejorar la escritura a mano cuando es escaneada. No tiene nada que ver con el sonido, pero es un buen ejemplo de como se desarrollan estas herramientas matemáticas cuyo proceso podéis ver en la página de su autor.

Para conseguir esto existen un montón de idiomas llamados codec de audio, que no son exclusivos de un formato determinado, sino que son los diferentes lenguajes en los que está codificada la información. En líneas generales los codecs  se encargan de convertir la señal analógica en digital y a la inversa cuando escuchamos un audio. Por otra parte, como hemos  dicho, al  convertir el audio también se encarga de comprimir la información para conseguir que ocupe menor espacio en la memoria o en una transmisión en tiempo real.
Dependiendo del tipo de codec utilizado se realizarán cálculos de unos parámetros u otros para reducir la cantidad de información, por ejemplo eliminando aquellas frecuencias que no son audibles para el oído humano o eliminando resonancias predecibles.
Los codecs de audio suelen instalarse en el ordenador en un paquete que contienen muchos de estos, pero en general, todos los aparatos que tienen que reproducir sonido deben tenerlos instalados, desde un móvil hasta un coche.
Existen dos tipos de codec de audio los que implican pérdida en la calidad del sonido y los que no. La pérdida normalmente se puede graduar a nuestra voluntad cuando codificamos un archivo, siempre en función de nuestras necesidades de espacio y calidad.

VALE, PERO ¿QUÉ ES ESO DE WAV, MP3, AIFF, OGG...?

De acuerdo, a eso vamos. Cuando hemos hablado de formatos de audio nos referíamos a la extensión que le damos al nombre del archivo y que generalmente es un acrónimo del  nombre del formato. Cada formato lleva una codificación específica que lo hace legible y le da unas cualidades de compresión y calidad.
Como hemos dicho vamos a hablar de los más usuales y que clasificaremos en dos grandes grupos:
Formatos sin comprimir y formatos comprimidos (con pérdida o no).

Formatos sin comprimir:

Los más conocidos son el WAV (Waveform Audio File Format), desarrollado por Microsoft e IBM y el AIFF desarrollado por Apple para sus Macs. Estos formatos permiten almacenar varias frecuencias de muestreo. Aparte de estos formatos está el BWF desarrollado por la Unión Europea de Radiodifusión que además de no comprimir el sonido permite la grabación de metadatos en el archivo de sonido.
Los formatos de audio sin comprimir son utilizados por los programas de edición de sonido profesionales.

Formatos comprimidos:

  • Sin pérdida: Los formatos comprimidos sin pérdida son formatos que reducen un poco el peso del archivo original, pero que siguen siendo de gran tamaño, ocupando aproximadamente dos tercios del original. Estos son los más comunes:
    • AIFF-C (*.aiff, *.aifc): Es una versión comprimida del antes nombrado AIFF cuya frecuencia de muestreo es de 41,1 KHz con una profundidad de 16 bits.
    • MP3HD (*.mp3hd): Igual que el anterior tiene una profundidad de 16 bits y una frencuencia de 41,1KHz, es la versión sin pérdida del popular mp3.
    • FLAC (*.flac): Integrado en el proyecto OGG es un formato de libre distribución, su nombre es un acrónimo de Free Lossless Audio Codec.
  • Con perdida: Los formatos comprimidos con pérdida de calidad permiten reducir considerablemente el peso del archivo original en detrimento de la calidad del sonido. Normalmente al guardar el archivo podremos elegir el nivel de comprensión según nuestras preferencias.
    • MP3 (*.mp3): Desarrollado por el Moving Picture Experts Group (MPEG), es uno de los formatos de audio más conocidos y utilizados debido a su gran capacidad de comprensión y en general no es perceptible por el oído humano. Es muy utilizado en internet, en archivos de streaming o en reproductores protátiles, pues es capaz de comprimir un archivo original hasta 1/15 de su tamaño sin gran pérdida de calidad. Sus variantes son MPEG-1 Audio Layer III o MPEG-2 Audio Layer III.
    • Ogg Vorbis (*.ogg): De código abierto este contenedor es un formato de libre distribución. Es el formato utilizado por Spotify en su versión premium. Este formato fue creado para liberarse del pago de royalties a Fraunhfer IIS, creador del MP3, por el uso de su formato. Sus niveles de calidad se mueven entre 32 kbit/s y 500 Kbit/s
    • WMA (*.wma): El Windows Media Audio fue desarrollado por Microsoft para su reporductor Windows Media Player. Muy similar a MP3, además incluye información adicional del autor.

Y AHORA VAMOS A ESCUCHAR UN POCO DE MÚSICA... 

Porque en realidad de eso se trata, ¿no? Estos formatos de audio son guardados para ser escuchados, de modo que ¿cual es el proceso que ha de devolver estos sonidos de nuevo al aire?
Cuando guardamos archivos digitales de audio lo hacemos con algoritmos matemáticos que hemos de convertir de nuevo en ondas sonoras perceptibles por el oído humano.
Para ello el decodificador realiza la tarea inversa a la de la captación del sonido, lee el archivo codificado y lo convierte en impulsos electromagneticos que, amplificados, se transfieren mediante cable a un altavoz.

¿UN ALTA QUÉ...?

Un altavoz es un transductor que convierte las ondas electromagnéticas en ondas mecánicas de sonido, es decir, exactamente lo contrario que un micrófono con el que tiene mucho en común.
Dependiendo, además, de las frecuencias que tenga que reproducir necesitaremos altavoces de diferentes potencias, ya que para las frecuencias bajas (graves) necesitaremos mover más cantidad de aire que para las frecuencias altas (sonidos agudos). De este modo, un sistema de altavoces estará siempre compuesto, al menos, por dos o más de estos.

Y CLARO, COMO EN LOS MICRÓFONOS, TENEMOS DIFERENTES TIPOS DE ALTAVOCES

Porque podemos hablar de altavoces dinámicos o electrostáticos.
Los dinámicos utilizan un transductor electromagnético, es decir, una bobina móvil (como en los micrófonos) que al moverse hacia atrás y hacia adelante a lo largo de un imán arrastra con ella a la membrana que, con su vibración, lanza las ondas al aire.
Funcionamiento de un altavoz
ver más aquí



Los electrostáticos son aquellos que utilizan un transductor electrostático, es decir, como un micrófono de condensador. Con una placa metálica móvil, a modo de diafragma, que se desplaza acercándose o alejándose de otra fija. Como en el micrófono, necesita una corriente contínua que lo alimente y el movimiento es producido por las variaciones de tensión de la corriente. Este movimiento es el que lanza las ondas mecánicas moviendo el aire que transmite el sonido.

Como os he contado, necesitamos varios altavoces para conseguir emitir al aire todas las frecuencias que componen el archivo de sonido, es por ello que existen diversas configuraciones de altavoces específicas para cada espacio. Así, podemos encontrar conjuntos de altavoces especialmente preparados para, por ejemplo, los "Home cinemas" con  sistemas de sonido 5.1, en los que tenemos 5 altavoces más un subwoofer encargado de los bajos, o sistemas estereos de alta fidelidad e incluso altavoces especialmente diseñados para emitir el sonido desde el techo. Pero esto ya es harina de otro costal.

No hay comentarios:

Publicar un comentario