Los hitos de la grabación del sonido

La grabación del sonido ha pasado por cinco grandes etapas:

  1. La era de la grabación en cilíndros, llamada “arcaica” (1877-1902)
  2. La era de la producción de discos manufacturados en masa (1902-1927)
  3. La era del tubo de vacío eléctrico (1027-1052)
  4. La era de la grabación de alta fidelidad realizada con cinta magnética y en equipos de transistores (1952-1977)
  5. La era digital (1977 hasta el presente)
Estos han sido sus momentos clave:
1881: Thomas Edison (1847-1931) creó un aparto capaz de transformar la energía acústica en mecánica: el fonógrafo.
1888: Emile Berliner (1851-1921) terminó su gramófono, en el que el cilindro de Edison era sustituido por un disco. No era posible amplificar el sonido.
1900: Nacía la grabación magnética. Basándose en una idea lanzada en 1888 por el estadounidense O.Smith, el danés Valdemar Poulsen (1869-1942) patentó el telegráfono, que grababa los sonidos en un hilo de metal que se desplazaba entre polos de un electroimán.
1925: Aparece el primer tocadiscos con los primeros amplificadores de válvulas y nace el pick-up.
1928: El alemán Pfeumer hizo más práctico el procedimiento al inventar la primera banda magnética con base de papel, a la que sucedería una banda de plástico recubierta por una capa ferromagnética.
1948: Aparecen los discos de vinilo de 16, 33 y 45 revoluciones por minuto (disco de microsurcos de larga duración)
1952: Aparecen los transistores. Comienza la era de la alta fidelidad
1958: Aparece el disco estereofónico.
1963: La empresa Philips, asentada en Europa, introdujo el casete compacto.
1965: Apareció la cinta magnética, con distintos formatos.
1976: Philips inventá el videodisco.
1980: Philips y Sony presentaron un procedimiento de grabación óptica que iba a modificar no solo la cadena HIFI sino también las técnicas de grabación de datos: el disco compacto.
1987: Sony lanza la cinta de audio Digital Audio Tape (DAT)
1992: Aparece el formato digital de grabación en estado sólido MP3. Su tecnología fue desarrollada en Alemania por tres científicos del instituto tecnológico de Fraunhofer en el año 1986. En 1992 la Moving Picture Experts Group (MPEG) aprobó oficialmente el sistema

Ya en el siglo XXI se desarrrollaron más formatos digitales, con más duración y calidad como el blue ray. Aparecen varios reproductores autónomos como el ipod de Apple, que revoluciona el mercado de la industri musical.

Anuncios

El registro del sonido: cadena de grabación y mesa de mezclas

La cadena de grabación

El proceso de grabación de señales sonoras puede tener su origen tanto en fuentes acústicas reales (voz, instrumentos musicales, sonidos ambientales de cualquier tipo) como en señales eléctricas producidas y manipuladas electrónicamente.
Captamos las primeras mediante mediante micrófonos, mientras que las segundas podemos tratarlas introduciendo directamente las señales eléctricas (producidas por ejemplo por un sitentizador) en una mesa de mezclas. Combinamos, filtramos, ecualizamos y procedemos a su grabación. En este punto donde se diversifican las técnicas, ya que no se trata igual un sonido ambiente que una orquesta clásica o un concierto de rock. La moderna discografía emplea casi siempre grabación multipista producida, mientras que la música clásica se graba por lo general en directo.
La filosofía de esta técnica es relativamente simple. Se van grabando las distintas fuentes por separado, constituyendo una especie de montaje en cascada , que puede ser mezclado y manipulado hasta el infinito. Este sistema ha llegado al máximo de sofisticación con la introducción de sistemas digitales.

La mesa de mezclas

La mesa de mezclas o mezclador de sonido realiza muchas más funciones que la simple combinación o suma de señales procedentes de distintas fuentes sonoras. Se pueden mencionar una serie de funciones de la mesa de mezclas:

  1. Adaptar niveles de entrada (línea, micros de diversas sensibilidades, etc.) e impedancias.
  2. Ajustar el nivel de entrada (fader) o salida (maser fader) del 0 al 100%
  3. Hacer correcciones en frecuencia: ecualizaciones, controles de graves y agudos, presencia, etc.
  4. Monitoriado de una señal de entrada, varias simultáneamente o a la salida. El monitorado puede ser visual (vúmetros o leds) o acústico (salida especializada del monitor sin alterar la salida de la mesa)
  5. Proporcionan “alimentación fantasma ” a los micrófonos de condensador
  6. Ubicación de cada señal en la posición adecuada dentro del “encuadre sonoro” de la mezcla estereofónica (control panorámico)
La señal es ecualizada y filmada en diversas bandas de frecuencias (dependiendo de las prestaciones del mezclador) y atraviesa el control panorámico hasta llegar al denominado bus de mezcla, de froma que el operador controla mediante los fader (mandos lineales deslizantes) el nivel que tendrá la señal de cada canal en el sonido resultante.
La señal de salida de la mesa está a nivel de línea y es enviada a un amplificador de potencia que la remite a los altavoces, grabadora o emisoras de radio, televisión, etc…

La grabación del sonido: el micrófono

Un micrófono es un transductor acústico-eléctrico, es decir, un dispositivo que transforma una energía mecánica (acústica) en eléctrica mediante un doble proceso: primero convierte las variaciones de presión de la onda sonora en oscilaciones mecánicas, para después convertir estas oscilaciones en variaciones de tensión o corriente eléctrica, la tensión de la energía eléctrica generada es proporcional a la presión ejercida por la energía acústica.

El transductor acústico-mecánico es una membrana llamada diafragma que se mueve según las variaciones de presión. Como tiene dos superficies, según hagamos incidir la onda sonora sobre una o sobre ambas a la vez, las oscilaciones producidas en el diafragma serán proporcionales a la presión incidente sobre su cara frontal o a la diferencia de presión entre las dos caras.

A la hora de estudiar los diferentes tipos de micrófonos, podemos hacerlo bien sea por su tipo de funcionamiento, es decir, por la forma en que convierten la señal acústica en eléctrica, o bien por la forma en que recogen el sonido, que se representa por medio de un diagrama polar.
El Diagrama polar de un micrófono refleja la sensibilidad con que es capaz de captar un sonido según el ángulo con que le incide este. Se trata de un “mapa” que indica la magnitud de captación del micrófono para los diferentes ángulos de incidencia de la onda sonora y nos da la información necesaria para saber de qué forma se va a comportar con los sonidos dependiendo de dónde procedan estos.
Los diafragmas polares se pueden dividir básicamente en tres: el omnidireccional, el bidireccional y el unidireccional; estos últimos, a su vez, se dividen en cardioides, supercadioides e hipercardioirdes.
1.- El diafragma polar omnidireccional recibe prácticamente con la misma sensibilidad cualquier sonido independientemente del punto de donde proceda el mismo. Su diafragma es por tanto prácticamente circular.
2.- El bidireccional o de “forma de ocho” presenta una sensibilidad en el frente con un ángulo amplio y una imagen simétrica en la parte posterior, o sea, que es menos sensible a los sonidos que le llegan desde los laterales y más sensible a los que le llegan desde el frente y la parte posterior. Son poco utilizados.
3.- El micrófono unidireccional es aquel que tiene una mayor sensibilidad a los sonidos que llegan de frente a la cápsula, con un ángulo relativamente amplio. Este tipo de diafragma polar se puede subdividir en tres, que son el cardioide, el supercardioide y el hipercardioide. Cada uno de ellos va presentando un diagrama polar cada vez más estrecho y por tanto se van haciendo más insensibles a los sonidos que les llegan desde la parte porterior así como del lateral.
  • El cardioide o “en forma de corazón” es muy útil para vocalistas, debido a que el estrecho ángulo de captación para altas frecuencias contribuye a eliminar sonidos que no procedan de la fuente principal, situada frontalmente.
  • El Supercadioide ofrece un ángulo de respuesta (recepción del sonido) menor que un micrófono cardioide, de 115 grados, por lo que a su vez representa un mayor rechazo al sonido ambiental.
  • Los hipercardioides tienen la relación más alta entre el sonido frontal y el sonido lateral y el trasero, es decir, que la relación entre un sonido situado en el eje de captación y el de sonidos reflejados capatados desde diferentes ángulos es muy alta, lo que les hace idóneos para evitar sonidos no deseados, como el excesivo sonido ambiente o los sonidos reflejados.
Los micrófonos de cañón, por su gran direccionalidad sólo captan sonido del lugar hacia el que apuntan.

Los micrófonos inalámbricos 

Han representado un gran avance pues eliminan el “cordón umbilical” que supone estar atados al cable del micrófono.
Un sistema de micrófono inalámbrico consta de:
  • Un micrófono normal
  • Un transmisor de frecuencia modulada (incluido en la carcasa del micrófono o, más frecuentemente, en una unidad independiente que lleva el actor camuflada en su ropa)
  • Una antena
  • Un receptor.
La energía necesaria para el funcionamiento del micrófono y del emisor la genera una pila. Cuando se utiliza más de un inalámbrico simultáneamente, cada transmisor debe utilizar una frecuencia diferente y la separación de canales debe ser suficiente para que no se produzcan interferencias.
386.microfonos1
tabla_microfonos_directividad

¿Sabes cuál es la diferencia entre oír y escuchar?

El vocablo escuchar significa ‘poner atención o aplicar el oído para oír [algo o a alguien]’. Por tanto, la acción de escuchar es voluntaria e implica intención por parte del sujeto, a diferencia de oír, que significa, sin más, ‘percibir por el oído [un sonido] o lo que [alguien] dice’.

Así, podemos hacer un esfuerzo para escuchar una conversación ajena que apenas oímos, pero oímos una voz repentina e inesperada que no nos da tiempo a escuchar.

Señala el DPD que oír tiene un significado más general que escuchar y que por ello casi siempre puede usarse en lugar de este, algo que ocurría ya en el español clásico y sigue ocurriendo hoy. También considera que es menos justificable el empleo de escuchar en lugar de oír para referirse simplemente a la acción de percibir un sonido a través del oído, pero explica:

es uso que también existe desde época clásica y sigue vigente hoy, en autores de prestigio, especialmente americanos, por lo que no cabe su censura.

Autores como José Martínez de Sousa prefieren mantener la distinción entre oír y escuchar. Así, en el DUDEA (en «oír»), dice:

Obsérvese que para oír basta tener sano el oído […]. Sin embargo, escuchar presupone el esfuerzo adicional de prestar atención, que «querer oír» los sonidos que llegan.

Coincide con la censura el DUCE, que considera incorrecto el siguiente ejemplo:

Hable más alto que no le escucho

También Seco en el NDDDLE (en «escuchar) considera deseable distinguir ambas palabras para expresarse con precisión, aunque matiza:

esta conveniencia no debe llevarnos al extremo de condenar un desplazamiento semántico bastante arraigado en el idioma y su nivel culto

Da como ejemplo la Égloga III, de Garcilaso:

En el silencio sólo se escuchaba / un susurro de abejas que sonaba

 

A menudo, la elección entre ambas palabras depende de combinaciones más o menos establecidas y puede haber preferencias concretas según el país o lugar.

El uso de oír con los dos sentidos de ‘percibir por el oído’ y de ‘prestar atención’ ya se da desde el étimo latino (audire), y con este segundo sentido se han formado desde antiguo parabras y giros como oyente, audiencia o derecho a ser oído, y para pedir que alguien preste atención se suele decir ¡oye! El verbo escuchar a menudo tiene el matiz de ‘hacer caso’, que también tenía el étimo latino (ascultare):

Le dije que no tenía que pisar tanto el acelerador, pero no me escuchó

Fuente original del artículo: Wikilengua

¿Cómo oímos?

El mecanismo de la audición

El camino que sigue esta información comienza en el tímpano, membrana que se encuentra en el oído externo y que vibra al ser excitado por la onda sonora. Estas vibraciones son transmitidas al oido interno mediante la cadena de huesecillos del oido medio (martillo, yunque, lenticular y estribo), que producen un incremento de nivel de, aproximadamente, un 15:1 Las vibraciones son transmitidas al fluido del oído interno o cóclea, en el centro de la cual se encuentra otra membrana flexible llamada membrana basilar, cuyas vibraciones dependen de la frecuencia de la onda sonora.

SBReadResourceServlet
oido2

 

dc05a90f-4089-4af6-b6ec-39b0317c40cc

El odio humano no responde igual a todas las frecuencias. Un tono puro, a frecuencia de 125 Hz y con 15 dB de nivel sería prácticamente inaudible, mientras que si aumentamos la frecuencia a 500 Mz, sin variar el nivel de presión se obtendrá un tono claramente audible.

 

Localización espacial o percepción direccional

El cerebro localiza la fuente del sonido basándose en la diferencia de nivel y en la diferencia de fase entre las señales que le llegan a un oído y otro.

La diferencia de nivel entre los oídos se debe principalmente a la “sombra” que produce la cabeza. Las altas frecuencias se localizan principalmente por diferencia de nivel y las bajas por diferencia de fase (diferencia entre las posiciones de las crestas de la onda) Para acabar de localizar la fuente del sonido, el movimiento de la cabeza colabora instintivamente a su ubicación.

Quizá la aplicación más practica de la localización sea la emisión de los dos altavoces de un sistema estéreo, es decir, dos fuentes sonoras emitiendo señales coherentes.

La posición estéreo, por definición consiste en que los dos altavoces y el oyente forman un triángulo equilátero de tres metros de lado. Además, se suelen elevar los altavoces uno pocos grados del plano horizontal de audición

Si el yente se sitúa a la misma distancia de los dos altavoces, los escucharía al mismo nivel, suponiendo que la señal que entra a ambos altavoces es la misma.
Perspectiva y planos sonoros

La percepción del espacio es, quizás, después de la palabra, la información más importante que interpreta nuestro sistema auditivo.

Ya vimos que el correcto uso de la perspectiva en el campo de la imagen es una de las más importantes herramientas de las que disponemos para conseguir el efecto de tercera dimensión. También al hablar del sonido hemos de tener en cuenta el punto de audición, de igual forma que en la imagen era fundamental el punto de vista.

Perspectiva sonora es la sensación de distancia o acercamiento que produce un emisor de sonido con respecto a nuestro punto de audición.

Nuestro oído es sensible a ese desplazamiento y esto queda acentuado cuando el elemento receptor es un micrófono.

El cerebro puede determinar la distancia y la dirección de procedencia del sonido, gracias a ese complejo y sofisticado mecanismo que es nuestro sistema de audición.


El oido humano recibe las variaciones de presión, enviándole al cerebro una información que este decodifica. El cerebro localiza la fuente del sonido basándose en las diferencias de nivel y fase entre las señales que le llegan a cada oído.
Perspectiva sonora es la sensación de distancia o acercamiento que produce un emisor de sonido con respecto a nuestro punto de audición.

 

Vídeo: cómo funciona la audición

 

Vídeo: Las pérdidas auditivas.

 

 

Características del sonido

  • Conceptos y variables que definen el sonido

    El sonido es la sensación producida por las variaciones de presión que, generadas por el movimiento vibratorio de un objeto (la fuente emisora), se transmiten a través de un medio elástico, bien sea gaseosos, líquido o sólido. Es decir, un cuerpo solo emite sonido cuando vibra y necesita un medio para transmitirse, no se propaga en el vacío.
    Cuando nos referimos al sonido audible por el oído humano, estamos hablando de la sensación detectada por nuestro oido, producida por las rápidas variaciones de presión en el aire por encima y por debajo de un valor estático (la presión atmosférica). Esas vibraciones llegan a la membrana del oído externo (el tímpano) y se propagan a través de la cadena de huesecillos del oído interno hasta el nervio auditivo, que envía esa señal al cerebro.

    Así pues, el término ” sonido” tiene un doble significado: por una parte, designa la sensación de un observador experimenta cuando sus terminaciones nerviosas auditivas son estimuladas y, por otra, describe objetivamente el movimiento vibratorio que provoca ese estímulo.

 

  • Para que se produzca un sonido son necesarios tres elementos:
  1. Un cuerpo capaz de vibrar (emisor o fuente)
  2. Un medio elástico por el que puedan desplazarse las vibraciones
  3. Un receptor, del tipo que sea (por ejemplo, el oído humano o la membrana de un micrófono)
  • El sonido es definido por tres variables:
  1. Intensidad, que es la energía que contiene el sonido. Determinada por la amplitud de onda, se traduce en el volumen con la que lo escuchamos. Se mide en decibelios (dB)
  2. El tono, es la frecuencia de onda y gracias a él distinguimos entre sonidos graves y agudos. Los primeros son las frecuencias bajas y los agudos las altas. Se mide en ciclos/seg o hercios (Hz). El oido humano puede percibir una gama entre 16 Hz y 20.000 Hz
  3. El timbre se refiere a las frecuencias secundarias. En la vida cotidiana no existe ningún sonido puro, de manera que la onda principal viene acompañada de otra frecuencias secundarias que son múltiplos de la principal y se llaman armónicos. Por eso distinguimos una misma nota (misma frecuencia) emitida por distintos instrumentos. El número en intensidad de sus armónicos les diferencia

La relación entre la imagen y el sonido

Podemos decir que el sonido y la imagen colaboran en el plano narrativo de tres maneras:

  • Por contraste: cuando vemos y oímos cosas que se contraponen.
  • Por superposición: el referente visual coincide con lo que escuchamos: “vemos lo que oímos”
  • De manera pasiva: aparentemente el sonido es anodino o no tiene nada que ver con la imagen, aunque esta última puede ser en realidad una forma más sutil de contraste.

La posibilidad que tiene el sonido de dejar pasar, apoyar o contraponerse a la imagen es una de las herramientas más importantes de las que disponemos para marcar el ritmo cinematográfico. Gracias al sonido podemos “acelerar” una secuencia demasiado larga o inducir una idea o sensación.

El contrate del sonido con la imagen puede conseguir un efecto narrativo que sería imposible sin él. Por ejemplo, un grito de terror en off mientras vemos una imagen apacible de una ancianita dormida nos provoca un escalofrío al hacernos percibir que está muerta.

 

Dimensión espacial del sonido

Por otra parte, hemos de tener en cuenta la dimensión espacial de sonido. El sonido diegético, que es producido por algún elemento presente en la escena o una música que vemos interpretar e interviene como elemento dramático, o el sonido no diegético (también llamado extradiegético), que procede de una fuente externa al espacio de la narración como, por ejemplo, la música añadida a la acción para realzarla o la voz en off de un narrador (narrador omnisciente, es decir, una voz que proporciona información al espectador pero no pertenece a ningún personaje)

El sonido extradiegético es un elemento narrativo de primer orden. Desde escuchar los pensamientos de un personaje, que nos proporciona información sobre su estado mental o materializa recuerdos o intenciones ocultas para otros personajes, hasta crear nuevos espacios anticipando con el sonido la aparición de nuevos elementos dramáticos.

Así J. Ford en “La Diligencia” utiliza un ingeniosos tratamiento de la música que escuchamos en el momento del asalto final, cuando todo parece perdido (sonido no diegético), al transformarla en un estridente toque de corneta (diegénico) que anuncia la aparición de la caballería que llega al rescate: la expresión aterrada de Lucy cambia mientras dice : “¿Pueden oirlo? !Es una corneta!”. Es entonces cuando Ford nos muestra a la caballería galopando hacia la diligencia.

 

La música como elemento expresivo

El análisis de la música como elemento expresivo puede realizarse desde tres puntos de vista: música objetiva, subjetiva y descriptiva.

  • Música objetiva (o diegética) es aquella que adquiere el protagonismo esencial de la historia de la acción. Oímos lo que vemos, la fuente de la música está presenta y juega dramáticamente.
  • Música subjetiva (extradiegética) es la que crea un ambiente emocional en el espectador, apoyando el desarrollo de la acción y potenciando la intención de la narración.
  • Música descriptiva (extradiegética) es la que hace evocar una situación real concreta; el viento, el fuego, la batalla, el agua que corre, un lugar o una época determinada.
Tanto la subjetiva como la descriptiva entran dentro del terreno no diegético y tienen como objetivo subrayar el carácter poético y expresivo de la imagen.
Si dejamos a un lado el género en el cual la música es la protagonista y la consideramos como un recurso complementario o enriquecedor del discurso audiovisual (lo que se denomina ambientación musical), podemos distinguir dos sentidos expresivos al analizar cualquier fragmento: el anímico y el imitativo.
 
El sentido anímico es el relacionado con el impacto emocional que la música produce: tristeza, alegría , pasión, melancolía. Si bien es verdad que esto es algo relativo y que no todas las personas experimentan las mismas sensaciones ante determinadas composiciones musicales, también es cierto que podemos establecer ciertas correlaciones entre algunas características musicales y los efectos que producen. Por ejemplo, las composiciones en tesitura grave nos comunican sensaciones de oscuridad y , por tanto, los sentimientos que esta trae consigo; temor, desaliento, sospecha…
 
El sentido imitativo alude a la capacidad descriptiva de la música. Es raro encontrar composiciones en las que la abstracción propia del relato musical no deje algún lugar al elemento descriptivo. Esta cualidad puede ser muy bien aprovechada en el campo de la ambientación musical de una producción audiovisual, ya que quizá se la más poderosa (y seguramente mas obvia) a la hora de establecer asociaciones mentales y emocionales con la imagen y la palabra.
Pensemos, por ejemplo, en cómo Tchaikovsky en su sinfonía 1812 o Holst en Marte ( de la Sinfonía de los Planetas) remarcan el carácter bélico de sus composiciones. El primero de forma obvia (cañonazos) y el segundo apoyándose en un rítmico crescendo que nos introduce en la batalla casi sin darnos cuenta.

 

De alguna manera, el sonido es el “cemento” que une los sucesivos plano de imagen de un montaje, los diferentes puntos de vista que ofrecemos al espectador. El simple juego de plano-contraplano de una conversación no funcionaría si no tuviese un soporte de continuidad que le da el sonido. El sencillo experimento de observar por la ventana la televisión del vecino, nos hace experimentar la sensación de “salto de imagen” entre los planos cuando no escuchamos el sonido y, además, tenemos el televisor a una distancia excesiva.  Un spot publicitario o un videoclip privado de sonido se convierten casi siempre en una sucesión de imágenes que saltan sin sentido, salvo que este recurso sea utilizado como una llamada clara de atención.
Un cambio brusco de sonido (o su desaparción o aparición repentina) actúan como toque de atención ante un cambio en la situación o como un aviso de que determinado hecho va a producirse, de igual manera que “cabalgar” un sonido o música, es decir prolongarlo sobre el comienzo de la secuencia siguiente, hace mucho más fluida la transición entre escenas o secuencias.

 

Esquema de clasificación de los tipos de sonido

Como resumen de lo visto anteriormente, a continuación tenéis una imagen sintética de los tipos de sonido que podemos encontrar

sonidocine

  • Palabra hablada (diálogo)
    • Sonido directo: Los personajes hablan, todos o algunos.
    • Sonido de referencia: integrado posteriormente en postproducción.
      • Voz en off: la voz no se corresponde directamente con la actuación de los personajes.
      • Doblaje: el vídeo original está en otro idioma
      • Según como se sincronice el audio:
        • Sincrónico: los sonidos ocurren a la vez que se ve su imagen.
        • Asincrónico: los sonidos no coinciden con la imagen.

 

  • Música
    • Diegética: los espectadores escuchan lo mismo que los personajes, o la interpretan ellos mismos.
      • En campo: aparece en el encuadre
      • Fuera de campo: espacio invisible que engloba el campo, es decir, que no aparece directamente en el encuadre.
    • No diegética o extra-diegética: la escuchan los espectadores, pero los personajes son ajenos a ella.
      • Jingle: Canción corporativa, repetida en todas las campañas, tipo slogan.

 

  • Efectos sonoros (ruidos)
    • Efectos especiales (FX): disparos, explosiones, golpes, caídas, fenómenos meteorológico, gritos terroríficos, aplausos…
    • Efectos de sala o Foleys: producidos por los propios personajes o elementos de la escena: puerta que se cierra, ventana, crujido de la madera, pasos, ruido de ropa, masticar…
    • Sonido ambiente o atmósfera: tráfico, gente hablando de fondo, ruido en estadio…

Grandes Bandas Sonoras de la historia

Puede que en sus comienzos el cine sólo fuera un arte visual en el que el color o el sonido importasen relativamente poco. Puede incluso que para algunos puristas la inclusión de cualquier elemento sonoro acabase cargándose la magia del cine mudo.

Pero los tiempos cambiaron y el sonido de apoderó de la gran pantalla, convirtiéndola en el espectáculo audiovisual que conocemos hoy día. De ese espectáculo ambas artes se han nutrido a lo largo de los años hasta hacerse prácticamente inseparables.

De este matrimonio tan bien avenido, al que le deseamos muchos años más de felicidad, os queremos traer diez canciones que por unas cosas o por otra son historia viva tanto del cine como de la música. Y sí, somos conscientes que no están todas las son, así que posiblemente tengamos que hacer una segunda vuelta. Y sí, también nos hemos abstenido de hacer ránkings y valoraciones, que los carga el diablo.

1. ‘Girl, You’ll Be A Woman Soon’ – Urge Overkill – Pulp Fiction

Cuando uno presencia la escena en la que Mia Wallace llega a casa y comienza en su particular frenesí de música y adicción no se sabe a ciencia cierta si Tarantino escribió esa escena a propósito de la música o al revés. La cuestión es que este tema original de Neil Diamond de 1967 fue uno de los elementos que idearon el auge y destrucción de Mia Wallace en Pulp Fiction, baile mediante.

2. ‘I Will Always Love You’ – Whitney Houston – El guardaespaldas

En esta ocasión el tema está creado ex profeso para la película y quizá le reste algo de efectismo pero la realidad es que la implacable voz de Whitney a principios de los noventa habría eclipsado a cualquier película. Sigue emocionando dos décadas después y será siempre uno de esos referentes musicales del cine romántico.

3. ‘Raindrops Keep Fallin’ On My Head’ B.J Thomas – Dos hombres y un destino

Sólo cuando uno incluye en un western a Paul Newman y Robert Redford se puede permitir las licencias de añadir en la banda sonora un tema como este. A las armónicas e instrumentos de viento que habían copado la música del Oeste desde el comienzo le sustituye una de las melodías más alegres que se podrían elegir.

4. ‘Can’t Take My Eyes Off You’ – Frankie Valli and The 4 Seasons – El cazador

La última noche antes de partir a Vietnam. Seis amigos, un bar y un billar en una noche que jamás olvidarán y que será el único recuerdo que les quede juntos. Una escena imborrable del cine y de la filmografía de Michael Cimino con un Christopher Walken en estado de gracia.

5. ‘Moon River’ – Audrey Hepburn – Desayuno con diamantes

Para que una canción cantada previamente por Andy Williams sobreviva a una versión posterior hace falta un auténtico milagro. El milagro en cuestión se llama Audrey Hepburn y en su voz todo suena maravilloso. Tanto que incluso Williams dijo que jamás imaginaría tanto sentimiento en esas letras.

6. ‘Everybody’s Talkin’ – Harry Nilsson – Cowboy de medianoche

Dustin Hoffman y Jon Voight, dos desheredados circuando por Nueva York en la desconsolada búsqueda del Sueño Americano y Harry Nilsson de fondo. Tan luminosa como cruel se mostró la Ciudad que Nunca Duerme con estos dos ilusos e igual de trastocados nos dejó a nosotros aquel final.

7. ‘Mrs. Robinson’ – Simon & Garfunkel – El graduado

La obsesión que el director Mike Nichols tuvo por aquel par de jóvenes llamados Paul y Art fue el espaldarazo definitivo para lanzar al estrellato al dúo folk más importante de la historia de EEUU. El single Mrs. Robinson se convirtió en la cabecera de aquel El graduado de 1968 y en uno de los estribillos más tarareados del dúo. No es para menos.

8. ‘Born To Be Wild’ – Steppenwolf – Easy Rider

Otro ejemplo de canción que uno no sabe si está buscada o simplemente es una casualidad. La cuestión es que pocos temas quedan mejor como introducción de una película que este clásico dentro de otro clásico.

9. ‘Somewhere Over The Rainbow’ – Judy Garland – El mago de Oz

Judy Garland como Dorothy Gale y el sueño de cualquier niño convertido en realidad para trasladarse a Oz. Han pasado 77 años (sí, 77 años) y El mago de Oz sigue siendo aquel refugio para pequeños y mayores en el que alguna vez les gustaría encontrarse. Y si es con la voz de Judy Garland, mejor todavía.

La evolución del sonido en el cine

El sonido antes del sonoro

Anteriormente al cine sonoro ya existía el sonido en el cine. Los cineastas y proyectistas se habían preocupado de ello, pues el cine nace con voluntad sonora. En las primeras filmaciones cortas en que aparecen actores y actrices bailando, el espectador no oye la música, pero puede observar sus movimientos. Por otra parte, rara vez se exhibían las películas en silencio. Los hermanos Lumiére, en 1897, contrataron un cuarteto de saxofones para que acompañase a sus sesiones de cinematógrafo en su local de París y hubo compositores de valía, como Saint-Saéns que compusieron partituras para acompañar la proyección de una película. Músicos y compositores tenían en el negocio del cine mudo una fuente de ingresos. No sólo la música, también los ruidos y acompañamiento tenían cabida en el cine mudo, por lo que algunos exhibidores disponían de máquinas especiales para producir sonidos, tempestades o trinar de pájaros. Cierto es que este sistema era solamente posible en grandes salas, en ciudades o lugares de público pudiente, y escasamente podía apreciarse en pueblos o lugares alejados. Todos los instrumentos eran válidos para hacer música en el cinematógrafo aunque el piano (y la pianola) era normalmente el más usado.
Algunos experimentos habían demostrado que las ondas sonoras se podían convertir en impulsos eléctricos. En el momento en que se logró grabar en el celuloide esta pista sonora, se hizo posible ajustar el sonido a la imagen, y por lo tanto hacer sonoro el cine.
Thomas Alva Edison, uno de los inventores del cinematógrafo, había conseguido grabar la voz humana en su fonógrafo en el año 1877. No fue el primero, ya que Muybridge grabó la progresión del galope de un caballo en 1872. Estos dos precursores sientan las bases de los inventos posteriores. En el caso del cine, el problema que no se conseguirá solucionarde manera rentable y eficaz hasta después de la Primera Guerra Mundial será la sincronización de sonido e imagen.

Primeros intentos de dar sonido al cine 

En el año 1893, el físico francés Démeny inventó lo que se llamó fotografía parlante. Charles Pathé, uno de los pioneros del cine, combinó fonógrafo y cinematógrafo, llegando a fabricar unas 1900 películas cantadas. Y también en la misma época, Léon Gaumont desarrolló un sistema de sonorización de films parecido, que presentó en la Exposición Universal de París de 1902. Otros inventos posteriores, el de Eugène Lauste y el de Messter Baron y Ruhmer, en la segunda década del siglo XX, son importantes como primeros experimentos, pero no llegaron a buen término a causa de la mala calidad del sonido resultante o problemas con la sincronización.
Así, en 1918, es patentado el sistema sonoro llamado TriErgon, que permitía la grabación directa en el celuloide. Pero no será hasta el año 1922 que Jo Engel, Hans Vogt y Joseph Massole presentan el primer film, Der branstifer, que lo utiliza incorporando las aportaciones del ingeniero norteamericano Lee de Forest. El sistema que usan estos alemanes dará lugar al llamado Movietone, que será utilizado por la Fox antes de la estandarización y al llamado Tobis Klangfilm.
En 1923, el ya mencionado Lee de Forest presenta su invento definitivo y establece las bases del sistema que finalmente se impuso. El Phonofilm resolvía los problemas de sincronización y amplificación del sonido, porque lo grababa encima de la misma película. A pesar del éxito logrado con la proyección de una secuencia de The Covered Wagon, la falta de financiación postergó la implantación del invento hasta el año 1925. Los empresarios que dominaban el sector no creyeron en él en aquel momento, porque la adopción del sonoro implicaba una fuerte inversión, ya que había que adaptar los estudios y todas las salas de proyección.
En 1925, la compañía Western Electric decide apostar por Lee de Forest y, en el año 1926, se inició la producción bajo la tutela de la Warner Brothers que, con esta apuesta, pretendía superar una mala situación económica. Y así ese año presentaban cinco cintas en que la imagen convivía con el sonido gracias al sistema Vitaphone de sincronización disco-imagen. Éstas consistían en un discurso de William Hays, una pieza interpretada por la New York Philarmonic Orchestra, una pieza de violín tocada por Mischa Elman, una audición de la cantante Anna Case y la película de Alan Crosland, Don Juan, con John Barrymore como protagonista y en la que se había añadido una partitura interpretada por la orquesta antes citada.

El cine sonoro: una nueva forma expresiva

 
Las nuevas técnicas, el espíritu creativo y emprendedor de los cineastas y la búsqueda del más difícil todavía, hizo que se impusiera el cine sonoro, acabando, no sin dificultades y dejando a mucha gente en el camino, con el cine mudo. Cuando el cine sonoro demostró su rentabilidad, las películas mudas, a pesar de su arte, quedaron condenadas a pasar a la historia. El cine mudo había durado 35 años.
En 1926 se estrenó en Nueva York Don Juan, con efectos sonoros y una partitura sincronizada y posteriormente varios cortos que fueron perfeccionando los dos sistemas, el Vitaphone(la Warner) y en competencia el Movietone (la Fox). El 6 de octubre de 1927 se estrenó El cantor de jazz (The Jazz Singer), considerada la primera película sonora de la historia del cine, que hizo tambalear todos los planes del momento del cine mudo. Hacia 1930 el sonoro era un hecho, y el cine mudo había sido definitivamente vencido.
En el mundo de los actores se produjo el pánico, ya que temieron, y con razón, que sus voces no fueran adecuadas a los cambios, y todos fueron obligados a «pruebas de voz». A pesar de que la mayoría de los actores superaban las pruebas, actores significativos, aunque no por causa de la voz, quedaron en el camino (John Gilbert, Buster Keaton…).
«El cine sonoro no era simplemente el mudo con sonido incorporado, sino una nueva forma de expresión que tenía que reconciliar lo real (la grabación precisa de palabras y sonidos) con lo irreal (la imagen bidimensional), mientras que el cine mudo había sido una unidad armoniosa, completa por sí misma». (Planeta, 1982).
Algunos directores de fotografía afirman que el cine sufrió un inmenso retroceso al llegar el sonoro, pues limitó enormemente las posibilidades creativas del mismo. Cierto es que perdió con celeridad cierta fluidez, creatividad y ritmo, y tal vez sufrió unos años de retraso el avance imparable en el que se veía inmerso el lenguaje cinematográfico. Las cámaras hacían mucho ruido, y las filmaciones debían hacerse en riguroso silencio. Los micrófonos lo captaban todo y al mismo tiempo no se entendían correctamente las voces de los actores. El operador, encerrado en una cabina insonorizada no se enteraba de nada que no veía, lo que ralentizaba el trabajo y hacía perder agilidad a los movimientos narrativos.
Algunos historiadores del cine dicen, no obstante, que afirmar lo anterior es magnificar el problema, ya que en muy poco tiempo se montaron las cabinas para la cámara sobre ruedas y enseguida se blindaron las cámaras insonorizándolas totalmente, con lo que recuperaron la movilidad anterior. Hacia 1928 se habían superado la mayoría de los problemas técnicos con los que se inició el cine sonoro, se inventó la «jirafa», el micrófono que se coloca en lo alto de la escena y se evitaron así las cámaras insonorizadas, pesadas y aparatosas, que impedían la movilidad en las escenas.

La primera película sonora: Don Juan (1926)

 
Aunque no es exactamente el primer largo con sonido sincronizado de la historia, ya que se trata de uno mudo en el que se incluye música (interpretada por la Filarmónica de Nueva York) y efectos (ruido del entrechocar de espadas, campanadas, etc.) sincronizados, la película Don Juan, dirigida por Alan Crosland y protagonizada por John Barrymore, fue el film pionero, el que dio el pistoletazo de salida a la gran carrera por llevar con mayor calidad el sonido al cine. La productora Warner, con el concurso de la compañía Western Electric, había desarrollado un sistema llamado Vitaphone de grabación de sonido sincronizado para cines y que experimentó primero con cortometrajes en los que actuaban famosos cantantes y, a continuación, en Don Juan, su producción más costosa hasta entonces y una de las más rentables.
El montaje en el sonoro. La moviola
Con la llegada del sonoro también cambió el montaje de las películas y se formaron multitud de profesionales al amparo del mismo. De la misma manera que cambiaron los guiones, al añadirse la música y los sonidos el montaje se hizo mucho más complejo. Antes había un trozo de película, la imagen. Ahora eran necesarios dos trozos de película (la imagen y los diálogos). Se añadieron enseguida más bandas, las correspondientes a las músicas y a los efectos sonoros. Todo se hizo posible gracias a la moviola, la máquina de montaje, que aunque existía antes, «la moviola muda», sin ella hubiera sido imposible montar las películas musicales que tanto influyeron en los primeros momentos del sonoro.

Banda Sonora Original (BSO)

En inglés Original Soundtrack (OST), a veces simplemente conocido como soundtrack, como también se la conoce muy a menudo en el argot cinematográfico, o simplemente banda sonora -significando en este caso alguna versión o parte- es el conjunto de palabras, sonidos y música que acompaña a una película. Puede ser de dos tipos: magnética, óptica o digital. En el primer caso, una o varias bandas de grabación magnética discurren por los bordes de la tira de película. Al ser leídas estas líneas por un aparato en sincronía con la proyección, se generan los sonidos de una manera parecida a como lo haría un lector de cassettes. En el caso de las bandas sonoras ópticas, se trata de zonas de oscuridad y luz en uno o dos lados de la cinta del film. Las distintas intensidades de luz, se convierten en impulsos eléctricos creando el conjunto de la banda sonora.
Actualmente se utiliza el sonido digital.

El proceso de sonorización

Para dar sonido al cine se utilizaron una gran variedad de técnicas que atravesó las diferentes etapas de las primeras décadas del cine. Se comenzó por  hablar o producir ruidos detrás de la pantalla, complementado por el acompañamiento musical en vivo durante las proyecciones y la utilización de un locutor que añadía comentarios a los rótulos. Más tarde, la técnica vitapohone sustituyó en las salas de cine a las orquestas por altavoces y se limitó a la música y los ruidos. El procedimiento photophone, de Alexandre Grahan Bell consigió transmitir la voz utilizándose  la luz. La voz se proyectaba a través de un tubo para un espejo fino, que vibraba y actuaba como un transmisor, y se dirigía hacia otro espejo que hacía el proceso inverso actuando como receptor. Los sonidos registrados en disco de huellas sonoras fotográficas, permitieron inscribir sonidos e imágenes en una misma cinta, tanto para la producción como para el registro. El resultado final fue la incorporación a la cinta de una pista sonora que reprodujo música, efectos ambientales y diálogos de los actores.

Anécdotas

El sonido era un problema en los primeros tiempos del cine sonoro. Una amenaza mayor para la libertad de la imagen consistía en la necesidad de que el actor hablase cerca de los micrófonos. Los equipos de sonido de la época exigían que la persona que hablaba se dirigiese al micrófono y a corta distancia. Los micrófonos se escondían en los floreros, tras las cortinas o en la peluca de los actores. En muchos filmes de aquellos tiempos se puede apreciar el envaramiento de los actores y su cercanía extraña hablando con los objetos más diversos.
Uno de los grandes problemas del cine sonoro se debió a la insonorización que debió hacerse de los platós. El primer plató para sonido de la Warner en los antiguos estudios Vitaphone de Nueva York era una especie de gigantesca caja, de unos 14 metros cuadrados y 8,5 metros de altura, con cortinajes colgando por todos lados, en un intento por ahogar los sonidos no deseados.
El conocido león del emblema de la Metro tuvo que ponerse también delante del micrófono.
La llegada del cine sonoro supuso un duro golpe para Charles Chaplin quien, en principio, se negó a aceptarlo, negándole validez artística. Evitó hablar en dos películas ya sonoras: Luces de la ciudad (1931) y Tiempos modernos (1936), que no eran en realidad sino películas mudas con músicas y efectos ingeniosamente sincronizados. Todo hacía pensar que Chaplin, el gran mimo, sería una más de aquellas estrellas que no supieron adaptarse a la llegada del cine sonoro. Chaplin no habló en la pantalla hasta El gran dictador (1941), pero cuando lo hizo, volvió a tener los éxitos de siempre.
Hubo películas sonoras, basadas en una variedad de sistemas, hechas antes de los años 1920, generalmente con intérpretes sincronizando los labios con grabaciones de audio previamente hechas. La tecnología era mucho más adecuada para propósitos comerciales, y durante muchos años los jefes de los principales estudios de cine de Hollywood vieron poco beneficio en producir películas sonoras. Estas películas fueron relegadas, junto con las películas de color, al estado de curiosidad.
La primera película sonora en recibir una aprobación crítica casi universal fue El ángel azul (Der blaue engel) estrenada el 1 de abril de 1930, fue dirigida por Josef von Sternberg. La primera película hablada estadounidense en ser ampliamente respetada fue Sin novedad en el frente, dirigida por Lewis Milestone, estrenada el 21 de abril. Se considera la película francesa La edad de oro, dirigida por Luis Buñuel, que apareció en octubre de 1930, una de las importaciones más estéticas, aunque más como una señal de expresión del movimiento surrealista que como cine en sí. La película sonora más antigua ahora reconocida por la mayoría de historiadores de cine como un obra maestra es M de Nero-Film, dirigida por Fritz Lang, que se estrenó el 11 de mayo de 1931.
Eisenstein, después de su viaje a Hollywood y México, tras llegar  a la Unión Soviética puso música, usando sistemas de sonorización, a varias de sus películas mudas. Destaca Alexander Nevski, 1938, con una fantástica banda sonora compuesta por Prokofiev.

Los elementos sonoros

La palabra

La palabra es el instrumento habitual de comunicación del ser humano, es la transmisión del lenguaje que permite la comunicación social y, por tanto, la socialización,. La palabra en la radio es voz, voz que debemos adecuar tanto en el proceso previo de escritura como a la hora de hablar al oído humano receptor, que no nos ve, y que es el oyente.

La voz del locutor se convierte en una especie de retrato sonoro que oímos. Par ello se hace imprescindible que la voz sea clara, que la palabra esté bien pronunciada, que controlemos los diferentes tonos (graves o agudos) que nos permiten transmitir unos u otros estados de ánimo ante la información (seriedad, tensión, diversión…) que hagamos uso oportuno de la intensidad de la voz (alta o baja, fuere o debil) porque ello permite que el timbre de la voz se convierta en un elemento importante a la hora de “imaginar” y asociar dicha voz a una serie de características que no podemos ver pero que representamos mentalmente. Es habitual que los oyentes “pongan” rostro a las voces que escuchan de forma regular y que cuando, en algún momento, conocen personalmente al dueño de la voz, manifiesten que el rostro imaginado no coincide en absoluto con el rostro real. Algunos locutores deciden no ser visibles públicamente para acrecentar ese misterio y magia de la radio.

El mensaje que transmite la palabra en la radio debe ser los más transparente posible, ya que es fugaz y desaparece rápidamente, impidiendo al oyente volver atrás como haría con las páginas de un periódico. Conviene evitar las frases complejas, las subordinadas, las formas verbales compuestas, la enumeración exagerada de datos y el ritmo aburrido o falta de agilidad. Es decir, el mensaje radiofónico tiene que estar adaptado a su medio para que la palabra cumpla su función comunicativa. Recordemos que en la radio no existe el feedback inmediato, esa respuesta de la persona receptora que llega a la persona emisora de la información.

La palabra radiofónica se vale tanto del texto escrito como de la improvisación, que requiere cierto entrenamiento o facilidad. En este sentido, es aconsejable huir del texto que parece leído, aunque en realidad sea así, apartando todos los recursos profesionales para hacerlo parecer un texto sonoro convencional. En cuanto a la habilidad de la improvisación, diremos que existen una serie de normas no escritas que la favorecen, como evitar hablar de lo que desconocemos, no abandonar los límites del tema tratado (pues dificulta el hilo narrativo a la hora de recuperar el sentido de la “conversación”) y estar en posesión de técnicas que nos permitan respirar y sentirnos relajados ante el micrófono.

La música

Aunque hay emisoras donde la música es la gran protagonista (radiofórmulas musicales), lo cierto es que la música ocupa el segundo lugar tras la palabra, ya que tiene el poder de facilitar una gran multiplicidad de sensaciones. La música está presente en todo tipo de programas, de forma absoluta. EStá por crear el espacio radiofónico sin música y que cumpla las funciones de información, formación, orientación y entretenimiento.

En los inicios históricos de las emisiones regulares de la radio, las emisoras carecían de reproductores de música. De esta forma, la música tenía presencia cuando la radio se desplazaba para realizar sus emisiones a salas de conciertos, de espectáculos, de baile, de teatro.. o cuando los cantantes, músicos u orquestas visitaban los estudios de radio e interpretaban in situ.

A partir de los años sesenta, el desarrollo de la industria fonográfica permite que las emisoras reproduzcan en los estudios los discos de vinilo o pizarra, incorporando así la música a su programación como elemento indispensable.

La música comienza a formar parte esencial del lenguaje radiofónico. Con el tiempo, se fue creanndo incluso una música especialmente concebida para el medio radio.

La música cumple las diferentes funciones:

  • Puede ser música descriptiva, que cumple la función de evocar tiempos y lugares de cualquier época histórica, lo que convierte a la radio en un escenario barato y asequible, pues la construcción de “decorados” sonoros es mucho más fácil que la de cine o la televisión.
  • La música puede ser también expresiva, es decir, tiene la capacidad de crear ambientes emocionales, estados de conciencia, prdisposición a un género u otro.
  • La música ambiental es esa música de fondo que nos sitúa permanentemente en un contexto mental casi sin darnos cuenta.
  • La música cumple una función gramatical, ya que ayuda poderosamente a diferenciar las diferentes escenas, la variedad de espacios en que se sitúa la acción radiofónica o el salto temporal de una época a otra. Incluso si es un sueño o es realidad.

Los efectos sonoros

Es el conjunto de sonidos, naturales o artificiales, que sustituyen a la realidad para definir un contexto o paisaje y visualizar un ambiente espacio-temporal concreto. Acompañan a la acción y proporcionan matices y detalles a través de fuentes sonoras como la música, grabación de fragmentos de la realidad o recreación en estudio de los mismos para crear la sensación de que aquello tiene lugar en este momento, donde se encuentran los locutores o actores de radio. El archivo de efectos sonoros, que incluye los efectos especiales, se le llama “biblioteca de efectos” Hasta los años noventa existía en las grandes emisoras el técnico de efectos especiales, que contaba con una serie de instrumentos y artefactos en la emisora para crear los efectos en el momento. En la actualidad, algunos locutores, realizadores y periodistas suelen incorporar a sus intervenciones efectos sencillos que realizan con la ayuda de pequeños mecanismos como juguetes, maquinitas, instrumentos musicales o con palmas, golpes, pisadas o patadas que realizan ellos mismos en el estudio. Los efectos sonoros cumplen también una serie de funciones:
  • Función ambiental: es la que proporciona un espacio visual, es decir, localiza la acción y contribuye a hacer mas o menos creíble lo que allí sucede. Por ejemplo, si oímos balidos d eovejas, el balido denota la presencia de un rebaño de ovejas. Acciona rápidamente el mecanismo de imaginación sin esfuerzo.
  • Función expresiva: es la que nos coloca en un determinado estado de ánimo. Si oímos lluvia nos sitúa en un estado de nostalgia, de apuro incluso.
  • Función narrativa: se pone énfasis en algo de forma rápida y permite emplazar al oyente en un espacio o tiempo determinados. Por ejemplo, una suave ráfaga musical que desciende en sus notas nos puede in formar de que entramos en un sueño o un recuerdo, o en el caso de un reloj nos lleva a “sentir” el tiempo.
  • Función estética: enriquece un momento concreto. Por ejemplo, el suave trino de un pájaro dentro de una casa para dar sensación de hogar.

El silencio

Aunque resulte paradójico, el silencio tiene una fuerza comunicativa rotunda. El silencio es una pausa intencionada capaz de narrar, expresar, describir,.. gracias a su ubicación entre los elementos que van antes y después de él. El silencio es especialmente útil para recalcar el estado emocional del que habla ( no es lo mismo tomarse tiempo que ir rápido, expresar miedo, cólera, sorpresa, amor..), invita a reflexionar sobre lo que se ha dicho, marca tiempos a través de la pausa, recalca el recelo, la suspicacia, la duda o la desconfianza al no terminar una frase y da más énfasis a un discurso..
El silencio puede convertirse en la marca profesional de un locutor, si lo maneja con dominio y sin abuso, o incluso ser un poderoso recurso en publicidad, por lo disruptivo que supone con respecto al uso habitual de la música y la palabra.
En España, el precursor del uso del silencio como recurso en la palabra radiofónica fue Jesús Quintero, durante los años ochenta, en su programa El loco de la colina. Los silencios de Jesús Quintero (también con posterioridad en televisión: El perro verde, Ratones coloraos) confirieron al periodista un ritmo personal y un estilo único.