MEMORIA DEL PROYECTO: - Rafael Cubero. Diseño y ... Word/Apuntes para el... · Web viewUn...

70
“Recursos Didácticos de Pizarra Digital aplicados a la Acústica MusicalAplicaciones pedagógicas de las nuevas tecnologías para comprender la Acústica Musical y conocer la Música Electroacústica

Transcript of MEMORIA DEL PROYECTO: - Rafael Cubero. Diseño y ... Word/Apuntes para el... · Web viewUn...

“Recursos Didácticos de Pizarra

Digital aplicados a la Acústica

Musical”

Aplicaciones pedagógicas de las nuevas tecnologías para

comprender la Acústica Musical y conocer la Música

Electroacústica

Nerea Sáenz de Urturi López

C.P.R. DE LOGROÑO

CURSO 2004/2005

INDICE

Conceptos de Acústica Musical Páginas 2-12

Sobre el programa Adobe Audition Páginas 13-14

Sesiones con el programa Páginas 15-30

Ejercicios Páginas 31-33

Historia de la música electrónica Páginas 35-45

Vocabulario Páginas 46-48

1

1. Acústica. Sonido. Frecuencia y amplitud.La Acústica es la parte de la ciencia que estudia los fenómenos de vibración

sonoros, considerando su producción, su propagación y su recepción.

El sonido es la sensación que percibimos al recoger nuestro órgano auditivo las ondas que se originan por la vibración de un cuerpo. Existen tres elementos fundamentales: un cuerpo vibratorio, un medio transmisor de las ondas sonoras y un receptor.

EMISOR MEDIO RECEPTOR

Diapasón Aire, agua, Oído Cerebro metal, huesos

La fuente emite, el medio transmite, el receptor capta. Lo que se emite, transmite y recoge no es otra cosa que una forma de energía, que una vez producida persistiría indefinidamente si no se disipase en forma de calor o se transformase en otra clase de energía. La energía sonora se propaga uniformemente en todas direcciones.

Producción del sonido

En la fuente, es decir, en nuestro caso, el instrumento musical, hay diferenciados tres componentes:

a) El primer mecanismo estimulante o la mecánica activada por el instrumentista. Por ejemplo la vibración de las lengüetas en los instrumentos de viento-madera, la acción de pulsar o friccionar las cuerdas de los violines, o la percusión de los macillos sobre las cuerdas en un piano.

b) El elemento propio de la vibración o elemento oscilante que, al ser accionado por el primer mecanismo puede originar determinadas formas de oscilación con frecuencias preestablecidas. Por ejemplo, la vibración de las cuerdas (cordófonos), la vibración de la columna de aire (aerófonos), la vibración de membranas o parches tensados (membranófonos) o la vibración del objeto en sí mismo, como en el caso de las claves o los triángulos (idifóonos)

c) Por último, muchos instrumentos necesitan de una caja de resonancia para aumentar la sonoridad del instrumento.

Propagación del sonido

El sonido está producido por las vibraciones de un foco emisor. Las ondas sonoras son ondas mecánicas porque necesitan un medio en el que propagarse; el sonido no se propaga en el vacío.

2

El sonido puede transportarse por cualquier tipo de medio sólido (tierra, vías del tren) líquido (ballenas y delfines se comunican en el agua) y gaseoso. La velocidad de propagación de las ondas sonoras depende de la distancia entre las partículas del medio; es por ello mayor en los sólidos que en los líquidos, y en estos, mayor que en los gases.

Recepción sonora

Cuando una onda elástica alcanza el oído, la vibración producida en el tímpano provoca una reacción en el nervio auditivo que da lugar a la sensación de audición.

Propiedades de las ondas: ciclo, frecuencia y amplitud

Como hemos visto el sonido se produce como consecuencia de las compresiones y expansiones de un medio elástico, o sea de las vibraciones que se generan en él.

El recorrido del móvil desde un punto hasta volver a pasar por el mismo punto recibe el nombre de ciclo. La frecuencia de una onda sonora se define como el número de vibraciones (ciclos) que tiene por unidad de tiempo (segundo). La unidad correspondiente a un ciclo por segundo es el Hertzio (Hz).

Las frecuencias mas bajas se corresponden con lo que habitualmente llamamos sonidos "graves", son sonidos de vibraciones lentas. Las frecuencias mas altas se corresponden con lo que llamamos "agudos" y son vibraciones muy rápidas.

El espectro de frecuencias audible varía según cada persona, edad etc. Sin embargo normalmente se acepta como “normal” el intervalo entre 20 Hz y 20000 Hz.

La amplitud es la distancia que hay desde el punto de reposo al punto de máxima separación. Está relacionada con la intensidad, a mayor amplitud, mayor intensidad. La unidad de medida es el decibelio.

El umbral de audición del oído humano es de 0 dB; se supone que no es posible oír por debajo de este nivel. El límite del dolor estaría en 120-140 decibelios.

La fase mide la porción del ciclo que ha transcurrido en un instante determinado. Se mide en grados y varía de 0º a 360º, que corresponden al principio y al final de un ciclo.

3

2. Ondas simples y ondas complejas. El timbre.Sabemos que todo cuerpo al oscilar produce un movimiento vibratorio, esto es,

que se desplaza a un lado y a otro a partir de un punto fijo al actuar sobre él una fuerza.

El movimiento más simple es el movimiento circular uniforme. La trayectoria del móvil es una circunferencia y puede ser representada gráficamente de la siguiente manera:

Este movimiento simple, un único movimiento, se representa gráficamente por ondas sinusoidales o senoidales. La onda que produce el sonido del diapasón es de este tipo, sinusoidal, no encontrándose más ejemplos en la naturaleza de sonidos sinusoidales, el resto de los sonidos contienen más de una vibración simultáneamente, esto es, son sonidos complejos.

Movimientos vibratorios complejos

Las ondas complejas son aquéllas que son el resultado de la suma de varias ondas simples. Son aquéllas en las que hay más de un movimiento o vibración simultáneamente con sus respectivas frecuencias y amplitudes.

Según el Teorema de Fourier cualquier sonido complejo puede ser determinado a partir de sus componentes u ondas simples. El ANÁLISIS SONORO es el proceso por el cual se hallan las ondas simples o componentes armónicos de un sonido complejo. La SÍNTESIS SONORA es el proceso inverso consistente en mezclar una serie dada de ondas sinusoidales o componentes armónicos hasta la consecución de un sonido complejo.

Ondas básicas. Su forma y sus características.

4

La forma de onda que resulta de un sonido cualquiera puede ser representada gráficamente. En la caracterización de un sonido complejo son muy importantes tanto las frecuencias como las amplitudes de todos sus componentes.

En una nota, o sonido cuya altura pueda ser determinada, una de estas vibraciones es la frecuencia fundamental porque es la de mayor amplitud (por tanto, mayor intensidad) y la que se identifica con el sonido de la nota. Por ejemplo, 440 Hertzios corresponden a la nota la en la cuarta escala del piano (A4).

Cuando estos componentes tienen frecuencias que son múltiplos de la frecuencia fundamental se denominan armónicos.

Onda de diente de sierra

Contiene en sí todos los armónicos de la frecuencia fundamental. Estos armónicos tienen diferentes amplitudes que guardan relación con su frecuencia. A mayor frecuencia, menor amplitud.

La relación de amplitudes de los armónicos en una onda de diente de sierra con respecto a la amplitud de la frecuencia fundamental es la siguiente:1/2, 1/3, ¼, 1/5, etc...

Onda triangular

Contiene todos los armónicos impares de la frecuencia fundamental, con amplitudes decrecientes en la relación de los números 1/9, 1/25, 1/49, 1/81 de la amplitud de la fundamental.

5

3. El timbre. La envolvente.¿Por qué podemos distinguir el sonido de un piano al de una trompeta, o el de un

violín a una viola, o la voz de nuestro hermano con la de un amigo?.

El timbre hace posible que cada instrumento pueda tener un color (sonido) determinado y particular que lo distingue de otros aun cuando su composición en armónicos (el conjunto de ondas simples que contenga) pueda parecer similar.

El timbre lo forman la frecuencia fundamental del instrumento, más su composición armónica. Los sonidos armónicos son, en sus frecuencias, múltiplos enteros de la fundamental. La cantidad, magnitud y distribución de los armónicos son constitutivos de la calidad o timbre del sonido.

La frecuencia fundamental de dos instrumentos diferentes puede ser la misma, pero su composición armónica es diferente y es lo que hace que los podamos distinguir. Por ejemplo: si generamos una frecuencia de 440 Hz con un piano y con una guitarra, aun cuando ambos están afinados en la misma frecuencia y generando la misma nota, cada uno suena diferente. Esto es debido a que cada instrumento genera una serie de armónicos según la construcción del propio instrumento, en el piano el arpa metálica y la caja generan una serie de armónicos con una serie de niveles sonoros que le dan su sonido característico. En la guitarra la caja, las cuerdas, etc. le confieren a la misma frecuencia un sonido diferente.

La forma de ejecutar el instrumento y la intensidad hacen también que el timbre varíe, al hacer variar su composición armónica.

Serie armónica

Todos los sonidos de los instrumentos son sonidos complejos, esto es, compuestos de un sonido fundamental y de una serie de armónicos. He aquí una serie de armónicos de un sonido cuya fundamental es el DO.

6

La frecuencia de los armónicos son múltiplos enteros de la frecuencia de la fundamental, es decir, 2f, 3f, 4f, etc..

Estructura sonora de los instrumentos

Para la descripción de un sonido se necesitan datos sobre las frecuencias de los componentes armónicos, su intensidad y el desarrollo temporal de estas magnitudes.

Los ruidos que se originan en la producción de un sonido son asimismo elementos esenciales constitutivos del carácter sonoro, ya sea el ruido del arco al frotar las cuerdas o bien el ruido del aire al soplar.

La envolvente

El timbre está además relacionado con los procesos de ataque, caída y sostenimiento de un sonido, es decir, con la envolvente o curva de un sonido que define el proceso desde que se produce hasta que se extingue. En términos electrónicos viene especificado por las siglas ADSR (Attack, Decay, Sustain, Release).

Cada sonido puede ser dividido en cuatro fases:

1. Attack.

2. Decay:.

3. Sustain

4. Release

7

4. Los filtros.

Los filtros son aquellos dispositivos que modifican el espectro de una señal.

Según el teorema de Fourier toda señal periódica compleja se puede descomponer en una suma de señales sinusoidales simples de frecuencias y amplitudes diferentes. Esta descomposición se denomina espectro de frecuencias, y se representa mediante un gráfico con frecuencias en las abscisas y amplitudes en las ordenadas, en el que se visualizan las respectivas amplitudes de todas las frecuencias que componen un sonido.

Tipos de filtros básicos

Un filtro se caracteriza por su curva de respuesta de frecuencia, que indica la forma en que las diferentes frecuencias en la entrada se atenúan o amplifican. Los filtros más usuales pueden clasificarse, de acuerdo con la forma de esta curva de respuesta , en cuatro grandes familias: pasa-alto, pasa-bajo, pasa-banda y rechazo de banda.

Señal Original

El filtro pasa-bajo, deja pasar las frecuencias por debajo de un determinado valor, denominado frecuencia de corte.

El filtro pasa-alto,

8

El filtro pasa-banda

El filtro de rechazo de banda actúa de forma inversa al de pasa-banda.

¿Qué es un ecualizador? ¿Para qué sirve?

¿Qué tipo de filtros utiliza un ecualizador?

Aplicaciones de los filtros

9

5. Modulación de frecuencia . Modulación de amplitud. Tono y ruido.

Modulación es el proceso por el cual ciertas características de una señal, como la amplitud, la frecuencia, la fase, son variadas según los cambios operados en las características de otra señal.

Dicho de otra manera, la tensión de una señal es variada según los cambios en la tensión de otra. A la señal que va a ser modulada se le llama PORTADORA, y MODULADORA a la señal que modula a la portadora.

En la modulación de amplitud, la amplitud de la señal portadora es variada según los cambios en la amplitud de la moduladora.

A través de un amplificador es posible controlar con facilidad la amplitud de un sonido manipulando su dial de volumen. Este control manual resulta suficiente si no se desean unos cambios demasiado rápidos en la amplitud. Pero si se desea que, por ejemplo, la amplitud cambie 200 veces por segundo, habrá que recurrir a los sistemas electrónicos de modulación de amplitud.

El efecto musical producido, cuando la modulación de la amplitud no es en exceso rápida es el de un trémolo.

10

La modulación de frecuencia es la variación de frecuencia de un sonido. Un instrumentista al producir con su instrumento un vibrato, cambia la frecuencia del sonido que produce a razón de 4 a 8 veces por segundo, según sea el tipo de vibrato que produce (lento o rápido) ; en otros términos, modula la frecuencia a 4 u 8 Hz.

Por definición, modulación de frecuencia puede ser aplicada a cualquier tipo de cambio de frecuencia.

Tono y ruido

El tono (en algunos libros llamado sonido) está producido por sonidos con alturas definidas, es decir, frecuencias que se destacan del resto y, por tanto, identificables como notas. El ruido, sin embargo, es una mezcla compleja de frecuencias diferentes y es imposible determinar a qué nota equivale. En la música se utilizan tanto tonos como ruidos.

Instrumentos de altura determinada:

Instrumentos de altura indeterminada:

El ruido blanco es

11

6. Sampling o muestreo. Efectos de sonido.

El sampler

El sampler puede reproducir el timbre de un instrumento acústico o de la voz humana a partir de la digitalización de las ondas producidas por el mismo. Posteriormente y, gracias, a convertir el sonido en números podrá modificar la altura de tono aunque, evidentemente, el resultado nunca será igual al del instrumento real.

Con un sampler, absolutamente cualquier sonido (instrumento, voz, animal, máquina, ruido, etc..) puede ser convertido en un instrumento que podrá ser utilizado desde un teclado. El dominio del sampler es difícil pero sus capacidades creativas son inmensas y requieren un buen uso tanto del arte como de la ciencia.

¿Qué sabes de los siguientes efectos de sonido?

Reverse :

Noise reduction:

Fade in y Fade out:.

Pitch Bend:

Delays:

Reverberación y eco:

12

CONSEJOS GENERALES PARA EL USO DEL PROGRAMA ADOBE

AUDITION

El Adobe Audition es un software que permite la grabación digital de audio en multipista; también es un editor de sonido y un mezclador. La versión del programa Adobe Audition 1.0 se puede utilizar con Windows 98SE, Windows ME, Windows 2000, y Windows XP.

- Cada vez que se inicia el programa aparece un consejo del día (Tip of the day) que, una vez leído, se puede cerrar pulsando OK.

- Esta versión del programa contiene dos formas de visualización de las ondas:

o Opción multipista (Multitrack View)

o Opción de edición de onda (Edit View)

Se puede cambiar de una a otra pantalla de dos maneras; con la tecla F12 o bien clicando sobre el icono (que representa una o varias ondas) que está justo debajo de las ventanas File y Edit. Situando el puntero del ratón sobre este dibujo aparece la siguiente información: Switch to Edit View o Switch to Multitrack View.Normalmente trabajaremos con la opción Edit View.

- Para evitar la saturación de información en pantalla, sobre todo al principio, es aconsejable cerrar todas las herramientas (en View y en Analyze) y seleccionar sólo las que vayamos nececitando. Las fundamentales son:

o View Show Transport Buttons.

o View Show Zoom Buttons.

o View Show Time Window.

o View Show Level Meters.

o Analyze Show Frecuency Analisys.

o View Show Sel/View Controls

También se aconseja quitar de los iconos de las herramientas (Toolbars) a través de la ventana View.

13

- Cuando generamos (Generate) un tono (Tones) o un ruido (Noise) o bien cuando vamos a grabar un sonido (File New) aparece un cuadro de diálogo (New Waveform) para definir la calidad de la onda en función de los siguientes parámetros:

o Sample Rate o velocidad de muestreo: se trata de la frecuencia de muestras por segundo que se van a tomar para digitalizar el sonido.

o Channels: Mono o Stereo

o Resolution: es el número de bits de cada muestra, también llamada cuantización. Tiene una relación directa con la precisión con la que se muestrea la señal. A mayor número de muestras, la cuantización será más exacta, y el sonido digitalizado será más cercano a la señal original.

El formato digital más extendido es el empleado en el disco compacto, con velocidad de muestreo de 44100 Herzios, resolución de 16 bits y estéreo.

- Para conseguir una mejor resolución en el análisis de frecuencias se aconseja seleccionar, los siguientes valores:Bars;FFT Size:8192; Triangular o Blackmann-Harris.Para acceder a estas opciones, en caso de que estuvieran ocultas, hay que clicar sobre la tecla Advanced.

Cuando trabajemos con frecuencias graves o medias se aconseja trabajar sin la opción Linear View del Análisis de Frecuencias.

La información exacta de las frecuencias analizadas se detalla justo debajo del gráfico. Es importante que los alumnos comprendan el significado de todos los números así como saber interpretar el eje de coordenadas.

- Generalmente, se pueden escuchar los efectos antes de aplicarlos sobre las ondas pulsando el botón Preview. Si queremos volver a oir la onda original debemos seleccionar el botón Bypass. Así escuchamos el sonido sin el efecto aplicado.

- Es muy importante que nos familiaricemos con el zoom antes de adentrarnos en el programa. Podemos seleccionar las distintas opciones a través de su barra de herramientas pero para un uso más rápido y preciso podemos utilizar la rueda del ratón.

- Para trabajar adecuadamente con un sonido debemos procurar que su nivel de decibelios no sea tan alto como para distorsionar la señal.

14

Primera Sesión Práctica – Acústica Musical

EL SONIDO. FRECUENCIA Y AMPLITUD.

Nombre __________________________________ N º de ordenador _____

Sigue cuidadosamente las siguientes instrucciones y completa la información de la siguiente ficha:

- Abrir el programa ADOBE AUDITION 1.0

Ahora ya tenéis el programa en marcha. Lo primero que vamos a hacer es crear una onda simple o sinusoidal de 440 Hz, al igual que el diapasón. Esto es lo que tienes que hacer:

- Abre la ventana superior Generate y selecciona Tones.

- Habrá aparecido una ventana (New Waveform) para configurar la calidad de la nueva forma de onda. Elige los siguientes valores:Sample Rate: 44100; Channels: Mono; Resolution: 16 bits.

- La nueva ventana de generador de tonos suele traer por defecto una onda sinusoidal de 440 Hz por lo que bastaría con pulsar OK para obtener esta onda. En cualquier caso comprueba lo siguiente:Base Frequency: 440; Flavor: Sine.

- Comprueba cómo suena esta onda utilizando para ello los controles de reproducción que están en el lado inferior izquierdo. Familiarízate con sus botones así como con los del zoom que te permitirán analizar la onda más detalladamente.

- Aumenta el tamaño hasta que puedas ver bien el dibujo de la onda. Observa cómo mantiene la misma frecuencia y la misma amplitud durante toda su duración.

¿Cuáles son las consecuencias sonoras de que no varíen ni la frecuencia ni la amplitud?

15

Ahora vamos a observar el análisis de frecuencias de esta onda. El programa, por defecto, suele mostrarlo justo encima de la onda. En caso de que no hubiera aparecido puedes hacerlos de dos maneras:

o Sitúate sobre la ventana Analyze y selecciona Show Frecuency Análisis

o Pulsa a la vez las teclas ALT+ Z

Observa el gráfico y responde:

¿Qué parámetro mide el eje de abcisas?

¿Y el de ordenadas?

- Sitúa el puntero en distintas partes de la onda y observa si el análisis de frecuencias cambia sustancialmente a lo largo de la onda. ¿Qué ocurre?

- Observa cómo al mover el puntero sobre el análisis de frecuencias, hay una serie de números que cambian en el margen inferior izquierdo del análisis de frecuencias y que nos informan sobre la frecuencia y los decibelios que hay en ese determinado punto.

- En esa misma línea hacia la derecha otros números que no se mueven nos informan de cuál es la frecuencia fundamental, es decir, la que más intensidad tiene. Entre paréntesis nos indica la nota a la que corresponde según la notación anglosajona. ¿La recuerdas?

Escribe las notas a las que corresponde cada letra debajo de cada una de ellas.

A B C D E F G

Cierra esta onda a través de la opción Close en la ventana File.

16

Ahora vamos a analizar vuestros límites auditivos. Ya sabéis que el oído humano puede detectar sonidos cuyas frecuencias estén entre los 16 y 20000 Hz. Pero esto tampoco es exacto ya que varía según las personas, la intensidad y la edad. Del mismo modo que anteriormente, tenéis que generar ondas que rocen estos límites y apuntar cuál son vuestros umbrales inferior y superior para las frecuencias. Esta vez no hace falta que pulséis OK para generar la onda. Basta con que, una vez escritas las frecuencias, pulséis Preview para escuchar la onda. Para detener el sonido, pulsáis Stop.

Umbral inferior:

Umbral superior:

Por último vamos a comprobar nuestros límites vocales. Para ello debemos comprobar que tenemos bien conectados y abiertos los micrófonos. Simplemente tenemos que pulsar el botón rojo para grabar y el cuadrado verde para detener la grabación en el cuadro de controles de grabación y reproducción.

Tenéis que grabar el sonido más grave que podáis emitir con vuestra voz (con la vocal “O”). A continuación, abrir el análisis de frecuencias y escribís toda la información que aparece en el cuadro Frecuency. Haced lo mismo con el sonido más agudo que podáis emitir utilizando la vocal “I”.

Frecuencia más grave emitida: Nota correspondiente:

Frecuencia más aguda emitida: Nota correspondiente:

Observa que en el análisis de frecuencias aparecen otras frecuencias, además de la fundamental, (la más intensa) y compáralo con la sencillez de la onda pura sinusoidal que generaste al principio.

Aumenta el dibujo de la onda de vuestra voz. Observa si básicamente mantiene la misma frecuencia hasta el final. Fíjate ahora muy bien en el principio y el final de la onda. ¿Qué le ocurre al dibujo?

Esto es el reflejo del gradual cambio de intensidad desde el silencio hasta que establecemos el sonido. ¿Cómo se llamaba el parámetro de la onda correspondiente a la intensidad?

17

Segunda sesión práctica – Acústica Musical

ONDA COMPLEJAS. MODIFICACIONES DE LA AMPLITUD.

Nombre _____________________________________ N º de ordenador____

Sigue cuidadosamente las siguientes instrucciones y completa la información de la siguiente ficha:

- Abrir el programa ADOBE AUDITION

Ahora ya tienes el programa en marcha. Lo primero que vamos a hacer es crear una onda compleja de diente de sierra de 220 Hz. . Esto es lo que tienes que hacer:

- Abre la ventana superior Generate y selecciona Tones.

- Habrá aparecido una ventana (New Waveform) para configurar la calidad de la nueva forma de onda. Elige los siguientes valores:Sample Rate: 44100; Channels:Stereo; Resolution: 16 bits.

- Para empezar, cambia la frecuencia a 220 Hz. Base Frequency: 220.

Al tratarse de una onda compleja, contiene en sí todos los armónicos de la frecuencia fundamental (armónico 1). Estos armónicos tienen diferentes amplitudes que guardan relación con su altura. A mayor altura, menor amplitud.

- En esta ventana aparece 5 Frecuency Components, es decir, armónicos o parciales, que puedes añadir a tu tono. Puedes variar la intensidad de cada componente de 0 a 100 desplazando verticalmente el mando o clicando sobre las pestañitas.

- La relación de amplitudes de los armónicos en una onda de diente de sierra con respecto a la amplitud de la frecuencia fundamental es la siguiente:1/2, 1/3, ¼, 1/5, etc...Mueve el mando de la intensidad hasta que consigas que el primer armónico tenga un 100% de sonido el segundo un 50%, el tercero un _______ , el cuarto un _______ y el quinto un _______

- En el cuadradito inferior de cada componente armónico deberán aparecer los números 1, 2, 3, 4 y 5. Observa el símbolo (Ø) que aparece a la izquierda de estos cuadraditos.

18

¿A qué hace referencia este símbolo (Ø)?

¿Cuál es el signo que le sucede?

¿Cuál crees que será la frecuencia resultante de cada armónico?

- Una vez configurados los armónicos, pulsa el botón Add que está en Presets para guardar tu trabajo. Te aparecerá una nueva ventana en la que deberás escribir “Diente de sierra” y después pulsar OK. Asegúrate que en la lista de Presets aparece el nombre de tu nueva onda.

- Pulsa OK para poder visualizar la onda. Ayúdate de las herramientas del zoom para poder ver mejor la forma de diente de sierra característica de este sonido. Fíjate también en el sonido producido que se caracteriza por ser muy brillante y penetrante.

Ahora vamos a realizar un análisis de frecuencias de esta onda.

- Sitúate sobre la ventana Analyze y selecciona Show Frecuency Analisis.

- Observa el gráfico y responde:

¿Cuántos armónicos (picos) aparecen?

¿Cuál son sus frecuencias?

¿Coinciden con las que habías calculado anteriormente?

¿A qué nota corresponde la frecuencia de mayor intensidad?

Para cerrar el el cuadro de análisis de frecuencias debes proceder igual que para abrirlo, en la ventana Analyze desselecciona Show Frecuency Analisis.

19

Ahora vamos a modificar la amplitud. Podéis utilizar la onda de diente de sierra que acabamos de crear o generar una nueva, o un ruido nuevo o grabar vuestra voz. En todo caso, recordad que necesitamos una onda estéreo para poder practicar con lo que viene a continuación.-

- Nos situamos en el menú Effects y de ahí vamos a Amplitude para seleccionar, finalmente, amplify.

- Vamos a explorar los Presets (efectos preparados). Sólo hace falta seleccionar cualquiera de ellos y observar tres aspectos:

1. Los cambios producidos en los niveles de amplificación que aparecen a la izquierda.

2. El cambio en el sonido resultante al pulsar Preview.

3. La forma resultante de la onda si pulsamos OK.

- Tras investigar libremente estos efectos, responde: ¿Qué efecto se produce si seleccionamos?

Center wave:

Fade in Left:

Pan L R:

6dB Boost :

10dB Cut:

20

Tercera Sesión Práctica – Acústica musicalLOS INSTRUMENTOS. LA ENVOLVENTE DE UNA ONDA.

Nombre _____________________________________ N º de ordenador____

Sigue cuidadosamente las siguientes instrucciones y completa la información de la siguiente ficha. No te olvides de traducir del inglés al castellano los términos que están en letra cursiva.

- Abrir el programa ADOBE AUDITION

El primer objetivo de esta sesión es conocer las características acústicas de algunos instrumentos musicales .

- Abre la ventana superior File (_________) y selecciona Open (________).

- Habrá aparecido una ventana (Open a Waveform - _________________) que utilizaremos para buscar los ficheros de sonido con los que vamos a trabajar. En la casilla “Buscar en” debes elegir la unidad ________. Abre la carpeta _______________y elige____________; por último selecciona Flutsnts.wav

- Escucha la onda que se acaba de abrir. ¿A qué instrumento corresponde?

- ¿Qué es lo que hace?

Ahora vamos a realizar un análisis de frecuencias de esta onda.

- Sitúate sobre la ventana Analyze y selecciona Frecuency Analisis. - Sitúa el puntero del ratón sobre el primer sonido, observa el gráfico y

responde:¿Qué frecuencia tiene y a qué nota corresponde?

Ahora comprueba lo mismo en el último sonido ¿A qué nota

corresponde la última onda?

¿Cuál es el intervalo resultante entre la primera y la última notas?

¿A qué nota corresponde la frecuencia de mayor intensidad?

Observa cómo en la flauta travesera los armónicos graves son muy intensos. El sonido fundamental es el de mayor intensidad. La amplitud de los armónicos decrece en relación a su número de orden dentro de la escala de los armónicos.

Localiza la nota Re 5 y escribe las frecuencias de los cinco primeros armónicos.

Puedes abrir otros archivos pertenecientes a otros instrumentos y comprobar sus características de onda. Prueba, por ejemplo, a abrir un instrumento de percusión no afinada (marasolo.wav). ¿Cómo resulta ser el análisis de sus frecuencias?

¿Por qué crees que no hay ningún pico o frecuencia sobresaliente?

Utilizando un archivo de los anteriores o uno nuevo, sitúate sobre la ventana Effects y selecciona Amplitude, por último elige Envelope (Envolvente1). Prueba los Presets y comprueba cómo cambia el sonido de una onda. ¿Qué cualidad del sonido es modificada a lo largo del tiempo?

Cuarta sesión práctica – Acústica musical

1 El timbre está además relacionado con los procesos de ataque, caída y sostenimiento de un sonido, es decir, con la envolvente o curva de un sonido que define el proceso desde que se produce hasta que se extingue. En términos electrónicos viene especificado por las siglas ADSR (Attack, Decay, Sustain, Release). El generador de envolvente es el encargado de dar la forma deseada al sonido.

22

FILTROS DE FRECUENCIAS. TIPOS.

Nombre _____________________________________ N º de ordenador____

Sigue cuidadosamente las siguientes instrucciones y completa la información de la siguiente ficha. No te olvides de traducir del inglés al castellano los términos que están en letra cursiva.

- Abrir el programa ADOBE AUDITION

Hoy, vamos a aprender a manejar los filtros. Los filtros son unos dispositivos que modifican el espectro de frecuencias2 de un sonido, es decir, que eliminan o atenúan ciertas frecuencias. Los filtros más usuales se clasifican en cuatro grupos:

1. Filtro pasa-bajos : deja pasar las frecuencias por debajo de un determinado valor, denominado frecuencia de corte.

2. Filtro pasa-altos : realiza la labor opuesta, ya que únicamente deja pasar las frecuencias superiores a la frecuencia de corte.

3. Filtro pasa-banda : deja pasar una banda de frecuencias eliminando el resto.

4. Filtro de rechazo de banda : actúa de forma inversa al pasa-banda.

En primer lugar debemos crear o abrir un fichero con extensión wav para trabajar con él. Puedes generarlo como aprendimos en la primera sesión, abrir uno ya creado o grabarlo con ayuda del micrófono.

Sitúate sobre la ventana Effects (____________) y selecciona Filters (_____________). Finalmente pincha sobre la opción FFT Filter.

- En esta ventana se pueden aplicar todos los filtros aprendidos anteriormente y muchos más. Observa el gráfico y anota a qué parámetros corresponden:

-el eje de abcisas

-el eje de ordenadas

2 Recuerda que según el teorema de Fourier toda onda compleja puede descomponerse en la suma de varias ondas sinusoidales simples de diferentes intensidades y amplitudes.

23

- Observa que para conseguir un efecto telefónico hay que seleccionar Telephone receiver en los Presets. Pruébalo y responde:

¿Por debajo de qué frecuencia no se oye nada?

¿Cuál es la frecuencia de corte por encima de la cual no pasa ninguna

frecuencia más aguda?

Por tanto ¿Qué tipo de filtro tenemos que aplicar para conseguir un

sonido telefónico?

¿Qué tipo de filtro es el preset llamado The club downstairs

(________________)?

¿Qué sensación produce?

¿Cuál es la frecuencia de corte a partir de la cual los armónicos del

sonido no se escuchan?

Intenta, ahora, crear un filtro pasa-altos con una frecuencia de corte de 1760 Hz manipulando las líneas de la gráfica. No te olvides de grabarlo. Para ello, pulsa add cuando hayas terminado de dibujar la gráfica. Pon el nombre de “pasa-alto 1760” a este nuevo filtro.

Vamos a continuar esta sesión animándoos a que probéis un nuevo grupo de efectos que se denominan Delay effects (situados también en la ventana Effects).

Como de costumbre podeis crear los sonidos, grabarlos con el micrófono o abrirlos desde un archivo. También podeis extraer una pista de un CD mediante la opción File Extract Audio from CD.

24

En la carpeta____________, situada en _____________________ podeis disponer de archivos apropiados para aplicarles este grupo de efectos.

Estos efectos utilizan delays (retardos), esto es, suman a la señal original varias copias retardadas y modificadas de diversas formas.

- Reverberación: En una sala, la reverberación se produce de forma natural ya que recibimos “copias” del sonido emitido, al ser reflejados por las paredes. La opción reverb del programa permite emular la acústica de diferentes recintos. Escribe qué presets y qué archivos de sonido has utilizado y comenta el resultado.

- Ecos: cuando los retardos o copias se oyen separadamente de la señal original se denominan ecos.

En el programa hay dos opciones que deberíais probar Echo y Echo Chamber.

Echo Chamber añade una serie de ecos a la señal de forma que puede llegar a alejarse considerablemente de la original.

Mientras que con el dispositivo de Echo Chamber se puede recrear la reverberación de cualquier espacio físico especificando las medidas de la habitación (room size) y la colocación de los micrófonos.

Prueba los diferentes presets en ambas ventanas y escribe los que más te hayan impresionado.

Por último, atrévete a modificar el sonido de cualquiera de los ficheros o de tu propia voz con los siguientes efectos que están en la ventana Effects:

- Reverse: efecto que se viene practicando desde los años 50 y consiste en darle la vuelta al sonido.

- Filters Quick Filter: un ecualizador con interesantes presets.

- Special Distortion: cambia el nivel de señal de entrada de una muestra modificando su ganancia.

25

Quinta sesión práctica – Acústica musical MODULACIÓN DE FRECUENCIA. TIPOS DE RUIDOS.

Nombre _____________________________________ N º de ordenador____

Sigue cuidadosamente las siguientes instrucciones y completa la información de la siguiente ficha. Traduce los términos en inglés solicitados.

- Abrir el programa ADOBE AUDITION

Modulación de frecuencia es la variación de la frecuencia de un sonido, esto es, la altura de tono. En los instrumentos acústicos esto se conoce como vibrato (cuando la variación es más lenta, 4 a 8 veces por segundo) y trino cuando es más rápida (13 o 14 Hz). En música electrónica, esto límites son fácilmente superables si procedemos de la siguiente manera:

- Abre la ventana superior Generate(_________) y selecciona Tones (________).

- Aparece la ventana New Waveform para determinar el tipo de muestreo digital de la onda. Seleccionamos 44100 Hz, Stereo y 16 bits, esto es calidad CD.

- La onda portadora será una onda sinusoidal de 440 Hz, en caso de que no hubiera aparecido por defecto selecciona “A 440(default)” en los Presets.

- Asegúrate de que tienes las siguientes opciones Base Frequency: 440Modulation Frecuency: 1; Time: 10; Flavor: Sine. Escucha la onda pulsando Preview.

- Ahora escoge para la ventana Modulated by, el número 5. Escucha de nuevo a través de Preview.

- Modifica el valor anterior de 5 sustituyéndolo por 20. Escucha la onda. ¿Qué es lo que ha ocurrido?

- Continúa modificando, gradualmente, los valores de la ventana Modulated by hasta llegar a 300. Crea la onda pulsando en OK para poder visualizarla (tendrás que utilizar el zoom, por lo menos tres

26

veces, para ver mejor los cambios de frecuencia). ¿Cómo se visualiza ahora la onda?

- Abre el análisis de frecuencias (Analyze – Frequency Analysis) y sitúa el puntero en distintos puntos de la onda. ¿Cuál es la frecuencia más baja que se escucha en este sonido?

¿Y la frecuencia más alta? Recuerda que esta información aparece debajo del análisic de frecuencias en la casilla de la derecha.

- Vuelve a abrir la ventana de Generate Tones. Ahora vamos a modificar la casilla de Modulation Frecuency que está debajo de Modulated by. Comienza cambiando el número 1 por el 2 y escucha el resultado. Sigue aumentando , gradualmente, ese número a medida que escuchas los sonidos resultantes. ¿De qué manera cambia el sonido?

- Puesto que trabajar siempre con ondas sinusoidales puede resultar algo monótono, añade armónicos a esta onda simple. Para ello, cambia los números que están en Frequency components 1,2,3,4, y 5 por otros, al azar, con decimales. Súbeles el volumen y observa los resultados sonoros. ¿Escuchas los armónicos? ¿Modulan su frecuencia al igual que la onda fundamental?

- Cuando hayas obtenido un sonido que te parezca interesante por sus efectos, guárdalo pulsando Add y llámalo MF (modulación de frecuencia). Anota aquí sus características: frecuencia base, frecuencia de modulación, modulado por.., y los armónicos utilizados (el número por el cual se multiplica la frecuencia de la fundamental)

27

El siguiente ejercicio aborda el ruido y sus diferentes tipos. Para ello, debes proceder igual que para generar un tono.

- Pulsa Generate y después elige Noise (________). Te habrá aparecido una ventana en la que puedes seleccionar uno de los tres tipos más habituales de ruido. Elige el ruido de Color Brown (_________) y pulsa OK. Escúchalo y escribe qué es los que te sugiere.

¿Cómo es la altura de tono de este ruido, en general?

Observa la onda detenidamente utilizando el zoom. ¿Se observa algún tipo de ciclo o frecuencia constante?

Al examinar el análisis de sus frecuencias observamos que no destaca ninguna frecuencia en particular pero sí un grupo de ellas, ¿a cuál nos referimos?

Por tanto, ¿Cuál es la diferencia fundamental entre un ruido y un tono?

Genera los otros dos tipos de ruido e intenta averiguar ¿cómo es, en general, la altura de tono? y ¿a qué tipo de sonidos de la naturaleza recuerda?

Tipo de ruido Traducción Alturas predominantes Sonidos similaresBrown

Pink

White

28

Sexta sesión práctica – Acústica musicalSAMPLING O MUESTREO. PITCH. NOISE REDUCTION.

Nombre _____________________________________ N º de ordenador____

Sigue cuidadosamente las siguientes instrucciones y completa la información de la siguiente ficha. Traduce los términos en inglés solicitados.

- Abrir el programa ADOBE AUDITION

Hoy vamos a aprender a “samplear” un sonido, es decir, utilizar el timbre de una voz o de un instrumento como muestra para crear una escala a partir de la cual componer melodías, coros, etc.

- En primer lugar necesitamos un sonido del que tomar la muestra. Tienes dos opciones:

o grabar un sonido largo y homogéneo con una vocal concreta.o abrir un archivo de sonido desde la unidad _________ en la

carpeta _____________.

- Escucha el fragmento y selecciona una sílaba concreta, procura que sea lo más larga posible, y elimina el resto del archivo. En el caso de la voz grabada, podéis seleccionar un par de segundos homogéneos.

- En la ventana Effects, baja con el ratón hasta Special y selecciona la función Music.

- Te habrá aparecido un cuadro de diálogo llamado Making Music (_______________) con varias figuras y un pentagrama en blanco. Para escribir en el pentagrama basta con arrastrar las figuras en el espacio o línea del pentagrama que desees.

- Para comprobar el efecto del sampling basta con que escribas una escala, en blancas, por ejemplo, y compruebes el efecto pulsando OK.

Describe cómo se ha transformado el sonido original tanto visual como auditivamente.

¿Se parece el timbre al de la muestra original?

29

Un servicio que proporcionan los editores de sonido muy útil es la reducción de clics y de ruido. Selecciona un fragmento de un archivo de sonido. Generalmente se suelen utilizar las partes en las que “no hay sonido” pero sí ruido, es decir, las del principio o final de un archivo.

- Busca Noise Reduction (________________) en la ventana Effects y selecciona Noise Reduction. En el cuadro de diálogo elige Get Profile from Selection (___________________) y cierra pulsando el botón Close.

- Selecciona ahora toda la onda y vuelve a abrir el cuadro de diálogo Noise Reduction. Como la muestra del ruido ya estaba seleccionada debes ahora, simplemente, pulsar OK. De este modo, habrás conseguido eliminar el nivel de ruidos al archivo sonoro con el que estés trabajando.

Por último vamos a experimentar cómo se transforman los sonidos mediante la opción en Effects de Time/Pitch.

- Puedes utilizar algunos de los sonidos anteriores o utilizar unos nuevos. Elige la función Strecht (________________)

- Prueba los diferentes Presets y observa los cambios que se producen en el sonido y en la forma de la onda. A través de la observación deberás explicar qué ocurre en:

o Lower Pitch

o Raise Pitch

o Slow down

o Cutting power

Por tanto, ¿qué cualidad del sonido es el Pitch?

30

EJERCICIOS

1- ¿Qué es la frecuencia?

2- ¿En qué se mide?

3- ¿Con qué cualidad del sonido tiene relación?

4- ¿Cuáles son, en el ser humano, los límites de percepción de frecuencias?

5- ¿Cómo llamamos a las frecuencias que no podemos oír, tanto las superiores como

las inferiores?

6- ¿Qué es la amplitud?

7- ¿En qué se mide?

8- ¿Con qué cualidad del sonido tiene relación?

9- Verdadero o falso:

- Un auditorio ideal es el que absorbe todo el sonido de forma que no se produce

reverberación ninguna y el resultado es una sonoridad seca y pura.

- El umbral del dolor para la intensidad es de 120/140 dB.

- El timbre de un instrumento es debido a la suma de la onda fundamental del tono

principal y otras ondas de menor intensidad llamadas armónicos.

-La envolvente o curva de un sonido, que define el proceso desde que se produce

hasta que se extingue, aporta características tímbricas a los instrumentos.

31

10- ¿Cuál es el único “instrumento” que, de forma natural, produce ondas simples?

11- ¿Cuál es su frecuencia? ¿A qué nota corresponde?

12- Dibuja dos ondas sinusoidales con las siguientes cualidades:

a) corta, fuerte, grave b) larga, suave y aguda

13-

14-

15-

14- ¿Qué es la envolvente de un sonido

13-¿Cuál es la diferencia entre una onda sinusoidal y una onda compleja?

14- ¿Qué significan las siglas ADSR? Dibuja una envolvente marcando cada una de

sus fases.

15- Escribe cuatro instrumentos cuyos sonidos sean lo que, acústicamente, conocemos

como “ruidos”.

16- ¿En qué se diferencia un “ruido” de un tono o nota?

17- Qué son los filtros?

32

18- Explica las cuatro familias principales de filtros.

19- ¿Con qué tipo de modulación relacionas un trino o un vibrato?

20- En los siguientes esquemas de modulación deberás indicar:

- ¿Cuál es la onda portadora, cuál la moduladora y cuál la

resultante?

- ¿Cuál es el esquema de la modulación de frecuencia y cuál el de la

amplitud?

33

HISTORIA DE LA MÚSICA ELECTRÓNICA

INTRODUCCIÓNLa música electrónica forma parte de las vanguardias musicales del siglo XX, junto

al expresionismo, dodecafonismo, dadaísmo, serialismo, etc. La tecnología, eléctrica primero y electrónica después, desempeñó un importante papel en la evolución musical del recién terminado siglo. El uso de la tecnología supuso la creación de códigos expresivos nuevos: rompió con el tabú del ruido, la subjetividad del intérprete, la necesidad de la partitura y con el sentido mismo del arte musical.

La electroacústica y la música concreta son parte de lo que hoy llamamos música electrónica. No sólo por el medio donde se realizan sino también por su dinámicas particulares.

EL FUTURISMO

La primera vanguardia que incorporó la presencia tecnológica a su imaginario fue el futurismo. El 20 de febrero de 1909 Marinetti, poeta, novelista, dramaturgo y agitador italiano, publicó el manifiesto fundacional del movimiento en el que exigía un cambio radical en el arte. Tildó a los museos de “tumbas del arte”, cargó contra las instituciones y el postromanticismo. Por el contrario, exaltó la velocidad, las máquinas, la guerra y la juventud.

Rápidamente, esta corriente, en origen literaria contagió al resto de las artes que fueron, a su vez, publicando sus respectivos manifiestos. De este modo, en 1910 Pratella firmó el Manifiesto de la música futurista. En este manifiesto se exhorta a los compositores a “liberar su sensibilidad musical de todas las influencias del pasado.” Sin embargo, este autor no supo traducir su ideario en composiciones de la misma calidad.

Fue Luigi Russolo (1885-1947), pintor y poeta futurista, el que, en 1910 y sin formación previa en el campo de la acústica, la composición o la ingeniería, empezó a construir sus máquinas de generar ruidos, los intonarumori. Su objetivo era ampliar e incluso sustituir la gama tonal y textural de la música por “la variedad infinita de timbres obtenidos a través de mecanismos especiales” y conferir al sonido no articulado, vulgo ruido, la misma categoría estética que al sonido de la voz o de los instrumentos. Conviene recordar que ruido se llama a todo sonido que no tiene una altura determinada (una nota reconocible)

La primera máquina construida por Russolo y el pintor Piatti fue el Explosionador, un dispositivo que con la sucesión automática de diez notas completas emulaba el sonido de un motor. Le siguieron artefactos como el Ululador, el Gluglulador, el Silbador, el Crepitador, el Ronroneador, el Rascador, y así hasta completar una formación orquestal completa de intonarumori.

Si bien los intonarumori fueron esencialmente empleados como complemento a desarrollos instrumentales más o menos tradicionales firmados por otros futuristas como Pratella, Casavola o Balla, Russolo compuso algunas piezas destinadas a ser

34

exclusivamente interpretadas por sus máquinas. Desgraciadamente, todas las grabaciones existentes desaparecieron durante la Segunda Guerra Mundial, así como la práctica totalidad de los intonarumori y casi todas las partituras de Russolo. Sin embargo, la reconstrucción a partir de ilustraciones de la época de algunos intonarumori a manos de Mario Abate y Pietro Verardo en 1977, en ocasión de la Bienal de Venecia, permite disfrutar hoy de una de las contadas ejecuciones en vivo de Risveglio di una cittá, obra paradigmática de la música ejecutada por intonarumori.

La pieza, compuesta en 1913, reproduce el despertar de la moderna ciudad industrial: maquinaria desperezándose, tráfico creciente, la masa obrera dirigiéndose a la fábrica... In crescendo ruidoso que, al igual que los intonarumori, es ante todo una celebración de la capacidad tecnológica del ser humano. Esta misma idea, íntimamente ligada a los conceptos de progreso y futuro, marcó por siempre la iconografía de la música electrónica. Cuarenta años antes de la aparición del ordenador, Russolo anunciaba de esta manera la íntima relación entre creación y tecnología: “La evolución musical es paralela a la multiplicación de las máquinas que colaboran con el hombre en todos los frentes.”

La figura de Luigi Russolo es básica en la música electrónica. Incluso con su exigencia del uso musical de “todos los ruidos que pueden hacerse con la boca sin hablar ni cantar”, que incluye en el sexto bloque de su catalogación de los ruidos en L’arte dei rumori, contribuyó sobremanera al desarrollo de la poesía fonética, que en boca del dadaísta Kurt Schwitters y su paradigmática Die Sonate in Urlauten sentó en 1932 los cimientos de la audiopoética moderna.

¿Cuándo surge el futurismo?

¿Cómo se llama el compositor más importante del futurismo? ¿Cuál era su nacionalidad?

¿Qué eran los intonarumori?

¿Qué pretendían ensalzar los futuristas?

35

MÁQUINAS Y MÚSICA

Luigi Russolo inició con sus intonarumori una tradición exclusivamente relacionada con la música ligada a la tecnología: la del músico inventor. En relación directa está la figura del luthier que protagoniza la aventura musical de exhibir las virtudes de su invención. A consecuencia de ello, la música electrónica contó en sus primeros momentos con todo tipo de inventos sonoros.

El teremín o eterófono o tereminovox apareció en 1920 de la mano del ruso Lev Sergeyvich Termen o Léon Theremin. De aspecto estrambótico, parecido a una radio destripada, el teremín es uno de los mecanismos más ingeniosos de la historia, principalmente porque el intérprete toca sin que el intérprete tenga contacto físico con el instrumento. Es decir, que se toca sin ser tocado, entre otras cosas porque puede provocar una electrocución. Su autor construyó un emisor de campos magnéticos capaz de convertir en señal acústica la alteración de los mismos. Así, su manejo quedó reservado a un reducido grupo de virtuosos –entre los que destaca Clara Rockmore- capaces de controlar con el ajustado movimiento de sus manos el manejo “espacial” del aparato. De sonido muy característico, agudo y ululante, el teremín fue rapidamente asimilado por Holliwood para anunciar las presencias de las películas de los años 30; más adelante lo escucharíamos en la música pop como en el conocido tema “Good vibrations” de los Beach Boys o el easy listening. Otros usuarios fueron Bernard Herrmann o Edgar Varèse.

También Varèse, junto a Messiaen, Honegger y Milhaud, aparece entre los compositores que utilizaron las famosas ondas Martenot desde 1928 y hasta bien entrada la década de los cincuenta. Utilizadas sobre todo en Francia, las ondas Martenot, basadas en la síntesis sustractiva, se accionaban desde un teclado de cinco octavas capaz de ejecutar intervalos temperados y glissatos. Este mismo principio sirvió de modelo para otros precursores del sintetizador moderno como el claviolín o el ondiolín, instrumento este que fue muy utilizado por músicos del easy listening como Juan García Esquivel o Martín Denny.

Otra herramienta de importancia histórica en el desarrollo de la música electrónica es la cinta magnética. Su utilización cambió definitivamente la forma de grabar música y el papel del estudio, convertido a partir del trabajo de Pierre Schaeffer en un elemento más del proceso creativo. De la cinta magnética se hablará en profundidad en los apartados sobre música concreta y “Tape Music”.

Otro invento revolucionario fue el sintetizador, inventado en 1955 por Harry Olson y Herbert Belarin. El primer sintetizador se trataba de una máquina inmensa capaz de generar electrónicamente sonidos para ser grabados en magnetofón y cuyos parámetros había que especificar escribiendo una partitura en papel perforado. Ya entrando en la década de los 60 llegó el control por tensión, un avance tecnológico importante que automatizó muchos de los procesos, ya que con él unos dispositivos podían controlar otros de una manera muy sencilla.

Robert Moog fue el que diseñó y comercializó en 1964 algunos de los primeros sintetizadores que incorporaban este control por tensión. La producción industrial abarató estos equipos, lo que permitió que mucha gente pudiera hacer música electrónica, así en esta época surgió Walter Carlos con su Switched on Bach, uno de los discos que más ha popularizado el sintetizador.

36

A través de sus distintas encarnaciones, el sintetizador, un generador de sonidos artificiales, es decir, no emitidos por una fuente natural, se ha convertido en la base de la música electrónica hasta la aparición del software y los sistemas digitales.

Por último, no podemos olvidarnos de una de las herramientas más utilizadas hoy en día: el ordenador. El uso del ordenador se divide en dos grandes tareas: la síntesis del sonido, es decir, la creación de timbres y la composición automática o producción de una “partitura”.

El padre de la síntesis y proceso de sonido por ordenador es Max Mathews que junto a John Pierce escribió la serie de programas MUSICN. Son, en realidad, lenguajes de programación para realizar algoritmos de síntesis y de procesamiento de sonido e incluso de composición. Estos lenguajes sirven, pues, para construir o manipular directamente en el ordenador la señal acústica en formato digital, la cual posteriormente puede ser transferida a un sistema de grabación o escuchada a través del convertidor digital-analógico del propio ordenador.

Estos lenguajes de síntesis imitan el concepto de sintetizador modular que apareció en los años 60, donde se conectaban módulos entre sí (osciladores, generadores de ruido, generadores de envolvente, etc.) para conseguir un sonido determinado. Pero las ventajas de la utilización del ordenador con respecto a los medios analógicos son claras: la total precisión numérica con que se puede expresar cualquier parámetro del sonido y la repetibilidad (la calidad del sonido de un sistema analógico depende de factores ambientales como temperatura, humedad, etc.; un ordenador sólo maneja números que siempre serán los mismos)

La composición automática consiste en que el ordenador componga todos los detalles de la música a partir de las instrucciones o deseos del compositor. La interpretación puede ser electroacústica o bien un grupo de instrumentos o voces. Para ello se escribe un programa en que se implementan uno o varios modelos matemáticos de cómo quiere el compositor que sea la obra. Los métodos más utilizados son los estocásticos3, los que utilizan la lógica, las fórmulas aritméticas, los modelos matemáticos basados en las más variadas disciplinas, etc.

¿Qué máquinas o aparatos han sido utilizados a lo largo de la historia de la música electrónica?

3 Perteneciente o relativo al azar.

37

MÚSICA CONCRETA

La diferencia entre música concreta y música electrónica sólo podemos hallarla históricamente en una fase inicial de la experimentación, hacia la década de los cincuenta,, cuando ambas tendencias se desarrollan de forma autónoma en estado “puro”, como investigación de laboratorio, configurando peculiaridades técnico-lingüísticas aparentemente incompatibles, aunque destinadas más tarde a integrarse en una única tendencia.

En la música concreta, el material de base está formado por elementos preexistentes: sonidos y ruidos provenientes de cualquier tipo de contexto, es decir, obtenidos de los cotidiano, de la naturaleza y también voces e instrumentos tradicionales, que se graban con el magnetófono, se almacenan y que se elaboran posteriormente mediante diferentes técnicas de montaje.

Por el contrario, la música electrónica se vale sólo de sonidos provenientes directamente de los aparatos electroacústicos, en los que las vibraciones eléctricas se convierten en vibraciones sonoras.

La gran aportación de la música concreta fue descubrir las posibilidades del estudio de grabación hasta el punto de convertirlo en un elemento determinante del proceso compositivo. Nacía, por primera vez, un género musical inconcebible sin la presencia de dispositivos eléctricos. Tanto o más relevante fue la utilización estética de sonidos no emitidos por personas o instrumentos. Si Russolo construyó los intonarumori para emular el rugido de las fábricas, los músicos concretos “toman” ese sonido directamente de la realidad gracias al desarrollo de la microfonía y las técnicas de grabación.

El término “música concreta” acuñado por Pierre Schaeffer en 1952 se opone al de música abstracta. Como tal hay que entender la música tradicional que se basa en las fases de composición – partitura- interpretación. La música concreta, por el contrario, utiliza la cinta magnética como soporte y, al mismo tiempo, obra. El compositor trabaja con ”objetos sonoros” ya existentes que graba, manipula y yuxtapone. La obra, por tanto, no puede ser interpretada, sólo escuchada.

En 1948, Schaeffer compone Études de bruits , un total de cinco trabajos en los que conjuga distintas velocidades de reproducción, construye bucles y crea efectos diversos como reverberaciones, delays o distorsiones.

A raíz de la asignación en 1949 del joven compositor Pierre Henry como ayudante, se forjó una alianza musical que dio como fruto piezas tan emblemáticas como Symphonie pour un homme seul y Orphée 53 y se configuró el binomio fundacional del Groupe de Recherches de Musique Concrète, al que en 1951 se sumó el ingeniero Jacques Poullin. El trío entró a trabajar en el primer estudio electroacústico de la historia financiado por la RTF enteramente. Al cabo de cuatro años contaban con:

- Un grabador de cinta de tres pistas.- Una máquina con diez cabezales lectores capaces de generara loops con eco.- Un lector de cinta con veinticuatro velocidades de reproducción.

38

En los comienzos de la música concreta el sonido se podía procesar mediante manipulación de la cinta o mediante dispositivos electrónicos. También Radio France contribuyó al desarrollo de la espacialización del sonido (estéreo y cuadrafónico), diseñando sistemas de altavoces distribuidos en la sala de conciertos que, en teoría, podían mover o ubicar cualquier sonido en el espacio. Entre los procesados electrónicos figuraban como los más comunes el filtrado en bandas de frecuencia y la reverberación.

Pierre Henry asumió la música concreta como escuela artística, así sus obras están cargadas de una emotividad que podemos apreciar al escuchar la Messe pour le temps present (compuesto para el coreógrafo Maurice Béjart), Variations pour une porte et un soupir o la conocida Psyché Rock. Más adelante, P. Henry utilizaría los sonidos electrónicos además de los concretos, iniciándose lo que después se llamaría música electroacústica.

Según Andrea Lanza “la corriente de música concreta, fuera de un breve periodo de éxito, será un fenómeno sustancialmente aislado en el panorama de la vanguardia europea, sobre el que no sabrá ejercer una influencia directa de importancia.”

Sin embargo, y según otros autores, son muchas las aportaciones con las que Pierre Schaeffer contribuyó a la evolución del pensamiento musical. Fue probablemente el primero en reconocer el altavoz como un verdadero instrumento musical, ya que permitía al oyente aislar el sonido del objeto que lo había producido. Según sus propias palabras “el objeto sonoro no debe confundirse con el cuerpo que lo genera”4. Schaeffer utilizó el término “acusmática” para designar la escucha de sonido reproducido mediante altavoces. Este término se refiere a la leyenda sobre las clases de Pitágoras, según la cual, una cortinaba separaba a éste de sus oyentes para evitar así que el contacto visual distrajera la estricta concentración en la escucha.

Aunque cercano a las experiencias del GRM, en tanto que experimentador con sonidos concretos, Edgard Varèse alterna el acercamiento a la electrónica con una personal relectura del serialismo. Muchos consideran su clásica obra Déserts (1954) para cinta magnética y orquesta como obra maestra de música concreta. Posteriormente su Poème electronique (1958), su única obra enteramente electrónica, seguirá manifestando su interés por el sonido organizado tecnológicamente. Su búsqueda incansable de nuevos horizontes fue la principal característica de su carrera musical. Sus palabras reflejan el deseo que supone la culminación de todos los anhelos de la música electrónica: “Sueño con instrumentos que obedezcan a mi pensamiento, y que con la ayuda de un sinfín de timbres inimaginables se presten a cualquier combinación que yo desee imponerles, rindiéndose a las exigencias de mi ritmo interno.”

¿Cómo y dónde trabajan los compositores de música concreta?

4 Pierre Schaeffer y Guy Reibel, Solfège de l’objet sonore, París, Èditionsdu Seuil, 1967, apartado 73.0, tercer pensamiento.

39

MÚSICA ELECTRÓNICA (Elektronische Musik)

El término música electrónica se utiliza hoy para casi todo tipo de música electrónica, pero en los años cincuenta era casi un sinónimo de la música electroacústica de la denominada Escuela de Colonia

Al principio de los años 50, un grupo de científicos, técnicos y músicos fundó el Estudio de Radio en Colonia; basaron su música en utilizar como material de partida el sonido generado electrónicamente, aunque una vez grabado podían aplicar las mismas manipulaciones de la música concreta

Por aquellos años, estaba en su apogeo el serialismo integral, y la música electrónica permitía, además de ejecutar los parámetros musicales de una forma totalmente precisa, generalizar el serialismo a otros parámetros del sonido más allá de lo que puede controlar un intérprete humano. Así pudieron serializar de cada sonido su frecuencia, duración, volumen, ataque y caída de la envolvente, situación en el espacio, reverberación, etc.

En esta primera época, los principales recursos para crear una composición electroacústica eran los siguientes:

- Generadores de ondas senoidales, de onda cuadrada, de diente de sierra, de ruido blanco...

- Filtros- Anillos de cinta, que servían para generar repeticiones de una sección sonora.- Corte y montaje de cintas magnéticas.- Transposiciones mediante la modificación de la velocidad de los magnetófonos.

Más tarde fue posible efectuarlas también sin cambiar la velocidad.- Modulación de anillo.- Movimiento del sonido en el espacio.- Reverberación

El Studio für Elektronische Musik de Colonia tiende en sus primeros momentos a una restricción del área musical a los acontecimientos fónicos sobre los que sea posible ejercer un control racional total, es decir, a los sonidos que pueden producirse por síntesis con los aparatos del laboratorio.

La experimentación en el Studio de Colonia aparece en un principio como un simple traslado al terreno electrónico de los principios del serialismo ampliado. La limitación a los doce sonidos del dodecafonismo y la exclusión de los microintervalos en un terreno absolutamente inexplorado como el electrónico se presentan como limitaciones injustificadas y algo absurdas. Razones por las cuales estas limitaciones desaparecerían muy pronto.

Oficialmente, la música electrónica nace en 1951 de la mano de los germanos Robert Beyer y Herbert Eimert, pero sin duda ha sido Karlheinz Stockhausen quien ha dado a conocer universalmente la música electrónica. A él se deben las primeras obras puramente electrónicas jamás publicadas, Studien I und II (1952) y Gesang Der Jüngline (1955-1956), así como la paternidad de la música espacial gracias a Kontakte (1958).

40

En sus Estudios I y II intentó sintetizar timbres variados mediante la suma de ondas senoidales, esto es, utilizó la hoy familiar síntesis aditiva. Esta se basa en el Teorema de Fourier que dice que cualquier sonido se puede descomponer en una suma de ondas senoidales. La síntesis aditiva consiste en el proceso inverso, es decir, ir sumando tonos puros hasta conseguir un sonido complejo.

Stockhausen pronto se encontró con las limitaciones de la tecnología de su época, por lo tedioso del trabajo con aquellos medios y porque la idea de sintetizar “cualquier” sonido no se cumple en absoluto y todos sus timbres suenan “electrónicos” y menos variados y ricos que los de los instrumentos acústicos o la voz. Habrá que esperar a la utilización del ordenador para poder crear sonidos equivalentes en riqueza a los de los instrumentos acústicos.

No es casual que la primera composición artísticamente importante realizada en el Studio de Colonia sea también una clamorosa contradicción de sus compromisos puristas. En efecto, el Gesang der Jünglinge incorpora un texto bíblico que ha sido previamente grabado por un niño cuya voz ha sido sometida a múltiplesmanipulaciones. Como puede verse un procedimiento de la música concreta. Tras esta y otras obras la separación entre música concreta y electrónica e incluso entre música para instrumentos tradicionales y música electrónica será más ficticia que real.

¿Cuándo y dónde surgen la música concreta y la música electrónica?

¿Cuáles son los autores más significativos de ambas escuelas?

Inicialmente, ¿en qué se diferenciaban?

41

TAPE MUSIC

La primera música electroacústica en Norteamérica fue conocida con el nombre de Tape Music.

En 1948 Louis y Bebe Barron empezaron a experimentar con magnetófonos en

Nueva York. Las técnicas de manipulación eran, entre otras: reproducción hacia delante y

hacia atrás de sonidos instrumentales previamente grabados y desplazamiento temporal de

secciones pregrabadas cortando y pegando cinta. En 1951 John Cage se interesó por el

trabajo de los Barron y fundó, junto con otros compositores, un grupo de trabajo para

llevar a cabo el proyecto de Music for Magnetic Tape. Las técnicas de manipulación eran

comparables a las empleadas tanto en el entorno de la música concreta como en el de la

elektronische Musik. No obstante, las ideas musicales propias de los americanos eran

completamente distintas a las europeas. La obra más conocida de este grupo es Imaginary

Landscapes nº 5 cuya composición se basa en operaciones aleatorias realizadas con ayuda

del I Ching

Paralelamente al grupo de Cage, Vladimir Ussachevsky trabajó con magnetófonos en

Nueva York. La transposición de sonido previamente grabado y otras técnicas de la música

conreta fueron los procedimientos iniciales de trabajo. En 1952 Oliver Daniel acuñó el

término Tape Music para referirse a la música producida en el entorno de Ussachevsky.

Sus producciones se realizaron en el Experimental Music Studio que se convertiría

posteriormente en el Tape Music Studio de la Columbia University de Nueva York.

La primera música electroacústica europea – la elecktronische Musik y la música

concreta- se desarrolló a partir de principios técnicos y compositivos. Por el contrario, la

Tape Music no conoció aparentemente ninguna frontera ideológica. Habría que investigar

si los dos grupos que desarrollaron la primera música electroacústica en Estados Unidos

establecieron de manera consciente una diferencia entre ellos y, en caso de ser así, cuál fue

esa diferencia.

¿Qué efectos o manipulaciones sonoras utilizaban las corrientes europeas (Música concreta y música electrónica) y las corrientes americanas (Tape music y Music for Magnetic Tape) para sus composiciones?

42

ELECTRÓNICA EN VIVO

A partir de la fusión entre música grabada y ejecución instrumental en obras como

Musica su due dimensioni de Maderna, Transición II de Kagel o Kontakte de Stockhausen

(las dos últimas obras para piano, percusión y banda magnética) se relega la idea muy

generalizada en esos años de que la música electrónica representaba la música del futuro,

destinada a sustituir todos los demás medios de producción sonora.

El concepto “electrónica en vivo” se extendió en los años 60 y se refiere, dentro del

marco de la música electroacústica, a una situación de concierto distinta de la que se da en

un concierto de altavoces sin intérpretes.

Junto al término “electrónica en vivo” se utilizan habitualmente estas variantes, entre

otras: Live Electronics, Live Electronic Music, Live-elektronische Musik.

Existen diferentes definiciones de la música electrónica en vivo. En el ámbito de habla

alemana ésta se considera como una extensión de la música realizada exclusivamente para

altavoces. Extensión en un doble sentido: en primer lugar, el material sonoro generado

electrónicamente no se sintetiza en un estudio, sino en tiempo real sobre el escenario; en

segundo lugar, el sonido de los instrumentos acústicos o de la voz humana se transforma

electrónicamente también en tiempo real. En Norteamérica se utiliza este concepto de una

manera más amplia: se entiende también como Live Electronic Music el hecho de

reproducir, de manera simultánea a la actuación de uno o más músicos, un cinta

magnetofónica producida con anterioridad.

Una clasificación bastante completa de los posibles componentes y situaciones propios

de la electrónica en vivo es la que nos proporciona Martin Supper. El autor propone los

siguientes subgrupos:

1. Ejecución instrumental con reproducción de material sonoro producido

con anterioridad. Uno de los primeros ejemplos de la primera categoría se

encuentra en la obra de Varèse, Déserts (1949-1954), para 14 instrumentos de

viento, piano, percusión y tres interpolaciones de “organized sound”. Existen

cuatro versiones distintas de las cintas magnetofónicas, las interpolaciones,

43

realizadas y modificadas en diferentes estudios desde los años 1953/1954, 1960

y 1961. La primera fue realizada en el estudio parisino de Schaeffer y la última

en el Columbia-Princeton Electronic Music Center de Nueva York. En Déserts

se alterna la reproducción de la cinta con secciones orquestales, aunque también

resulta posible su interpretación sin cinta.

2. Ejecución instrumental con procesado electrónico de sonido. La segunda

categoría es la de mayor actualidad dentro de la electrónica en vivo. Entre las

primeras obras se encuentra Mikrophonie I y II (1964) de Stockhausen quien

abría el camino con una composición para gong, dos micrófonos, filtro y

potenciómetros. En Mikrophonie se amplifican los sonidos recogidos de un

gong gigantesco que se filtran y distribuyen espacialmente, en esta obra los

objetos sonoros que se obtienen son muy variados, pero están sutilmente

relacionados al proceder de una misma fuente sonora.

3. Utilización de sintetizadores en situación de concierto. En los años 60

aparecieron numerosos conjuntos instrumentales de electrónica en vivo como

The Sonic Band Union en Estados Unidos, en Italia el MEV (Música

Electrónica Viva) o el grupo de improvisación Nuova Consonanza.

4. Conjuntos instrumentales de música electrónica en vivo. la única diferencia

con el grupo anterior es que es que es que es que cada uno de sus miembros,

además de dominar un instrumento, tiene que ser compositor.

5. Sistemas interactivos asistidos por ordenador. Se trata de sistemas capaces de

“escuchar” los instrumentos en vivo y reaccionar produciendo otra música u

otros sonidos. Este término fue introducido en 1967 por el compositor

norteamericano Joel Chabade. Suponía, para él, componer con un sistema en

tiempo real durante el concierto. En este tipo de composición el concepto

“interactivo” se refiere a la relación entre hombre y máquina. En la actualidad,

la composición interactiva ha encontrado un campo muy propicio en Internet, o

en las aplicaciones de ordenador para uso individual, en las que el propio

usuario o destinatario de la música interacciona con el sistema y genera su

propia música.

44

LA INFLUENCIA EN EL POP Y EN EL ROCK

Desde el principio la música popular ha utilizado las nuevas tecnologías para

enriquecer sus posibilidades sonoras así como para buscar nuevos lenguajes dentro del pop

y el rock. También tuvo sus pioneros, uno de ellos fue el grupo vocal Chipmunks (1955)

que utilizó sus grabaciones a doble velocidad para conseguir un timbre especial en sus

voces. Otro es el álbum Sargento Pepper de The Beatles (años 60) donde se utilizaron

efectos de la música concreta, especialmente en la canción A Day in the Life. También los

Jefferson Airplane, Grateful Dead, Frank Zappa, Pink Floyd (que utilizó música concreta y

técnica de collage). En Alemania, Kraftwerk; en Estados Unidos, Terry Riley a medio

camino entre lo “serio” y lo pop con su minimalismo que se basa en ostinatos o giros

melódicos que se repiten a la manera de bucles de cinta. En la actualidad, la tecnología en

la música pop, rock, industrial es fundamental. En el tecno incluso la figura del intérprete

ha desaparecido por la del disk jockey, que actuando sobre el tocadiscos y otros

dispositivos manipula grabaciones o repite rítmicamente cualquier música preexistente que

cae en sus manos.

CONCLUSIÓN

La ebullición de las ideas y las creaciones más interesantes suelen producirse a la

vez que se perfecciona la herramienta tecnológica correspondiente. A pesar de que en las

dos últimas décadas del siglo XX la evolución ha sido más lenta y los desarrollos

tecnológicos han sido en muchos casos cuantitativos (más barato, más rápido, más capaz,

más potente) la creación electroacústica y por ordenador está muy viva y realmente es el

arte sonoro de hoy, ha sido una de las aportaciones más genuinas del siglo XX y también

es el futuro, con un terreno inmenso por explorar que las experiencias de los últimos

cincuenta años han dejado apenas perfilado.

45

VOCABULARIO

Acusmática:

Altura:

Amplitud:

Análisis de Fourier:

Analógico:

Armónico:

Conversor A/D y D/A:

Diapasón:

Digital:

46

Electrónica en vivo:

Filtro:

Formante:

Frecuencia:

Parcial:

MIDI:

Modulación:

Música concreta:

Música electroacústica:

47

Parcial:

Ruido:

Sampler:

Síntesis aditiva o de Fourier:

Síntesis de sonido:

Síntesis sustractiva:

Sintetizador:

Sonido sinusoidal:

Tape Music:

Timbre:

Tono:

48