¿Qué tal? En este cuarto video haremos un repaso de los aspectos del sonido que es necesario tener en cuenta para trabajar en Pure Data. Aunque algunos de estos temas ya fueron cubiertos en los cursos anteriores, es necesario revisar aquellos elementos que debemos tener muy presentes para seguir este curso. En primer lugar debemos recordar que el sonido consiste en ondas mecánicas que se propagan en un medio elástico, generando vibraciones en la materia de dicho medio. En el contexto de la escucha humana, lo más común es que el medio de propagación sea el aire. Es importante decir que las ondas se propagan de manera longitudinal. Es decir, que se mueven en dirección paralela a las partículas oscilantes generando ciclos de compresión y rarefacción similares a los que vemos en pantalla. Cada uno de estos ciclos corresponde con lo que se conoce como "ciclo de onda", y al tiempo transcurrido entre el inicio y el final de un ciclo se le conoce como "período". Es importante decir que aunque el sonido se compone de ondas longitudinales, se suele representar gráficamente como si se tratara de ondas transversas en las que el movimiento de las oscilaciones es perpendicular a la dirección de propagación. En este sistema de representación, el eje X representa el tiempo y el eje Y las oscilaciones de la materia. En este eje, el cero representa el estado neutro o normal que las partículas tenían antes de ser estimuladas por la onda, y los valores positivos y negativos representan, respectivamente, los procesos de compresión y rarefacción. En la siguiente imagen se puede ver la correspondencia entre el movimiento longitudinal y la representación transversal de las ondas sonoras. Finalmente, hay que recordar que el sonido en general no se desplaza en una sola dirección, sino que sus ondas tienden a propagarse en todas las direcciones que circundan al objeto que emiten la vibración. Ya que recordamos a grandes rasgos cómo se comportan las ondas sonoras, necesitamos recordar los principales elementos del sonido. En primer lugar tenemos la Frecuencia, que se define como la cantidad de ciclos de oscilación por segundo y que tiene el Hertz como unidad de medición. Cuando hablamos, entonces, de que tenemos una frecuencia de 440 Hertz, estamos diciendo que tenemos un total de 440 ciclos por segundo, es decir, que las partículas en el aire oscilan 440 veces cada segundo. Entre mayor sea la frecuencia, el sonido resultante será percibido como más agudo y como más grave en el caso contrario. Hay que tener en cuenta, además, que el oído humano está en teoría diseñado para captar frecuencias de entre 20 y 20.000 Hertz, aunque en la práctica es común que captemos un rango más pequeño al interior de dichos valores. El segundo elemento a tener en cuenta es la Amplitud, que se refiere a la fuerza con la que una onda se propaga. A nivel de percepción, esta intensidad corresponde al nivel de volumen con el que captamos un determinado sonido. En esta imagen podemos ver 2 ondas que tienen la misma frecuencia, pero que poseen amplitudes diferentes, lo que significa que serán percibidas como sonidos que comparten el mismo tono pero que tienen volúmenes distintos. Por último, tenemos la Fase, que se refiere al estado de la oscilación que se toma como punto de inicio de un determinado ciclo de onda. Para entender mejor esto, representemos la fase a través de un círculo cuya circunferencia se divide en 4 partes iguales. Cuando el ciclo comienza en estado de reposo y se dirige al estado de compresión, decimos que la onda se encuentra en fase cero. Cuando comienza en el estado de máxima compresión, decimos que la onda tiene una fase de 90º, que corresponde a 1/4 de la circunferencia y por ende se representa con el valor decimal de 0.25. Cuando comienza en un estado de reposo que se dirige al estado de rarefacción, tenemos una fase de 180º representada por el valor de 0.5, y cuando comienza en el estado de máxima rarefacción hablamos de una fase de 270º cuyo valor decimal sería de 0.75. En la imagen en pantalla vemos 4 ondas que comparten la misma frecuencia y la misma amplitud pero que varían precisamente en su fase. En este punto, cabe hacer mención de la diferencia que existe entre los procesos acústicos que corresponden a los fenómenos físicos relacionados con el sonido y los procesos psicoacústicos que corresponden con la manera en la que los seres humanos escuchamos. La frecuencia, como dijimos, es un fenómeno acústico que psicoacústicamente se percibe como altura de tono, mientras que la amplitud es también un fenómeno acústico que a nivel psicoacústico se percibe como sonoridad o cambio de volumen. En los siguientes videos no nos detendremos demasiado en distinguir estos dos tipos de fenómeno, pues en el nivel introductorio de nuestro curso no llegaremos a abordar aspectos del audio digital que requieran analizar la distinción entre lo que ocurre físicamente y lo que ocurre al nivel de la percepción. Sin embargo, quienes decidan profundizar en la síntesis digital o en temas afines, encontrarán que hay ocasiones en las que es fundamental entender dicha diferencia y por eso mismo les recomiendo tener siempre en cuenta que la escucha humana no es un asunto meramente físico, sino uno en el que nuestra fisionomía e incluso nuestra psicología y nuestro entorno cultural, juegan un rol determinante. Cuando hacemos música con medios electrónicos, tenemos que considerar algunos otros elementos. En primer lugar, hay que tener en cuenta que los dispositivos electrónicos no manejan el sonido al nivel de sus ondas mecánicas, sino que funcionan a partir de variaciones de voltaje. En otras palabras, las ondas mecánicas son transformadas en impulsos eléctricos, y son estos impulsos los que se distribuyen a través de los cables y en general de los llamados dispositivos analógicos. Pero cuando queremos manipular el sonido a través de dispositivos digitales, por ejemplo nuestra computadora, necesitamos hacer un segundo proceso de representación del sonido. En este proceso, lo que hacemos es asignar valores numéricos a las diversas variaciones de voltaje y esto es precisamente lo que se conoce como "digitalización". En el universo informático ya no estamos trabajando con energía eléctrica ni mucho menos con ondas mecánicas, sino con datos que representan a las dos anteriores. Esto es algo que tenemos que tener muy presente para comprender la manera en la que generamos sonido a través de programas como Pure Data. Vamos a cerrar este repaso teórico con un diagrama que sintetiza lo anterior. Vemos cómo las ondas mecánicas se propagan en el aire para después ser transformadas en impulsos eléctricos, en este caso a través de un micrófono. Vemos que las variaciones eléctricas son convertidas en valores digitales, para lo cual utilizamos lo que se conoce como Convertidor analógico digital, que comúnmente está integrado a las interfaces de audio. Vemos cómo se utiliza un convertidor digital analógico para ahora convertir los datos informáticos en impulsos eléctricos, y finalmente se utiliza un nuevo dispositivo, en este caso una bocina, que convierte la electricidad en movimientos oscilatorios que hacen nuevamente vibrar el aire. Muy bien. Por fin estamos listos para programar todo lo que hemos visto en estos videos al terreno del audio digital en Pure Data. En el siguiente video, Hernán les explicará cómo generar un primer instrumento generador de sonido. Nos vemos en el próximo módulo.