Subir un audio a Internet Archive de forma correcta

Alojar contenido en Internet para compartir no es tarea simple, cada vez hay más sitios donde se puede subir contenido pero casi siempre son servicios privados como (Soundcloud, Vimeo, Bandcamp, etc) lo que ocurre con este tipo de sitios es al ser privados los acuerdos a los que accedemos al subir material pueden ser cambiados si la empresa se vende, se transfiere o se fusiona.  Una vez que subimos nuestro material, aunque no perdemos los derechos legales aceptamos que las reglas de distribución las ponen ellos.

Aquí una iniciativa relacionada con el audio de un sitio en donde se puede alojar material. Por supuesto estamos hablando siempre de material que generemos nosotros, libre de derechos de autor de terceros.

Aquí una pequeña guía para subir de forma correcta audio a Internet Archive

Internet Archive: https://archive.org

Internet Archive es una biblioteca/archivo online sin fines de lucro que posee millones de libros, películas, software, música, sitios web principalmente bajo licencias Creative Commons. Cualquier persona puede alojar y compartir contenido siempre y cuando sea de su propiedad o tenga los derechos de su uso.

Un poco de su historia: 

El proyecto comenzó en 1996 con la misión de proporcionar Acceso Universal a Todo el Conocimiento. La primer función de Internet Archive es recopilar trabajos publicados y los ponerlos a disposición en formatos digitales. Una biblioteca pública que puede ser de utilidad a cualquier persona en el mundo con acceso a Internet.

En 1996 comenzaron archivando las cosas que ocurrían en Internet, un medio que apenas estaba dando sus primeros pasos.En ese momento el contenido publicado en la web era efímero y nadie lo estaba guardando. Hoy Internet Archive posee 20 años de historia web accesible a través de la máquina Wayback y trabaja con más de 450 bibliotecas y otros socios a través del  programa Archive-It para identificar páginas web importantes; así mismo sumó a las páginas web libro escaneados, grabaciones de audio, imágenes y software.

Hoy Internet Archive cuenta con:

279 millones de páginas web
11 millones de libros y textos
4 millones de grabaciones de audio (incluyendo 160.000 conciertos en vivo)
3 millones de videos (incluyendo 1 millón de programas de noticias de televisión)
1 millón de imágenes
100.000 programas de software
Cualquier persona con una cuenta gratuita puede subir los medios al Archivo de Internet.

El proyecto es financiado a través de donaciones, subvenciones, y proporcionando servicios de archivo web y digitalización de libros para socios.

Al igual que con la mayoría de las bibliotecas, valoramos la privacidad de nuestros clientes, por lo que evitamos mantener las direcciones IP (Protocolo de Internet) de nuestros lectores y ofrecer nuestro sitio en el protocolo https (seguro).

Términos de uso:

  • El acceso a las Colecciones del Archivo se proporciona sin costo alguno y se otorgan sólo para fines de beca e investigación.
  • Parte del contenido disponible a través del Archivo puede regirse por leyes y reglamentos locales, nacionales y / o internacionales, y su uso de dicho contenido es únicamente bajo su propio riesgo. Usted acepta cumplir con todas las leyes y regulaciones aplicables, incluidas las leyes de propiedad intelectual, en relación con su uso del Archivo. En particular, usted certifica que el uso de cualquier parte de las Colecciones del Archivo se limitará al uso no infractor o justo bajo la ley de derechos de autor. Si se ha declarado una Licencia Creative Commons u otra licencia para material particular en el Archivo, en la medida en que confíe en la declaración y el declarante (que rara vez es el Archivo de Internet), puede utilizar el contenido de acuerdo con los términos y condiciones de la licencia aplicable .
  • El Archivo de Internet respeta los derechos de propiedad intelectual y otros derechos de propiedad de terceros. El Archivo de Internet puede, en las circunstancias apropiadas ya su discreción, eliminar cierto contenido o deshabilitar el acceso a contenido que aparentemente infrinja los derechos de autor u otros derechos de propiedad intelectual de terceros.

Haga click en el enlace para leer los términos de uso, la política de privacidad y la política de Copyright

Formatos de audio que puedes subir a Internet Archive:

Wav, Ogg, Flac, aiff, Mp3

Ten en cuenta que el archivo de reproducción siempre será de Mp3 128Kbps todos los demás formatos estarán disponibles para descarga.

Cómo subir audio y portada a Internet Archive:

En primer instancia se debe crear un usuario:

Una vez realizada la cuenta es importante realizar una descripción biográfica o del proyecto que será el encargado de subir los audios, si cuentas con una imagen identificadora del proyecto o persona mejor aún.

Esto sirve de referencia a quienes posteriormente te encuentren en el archivo.

Ahora estamos listos para subir nuestro primer audio pero antes; si te fijas puedes subir el audio con una portada (imagen) que lo distinga o lo puedes dejar con el logotipo de Internet archive, yo recomiendo siempre que subas una imagen con el audio esto hace que se distinga de los demás.

Bien ahora empecemos (botón Upload)

Cómo rellenar los campos (editor de metadatos):

 

  1. Título:  Es le título de lo que estás subiendo OJO! Internet Archive coloca el mismo nombre que tiene el archivo si tu archivo se llama: “Audio01″ ese será el título sino lo cambias ej:”Paisaje solar”
  2. La URL del archivo también puedes cambiarla pero ten en cuenta que no puede haber espacios ni caracteres especiales.
  3. Descripción: Es importantísimo que lo que subas tenga una descripción, aunque luego tu audio lo compartas en las redes sociales o tu página de Internet. Muchas personas te encontrarán a través de Internet Archive por lo que tener una buena descripción es fundamental.
  4. Subjects Tags: Los tag o etiquetas son palabras importantes relacionadas con el archivo que esté subiendo esto ayuda a categorizar y encontrar tu archivo. Ej de tags; sonido, audio, Creative commons, experimental, radio.
  5. Creador: Nombre de la persona o grupo que es el realizador del archivo
  6. Collection: este campo sólo es útil para los curadores de Internet Archive. Si es un archivo de video aparecerá “community video” si es audio “community audio”
  7. Language: es importante elegir en qué idioma se encuentra el audio (si lo hay) ya que una de la categoría de archive que es por idiomas.
  8. Fecha de publicación o creación: Este campo es importante ya que se tornará referencia para cuando se creó el archivo, este dato te puede ser muy útil a la hora de reclamar por derechos de autor, ésta será una referencia muy clara.
  9. Licencia: Internet Archive permite licenciar el trabajo bajo las siguientes licencias

Leave license blank: Dejar la licencia en blanco; esto se toma como licencias bajo copyright (si la licencia está en blanco la persona que vea su archivo sólo podrá escucharlo, no tendrá derecho a compartirlo o descargarlo.

CC0 No Right Reserved: “No hay derechos reservados” también llamada licencia Universal

Creative commons: Según elijas la licencia permitirás:

-Remix del archivo, es decir que permites su uso para la reutilización y transformación (Allow Remixing)

-Prohíbes el uso comercial del archivo

-Obligas a que quienes compartan tu archivo lo hagan bajo la misma licencia

Public Domain: Licencia de Dominio público

¿Cuál es la diferencia entre una licencia CC0 No Right Reserved y una licencia Public Domain?

Mientras que en una licencia de Dominio Público el autor renuncia a todos sus derechos y base de datos sobre la obra y/o archivo en su totalidad.

Muchas veces ocurre que el autor y/o institución (por temas de contratos y demás) no puede ceder esos derechos en su totalidad y ponerlos en dominio público hasta que expire el contrato o la licencia por ley.  Una licencia CC0 No right Reserved permite poner o archivos a disposición en dominio público clarificando que aunque en ciertas jurisdicciones el trabajo contenga derechos de autor en otra se encuentra libre de derechos.

Ejemplo: Figshare permite a los investigadores publicar todos los resultados de sus investigaciones de una manera fácilmente citable, buscable y compartible. Figshare ha adoptado CC0 como la herramienta predeterminada para que los investigadores compartan sus conjuntos de datos. En muchos casos, puede ser difícil determinar si una base de datos está sujeta a la ley de derechos de autor, ya que muchos tipos de datos no son protegidos por derechos de autor en muchas jurisdicciones. Poner una base de datos o conjunto de datos en el dominio público bajo CC0 es una forma de eliminar cualquier duda legal sobre si los investigadores pueden usar los datos en sus proyectos. Cientos de organizaciones utilizan CC0 para dedicar su trabajo al dominio público. Aunque CC0 no obliga legalmente a los usuarios de los datos a citar la fuente, no afecta las normas éticas para la atribución en las comunidades científicas y de investigación.

Archivo e imagen: Finalmente del lado derecho del formulario aparecerá el archivo que hemos subido y  en el botón “Select files to add” podemos subir la imagen que se adjuntará a nuestro archivo.

Una vez esté todo clickeamos en el botón “Upload and create your item” y se comenzará a subir nuestro archivo.

Ten en cuenta que una vez que se subió tarda unos 15 minutos en aparecer completo.

Nota al pie:

Puedes cambiar los metadatos del archivo una vez que y lo subiste, sin embargo esto no e recomendable ya que puede inutilizar el archivo.

Lo que sí puedes hacer sin problemas es cambiar o reemplazar o adjuntar nuevos archivos al archivo que subiste:

Para esto clickeas sobre el botón Edit y elegis Change the files:

Para borrar en la lista de archivos seleccionas el archivo que querés borrar con el botón derecho y clickeas en deleted. (Ten en cuenta que sólo borra los archivos no la entrada)

Para subir más archivos bajás y clickeas en el botón “Update item”:

Para borrar items o entradas que no quieras que estén más debe escribir a info@archive.org con el tema Please remove these four items y enviar las ligas a los item que quieres que saquen. (ten en cuenta que este es un trabajo extra para lo curadores por lo que toma tiempo)

 




Efectos de Sonido y Audio en la Game Developers Conference 2017

Del 1 al 3 de Marzo de 2017, en San Francisco Estados Unidos, se realizó la conferencia anual que tiene como principales invitados a todos los sectores de la industria de los videojuegos Game Developers Conference 2017. Una de las más grandes y amplias conferencias que se están dando en este momento en torno a los avances y la realización de videojuegos. Una gran parte de las conferencias está destinada al diseño de sonido y la composición para videojuegos.

Durante esta semana en radio-arte.com estaremos contándote cuáles son las novedades de la industria y los secretos en audio, diseño de sonido y composición detrás de los videojuegos del momento.

Por el momento te recomendamos hacer espacio en tu disco duro porque la librería de efectos de sonido Sonniss.com está regalando 20GB de efectos de sonido con motivo de la Game Developers Conference 2017.

Aquí el link de descarga de la librería #GAMEAUDIOGDC BUNDLE 2017http://www.sonniss.com/gameaudiogdc2017/  (direct links es la mejor opción de descarga)

Lee el acuerdo de licencia antes de descargar la librería: http://www.sonniss.com/gdc-bundle-license/

Sonniss.com es una librería y lugar de alojamiento de efectos de sonido independientes creada en 2014 para ayudar a facilitar la venta de bibliotecas de efectos de sonido independientes tanto para su uso dentro de producciones comerciales y no comerciales. Todos los efectos sonoros contenidos en Sonniss.com pasan por un estricto procedimiento de control de calidad para asegurar que todos los productos sean de calidad excepcional.




De Turing al IA – Las máquinas y el sonido ¿A qué le tememos?

Una de las mayores noticias acerca de la historia del sonido apareció a mediados del 2016 en todos los diarios; el profesor de filosofía de la Universidad de Canterbury en Nueva Zelanda y director del Archivo Turing para la Historia de la computaciónJack Copeland, junto con el compositor Jason Long restauraron la primera pieza de música grabada por una computadora creada por el matemático pionero en inteligencia artificial Alan Turing quien, entre otras cosas, desarrolló las primeras investigaciones sobre conceptos tales como redes neuronales, la morfogénesis y la biología matemática.

Turing ha sido objeto de numerosos libros, películas y obras de arte relacionadas con su vida y su corta carrera.

“El trabajo pionero de Alan Turing, a fines de la década de 1940, sobre la transformación de la computadora en un instrumento musical se ha pasado por alto: es un mito urbano del mundo de la música que las primeras notas musicales generadas por ordenador fueron oídas en 1957 en Bell Labs in America.  La reciente Oxford Handbook of Computer Music delimitó una contrademanda, afirmando que la primera computadora para reproducir notas, se ubicó en Sydney, Australia.  Sin embargo, el equipo de Sydney no estaba en funcionamiento hasta finales de 1950, mientras que las notas generadas por ordenador estaban saliendo de un altavoz en el laboratorio de computación de Turing ya en el otoño de 1948”. Afirman Jack Copeland y Jason Long en un artículo publicado por la British Library

Como se sabe Turing era abiertamente homosexual, en enero de 1952 fue declarado culpable de indecencia por el gobierno británico bajo la Enmienda Labouchère de 1885, condenado a la castración química como alternativa a la prisión, hecho que se cree fue lo que lo llevó en 1954 a suicidarse, aunque existen otras versiones acerca de su muerte.

Un año antes de que el gobierno británico lo condenara, en 1951 en el laboratorio de Alan Turing se colocó una grabadora portátil de discos perteneciente a la BBC para capturar tres melodías interpretadas por una computadora primitiva que ocupaba toda la planta baja del laboratorio.

Grabadora de acetatos portatil Birmingham Sound Reproducers Ltd DR33C – 1947

Todo lo que queda de esa sesión de grabación es un disco de acetato de un solo lado de 12″; la propia computadora fue desechada hace mucho tiempo. Ésta grabación archivada es la única ventana a un paisaje sonoro histórico, la primera grabación de música generada por computadora en Manchester.

 

El disco original que fue guardado por el ingeniero Frank Cooper de la Universidad de Manchester

Pero Jack Copeland y Jason Long se enfrentaron a un problema clave: cómo establecer el tono correcto de ésta grabación histórica. Sin ninguna referencia acerca de cómo sonaba el audio original, es muy difícil – incluso imposible- saber si una grabación de estas características se encuentra en el tono correcto.

“Fue una decepción descubrir que las frecuencias en la grabación no eran precisas, la grabación nos daba una impresión aproximada de cómo la computadora sonaba. Pero tenía una desviación en la velocidad de la grabación, probablemente como resultado de la plataforma giratoria de la grabadora portátil que giraba demasiado rápido al momento de la grabación. Pero después de un poco de trabajo de detectives electrónicos, resultó posible restaurar la grabación con un resultado satisfactorio. Ahora el verdadero sonido de esta computadora ancestral puede ser escuchado una vez más, por primera vez en más de medio siglo.

Además de aumentar la velocidad – y de alterar las frecuencias – también filtramos el ruido extraño de la grabación;  utilizando el software de corrección de tono que eliminó los efectos de un bamboleo problemático en la velocidad de la grabación. Fue un hermoso momento cuando escuchamos por primera vez el verdadero sonido de la computadora de Turing.” 

 

La computadora  tenía una instrucción especial que causaba que el altavoz -Turing lo llamara el “hooter” – emitiera un pulso corto de sonido, que duraba una pequeña fracción de segundo. La ejecución de la instrucción una y otra vez daba como resultado un “clic” que se produce en varias ocasiones, en cada cuarta señal de reloj interno de la computadora: tic tac tic clic, tic tac tic clic.

Turing se dio cuenta de que si la instrucción ‘clic’ se repetía una y otra vez en diferentes patrones, se oirían notas musicales diferentes: por ejemplo, el patrón repetido tic tac tic clic, tic tac tic tac, tic tac tic clic, tic tac tic tic produjo la nota de Do5 (una octava por encima del Do central), mientras si se repite el patrón de forma diferente tic tac tic clic, tic tac tic clic, tic tac tic tac, tic tac tic clic, tic tac tic clic , tic tac tic tic producía la nota de Fa4, (cuatro notas por encima de encima de la mitad Do)-y así sucesivamente. Éste fue un descubrimiento maravilloso.

Turing no estaba muy interesado en programar la computadora para tocar música convencional: usaba las diferentes notas para indicar lo que estaba pasando en la computadora: una nota para “trabajo terminado”, otra para “dígitos desbordados en memoria”, otra para “errores” cuando se transferían datos desde el tambor magnético, y así sucesivamente.

Seguramente al ejecutar uno de los programas de Turing debe haberse escuchado un sonido ruidoso, con diferentes notas musicales y ritmos de clics que permiten al usuario “escuchar”  lo que la computadora estaba haciendo.

Pero Turing delegó el trabajo de la programación de la primera pieza musical completa al joven programador llamado Christopher Strachey quien realizó una copia del Manual de Turing para la computadora Manchester Mark II.

Los ingenieros Ferranti Keith Lonsdale y Brian Pollard demuestran la Mark I a Alan Turing.

 Nota: Las computadoras Manchester fueron una serie de computadoras experimentales desarrolladas por un pequeño equipo de la Universidad de Manchester entre 1947 y 1977.

La computadora Manchester Small-Scale Experimental Machine (SSEM) fue la primera computadora electrónica del mundo que almacenaba instrucciones de programación en la misma máquina; se la considera la primera computadora con memoria RAM.

Manchester MarkII

Christopher Strachey escribió el primer manual de la programación de computadoras del mundo. Strachey era un talentoso músico que estudió el Manual de Turing y apreció el potencial de las direcciones concisas de Turing sobre cómo programar las notas musicales.

Ann Davies Synge y Christopher Strachey fotógrafo desconocido

Christopher Strachey fotógrafo desconocido

 

 

 

 

 

 

 

 

 

Strachey se presentó en el laboratorio de Manchester de Turing con lo que era en ese momento el programa de computadora más largo jamás escrito.

“Turing entró y me dio una típica descripción de alta velocidad y aguda de cómo usar la máquina; luego salió dejándome sólo hasta la mañana siguiente.

Me senté frente a esta máquina enorme con cuatro o cinco hileras de veinte interruptores  en una habitación que parecía la sala de control de un barco de batalla”. Cuenta Christopher Strachey en una entrevista con Nancy Foy en agosto de 1974.

Por la mañana, ante el asombro de los espectadores, la computadora hizo sonar el himno nacional. Turing, quien no era muy expresivo, soltó la frase “Buen espectáculo”. Strachey sabía que no había una mejor manera de llamar la atención y unas semanas más tarde recibió una carta que le ofrecía un puesto en el laboratorio de computación.

La grabación que restauraron  Jack Copeland y Jason Long se hizo ese mismo año, esta vez no sólo se programó el himno nacional si no que también la canción de cuna Baa Baa Black Sheep así como una versión de la famosa In the Mood de Glenn Miller.

https://www.youtube.com/watch?v=_CI-0E_jses

Hay dudas acerca de si las tres canciones que se escuchan en la grabación fueron programadas por Christopher Strachey o por otras personas del laboratorio quienes comenzaron a escribir programas de música.

Casi 70 años después de la grabación de la computadora de Turing, el proyecto “Flow Machines” fundado por  la European Research Council (ERC) y coordinado por el investigador, científico y director del Sony Computer Science Laboratory de francia François Pachet  sacan a la luz la primera canción compuesta por inteligencia artificial “Daddy’s Car” creada con la herramienta FlowComposer a partir del análisis de una base de datos de más de 13.000 canciones de diferentes estilos musicales, desde el jazz al pop hasta la samba brasileña y los musicales de Broadway.

“FlowComposer es una herramienta AI basada en el aprendizaje automático: un asistente inteligente capaz de ayudarle a componer nuevas canciones en cualquier estilo, de forma automática o interactiva. Con FlowComposer, puede seleccionar un estilo y una duración de pista y estará listo para componer automáticamente una canción. ¡Es tan simple como esto!

https://www.youtube.com/watch?v=LSHZ_b05W7o

El proyecto de François Pachet se pregunta si pueden las máquinas ayudarnos a ser más creativos mientras nos muestran cómo es el funcionamiento de “Flow Machines”.

https://www.youtube.com/watch?v=1rdE_0mHjjQ

La gran diferencia entre la máquina de Turing y el proyecto Flow Machines es que mientras que Turing sólo pretendía indicar de forma musical lo que estaba pasando en la computadora, el proyecto Flow Machines es vendido como un ente capaz de crear música de forma independiente.

En un interesantísimo artículo publicado por la revista FACT en febrero de 2017 titulado “¿Somos los robots: el futuro de la música artificial?” el autor  le pregunta al profesor de creatividad computacional de la Universidad de Londres, Geraint Wiggins: ¿qué tiene que hacer una IA para ser músico?

“Si pongo una partitura frente a un músico profesional y les digo que la toquen, ¿por qué son inteligentes musicalmente? Porque están preguntando, ¿cómo sacaré los bits importantes? o ¿cómo debo cambiar el tempo? Están entendiendo la música e interpretándola, no sólo reproduciendo una secuencia de notas. Si una máquina quiere producir música que suene bien para el oído humano, tiene que tener alguna noción de lo que los humanos sienten. Ahora mismo las computadoras pueden simular nuestros sentimientos, pero no hay nada artístico en eso.” dice Geraint Wiggins

El mismo artículo cita al músico experimental Bill Baird diciendo:

 “Tienes que usar la IA como una herramienta, no como un atajo”

Después de leer el artículo de la revista FACT, de mirar retrospectivamente el trabajo de Turing y su vida no puedo más que recordar las palabras de Daniel Iván que escribió en su artículo “La sensibilidad como territorio”

En general –y como un razonamiento más bien reciente en la historia humana, producto de la industrialización y del advenimiento de la sofisticación tecnológica– las personas solemos oponer a lo mecánico, a la respuesta automática, a la producción en masa, a la artificialidad, a la “frialdad matemática” y a otras caracterizaciones que hacemos de los resultados del “hacer maquinal”, una idea que, creemos, le es exclusiva a la vida y a lo vivo: la sensibilidad. Es decir, el “hacer” que resulta de la experiencia del mundo a través de los sentidos, su entendimiento y su combinación en el sensorio: “el hacer sensible”. Y solemos identificar a ese “hacer” con su resultado cognoscible: el lenguaje y sus resultados más complejos e intrincados (el arte, la ciencia, el talento) son la prueba de nuestra condición de seres vivos, sensibles, creativos. Por supuesto, este mismo razonamiento sensible nos lleva a los lindes de lo excesivo, lo innecesariamente complejo, lo innatural, lo sofisticado (el arte, la ciencia, el talento), que son capaces de cualquier extremo con tal de salirse con la suya.

Resulta imposible no pensar en el sensorio como en el ámbito donde se verifican la mayor parte de las contradicciones de la vida y de los vivos. Estamos en tensión constante con el mundo justamente a través de los sentidos; solemos pelearnos principalmente con nuestra experiencia previa, con la verificación que de esa experiencia hacen nuestros sentidos, con la memoria que el sensorio retiene por desgaste o acumulación; y nos peleamos con ello a pesar de ser la única forma verificable de nuestra presencia en el mundo. La sensibilidad es la fragua de la contradicción.”

Siempre pensé que el miedo a lo que pudiesen hacer o “crear” las nuevas tecnologías se esconde en un desdén por el conocimiento, por el aprendizaje propio del ser humano. El miedo no está en que la tecnología, las máquinas, puedan o no ser creativas por sí solas. El verdadero miedo está en que nosotros dejemos de ser creativos ante la comodidad que nos brinda la tecnología.

Un ejemplo claro en materia de sonido son lo programas que de manera instantánea masterizan canciones de audio como el LANDR, no está mal que existe un software que masterice de forma instantánea audio. Lo que está mal es que nos lo vendan bajo la leyenda: “Suena como un profesional. Resultados instantáneos por una fracción del costo de un estudio de masterización” y que quienes lo utilicen no sepan realmente cómo funciona la masterización de audio, es decir, no sepan qué es realmente lo que les están vendiendo. Qué calidad de audio obtienen realmente después de utilizar el software (por ejemplo: la página sólo aclara que en versión PRO los audio son en WAV 24bit sin aclarar si estarán en 44.100hz / 48.000hz / 96.000hz / 192.000hz)

Este es solamente un ejemplo que viene a mi mente, es un poco lo que pasa con los ecualizadores automatizados incorporados a los dispositivos de audio ¿Quién sabe cómo utilizarlos? la mayoría coloca el ecualizador en modo película para una película ¿por eso está siempre bien?

Cuando las máquinas empiezan a decidir por nosotros no porque pueden sino porque nos da pereza aprender acerca de lo que deciden, eso es lo que realmente nos da miedo.

La canción “Daddy’s Car” debe de ser una de las peores canciones que he escuchado en el 2016 como Chantaje de Shakira en 2017; sin embargo fue todo un éxito a tal punto que en 2017 Flow Machine tiene pensado sacar un álbum entero.

Me dicen que Daddy’s Car está compuesta con el estilo de The Beatles como si eso le otorgara cierto dejo de genialidad, pero a mí me ocurre que cada vez que me nombran a The Beatles (que nunca fue una banda de mi gusto particular) no puedo dejar de recordar a mi mejor amiga Ivana que en la adolescencia de mis 13 años me torturaba escuchando siempre el mismo disco.

https://www.youtube.com/watch?v=BGLGzRXY5Bw

Lo bueno es que a Ivana no sólo le gustaban The Beatles; ella fue la persona que me presentó a los Sex Pistols y a otras tantas bandas con las que yo hasta ese momento no estaba familiarizada. Siempre me gustó esa simplicidad de pasar de The Beatles a Sex Pistols, Ramones o La polla Records en una sola tarde.

La verdad es que la versión de la máquina de Turing de In the Mood no es la mejor que escuché en mi vida, pero reconozco que el software de edición de audio tiene sus antecedentes en ese primer intento de relacionar las máquinas con la música.

No son las máquinas, nos tenemos miedo a nosotros.

Cuando las máquinas empiezan a decidir por nosotros no porque pueden sino porque nos da pereza aprender acerca de lo que deciden, eso es lo que realmente nos da miedo.

https://www.youtube.com/watch?v=wHiGR0iuTUo

 




La física explica por qué nos gustan los amplificadores de válvulas

Las válvulas de amplificadores están casi obsoletas. De hecho se fabrican en sólo tres países, Rusia, China y Eslovaquia. ¿Por qué la vieja tecnología sobrevive?. La mayoría de
los guitarristas de rock prefieren por mucho el sonido de los amplificadores de válvula.


El profesor de física David Keeports del Mills College en California, realizó un estudio para explicar por qué ciertos guitarristas de rock eligen como preferidos los amplificadores de válvulas.

Cuando se les pregunta a los guitarristas por qué eligen los amplificadores a válvula hay una respuesta predominante; cuando están sobrecargadas (overdrive), las válvulas tienden a producir sonidos armónicos que agregan una complejidad agradable, mientras que los amplificadores de transistores tienden a producir armónicos impares que pueden causar cierta disonancia.

¿Amplificadores a válvulas o de transistores?

Los amplificadores de guitarra más populares son de hecho dos amplificadores en serie. El primero, el llamado preamplificador cambia el timbre de un sonido entrante mediante la adición de armónicos a ese sonido cuando las válvulas están saturadas. La señal de salida de voltaje es entonces introducida al amplificador que amplifica su débil entrada para producir una señal con voltaje suficiente para incidir en el altavoz.

Todos los principales fabricantes de amplificadores de guitarra construyen amplificadores usando tecnología de tubo de vacío, transistores o una combinación de ambos. Algunos amplificadores incorporan tecnología digital, que a menudo se utiliza para emular el sonido de otros amplificadores, ya sea a válvula o transistores.

Términos:

Cuando se habla de amplificadores de tubos también se puede escuchar el término válvula, especialmente respecto de amplificadores británicos de empresas como Marshall o Vox.

¿Cuál es la diferencia entre los tubos y las válvulas? Ninguna.
Son palabras diferentes para designar la misma cosa depende de qué lado del océano te encuentres.

En cuanto a los amplificadores de transistores también se los conoce como “de estado sólido”.

Un poco de historia…

Antes de la Segunda Guerra Mundial, la mayoría de los amplificadores eléctricos tenían incorporado un diseño de tubo. Esto incluía las radios, los teléfonos y a los primeros televisores. A finales de los años 40′ se inventó la tecnología de transistores, y durante los siguientes treinta años, la mayoría de los sistemas que dependían de los tubos/válvulas cambiaron a transistores.

Los amplificadores para guitarra son uno de los pocos casos donde los tubos/válvulas siguen siendo elegidos como una mejor alternativa a los transistores.

“Aunque los diodos de los amplificadores  y los transistores son más baratos, más prácticos y tecnológicamente más avanzados que las válvulas de vidrio, las válvulas sobreviven porque muchos guitarristas prefieren el sonido que les da un amplificador de válvulas.

Entre las principales causas esto se debe a que un amplificador de válvulas con saturación moderada produce fuertes armónicos pares, lo que agrega una complejidad endulzante a un sonido. Un amplificador de transistores saturado, por otra parte crea fuertes armónicos impares, que pueden causar disonancia” David Keeports

Keeports exploró por qué los armónicos de un amplificador de válvula enriquecen un sonido, y por qué el timbre del sonido cambia cuando se toca una guitarra más fuerte.

Para esto primero corrió una onda sinusoidal de 200Hz, una onda pura con una sola frecuencia, a través de un pequeño amplificador híbrido marca Bugera modelo BC15, que combina un preamplificador de válvulas ECC83 con un con una potencia de transistor amperio. Tanto la simplicidad de su preamplificador como su diseño híbrido hacen de este amplificador de bajo costo, un amplificador ideal para estudiar la forma de onda de la válvula y del amplificador de transistores.

Bugera modelo BC15

Probó ambos “lados” del amplificador (maximizando la sobrecarga de válvulas); primero girando la ganancia, que controla el preamplificador de la válvula mientras que el mando de volumen principal (que controla el amplificador de transistores) se estableció bajo. Luego repitió el proceso inverso. Utilizando el software de producción de música Logic Pro X, examinó las ondas sonoras resultantes en los dominios de frecuencia y tiempo.

“La salida del amplificador mostró que un preamplificador de válvulas con saturación moderada produjo 2º y 4º armónicos prominentes en las frecuencias de los 400Hz y 800Hz y sólo un 3º armónico muy débil en los 600 Hz. Para el amplificador de potencia de transistores, este patrón fue invertido. 
El cambio hacia los armónicos impares a una ganancia cada vez mayor es una característica de los amplificadores de válvulas que explica aún más su atractivo.Un guitarrista utiliza el amplificador  de dos maneras: Aumentando el control de ganancia del amplificador y atacando las cuerdas de guitarra más fuerte; pero los guitarristas no sólo tocan su guitarra, sino que también tocan el amplificador, al golpear las cuerdas más fuerte o más suave, pueden cambiar el timbre junto con el volumen.”

https://www.youtube.com/watch?v=cNEKZGbmtSI

¿Por qué un amplificador de válvula se comporta de esta manera?

Los amplificadores de válvula tienen dos maneras de aplanar una onda senoidal: Sobre cargándola (overdrive) moderadamente aplana sólo la parte superior de la onda para hacer una onda asimétrica que es rica en armónicos uniformes. Si la sobrecarga es más dura aplana la onda de forma que se produce una onda simétrica llena de armónicos impares.

Los armónicos uniformes proporcionan sonido complejo, cálido y rico; a esto se le suma la capacidad que tiene un amplificador de válvulas para producir sonidos un poco disonantes y de conducción cuando un guitarrista ataca las cuerdas con más fuerza.

La señal de una guitarra eléctrica ya es ricas en contenido armónico y un exceso de amplificador de guitarra añade más armónicos a cada uno de los armónicos originales. Mientras agrega armónicos pares realza el sonido añadiendo tonos en la octava, los armónicos impares producen tonos que pueden chocar con el sonido original.

“El diseño de amplificadores combina la estética musical con principios físicos. Una sobrecarga (overdrive) moderada de un amplificador de válvulas produce un sonido complejo y altamente audible que es lo que los guitarristas de rock suelen buscar”.

(Aquí puedes leer la investigación completa de David Keeports)

Aquí una excelente serie de entrevistas del canal de música Noisey:

https://www.youtube.com/watch?v=ceWWMfhAvD4




Guía práctica Grabación de Audio para Voces y Entrevistas – Equipo micrófonos Shotgun

Mucha gente me ha preguntado acerca del equipo necesario para grabar entrevistas y/o voces tanto para radio como para un podcast, como para otros medios de comunicación. En esta “Guía práctica” veremos las distintas posibilidades de equipo, los problemas principales a la hora de grabar voces y entrevistas, los errores más comunes y los temas básicos a tener en cuenta a la hora de editar.

Independientemente de dónde nos encontremos a la hora de grabar, ya sea un espacio tranquilo, ruidoso o al aire libre, el objetivo principal es capturar la voz y/o el diálogo hablado del sujeto lo más claramente posible e ignorar o rechazar todo el ruido circundante.

La voz es el centro  y según cómo esté grabada transmitirá las sensaciones y los sentimientos de lo que dicen las palabras de quienes hablan a quienes escuchan de forma más precisa.

Equipo necesario para grabar entrevistas:

Tipos de Micrófonos:

Micrófono Shotgun:

Los micrófonos shotgun se encuentran de los micrófonos más versátiles por sus posibilidades de direccionalidad. Tienen pequeñas ranuras de sensibilidad a la izquierda, derecha y en la parte trasera del micrófono, pero son significativamente más sensibles al frente.

Los micrófonos shotgun se comúnmente se utilizan al aire libre donde hay una cantidad considerable de ruido ambiental de fondo. Las lóbulos a lo largo del micrófono ayudan a rechazar las frecuencias medias y altas, aunque no todas las frecuencias bajas son rechazadas.

 

Patrón polar de un micrófono Shotgun

Los micrófonos shotgun son muy buenos captando la gama de frecuencias que predominan en la voz humana   -1.000Hz a los 6.000Hz- . Pero a frecuencias más bajas pueden captar más ruido no deseado por la parte posterior que un cardioide estándar, en frecuencias que van de los – 10.000Hz a los 20.000Hz – su respuesta es a menudo muy grumosa.

Este tipo de micrófono emplea una cápsula direccional estándar – usualmente supercardioide – pero con un “tubo de interferencia” largo, hueco, ranurado, unido a su superficie frontal. Aunque esta disposición deja a la cápsula direccional más lejos de la fuente de sonido; la idea es que esta reducción de la capacidad de captación en la frecuencias altas (10.000 a 20.000Hz), reduzca el ruido ambiental.

 

Micrófono Shotgun por dentro

 

Los micrófonos Shotgun funcionan según el principio de cancelación acústica, un fenómeno en el que la acción de una onda sonora puede alterar o reducir el movimiento de otra onda. De hecho, el movimiento de las ondas sonoras es similar a las olas del mar, con crestas (puntos altos) y valles (puntos bajos). Si dos ondas sonoras se combinan en el aire y sus picos se encuentran al mismo tiempo, el resultado es una sumatoria: un aumento en la onda total (Interferencia Constructiva). Si una onda de sonido se encuentra ligeramente retrasada de modo que el punto máximo de la cresta se encuentra con el punto más bajo de la otra, el resultado es una cancelación cancelación.

 

Los micrófonos Shogun usan el principio de cancelación como una ventaja. Como vimos en la imagen superior la cápsula del micrófono se encuentra en el extremo del tubo de interferencia; las señales de audio que llegan al micrófono desde el frente permanecen sin cambios, mientras que los sonidos que llegan al micrófono desde los lados entran a través de las ranuras y se retrasan lo suficiente para crear una cancelación de esos sonidos. Esto aumenta la direccionalidad del micrófono, el efecto de cancelación se encuentra restringido por  la longitud del tubo de interferencia, la geometría exacta de las ranuras, la longitud de onda del sonido y su ángulo de incidencia. Generalmente, cuanto más largo es el tubo, mayor es el efecto.

Como dijimos anteriormente este efecto produce que las frecuencias bajas (por debajo de los 250Hz) no se vean afectadas, que los rangos medios de 1kHz a 6kHz se vean levemente afectados y los rangos superiores de 10kHz a 20kHz sean los más afectados.

Un aspecto a tener en cuenta en estos micrófonos es que al tener un patrón polar en forma de 8 (ver imagen arriba) aunque a un nivel muy reducido los sonidos son captados en la parte posterior del micrófono, por lo que se deben manipular con cuidado para no generar ruido en la grabación.


Los micrófonos Shotgun funcionan mejor cuando los sonidos indeseados que se encuentran fueran del rango del patrón polar del micrófono son significativamente diferentes de los sonidos que se encuentran dentro del patrón polar.


Los micrófonos Shotgun no funcionan bien en habitaciones pequeñas o en espacios con una acústica muy reverberante. Tampoco funcionan bien donde se escuchan sonidos muy definidos fuera del eje del patrón polar que se mueven en relación con el micrófono, o donde el micrófono tiene que moverse, para rastrear el sonido deseado. En estos casos, la direccionalidad puede no ser tan estrecha como se podría esperar.

 

Existen diversos tipos de micrófonos Shotgun aquí veremos algunos modelos:

Los micrófonos Shotgun van desde los 16 centímetros de longitud a los 50 centímetros.

Micrófono Shotgun  Audio Technica AT875R:

Audio Technica AT875R

Patrón Polar Audio Technica AT875R

Micrófono: pequeño.
Longitud: 17,5cm.
Diámetro: 21mm
Rango de Frecuencia: 90Hz a 20.000Hz
Sensibilidad: –30 dB (31.6 mV)
Impedancia: 100 ohms
Nivel de entrada máx: 127 dB SPL, 1 kHz at 1% T.H.D.
Carga Fantasma: Necesita de Carga fantasma 1-52V DC, 2 mA
Página Web: http://www.audio-technica.com/cms/wired_mics/cae8c23cfe000574/index.html

 


Micrófono Shotgun  Sanken CS-1e:

Sanken CS-1e

Patrón Polar Sanken CS-1e

Micrófono: pequeño.
Longitud: 18cm.
Diámetro: 19mm
Rango de Frecuencia: 50Hz a 20.000Hz
Sensibilidad: 63.1mV/Pa (-24dB,0dB=1V/Pa)
Impedancia: 120 ohms
Nivel de entrada máx: 130 dB SPL, 1 kHz at 1% T.H.D.
Carga Fantasma: Necesita de Carga fantasma +48V±4V, 3.5 mA
Página Web: http://www.sanken-mic.com/en/product/product.cfm/8.1001410

 


Micrófono Shotgun Neumann KMR 81 i:

 

 

Neumann KMR 81 i

Patrón Polar Neumann KMR 81 i

Micrófono: Pequeño.
Longitud: 22cm.
Diámetro: 21mm
Rango de Frecuencia: 20Hz a 20.000Hz
Sensibilidad: 18mV/Pa
Impedancia: 150 ohms
Nivel de entrada máx: 128 dB SPL, 1 kHz at 1% T.H.D.
Carga Fantasma: Necesita de Carga fantasma +48V±4V, 0.8 mA
Página Web: https://www.neumann.com/?lang=en&id=current_microphones&cid=kmr81i_description

 


Micrófono Shotgun Sennheiser MKH-60:

Sennheiser MKH-60

Patrón Polar Sennheiser MKH-60

Micrófono: Mediano.
Longitud: 28cm.
Diámetro: 25mm
Rango de Frecuencia: 50Hz a 20.000Hz
Sensibilidad: 40 (12,5)mV/Pa
Impedancia: 150 ohms
Nivel de entrada máx: 125 dB SPL, 1 kHz at 1% T.H.D.
Carga Fantasma: Necesita de Carga fantasma +48V±4V, 2 mA
Página Web: https://en-us.sennheiser.com/short-gun-microphone-film-reporting-mkh-60-1

 


Micrófono Shotgun Audio Technica BP4071a:

Audio Technica BP4071a

Patrón Polar Audio Technica BP4071a

Micrófono: Mediano/Largo.
Longitud: 40cm.
Diámetro: 21mm
Rango de Frecuencia: 20Hz a 20.000Hz
Sensibilidad: -29 dB (35.5 mV)
Impedancia: 50 ohms
Nivel de entrada máx: 141 dB SPL, 1 kHz at 1% T.H.D. 
Carga Fantasma: Necesita de Carga fantasma +48V±4V, 4.8 mA
Página Web: http://www.audio-technica.com/cms/wired_mics/b9acff4025c432a9/index.html

 

 


Micrófono Shotgun Sennheiser ME67:

Sennheiser ME67

Patrón Polar Sennheiser ME67

Micrófono: Largo.
Longitud: 43,68cm.
Diámetro: 23mm
Rango de Frecuencia: 40Hz a 20.000Hz
Sensibilidad: 50 mV/Pa +- 2,5 dB
Impedancia: 200 ohms
Nivel de entrada máx: 125 dB / 1 kHz (K = 1%)
Carga Fantasma: Necesita de Carga fantasma +48V±4V
Página Web: https://en-us.sennheiser.com/highly-directional-microphone-long-gun-me-67

 


Micrófono Shotgun Shure SM89:

Shure SM89

Patrón Polar Shure SM89

Micrófono: Largo.
Longitud: 52,4cm.
Diámetro: 20mm
Rango de Frecuencia: 60Hz a 20.000Hz
Sensibilidad: –33 dBV/Pa (22.2 mV)
Impedancia: 100 ohms
Nivel de entrada máx: 127 dB / 1 kHz (K = 1%)
Carga Fantasma: Necesita de Carga fantasma 11 a 52 Vdc; 2 mA
Página Web: http://www.shure.at/dms/shure/products/microphones/user_guides/sm/sm89-user_guide_EN/sm89-user_guide_EN.pdf

 




Ingeniería en Audio para invidentes

Hay muchos ingenieros/as de audio ciegos o con impedimentos visuales, el desarrollo de su sistema auditivo los hace idóneos para trabajos con audio y aún así poco hablamos al respecto.

No sólo existen diversas herramientas de edición de audio para personas invidentes, sino que también existen varias asociaciones de audio para personas ciegas y muchas páginas de Internet que proveen información muy interesante:

Algunos nombres e historias de ingenieros de audio ciegos:

La historia de cada ingeniero de audio es única (sea ciego o no), no es una profesión tan difundida como para saber a los 7 años de edad que uno quiere ser ingeniero de audio (como pasa con otras profesiones como médico, veterinario, bombero) cuando uno es chico no dice voy a ser ingeniero de audio; puedo llegar a arriesgar que la mayoría de los ingenieros de audio fueron otra cosa ante que ingenieros, músicos, cantantes, productores de radio, productores de música, periodistas, etc. Otras profesiones cercanas al mundo del audio que van develando lo que es la profesión.

Casi siempre es la necesidad de grabar lo que impulsa a una persona a enamorarse del mundo de la ingeniería de audio. Casi todas las entrevistas a ingenieros de audio comienzan con “Había que grabar a la banda y no había nadie allí para hacerlo”.

Así comienza la historia de Rich Gaglia un ingeniero que trabaja en un estudio casero en Flushing, Queens. Quien fue entrevistado hace unos años por el blog “Trust me I’m a scientist”. Rich Gaglia comenzó su camino por la ingeniería de audio en su adolescencia cuando era músico de una banda y tenían que grabar los demos, de las grabaciones en 4 pistas pasó a trabajar en un pequeño estudio de Manhattan, donde continuó perfeccionando sus habilidades.

En la época de lo análogo Rich no tenía problemas con la edición de audio:

“En su momento, editaba en cinta de carrete abierto con una maquinita de afeitar, montaba micrófonos, amplificadores, baterías, y trabajaba en grandes consolas de 48 canales. Para lo único que tuve problemas fue con los vúmetros; así que me construí una caja que se alimentaba de la salida de cada pista y un pitido me indicaba cuando el nivel de audio se acercaba al rojo”

Pero la industria en pocos años se volcó completamente a herramientas digitales ahora, Rich  trabaja exclusivamente en Pro Tools. Al no poder ver una pantalla de computadora, Rich, junto con un número significativo de profesionales de audio invidentes, usa el software del lector de pantalla para navegar por la plataforma DAW.

Otro ingeniero de audio más conocido que Rich Gaglia es Rick Boggs fundador de la plataforma Audio Eyes, una asociación de ingenieros de audio, productores, expertos en accesibilidad y profesionales de audio que proporciona, entre otros servicios, descripciones de audio para cines, a cadenas de televisión y DVDs.

“Esencialmente, mi título de trabajo es ingeniero / productor de audio. Al menos, ese es el conjunto de habilidades que me mantiene empleado. Sin embargo, tuve que convertirme en empresario  para poder ser empleado como ingeniero/productor de audio. Sorprendentemente, la industria de la grabación de audio no parece estar abierta a la contratación de ingenieros de audio con pérdida de visión”.

Rick cuenta que su camino hacia la carrera de empresario e ingeniero nunca estuvo planeado. Desde su juventud aprendió a tocar múltiples instrumentos, componía música, pintaba, esculpía, escribía cuentos y poesía, pero nunca podía permitirse lecciones profesionales de ningún tipo, su mayor ayuda fueron diversas personas que lo ayudaron de diferentes maneras desde donarle instrumentos hasta ofrecer su tiempo para enseñarle distintas habilidades desde notación musical a la programación del sintetizador y MIDI.

“Mi propio trabajo de voluntariado y los esfuerzos de promoción han contribuido en gran medida a mi desarrollo profesional y de oportunidades. A través de la investigación implacable, pude persuadir a los desarrolladores de software de audio digital para que sus programas sean accesibles para las personas que usan lectores de pantalla. En el Screen Actors Guild, me convertí en un defensor de la igualdad de oportunidades para los artistas ciegos, y este trabajo finalmente proporcionó el tipo de conocimiento de la industria y las relaciones personales que necesitaba para iniciar mi negocio la producción de descripción de vídeo”.

¿Existe una estación de trabajo de audio digital para ciegos? ¿Cuál es la mejor?

Aunque el dicho dice “es mejor mezclar con los oídos que con los ojos”, la mayoría de las estaciones de trabajo de audio digital están basadas en gráficos.

Aquí una lista de herramientas que pueden ser de utilidad:

Una buena parte de quienes trabajan con audio utilizan softwares lectores de pantalla.

Para este software existe un complemento llamado JSonar (Aquí para descargar JSonar) que trabaja junto con la estación de trabajo de audio digital de la empresa Cakewalk Sonar (pero solamente con las versiones Sonar 8 y Sonar 8.5) (Aquí una guía en inglés de cómo utilizar JSonar)

Aunque se encuentra en inglés aquí un video muy bien explicado para poder utilizar Microsoft SAPI 5.3 Text To Speech con Sonar X3.

https://www.youtube.com/watch?v=bhxJFkRisM0

  • NVDAcces: Lector de pantallas para Microsoft Windows gratuito. Es un proyecto de software libre, que también está disponible el código fuente del programa de forma gratuita. Este lector de pantallas posee una ventaja muy importante frente otros lectores de pantalla ya que se puede ejecutar directamente desde una memoria USB sin tener que instalarlo. Se puede utilizar con Sonar X3 con software NVDA Sonar

 

https://www.youtube.com/watch?v=yCc7Zu4kS1Q

Finalmente un interesante video de un encuentro “Mainstreaming Accessibility” que formó parte del festival SXSW en 2016.

https://www.youtube.com/watch?v=MieJTstxoHE

 




Alta resolución de audio. Un estudio revela datos significativos.

La gran pregunta siempre es…¿Podemos darnos cuenta de la calidad de audio entre un MP3, un archivo WAV/FLAC o un CD con sólo escucharlo?

En la serie de post titulada ¿Cómo escuchas lo que escuchas? (la serie completa se puede consultar aquí) desarrollé el tema de la calidad de sonido, la diferencia entre los distintos archivos de audio, los distintos soportes, el audio análogo vs el audio digital, el streaming de audio, etc.

Pero por más que exista una explicación práctica entre los diferentes formatos y calidades el debate en torno a la grabación y reproducción de audio en alta definición sigue abierto.

Hay quienes afirman que la calidad de CD (44,1 kHz/16bit) es suficiente para escuchar todas las frecuencias que podemos oír los seres humanos (de 20 a 20,000 Hz); del otro lado de la moneda muchas personas (entre las que me incluyo) afirmamos que el contenido de alta resolución suena más nítido y/o más intenso.
Según se esté defendiendo una u otra postura se escoge el estudio favorito para apoyar cualquiera de las dos partes.

Pero un metaanálisis realizado en 2016 por el especialista en ingeniería de audio Joshua D Reiss, del departamento de ingeniería electrónica y ciencias de la computación de la universidad Queen Mary University of London, revela que las personas son capaces de diferenciar entre un audio digital que cuenta con una definición de 44,1 o 48 kHz/16 bits y un audio de mayor definición 96kHz/24 bits con sólo escucharlos; sin embargo existe un pequeño truco.

“Los puristas de audio y la industria deberían acoger estos hallazgos, nuestro estudio encuentra que el audio de alta resolución tiene una pequeña pero importante ventaja en su calidad de reproducción y contenido de audio “.

¿Por qué hay personas que notan la diferencia y personas que no?

El estudio titulado “A Meta-Analysis of High Resolution Audio Perceptual Evaluation”  fue realizado con el aporte de más 400 participantes a quienes se les realizaron más de 12.500 pruebas.  

El estudio reveló que la mayoría de los sujetos de ensayo eran capaces de discernir entre las diferentes calidades de audio, pero que esta diferenciación aumentaba dramáticamente cuando las personas recibían un entrenamiento; los sujetos de prueba capacitados distinguieron un 70% mejor entre los distintos formatos de audio.

“Una motivación para esta investigación fue que la gente en la comunidad del audio discute sin cesar si el uso de formatos y equipo de alta resolución realmente hace la diferencia.” 

Algunos datos relevantes de cómo se hizo el estudio:

El estudio define el audio de alta resolución como todos aquellos sistemas y formatos que se encuentren por encima de la calidad estándar (44,1 kHz o 48 kHz/16 bit).

Hasta el momento no existía un metaanálisis (conjunto de herramientas estadísticas, que son útiles para sintetizar los datos de una colección de estudios) en torno a la percepción de la resolución de audio, por primera vez se aplicó este tipo de estudio en una investigación acerca de ingeniería de audio.

Para llevar a cabo el estudio se analizaron 80 referencias de otros estudios, pruebas; junto con 51 artículos que tienen como eje principal el estudio perceptivo acerca del audio en alta resolución. (no se consideraron experimentos publicados antes de 1980).

La mayoría de los estudios analizados se dividieron en dos grandes categorías; aquellos enfocados en establecer los límites de la percepción auditiva y aquellos enfocados en la capacidad para discriminar las diferencias de formato de audio.

Para hacer el estudio más efectivo se utilizaron diversas metodologías reconocidas de análisis para la evaluación perceptiva de audio y se compararon los beneficios y las dificultades de establecer cada uno de los métodos.

“Nuestro estudio es el primer intento de tener una mirada completa e imparcial sobre si se puede oír la diferencia entre un audio convencional y el audio de alta resolución. Recopilamos 80 publicaciones y analizamos todos los datos disponibles, incluso pidiendo a los autores de estudios anteriore,s los informes originales y los archivos antiguos. Se sometieron los datos a muchas formas de análisis, el efecto fue claro y hubo algunos indicadores de las condiciones que lo demuestran más efectivamente, y esperamos (ahora que sabemos que se pueden percibir las diferencias) poder avanzar hacia la identificación de cómo y por qué percibimos estas diferencias “.

Conclusiones del estudio:

  • Una porcentaje pequeño de los sujetos de ensayo, pero estadísticamente significativo, tuvo capacidad para discriminar entre audios de calidad estándar (44,1 ó 48 kHz, 16 bits) y audio de alta resolución.
  • Cuando los sujetos de ensayo fueron capacitados para discriminar entre los diferentes formatos y  equipos, la capacidad de identificar unos y otros fue más significativa (un 70% mayor).
  • El estudio demostró que la selección de los estímulos adecuados, incluyendo su duración, tiene un papel importante en la capacidad de discriminar entre el audio de alta resolución y el audio de resolución estándar.

Cosas a tomar en consideración:

  • La mayoría de los estudios se centraron en la tasa de muestreo, por lo que la capacidad para discriminar la  profundidad de bits, por ejemplo entre 24 bits frente a 16 bits sigue siendo una cuestión abierta a estudio.
  • Aunque se tomó en cuenta los tipos de auriculares utilizados para el estudio, no se realizó un estudio exhaustivo de cómo los auriculares afectan la percepción respecto a otros sistemas de audio.
  • Quedan abiertas a estudio otros factores como la elección de los filtros aplicados, la influencia de los diversos componentes de hardware en la grabación de audio y la cadena de reproducción.

¿Por qué nos interesa este estudio?

Principalmente porque es uno de los pocos trabajos que aplican el sistema de metaanálisis de forma rigurosa, lo que ha hecho reconsiderar la forma en la que se realizaron estudios anteriores en torno a este tema.

Además este primer estudio establece la importancia de la publicación de pruebas y datos de los estudios en torno a la calidad de audio que se han realizados y los que se realicen en un futuro para poder analizar las implicaciones de cada uno de los procedimientos de evaluación como de la tecnología utilizada.

La noción de la calidad de audio comenzó en la era análoga en 1948 (ver post ¿Cómo escuchas lo que escuchas III), comenzó como una forma comercial, una forma de publicitar un producto. En tiempos digitales el interés por la calidad de audio cambia por completo, no estamos hablando sólo de ondas electromagnéticas sino de cómo percibimos los procesos digitales, una forma completamente distinta de entender el sonido.

En tiempos en que el streaming de audio crece a gran escala, en donde los recitales son grabados en smartphones, las grabaciones binaurales son moneda corriente y los auriculares 3D están al alcance de cualquier bolsillo. La calidad de audio vuelve a jugar un papel significativo en el desarrollo de nuevas tecnologías. Ahora no sólo busca archivar y/o escuchar una mayor cantidad de contenido sonoro, sino que además se busca que eso que estamos escuchando se diferencie de alguna forma.

¿Cuantas veces buscaste una canción de YouTube y cambiaste de video por que el audio no se escuchaba bien? ¿Cuántas veces dejaste de escuchar un podcast porque el sonido del audio te incomodaba?

A mediados del 2016 realice una Guía Práctica para elegir Auriculares (que puedes descargar AQUÍ) que cuenta a la fecha con más de 2.000.000 de descargas.

A la gente le interesa el audio y busca mejorar su forma de escucha.

Aquí puedes encontrar el estudio publicado completo: “A Meta-Analysis of High Resolution Audio Perceptual Evaluation”




Una sala de conciertos acústicamente perfecta

Y lo que soñó el físico Wallace Clement Sabine se hizo realidad. 

En 1895 le encargaron a Wallace C. Sabine corregir la mala acústica de la sala principal de conferencias del Museo Fogg de Arte de la Universidad de Harvard. La tarea no era fácil ya que era un espacio acústicamente difícil de tratar: semicircular con una cúpula y un perímetro arqueado.

Sala principal de conferencias del Museo Fogg de Arte

Sabine no tenía ninguna experiencia especial con el sonido, pero obstinadamente abordó el desafío como lo haría con cualquier otro experimento de física. Optó por caracterizar el sonido en una habitación como un cuerpo difuso de energía, en lugar de adoptar el enfoque geométrico más típico del siglo XIX que se centraba en la manipulación de la propagación de las ondas sonoras.

Enfocó sus investigaciones sobre las propiedades de absorción del sonido de diversos materiales y su efecto sobre los tiempos de reverberación.

Pasó dos años tomando mediciones y estudiando el comportamiento del sonido tanto en el Museo Fogg como en el Teatro de Sanders (considerado un teatro con una excelente acústica) para determinar qué podría estar causando la diferencias acústicas de cada una de la salas y; poder encontrar una fórmula y/o procedimiento para evaluar la acústica de los lugares.


Mientras muchos de sus contemporáneos buscaban métodos para hacer el sonido visible, Sabine prefería escuchar el sonido.


 Armado con un órgano de tubos y un cronómetro, él y sus asistentes probaron cada uno de los espacios repetidamente bajo diversas condiciones, moviendo diversos materiales entre las dos salas y haciendo cuidadosas  mediciones. Utilizaba el órgano para excitar la sala y con el cronómetro medía cuánto duraban las reverberaciones del sonido hasta ser inaudibles. Trabajaba en horas de la madrugada para que ningún otro sonido proveniente del establecimiento interfiriera con la investigación.

Uno de los materiales que escogió fueron los cojines de los asientos del teatro de Sanders y los llevó al Museo de Fogg; al hacer la prueba Sabine, notó que las reverberaciones del sonido descendían.

“Cuando introduje en la sala un total de 8,2 metros de cojines la duración de la audibilidad bajó a 5,33 segundos. Cuando cubrí 17 metros con cojines, el sonido del órgano siguió siendo audible durante 4,94 segundos. Cuando todos los asientos quedaron cubiertos, el sonido audible duró 2,03 segundos; cuando se cubrieron también los pasillos, la pared y el tablado la audibilidad de los sonidos residuales fue de 1,14 segundos”

Este trabajo de Sabine y su posterior publicación hicieron de la acústica una ciencia y un estudio formal.

El podcast 99% Invisible dedicó su episodio 236 a la historia de la acústica “Reverb: The Evolution of Architectural Acoustics”

Elbphilharmonie

El 11 de enero de 2017 se inauguró en la ciudad de Hamburgo, Alemania la filarmónica de Elba, mejor conocida como Elbphilharmonie. Una sala de conciertos que es considerada una joya arquitectónica no sólo por su diseño exterior sino por el diseño acústico interior.

Elbphilharmonie 2017

 

Gran Hall

Una de las características más interesante es el auditorio central llamado “Gran Hall“, construído a partir de 10.000 paneles acústicos de fibra de yeso únicos, diseñados a partir de algoritmos por el estudio suizo Herzog & De Meuron encargado de todo le proyecto.

Los paneles cuentan con un millón de pequeñas celdas de entre 4 y 16 cm de diámetro diseñadas para dar forma al sonido. Cuando las ondas de sonido golpean un panel, la superficie irregular las absorbe o dispersa. Ningún panel absorbe o dispersa las ondas de sonido de igual manera, esto hace que todos los paneles juntos creen una reverberación equilibrada en todo el auditorio.

“En el Gran Hall los miembros de la audiencia se encuentran a no más de 30 metros del conductor, rompiendo barreras entre músicos y miembros de la audiencia. La ‘piel blanca’ que cubre la superficie de las paredes y los techos de la Gran Hall está compuesta por aproximadamente 10.000 hojas de paneles de fibra de yeso. Con la ayuda de un reflector expansivo que está suspendido desde el centro del techo abovedado, los paneles proyectan el sonido en cada esquina del espacio, garantizando una experiencia de escucha óptima desde cada asiento.”

 

El diseño de los 10.000 paneles acústicos estuvo a cargo de Benjamin Koren director del estudio especializado en desarrollo y modelado de superficies acústicas One to One que, junto a uno de los ingenieros en acústica más renombrados del mundo Yasuhisa Toyota, crearon un mapa de sonido óptimo para el auditorio basado en la geometría de la habitación.

Así fue como se calculó que ciertos paneles, como los que recubren las paredes traseras del auditorio, necesitarían ranuras más profundas y más grandes para absorber los ecos; mientras que en otras áreas de la sala, como las superficies del techo detrás del reflector y las partes superiores de las balaustradas, requerirían células más superficiales.

https://www.youtube.com/watch?v=T4oHPL4KeEI

Uno de los requisitos que hizo de los paneles todo un desafío fue que debían verse iguales y ser visualmente agradables, independientemente de los requisitos acústicos.

Para lo cual se desarrolló un algoritmo que produjo 10.000 paneles, cada uno con una forma y un patrón únicos, mapeados que contienen tanto las especificaciones estéticas como las acústicas.

El gigante edificio tardó 13 años en tomar forma para finalmente concretarse el 31 de octubre de 2016 e inaugurarse el 11 de enero de 2017.

https://vimeo.com/195462392




Cómo cambia la tecnología de audio. Detrás de Dolby 2017

1965

La historia de la compañía Dolby se remonta a 1965 cuando los laboratorios Dolby se mudaron de Londres a San Francisco para montar su sede central.

El primer producto de la empresa fue el Dolby A “Noise Reduction” un compresor/expansor multibanda pensado para el mercado profesional de audio.

1968

Con la llegada de los formatos portátiles de sonido: el tape cartridge y el compact casete. Las formas de consumo de audio cambiaron por completo desde los autos a las emisoras de radio comenzaron a utilizar reproductores y grabadoras de casete.

En 1968 Dolby introduce el reductor de ruido Dolby B. Una versión reducida del Dolby A que en vez de trocear la banda de audio en cuatro partes para poder lograr la reducción de ruido, el sistema Dolby B lo hacía en toda la banda de frecuencias audibles.

Pero Dolby B tenía otros aspectos interesantes respecto del Dolby A. Dolby B era un sistema pensado para el mercado doméstico y no sólo para el profesional de audio lo que lo hizo muy popular; por otra parte era un sistema complementario, es decir, se necesitaba grabar con un sistema Dolby B y que el aparato reproductor tuviese el sistema Dolby B incorporado para poder reproducir la grabación. Un casete grabado con Dolby B y reproducido sin el sistema Dolby B tendrá un sonido opaco y ruidoso por falta de compresión y reecualización en la reproducción.

1971

El sistema Dolby B fue comercializado masivamente en 1971. Ese mismo año la empresa Advent lanza su primer reproductor de casete portátil. Estos reproductores portátiles tenían un significativo cambio que era que utilizaba casetes con una formulación química de la cinta magnetofónica mucho más avanzada, que a su vez mejoraba la reducción del ruido.


Comenzó a gestarse un monopolio, es decir los equipos de reproducción utilizaban los sistemas Dolby B, pero no todos los estudios de grabación contaban con el equipo necesario para grabar en Dolby B. Entonces el laboratorio Dolby alquilaba el equipo necesario junto con un ingeniero.


Ese mismo año, 1971, David E. Blackmer un ingeniero titulado de la Universidad de Harvard y el Instituto Tecnológico de Massachusets funda la empresa y la marca DBX con el propósito de llegar más lejos del rango audible. Su primer producto para el mercado profesional será un reductor de ruido de tipo complementario: DBX Tipo I y DBX Tipo II estos reductores de ruido superan al de Dolby con una mejora de 5db,  llegan a mejorar la relación señal/ruido hasta 20db mientras que Dolby tiene una mejora de 15db. Aquí comienza una larga disputa entre las dos empresas y las dos corrientes de usuarios profesionales de audio: están los que utilizan Dolby o los que utilizan DBX.

La empresa DBX, ese mismo año lanza: un procesador de sonido, “el compresor-limitador” reconocido mundialmente y usado sobre todo en las pistas de voz, el DBX 160.

1975

La empresa Telefunken saca su modelo TELECOM para el mercado profesional y HIGH COM para el doméstico; la empresa Phillips el DNL  “Dinamic Noise Limiter” y el DNR el “Dinamic Noise Reduction”.

Pero Dolby ni lento ni perezoso saca al mercado el sistema Dolby Stereo, un reductor de ruido de audio para el soporte fílmico de 35 mm. Y lo utiliza en una de las películas más taquilleras de todos los tiempos.

Hollywood queda encantado y ya no existe competencia para Dolby.

1980

En los 80′ Dolby saca al mercado su modelo Dolby C y en 1982 retoma un concepto olvidado el Soundround un invento cancelado de Disney en los años 40′ cuando decide instalar múltiples altavoces alrededor del público para proyectar la película “Fantasía” pero que finalmente como consecuencia de la Segunda Guerra Mundial el proyecto se cancela en 1942.

1987

Dolby Surround pasará a denominarse Dolby ProLogic I .

2000

En el 2000 saldrá a la luz el Dolby ProLogic II y progresivamente, Dolby ProLogic IIx, y Dolby ProLogic IIz.

Así es como Dolby se convierte en uno de los desarrolladores de tecnologías de audio dirigida principalmente a la industria de los medios de comunicación y el entretenimiento, incluida la industria del cine, el entretenimiento doméstico y la industria de la comunicación móvil.

Dolby empresa ligada al  antiguo sistema reductor de ruido, ahora desarrolla sonido para casi todo lo relacionado con entretenimiento, desde salas de cine, televisores, computadoras y automóviles; generando ingresos a través de regalías de licencias de su tecnología de sonido envolvente.

  • Dolby Digital EX
  • Dolby Digital Live
  • Dolby Digital Surround EX
  • Dolby Digital Recording
  • Dolby Digital Cinema
  • Dolby Virtual Speaker
  • Dolby TrueHD
  • Dolby Axon
  • Dolby Surround 7.1
  • Dolby Atmos
  • Dolby S
  • Dolby E
  • Dolby HX
  • Dolby HX Pro

2017

Las principales patentes de la compañía relacionadas con la tecnología Dolby Digital expirarán este año 2017. La tecnología Dolby Digital es la principal fuente de ingresos de licencias de la empresa durante este último tiempo. Sin embargo, la compañía ha creado nuevas fuentes para generar ingresos de licencias, que son capaces de impulsar la tecnología de audio en otro sentido y nuevamente generar un monopolio, pero esta vez aplicadas a los nuevos medios.

Para la industria cinematográfica, Dolby ha creado Dolby Atmos para ofrecer una experiencia de sonido envolvente multidimensional y Dolby Vision para producir imágenes reales en la pantalla al combinar óptimamente brillo, contraste y color.

Para la industria de la comunicación móvil, Dolby está llevando sus tecnologías de sonido envolvente, incluyendo Dolby Atmos y Dolby Audio a los smartphones, tablets y PCs. Además, la compañía también está apuntando a la industria de videojuegos y el streaming.

Dolby ha mutado a un sistema de sonido envolvente basado en objetos Dolby Atmos Objets, hasta ahora sólo utilizado en la industria cinematográfica. El sistema Dolby Atmos Objets permite a los realizadores especificar la ubicación exacta en la pantalla (ya sea en la sala de cine, en un televisor o en un smartphone) desde dónde se debe originar un sonido y cómo el sonido debe moverse.

Aunque esta tecnología ya fue planteada por varios proyectos independientes de audio, Dolby está llevando la delantera en la imposición del sistema.

Hacia donde apunta Dolby.

1. Entretenimiento en línea

El negocio de entretenimiento en línea de Dolby se mantuvo bajo presión en los últimos años debido al descenso de las ventas de PCs en todo el mundo. Sin embargo, el negocio está dando la vuelta, impulsado por las nuevas formas de transmisión de contenidos.

La empresa Apple a principios de este año apoyó a Dolby con el lanzamiento de iOS 9.3 el cual contiene sistema Dolby integrado; por otra parte Google junto con Android, están trabajando con varios fabricantes de equipos para integrar audio Dolby a dispositivos que funcionan con Android.

A principios de este mes Dolby y Microsoft anunciaron que el Dolby Atmos estará disponible en Xbox One y será compatible con Windows 10.

Aunque las plataformas de televisión inteligente como Apple TV y TV Android todavía no son compatibles con el sistema Dolby Atmos estas plataformas comenzarán este año a utilizar Dolby Atmos también.

Con el fin de aumentar sus ingresos de la creciente industria de streaming de medios de comunicación, Dolby ya ha desarrollado su sistema Dolby Digital Plus para cambiar la tecnología disponible en Apple TV y Android TV. (Servicios de streaming de medios de comunicación ofrecidos como Netflix, Hulu y Amazon de Amazon Premium están disponibles en el Apple TV y TV Android).

2. Cine Dolby

En 2016 Dolby llegó a un acuerdo con AMC Entertainment, una empresa de exhibición, que opera en los EE.UU. e internacionalmente, para ofrecer a los espectadores una experiencia impulsada por la proyección de Dolby Vision Laser junto con sonido envolvente Dolby Atmos. De acuerdo con un informe :

AMC inicialmente anunció planes para convertir los primero 50 auditorios Premium y ETX de gran formato para cumplir con las especificaciones de Dolby Cinema para 2018 (y 50 más para 2024).

Por otra parte  nuevamente la empresa repetirá la estrategia de lanzar el sistema junto a una película taquillera aunque esta vez no tanto: The Passengers.

3. Dolby Vision

La tecnología de imagen Dolby Vision está actualmente disponible en salas de cine. Para entretenimiento en el hogar, Dolby Vision sólo se admite en algunos televisores LG Ultra HD 4K seleccionados. Dolby y LG Electronics anunciaron que los televisores LG OLED contarán con tecnología Dolby Vision y Dolby Atmos.

La llegada de los televisores Ultra HD 4K sustituirá a los televisores de alta definición. Sin embargo, antes que esto ocurra la industria cinematográfica tiene que adoptarlos como estándar primero, lo que se prevé que ocurrirá entre 2017 y 2018.

Las tecnologías de audio de Dolby no reciben suficiente atención y cobertura de los medios porque el audio es un tema menos interesante para el público en general en comparación con la resolución de la imagen.

Con el estándar 4K para televisores, más fabricantes de televisores digitales soportarán Dolby Vision lo que obligará a los inversores a pensar que Dolby ya no es una compañía de audio sino una empresa de desarrollo tecnológico en el campo de los medios de comunicación y el entretenimiento.

El único competidor de Dolby en este momento es la empresa IMAX que sólo está enfocada a la industria cinematográfica y las salas de proyección. Dolby en este momento gana ingresos de PC, Xbox y otras consolas de videojuegos, y millones de dispositivos iOS.

Una vez más la historia de la imposición de sistemas de audio de Dolby en la industria del audio se repite y la mayoría de la gente no tiene idea de esto.

Los verdaderos cambios en la tecnología de audio y comunicación son cada vez más sutiles y se imponen con mayor fuerza. La discusión no es pasar de los análogo a lo digital, de un sistema a otro. Los sistemas, las formas de distribución y consumo de contenidos están incluídos en los dispositivos.

Una vez más la tecnología no se adaptan a nosotros, a nuestras formas de consumo, nosotros somos los que nos adaptamos a ella. De la forma más sencilla, sin darnos cuenta con tan sólo comprar un smartphone o incluso un auricular.

Queramos o no verlo y escucharlo. El futuro digital llegó hace rato de la mano de los mismos de siempre y, como es usual, no nos pidió permiso.

La única forma posible de rebelión es entendiendo la tecnología que nos venden y cómo evoluciona.




Cómo el sonido puede ayudarnos a retroceder en el tiempo

Académicos y científicos de la Universidad de Stanford han trabajado para recrear digitalmente la experiencia de estar en la antigua iglesia y mezquita Hagia Sophia (Santa Sofía) en Estambul- Turquía.

Hagia Sophia construída por el emperador Justiniano en 532-537;  sirvió como la catedral ortodoxa bizantina de Constantinopla, por un breve período como catedral católica y, tras la Conquista de Constantinopla por el Imperio otomano, el edificio fue transformado en mezquita, manteniendo esta función desde el 29 de mayo de 1453 hasta 1931, fecha en que fue secularizado. El 1 de febrero de 1935 se inauguró como museo.

Iglesia Santa Sofía

¿Pueden las nuevas tecnologías ayudarnos a retroceder en el tiempo?

Bajo esta premisa nace nace el proyecto “Icons of Sound” el cual emplea la investigación visual, textual, musicológica; la construcción de modelos arquitectónicos, acústicos y auralizaciones junto con la grabación de canto bizantino para recrear digitalmente la experiencia de estar en Santa Sofía cuando era una iglesia medieval.

“Al amanecer y al atardecer, el mármol y el oro simulan visualmente el estremecimiento del agua mientras la luz que fluye por las ventanas anima las superficies pulidas. Esta sensación de movimiento del agua, lograda a través de la animación visual de las superficies brillantes, fue reforzada simultáneamente por la acústica húmeda del espacio. Con ecos que duran poco más de 10 segundos, el aliento humano vaciado en la forma de cantar se transformó en el sonido de salpicaduras de agua contra las paredes.

Hagia Sophia desafía nuestra expectativa contemporánea de inteligibilidad del lenguaje. Estamos acostumbrados a escuchar la palabra hablada o cantada claramente en espacios secos y no reverberantes para decodificar el mensaje codificado. Por el contrario, la acústica húmeda de Hagia Sophia desdibuja la inteligibilidad del mensaje, haciendo que las palabras suenen como emanación, emergiendo de la profundidad del mar. No es sorprendente que gran parte del ritual en Hagia Sophia involucrara el canto y no el discurso recitativo.”

El proyecto “Icons of Sound” se centra en el interior de Hagia Sophia, donde los cientificos e historiadores utilizaron grabaciones de globos (conocidas como Ballon Pop recording) en el espacio y otras investigaciones audiovisuales para redescubrir la acústica del edificio.

Ballon pop recording es un método para experimentar el tiempo de reverberación de un lugar. Es un método simple que consiste en la creación y el registro de una respuesta de impulso.

Una respuesta de impulso consiste en un solo sonido impulsivo que posee una gran amplitud como un aplauso, una pistola de arranque o el estallido de un globo. 

Al crear un ruido impulsivo (el estallido de un globo) en un espacio determinado, el sonido se irradiará omni-direccionalmente, reflejándose en las paredes, techo, piso y otras superficies alrededor de la habitación. A medida que el sonido pasa por una serie de diferentes reflexiones, se descompone hasta llegar a ser inaudible. El tiempo que tarda el sonido en decaer es lo que se mide. La medida estandarizada para esto es RT60, que se refiere al tiempo necesario para que el sonido se desintegre en 60dB.

La universidad de Stanford publicó un estudio con las primeras grabaciones en 2009 de Hagia Sophia y las  medidas tomadas que puedes consultar AQUI

La acústica explora la dimensión espacial y temporal del sonido. Una fuente de sonido produce una secuencia de valores de presión de aire a lo largo del tiempo. El sonido también interactúa con objetos, superficies; las características arquitectónicas del espacio, de tal manera que cada valor de presión irradiado desde la fuente lleva impresa una huella del espacio. Esta impresión se llama respuesta de impulso, y el proceso de ‘imprimir’ un espacio en un sonido se llama convolución.

A través de la respuesta al impulso y del mecanismo de convolución, la escucha se transforma en una experiencia espacio-temporal. Los primeros sonidos en llegar al oído han viajado las distancias más cortas en su camino de la fuente al oído y por lo tanto han interactuando con pocas superficies y objetos. Estos sonidos nos transmiten un sentido de la geometría del espacio, la fuente y la posición.

Los posteriores sonidos los cuales han interactuado muchas veces con los objetos de la habitación, las superficies y las características arquitectónicas, nos muestran un panorama total de los materiales y del tamaño de la sala.

“En Hagia Sophia hemos utilizado el ballon pop por razones prácticas: tiene patrón de propagación omnidireccional , es fácil de usar y no requiere el transporte de equipo pesado. Con cuatro globos (dos utilizados el 5 y 6 de mayo de 2010 y dos el 9 de diciembre de 2010 ejecutados en el espacio debajo de la cúpula). Dos personas participaron: una persona sostuvo el globo y se mantuvo a 3-5 metros del investigador. Grabamos el sonido utilizando micrófonos omnidireccionales unidos a los hombros del investigador, colocados en el cabello ligeramente por encima de las orejas.

Hemos intercalado nuestros datos de Hagia Sophia con un experimento en la Iglesia Memorial en el campus de Stanford. Este edificio también tiene un interior abovedado pero con dimensiones mucho más pequeñas, diferentes materiales y superficies: sobre todo madera y vitrales. Aquí hicimos estallar globos y también utilizamos una señal de prueba, y grabamos la salida utilizando micrófonos omnidireccionales conectados a los soportes. Replicamos posiciones similares de la fuente y del oyente, el estallido de los globos y el sonido matematicamente diseñado. Al comparar los resultados de estas dos técnicas, hemos sido capaces de comprender mejor la dinámica de los datos de globos como un medio para establecer una fuente de impulso frente a una señal de prueba más ideal. Terminamos creando un método de limpieza de las perturbaciones en los globos grabados y llegamos así a una estimación de IR más precisa (que coincide con los resultados derivados del sonido de entrada de ingeniería matemática).”

https://www.youtube.com/watch?v=PYaWTcNN8tg

Junto con la colaboración del coro Cappella Romana, el principal coro de cámara en los Estados Unidos dedicado a la interpretación de música antigua, cantos bizantinos, eslavos y gregorianos. El 27 de marzo de 2011 en el Centro de Investigación Informática en Música y Acústica de la Universidad de Stanford se grabaron tres piezas corales para el proyecto.

Para recrear el sonido único de Hagia Sophia, los intérpretes cantaron mientras escuchaban la acústica simulada  a través de auriculares. Luego el sonido del canto fue puesto a través del mismo simulador acústico.

La luz natural que se mueve a través de las superficies del mármol y del oro; el brillo simula a su vez la memoria perceptiva del mar tembloroso.
El marmar iterativo ofrece la base lingüística de esta experiencia:  Mármaron en griego significa de mármol; Mar Marmara es un mar interior que une las aguas del mar Negro y del mar Egeo y separa por lo tanto la parte asiática de Turquía de la parte europea; marmairo y marmarysso significan “flash”, “brillo”, y marmarygma es “reflejo”.

La mayoría de los visitantes del museo de Hagia Sophia hoy en día no pueden experimentar  los sutiles cambios de luz jugando a través del mármol y el oro porque ven el interior con la luz dura del sol del mediodía o con la luz de la electricidad. Del mismo modo, la duración relativamente corta de su estancia en el espacio les impide observar la mayoría los cambios de luz y brillo que allí ocurren.

Por esta razón, el proyecto realizó un video que explora la estética de la transitoriedad de Hagia Sophia. Para dar una dimensión óptica a la acústica, registrando los sonidos de las palomas y el viento en la madrugada y las multitudes al mediodía, enriqueciendo la experiencia auditiva con un canto bizantino grabado.

La película traza el transcurso de un día con la luz natural como la materia inerte dotándola de movimiento. También se integra pasajes de la ekphrasis de Pablo Silenciario, que se realizó originalmente para un público de élite en los palacios imperiales y patriarcales para la re-inauguración de Santa Sofía en 562. Esta poesía muestra cómo el público medieval fue entrenado para percibir la fugaz apariciones en las superficies de mármol y oro como manifestaciones de la venida del Espíritu Santo.

El pico de Proconnesus esparciéndose suavemente por todo el pavimento,
Ha dado con gusto su espalda al gobernante que da vida [a Cristo / el emperador],
El resplandor de los Bosporos suavemente ruffling
Transmuta desde la más profunda oscuridad de las aguas hinchadas hasta la blanda blancura del metal radiante.
El techo abarca tesserae incrustados de oro,
cuyo vertido en el reluciente (marmairousa)
Rayo de oro
Irresistiblemente rebota de los rostros de los fieles 

Pablo Silenciario, Descriptio Sanctae Sophiae, vv. 664 – 70. (tr. Bissera V. Pentcheva)
 

https://www.youtube.com/watch?v=rsLgLNgA-_Q

Un proyecto que no muere en el tiempo. Sonidos sin tiempo, sonidos que transportan.

 




Una guía documental acerca de video juegos

La historia del video juego es relativamente reciente.  Existen infinidad de películas y sagas basadas en video juegos y otros tantos documentales acerca de los video juegos, las caídas, las modas, la comunidad que se arma alrededor del video juego, etc. Pero hasta el momento no había un documental dedicado a la historia del diseño de sonido en video juegos.

Beep es un documental realizado a través de la plataforma Kickstarter cuyo lanzamiento se realizó a mediados de 2016.

Beep rastrea la historia del sonido del juego desde las primeras máquinas de juego de la época victoriana en Inglaterra, conocidas como Victorian penny arcades, el sonido de juegos mecánicos (también de arcade) de gran éxito como pinball a la industria de los videos juegos electrónicos masivos que poseen bandas sonoras que son representadas en vivo.

Aquí una muestra de como funcionaba y cómo era una Victorian penny arcades muy antigua y muy rara.

https://www.youtube.com/watch?v=U0MCIQuxjQQ

El documental realiza un recorrido entrevistando a más de 80 compositores, diseñadores de sonido, actores de voz y directores de audio de todo el mundo.

Aquí el trailer del documental:

https://vimeo.com/157076047

El documental se puede alquilar en Vimeo por la suma de $3,99 dólares o comprar para descargar por $8,99 si lo compras viene con videos adicionales muy interesantes como un especial acerca del compositor japonés Ryu Umemoto uno de los compositores chiptune (música en 8 bits) más destacados de todos los tiempos.

https://www.youtube.com/watch?v=1pYBCJpZ3Lk

Recomendaciones para ver:

Si te interesa la industria del video juego aquí te recomendamos una serie de documentales que no puedes perderte:

  • GTFO the movie: Un documental independiente que tiene como punto de partida la mirada de las mujeres en la industria del video juego. Como son y han sido discriminadas y hasta perseguidas durante mucho tiempo. Una mirada de la que no se suele hablar.

https://www.youtube.com/watch?v=ueAQJL78F9U

 

  • Atari: Game Over: Un extraño pero interesante documental acerca de la leyenda más conocida de las videos juegos: En la década de los 80′ con la crisis de los videos juegos, se tiraron miles de cartuchos del juego de aventura E.T. the Extra-Terrestrial producido para la consola ATARI, en un vertedero de Nuevo México, Estados Unidos.

https://www.youtube.com/watch?v=yk7wuI7VafQ

 

  • Second Skin: Un interesante documental que sigue de cerca la vida de siete jugadores de juegos MMORPG (juegos de rol multijugador masivo en línea).

https://www.youtube.com/watch?v=RPOxuOCGi9I

 

  • The Lost Arcade: Un documental acerca del legendario local de video juegos “Chinatown Fair” ubicado en el barrio chino de Manhattan que abrió sus puertas en 1944 y cerró en 2011. Chinatown Fair se hizo conocido por las competencias que realizaba del juego Street Fighter entre otros.

https://www.youtube.com/watch?v=z-5G5w02i8c

 

  • Indie Game: The Movie: Un documental acerca de los intricandos caminos de los diseñadores de video juegos independientes. Este documental cuenta de cerca la realización del video juego de puzzle FEZ uno de los video juegos más exitosos que han surgido de la plataforma de financiamiento Kickstarter. En agosto de 2016 salió la segunda parte del documental llamada Indie Game: Life After

https://www.youtube.com/watch?v=dINgx0y4GqM

 

  • The history of…: El sitio Machinima ha realizado varios documentales acerca de grandes marcas de la industria del video juego y de videos juegos conocidos (los documentales pueden encontrarse en YouTube).

https://www.youtube.com/watch?v=DMaSgwDgnPo

 

  • Video Game Invasion: The History of a Global Obsession: Aunque es un documental del 2004 es un lindo documental para ver que con interesantes entrevistas acerca de video juegos que abrieron camino en la industria.

https://www.youtube.com/watch?v=Lo7-VjS8_B8

 

  • Road to Worlds: Es un documental en tres partes acerca del mundo gamer.

https://www.youtube.com/watch?v=q0wEW6NAPuE

 

Existen muchos documentales acerca de video juegos, pero la lista sería terriblemente larga. Aquí dejo los que a mí más me han llamado la atención.




Una época signada por los espacios

Abrir puertas y ventanas. Abrir espacios.
En una época que muchas veces huele a encierro de repente surgen los espacios. Cada vez hay más personas abriendo espacios, espacios físicos y no físicos. Conexiones entre espacios.

Ayer el compositor y músico experimental  Luciano Giambastiani me envió un Tweet recomendándome un excelente ensayo acerca de auriculares escrito por José Luis Fernández publicado en la revista Anfibia. El ensayo se titula “Auriculares para pensar”  y realmente recomiendo leerlo.

Hoy me entero que la revista Anfibia fue abierta brutalmente. Justamente ayer lunes entraron y robaron, desordenaron papeles, violentaron cerraduras. La revista Anfibia es un revista argentina creada por la Universidad Nacional de San Martín, un proyecto con mucho empuje.

Más allá de lo que les sucedió, la revista Anfibia, publica en su facebook que pondrá todo en orden y realizará este 14 de diciembre de 2016 el estreno de su primera historia que tiene como protagonista a la realidad virtual; la historia se titula “Carne”

Allí, en el post de facebook, nombran a ÑOÑO un colectivo de artistas especializados en el entorno de la realidad virtual, quienes junto a la organización Wingu | Tecnología sin fines de lucroAJ+Español y la fundación Donde Quiero Estar realizaron el proyecto: “Machi un Viaje de Salud”

Machi; un proyecto que utiliza la realidad virtual en pacientes que realizan quimioterapia. Con este proyecto basado en la realidad virtual logran transportar a los pacientes virtualmente a otros lugares para desconectarlos del espacio físico en el que se encuentran durante el tratamiento. La idea es maravillosa porque abre un espacio dentro de otro espacio.

https://www.youtube.com/watch?v=rt6cY7muaCc

Conectar, conectarnos. Abrir puertas y ventanas. Abrir espacios.

¿Cómo cambiar la espacialidad cuando los espacios se cierran? Vivimos en un mundo hiperconectado pero esas conexiones están trascendiendo los espacios por medio, no sólo de la tecnología, sino del interés por compartir, por mirar desde otros ángulos.

Una imagen cambia un espacio, cambia un instante. Un sonido cambia un espacio, un instante.

Ayer Luciano Giambastiani casi sin pensarlo cambió mi espacio. Abrió, puertas y ventanas. Hoy, la revista Anfibia decidió no cerrar sus puertas y seguir andando.


Abrir espacios. Si tengo que definir esta época es la época de los espacios: cerrados, abiertos, virtuales, físicos, plagados de imágenes, a oscuras, plagados de sonidos, introspectivos, solitarios, individuales, comunitarios.

Espacios con todas sus características.


Justamente el mes pasado en un taller que se realizó en un encuentro acerca de la música contemporánea, las sonoridades y la tecnología II Encuentro UNLa. Contemporánea 2016 – Música y Medios con alumnos de la Universidad Nacional de Lanús;  hablaba justamente del espacio, de la sensación de espacialidad, del espacio en el sonido y el significado.

Cómo habitamos ese espacio y como a su vez el espacio nos habita. Cómo las tecnologías redefinen nuestra percepción del espacio.

Aquí una obra de Luciano Giambastiani llamada “Impurita” 

https://soundcloud.com/lucianogiambastiani/impuritia

¿Qué espacios decidimos abrir todos los días? De esto quizás depende todo un trabajo, toda una vida, todo un camino.

No es fácil abrir espacios, aunque parezca simple. Los espacios nos definen por completo, no sólo el espacio físico que habitamos ahora, sino los espacios que están presentes en nuestro ADN.


Los primeros homo sapiens que aparecieron en África hacían sonidos, se comunicaban entre ellos en espacios abiertos. Los primeros homo sapiens europeos lo hacían dentro de cuevas y cavernas.

Las tribus africanas hasta el día de hoy realizan cantos y danzas al aire libre. Europa se distingue por la arquitectura de sus inmensas catedrales, lugar donde nació la música polifónica.


Los espacios nos cambian, cambian nuestras percepciones. A su vez nosotros transformamos el espacio, con el sólo hecho de habitarlo.