[Docentes del Seminario de Investigación Audiocreativa del ciclo superior de la Licenciatura y Profesorado en Comunicación Social, FCPolit, UNR]
Hace apenas 15 años, en nuestras carreras de comunicación, seguíamos pensando en los medios de comunicación tal como se desarrollaron en el siglo XX: la prensa escrita, la radio y la televisión eran, desde McLuhan, extensiones del hombre, de manera tal que la radio, por ejemplo, era una extensión del oído. Desde los estudios de comunicación también pensábamos la recepción y nos preguntábamos sobre los lectores, los oyentes y los televidentes. Pensábamos en los grandes medios y teníamos de un lado a los productores de contenidos (emisión) y del otro a los consumidores de esos contenidos (recepción). Pero con internet todo cambió.
Si pensamos en el modo en que nos movemos y actuamos en el entorno actual ya no tenemos productores por un lado y oyentes, televidentes y lectores por del otro porque cada persona con un aparato en su mano: habla, escucha, lee, mira, escribe, dibuja, diseña, juega, pregunta, aprende, enseña, trabaja, produce, crea, consume, graba, edita, transmite, publica, selecciona, intercambia, comparte, reacciona, opina, comenta, critica, informa, se informa, se orienta, se ubica, saca fotos, charla, discute, pelea, busca, compra, paga, siente, activa, bloquea, instala, hace, deshace.
Cuando la televisión era omnipresente se empezó a hablar del homo videns, esa especie que estaba reemplazando al homo sapiens. ¿Podremos hablar del homo multitasking?
Veamos el siguiente video:
Thru you es una serie de vídeos musicales que remezclan vídeos encontrados en la red.
¿Quién produce esto? ¿Cada uno de los que grabó su video casero? ¿El que toma esos videos, como un artista del reciclaje, y los mezcla, los monta y hace otra cosa? Hay algunos que hablan, al respecto, del “homo sampler”. Pero ya volveremos sobre esto, ahora vamos a retomar la idea de todo lo que hacemos/consumimos/producimos a través de nuestros teléfonos u otro dispositivo con conexión a internet.
El escritor Jorge Carrión @jorgecarrion21 hizo un balance cultural de la década 2010-2019, ahí toma diez aspectos que caracterizaron nuestros últimos diez años, aspectos inéditos, nuevas realidades en las que estamos inmersos sin darnos cuenta, porque ahí estamos, porque constituyen nuestro entorno. No nos damos cuenta porque somos como el pez que no toma conciencia del agua en que se mueve. Ahora vamos a detenernos en el aspecto número cinco:
5. OBJETOS CULTURALES VAGAMENTE IDENTIFICADOS
Instagram, YouTube, Facebook, los teléfonos móviles y otros instrumentos de comunicación han generado los formatos de lo que llamo los OCVI (Objetos Culturales Vagamente Identificados). Se trata de vídeos, postfotos, bots, stories, apps, experiencias inmersivas, memes, listas de reproducción, perfiles, hilos o canales, producidos por youtubers, instagramers, tuiteros, storytellers, diseñadores gráficos, artistas del remix o creadores digitales que han creado sus propios ecosistemas y sus propias mitologías. Del Rubius –que creó su canal actual de YouTube en el 2011 y a finales del 2019 cuenta con 36 millones de subscriptores– no se espera cine ni televisión, sino vídeos de aficionado de contenido juguetón y autobiográfico, a su manera experimentales; de Marwan o de Elvira Sastre no se espera poesía, sino textos entre el aliento poético, el aforismo y la autoayuda; de Honest Trailers no se espera crítica cinematográfica de alto nivel, sino un remix irónico e inteligente cuyo objetivo es sobre todo humorístico. Pero la circulación de esos vídeos y de esos textos fotografiados es exponencialmente superior a la del cine, la literatura o la crítica cultural al uso. Son virales y muy influyentes. Joan Fontcuberta lo llamó postfotografía en La furia de las imágenes (Galaxia Gutenberg): esas imágenes que ya no son producidas por la mecánica de la luz y cuyo objetivo no es tanto ser memoria como formar parte de una conversación. También lo podría haber llamado –en concordancia con su propia poética, arqueológica por cierto– efe de foto y de fake. La revolución digital está cambiando la mera ontología del objeto cultural y artístico, la forma de su ser y su razón de ser.
— Comunicólocos 👩🎓👨🎓 (@ComunicolocosOK) March 16, 2020
Acabo de recibir este video por WhatsApp... NO PUEDO MÁS 😂 pic.twitter.com/Wx41F6xXTi
— Comunicólocos 👩🎓👨🎓 (@ComunicolocosOK) March 16, 2020
Los OCVI son virales y muy influyentes. Su objetivo es formar parte de una conversación.
En ese fragmento de Carrión podemos identificar una serie de listas. Veamos cuáles son y cómo las agrupa:
Como decíamos al comenzo ya no hablamos de radio: estamos pensando en algunas de esas producciones que Carrión llama OCVI (Objetos Culturales Vagamente Identificados). Estas nuevas oralidades están enmarcadas en la mediatización, y al lenguaje con el que están hechas lo podemos llamar lenguaje sonoro, aunque también algunos lo llaman audio o lenguaje radiofónico. Y entonces, ¿cómo se llama? Spoiler: no son sólo ruiditos, es un lenguaje con cuatro “ingredientes”, que muchas veces (en el actual entorno mediático) convive con imágenes y palabras escritas.
Con cualquiera de esos nombres, engloba a los mismos elementos: palabra hablada, música, sonidos no articulados (efectos) y silencio. Y nosotros, por ahora, lo vamos a llamar LENGUAJE SONORO.
Esa es la materia prima con la que vamos a trabajar, para pensar, para analizar y para producir.
Palabra, música, efectos sonoros y silencio se conjugan entre sí para dar forma a mensajes sonoros. El mensaje sonoro es la agrupación y combinación significativa de estos elementos expresivos, la superposición de los niveles connotativo y denotativo, la integración de contenido y forma, de lo semántico y lo estético.
Primera característica del lenguaje sonoro: se desarrolla en el tiempo (a diferencia, por ejemplo, de una imagen estática). El mensaje sonoro fundamenta su primera razón de ser en su temporalidad; tiene una estructura secuencial, ininterrumpida, y está constituido por unidades que se suceden unas a las otras en una línea temporal.
Los distintos elementos sonoros se combinan en una serie de yuxtaposiciones lineales en el tiempo y esto se realiza a través del montaje sonoro.
El montaje sonoro o diseño sonoro es la yuxtaposición y superposición de los elementos, dando lugar así a una totalidad, una unidad de sentido mayor. Montamos los elementos secuencialmente (avanza hacia adelante, se desarrolla temporalmente) pero también teniendo en cuenta los planos sonoros (varios elementos suenan al mismo tiempo, hay algunos que suenan más cerca, otros más lejos).
Pensemos en lo que escuchamos en cualquier pieza sonora y audiovisual: nunca escuchamos elementos por separado sino una composición total -que a veces se combinan con otros elementos como imágenes o textos escritos- que constituye una unidad significante. En el cine y las series la banda sonora o soundtrack (la parte “audio” del lenguaje audiovisual) es todo lo que suena: diálogos, sonido ambiente, música, silencios. Es decir, nuestro lenguaje sonoro.
Ahora vamos a categorizar a esos elementos a partir de su uso en piezas audiovisuales. Vamos a ver y a escuchar algunos fragmentos y a “desarmar” el modo en que fueron compuestos.
PALABRA
Dentro del lenguaje sonoro la palabra tiene una importancia fundamental, pero no excluyente. Es un elemento esencial de sentido , es una palabra que no solo dice sino que está vehiculizada por el que la dice, o sea el sujeto hablante: todas las posibilidades expresivas de la voz están presentes y son potencialmente creativas.
La palabra puede ser considerada en dos aspectos: en su aspecto semántico, como portadora de sentido (qué se dice); y en su aspecto acústico, como elemento expresivo (cómo se dice).
⚠️ADVERTENCIA 2: NUNCA DEBEMOS PREOCUPARNOS SÓLO POR LO QUE DECIMOS
Pensemos todos los componentes que están presentes en la palabra hablada: acento, inflexiones, timbre, entonación, expresividad, matices, velocidad, sociolecto, cronolecto, jergas, dialectos. Las palabras suenan más lejos o más cerca, suenan todas juntas o por separado, suena una en primer plano y otras más lejanas, las palabras suenan porque alguien las dice, con más o menos énfasis, más lento o más rápido, dice palabras que está pensando o que alguien escribió para que otro las interprete. Las palabras nunca son sólo lo que dicen.
Esta es una de las escenas iniciales de la serie Narcos, de esta manera conocemos a su protagonista, Pablo Escobar
Hay varias particularidades en torno al idioma de esta serie . Una de las más llamativas es que se decidió que prevalezca el español por sobre el inglés en una producción de distribución internacional, otra es que el casting es casi por completo hispano (hay actores chilenos, argentinos, colombianos, mexicanos, puertorriqueños) y otra es que el actor que interpreta a Escobar, el brasilero Wagner Moura, no sabía hablar español al momento de aceptar el papel.
¿Cómo suena la interpretación de Moura para quienes hablamos español? ¿Cómo sonará para el público norteamericano o anglosajón? ¿Cómo suena para los que conocen el dialecto “paisa” que se habla en la zona de Antioquia donde se crió Pablo Escobar? La palabra nunca es sólo lo que dice, cómo se dice puede cambiarlo todo.
¿Y qué pasa con los idiomas inventados? En el cine hay varios ejemplos, los que se nos ocurren ahora son de películas para niños/jóvenes: en Buscando a Nemo Dori habla cetáceo estirando las vocales de las palabras y modulando sonidos graves con su voz; en Wall-e el personaje sostiene una película completa cambiando la entonación de una sola palabra y en Harry Potter se habla “parsel” un idioma que tiene un seseo que se asocia al sonido de las serpientes.
MÚSICA
La música es uno de los elementos de nuestro lenguaje. Vamos a ver de qué maneras funciona pero, antes de seguir, vamos a dejar en claro qué NO es la música en el lenguaje sonoro. No es un relleno. No es una decoración. No es una “cortinita”.
La música es un componente de este lenguaje que cumple funciones que los otros elementos no cumplen: evoca, sugiere, conmueve, resalta, emociona, cuenta, ambienta, puntualiza, crea imágenes. En el lenguaje sonoro eso lo hace en combinación con los otros elementos, ya vamos a ver de qué maneras. En el lenguaje audiovisual, lo hace junto con las imágenes.
Pensemos en los modos en que se usa la música en el cine o en las series. Aunque decíamos antes que banda sonora es la parte sonora de una pieza audiovisual, se ha extendido el uso de soundtrack para referirse a la música de una película o serie.
En este sentido podemos tener la música cinematográfica o incidental (score), es esa música creada para la película, que va “siguiendo” las alternativas dramáticas y narrativas: se acelera, se ralentiza, se vuelve dulce y emocional en determinadas escenas, genera tensión, crea sintonía con la imagen o aumenta la urgencia más allá de la imagen, intensificando la escena. Como sabemos este tipo de efectos no los logra sólo la música sino en conjunción con todo el diseño sonoro en el que los efectos, el folley y todos los sonidos inarticulados terminan de componer la banda sonora.
Muchas de estas composiciones tienen un leitmotiv que, en los casos más logrados, nos hace pensar en la serie o película con sólo escuchar unos acordes como en Misión imposible (pan pan pan pan piruliiii) Hay muchos reconocidos compositores de música original de películas como Hans Zimmer (Dunkerke, Interestellar, Inception, Batman, El caballero oscuro) o Randy Newman (Marriage story, Toy story, Monster Inc).
También tenemos la canción tema, también compuesta para la película, esas que pueden entrar en los premios Oscar como “mejor canción”:
El cine de los últimos años (así como las series) ha incorporado el conjunto de canciones que el director o realizadores eligen para sus películas. A veces este uso (en el cine de Tarantino es muy evidente) logran asociar una canción de otra época con esa película y resignifican viejas canciones con nuevas versiones, a veces con la original; otras veces producen un contraste entre lo que aparece en la imagen y lo que suena, o producen sentido justamente en la contraposición (de época, de tono, etcétera)
Podemos recordar acá esa escena de El padrino en la que se muestra la venganza de Michael Corleone. Se superponen imágenes de un bautismo, la voz del sacerdote, armas, detalles de los sicarios, primeros planos de un bebé, de un arma, el órgano de la iglesia suena cada vez más fuerte, hombres disparan, hombres caen, sangre, agua bendita y música sacra. En esta escena de John Wick 3 podemos ver y escuchar un concepto similar, quizás como un homenaje a El padrino.
En la serie River, por ejemplo, hay una canción pop que comienza sonando como música objetiva (los protagonistas la escuchan en la radio) para después sonar como si fuera la música incidental de la presentación. Esa canción se vuelve narrativa a lo largo de la serie: los personajes la cantan en un karaoke, la bailan al final pero sólo suena en la cabeza del personaje masculino.
Música objetiva: participa de la acción de forma real. Alguien toca el piano, una banda está tocando, alguien canta en la calle, un personaje pone un disco.
Música subjetiva: genera emociones, muestra el punto de vista o sentimientos de un personaje o de una escena, de una situación particular.
En la siguiente escena de The royal Tenenbaums, por ejemplo, la música “muestra” la relación de los personajes, parte de su historia y va delineando al personaje femenino. (Presten atención a ese silencio total antes de que la música empiece a sonar).
Como veíamos en los ejemplos anteriores, el uso de la música subjetiva es muy diferente dependiendo de los géneros, los estilos, los directores, incluso las épocas y las modas (en el cine clásico la música siempre “acompañaba” a la imagen), y un largo etcétera.
En las piezas sonoras la música (así como los otros componentes) cumple esos roles pero también otros. No podríamos narrar la escena de El padrino con los mismos recursos sonoros que usó el director de la película. Con sonido contamos de otro modo. Podemos organizar el relato a partir de la música, podemos hacer que la música lleve el hilo narrativo. La organización de secuencias, así como la de los planos sonoros está íntimamente relacionada con una acertada utilización de la música en sus diferentes posibilidades como elemento del lenguaje radiofónico. El tiempo, la melodía, el tono, el ritmo se ponen a disposición de la estructura narrativa, permitiéndonos cortes, cambios de “punto de vista”, movimiento espacial, acentuación, “paso en el tiempo”, cambios de planos.
⚠️ADVERTENCIA 3: EN EL LENGUAJE SONORO LA MÚSICA NO VA DE RELLENO
EFECTOS (SONIDOS INARTICULADOS)
Pensemos en algunas de las escenas que vimos antes, por ejemplo, en American Psycho. Había palabras, claro, y música, pero también escuchábamos otras cosas: los pasos de Patrick Bateman, los botones del piloto cuando los abrocha y desabrocha y, obviamente, un hacha y la sangre salpicando. ¿Eran “efectos especiales”, los podríamos llamar así?
Dice Armand Balsebre: “son un conjunto de formas sonoras representadas por sonidos inarticulados o de estructura musical, de fuentes sonoras naturales y/o artificiales, que restituyen objetiva y subjetivamente la realidad construyendo una imagen.”
Desde un punto de vista técnico, es posible distinguir dos tipos de efectos: aquellos que son captados en forma directa del mundo real y aquellos que son creados por especialistas en laboratorios de sonido. Una segunda clasificación de los efectos es la que, siguiendo a Beltrán Moner, permite distinguir entre:
Efectos objetivos: como con la música, son aquellos sonidos que están sonando en una escena (la calle, los autos, las personas hablando en un bar, los papeles que el protagonista está revolviendo, el río y los pájaros). O como en esta escena de El Marginal, donde escuchamos un televisor prendido, un botellazo, fuego, gritos, tiros y sirenas:
Efectos subjetivos: sonidos que, sin tener una referencia real, son creados para generar una situación anímica, un sentimiento, una atmósfera, el clímax de una escena, como el reloj sonando en la banda sonora de Dunkerque o las hormigas que se comen el helado que Saul Goodman, personaje de Better call Saul, dejó caer cuando toma decisión que lo cambiará todo:
Efectos descriptivos: son esos efectos que se crean para producir sonidos inexistentes, fantásticos o sobrenaturales. De todas maneras no pensemos que se trata sólo de monstruos o extraterrestres: toda la industria del cine y las series está asentada sobre la base de estos efectos creados para que las trompadas suenen de esa manera, los pasos en la oscuridad, los tiros, la comida, etcétera.
En este video se compilan algunos de los sonidos del universo Tarantino, muchos hacen referencia a imaginarios que provienen de otras producciones culturales (como el cómic o el animé) y otros son una marca registrada del director:
Pero en la vida real, cuando alguien aspira el humo de un cigarrillo o pega una patada voladora, no suenan esos ruiditos. ¿O si? Tanto en lenguaje audiovisual como en lenguaje sonoro los realizadores deciden cómo suena su producción, en qué quieren ser más verosímiles, en qué más caricaturescos, en qué más metafóricos, etc. Todos los elementos sonoros de una pieza son registrados o recreados para componer un sentido de la realidad, un mundo sonoro.
Además del tipo de efectos, como en la música, debemos pensar en la funciones que cumplen, para qué los usamos y de qué modo.
Al comienzo de la película Once Upon A Time In Hollywood conocemos a Cliff y lo seguimos hasta su casa. ¿Cómo suena la vida cotidiana de un doble de riesgo que es casi el acompañante terapéutico del actor al que sustituye? Una casa rodante atrás de un autocine en el desierto, grillos afuera y la tele siempre encendida adentro, el perro que ladra y lloriquea, la olla hirviendo en el fuego, la tapa de una lata que deja caer al piso, la comida de perro en primer plano. Podemos seguir, pero todo suena a asco, tele y soledad.
⚠️ADVERTENCIA 4: EN LA REALIZACIÓN NUNCA NADA ES COMO SUENA EN LA REALIDAD.
El comienzo de la película Nymphomaniac de Lars von Trier es sonoro. Escuchamos algunos sonidos ambiguos mientras vemos la pantalla en negro. Segundos más tarde volvemos a escuchar lo mismo pero esta vez viendo la fuente que lo genera, un tacho de basura, unas chapas, estamos en un callejón y hay alguien tirado en el piso. Hay una ambigüedad generada en esa composición, lo que es y lo que puede ser genera inestabilidad en el clima de la escena, que es lo que acompañará a la protagonista a lo largo de toda la película.
Hay un chirrido que acompaña, notas agudas que se parecen al sonido de los videojuegos. Esta es una de las marcas de estilo de las películas de terror de los 80.
SILENCIO
El silencio es el último elemento y cobra sentido en la composición total, no tiene función en sí mismo sino que su función es relacional (recordemos la escena que habíamos visto de The Royal Tenenbaums). El silencio cobra un lugar fundamental, no sólo el silencio material (como los espacios blancos en un libro) sino también como el modo en el que se construye lo no dicho, o lo dicho a medias, como un juego sutil entre el anclaje de las palabras y cierta ambigüedad de los sonidos, del ritmo, de una melodía.
Así como nos detuvimos a analizar cómo usa los efectos de sonido Tarantino, vamos ahora a prestar atención a lo que hace Martin Scorsese con los silencios:
El uso del silencio que hace Scorsese resignifica las escenas. El director se permite hacerlo varias veces y durante varios segundos, lo sostiene y con eso nos incomoda. Es una piña al oído, como en el caso de la película Ragin Bull en la que por más de diez segundos esperamos una trompada. La escena más ruidosa y espectacular de una película suele estar seguida por un silencio que enfatiza el enamoramiento a primera vista, el miedo o la certeza de que la muerte se aproxima. Con el sonido las acciones se nos hacen más tolerables, más dramáticas, más tenebrosas, pero es el silencio el que preparó el terreno para esas emociones.
Como con la música y los efectos, el silencio cumple una función y no se usa siempre de la misma manera:
El silencio puede ser utilizado como un elemento de puntuación, para insertar pausas. Hay silencios objetivos, cuando efectivamente nada suena en la escena. Como en esta escena de Bleu, una de las películas que compone la trilogía de Krzysztof Kieślowski "Trois couleurs":
También hay silencios subjetivos, que nos muestran la perspectiva de un personaje (lo que dejó de escuchar, lo que no puede escuchar). Un ejemplo posible es esta escena de la película Billy Elliot:
Billy deja sus clases de boxeo y empieza a tomar clases de ballet. Lo hace a escondidas de su papá y de su hermano que piensan que hay cosas que son para nenes y otras que son para nenas. La historia transcurre en un pueblo minero de Gran Bretaña a mediados de los 80´s, en el medio de huelgas, despidos y privatizaciones. La música de la película oscila todo el tiempo entre objetiva, subjetiva e incidental. Hay momentos donde marca el ritmo de una escena o montaje, hay momentos en los que el personaje la baila y hay otros donde genera emociones. Pero cuando Billy entra en su casa, el lugar donde está la prohibición, la falta y los problemas, la música queda afuera y aparece el silencio.
El silencio además puede mostrarnos el estado anímico de un personaje y operar de manera subjetiva en la escena.
Benjamin Braddock es el personaje de El graduado, un chico de 21 años que acaba de recibirse y vuelve a la casa de sus padres. Ellos están orgullosos y quieren mostrarse así en su círculo social pero Benjamín sólo quiere estar de vacaciones y no sabe qué quiere hacer de su vida. En una fiesta en su honor, sus padres le regalan un traje para bucear y pretenden que lo muestre a los invitados. Él no quiere estar ahí, no le interesan esas personas ni lo que representan, siente que no forma parte de esa alta sociedad que lo festeja. En esta escena el silencio es clave, por un momento estamos en la cabeza del graduado y a través de sus ojos vemos el exterior como una caricatura ridícula y espasmódica y a través de sus oídos silenciamos las voces que el personaje desea no escuchar para poner en primer plano su propia respiración, su propio pulso.
Por otro lado, hay silencios que cumplen una función expresivo-dramática: sirven para generar tensión, suspenso, intriga, expectación, como en esta escena de Laurence anyways
Laurence es escritor y profesor en una escuela, en el inicio de esta película nos enteramos que decidió vivir como la mujer que siente que es. La transformación es paulatina: maquillaje, accesorios y camisas de seda hasta que un día va al trabajo con tacos y pollera. Al entrar al aula los alumnos hacen un silencio que se sostiene por casi un minuto, la espera es pesada, incómoda, en tiempo real, hasta que una alumna levanta la mano para recordarle en qué página del libro habían quedado en la última clase.
Algo va a pasar y estar en silencio nos ayuda a estar preparados. Sabemos bien que en las películas de terror debemos desconfiar del silencio: lo que viene nos va a hacer saltar de la silla.
El silencio nos ayuda a prestar atención a lo que acabamos de escuchar, o a lo que vendrá. ¿Qué podemos generar si interrumpimos abruptamente uno de los elementos, si deja de sonar la música, si el sonido ambiente desaparece, si no hay voces? ¿Y si de repente no hay nada?
⚠️ADVERTENCIA 5: EL SILENCIO HACE ESCUCHAR MEJOR
El mensaje resultante de la combinación palabra, música, efectos sonoros y silencio adquiere un sentido global superior al sentido autónomo que por sí mismos pueden expresar cada uno de estos elementos en tanto componentes del lenguaje sonoro.
El sentido de cada uno de estos elementos expresivos se ve modificado cuando aparecen ensamblados, cuando hacemos un diseño que combina cada unos de esos elementos y lo ponemos en función de lo que queremos contar.
Hoy no nos detuvimos en esto, pero es importante remarcar el peso que el buen uso de los planos sonoros tiene en esta composición integral.
Prestemos atención a este cortometraje, Cólera, vamos a ver cómo están usados los distintos elementos, cómo están combinados:
Empiezan los títulos introductorios pero la atención va hacia otro lado, ese zumbido, esa mosca que parece estar dentro de la pantalla, en nuestros oídos, molestando. Y sobre el final un chirrido, más metafórico que literal.
Los pasos. Primer plano de esos pasos de una turbamulta humana. Es un hombre en primer plano, sí, pero la imagen y el sonido nos muestran que es sólo el que lleva la delantera de un grupo que marcha a paso firme, enojado. Y no lo sabemos sólo por sus caras. Podemos darnos cuenta de que ese no es el sonido “real” de unas personas caminando sobre ese suelo. El realizador quiere hacernos escuchar la determinación y el enojo con el que caminan. Están al aire libre, también suena el viento.
Empiezan a sonar unas cuerdas, no es una canción, son unas cuerdas que van acompañando la llegada, no sabemos a dónde, algo es inminente.
Se van deteniendo, el hombre empieza a hablar, a gritar y la música permanece igual en ritmo, tiempo e intensidad, pero pasa a segundo plano.
Veamos otro caso, la escena inicial de la serie The End of the F* World, en la que su protagonista se presenta
La escena comienza con música, un silbido, en un plano muy lejano.
Inmediatamente escuchamos la voz del personaje que dice su nombre e inicia un relato de presentación. La música sube y escuchamos la voz de la cantante de la canción y los instrumentos que se suman al silbido. A partir de ese momento esos planos van a intercalarse: cuando el personaje relata la música baja y viceversa.
Escuchamos la freidora, la música continúa, es lo que marca el tono de la presentación. El sonido del aceite burbujeando es un efecto descriptivo, cuando el personaje mete la mano escuchamos, además del sonido de esa acción, una nota metálica y aguda que nos muestra el dolor, operando como un efecto subjetivo.
Los pasos sobre el pasto y el mugido del gato son efectos objetivos: estamos al aire libre, hay alguien que camina, hay un gato. La acción del personaje se presenta con un efecto descriptivo: no lo vemos, pero escuchamos que usa un cuchillo para matarlo.
Unos tiros enumeran la cantidad de animales que mató James, los vemos sobre una mesa en un montaje rítmico en el que se conjugan la voz del personaje, la aparición de los animales y los tiros.
La música vuelve al primer plano y nos acercamos al personaje en escena, ya no se está presentando, lo estamos viendo en la escuela, en el almuerzo, en su vida cotidiana. Lo que nos contó de su pasado ya lo sabemos para comenzar a conocer sus acciones en presente y su plan para el futuro. Las acciones de sus compañeros -como la cachetada que un chico le pega a otro- suenan distorsionadas con efectos subjetivos que nos marcan lo escindido que él está de la realidad que lo rodea. Tampoco escuchamos voces, aunque vemos que hay gente hablando, el silencio es subjetivo.
Alguien se para frente a James, cuando él se saca los auriculares la música se va con ellos y entra el sonido ambiente de la cafetería. Esa persona le habla, después sabremos que ella es Alyssa y que es importante en la historia, la conversación queda en primer plano y el bullicio detrás, conteniendo la escena.
Los distintos elementos sonoros se combinan en una serie de yuxtaposiciones lineales y espaciales en el tiempo y esto se realiza a través del montaje sonoro. En esa yuxtaposición y superposición de los elementos sonoros se compone una totalidad, una unidad de sentido mayor que integra las partes en función del todo.
Para continuar leyendo sobre el montaje, recomendamos la lectura de El Montaje Sonoro como proceso creativo, de la profesora Valeria Miyar.
Rosario, abril 2020
Imagen de portada: Pintura táctil VI de la artista Vico Bueno (2019)