1.
Las normas que
se plantean a continuación se derivan del análisis básico de los procesos de percepción y de procesamiento de los estímulos que llegan al sistema nervioso central, a través del periférico sensorial, desde el exterior.
Se refieren a
la producción de documentos audiovisuales de información cultural y científica y a aquellos diseñados para procesos de aprendizaje. Su validez es relativa y es posible vulnerarlas si ello fuera necesario, pero no por ignorancia, sino como decisión productiva deliberada.
Para que estas
normas no sean, simplemente, un conjunto de recetas y ya que consideramos que no hay nada más práctico que una buena teoría, los párrafos iniciales servirán de fundamento de la propuesta.
2.
El cerebro, responsable de nuestra conciencia, entendida como el mapa que se establece a nivel de circuitos neuronales de nuestro conocimiento de nosotros mismos y del mundo exterior, no es más que el 2 o 3 por ciento de nuestra masa corporal. Pero recibe el 25% de toda la sangre que bombea el corazón y consume el 23% de toda la energía que consume el cuerpo humano. Los 900.000 millones de neuronas, que se vinculan entre sí mediante sinapsis –hasta diez mil por neurona- se agrupan en redes de diversos tipos. Según Bunge las redes comprometidas son las encargadas de todas las funciones básicas, biológicas, dedicadas a la supervivencia. Las redes denominadas plásticas son las encargadas, entre varias otras funciones, de los procesos perceptivos y de aprendizaje.
Muchas de estas
redes tienen que ser activadas a temprana edad. De no hacerlo así corremos el riesgo de que, en función de la economía de energía y esfuerzos, las redes no estimuladas hasta los tres a cinco años de edad sean subsumidas y sus neuronas desaparezcan.
El cerebro opera incesantemente, con elevado consumo de energía, y por ello todo elemento que produzca fatiga o que perturbe su operación será un enemigo del aprendizaje. Esto sin ignorar que para que se produzca un proceso de aprendizaje eficiente necesitamos, en primer lugar, una actitud afectiva positiva para dicho aprendizaje. Si no se da dicha actitud, aparece de inmediato el bloqueo del aprendizaje.
Cuando a los
terminales nerviosos que nos interesan, los de la vista y del oído, llegan estímulos provenientes del exterior, dichos estímulos son procesados por diversas redes, a veces en forma redundante, para llegar a transformar esos estímulos en nuevas informaciones o conceptos. Este procesamiento implica el establecimiento de nuevos y numerosos contactos sinápticos al interior de una red y entre diversas redes. Además implica la aparición de señales nerviosas que circulan por las neuronas y el consumo de neurotransmisores en los contactos intersinápticos. Estos procesos consumen energía y pueden producir fatiga. En otra parte veremos los complejos procesos que van desde el estímulo al concepto.
3.
Nos interesa aquí recordar que, cuando a un mismo terminal nervioso sensorial llegan diversos estímulos, todos son procesados de la misma forma, hasta que el neocortex –destino final de todos los procesamientos- reconoce los estímulos que conducen información y los diferencia de los que no la conducen. Estos últimos son lo que en la teoría de la comunicación se denominan “ruido”. Cuando el cerebro determina que ciertos estímulos son ruido, desarma todos los contactos sinápticos que estableció para procesarlos y esto también consume energía. Lo que decimos es que un ruido, o estímulo sin significado, consume más energía que una información; por lo tanto genera más fatiga y dificulta la percepción de nuevos estímulos y el aprendizaje.
4.
En la teoría
de la Información existe un parámetro que puede medirse y que se expresa con una unidad: el decibel o dB. Esta unidad es usada de dos maneras: como unidad para medir la intensidad del volumen sonoro y como medida relativa de la relación señal/ruido. En el primer caso decimos que un susurro alcanza una intensidad de 6 a 8 dB, una conversación normal 30 a 50 dB, el ruido de un motor a explosión 70 a 80 dB, y un cañonazo o la turbina de una avión a reacción al despegar alcanzan a tener entre 90 y 140 dB. Todo sonido con una intensidad superior a los 70 dB es nociva para el sistema auditivo y puede producir la pérdida gradual de la audición. Ello sucede con la mayoría de los operadores de audio en las reuniones festivas o en locales de diversión, de ahí el elevado volumen con que reproducen la música, y sucede también a los que los frecuentan. El segundo significado de la unidad dB expresa la relación señal/ruido en cualquier equipo que procese señales audiovisuales o que sirva para conservarlas. Cuanto mayor es el número de decibeles, tanto mejor es la calidad del equipo o del soporte. Esta unidad es logarítmica, por lo que un incremento de una unidad implica una calidad aproximadamente tres veces mayor que la calidad del dB anterior.
5.
En general la
percepción de los estímulos, tanto visuales como auditivos, en función de la intensidad (medida con instrumentos físicos) tiene un primer umbral, por debajo del cual no existe respuesta del sistema nervioso, el umbral de percepción. A continuación hay una curva de respuesta que indica la intensidad que se percibe en función de la creciente intensidad real. Y un segundo umbral, el del dolor, que indica la saturación del terminal nervioso y la ceguera o la sordera cuando se supera dicho umbral.
Pero, además, la respuesta a los sonidos varía con el tono de los mismos. El sistema nervioso encargado de transformar las variaciones de energía mecánica (sonido) en señales nerviosas y éstas en datos, los datos en información y ésta en preceptos, tiene niveles de percepción diferentes para diferentes frecuencias. La voz humana tiene frecuencias que varían entre 80 y 500 ciclos por segundo en el caso de voces masculinas y entre 140 y 1000 ciclos por segundo en el caso de voces femeninas. Es claro que la respuesta a estas frecuencias es mayor que a los sonidos muy bajos, los de menos de 80 ciclos y los muy altos, que pueden llegar en el caso de la música, en instrumentos como el violín, hasta los 4000 ciclos por segundo. Los infrasonidos, de menos de veinte ciclos, y los ultrasonidos, de más de 20.000 ciclos por segundo, no son percibidos por el oído humano.
En el caso
de los estímulos electromagnéticos que percibimos como luz, y dejamos de lado la tardía respuesta al infrarrojo y al ultravioleta, que son percibidos por la piel como enrojecimiento o tinción, el ojo no tiene la misma sensibilidad a todas las frecuencias, es decir, a todos los colores. Para luces emitidas con la misma intensidad, el ojo percibe como más fuertes las que se encuentran en la zona del anaranjado al rojo y la sensibilidad decrece hacia el color violeta. Esa es la razón por la que todos los indicadores de peligro o riesgo tanto en señales como en ductos están señalizados con colores naranja o rojo. Además, frente a una pantalla existe lo que denominamos “área de visión distinta” determinada de la siguiente forma: 45 grados a cada lado de la perpendicular a la pantalla; dos veces y media el ancho diagonal de la pantalla como distancia mínima de observación; y catorce veces el ancho diagonal de la pantalla como distancia máxima de observación. Todo observador situado en dicha área podrá mirar y ver toda la información que aparece en la pantalla. Para ello se han diseñado las normas de legibilidad. La distancia mínima está dada por la necesidad de que el observador no llegue a percibir las líneas o los pixels que componen la imagen. Para un televisor de 20 pulgadas, esta distancia es del orden de un metro y treinta centímetros. Y la distancia máxima, para el mismo televisor, será de siete metros. El ángulo máximo a cada lado de la perpendicular a la pantalla está determinado por dos factores: La necesidad de que las figuras geométricas no aparezcan deformadas (que un círculo parezca una elipse o un cuadrado sea visto como un rectángulo); y la disminución de la luminosidad de la pantalla cuando nos alejamos de la perpendicular. Esto vale, en particular, para las más modernas pantallas de plasma o LCD.
6.
Las señales nerviosas, que en última instancia son diferencias de potencial equiparables a una corriente eléctrica, viajan a una velocidad de unos 100 metros por segundo. El uso de neurotransmisores para conectar entre si las neuronas requiere reponerlos; debido a ello una neurona o un contacto sináptico no puede transmitir más de 30 impulsos por segundo. Cuando la cantidad de estímulos que debe procesar una red neuronal es muy elevada decimos que la densidad informativa es muy alta. Si la densidad es muy alta es posible que se produzca un bloqueo en la percepción o en el procesamiento y que se pierdan estímulos significativos para la construcción de la información o el precepto que representan. Además, el incremento de la densidad produce fatiga y la fatiga es un obstáculo para la comprensión y el aprendizaje. Podemos definir la densidad mediante una fórmula muy simple: es una fracción en cuyo numerador encontramos
Q, N, R,
P, Ab, y N y en el denominador T, Re, C, M, y Pr. Q es la cantidad de información del mensaje; N es lo nuevo que los contenidos del mensaje son para aquel al cual lo dirigimos; R es el nivel de ruido incorporado al mensaje; P es la polisemia de los signos que componen el mensaje, Ab es el nivel de abstracción de los contenidos, Pr es la proximidad que tiene la nueva información con otras ya existentes y C es la calidad comunicativa del mensaje, tema sobre el que versa el resto de este documento; T es la duración del mensaje y Re es el nivel de reiteración de los contenidos del mismo, M es la monosemia de los signos. Entendemos que reiteración es diferente de redundancia, ya que la primera consiste en rehacer el mensaje usando códigos y estructura de relato diferentes, pero relativos al mismo contenido, en tanto que la redundancia es la simple repetición.
7.
Vamos a ver
ahora el parámetro C, Calidad, que encontramos en la fórmula de la densidad informativa.
Los elementos de Calidad que se analizan o exponen a continuación son válidos, en última instancia, para cualquier tipo de mensaje, sin dependencia del tipo de soporte o tratamiento. Es decir, tienen uso tanto en la producción de mensajes audiovisuales, video, cine o televisión, como en la de mensajes gráfico-literarios con soportes diferentes.
El primer elemento de calidad reside en el uso de los códigos, verbales o icónicos, para la construcción del mensaje. Debemos utilizar, al menos en las etapas iniciales del mensaje, códigos compartidos con el interlocutor para, gradualmente y en función de las necesidades pedagógicas, introducir los nuevos códigos que forman parte de la enseñanza y deben ser parte del aprendizaje. Si iniciamos nuestro mensaje con códigos que no son familiares para el destinatario, estaremos entrando en la práctica de lo que hemos bautizado como “terrorismo académico”. Lo mismo sucede con el nivel de tratamiento de los contenidos: debemos partir con el nivel de los interlocutores para, gradual y paulatinamente, elevarlo hasta el que requiere el proceso de aprendizaje. Otro tanto podemos decir del orden o estructura de relato del mensaje: debemos aproximarnos todo lo posible al orden de discurso más familiar y pertinente para el destinatario. Estos elementos tienen que ver, o forman parte del concepto N, novedad, que se localiza en el numerador de la fracción. Como vemos los criterios de calidad se establecen en función del otro, del interlocutor. Es decir, salimos del sedicente modelo teórico de comunicación, Emisor-Medio-Receptor, que en realidad es un modelo de información, tal como lo definieron inicialmente Shannon, Turing, Von Neumann, Wiener y otros y operamos con un modelo de comunicación real: Interlocutor-Medio-Interlocutor. En este modelo el comunicador se localiza junto al medio y genera mensajes que relacionan al interlocutor minoritario, decisor político o científico-técnico, con el interlocutor mayoritario, o sujeto de desarrollo.
8.
Veamos ahora las Normas de Producción para la pista de video, la de audio y la correlación entre ambas.
- Selección. El ojo humano, más bien la combinación de ambos, mira un ángulo de aproximadamente 180 por 110 grados. Pero ve un ángulo de cinco grados que es la imagen proyectada en la fóvea, punto de la retina con mayor densidad de bastones, sensibles al color, pero no tanto a la luminosidad. El objetivo de la cámara no diferencia entre mirar y ver: ve todo lo que mira. Y el ángulo que abarca varía entre 35 grados para un granangular (menos para un “ojo de pescado”) y 4 a 5
grados para un teleobjetivo. Un punto intermedio, que depende de la distancia focal y del tamaño de la emulsión fotosensible, reproduce los relieves o perspectiva de manera muy similar a cómo la percibimos a ojo desnudo. Definimos el área abarcada por la toma como “plano” y existe una variada nomenclatura de la cual extraemos la que resulta eficiente para nuestros propósitos: Plano de Detalle, PD; Primer Plano, PP; Plano Medio, PM; Plano Entero, PE; y Plano General, PG. El área abarcada por cada uno de los planos tiene como referencia el cuerpo humano, desde un ojo o mentón hasta el sujeto entero en un entorno mucho mayor que él. Debido al hecho de que, en general, el objetivo opera como si fuera el ojo del observador, el plano parece indicar la distancia entre el sujeto u objeto que abarca el plano y el observador de la imagen. En el caso de la toma denominada “subjetiva”, el plano parece indicar la distancia entre el que mira y ve y lo que mira y ve. Determinamos el plano mediante la distancia focal del objetivo y la distancia entre la cámara y el sujeto u objeto que registramos. De más está decir que cuando realizamos animaciones, determinamos el plano por las dimensiones del dibujo que compone la animación. Cuando en el espacio seleccionado por el plano aparece más información de la necesaria para informar del contenido, tenemos “ruido por exceso”, ya que el cerebro tiene que analizar toda la información mostrada para decidir la que tiene valor informativo y la que no lo tiene. Cuando en el plano elegido falta algún elemento que conlleva información, el cerebro dedica un esfuerzo adicional a tratar de reconstruir los elementos faltantes; estamos en presencia de un “ruido por defecto”. Ambos tipos de ruido, que se encuentran en el numerador de la fracción que expresa la densidad, la incrementan y, por lo tanto, incrementan también la fatiga y reducen el aprendizaje.
- Discriminación. Llamamos encuadre a la relación que guardan entre si los objetos y sujetos abarcados por el plano. Establecemos el encuadre primeramente a través de la selección y, a continuación, mediante la posición y altura de cámara, la distancia focal del objetivo y los movimientos de cámara (barridos horizontal y vertical y corridas en el sentido y dirección elegidos). Parte sustantiva de la discriminación es la puesta en foco. Habitualmente, a ojo desnudo, se realiza un proceso de modificación de la curvatura del cristalino para que la imagen que nos interesa se proyecte nítida sobre la retina. Los sujetos u objetos que se encuentran antes o detrás del punto de enfoque, o interés, quedan desenfocados. Eso es interpretado por el cerebro como que son elementos carentes de interés. Cuando en la imagen construida introducimos elementos desenfocados, la lectura es equivalente: esos elementos carecen de interés. De ahí la necesidad de un buen enfoque como parte del encuadre. Cuando operamos con una “realidad producida”, como es el caso de la ficción o documentos de autoexpresión artística, podemos manipular todos los elementos que van a conformar la imagen y podemos controlar fácilmente el foco. Pero si vamos a trabajar con “realidad reproducida”, como es el caso del documental, el foco es un elemento importante de la discriminación y no siempre resulta fácil lograrlo y mantenerlo. Los nuevos sensores, (CCD) de alta sensibilidad, y la incorporación de los obturadores variables en las cámaras, nos permiten operar sobre la profundidad de campo y mejorar las posibilidades de tener en foco lo que nos interesa. En el caso de las animaciones, es posible operar creando desenfoques mediante diversos recursos y obtener así los mismos resultados que en los registros de la realidad.
- Contrastes. El sistema de visión humana percibe básicamente las diferencias de intensidad luminosa o de color, es decir, percibe contrastes. Todos los sistemas de supervivencia basados en la capacidad mimética, en animales tan diferentes como camaleones o militares, se fundamentan en este hecho. Un sujeto o un objeto con el mismo color que el fondo en que se encuentra, queda enmascarado y es difícil de percibir. Dado que el color es percibido por los conos, que tienen bajo nivel de sensibilidad cuando la luz es escasa, información reiterada por la sabiduría popular que nos dice “De noche todos los gatos son pardos”, necesitamos niveles básicos de luz para tener imágenes claramente perceptibles. Por ello, en los registros en exteriores, siempre y cuando sea posible, es conveniente tener la fuente de luz a las espaldas, el sujeto enfrente y distanciado del fondo y éste, si es posible, debe ser de colores oscuros o estar en la oscuridad y poco iluminado. De esta forma lograremos contrastes que facilitarán la lectura de la imagen y reducirán la fatiga; el sujeto refleja luz y el fondo no, lo que es interpretado por el sistema nervioso como lo que es importante y lo que no tiene importancia. Algunos de los equipos que usamos tienen ajustes automáticos de diversos tipos. En algunos casos se puede reducir lo negativo de un contraluz, para percibir un rostro, mediante ajustes en la cámara. En otros existe un sistema que nos dice si estamos registrando con los valores de luminosidad adecuados. Y es necesario conocer los datos de la cámara si vamos a operar con diafragma automático para estar seguros de que aquello que nos interesa ha sido registrado con los valores adecuados o ha sido opacado por algo de mayor luminosidad, pero sin importancia, y a cuyo nivel se ajustó el diafragma.
- Márgenes de seguridad. Debemos ser cuidadosos con dos tipos de márgenes de seguridad: los espaciales y los temporales. Los primeros tienen que ver con el hecho de que en la pantalla en la que se observará el programa, a menos que sea de plasma o LCD, el pincel electrónico que reproduce la imagen tiene siempre un factor de sobreexploración (over scanning), es decir, la imagen que produce el pincel queda obstruida por la curvatura del vidrio del tubo o por el marco en que se encuentra alojado. Por lo tanto debemos asegurar que toda la información sustantiva debe encontrarse en un rectángulo ligeramente menor que el que observamos en el visor. En una época el margen era del 5 al 8 por ciento. En la actualidad y debido a la mejor calidad de los equipos, no se requiere más del dos por ciento, tanto en la vertical como en la horizontal. Debe formar parte de su experiencia como televidentes un programa subtitulado en el que no es posible leer ni la primera ni la última sílabas de los títulos. Por otra parte, el proceso de edición o montaje, requiere de tomas que permitan un cierto nivel de flexibilidad para elegir el punto de corte o el momento de los fundidos. Por ello se recomienda iniciar la toma con la cámara inmóvil, registrar cuatro a seis segundos y, recién después iniciar la toma que programamos en el guión. Lo mismo se debe hacer al finalizar la toma, sobre todo cuando hay movimiento de cámara.
- Tratamiento del color. Ya vimos que el ojo normal responde con más intensidad a la gama de colores situada entre el naranja y el rojo. Pero es necesario advertir que, según los investigadores, entre el 15 y el 18% de la población padece algún grado de acromatopsia, más conocida como daltonismo. Es decir, la incapacidad de percibir ciertos colores como tales y percibirlos como grados variables de gris. Además, como debe haber observado cualquiera al ver un programa de televisión, los tonos saturados, y en particular el rojo, plantean problemas de reproducción. Un objeto o vestimenta de color rojo saturado dejará siempre bordes borrosos y contagiará las imágenes próximas haciendo perder nitidez a sus formas. Esta falta de nitidez es procesada del mismo modo que el desenfoque. De ahí la conveniencia de alternar colores para producir contrastes en la escala de grises equivalente, y la inconveniencia de utilizar colores de tono saturado, en especial el rojo. Estos problemas no siempre son perceptibles cuando se trabaja en estudio, generalmente con equipos reproductores de muy alta calidad, pero si son notables cuando observamos el mensaje audiovisual en las condiciones que son habituales en el destinatario del mensaje y con un equipo doméstico cuya calidad de reproducción no es tan elevada. Por todo ello es conveniente trabajar con tonos pastel, no saturados, y elegir bien los colores que vamos a poner en contacto.
- Relación cromática forma/fondo. Ya hemos visto que es conveniente que el objeto o sujeto que creemos es importante para la comprensión del mensaje, debe emitir energía, electromagnética –luz- o mecánica –sonido- de mayor intensidad que el fondo sobre el cual se localiza. En el caso de los signos gráficos, es conveniente utilizar signos de color claro sobre fondos oscuros. Con ello el estímulo acompaña a la información, reducimos la fatiga perceptiva y facilitamos la comprensión del mensaje. Pero debido al tratamiento electrónico y a las características de la percepción humana, no es conveniente que los contrastes sean excesivos. De ninguna manera debemos invertir el orden habitual de los textos y presentar en pantalla signos blancos sobre fondo negro. Las relaciones más adecuadas son las siguientes:
-
Símbolo
Fondo
Amarillo claro
Gris medio; azul oscuro
Verde claro
Gris medio; naranja pálido
Naranja
Gris medio; azul oscuro
Azul pálido
Rojo oscuro; gris oscuro
Amarillo
Verde oscuro; rojo oscuro
Blanco
Azul; verde; gris medio; rojo.
Claro está que si escribimos un texto para computadora y con la posibilidad de impresión, debemos volver al negro sobre blanco, so pena de arruinar al operador, ya que en las impresoras de documentos ligadas a computadoras, cuyo costo es equivalente a no más de tres o cuatro cartuchos de tinta, entintar un fondo para ver letras claras puede elevar en exceso los costos de impresión.
Con frecuencia, sobre todo cuando se realizan subtítulos, o bien el fondo es abigarrado y de colores e intensidades distintas, o bien se realiza un barrido que lleva a que los títulos pasen sobre colores diferentes. En algunos casos el color del fondo puede ser igual o parecido al del signo. En estos casos se procede a dotar a los signos de un reborde oscuro, de tal forma que será distinguible sea cual sea el fondo sobre el que se presenta.
- Signos alfanuméricos. Aquí debemos tomar en cuenta que se dan dos tipos diferentes de relación del o los observadores con la pantalla en la cual verán los símbolos. En el caso de la computadora la relación, en general, es unívoca: una pantalla y un observador. Pero en el caso de la televisión no es así. En general tenemos hasta ocho personas en el entorno familiar observando la pantalla. Y si nos referimos a procesos de enseñanza para el aprendizaje, como es el caso de la capacitación mediante paquetes pedagógicos multimediales, encontramos hasta veinte observadores situados en el “área de visión distinta” frente a cada monitor. Para este último caso, la densidad de signos está limitada: no más de ocho a diez líneas, con no más de 18 a 22 signos por línea. De esta forma podemos estar seguros de que hasta el observador más lejano puede percibir claramente los signos. En el caso de la pantalla del computador, la cantidad de lineas y de signos por línea es, desde luego, bastante mayor. Pero de todas formas el tipo de letra nunca debe ser inferior a 12 para reducir la fatiga de lectura. En el caso de uso de monitores de proyección, o cañones (o data show) la cantidad de signos se establece en función de las dimensiones de la sala en la cual se observará el mensaje. Con excesiva frecuencia se opera con letras negras sobre fondo blanco y se colocan hasta 20 ó 30 líneas, con lo cual la legibilidad se ve seriamente comprometida. El espaciado entre líneas debe ser capaz de evitar que los rasgos inferiores de un signo lleguen a contactar los rasgos superiores del signo de la línea inmediatamente inferior. Es claro que debemos elegir signos con bastante cuerpo y, desde luego y pese a lo que afirman algunos, hemos constatado y medido la legibilidad de los tipos. La letra sans sherif es la más legible, tipo Arial, Futura o Monaco, mejor aún
Charcoal o Gadget, con más cuerpo, en tanto que en el otro extremo encontramos la letra gótica, o la quen usamos ahora cuyo nivel de legibilidad es escaso. Para mantener una densidad adecuada, los textos deben permanecer en pantalla tres veces el lapso necesario para una lectura tranquila. De esa manera aseguramos la legibilidad incluso para un observador con escaso hábito de lectura. Cuando los signos aparecen sobreimpresos sobre otras imágenes, puede suceder que el color del signo sea igual al del fondo, con lo cual resultará ilegible. Para evitar este resultado podemos dar a los signos claros un reborde oscuro, con lo que aseguramos su legibilidad en cualquier circunstancia.
- Componentes de la pista de audio. Seguimos usando el término pista, heredado de otros tiempos, aunque en la actualidad y más aún con la digitalización el término ha perdido vigencia y sería correcto usar la palabra componente. En todo caso, los componentes de este componente, valga la redundancia, son cinco: Palabra, Música, Sonido Ambiente, Silencio y Ruido. La palabra puede encontrarse como “locución fuera”, monólogo, diálogo o conversación. La música puede provenir de, y estar denunciada por, la imagen, o bien puede ser música construida especialmente para el programa y no detectar su origen en la pantalla. El sonido ambiente es un aporte fundamental a la credibilidad de las imágenes y puede, en algunos casos, incluir el ruido cuando su fuente aparece en la imagen. El silencio es un componente muy importante, y no implica el corte total o la desaparición de la pista de audio, sino la reducción al nivel mínimo perceptible, en torno a los 2-4 dB, de todos y cualquiera de los componentes sonoros. El silencio total es interpretado por el observador del programa como una falla técnica. El silencio permite concentrar la atención en la imagen cuando ésta muestra algún elemento muy significativo o totalmente novedoso. Permite que se concentre la atención en la pista de video. Recuerden que cuando quieren oír un sonido muy débil, se tapan o cierran los ojos, y cuando están frente a una imagen que requiere mucha atención piden silencio a los que están alrededor. Lo que se busca con el uso del silencio, es concentrar la operación de las redes neuronales que se encargan de la visión en el procesamiento de los estímulos que se reciben y no sobrecargar al cerebro con otros procesamientos en paralelo. El ruido, como ya dijimos, es todo estímulo que no lleva información, pero cuyo procesamiento consume mucha energía. Es necesario reducir el ruido al mínimo durante todas las etapas de producción de un programa, tanto el ruido sonoro como el visual. De más está decir que el acoplamiento entre el micrófono y el parlante, que produce una reverberación creciente y muy molesta, debe ser evitado. Al mismo tiempo, los niveles de registro del audio deben ser los más elevados que se pueda, sin llegar a la distorsión, ya que es fácil reducir un nivel sonoro durante el procesamiento del programa, pero todo intento de elevar el nivel de un registro inicial débil, introducirá ruido electrónico. Todos los equipos llamados profesionales y gran parte de los que no lo son tienen indicadores del nivel relativo del registro sonoro. A veces son decibelímetros, otras veces se llaman vúmetros, pero todos ellos tienen una aguja o un marcador que oscila desde una parte negra, de nivel mínimo, a otra verde, de nivel adecuado, para llegar al extremo rojo (de peligro) en el cual el volumen de registro es excesivo y presentará distorsiones. El registro debe realizarse de tal forma que la aguja o nivel indicador llegue al rojo solamente en los momentos de máximo volumen y durante lapsos muy breves. De nuevo no hace falta insistir en que una locución, explícita o fuera, excesivamente rápida o que no respete los rasgos suprasegmentales del destinatario, introduce ruido. El uso de códigos verbales nuevos y desconocidos, sin la debida introducción y explicación, son otra fuente de ruido sonoro, esta vez de tipo cultural o pedagógico.
- Tratamiento de la palabra. En un programa audiovisual la palabra tiene un papel bien definido y claro. Constituye el primer nivel de abstracción del mensaje y, dejando de lado la reproducción de las que hemos denominado “conductas sociales”, la palabra es un primer nivel de síntesis de los contenidos. La palabra alude, hace referencia, a aquellos elementos que la imagen no puede o debe mostrar. En el caso del género ficción, sería triste o ridículo escuchar a uno de los protagonistas decir “te amo apasionadamente y con locura”. Eso lo dice la imagen, la palabra se limita a las dos iniciales y el resto es sugerido por lo que se muestra (por lo general, una enorme cantidad de siliconas). La palabra puede ser redundante con lo que dice la imagen, y esta redundancia a veces es pedagógica, ya que estimulamos terminales nerviosos diferentes con la misma información. Tanto es así que en un programa pedagógico podemos llevar la reiteración hasta el nivel de sobreimpresión de la palabra que se oye y que redunda lo que se ve. La palabra puede ser alusiva y, simplemente, recordar o insinuar lo que la imagen nos está diciendo. La palabra puede ser antagónica y decirnos exactamente lo opuesto a lo que la imagen dice: el resultado puede ser hilarante o dramático, dependiendo de cómo la usemos. Pero lo que no puede ser la palabra, es la lectura de un texto escrito. Cuando observamos esas “caras que hablan” que son la mayoría de los locutores de los programas informativos, notamos que generan incredulidad, porque la forma en que hablan no es la forma coloquial en que nos comunicamos cotidianamente. Están leyendo un texto y no diciendo lo que quieren informar. Es por ello que locutores como Guillier o Paulsen tienen la credibilidad que les otorga esa especie de diálogo con el televidente.
Reiteramos que estas normas de producción, que tienen total vigencia para programas audiovisuales de enseñanza “sensu stricto” no la tienen necesariamente en programas de otros géneros y que, por lo tanto, pueden ser vulneradas si las necesidades expresivas así lo requieren. Pero lo que ningún comunicador audiovisual puede permitirse es vulnerarlas por pura y simple ignorancia. Que es lo que sucede habitualmente.