Issuu on Google+

Rumb oa l f ut ur o


Indice de contenidos Tema 1_ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA.....................................................................3 TIPOGRAFÍAS............................................................................................................................3 GRÁFICOS VECTORIALES...........................................................................................................5 GRÁFICOS MAPA DE BITS..........................................................................................................6 ARCHIVOS DE IMÁGENES...........................................................................................................6 IMÁGENES INTERACTIVAS O COMBINADAS EN UNIDADES ESTRUCTURALES ..............................7 LEGIBILIDAD.............................................................................................................................8 ESTRUCTURAS VISUALES Y NARRATIVAS...................................................................................8 VÍNCULOS Y NAVEGACIÓN INTERNA/EXTERNA..........................................................................13

TEMA 2_FUNDAMENTOS NARRATIVOS DEL LENGUAJE MULTIMEDIA..............................15 TIPOLOGÍA DE PLANOS............................................................................................................15 MOVIMIENTOS DE CÁMARA......................................................................................................18 TRANSICIONES........................................................................................................................19 TOMAS....................................................................................................................................21 COMPOSICIÓN Y CÓDIGOS DE REPRESENTACIÓN.....................................................................26 REPRESENTACIÓN DE TIEMPO. RITMO Y EFECTOS EN LA NARRACIÓN......................................29 TRANSFORMACIÓN LITERARIA DE LA INFORMACIÓN: GUIÓN LITERARIO...................................29 DESARROLLO DEL RELATO MULTIMEDIA..................................................................................31 OBJETIVOS EXPRESIVOS E INFORMATIVOS DEL RELATO MULTIMEDIA.......................................32 MODALIDADES NARRATIVAS MULTIMEDIA................................................................................33

Tema 3_SISTEMAS TÉCNICOS AUDIOVISUALES MULTIMEDIA.........................................37 SISTEMAS ANALÓGICOS Y DIGITALES.......................................................................................37 MUESTREO DE SEÑAL.............................................................................................................41 FRECUENCIA DE MUESTREO...................................................................................................41 VENTAJAS DEL PROCESO DIGITAL. Preguntas y respuestas.......................................................52 TIPOS DE PLATAFORMAS INFORMÁTICAS.................................................................................55 INTERCONEXIONADO INTERNO................................................................................................64 INTERCONEXIONADO EXTERNO...............................................................................................65 SOPORTES DE ALMACENAMIENTO DE LA INFORMACIÓN..........................................................70

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 1


PROTOCOLOS DE CONEXIÓN DE AUDIO DIGITAL........................................................................86

TEMA 4_PROCESOS DE REGISTRO Y GRABACIÓN SONORA..............................................91 FORMATOS DE ARCHIVO DE AUDIO...........................................................................................91 EQUIPOS TÉCNICOS DE SONIDO...............................................................................................97

TEMA 5_PROCEDIMIENTOS DE CAPTURA DE AUDIO Y VÍDEO.........................................102 SISTEMA DE DIFUSIÓN STREAMING.......................................................................................102

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 2


Tema 1_ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

TIPOGRAFÍAS

La tipografía es el arte o técnica que trabaja directamente con las letras, números y símbolos. Esto implica el diseño, forma, espacio y características propias de cada letra o carácter. Existe una relación entre la escritura y el habla, dependiendo de la variación de la tipografía es la entonación que se le da a la palabra, si escribes resaltando palabras en negritas, es como si acentuaras la voz a la hora de pronunciarla. Esto le comunica al interlocutor que debe poner especial atención a esa palabra y su contexto; las variaciones en cuanto a tamaños, grosor e inclinación también comunican una idea y le dan diferente importancia a las palabras dentro de un texto.

VARIACIONES DE LA LETRA FINA, REGULAR Y NEGRITA Hay familias tipográficas que cuentan con todas esas variaciones y otras que no. Las negritas normalmente se usan para sobresaltar o dar énfasis a alguna parte del texto.

CAJA ALTA Y BAJA. Caja alta, se refiere a las letras mayúsculas. La mayúscula es la que, en relación a la minúscula, tiene mayor tamaño y por lo general distinta forma. Caja baja, son las letras

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 3


minúsculas, que a diferencia de la mayúscula tiene menor tamaño y también distinta forma. Escribir con mayúsculas un texto, es como si le estuvieras gritando al interlocutor. Es preferible no revolver mayúsculas y minúsculas en un texto, a menos que tenga un objetivo.

TIPOGRAFIA CON RASGO O SERIFA /TIPOGRAFÍA DE PALO SECO

ITÁLICAS Y CURSIVAS Por extensión, se llama cursiva o itálica a todo estilo de escritura en el que las letras están inclinadas.

CONDENSADAS Y EXPANDIDAS. Las condensadas son la versión estrechada de una familia tipográfica, se alteran las proporciones de las partes de cada carácter de forma armoniosa. No es lo mismo una versión condensada que estrechar la letra deformándola horizontalmente. No se debe deformar una tipografía, existen versiones condensadas o expandidas como la Futura.

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 4


INTERLETRAJE También conocido como “tracking” o “kerning”. Es el espacio general entre las letras. En tipografía, se ajusta el espacio entre pares de caracteres para que su legibilidad y equilibrio visual (ritmo) sean óptimos. Un buen interletraje es esencial en una fuente tipográfica bien diseñada. El interletraje óptimo depende bastante de la situación en la que se aplique (cuerpo, color, tipo de fuente) y del criterio tipográfico del diseñador.

INTERLINEADO El espacio vertical entre las líneas de texto se denomina interlineado. El interlineado se mide desde la línea de base de una línea de texto hasta la línea de base de la línea anterior. La línea de base es la línea invisible sobre la que descansa la mayor parte de las letras (las que no presentan rasgos descendentes). La opción de interlineado automático predeterminada define el interlineado en el 120% del tamaño del texto (por ejemplo, asigna un interlineado de 12 puntos para texto de 10 puntos).

GRÁFICOS VECTORIALES

Un gráfico vectorial es una imagen digital formada por objetos geométricos independientes (segmentos, polígonos, arcos, etc.), cada uno de ellos definido por distintos atributos matemáticos de forma, de posición, de color, etc. Por ejemplo un círculo de color rojo quedaría definido por la posición de su centro, su radio, el grosor de línea y su color. El interés principal de los gráficos vectoriales es poder ampliar el tamaño de una imagen a voluntad sin sufrir la pérdida de calidad.

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 5


Todos los ordenadores actuales traducen los gráficos vectoriales a mapas de bits para poder representarlos en pantalla al estar ésta constituida físicamente por píxeles.

GRÁFICOS MAPA DE BITS

Los gráficos en mapa de bits se distinguen de los gráficos vectoriales en que estos últimos representan una imagen a través del uso de objetos geométricos como curvas de Bézier y polígonos, no del simple almacenamiento del color de cada punto en la matriz. El formato de imagen matricial está ampliamente extendido y es el que se suele emplear para tomar fotografías digitales y realizar capturas de vídeo. Para su obtención se usan dispositivos de conversión analógico-digital, tales como escáneres como cámaras digitales. La transformación de un mapa de bits a un formato vectorial se llama vectorización. Este proceso normalmente se lleva a cabo o bien manualmente (calcando el mapa de bits con curvas de Bézier o polígonos vectoriales) o bien con ayuda de un programa específico. El proceso inverso, convertir una imagen vectorial en una imagen de mapa de bits, es mucho más sencillo y se llama rasterización.

ARCHIVOS DE IMÁGENES

IMÁGENES FIJAS Los productos interactivos, donde confluyen elementos de aportan más información sobre la propia imagen, se reafirman en un paso más en la evolución del concepto de comunicación humana, como en su momento lo fue la imprenta, la fotografía o el cine, y son parte esencial en la consolidación de una sociedad cada vez más impregnada por el universo visual y las redes de información. Las nuevas tecnologías de la información y la comunicación han generado un crecimiento acelerado de los contenidos disponibles en redes y en aplicaciones digitales, paralelo a las posibilidades de integración de los diferentes medios y al incremento de las funcionalidades y las prestaciones basadas en la interactividad de las aplicaciones.

Se busca abordar el estudio de la imagen digital desde dos puntos de vista: lo digital como herramienta y lo digital como espacio propio de comunicación visual. El primero

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 6


integra soportes y tecnologías en medios digitales que aporta a las diferentes áreas del diseño visual, no solo en el dominio de software sino también en el entendimiento y apropiación de las tecnologías.

Además con la nueva funcionalidad de este tipo de imágenes se abordan temáticas que exploran nuevas forma de comunicación, y su aportación a los nuevos ámbitos del diseño, principalmente en las tecnologías de creación de multimedia y Web, entendiendo estos como espacios aglutinadores de medios y tecnologías bajo un nuevo parámetro mediado por la característica de la interacción.

IMÁGENES INTERACTIVAS O COMBINADAS EN UNIDADES ESTRUCTURALES

Thinglink en periodismo, la revolución de la imagen interactiva

Las imágenes interactivas reciben más clics y vinculación con la audiencia. Así, se desprende de un informe presentado en octubre por Thinglink, una herramienta que permite añadir textos, enlaces, twits, audio, video y fotos a una imagen. Según el autor del informe, en un momento en que las tasas de clic de banners de publicidad subsisten entre 0,01% y 0,04%, dependiendo de la fuente, Thinglink demuestra una tasa promedio de clics de entre 5,7% y 16%. “Una de las razones es porque transforma una imagen de un objeto en una variedad de opciones de información. Esto produce un nivel de compromiso que ni las imágenes ni los enfoques estándar de contenido pueden ofrecer”, sostiene. Publicadores y editores son conscientes del poder de interacción del contenido multimedia y cada vez más medios de comunicación se apuntan a experimentar con este tipo de herramientas. Como aseguran sus creadores “cuatro de los diez principales editores de periódicos y diez de las cincuenta mejores marcas mundiales utilizan Thinglink para crear y compartir imágenes interactivas”.

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 7


LEGIBILIDAD

Legibilidad es el término empleado en el diseño tipográfico para definir una cualidad deseable en las páginas de los libros, carteles, señales de tráfico o cualquier tipo de palabra. Si decimos de algo que es legible, queremos decir que la gente, a cuya lectura va destinado, puede leerlo claramente. La legibilidad de la tipografía puede variar de acuerdo a la variación, el puntaje, el espacio entre los caracteres e incluso el color.

El diseñador debe buscar un equilibrio entre los elementos que constituyen la interfaz, a fin de poder así hallar un adecuado sentido gráfico de su diseño, lo que a su vez le permitirá conseguir una comunicación eficaz. Debemos tener muy presente que, por principio, nada debe ser superfluo en un diseño, ni excederse en la utilización de elementos por el mero hecho de ponerlos, ya que esto puede producir un excesivo ruido o distracciones que pueden enmascarar el mensaje de la comunicación. Por ejemplo, un sitio web con demasiados elementos animados distrae al usuario olvidándose por un momento de que hay un texto que leer. Una vez asimilada toda la información sobre aquello que quiere comunicar, el diseñador ha de empezar a generar soluciones de diseño adecuadas al propósito. Lo primero que determinará es el área de diseño, es decir, qué tamaño se asignará al espacio del que se dispone para la composición gráfica. Una composición gráfica puede estar formada por muchos o pocos elementos. Puede componerse exclusivamente de la presencia de texto o solo de imágenes; puede poseer grandes espacios en blanco o constituir una combinación equilibrada de elementos gráficos. Pero, en cualquier caso, debe ser adecuada con lo que se quiere comunicar. Por ejemplo, ¿es lo mismo diseñar el programa de un concierto de música clásica que el cartel de un concierto de rock? Y, ¿es lo mismo un portal de venta de ropa que un portal tipo buscador Google?

ESTRUCTURAS VISUALES Y NARRATIVAS

Hacer una composición gráfica es ordenar todos los elementos de nuestro diseño, ya sean texto o ilustraciones, destinados a lograr los objetivos propuestos, es decir, impactar visualmente al público receptor de nuestro mensaje. Aunque no hay ninguna norma específica que garantice el éxito de una composición, sí existen una serie de pautas a las que el diseñador se puede adecuar para obtener soluciones eficaces, todas ellas muy relacionadas con la percepción.

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 8


El diseñador ha de tener un profundo conocimiento de los factores que rigen el fenómeno de la percepción para poder establecer sus composiciones de un modo sólido y fundamentado. Algunos de estos factores son: Componentes psicosomáticos del sistema nervioso: nos facilitan el contacto visual con nuestro mensaje gráfico haciendo uso del mecanismo de percepción llamado vista. Con ella recogemos información visual (percibimos distintas formas, ubicaciones, longitudes de onda de un color, etc.) que luego nuestro cerebro interpreta como contornos, texturas, dimensiones, etc., dotándolas de un significado gráfico definido. Componentes de tipo cultural: influyen en la interpretación que hacemos de los estímulos desde un punto de vista cultural y educacional. Por ejemplo, el color que en Occidente está relacionado con el luto es el negro mientras que en los países orientales este mismo significado se le asigna al color blanco. Experiencias compartidas con el entorno: por ejemplo, conceptos altamente arraigados como: hierba/ verde, azul/cielo, hielo/frío. Todas ellas van constituyendo una serie de dualidades que el hombre va aprendiendo desde su infancia y que, posteriormente, serán utilizadas por él como patrones con los que interpretar y dotar de significado la realidad.

El equilibrio visual Antes de hablar del equilibrio visual es necesario definir dos conceptos previos de mucha importancia: el equilibrio formal y el informal. El equilibrio formal se basa en la bisimetría. Se busca con él un centro óptico dentro del diseño y no tiene por qué coincidir con el centro geométrico de la composición. El punto de equilibrio formal suele estar ubicado un poco por encima del centro geométrico. Una composición que decida seguir este esquema compositivo reflejará estabilidad, calma y estatismo. No supone una composición muy audaz o creatividad, aunque lo que sí asegura es una distribución armónica de los elementos. El equilibrio informal, por el contrario, está altamente cargado de fuerza gráfica y dinamismo. Prescinde por completo de la simetría y el equilibrio se consigue aquí en base a contraponer y contrastar los pesos visuales de los elementos, buscando diferentes densidades, tanto formales como de color, que consigan armonizar visualmente dentro de una asimetría intencionada. Las formas pequeñas poseen menor peso visual que las más grandes. Si, además, la forma de la figura no es regular, su peso aumenta notablemente. Los colores también juegan un papel importante en lo que respeta al peso visual: cuanto más luminosos sean, mayor peso compositivo tendrán. Entre elementos con el mismo tamaño pero colores de diferente intensidad tiene más peso visual el de color intenso. Pero, entre elementos del mismo color, tiene más peso visual el de más tamaño. El último elemento importante de equilibrio es la posición. Dependiendo de dónde se coloquen los elementos se podrá conseguir un ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 9


mayor equilibrio y se apreciarán mejor por parte del usuario. Es evidente (en Occidente), por ejemplo, que los elementos situados en la parte superior de la página tienen más protagonismo que los situados en la parte inferior derecha. En resumen, para conseguir un equilibrio adecuado hay que estar al tanto de todos los factores compositivos que intervienen, tales como el peso, el tamaño y la posición.

La tensión compositiva Lo opuesto al equilibrio desde el punto de vista estructural es la tensión compositiva. La tensión tiene como finalidad dirigir la mirada y conseguir fijar la atención del observador. La tensión se puede conseguir con la combinación de líneas y formas agudas e irregulares. Hay algunas técnicas para provocar la tensión y conseguir captar la atención del usuario. Las principales técnicas son: Técnica sugestiva: consiste en dirigir intencionadamente la atención a un punto determinado utilizando elementos de apoyo. Por ejemplo, imágenes de personas que miran hacia un punto determinado (que sería el punto de interés). Técnica rítmica: basada en la tendencia innata del ojo humano a completar secuencias de elementos (ya sean números, formas, figuras geométricas o colores), agrupando aquellos que poseen formas semejantes.

Color En los entornos gráficos digitales, los colores se forman a partir de tres básicos, el rojo, verde y azul, (RGB, red, green, blue).Generalmente, la intensidad de cada componente se expresa (en diseño web) como un número hexadecimal del 00 al FF (del 0 al 255 en base diez). Por ejemplo, el color rojo se representa como #FF0000, porque tiene toda la intensidad de rojo y nada de verde y azul. Los colores básicos son: #FF0000 – Rojo ; #00FF00 – Verde ; #0000FF – Azul Otros colores son:

#FFFFFF – Blanco ;

#000000 – Negro

; #FFFF00 – Amarillo

(mezcla de rojo y verde). Para hacer un color más oscuro se reduce la intensidad del componente, dejando los otros dos iguales. De esta forma, el rojo (#FF0000) se hace más oscuro así: #CC0000, #990000, #660000, #330000, etc. Actualmente, la gran mayoría de entornos que permiten el trabajo con colores ofrecen la equivalencia de los colores en este formato hexadecimal. Aunque parezca lo más sencillo, elegir una combinación de colores apropiada para un diseño es una de las tareas más difíciles. Algunas de las técnicas que pueden emplearse para solucionar una composición son: ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 10


Crear varias combinaciones de colores a partir de un color de referencia. Obtener combinaciones de colores presentes en una imagen ya creada. Útil cuando se quiere sacar una combinación, por ejemplo, de una foto. Obtener el código de un color y el valor hexadecimal (RGB y CMYK) de cualquier color que se ve en tu pantalla. Esto es interesante cuando se desean sacar los colores de, por ejemplo, un sitio web ya creado. Adecuar las imágenes para que satisfagan un patrón de colores concreto. Útil cuando se quiere entonar imágenes que combinen con los colores de la web.

Tipografía Sin duda, los textos son la base de la gran mayoría de los sitios web. Transmitir información mediante letras es lo más común y, por tanto, requiere una especial atención. Cuando se habla en diseño web de fuente se hace referencia a un conjunto de caracteres con un estilo o modelo gráfico particular. En este ámbito, una fuente es sinónimo de tipo de letra. A la hora de manejar fuentes en un sitio web hay que tener en cuenta una serie de limitaciones y características que complican el diseño. Entre esas limitaciones, la más destacada es que las fuentes disponibles en cada sistema operativo son diferentes. Aunque las versiones actuales de los navegadores instalan un conjunto de fuentes similar en Windows, Linux, MacOs, etc., hay que tener en cuenta que existen otros navegadores y otros sistemas operativos, por lo que es importante asegurarnos de que los contenidos textuales tendrán el mismo aspecto con independencia del navegador que interprete el sitio web. Más allá de esto, las otras limitaciones están relacionadas con la adecuación, con lo que se quiere comunicar su legibilidad y, como ocurre con los colores, si son o no combinadas con buen gusto. Las fuentes más comunes y agradables para leer suelen ser las llamadas Sans Serif, destacando entre ellas Verdana, Arial y Helvetica, aunque hay una fuente concreta con ese nombre, Sans Serif, que hace referencia a un tipo genérico. Estas fuentes son adecuadas para mostrar texto en pantallas. Si se desea que los textos se puedan imprimir, es conveniente sustituirlas fuentes anteriores por alguna tipo Serif (con remates en sus extremos), ya que son más legibles en documentos impresos y menos monótonas. Entre estas fuentes tipo Serif (con serifa) destacan las conocidas Times New Roman, Courier y Courier New, aunque también hay una fuente concreta llamada Serif que hace referencia a un tipo genérico.

Iconos La palabra icono se utiliza para designar a las imágenes gráficas generalmente pequeñas y que suelen ser metáforas de las acciones que se pueden hacer. Por lo general, se trata de mantener una relación entre el icono y lo que representa, es decir, ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 11


que lo que se identifica con dicho icono está ligado de alguna manera al icono que lo está representando. Respecto a esto, existen algunos estándares de facto, como por ejemplo, el icono de un disquete sustituye a la orden “guardar”; el de una lupa, a la orden “buscar” y el de una carpeta representa a los archivos. Con estos dibujos evitamos leer textos y obtenemos de una manera más rápida las opciones que nos presentan. Una buena elección de estos iconos es muy importante, puesto que si un usuario no es capaz de determinar su significado no hemos conseguido nuestro propósito de ahorrarle tiempo en la visualización de la página. Un icono debe contener la menor cantidad de detalle posible, únicamente dejar los imprescindibles para la comprensión de su significado. Otro punto importante en la elección de un icono es la estandarización, o mejor dicho, a lo que están acostumbrados los usuarios. Es muy arriesgado innovar con estos temas puesto que los usuarios son muy reticentes a los cambios y tendría que ser muy bueno el icono para que no despiste al usuario. La siguiente figura muestra parte del home del sitio web Amazon, un ejemplo de portal que no usa muchos iconos pero sí usa un icono asociado a la cesta de la compra para conseguir más impacto visual, ayudando al usuario a localizar bien cómo acceder a comprar.

Aunque pueda parecer lo contrario, los iconos tienen sus limitaciones en la web. Estas limitaciones están relacionadas con la falsa creencia de que un icono es interpretado más rápido por un usuario que un texto. A veces, eso no es así y los iconos, lejos de facilitar, complican más la web, al no estar el usuario familiarizado con lo que quiere representar el icono. Esto es debido a que los iconos son siempre subjetivos, están sujetos a la interpretación individual y subjetiva de cada persona a partir de su experiencia. Nunca son totalmente claros e inequívocos y existe riesgo de malentenderlos. Por esta razón no se recomienda usar iconos para operaciones críticas y se recomienda mejor un texto con una fuente adecuada y legible, o una combinación de ambos, como la imagen anterior de Amazon. Según varios estudios, debido a los riesgos de interpretación de los iconos, su adecuado diseño no puede depender únicamente de la inspiración o preferencias de diseñadores o los responsables del sitio. Es necesaria la creación de varios diseños o prototipos para cada icono y la realización de test con usuarios reales en un proceso iterativo de diseño-test-rediseño.

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 12


VÍNCULOS Y NAVEGACIÓN INTERNA/EXTERNA

Navegar por el hiperespacio de la información es un problema, sobre todo en sistemas grandes. Distinguiremos entre navegación interna, esto es, aquella que forma parte del hipertexto, y externa, aquella posibilitada por las herramientas de navegación genéricas, independientes del hipertexto. Combinar sistemas de navegación puede ampliar el rango de tareas para las que pueden utilizarse hipertextos. Analizando los registros de actividad de un servidor y diversos clientes en el Georgia Institute of Technology, han caracterizado la conducta de los usuarios en el WWW en tres categorías: a) Búsqueda directa con una meta final conocida. b) Consulta de fuentes que tienen una alta probabilidad de contener ítems de interés. c) Consulta puramente al azar, guiados por el atractivo de los ítems. La conducta de cada tipo de usuario determina qué facilidades de navegación espera y usará y qué tipo de decisiones de diseño es necesario adoptar.

La "vuelta atrás" y la historia de nodos visitados La vuelta atrás es el mecanismo que permite que un usuario o lector regrese sobre sus propios pasos nodo a nodo (i.e., botón de retroceso) o saltando a cualquier nodo visitado anteriormente (i.e., historia de nodos visitados). Evidentemente el camino recorrido hacia atrás debe poderse recorrerse nuevamente hacia adelante. Todos los browsers WWW incluyen sistemas (activados mediante botones o comandos) de "atrás", "adelante" y "home" o página inicial. Esta facilidad puede entrar en contradicción con el esquema lógico de lectura de hipertextos cuando los usuarios "llegan" a mitad de un hipertexto procedentes de otro servidor de la red. Por eso es necesario implementar a nivel de documento herramientas de navegación en forma de botones o links que definan la navegación deseada por el autor del hipertexto y exigida por la naturaleza del documento.

Visitas guiadas Una visita guiada puede definirse como una secuencia de vínculos entre nodos, una "cadena" de nodos, que se ofrecen al usuario para una lectura secuencial y que proporcionan una visión determinada de un hipertexto. Un hipertexto puede tener varias "visitas guiadas", cada una respondiendo a necesidades diversas de los usuarios (por ejemplo, pueden resolver necesidades informativas típicas de usuarios determinados, etc.). ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 13


La existencia de visitas guiadas no supone la desaparición de los otros vínculos entre nodos, simplemente se destacan o privilegian unos cuantos para cumplir determinado propósito. El usuario siempre puede "dejar" la visita guiada y seguir su propio camino. Un sistema ideal debería permitir al usuario abandonar la visita guiada en un momento determinado y volver a dicho punto cuando lo desee. La visita guiada, sin embargo, no es la solución de todos los problemas de navegación. La visita guiada, en cierta forma, elimina la dimensión hiperespacial retrotrayéndonos a la lectura secuencial.

Diagramas y mapas del espacio hipertextual Los diagramas o mapas parecen recursos adecuados para facilitar la "navegación" por la información. Se trata de una representación esquemática del espacio en el que se mueve el lector, incluso señalándole dónde se encuentra en ese momento y la posibilidad de saltar directamente a otras secciones (mapas sensibles con espacios definidos visualmente como vínculos). Los diagramas o mapas que incluyen sólo grupos de nodos fuertemente relacionados simplifican los mapas (evitando la sobrecarga cognitiva) y facilitan percepciones globales de la estructura general. Los mapas, sin embargo, tienen sus propias dificultades: son costosos de diseñar manualmente si el espacio de la información es grande. De hecho hay un momento en el que dejan de ser aclarativos: si pretendemos incluir todo nodo y todo vínculo.

Landmarks o mojones Otra técnica es distinguir ciertos nodos respecto a los cuales el usuario pueda situarse y ubicar la información. Una metáfora turística nos ayudará a explicar esta técnica: recién llegados a una ciudad desconocida, ciertos edificios o lugares emblemáticos nos sirven para orientarnos y situar otros lugares. Esta técnica forma parte del bagaje del diseñador: uno o varios lugares "clave" desde los que su pueda contemplar y acceder a todo el espacio informativo y a los que se pueda volver desde cualquier sitio con facilidad (la home page, los índices de cada sección, etc.

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 14


• TEMA 2_FUNDAMENTOS NARRATIVOS DEL LENGUAJE MULTIMEDIA

TIPOLOGÍA DE PLANOS

Vamos a analizar en el presente capítulo el proceso que supone pasar de la elección de un plano hasta la configuración de toda una secuencia cinematográfica. Así, comprobaremos que, por orden jerárquico, la agrupación de unas unidades da lugar a otras que, a su vez, conformarán el producto audiovisual final. Podemos definir el plano como la tira continua de película que recoge una cámara desde que se comienza a grabar hasta que se deja de hacerlo. En otras palabras, es toda aquella grabación que surge de un proceso de captura con inicio y final. Antes de pasar a analizar los diferentes tipos de plano, conviene aclarar qué es el encuadre. Se define como un método que empleamos para seleccionar aquello que queremos recoger con la cámara y todo de lo que, en ese momento, prescindimos. Es importante comprender este concepto, pues tiene mucho que ver con el formato de trabajo: no es lo mismo grabar para televisión (formato 1:1,33, al igual que las películas antiguas), en la que predomina el acercamiento de la cámara al objeto, que para cine (formato 1:1,66), terreno en que se busca la espectacularidad con planos panorámicos y bastante más variados. El plano de encuadre, por tanto, será aquel que seleccionemos para recoger una imagen y, al establecer una tipología, siempre tomaremos como referencia la figura humana. PLANO PANORÁMICO También denominado gran plano general o plano general largo, es aquel que encuadra un gran paisaje, único protagonista por encima de cualquier personaje.

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 15


PLANO GENERAL Recoge una imagen amplia y presenta al sujeto mostrando su cuerpo al completo. Permite informar al espectador acerca de las circunstancias contextuales y ambientales de la escena. Suele utilizarse al comienzo de una secuencia narrativa, pues sit��a al espectador y lo coloca en situación. Encontramos dos variantes: plano general largo, que enfatiza el ambiente en que se mueve el personaje, y plano general corto, que destaca la actitud y apariencia corporal de dicho personaje por encima del ambiente. Cuando éste solo encuadra a un sujeto, se denomina plano entero. Si, por el contrario, registra a varias personas, lo llamamos plano de conjunto.

PLANO AMERICANO También llamado plano de tres cuartos, es aquel que recoge la figura humana de cabeza a rodillas, pero no más abajo. Se suele emplear para encuadrar a un conjunto de personas interactuando, pues permite apreciar perfectamente cada gesto o movimiento.

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 16


PLANO MEDIO Corta a la persona aproximadamente a la altura de la cintura. Suele incluirse para recoger detalles característicos de la apariencia exterior del personaje. Si el punto de corte se aproxima al muslo, se denomina plano medio largo. Si corta a la altura del pecho, plano medio corto, pues se encargará de destacar la expresión facial del sujeto.

PRIMER PLANO También se le suele denominar plano retrato. Recoge la figura humana desde los hombros hacia arriba. Permite una mayor intimidad a la hora de extraer los detalles del personaje y es el plano más utilizado para mostrar detalles emotivos del personaje.

GRAN PRIMER PLANO Encuadra la cara del personaje centrando la atención en los ojos y la boca. Añade todavía más expresividad que el anterior.

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 17


PRIMERÍSIMO PRIMER PLANO Centra la atención solo en una parte del rostro. Suele emplearse para resaltar la expresión del personaje.

PLANO DETALLE Aquel que registra una parte del cuerpo, pero no necesariamente el rostro. Se utiliza para resaltar un rasgo significativo para el conjunto de la escena: un brazo, mano, etcétera.

MOVIMIENTOS DE CÁMARA

En una primera aproximación a los movimientos de cámara, citaremos la tipología de Marcel Martin. No es la única taxonomía ni la más profusa, pero puede servir para clasificarlos según sus funciones en la película.

Movimientos dramáticos. Sirven para expresar y dotar de valor a la acción del personaje. Pueden servir para: •

definir las relaciones espaciales entre dos aspectos de cada acción.

expresar el punto de vista (subjetivo, por tanto) de un personaje.

aumentar el valor de un objeto o personaje en relación al resto de elementos de la escena.

expresar una sensación mental o el pensamiento del personaje.

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 18


Movimientos descriptivos. •

Fijan su atención en la pura acción o desarrollo de la misma.

Acompañan a un personaje u objeto mientras se mueve.

generan una sensación dinámica en un elemento estático.

describen una acción o espacio.

TRANSICIONES

La transición es el recurso básico al que recurrimos cuando queremos unir una imagen con la siguiente, independientemente del escenario, acción o personaje que estén incluidos en aquélla. Lo que conseguiremos, por consiguiente, será una elipsis, es decir, la eliminación de una imagen o conjunto de imágenes que forman parte de la historia pero que no es necesario incluir por su obviedad. Por ejemplo, en una secuencia en la que un personaje camina hacia un edificio y se introduce en él, bastará con mostrarlo caminando en dirección al mismo y, después, dentro de una oficina, por ejemplo. Estas dos imágenes bastarán para crear la ilusión de que, efectivamente, se ha dirigido a un lugar concreto. Cortar la imagen y mostrar la siguiente evitará perder tiempo mostrando acciones como: la entrada y paseo por la recepción, cuando se sube en el ascensor, la salida de éste y la llegada a la oficina.

LA ELIPSIS por tanto, constituye una herramienta narrativa consistente en escoger y mostrar en pantalla solo aquellos fragmentos de la historia que resultan relevantes y que garantizan la comprensión del relato por parte del futuro espectador. Cumple diferentes funciones en cada narración cinematográfica. Son las siguientes:

Evitar la sobreabundancia de información dramática. Como ya se ha mencionado, no es necesario reflejar todas y cada una de las acciones que componen una situación, sino las más relevantes. Aportar expresividad al relato. La eliminación de tiempos muertos y situaciones obvias contribuye a sacar mayor partido de la acción y los personajes. Contribuir al suspense. Por ejemplo, cuando se oculta la cara del asesino hasta el final de la película.

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 19


Función estética: a veces, el realizador decide eliminar algunos detalles que restaría elegancia al acabado final. Es el caso de situaciones desagradables como un acto violento, por ejemplo, en el que se sugiere más de lo que se enseña.

Modalidades de transición Aunque los modernos programas de edición digital han echado por tierra, en parte, el tradicional sistema de transiciones, en el fondo este recurso puede verse reflejado en seis modos principales.

TRANSICIÓN POR CORTE Se trata del modo más simple. Una imagen sucede a otra de forma repentina, de la misma manera que los anuncios de televisión se suceden unos a otros. También se le denomina corte en seco y se caracteriza, por tanto, por la yuxtaposición de imágenes. Se debe utilizar de forma moderada, pues la sucesión continuada solo transmite una sensación de aceleración que puede menoscabar el sentido de la narración y el tiempo que contiene en sí misma. La brusquedad no es el mejor amigo de la transición, pues puede romper esa ilusión de estar visionando una acción continua.

ENCADENADO Cuando encadenamos dos imágenes, la transición es nítida pero mucho más suave que en el caso anterior. Consiste en desvanecer la primera imagen al tiempo de hacer aparecer poco a poco la siguiente. De esta manera, hay un punto en que ambas tienen el mismo valor visual en pantalla hasta que, finalmente, se prima la segunda y desaparece por completo la precedente. Hoy en día, resultan poco frecuentes, pero en películas clásicas, sobre todo anteriores a la incorporación del color, resulta un mecanismo casi obligado. Mientras en la transición por corte podemos pasar de una situación a otra sin más pretensión, utilizaremos el encadenado cuando queramos sugerir pasos de tiempo no demasiado largos. Cuando se huye de la función elíptica y se mantienen ambas imágenes en pantalla más tiempo de lo normal, nos encontramos con una sobreimpresión: es la técnica que configura una realidad novedosa en el metraje a base de mezclar dos situaciones distanciadas en cuanto a espacio o tiempo. Se trata, en definitiva, de una forma mucho más poética y subjetiva que meramente informativa.

EL FUNDIDO Consiste en hacer desaparecer una imagen hasta que la imagen solo esté formada por un color. En principio, los fundidos solían realizarse hacia el color negro, pero en la ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 20


actualidad la diversidad expresiva permite recurrir a ellos utilizando cualquier color. Suele emplearse para separar secuencias o escenas entre las que pesa una gran distancia temporal. Además, es el recurso más empleado para comenzar y terminar una película: la primera imagen aparece progresivamente, en la mayoría de los casos, desde un fondo negro; del mismo modo, el último fotograma se cierra con un fundido a negro hasta que empiezan a parecer los títulos de crédito.

DESENFOQUE Si lo que queremos es cambiar de escenario o sugerir un paso a un tiempo cercano, un buen recurso es el desenfocado de una imagen para dar paso a la siguiente. Suele emplearse para mostrar fenómenos como la pérdida de consciencia por parte de un personaje o un viaje hacia el pasado como forma de rememorar acontecimientos. También podemos utilizarlo para dar protagonismo a un objeto o personaje dentro de un mismo encuadre centrando el foco en dicho motivo.

EL BARRIDO Se trata de un giró muy rápido de la cámara hasta el punto de no resultar demasiado perceptible. Solía emplearse en series de animación y suscita una sensación de instantaneidad entre dos situaciones.

CORTINILLAS Su uso ya no está demasiado extendido, aunque fue frecuente ver este tipo de transición en películas clásicas. Consiste en pasar de una imagen a otra empleando formas geométricas. Pueden hacerlo en diferentes sentidos: horizontal, oblicuo, vertical, etcétera. En la actualidad, suelen verse con más facilidad en programas de televisión de tipo magazine, pues su uso suele ir unido a un contenido desenfadado y ocioso.

TOMAS

Utilizamos este término para hablar, en sentido amplio, de captación de imágenes. Corresponde con la secuencia que recoge la cámara desde que se enciende hasta que deja de registrar la realidad en la que se enfoca. En la propia definición del concepto viene implícito el hecho de que no hace falta que exista grabación propiamente dicha. A veces, bien sea con cámaras domésticas o bien en el caso de las profesionales, simplemente se toman imágenes de prueba que ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 21


servirán para decidir qué encuadres, movimientos y personajes queremos registrar y de qué modo. Otro ejemplo sería el de las retransmisiones en directo. Una vez grabadas las tomas, tendremos la información audiovisual en bruto, es decir, fragmentos de película seguidos y listos para empezar a montar. El plano de edición será aquella parte de la toma que utilizaremos para el acabado final de nuestro vídeo y del que ya hemos hablado en el apartado anterior.

TOMA FIJA Se logra simplemente dejando la cámara fija, sin movimiento alguno que denote dinamismo. No obstante, el movimiento se puede lograr si los personajes, objetos o animales se mueven dentro de la escena de que se trate. La sensación de zoom se puede conseguir si los personajes se alejan o acercan a la cámara.

Toma fija

PANORÁMICA Se trata de un giro de la cámara sin desplazamiento de la misma, esto es, sobre su propio eje. Bien sobre un trípode o sobre el hombro del operador, la cámara puede girar sobre sí misma hasta 360º, de modo que puede recoger cualquier imagen que se suceda en el espacio en que esté situada.

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 22


Panorámicas vertical y horizontal

En función de su trayectoria, la panorámica puede ser vertical (también llamada basculamiento) u horizontal. En el primer caso, si la cámara se mueve de abajo arriba o viceversa y, en el segundo, si lo hace de izquierda a derecha o al revés. También podemos hacer una panorámica de acuerdo a una inclinación distinta de la cámara: será oblicua si la efectuamos hacia la derecha o izquierda y de arriba abajo y la llamaremos circular si realizamos un giro completo, en horizontal, de 360º. Una panorámica no necesariamente tiene que describir un paisaje o encuadre general, sino que también puede acompañar a un personaje en su movimiento dentro del plano. No obstante, siempre debemos partir y terminar con un encuadre fijo, independientemente de la duración del movimiento de la cámara, que siempre será lento y pausado. A la hora de realizar una panorámica, es aconsejable que no exceda de los 150 grados de giro, además de cuidar que no se pierda el sentido de dicho giro cuando hacemos que dos panorámicas de sucedan. Lo más lógico y mejor asimilable por parte del futuro espectador es efectuarlo de izquierda a derecha, pues es el movimiento más común. Hay que tener en cuenta, por último, que una panorámica solo es precisa cuando queremos trasladar una sensación de exploración del terreno. Si solo nos interesa una acción que sucede al principio o al final de la misma, será mejor que nos limitemos a utilizar un plano fijo.

TRAVELLING Es un movimiento de cámara que se realiza gracias al desplazamiento del eje de la cámara, de forma horizontal y con la ayuda, generalmente, de unas vías. En otras palabras, grabamos un travelling cuando situamos la cámara en un pequeño vehículo con ruedas y nos acercamos o alejamos del objetivo del plano. Es el que se utiliza, por ejemplo, para acompañar a dos personajes que corren juntos o a alguien que camina. ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 23


La diferencia con el zoom reside en que no varía el ángulo, sino que mantiene el mismo encuadre. Del mismo modo, un travelling puede ser vertical, si nos desplazamos de arriba abajo o al revés, u horizontal, si el movimiento se efectúa de ese modo.

Travelling

Podemos diferenciar algunos tipos de travellings: Travelling paralelo: cuando acompañamos a un personaje mientras camina, corre, etcétera. Travelling de acompañamiento: al grabar a un personaje mientras nos alejamos de él. Travelling aproximativo: grabamos a un personaje mientras nos acercamos al mismo. Travelling circular: es menos frecuente, pero se realiza cuando describe 360 grados sobre el objetivo.

A pesar de estas posibilidades, el travelling más completo es el que podemos realizar gracias a una grúa, de forma que logremos una sensación absolutamente tridimensional situando la cámara en el extremo de un brazo articulado que luego podemos mover con libertad. La versión de estos aparatos utilizada el estudio, de un tamaño menor, recibe el nombre de dolly. Este tipo de tomas se utilizan especialmente en el cine de acción, cuando tenemos que seguir a un personaje en plena persecución: solo así podemos grabarlo dentro de un vehículo, saltando del mismo o corriendo por cualquier superficie elevada.

BARRIDO Es un recurso más que una forma de movimiento en sentido estricto. Consiste en hacer una panorámica rápida, no con ánimo de mostrar un elemento o personaje sino con el único fin de servir como transición de un escenario a otro.

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 24


ZOOM También llamado travelling óptico, un zoom es un movimiento que se realiza a través de las lentes de la cámara y que consiste en modificar la distancia focal. Podemos, así, acercarnos o alejarnos de un objetivo sin necesidad de cambiar el emplazamiento de la cámara. Gracias al zoom, podemos pasar rápidamente de un encuadre general a un primer plano de uno objeto o rasgo de cierto personaje. Y viceversa. Así, tenemos dos tipos de zoom específicos: Zoom de acercamiento: pasamos de un encuadre general a centrar la atención en un objeto o personaje. Zoom de alejamiento: nos distanciamos del detalle y pasamos a ofrecer una visión general de la escena. A la hora de efectuar un zoom, hay que tener en cuenta que la velocidad del movimiento debe ser constante, evitando salto brusco o aceleramientos aleatorios. Aunque el movimiento desarrollado por un travelling suele asemejarse, lo cierto es que el acabado final dista mucho de resultar parecido. En el primer caso, movemos la cámara al grabar y, en el segundo, simplemente cerramos o abrimos el plano que estamos encuadrando. Usar una u otra técnica depende, en última instancia, del tipo de película que vayamos a grabar. Un travelling será más preciso en el caso de querer grabar una escena que implique recoger movimientos prolongados. El zoom, por ejemplo, nos será más útil si grabamos un documental de naturaleza, pues dará más juego en el caso de necesitar recoger un movimiento fugaz de un animal o fenómeno concreto que surja de manera espontánea. El zoom, por último, nos servirá siempre a la hora de encuadrar. Una vez situemos la cámara, gracias a esta técnica podremos decidir de antemano a qué distancia comenzaremos a grabar un plano determinado. A continuación, vemos un ejemplo de zoom. En el primer encuadre, el plano general. Y, en el segundo, el resultado tras el acercamiento realizado con la lente1.

1

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 25


COMPOSICIÓN Y CÓDIGOS DE REPRESENTACIÓN

ESCENAS Una escena es aquella unidad narrativa, incluida en el discurso audiovisual, que no tiene valor dramático completo por sí misma y que se desarrolla en un solo escenario. En otras palabras, es aquel fragmento visual que transcurre en un mismo lugar y cuyo sentido solo se puede desentrañar en relación al resto de la película. Por ejemplo, si ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 26


vemos una escena en la que un personaje apunta con una pistola al empleado de un banco, solo sabremos que está atracándolo. Pero, para desentrañar las circunstancias y aquellos motivos que le han llevado a eso, tendremos que acudir inevitablemente al resto de escenas.

Algunos teóricos han coincidido a la hora de clasificar las escenas en varios tipos: Escena troncal: aquella que es clave para entender la trama principal de la película. Sucede en un escenario y narra acciones vitales para comprender las motivaciones y circunstancias que envuelven a los protagonistas. Escena secundaria: la que proporciona información sobre el ambiente, la vida que rodea al protagonista o algún detalle adicional que nos dé más pistas acerca de su situación. Escenas descriptivas: muestran ambientes en general, sin centrarse en acciones concretas de personajes, sean éstos principales o secundarios. Aportan información acerca del escenario general en sí.

A continuación, te detallo un gráfico en el que pueden verse el conjunto de acciones de que se compone una escena. Como ya habrás adivinado, se trata de una de las escenas más famosas del cine de terror de todos los tiempos, Psicosis (Alfred Hitchcock, 1960).

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 27


SECUENCIAS Es la unidad dramática dotada de pleno sentido y coherencia temática. Se compone de escenas unidad por un mismo núcleo semántico y, por sí misma, tiene significado propio. Por ejemplo, en una escena de persecución entre el protagonista y el antagonista, subidos a sendos coches en mitad de una larga autopista, la secuencia se compondría de todas aquellas escenas en las que aparezcan los vehículos avanzando y los protagonistas en plena lucha por salir airosos de dicho conflicto. Toda secuencia se compone de un planteamiento, un desarrollo y una resolución final, como si de una pequeña historia se tratara. No tiene por qué ser explícito pero sí debe contenerlo de forma implícita si queremos que el espectador comprenda bien la acción que le transmite la película. Una secuencia no tiene por qué suceder en un mismo escenario ni montarse seguida. Puede incluirse intercalada con otras secuencias, siempre y cuando eso no signifique una pérdida de claridad narrativa, e incluir escenas desarrolladas en diferentes escenarios. Por último, merece la pena mencionar que en televisión el concepto de secuencia difiere del mencionado (cine), pues también se refiere a un fragmento de realidad que debe ser registrado, como si fuera una escena.

Resumiendo, diremos que: Una toma puede incluir uno o varios planos de encuadre. Una escena surge de la combinación de unas cuantas tomas. La secuencia se compone de una o diversas escenas. La película o relato final se compone de secuencias, dotadas todas ellas de esas pequeñas historias con sentido autónomo.

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 28


REPRESENTACIÓN DE TIEMPO. RITMO Y EFECTOS EN LA NARRACIÓN

El ritmo que apliquemos al relato audiovisual estará condicionado, sin duda, por varios elementos: La elección de los centros de interés en cada escena. Las características de la acción recogida (dinámicas o estáticas). El movimiento de la cámara (o del zoom, en su caso). La relación entre planos: cuáles suceden y cuáles preceden a cada uno.

Al grabar cada una de las tomas, convendrá prolongarlas levemente de cara a que luego se puedan montar o editar de una forma más sencilla. Si, por ejemplo, tenemos previsto incluir un travelling precedido de un plano de encuadre fijo, no estará de más que perdamos unos cuantos segundos más de los previstos a la hora de grabar esa toma estática inicial. De ese modo, el montador tendrá más holgura a la hora de recortar y decidir dónde empieza. En cambio, si nos limitamos a grabar solo los segundos que tenemos pensado incluir en el metraje final, es probable que algunas transiciones entre planos queden demasiado bruscas. Asimismo, llamamos dejar cola a los segundos de más que grabamos antes y después de que un personaje efectúe una acción. No convendrá, por tanto, comenzar a grabar en el instante en que él comience a hablar o a moverse por el escenario. En definitiva, lo importante a la hora de utilizar los movimientos de cámara será tener un plan previo que evite sorpresas desagradables a la hora de montar el vídeo completo. El ritmo o dinamismo interno del relato final dependerá, en todo caso, del margen que dejemos a la combinación de unos planos con otros.

TRANSFORMACIÓN LITERARIA DE LA INFORMACIÓN: GUIÓN LITERARIO

El guion literario es el documento preaudiovisual que recoge la totalidad de la historia pero sin indicación técnica alguna. Detalla la sucesión de escenas, bien explicadas, los diálogos y las coordenadas ambientales. A pesar de su denominación, su lenguaje dista mucho del que emplea un escritor al componer una novela: debe ser directo, visual y conciso. No se la puede considerar una obra literaria ni fin en sí misma, por tanto, sino el punto de partida de todo el proceso de producción del filme. Según Alonso y Matilla, antes de escribir un guion hay que responder expresamente a cinco cuestiones clave: ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 29


Qué queremos contar. El tema de la historia y sus ideas clave.

Quién o quiénes son los personajes. Hay que perfilar tanto su fisionomía como su psicología.

Cómo se abordará la película: géneros y modo de tratamiento de la historia.

Cuándo transcurre.

Dónde se desarrolla.

El guion literario no es más que el documento donde el tratamiento, previamente revisado y corregido, se concreta todavía más incorporando los diálogos entre personajes. En el guion, se concretan las acciones tal y como serán vistas en pantalla. El desglose, por lo general, se efectúa a base de desarrollar escenas y secuencias, pero de una forma literaria, sin incluir indicaciones técnicas acerca de la iluminación o uso de planos, por ejemplo. Cada escena se compone de: •

Encabezamiento: detallamos si la localización es interior (INT.) o exterior (EXT.), dónde se produce la acción y si transcurre de día (DÍA) o de (NOCHE).

Acción: qué sucede y qué personajes intervienen.

Personaje: nombre de quién habla.

Diálogo: qué dice el personaje.

Del guión literario al guión técnico El guion literario es un documento de partida, preaudiovisual, pues su potencial como historia sobre el papel no estará completo hasta que, escena a escena, sea trasladado a un guion técnico. Es decir, cada escena deberá planificarse de modo que se saque el mayor partido en pantalla. Muchas películas potencialmente sólidas se han venido abajo por una planificación de producción deficiente o demasiado apresurada. No hay que olvidar que cada acción, por buena que sea, debe tener en pantalla el tratamiento que se merece. El realizador o director es el encargado de transformar el guion literario en guion técnico, destacando el modo en que se rodará cada escena del filme. Para que la historia luzca en todo su esplendor, debe ser tratada técnicamente por una persona que domine el medio audiovisual, que sepa aunar las necesidades expresivas con las presupuestarias y que, en definitiva, tenga la capacidad para crear un producto de calidad dentro de las posibilidades en que se desenvuelve la producción de la película. ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 30


DESARROLLO DEL RELATO MULTIMEDIA

Hay que tener claro que la unidad básica de un documento hipertextual es la pantalla y no el papel y que por tanto no tiene porque quedar limitado a las normas que rigen la distribución de la información en el papel. El objetivo del organizador de la información debe ser definir una estructura hipertextual en la que haya múltiples posibilidades de navegación en las que pueda interactuar y en las que el receptor a la vez no se desoriente ni naufrague. El principal objetivo del guionista de un producto multimedia es la comunicación. Para alcanzar esta meta, el primer paso es saber qué información espera obtener el destinatario del producto. Hasta aquí, la labor del guionista multimedia no se diferencia de la del escritor de un libro o el guionista de televisión.

ESTRUCTURA NO LINEAL El calificativo no lineal se aplica a la escritura que no se basa en la estructura clásica usada en la creación de historias. La narración lineal está compuesta de tres partes, la introducción, el nudo o desarrollo de la acción y el desenlace. Sin embargo, en la redacción no lineal cada parte de la historia puede funcionar de manera autónoma, conservando un significado completo por sí misma y sin que ello influya sobre su coherencia con el resto de contenidos. La definición de los objetivos comunicativos es una tarea común para todos los guionistas, sea cual sea su especialidad. En el caso del guionista de productos multimedia, la dificultad consiste en conseguir que esa transmisión de información suponga una auténtica experiencia interactiva. No sólo hay que redactar la información, también es necesario dotarla de interactividad. Lo más importante es que este esfuerzo no se evidencie en el producto final, para que el usuario pueda interactuar con él de manera natural. La psicología es un factor de gran importancia en este nuevo medio de comunicación. Por un lado, el guionista debe prever, en la medida de lo posible, los “pasos” que seguirá el usuario cuando explore el producto interactivo. Por otro lado, es inevitable inducir su elección para mantener la coherencia de contenidos. En el caso de los títulos divulgativos o informativos, el usuario debe disponer de todas las herramientas necesarias para acceder a los contenidos que se le ofrecen, de la forma que quiera y con la mayor rapidez posible, profundizando en un tema según diferentes niveles de complejidad, etc. Desea tener su propia experiencia al explorar un producto interactivo y, el guionista debe saber entregarle el mando. Éste nuevo medio de expresión tiene como característica definitoria la pretensión del usuario de participar en la acción que se está desarrollando. ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 31


Cuando esta premisa no se cumple, el medio deja de existir como tal y el producto se convierte en un producto audiovisual convencional. Por tanto, lo que caracteriza a los productos multimedia no es precisamente su aspecto multimedia, es decir, el uso combinado de diferentes medias, sino la interactividad de la que se sirven y, de manera más precisa, los comportamientos que los usuarios desarrollan cuando utilizan finalmente dichos productos. En la comunicación interactiva, no existe un único "fin”. Los conceptos de principio y final implican linealidad pero, cuando no la hay, ¿cómo encajan en la narración? En la mayoría de los productos multimedia, sobre todo en las obras divulgativas, el final se halla en el punto donde el usuario interrumpe la exploración del contenido. El hipertexto presenta multitud de secuencias, plenas de significado en sí mismas y, por lo tanto, las obras multimedia tienen múltiples principios y finales en lugar de uno solo.

OBJETIVOS EXPRESIVOS E INFORMATIVOS DEL RELATO MULTIMEDIA

Además de la interactividad, el valor más importante con el que trabaja un guionista de este tipo de producciones multimedia es la conjunción de medias (Códigos). Como ocurre en las producciones audiovisuales, no sólo se cuenta con el valor expresivo de las diferentes medias sino también con el gran poder comunicativo que resulta de la combinación de todas ellas. El guionista debe saber cómo combinar textos, ilustraciones, fotografías, banda sonora, locuciones, efectos de sonido,vídeos, etc., para conseguir exactamente el efecto que pretende. Así, en determinados casos, puede resolver un problema comunicativo mostrando únicamente palabras escritas. Sin embargo, antes debe preguntarse si no sería más fácil la comprensión de ese concepto mediante la conjunción de un pequeño texto y de una locución y un vídeo. En otros casos, la adición de unos cuantos efectos sonoros a un vídeo mejoran en gran medida la percepción que se obtiene. El guionista debe controlar en todo momento las reacciones que provoca la unión de los recursos con los que trabaja. Sólo así puede conseguir, con la mayor economía de medias posible, el máximo efecto. El guionista y el diseñador interactivo colaboran para crear la estructura de un producto multimedia. Mediante el hipertexto se consigue que la trama sea multidimensional y cuente con la posibilidad casi infinita de establecer nexos. Estos nexos, ya sean programados o aleatorios, desarrollan su máxima potencia en el caso de los juegos a través de Internet. Se trata, pues, de crear estructuras abiertas a la participación pero que, con independencia del significado que adopten encada una de las interpretaciones realizadas por el usuario, mantengan el sentido, es decir, sigan comunicando algo. En este tipo de estructuras sin secuencialidad, pueden añadirse, omitirse o intercambiarse unidades de información y mantenerse al mismo tiempo la coherencia temática de los contenidos. En este aspecto ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 32


concreto del diseño de la obra, los creadores se debaten con las dos cuestiones más importantes de la realización de un guión: dar al usuario la libertad para moverse por una historia de acuerdo a las decisiones que vaya tomando en cada momento y controlar que el resultado no pierda sentido. Conjugar la interactividad del usuario y el control del guionista equivale a darle libertad sin dejar de guiarlo para que se cumpla el requisito básico de toda comunicación, es decir, que le resulte fácil comprender la historia que se cuenta. El verdadero objetivo de la interactividad consiste en conseguir que el usuario indique a la máquina lo que ésta debe hacer y no al revés. Debe limitarse, en general, a imaginar lo que el usuario quiere hacer en cada momento. Cuando ha llegado a este punto, empieza a resultar más fácil dar respuestas adecuadas a las futuras acciones del usuario. Sin embargo, esta restricción a la hora de escribir guiones no elimina la posibilidad de incluir elementos sorprendentes que animen el ritmo del relato.

MODALIDADES NARRATIVAS MULTIMEDIA

Los modelos narrativos en el periodismo digital abogan por la no traslación del texto analógico y trabajan bajo la premisa del diseño de información abierta; es decir, con posibilidad de actualizar, modificar, editar y/o recontextualizar el contenido.

El modelo de la pirámide invertida de Nielsen Nielsen (1997) en su ensayo “Inverted Piramids in Ciberspace” propone que para escribir en el medio digital hay que partir de una conclusión, seguido de los datos secundarios de la información y finalmente ofrecer un resumen o una adaptación de la tradicional pirámide invertida a la que se añaden recursos digitales. Así, según Nielsen debe escribirse primero la idea principal o conclusión del texto para lograr interesar al usuario en la lectura del mismo y asegurar que el lector retiene lo más importante de la argumentación, aunque no llegue hasta el final. Después se debe continuar con los razonamientos generales que sustentan el producto informativo, y al final ofrecer enlaces a otras páginas u otros contenidos en el mismo sitio web para dar más detalles. La propuesta de Nielsen parte de sus estudios sobre usabilidad en los que definió que el mayor porcentaje de los lectores no lee grandes porciones de texto, sino que realizan un “escaneo” buscando frases de su interés y obviando aquellas que no le interesan. La lectura en internet es superficial, y sólo se torna profunda cuando el lector percibe algo de su interés.

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 33


Este modelo de redacción puede parecer sencillo; sin embargo, Salaverría en su libro “Redacción periodística en Internet” (2005) agrega: Uno de los problemas de incorporar la hipertextualidad a la clásica redacción periodística es que obliga a pensar. Los periodistas, acostumbrados durante décadas a sencillas rutinas redaccionales y automatismos estilísticos, no terminan de ver con buenos ojos eso de tener que hacer un esfuerzo de creatividad siempre que se escribe una noticia. Y Guillermo Franco, en su artículo “Cómo escribir para internet (II)” (s/f), considera que a veces hasta los mismos periodistas tienen dificultades para escribirla, “siendo frecuente que los datos relevantes se releguen a párrafos inferiores, pues no las identifican o no hay una adecuada jerarquización (…) un error mortal en internet”.

La pirámide tumbada de Canavilhas Joao Canavilhas, en su libro “Webnoticias: propuesta de modelo periodístico para la

www” (2007), plantea una arquitectura con cuatro niveles de información que dé libertad al usuario para realizar una lectura más personal. La organización de la información en nodos con enlaces abre la posibilidad de diferentes recorridos de lectura. Es el usuario el que decide qué tipo de recorrido de lectura sigue, por lo que la arquitectura de la noticia web seguirá la técnica de la pirámide tumbada. En esta arquitectura, la información se organiza horizontalmente de menos a más información sobre cada uno de los elementos de la noticia (qué, quién, dónde, cuándo, cómo, por qué) y es el usuario el que decide qué leer. Los cuatro niveles de la pirámide tumbada de Canavilhas son: Unidad base: que responde a lo esencial (qué, cuándo, quién, dónde), y puede ser la entradilla de una noticia que ofrezca una idea general del contenido. Nivel de explicación: que responde al por qué y al cómo, para completar la información esencial sobre el acontecimiento. A partir de este nivel es cuando se propone la utilización de hiperenlaces que abran los itinerarios de lectura para aquellos que estén más interesados en un determinado tipo de información. Nivel de contextualización: aporta más información con enlaces documentales y de definición. “Desde este nivel, la información aumenta su resolución semántica, al

añadirse más nodos de información internos (archivo de la publicación) o enlaces a otras fuentes de información externas” . Nivel de exploración: Aquí los hiperenlaces ahondan más temas, haciendo la conexión con archivos externos. Es decir, profundizan la información.

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 34


La redacción por capas de Salaverría Este modelo parte de un nivel de información menos exigente y evoluciona hacia niveles en los que se verifica un incremento en la cantidad y complejidad de la información, se superponen capas de noticias de última hora, capas informativas, capas documentales, capas de análisis y capas dialogantes. Salaverría, en “Redacción periodística en Internet” (2005) señala que hay cinco niveles en este modelo: En el primer nivel está lo que define como “flashes informativos”, en las que se ofrece una información sintetizada sin posibilidad de amplificación alguna. Son muy usadas para dar noticias de última hora. El segundo nivel contiene las noticias simples compuestas de dos hiperenlaces. El primer hiperenlace se presenta en forma de titular acompañado por un breve sumario y el segundo lleva al cuerpo completo de la noticia. Salaverría recomienda que para mantener una debida cohesión con el hiperenlace inicial, “el segundo nodo suele estar encabezado por el mismo titular y, eventualmente,

también por el párrafo que aparecía en el nodo inicial y que sirvieron como punto de partida” (ob. cit.). En el tercer nivel, Salaverría ubica al contenido con documentación. Las informaciones enlazadas pueden proceder tanto del propio archivo de la publicación como de fuentes externas.. La práctica de incluir estos enlaces documentales permite aportar mayor contexto y profundidad a la información. Así mismo, constituye una técnica para añadir credibilidad informativa . En el cuarto nivel está el contenido con análisis por parte de algún experto en forma de columnas personales, críticas o, incluso, artículos editoriales en nombre del medio. El quinto nivel es la capa dialógica, los comentarios, en donde la elaboración de la información puede pasar también a manos de los lectores. “A la noticia principal se adjunta un buzón de comentarios en el que los lectores pueden expresar públicamente sus opiniones al respecto. Esto suele desencadenar un diálogo entre los lectores a propósito de la noticia; asimismo, si el periodista se anima a participar también en el debate, cosa que no siempre ocurre, puede servir para ampliar, matizar y/o corregir alguno de los datos aportados” .

Redacción en orden cronológico También planteado por Salaverría (2006), en este modelo las narraciones presentan un carácter episódico: parten de un planteamiento, continúan con un desarrollo en tiempo real, a menudo marcado por la hora del evento y culminan con un desenlace.

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 35


Podríamos decir que el relato cronológico no sirve para todo el texto periodístico, pero tampoco hay que rechazarlo por sistema. Cuando la información de la que se debe dar cuenta en un cibermedio tiene carácter de relato, resulta fácil organizarla de manera hipertextual conforme a una estructura cronológica. Este modelo de redacción es muy usado en eventos de larga extensión y con gran cantidad de mini eventos que no ameritan una noticia por sí mismas. Por ejemplo, para informar sobre eventos deportivos, como partidos de fútbol; y en eventos de participación pública, como procesos electorales.

Estructura de la información: Para armar y desarmar El contenido digital podría ser comparado con los cubos lego, para armar y desarmar. Puede partir de un “última hora” y ser ampliado por días y con contenidos varios para convertirse en un gran reportaje. Esto implica que el periodista debe desarrollar criterios para la fragmentación del contenido atendiendo a la importancia, la profundidad y contextualización, así como los géneros que contribuyen a la elaboración de la información. Antes de hacer un contenido, el periodista debe diseñarlo y detallar a grandes rasgos la estructura de la noticia, uso de hiperenlaces, recursos multimedia y elementos interactivos, queda en evidencia entonces la necesidad de formación del comunicador social en las diversas propuestas del discurso digital.

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 36


• Tema 3_SISTEMAS TÉCNICOS AUDIOVISUALES MULTIMEDIA

SISTEMAS ANALÓGICOS Y DIGITALES

Si la señal analógica tenía una forma equivalente (análoga) a la señal que la había originado, la señal digital se traduce en códigos binarios que ya no tienen forma, sino que son una mera sucesión de ceros y unos (valores discretos). El audio digital es la codificación digital de una señal eléctrica que representa una onda sonora. Consiste en una secuencia de valores enteros y se obtienen de dos procesos: el muestreo y la cuantificación digital de la señal eléctrica. En el pasado, la tecnología de los ordenadores era demasiado lenta para manejar el enorme número de procesamiento y funciones I/O que se requerían para una producción de una DAW multipista; sin embargo, con la introducción de las CPU, discos duros y memoria más veloces, muchos sistemas de ordenadores son ahora capaces de hacer frente a la carga de trabajo que implica el manejar el funcionamiento básico de un programa, el procesamiento de la señal y el trasladar audio a múltiplos puertos de entradas y salidas, sin la necesidad de un hardware especifico y especial.

Procesamiento digital de la señal: nativo frente al no nativo Los sistemas software más nuevos que funcionan en el Entorno de procesamiento nativo han empezado ahora a ubicar la carga de procesamiento y la ruta de señal de I/O sobre el ordenador personal, su sistema operativo y el software de la DAW. En resumen, una DAW programada para funcionar en un entorno nativo es capaz de dirigir todo su procesamiento, estructura de archivo y funciones de I/O a través de la CPU y el sistema operativo instalado en el ordenador. La ventaja de este sistema es que se puede acceder a través de la DAW o la aplicación del servidor central a cualquier audio e interfaz (y muchos otros aparatos) que pueden ser reconocidos por el OS del ordenador. En el caso de disponer de un interfaz, cualquiera que sea, lo más probable es que funcionará con el sistema de su ordenador. Los aparatos no nativos, por otra parte, han sido diseñados para funcionar con una pieza concreta de hardware de interfaz de soporte.

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 37


DSP (Digital Sound Processor) Tarjetas aceleradoras. En la mayoría de las situaciones, la CPU de un programa servidor de una DAW tendrá la potencia y la velocidad suficientes para realizar todos los efectos DSP y las necesidades de procesamiento de un proyecto. Sin embargo, en condiciones extremas de producción, la CPU puede quedarse sin capacidad de procesamiento y colgarse durante la reproducción a tiempo real. En estas circunstancias, se pueden hacer dos elecciones para reducir la carga de trabajo de una CPU: por un parte, la(s) pista(s) podrían ser "congeladas", esto significa que las funciones de procesamiento se calcularían a tiempo no real y después se grabarían en un disco como archivo separado. Por otra parte, una tarjeta aceleradora, que se coloca en el sistema, podría añadir una CPU extra al circuito, asumiendo una parte de carga del proceso, como pueden ser los plugins, proporcionando mayor potencia de procesamiento al sistema, para así realizar los cálculos de efectos necesarios en un determinado momento. Existen el mercado vía USB, FireWire, PCI Express y ExpressCard. Habitualmente, la CPU del ordenador es la que se ocupa de realizar todos los cálculos necesarios en el procesamiento de datos. Por ejemplo, en un proyecto de Cubase la CPU es la encargada de realizar la suma de todos los canales presentes en el mezclador, de los cálculos internos que ha de realizar cada plugin usado, de que los instrumentos virtuales proporcionen el sonido para el que fueron programados, etc. Está claro que todo esto supone un arduo trabajo para nuestra CPU Los DSP llegaron para liberar carga de la CPU y ocuparse de procesos específicos. En resumen, son procesadores extra que realizan cálculos que de otro modo irían encomendados al procesador central de nuestro ordenador (CPU), liberando a este de cierto trabajo y permitiéndole llevar el resto de procesos de una manera más desahogada. De este modo se permitió crear proyectos más exigentes y por lo tanto se aumentaron las posibilidades, ya fueran de crear un mayor número de pistas, de usar mejores plugins, más instrumentos virtuales..., etc. Muchas tarjetas de audio han basado su tecnología en el uso de DSP´s y algunos sistemas siguen fieles a esta tecnología a la hora de desarrollar sus productos, como puede ser el caso de Digidesign y su archiconocido Pro Tools "hardware".

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 38


Tarjetas Digidesign Protools HD

Actualmente, existen varias plataformas de trabajo de audio digital no nativas, las principales son: Digidesign HD, Universal audio, TC Electronics Powercore, SSL Duende y Focusrite Liquid Mix, entre otros…. La UAD-1 es el resultado de la reencarnación de Urei, antiguo fabricante de hadware musical de alta calidad, en Universal Audio. La tarjeta está basada en un chip DSP genérico que ya se había usado antes para hacer tarjetas de vídeo y el software son reencarnaciones de populares compresores, ecualizadores de Urei (de sonido espectacular) y otros efectos como adaptaciones de las reverberaciones de King of Loud (disponibles antes en Pro Tools) y simulador de amplificadores y efectos de modulación. Últimamente ha licenciado versión software del más popular hardware de Roland y Neve. Destaca por su precio muy ajustado y sus efectos de insuperable calidad (especialmente los compresores y ecualizadores). Powercore fue la segunda en discordia. TC Electronic es un fabricante muy asentado y especialista en soluciones de altísima calidad. Sus procesadores de mastering son conocidos y envidiados por todos. Su fuerza está en una gran diversidad de hardware (tres modelos de distintas capacidades), actualizados y una buena política de software de terceras partes (como Sony o Access) y desarrollos propios, estando disponibles gran parte de las opciones de su gama alta de mastering. Destacables son las reverberaciones, heredadas de sus procesadores más populares. Como desventaja, el alto precio de cada plugin.

TC Powercore PCI Express

Todo parecía tranquilo, otra vez, hasta que hace unos meses se desvelaron nuevas plataformas DSP: SSL Duende y Focusrite Liquid Mix. ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 39


Liquid Mix es la evolución del Liquid Channel, y proporciona mediante firewire hasta 32 canales completos a 24 bits/48 Khz (duplicable mediante una tarjeta de extensión) de compresión y ecualización modelados del hardware clásico más popular. Además, incorpora un controlador con pantalla LCD para ajustar los parámetros sin necesidad de tocar el ordenador para nada.

Duende es la conversión en plugin de los efectos de la mesa de mezclas SSL C-series, conocida por ser la evolución digital de las clásicas serie G analógicas. SSL es el estándar de sonido de todos los discos más populares de los 90, en parte por su compresor del bus principal (bastante bruto y agresivo) y su versión digital estaba a la altura A favor, obtienes los algoritmos originales (sensacionales) de la serie C derivados de los ecualizadores y compresores de las series E y G.

Tarjeta aceleradora SSL Duende

¿Por qué esta fiebre repentina a sacar hardware DSP en tiempos en los que los ordenadores son cada vez más rápidos y potentes? La respuesta es bien sencilla: como alternativa al uso de software “pirata”. Hoy en día, con un mínimo de esfuerzo, es muy sencillo conseguir de forma “alternativa” cualquier programa que se nos antoje, por lo que para evitarlo, las compañías han optado por usar DSP como llave de autorización: no puedes usar los plugins si no tienes el DSP. En realidad, el coste del DSP es bajísimo, por lo que te cobran son los plugins. Por otro lado el usuario está contento por poder usar más efectos sin cargar el proceso de su ordenador, con lo que todos están contentos.

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 40


MUESTREO DE SEÑAL

El muestreo consiste en fijar la amplitud de la señal eléctrica a intervalos regulares de tiempo (tasa de muestreo). Para cubrir el espectro audible (20 a 20000 Hz) suele bastar con tasas de muestreo de algo más de 40000 Hz (el estándar CD-Audio emplea una tasa un 10% mayor con objeto de contemplar el uso de filtros no ideales), con 32000 muestras por segundo se tendría un ancho de banda similar al de la radio FM o una cinta de casete, es decir, permite registrar componentes de hasta 15 kHz, aproximadamente. Para reproducir un determinado intervalo de frecuencias se necesita una tasa de muestreo de poco más del doble (Teorema de muestreo de Nyquist-Shannon). Por ejemplo en los CDs, que reproducen hasta 20 kHz, emplean una tasa de muestreo de 44,1 kHz (frecuencia Nyquist de 22,05 kHz). Se toma un determinado número de muestras por unidad de tiempo (44.100 muestras por segundo en CD-Audio), aunque se pueden utilizar tasas de muestreo más elevadas para registrar señales con componentes de frecuencias ultrasónicas o, para la misma banda de audiofrecuencias, permitir el uso de filtros sin retardo de grupo en toda la banda pasante y con pendientes de atenuación más suaves, sin el uso de técnicas de sobremuestreo.

Muestreo digital de una señal de audio.

FRECUENCIA DE MUESTREO

La tasa o frecuencia de muestreo es el número de muestras por unidad de tiempo que se toman de una señal continua para producir una señal discreta, durante el proceso necesario para convertirla de analógica en digital. Como todas las frecuencias, generalmente se expresa en hercios (Hz, ciclos por segundo) o múltiplos suyos, como el kilohercio (kHz), aunque pueden utilizarse otras magnitudes.

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 41


Señal original y muestreo de la misma.

Teorema de Nyquist: Según el teorema de muestreo de Nyquist, para poder replicar con aproximada exactitud la forma de una onda es necesario que la frecuencia de muestreo sea superior al doble de la máxima frecuencia a muestrear. En la práctica y dado que no existen los filtros analógicos pasa-bajo ideales, se debe dejar un margen entre la frecuencia máxima que se desea registrar y la frecuencia de Nyquist (frecuencia crítica) que resulta de la tasa de muestreo elegida (por ejemplo, para CD-Audio la frecuencia máxima de los componentes a registrar y reproducir es de 20 kHz y la frecuencia crítica de la tasa de 44100 muestras por segundo empleada es de 22,05 kHz; un margen del 10% aproximadamente para esta aplicación). Los nuevos formatos de audio que recientemente han aparecido (aunque con escaso éxito comercial) que emplean PCM sin pérdida por compresión con tasas de muestreo más altas a las empleadas en el CD-Audio, (DVD-Audio, por ejemplo) para registrar y reproducir señales de idéntico ancho de banda se justifican porque permiten el empleo de filtros de reconstrucción más benignos, sencillos y económicos sacrificando un recurso cada vez más económico y de menor trascendencia (la capacidad de almacenamiento, un recurso crítico en el pasado).

Frecuencias de muestreo típicas para audio

8000 muestras/s

Teléfonos, adecuado para la voz humana pero no para la reproducción musical. En la práctica permite reproducir señales con componentes de hasta 3,5 kHz.

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 42


22050 muestras/s

Radio En la práctica permite reproducir señales con componentes de hasta 10 kHz.

32000 muestras/s

Vídeo digital en formato miniDV.

44100 muestras/s

CD, En la práctica permite reproducir señales con componentes de hasta 20 kHz. También común en audio en formatos MPEG-1 (VCD, SVCD, MP3).

47250 muestras/s

Formato PCM de Nippon Columbia (Denon). En la práctica permite reproducir señales con componentes de hasta 22 kHz.

48000 muestras/s

Sonido digital utilizado en la televisión digital, DVD, formato de películas, audio profesional y sistemas DAT.

50000 muestras/s

Primeros sistemas de grabación de audio digital de finales de los 70 de las empresas 3M y Soundstream.

96000 ó 192400 muestras/s

HD DVD, audio de alta definición para DVD y BD-ROM (Blu-ray Disc).

2 822 400 muestras/s

SACD, Direct Stream Digital, desarrollado por Sony y Philips.

Aliasing Si se utiliza una frecuencia menor a la establecida por el teorema de Nyquist, se produce una distorsión conocida como aliasing. El aliasing impide recuperar correctamente la señal cuando las muestras de ésta se obtienen a intervalos de tiempo demasiado largos. La forma de la onda recuperada presenta pendientes

muy

abruptas.

Filtro antialiasing Para eliminar el aliasing, los sistemas de digitalización incluyen filtros pasa bajo, que eliminan todas las frecuencias que sobrepasan la frecuencia crítica (la que corresponde a la mitad de la frecuencia de muestreo elegida) en la señal de entrada. Es decir, todas las frecuencias que queden por encima de la frecuencia de muestreo seleccionada son eliminadas. El filtro paso bajo para este uso concreto recibe el nombre de filtro antialiasing. Sin embargo, abusar de los filtros antialiasing, puede producir el mismo efecto que se quiere evitar. ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 43


Cuando se conectan varios filtros en cascada (en el muestreo, en la conversión digitalanalógica, etc.), un filtrado excesivo de una onda que ya cumplía con el requisito para su correcta transformación A/D puede degenerar y provocar que la onda final presente una pendiente marcada. Por esta desventaja del filtro antialiasing se ha generalizado la técnica conocida como sobremuestreo de la señal.

Cuantificación A cada muestra se le asigna un valor numérico, que se corresponde con el valor de tensión eléctrica de la señal analógica. Este valor se redondeará a un número entero que, en cada caso, dependerá del número de bits que estén disponibles para la codificación. La cuantificación consiste en convertir el nivel de las muestras fijadas en el proceso de muestreo, un nivel de tensión, en un valor entero de rango finito y predeterminado. Por ejemplo, utilizando cuantificación lineal, una codificación lineal de 8 bits discriminará entre 256 niveles de señal equidistantes (28). 1 bit aproximadamente son 6dB. Básicamente, la cuantificación lo que hace es convertir una sucesión de muestras de amplitud continua en una sucesión de valores discretos preestablecidos según el código utilizado. Durante el proceso de cuantificación se mide el nivel de tensión de cada una de las muestras, obtenidas en el proceso de muestreo, y se les atribuye un valor finito (discreto) de amplitud, seleccionado por aproximación dentro de un margen de niveles previamente fijado. Los valores preestablecidos para ajustar la cuantificación se eligen en función de la propia resolución que utilice el código empleado durante la codificación. Si el nivel obtenido no coincide exactamente con ninguno, se toma como valor el inferior más próximo. El número de bits que conforman las muestras en un proceso determinado de cuantificación determina la relación señal a ruido máxima que debe tener la señal (la salida de un micrófono y, consecuentemente, el material sonoro que recoge, la salida de un master analógico, etc.) que se pretende cuantificar y, por tanto, limita también el rango dinámico que debe tener para su cuantificación completa, de modo parecido a cómo la capacidad de un recipiente (bits por muestra) limita el volumen de líquido (rango del material sonoro a cuantificar) que puede contener. Por tanto, una cuantificación de 16 bits permite un máximo teórico para la relación señal sinusoidal a ruido de cuantificación de 98,09 dB (65.536 posibles volúmenes o pasos), y una cuantificación de 24 bits 145,8 dB (16.777.216 posibles volúmenes o pasos) Un estudio de grabación (un lugar extraordinariamente silencioso), por ejemplo, puede tener un nivel de ruido ambiente cuya potencia promedio es el equivalente a unos 20 ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 44


dBSPL en toda la banda de audiofrecuencias. Si el sonido más intenso que se desea registrar en ese estudio sólo tiene una potencia 100000 veces (+50 dB) la de ese ruido ambiente, es decir, de 70 dBSPL, la señal de un hipotético micrófono (la electrónica también contribuirá con su propio ruido, típicamente térmico) mostraría para este caso una relación señal a ruido máxima sobre los 50 dB y bastaría un cuantificador de 512 niveles de cuantificación (9 bits) para cuantificar correctamente la señal (máximo SQNR para 512 niveles: 55,95 dB). Todo cuanto se obtiene de una cuantificación con más niveles es el potencial para registrar una mayor relación señal a ruido máxima, esto es, que la potencia máxima que se puede registrar respecto al nivel del ruido sea mayor, pero no podrá en ningún caso mejorar la relación señal a ruido que ya tiene la señal analógica en origen. Por tanto, para saber cuántos niveles de cuantificación son necesarios y suficientes, sólo es necesario conocer la relación señal a ruido máxima de la señal analógica que se pretende cuantificar. La aparición reciente de nuevos formatos de registro de audio digital para usuario final denominados de alta resolución (DVD-Audio y SACD), que permiten el registro de señales con una relación máxima señal a ruido de cuantificación (SQNR) sobre los 120 dB en la banda de audiofrecuencias (20-20000 Hz) parece poner en cuestión la suficiencia, en el ámbito del registro y reproducción de sonidos para el usuario final, del formato más extendido, el CD-Audio (PCM/16 bits), que permite un límite superior teórico a la relación señal a ruido de cuantificación de 98,1 dB en toda la banda hasta su frecuencia crítica (22,05 kHz).

Extensión de la voz y la música natural en intensidad (a distancias de escucha normales) y frecuencia.

Un rango práctico sobre los 90 dB representa un intervalo extraordinariamente amplio si se tiene presente que ese es el rango que se cubre desde un nivel de ruido de ambiente tan bajo como el de un estudio de grabación (~25 dBSPL) hasta la proximidad del umbral del dolor (~120 dBSPL) Sin embargo, el uso de cuantificadores de 20 bits está plenamente justificado en los equipos de grabación y procesamiento o como formato de edición de los estudios profesionales. Este rango dinámico extra permite a ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 45


los profesionales mayores márgenes de error durante los procesos de grabación y procesamiento digital posterior, dejando para el final la conversión al formato final de distribución de 16 bits. Los sistemas de reproducción analógicos del pasado reciente (discos de vinilo, bobinas, casetes, etc.) muestran relaciones señal a ruido máximas inferiores a esta cifra en toda la banda de audiofrecuencias, lo que significa que no pueden registrar señales 74 dB por debajo de su máximo ya que el ruido analógico sería mucho más potente que la señal que se desea registrar.

Error de cuantificación La señal digital que resulta tras la cuantificación es diferente a la señal eléctrica analógica que la originó, algo que se conoce como Error de cuantificación. El error de cuantificación se interpreta como un ruido añadido a la señal tras el proceso de decodificación digital. Si este ruido de cuantificación se mantiene por debajo del ruido analógico de la señal a cuantificar (que siempre existe), la cuantificación no tendrá ninguna consecuencia sobre la señal de interés.

Dither Con objeto de evitar que el ruido de cuantificación se manifieste como una distorsión, se hace necesario añadir un ruido denominado dither antes del proceso de cuantificación o recuantificación (pasar de 24 a 16 bits), será imprescindible añadir dither en los casos donde se recuantifican estas grabaciones a muestras de 16 bits, la tasa de bits de Compact Disc

Señal armónica (sinusoidal pura) con dither añadido en una relación señal a ruido de 21,03 dB lista para ser cuantificada con sólo 4 bits por muestra (16 niveles de cuantificación). La señal tiene, por tanto, unas 127 veces la potencia del dither (11,26 veces su valor eficaz -RMS-). Una futura conversión A/D con más niveles de cuantificación (más bits por muestra) permitirían añadir un dither proporcionalmente (respecto de la señal) menor.

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 46


Sobremuestreo Para evitar las caídas abruptas, de los filtros antialiasing, se utiliza la técnica conocida como sobremuestreo (oversampling), que permite reconstruir, una señal de pendiente suave. Un sobremuestreo consiste en aplicar un filtro digital que actúa sobre el tiempo (dominio de frecuencia), cambiando de lugar las muestras, de forma que al superponerlas, se creen muestreos simultáneos virtuales. Estos muestreos simultáneos no son reales, son simulaciones generadas por el propio filtro. Las muestras obtenidas se superponen con los datos originales y los los promedian, obteniendo una única muestra ponderada (por ejemplo, si se hacen tres muestreos, finalmente, la muestra tomada no es ninguna de las tres, sino su valor medio). Para evitar el aliasing, también se introduce a la entrada un filtro paso bajo, que elimine aquellas frecuencias por encima de la mitad de la frecuencia de muestreo. No obstante, a la salida, la frecuencia de muestreo utilizada para reproducir la señal ya no es la misma que se utilizó para tomar las muestras a la entrada, sino que es tantas veces mayor como números de muestreo se hayan hecho. Consideremos un ejemplo característico de la digitalización de música en formato CD. Imaginemos que para digitalizar el CD se hacen 3 muestreos a 44,1 kHz que se interpolan. Se introduce un filtro paso bajo, llamado decimator, que elimina las frecuencias por encima de los 20 kHz, pero la frecuencia de muestreo utilizada para reconstruir la señal será tres veces mayor: 132,3 kHz. De este modo se reconstruye la señal suavizando la pendiente. A este proceso de filtrado durante la conversión D/A se lo conoce como diezmado. Sin embargo, es evidente que incorporar la técnica del sobremuestreo encarece considerablemente el equipo.

Jitter Se denomina Jitter (término inglés para fluctuación) a la variabilidad temporal durante el envío de señales digitales, una ligera desviación de la exactitud de la señal de reloj (en inglés Clock). El jitter suele considerarse como una señal de ruido no deseada. En general se denomina jitter a un cambio indeseado y abrupto de la propiedad de una señal. Esto puede afectar tanto a la amplitud como a la frecuencia y la situación de fase. El jitter es la primera consecuencia de un retraso de la señal. La representación espectral de las variaciones temporales se denomina ruido de fase. Jitter son los errores que pueden surgir al convertir una señal analógica en una digital.

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 47


Wordclock Una señal digital de audio está compuesta por bits agrupados en "palabras" que representa el valor de cada sample. Wordclock es una señal para sincronización basada en la frecuencia de muestreo o la velocidad a la que cada sample es enviado a través de una conexión digital. Por ejemplo en un sistema de 24 bit y 44.1 Khz, 44100 samples de 24 bits cada uno, son enviados cada segundo. Wordclock es usado por el dispositivo que recibe la señal para descifrar, en la gran cadena de unos y ceros, donde empieza y termina cada sample (cuál es el primer y último bit de cada sample), y si la palabra o sample pertenece a el canal derecho o izquierdo en una señal estéreo. Cuando se transmite señales digitales de un dispositivo a otro es muy importante que sus relojes estén sincronizados para que las palabras de cada sample estén bien "alineadas" en el dispositivo que recibe, de lo contrario se pueden degradar el audio con clicks, pops, y otras aberraciones. La sincronización se logra ya sea haciendo esclavo el reloj interno del equipo que recibe la señal, a aquel del equipo que la envía, o conectado los dos equipos (pueden ser mas) a un reloj master. Uno de los mas famosos de éste tipo es el Apogee Big Ben. Dado que estos relojes suelen ser de muy alta calidad, se dice que incluso pueden mejorar la calidad del sonido de algunos equipos, ya que sustituyendo su reloj por uno mejor y más estable se reduce el Jitter.

Latencia La latencia es una característica propia de las tarjetas de sonido en mayor o menor grado. Es un lapso de tiempo entre la señal de entrada y la salida de esa señal en la tarjeta de sonido. El ordenador necesita tiempo para convenir y procesar la señal y esto se manifiesta como un retardo corto entre la entrada y la salida, lo que hace difícil poder tocar a tiempo junto a las pistas grabadas previamente. . Para poder resolver este problema, algunas tarjetas ofrecen monitorización directa con latencia cero, o también drivers, como lo ASIO, que reducen la latencia al manejar directamente el flujo de audio, pasando por encima del sistema operativo. La latencia es el término que se utiliza para definir el tiempo que transcurre entre el momento de la emisión de un sonido y el momento en que nuestros oídos lo escuchan. Especialmente este término toma especial relevancia cuando el músico es a la vez emisor y receptor, ya que si se produce un retardo apreciable entre el momento en que el músico toca o emite una nota y el que la escucha, este tendrá problemas de interpretación. Después de todo ¿quien puede tocar un instrumento si no oye el sonido inmediatamente?

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 48


¿Cuál es la latencia mínima tolerable por el oído humano? Esta cuestión es un tema que ha generado muchos debates y discusiones no existiendo un acuerdo unánime al respecto de que latencia es la tolerable o la aconsejable para el trabajo con sistemas de audio y es que nuestro oído y cerebro tienen una tolerancia relativamente alta a la latencia y puede variar dependiendo de cada persona, de las características del sonido (si es un sonido de ataque súbito la tolerancia será menor que si se trata de uno de ataque lento) y otros factores. Veamos también varios ejemplos de situaciones habituales a las que estám expuestos los músicos y las latencias implícitas, que pueden ayudar para comprender el fenómeno: Un guitarrista acústico tiene su instrumento a unos 30 o 40 cm. de los oídos, por tanto oye lo que toca como media 1 milisegundo después de tocarlo. Un violinista tiene aun mas cerca el instrumento del oído, a unos 10 cm., tarda 0,3 ms. en oírlo en un oído y algo mas (aprox. 0,6 ms) en el otro oído. El oído de un cantante igualmente esta muy cerca de la fuente y oye con ambos oídos el sonido que emite, aproximadamente 0,3 ms. La cosa empieza a cambiar cuando se trata de un guitarrista eléctrico, el cual oye el sonido que produce su guitarra a través del altavoz del amplificador de guitarra y este puede estar a diversas distancias. A una distancia media de 1 metro, este oirá las notas que toca unos 3 ms. mas tarde. Pero un guitarrista puede tener el amplificador a varios metros de distancia, con lo que esta latencia aumentará, por lo que no debemos alejarnos demasiado de nuestros amplificadores o esto puede llegar a suponer un problema, no siendo aconsejables distancias de más de 3 mts. (9 milisegundos). El tema empieza a ser mas complicado cuando tocan varios músicos entre los cuales puede haber distancias importantes y lo que puede hacer más complejo el tema, distancias diferentes. Imaginemos un conjunto de 3 músicos acústicos dispuestos longitudinalmente en un escenario entre los que haya 4 metros de distancia entre los extremos. El que está ubicado en uno de los extremos se oye a si mismo con un retardo de 0,3 ms., al músico del centro con 6 ms. y al músico del otro extremo con 12 ms de retardo. Las diferencias expuestas en algunos de estos ejemplos son notables y varían entre 0,3 ms y 12 ms, sin embargo en la práctica cotidiana ninguno de los músicos de esta lista tendrán problema en tocar su instrumento solos o al unísono con los demás. La razón es bien sencilla, nuestro oído/mente, en términos generales, no es capaz de distinguir dos sonidos como entes distintos salvo que estén separados en el tiempo al menos 11 milisegundos o mas, por lo que este será el umbral a partir del cual la latencia sí empezará a ser claramente apreciada y a representar un problema.

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 49


Latencia de audio en equipos de procesado de sonido Con latencia en los sistemas de audio, sean analógicos o digitales, nos referimos al retardo que sufre una señal de audio en su tránsito a través de un sistema de procesado de audio, es decir el tiempo que transcurre desde que la señal entra por una de sus entradas hasta que esta es entregada por una de sus salidas. Esta latencia o retardo de la señal se debe al tiempo de proceso que el sistema necesita hasta que nos devuelve de nuevo la señal. En el mundo analógico (mesas de mezcla analógicas, amplificadores, etc.) esta latencia o tiempo de retardo también existe aunque en este caso es puramente una cuestión de tránsito de la señal y es tan pequeño que es absolutamente despreciable e irrelevante en términos musicales, por eso nunca ha sido una cuestión importante en un entorno de proceso analógico de audio. Sin embargo con la llegada de los procesadores digitales esta cuestión comenzó a tomar importancia, al introducir estos sistemas latencias o retardos apreciables y en algunos casos, como en el de los ordenadores, muy significativos, impidiendo en el trabajo de los ordenadores en muchos casos su uso para la monitorización de las señales en tiempo real, convirtiéndose por tanto en un factor clave y en un claro escollo a superar para que el procesado de audio mediante ordenadores pudiera considerarse de igual a igual con los sistemas analógicos y otros sistemas digitales que carecen de latencia apreciable, probablemente el último a superar hoy día.

Cómo funcionan los buffers. En los sistemas de procesado digital de audio el primer paso es digitalizar la señal, es decir pasarla o convertirla de su estado analógico al digital para su posterior procesado en dicho sistema. De dicha transformación se encargan los conversores analógico/digital, dispositivos muy comunes y presentes en todos los aparatos digitales que nos rodean. Ello se realiza mediante un sistema de muestreo de la señal (digitalización propiamente dicha) a una determinada resolución (16 o 24 Bits) y frecuencia (desde 44,1 Khz. a 192 Khz.), dependiendo de cada sistema, con esto se realiza una representación digital de la señal con la suficiente resolución y detalle para que mantenga todas sus características y por tanto no pierda nada en el proceso. Una vez hecho esto tendremos que cada una de las muestras o samples que ha realizado el conversor analógico/digital es la unidad mas pequeña de que se compondrá la señal digitalizada con las que va a trabajar el procesador digital. En el caso del compact disc la digitalización se realiza, como todos sabemos, a 16 bits y 44.1 Khz. Para poder procesar la señal con cierta holgura el sistema necesitará operar con pequeños paquetes de muestras, ya que una sola muestra suele ser demasiado pequeña para realizar los procesos y cálculos necesarios, estos paquetes se guardan

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 50


provisionalmente en pequeños almacenes de memoria intermedia que se han dado en llamar “buffers”. Así pues todo procesador digital necesita utilizar estos “buffers” o paquetes de muestras para cada paso del procesado, por tanto cuanto mayor sea dicho “buffer” mayor será la latencia que genera este paso en el equipo digital. Afortunadamente muchos de los equipos digitales por hardware (como mesas de mezcla y toda clase de procesadores de efectos digitales), gracias a que trabajan con procesadores digitales de señal (DSP) dedicados exclusivamente a procesar audio, pueden operar con “buffers” muy pequeños y a pesar de que hay varios la latencia final resultante se mantiene en unos rangos tolerables en términos musicales que normalmente no superan los 5 milisegundos.

El problema de la latencia de audio en ordenadores En los ordenadores la cosa cambia radicalmente respecto a otros sistemas de proceso de audiodedicados, ya que no es un sistema especializado en audio, si no un sistema de propósito general y por tanto el audio no tiene la prioridad necesaria para poder operar con buffers ultra pequeños como ocurre en otros sistemas de procesado digital dedicados. En primer lugar el procesador y los subsistemas que incluye (no olvidemos que en un ordenador hay muchos tipos de dispositivos conectados, desde ratones, puertos para discos duros, tarjeta gráfica, usb, firewire, memoria central, etc. y el sistema operativo tiene que atender a todos ellos) deben operar conjunta y cooperativamente y por tanto repartirse las llamadas al procesador y las tareas a realizar. Esto ya de por si impone un gran tráfico de datos de todo tipo y normalmente implica que no es posible otorgar de entrada al flujo de audio (que para el sistema es una simple tarea mas) un buffer tan pequeño como para ser minimizable. Además cuanto mas pequeño sea ese buffer mayor estrés se generará en el sistema aumentando exponencialmente el consumo de CPU. En segundo lugar y más importante está el sistema operativo. Este es quien en definitiva arbitra y administra las tareas y las prioridades y el que permite a nuestros programas de audio trabajar y comunicarse con la tarjeta de sonido y demás periféricos. Desafortunadamente el procesado de audio no es una prioridad esencial para los sistemas operativos y por tanto el audio puede sufrir las interferencias de otros procesos constantemente y por tanto no es el entorno precisamente mas propicio para operar a latencias lo suficientemente bajas. Nuestros programas de audio se comunican con la tarjeta de sonido mediante un programa intermediario llamado driver (utilizaremos el anglicismo por su extendido uso), el cual lo proporciona el propio fabricante de la tarjeta y debe instalarse en el ordenador para poder trabajar con la tarjeta conectada a nuestro equipo.

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 51


Dado el grave problema que las altas latencias generadas por los drivers genéricos del sistema operativo imponían a los programas de audio, los fabricantes de software de audio se vieron obligados a desarrollar soluciones para esto. Steinberg fue el pionero en esta cuestión y quien inventó el protocolo hoy por hoy mas extendido: el driver ASIO. Este protocolo o tipo de driver de sonido, está pensado para que el programa de audio pueda saltarse el sistema de comunicación con la tarjeta de sonido proporcionado por el propio sistema operativo (driver de audio genérico) y pueda comunicarse directamente con la tarjeta de sonido, consiguiendo así un flujo de datos directo con esta y por tanto una latencia mucho menor. Steinberg desarrolló el estándar ASIO como un protocolo abierto y por tanto pudo ser adoptado por fabricantes de tarjetas y de programas de audio, por lo que fue finalmente utilizado por (hoy día todos) los fabricantes de tarjetas de audio profesionales o semiprofesionales del entorno Windows e incluso Apple Macintosh (aunque este implementó de manera relativamente reciente con la llegada de su sistema operativo OSX un protocolo propio, denominado Audio Units, que es especialmente apropiado para bajas latencias) y asimismo por todos los programas de audio del mercado (con la excepción de Logic en Mac, programa que al ser propiedad de Apple eliminó en este el soporte de ASIO por motivos obvios comerciales soportando únicamente Audio Units). Si el fabricante de tu tarjeta de sonido no proporciona drivers ASIO, no está todo perdido y aun queda esperanza. Gracias al desarrollo del driver ASIO universal llamado ASIO4ALL puedes conseguir que tu tarjeta funcione con drivers ASIO y a bajas latencias. Este driver de uso gratuito permite mapear el driver estándar que la mayoría de tarjetas del mercado llevan (es el driver nativo de Windows que tuvo su origen en Windows XP) y convertirlo en un driver ASIO virtual con el que trabajará tu programa de audio.

VENTAJAS DEL PROCESO DIGITAL. Preguntas y respuestas.

¿Qué es el audio digital? R: Es la representación de una señal de audio mediante números, en general codificados en forma binaria (es decir con ceros y unos).

¿Por qué se utiliza el audio digital? R: Porque tiene algunas ventajas sobre el audio analógico que lo hacen insustituible. En primer lugar permite ser almacenado en forma inalterable. Dado que lo que se almacenan son números, es decir símbolos, es mucho más difícil alterar la información guardada que en el caso en que se guarda un campo magnético proporcional a la señal, como en un cassette. Otra ventaja es que permite aprovechar la tecnología de procesamiento digital de señales para introducir efectos, modificaciones o mejoras

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 52


imposibles o muy difíciles de lograr analógicamente. Por ejemplo, es posible conseguir retardos, efectos de reverberación, supresión de ruido, etc.

¿Cómo se pasa de una señal eléctrica a una señal digital? R: Se utiliza un proceso de muestreo (discretización en el tiempo) y cuantificación (discretización en amplitud). El muestreo consiste en tomar valores de la señal a intervalos regulares de tiempo. La cuantificación consiste en subdividir el rango útil total de la señal en cierta cantidad de "casilleros" o subintervalos numerados, y asignar a cada muestra el número de subintervalo en el cual se encuentra, que corresponderá con su volumen.

¿Cómo quedan físicamente representados los números asignados después de la digitalización? R: Pueden representarse de varias formas, pero todas ellas utilizan la numeración binaria. En esa numeración sólo se usan los dígitos 0 y 1, denominados bits (binary digits, o dígitos binarios). Así como en la numeración decimal al llegar a 9 se pasa a 10, en la numeración binaria al llegar a 1 se pasa a 10. Una vez en versión binaria, cada bit puede estar representado por una tensión eléctrica (por ejemplo "0" = 0 Volt y "1" = 5 Volt). El conjunto de bits que representan a una única muestra se suelen llamar palabra.

¿Qué es la resolución o cuantificación de un sistema de audio digital? R: Es la cantidad de bits que se utiliza para representar las muestras de audio, es decir la cantidad de bits que conforman cada palabra. Cuanto mayor sea la resolución, más precisa será la representación. Por ejemplo, con una resolución de 8 bits, el rango de variación de la señal se divide en 256 subintervalos, mientras que con una resolución de 16 bits lo hace en 65536 subintervalos, cuya amplitud será, por consiguiente, mucho menor. El audio digital para el consumo masivo (por ejemplo el CD o las placas de sonido de las computadoras) tiene una resolución de 16 bits. En sistemas de audio profesional se utilizan 24 bits

¿Qué es la frecuencia de muestreo? R: También llamada tasa de muestreo, es la cantidad de muestras por unidad de tiempo. Cuanto mayor sea, mayor es la respuesta en frecuencia del sistema. El estándar para los discos compactos (CD) es de 44,1 Khz.

¿Cómo se elige la frecuencia de muestreo? R: Debe ser mayor que el doble de la máxima frecuencia presente en la señal. Esta condición se denomina condición de Nyquist. Obsérvese que no es suficiente que sea mayor que el doble de la máxima frecuencia útil, ya que si hay ruido por encima de ésta, podría producirse un tipo de distorsión denominado aliasing .

¿Qué es el aliasing?

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 53


R: Según el denominado teorema del muestreo, si se muestrea con una frecuencia que no cumple la condición de Nyquist (ver pregunta anterior) al intentar reconstruir la señal se generan frecuencias espurias que no estaban presentes originalmente. Supongamos, por ejemplo, que queremos muestrear una señal audible que contiene además un ruido de 35 Khz. Si utilizamos la frecuencia normalizada de 44,1 Khz., a pesar de que ese ruido es originalmente inaudible (por ser mayor que el límite superior de 20 Khz. del oído humano), al intentar recuperar la señal aparecerá un ruido de 9,1 Khz. (= 44,1 Khz. - 35 Khz.), que es perfectamente audible. Este tipo de frecuencias que aparecen dentro del espectro útil se denominan frecuencias "alias".

¿Qué sucede cuando la frecuencia de muestreo está fijada por las características del sistema (por ejemplo, porque va a ser utilizada en un CD), y por lo tanto no puede elegirse libremente para cumplir la condición de Nyquist? R: En ese caso hay que actuar sobre la señal. Se utiliza un filtro antialias, que suprime todas las frecuencias por encima de la frecuencia de Nyquist, es decir la mitad de la frecuencia de muestreo. En el caso del CD, que utiliza una frecuencia de muestreo de 44,1 Khz., el filtro antialias debe conservar todas las frecuencias por debajo de 20 Khz. y eliminar todas las que están por encima de 22,05 Khz. (= 44,1 Khz. / 2).

Si la relación señal/ruido aumenta con el número de bits ¿por qué no se aumenta indefinidamente la cantidad de bits? R: Primero, porque no sería práctico, ya que obligaría a manejar una gran cantidad de información simultáneamente, lo cual implica un elevado costo. De todas maneras, el costo por bit es cada vez menor. Al principio se usaban 8 bits, luego se estableció el estándar de 16 bits para el audio digital comercial. Hoy en día los profesionales trabajan con conversores de hasta 24 bits. Pero hay otra cuestión más. Una resolución de 24 bits implica una relación señal/ruido de 144 dB. Ello significa que si la señal es de 4 V (un valor considerado muy alto para una señal de nivel de línea), entonces el ruido de digitalización estará 144 dB por debajo.

A la luz de la respuesta anterior ¿cómo se explica que haya programas de edición de sonido que trabajen con 32 y hasta con 64 bits? R: Es tratar de reducir los errores acumulativos por truncado en los procesamientos que requieren una gran cantidad de operaciones. Para comprenderlo, y utilizando numeración decimal para simplificar el ejemplo, supongamos que se requiere multiplicar el número 1 veinte veces por 0,800 (un tipo de operación que podría formar parte de una reverberación artificial), y supongamos que se desea una precisión de sólo 3 cifras significativas. Trabajando primero con toda la precisión que permite una calculadora de 10 cifras, tendremos: 0,800 - 0,640 - 0,512 - 0,4096 - 0,32768 - ... 0,01152929215. Truncando el resultado para conservar sólo las 3 primeras cifras decimales, resulta 0,011. Si ahora en lugar de truncar al final se trunca al cabo de cada multiplicación, tendremos: 0,800 - 0,640 - 0,512 - 0,409 - 0,327 - ... - 0,009. Vemos que el resultado obtenido difiere del anterior. Esto mismo sucede en el caso del software de edición, sólo que en lugar de veinte operaciones podrían ser decenas de miles. Al ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 54


trabajar internamente con mayor precisión (por ejemplo, 32 bits) y truncar recién al final para adaptarse a la cantidad de bits del formato utilizado (por ejemplo 16 bits), el error por truncamiento se reduce considerablemente.

¿Cuál es la relación señal/ruido necesaria para una buena calidad de reproducción? R: Debería ser comparable con el rango dinámico del oído, que es la diferencia entre el umbral de dolor y el umbral de audición. En el caso más extremo, es decir el de personas jóvenes con excelente audición, estos umbrales están cerca de 120 dB y 0 dB respectivamente, por lo cual una relación señal/ruido de 120 dB debería ser suficiente para las mayores exigencias. Sin embargo, en general las condiciones de escucha normales no permiten llevar a la práctica esta relación señal/ruido, ya que es muy difícil lograr ambientes con ruido de fondo inferior a 20 dB. Por lo tanto una relación señal/ruido de 100 dB debería resultar suficiente en la mayor parte de los casos ¿Qué es dither y para qué se usa? R: Cuando se está digitalizando una señal de muy poca amplitud, los saltos discretos entre escalones sucesivos adquieren una dimensión comparable con la amplitud de la propia señal. Esto implica que la forma de onda sufre una distorsión que resulta ser perfectamente audible y molesta. Esto es porque además del espectro del sonido propiamente dicho se agregan sus armónicos, que contienen energía concentrada en el espectro en frecuencias discretas. En otras palabras, la energía del ruido de digitalización está concentrada. Se ha encontrado que si, antes del muestreo, se agrega una pequeña cantidad de ruido aleatorio (de espectro continuo y no discreto), al cabo del proceso de digitalización la señal resultante también tiene la energía correspondiente al ruido de digitalización distribuida, en lugar de concentrada. Desde el punto de vista de la relación señal/ruido, hubo un ligero empeoramiento, pero desde el punto de vista perceptivo, el ruido se ha vuelto mucho más tolerable e imperceptible. Hasta se puede trabajar con la forma de su espectro para hacerlo menos notorio. El ruido agregado se denomina dither (en inglés, una especie de temblor, como al tiritar).

TIPOS DE PLATAFORMAS INFORMÁTICAS

El ordenador Un ordenador es una máquina electrónica que recibe y procesa datos para convertirlos en información útil. Una computadora es una colección de circuitos integrados y otros componentes relacionados que puede ejecutar con exactitud, rapidez y de acuerdo a lo indicado por un usuario o automáticamente por otro programa, una gran variedad de secuencias o rutinas de instrucciones que son ordenadas, organizadas y sistematizadas en función a una amplia gama de aplicaciones prácticas y precisamente determinadas, ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 55


proceso al cual se le ha denominado con el nombre de programación y al que lo realiza se le llama programador. La computadora u ordenador, además de la rutina o programa informático, necesita de datos específicos (a estos datos, en conjunto, se les conoce como "Input" en inglés o de entrada) que deben ser suministrados, y que son requeridos al momento de la ejecución, para proporcionar el producto final del procesamiento de datos, que recibe el nombre de "output" o de salida. La información puede ser entonces utilizada, reinterpretada, copiada, transferida, o retransmitida a otra(s) persona(s), computadora(s) o componente(s) electrónico(s) local o remotamente usando diferentes sistemas de telecomunicación, pudiendo ser grabada, salvada o almacenada en algún tipo de dispositivo o unidad de almacenamiento. En la actualidad se puede tener la impresión de que los computadores están ejecutando varios programas al mismo tiempo. Esto se conoce como multitarea, y es más común que se utilice el segundo término. En realidad, la CPU ejecuta instrucciones de un programa y después tras un breve periodo de tiempo, cambian a un segundo programa y ejecuta algunas de sus instrucciones. Esto crea la ilusión de que se están ejecutando varios programas simultáneamente, repartiendo el tiempo de la CPU entre los programas. Esto es similar a la película que está formada por una sucesión rápida de fotogramas. El sistema operativo es el programa que generalmente controla el reparto del tiempo. Respecto al “hardware”, el ordenador se compone normalmente de: Monitor, placa base, procesador, puertos ATA, Memoria principal (RAM), fuente de alimentación, unidad de almacenamiento óptico, disco duro, teclado y ratón. A continuación desarrollaremos las características fundamentales de sus componentes más importantes.

El Microprocesador El microprocesador, o simplemente procesador, es el circuito integrado central y más complejo de una computadora u ordenador; a modo de ilustración, se le suele asociar por analogía como el "cerebro" de una computadora. El procesador es un circuito integrado constituido por millones de componentes electrónicos integrados. Constituye la unidad central de procesamiento (CPU) de un PC catalogado como microcomputador. El microprocesador está conectado, generalmente, mediante un zócalo específico a la placa base. Normalmente para su correcto y estable funcionamiento, se le adosa un sistema de refrigeración, que consta de un disipador de calor fabricado en algún material de alta conductividad térmica, como cobre o aluminio, y de uno o más ventiladores que fuerzan la expulsión del calor absorbido por el disipador ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 56


La "velocidad" del microprocesador suele medirse por la cantidad de operaciones por ciclo de reloj que puede realizar y en los ciclos por segundo que este último desarrolla, o también en MIPS. Está basada en la denominada frecuencia de reloj (oscilador). La frecuencia de reloj se mide Hertzios, pero dada su elevada cifra se utilizan múltiplos, como el megahertzio o el gigahertzio. Un computador de alto rendimiento puede estar equipado con varios microprocesadores trabajando en paralelo, y un microprocesador puede, a su vez, estar constituido por varios núcleos físicos o lógicos. Un núcleo físico se refiere a una porción interna del microprocesador cuasi-independiente que realiza todas las actividades de una CPU solitaria, un núcleo lógico es la simulación de un núcleo físico a fin de repartir de manera más eficiente el procesamiento. El primer microprocesador fue el Intel 4004, producido en 1971, desde entonces Intel a continuado diseñando procesadores junto con su gran rival AMD.

Los microprocesadores modernos tienen una capacidad y velocidad mucho mayores, trabajan en arquitecturas de 64 bits, integran más de 700 millones de transistores, como es en el caso de las serie Core i7, y pueden operar a frecuencias normales algo superiores a los 3GHz (3000MHz). Estos son los ultimos microprocesadores que actualmente se comercializan en el mundo.

2006: EL Intel Core Duo Intel lanzó ésta gama de procesadores de doble núcleo y CPUs 2x2 MCM (módulo Multi-Chip) de cuatro núcleos con el conjunto de instrucciones x86-64, basado en el la nueva arquitectura Core de Intel.

2008: El Intel Core Nehalem Intel Core i7 es una familia de procesadores de cuatro núcleos de la arquitectura Intel x86-64. Los Core i7 son los primeros procesadores que usan la microarquitectura Nehalem de Intel y es el sucesor de la familia Intel Core 2.

2008: Los AMD Phenom II y Athlon II Phenom II es el nombre dado por AMD a una familia de microprocesadores o CPUs multinúcleo (multicore) fabricados en 45 nm. Una de las ventajas del paso de los 65 nm a los 45 nm, es que permitió aumentar la cantidad de cache L3. De hecho, ésta se incrementó de una manera generosa, pasando de los 2 MiB del Phenom original a 6 MiB.

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 57


Procesador AMD Athlon 64 X2 conectado en el zócalo de una placa base.

La memoria cache del microprocesador Es una memoria ultrarrápida que emplea el micro para tener a mano ciertos datos que predeciblemente serán utilizados en las siguientes operaciones sin tener que acudir a la memoria RAM reduciendo el tiempo de espera. Todos los micros compatibles con PC poseen la llamada cache interna de primer nivel o L1; es decir, la que está más cerca del micro, tanto que está encapsulada junto a él. Los micros más modernos (Pentium III Coppermine, athlon Thunderbird, etc.) incluyen también en su interior otro nivel de caché, más grande aunque algo menos rápida, la caché de segundo nivel o L2 e incluso memoria caché de nivel 3, o L3.

La Memoria de acceso aleatorio o RAM La memoria de acceso aleatorio (en inglés: random-access memory, cuyo acrónimo es RAM) es la memoria desde donde el procesador recibe las instrucciones y guarda los resultados. La RAM continua siendo volátil por lo que posee la capacidad de perder la información una vez que se agote su fuente de energía. Existe una memoria intermedia entre el procesador y la RAM, llamada caché, pero ésta sólo es una copia (de acceso rápido) de la memoria principal (típicamente discos duros) almacenada en los módulos de RAM. Se utiliza como memoria de trabajo para el sistema operativo, los programas y la mayoría del software. Es allí donde se cargan todas las instrucciones que ejecutan el procesador y otras unidades de cómputo. Se denominan "de acceso aleatorio" porque se puede leer o escribir en una posición de memoria con un tiempo de espera igual para cualquier posición, no siendo necesario seguir un orden para acceder a la información de la manera más rápida posible. La conexión con los demás componentes se realiza por medio de un área de pines en uno de los filos del circuito impreso, que permiten que el modulo al ser instalado en un

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 58


zócalo apropiado de la placa base, tenga buen contacto eléctrico con los controladores de memoria y las fuentes de alimentación, hay dos tipos de conexión: Módulos DIMM: Usado en computadores de escritorio. Se caracterizan por tener un bus de datos de 64 bits. Módulos SO-DIMM: Usado en computadores portátiles. Formato miniaturizado de DIMM.

Módulos formato SIMM de 30 y 72 pines

El Sistema operativo Un sistema operativo (SO) es el programa o conjunto de programas que efectúan la gestión de los procesos básicos de un sistema informático, y permite la normal ejecución del resto de las operaciones. Uno de los propósitos del sistema operativo que gestiona el núcleo intermediario consiste en gestionar los recursos de localización y protección de acceso del hardware, hecho que alivia a los programadores de aplicaciones de tener que tratar con estos detalles. Se encuentran en la mayoría de los aparatos electrónicos que utilizan microprocesadores para funcionar. (teléfonos móviles, reproductores de DVD, computadoras, radios, etc.). Los principales sistemas operativos actuales son: Windows 7, Windows Vista, Windows XP, MacOsX y Linux Debian

Formatos de disco o sistemas de archivos El formato de disco es un conjunto de operaciones informáticas, independientes entre sí, físicas o lógicas, que permiten restablecer un Disco duro, una partición del mismo o cualquier otro dispositivo de almacenamiento de datos a su estado original, u óptimo para ser reutilizado o reescrito con nueva información. Esta operación puede borrar, aunque no de forma definitiva, los datos contenidos en él. En algunos casos esta utilidad puede ir acompañada de un particionado de disco.

De forma habitual, los usuarios hacen referencia al formato de disco para referirse al Formato de Alto Nivel. ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 59


Formato de bajo nivel También llamado formato físico, es realizado por software y consiste en colocar marcas en la superficie de óxido metálico magnetizable de Cromo o Níquel, para dividirlo en pistas concéntricas y estas, a su vez, en sectores los cuales pueden ser luego referenciados indicando la cabeza lectora , el sector y cilindro que se desea leer.

Formato de alto nivel El formato lógico, de alto nivel o también llamado sistema de archivos, puede ser realizado habitualmente por los usuarios, aunque muchos medios vienen ya formateados de fábrica. El formato lógico implanta un sistema de archivos que asigna sectores a archivos. En los discos duros, para que puedan convivir distintos sistemas de archivos, antes de realizar un formato lógico hay que dividir el disco en particiones; más tarde, cada partición se formatea por separado.

El formateo de una unidad implica la eliminación de los datos, debido a que se cambia la asignación de archivos a sectores, con lo que se pierde la vieja asignación que permitía acceder a los archivos.

Cada sistema operativo tiene unos sistemas de archivos más habituales: Windows: FAT, FAT16, FAT32, NTFS. Mac: HFS y HFS+ Linux: ext2, ext3, ext4, JFS, ReiserFS, Reiser4, XFS.

FAT Tabla de asignación de archivos, comúnmente conocido como FAT (del inglés file allocation table), es un sistema de archivos desarrollado para MS-DOS. FAT es relativamente sencillo. A causa de ello, es un formato popular para disquetes admitido prácticamente por todos los sistemas operativos existentes para computadora personal. Se utiliza como mecanismo de intercambio de datos entre sistemas operativos distintos que coexisten en la misma computadora, lo que se conoce como entorno multiarranque. También se utiliza en tarjetas de memoria y dispositivos similares. Las implementaciones más extendidas de FAT tienen algunas desventajas. Cuando se borran y se escriben nuevos archivos tiende a dejar fragmentos dispersos de éstos por todo el soporte. Con el tiempo, esto hace que el proceso de lectura o escritura sea cada ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 60


vez más lento. La denominada desfragmentación es la solución a esto, pero es un proceso largo que debe repetirse regularmente para mantener el sistema de archivos en perfectas condiciones. FAT tampoco fue diseñado para ser redundante ante fallos. Inicialmente solamente soportaba nombres cortos de archivo: ocho caracteres para el nombre más tres para la extensión. También carece de permisos de seguridad: cualquier usuario puede acceder a cualquier archivo.

Ha habido varias versiones de FAT a lo largo de la historia, la última es FAT 32: FAT32 fue la respuesta para superar el límite de tamaño de FAT16. El tamaño máximo de un archivo en FAT32 es 4 gigabytes lo que resulta engorroso para aplicaciones de captura y edición de video, ya que los archivos generados por éstas superan fácilmente ese límite.

FAT es, hoy por hoy, el sistema de archivos habitual en medios de almacenamiento extraíbles, ya que puede ser reconocido y leido por Windows, Mac y Linux.

NTFS NTFS (NT File System) es un sistema de archivos de Windows NT incluido en las versiones de Windows 2000, Windows XP, Windows Server 2003, Windows Server 2008, Windows Vista y Windows 7 Es un sistema adecuado para las particiones de gran tamaño requeridas en estaciones de trabajo de alto rendimiento y servidores. NTFS ha reemplazado al anterior sistema de ficheros de Microsoft, llamado FAT, común a MS-DOS y a las versiones tempranas de Windows, pudiendo de esta forma transferir archivos mayores de 4GB. Sin embargo, a pesar de lo descrito anteriormente, este sistema de archivos posee un funcionamiento prácticamente secreto, ya que Microsoft no ha liberado su código como hizo con FAT.

HFS Es un sistema de archivos desarrollado por Apple Inc. para su uso en computadores que corren Mac OS. Originalmente diseñado para ser usado en disquetes y discos duros.

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 61


HFS+ HFS Plus o HFS+ es un sistema de archivos desarrollado por Apple Inc. para reemplazar al HFS (Sistema jerárquico de archivos). También es el formato usado por el iPod al ser formateado desde un Mac. HFS Plus también es conocido como HFS Extended y Mac OS Extended. No hay limitación, como en NTFS, para transferir archivos.

Compatibilidades entre sistemas de archivos Un ordenador Mac, reconocerá un disco duro formateado, pudiendo leer la información, pero no podrá escribir en el mismo Un ordenador PC, ejecutando windows, no reconocerá un disco duro formateado en HFS+, siendo incapaz de leer ni escribir en el. Para poder tener acceso existen desarrollos de software específicos como Mac Drive, de la compañía Mediafour.

Actualmente, con la ultima versión de MacOs X Show Leopard, si introducimos el DVD del sistema operativo en el PC y ejecutamos el “bootcamp”, podremos leer sistemas de archivos HFS+ en PC sin ningún problema.

El ordenador portátil Una de las características más sorprendentes de la era digital es la miniaturización. Uno de los descubrimientos más espectaculares es el del ordenador portátil. Con el surgimiento de los ordenadores portátiles más pequeños, más ligeros y más potentes, ha llegado el fénix tecnológico de la DAW portátil. Con la llegada de las interconexiones de audio, controladores y otros aparatos periféricos USB y FireWire, estos sistemas son ahora capaces de manejar la mayoría (si no todas) de las funciones de edición y procesamiento que se utilizan en el estudio. De hecho, estos sistemas con alimentación AC o baterías son ahora lo bastante potentes como para manejar funciones de edición/mezcla de una DAW avanzada, y también son capaces de manejar muy satisfactoriamente una amplia variedad de plug-ins e instrumentos virtuales, todo con la comodidad de poder realizarlo en cualquier parte. Todas estas ventajas innegables conllevan algún inconveniente: Como los portátiles están optimizados para funcionar con batería con muy poco consumo de corriente. •

Su precio en comparación con un ordenador de sobremesa en igualdad de características, es mayor.

Los procesadores suelen funcional más despacio.

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 62


Las BIOS (los "cerebros" importantes de un ordenador) pueden ser diferentes (especialmente en lo que respecta a los elementos de ahorro de batería).

Las unidades de disco duro pueden funcionar a menor velocidad.

Las capacidades de pantalla de vídeo están algunas veces limitadas cuando se comparan con un ordenador de sobremesa.

Se calientan más que un ordenador de sobremesa.

Aunque la unidad central de procesamiento (CPU) a menudo funcionará más despacio (muchas veces para reducir el consumo de energía en la forma de calor), la mayoría de los portátiles modernos son lo bastante potentes para rendir en el proceso. Por esta razón, lo recomendable es conseguir el sistema con la CPU más rápida que se pueda permitir.

Tanto los portátiles PC como Mac suelen tener un elemento de ahorro de potencia automático (llamado respectivamente "paso de velocidad" y "ciclo procesador") que cambia la velocidad de la CPU de la misma-forma que un vehículo cambia de marcha para ahorrar energía. A menudo estos cambios de marcha provocan estragos en muchas de las funciones DSP de una estación de audio. Apagándolas mejorará en gran medida el rendimiento, aunque reduce la vida de la batería.

Las velocidades de la unidad del disco duro en un portátil suelen ser limitadas si las comparamos con un ordenador de sobremesa, dando como resultado tiempos de acceso más lentos y menos unidades de cálculo de una pista en una DAW multipista. Aunque estas velocidades suelen ser más que adecuadas para las aplicaciones generales de música, se pueden optimizar muchas veces a través mediante el uso de una unidad de disco externo FireWire.

De nuevo, cuando se trata de la RAM, es recomendable instalar la máxima posible en el portátil. Esto reducirá el intercambio de datos a disco en aplicaciones de audio más grandes (especialmente los sintetizadores y los samplers software). Dentro de algunos sistemas, la tarjeta de vídeo de un portátil puede mermar la RAM del sistema (que puede limitar las funciones de procesamiento de audio en una DAW). Los problemas relacionados con la memoria también pueden surgir cuando se utiliza una placa base para ejecutar una configuración de monitor dual (monitor externo y LCD).

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 63


INTERCONEXIONADO INTERNO

IDE: Integrated Device Electronics Controla los dispositivos de almacenamiento masivo de datos, como los discos duros y ATAPI (Advanced Technology Attachment Packet Interface) Hasta aproximadamente el 2004, el estándar principal por su versatilidad y asequibilidad. Son planos, anchos y alargados. Actualmente en desudo en beneficio de los SATA

SERIAL ATA (SATA) Serial ATA o SATA (acrónimo de Serial Advanced Technology Attachment) es una interfaz de transferencia de datos entre la placa base y algunos dispositivos de almacenamiento, como puede ser el disco duro, lectores y regrabadores de CD/DVD/BR, Unidades de Estado Sólido u otros dispositivos de altas prestaciones que están siendo todavía desarrollados. Actualmente es una interfaz aceptada y estandarizada en las placas base de PC. Serial ATA sustituye a la tradicional Parallel ATA o P-ATA. SATA proporciona mayores velocidades, mejor aprovechamiento cuando hay varias unidades, mayor longitud del cable de transmisión de datos y capacidad para conectar unidades al instante.

Generaciones y velocidades: SATA I: 150 MBits/seg SATA II: 300 MBits/seg SATA III: 600 Mbits/seg

Puertos SATA en una placa base o placa madre.

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 64


PCI / PCI Express Un Peripheral Component Interconnect (PCI, "Interconexión de Componentes Periféricos") consiste en un bus de ordenador estándar para conectar dispositivos periféricos directamente a su placa base. Estos dispositivos pueden ser circuitos integrados ajustados en ésta o tarjetas de expansión que se ajustan en conectores. Es común en PC, donde ha desplazado al ISA como bus estándar, pero también se emplea en otro tipo de ordenadores. Con la introducción de la versión serial PCI Express en el 2004, los fabricantes de placas base van incluyendo cada vez menos ranuras PCI a favor del nuevo estándar, aunque todavía es común ver ambas interfaces implementadas.

Ranuras PCI

INTERCONEXIONADO EXTERNO

En un pasado no tan remoto, podía ser un gran problema el instalar un aparato en un ordenador o la conexión entre sistemas de ordenador. Con el desarrollo de los protocolos USB y FireWire (y también la programación general mejorada de unidades de disco hardware), los dispositivos hardware como los ratones, teclados, cámaras, tarjetas de sonido, módems, conexionado MIDI, CD y unidades de disco duro, reproductores MP3, incluso ventiladores portátiles, se pueden conectar a un puerto disponible, instalados y preparados para funcionar en poco tiempo y (normalmente) sin problemas.

USB Fue creado en 1996 por siete empresas (que actualmente forman el consejo directivo): IBM, Intel, Northern Telecom, Compaq, Microsoft, Digital Equipment Corporation y NEC. El diseño del USB tenía en mente eliminar la necesidad de adquirir tarjetas separadas para poner en los puertos bus ISA o PCI, y mejorar las capacidades plug-and-play ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 65


permitiendo a esos dispositivos ser conectados o desconectados al sistema sin necesidad de reiniciar. Sin embargo, en aplicaciones donde se necesita ancho de banda para grandes transferencias de datos, o si se necesita una latencia baja, los buses PCI o PCIe salen ganando. Igualmente sucede si la aplicación requiere de robustez industrial. A favor del bus USB, cabe decir que cuando se conecta un nuevo dispositivo, el servidor lo enumera y agrega el software necesario para que pueda funcionar (esto dependerá ciertamente del sistema operativo que se esté usando. Modos de velocidad: •

USB 1.0 (12 Mbits/segundo)- Para la conexión de aparatos que necesitan un rendimiento total más alto (como transferencia de datos, tarjetas de sonido, cámaras de vídeo comprimido digitalmente y escáners).

USB 2.0 (480Mbits/segundo) - Para un rendimiento total alto y .transferencia rápida de las aplicaciones arriba mencionadas.

USB 3.0 (4.8 Gbps). La velocidad del bus es aproximadamente 10 veces más rápida que la del USB 2.0. A la vez, la intensidad de la corriente se incrementa de los 500 a los 900 miliamperios, que sirve para abastecer a un teléfono móvil o un reproductor audiovisual portátil en menos tiempo.

Las características básicas del USB incluyen: •

Hasta 127 aparatos externos se pueden añadir a un sistema sin tener que abrir el ordenador. Como consecuencia, la industria evoluciona hacia un enfoque de "carcasa sellada" o "caja cerrada con llave" para el diseño de hardware de ordenadores.

Sistemas operativos más nuevos reconocen y configuran automáticamente cualquier aparato USB que se vende junto con sus controladores.

Los dispositivos son "conectables en caliente", esto significa que pueden añadirse (o quitarse) mientras el ordenador está encendido y en funcionamiento.

Los cables USB pueden ser de hasta 5 metros de longitud (hasta 3 metros para dispositivos de baja velocidad) e incluir dos pares de hilos trenzados, uno para llevar los datos de la señal y el otro para llevar un voltaje DC a un aparato que requiere alimentación del propio USB. Aquellos que utilicen menos de 500 miliamperios (1/2 amperio) pueden obtener la potencia directamente del soporte 5-V DC de cable USB, mientras que aquellos que tienen demandas de corriente más alta necesitarán ser alimentados de manera externa.

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 66


Los cables estándar USB tienen dos tipos de conectores en cada extremo. Por ejemplo, un cable entre el PC y un aparato tendría un enchufe "A" en la conexión del PC (raíz) y un enchufe "B" para el receptáculo del aparato.

La distribución del cable y la "red tipo anillo" se efectúan vía hub (concentrador USB) de datos. Estos dispositivos actúan como un policía de tráfico, y transfieren los datos a través de diferentes entradas de USB de un modo secuencia!, conduciendo los datos hacia una única línea de salida. Se debe tener en cuenta que no todos los hubs se construyen de la misma forma. En algunas situaciones, el conjunto de chips que se utiliza dentro de un hub podría no ser compatible con ciertos sistemas MIDI y de interfaz de audio. Si surge un problema de conexión, contacte con el fabricante para pedir consejo.

Tipos diferentes de conectores USB: micro USB macho, mini USB, tipo B macho, tipo A hembra, tipo A macho.

Logotipo de USB

FireWire Lanzado en 1995 Originalmente creado a mediados de la década de los noventa por Apple (y después estandarizado como IEEE-1394), el protocolo FireWire es similar al estándar USB en cuanto a que utiliza una estructura de par trenzado para comunicar datos bidireccionales en serie dentro de una cadena conectable en caliente. A diferencia del USB (que puede manejar hasta 127 aparatos por bus), FireWire permite conectar dentro de una cadena conectada hasta 63 aparatos.

FireWire mantiene dos modos de velocidad: FIREWIRE 400. (IEEE-1394) Tiene un ancho de banda de 400 Mbit/s similar a la del USB 2.0 (480 Mbit/s), aunque en pruebas realizadas, en transferencias de lectura de 5000 ficheros

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 67


con un total de 300 Mb, FireWire completó el proceso con un 33% más de velocidad que USB 2.0, debido a su arquitectura peer-to-peer mientras USB utiliza arquitectura slave-master. Capaz de distribuir datos a través de cables de hasta 4,5 metros de longitud. FireWIre 400 es ideal para comunicar grandes cantidades de datos a dispositivos como unidades de disco duro, videocámaras y aparatos de interfaz de audio.

FIREWIRE 800 (IEEE-1394b) (800 Mbits/segundo). FireWire 800 es capaz de comunicar grandes cantidades de datos a través de cables de hasta 100 metros de longitud. Así, para usos que requieran la transferencia de grandes volúmenes de información, resulta muy superior al USB 2.0. Posee compatibilidad retroactiva con Firewire 400 utilizando cables híbridos que permiten la conexión en los conectores de Firewire400 de 6 pines y los conectores de Firewire800, dotados de 9 pines. No fue hasta 2003 cuando Apple lanzó el primer uso comercial de Firewire800.

Conector FireWire 400 de 6 pines.

Conector FireWire 800 de 9 pines.

ExpressCard ExpressCard es un estándar de hardware que reemplaza a las tarjetas PCMCIA / PC Card / CardBus. El dispositivo host soporta conectividad PCI-Express y USB 2.0 en el slot ExpressCard, y cada tarjeta utiliza el modo de conectividad que el diseñador considere más apropiado para la tarea. Las tarjetas pueden conectarse al ordenador encendido sin necesidad de reiniciarlo (soportan Hot swap o conexión en caliente) El beneficio principal de la tecnología ExpressCard sobre CardBus es un gran aumento del ancho de banda, causado porque ExpressCard tiene una conexión directa al bus del sistema sobre una conexión PCI-Express x1 o USB 2.0, mientras que CardBus utilizaba un controlador de interface que sólo interactúa con PCI. ExpressCard tiene un rendimiento de procesamiento máximo de 2,5 Gigabits/segundo sobre PCI-Express ó 480 Megabits/segundo sobre USB 2.0 dedicado para cada ranura. ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 68


Tarjeta Expresscard adaptadora a USB 3.0

Tarjeta Expresscard de UniversalAudio, carga con el procesamiento de plugins.

SATA Externo (e-SATA) Fue estandarizado a mediados de 2004, con definiciones específicas de cables, conectores y requisitos de la señal para unidades eSATA externas. eSATA se caracteriza por tener la velocidad de SATA en los discos externos (se han medido 115 MB/s con RAID externos) La longitud de cable se restringe a 2 metros; USB y Firewire permiten mayores distancias. Actualmente, la mayoría de las placas bases han empezado a incluir conectores eSATA, también es posible usar adaptadores de bus o tarjetas PC-Card y CardBus para portátiles que aun no integran el conector.

Conectores e-SATA

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 69


SOPORTES DE ALMACENAMIENTO DE LA INFORMACIÓN

GRABACIÓN MAGNÉTICA DIGITAL: sobre soporte magnético, bien cinta como el DAT u otros formatos similares; o bien sobre soportes magnéticos informáticos como el disco flexible, actualmente en desuso. De bobina abierta: DASH, ProDigi Modular multipista (MDM): ADAT, DA-88, DTRS De casete: DAT, DCC

GRABACIÓN ÓPTICA DIGITAL: la señal es grabada sobre el soporte de forma óptica, mediante un láser. Compact Disc (CD-Audio) SuperAudio CD Blu-Ray

GRABACIÓN MAGNETO-ÓPTICA DIGITAL. Sistema combinado que graba de forma magnética, pero puede reproducir de forma óptica. Es el caso del minidisc y del propio disco duro de cualquier ordenador.

A continuación profundizaremos en los sistemas de grabación más usados hoy en día, la grabación óptica digital y magneto-óptica.

Grabación óptica digital.Disco óptico En el campo de la informática, y la reproducción de sonido y de video, un disco óptico es un disco circular en el cual la información se codifica, se guarda, almacena... haciendo unos surcos, pits, microscópicos con un láser sobre una de las superficies planas que lo componen, que suele ser de aluminio. El material de codificación se sitúa por encima de un sustrato de mayor grosor, generalmente de policarbonato, que constituye la mayor parte del disco. El patrón de codificación sigue un recorrido en espiral continuo que cubre la superficie del disco entera, extendiéndose desde la pista más interna hasta la más externa. El acceso a los datos, lectura, se realiza cuando esta superficie es iluminada con un haz de láser generado por un diodo láser dentro de la unidad de disco óptico la cual hace girar el disco a velocidades alrededor de 200 RPM a 4000 RPM o más, dependiendo del tipo de unidad, el formato de disco, y la distancia desde el cabezal de lectura hasta el centro del disco, las pistas internas son leídas a una

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 70


velocidad mayor. Los surcos en la superficie modifican el comportamiento del haz de láser reflejado y nos dan la información que contiene el disco. El reverso de un disco óptico generalmente tiene impresa una etiqueta, hecha usualmente de papel pero a veces impresa o estampada en el disco mismo. Este lado, sin codificar, del disco es típicamente cubierto con un material transparente, en general laca. A diferencia de los disquetes, la mayoría de los discos ópticos no tienen integrada una carcasa protectora y por lo tanto son susceptibles a los problemas de transferencia de datos debido a ralladuras, grietas, huellas, y otros problemas del entorno. Aunque las huellas, el polvo y la suciedad en muchos casos pueden ser removidas con un paño húmedo. Un disco óptico está diseñado para soportar uno de tres tipos de grabación: solo lectura, por ejemplo CD y CD-ROM, grabable, posibilidad de escribir una sola vez, por ejemplo CD-R), o regrabable (reescribible, por ejemplo CD-RW. Los discos grabables usualmente poseen una capa de grabación de tinte orgánico entre el sustrato y la capa reflexiva. Por otra parte, los discos regrabables contienen una capa de grabación de aleación compuesta de un material en cambio de estado, la mayoría de las veces de El formato BluRay, se impuso a su competidor, el HD DVD, en la guerra de formatos iniciada para cambiar el estándar DVD. Aunque la tendencia del mercado apunta que el sucesor del DVD no será un disco óptico sino la tarjeta de memoria. Siendo el competidor más duro que tiene el Blu-ray. El límite de capacidad en las tarjetas de formato SD/MMC está ya en 128 GB en modo LBA (28-bit sector address), teniendo la ventaja de ser regrabables al menos durante 5 años. En Japón y Estados Unidos, Pioneer triunfó con el disco de video hasta la llegada del DVD. En 1979, Philips y Sony, en consorcio, comenzaron a desarrollar un nuevo disco óptico de almacenamiento de audio con tecnología digital y en 1983 terminaron con éxito el disco compacto (CD). Paralelamente, la compañía Pioneer tuvo éxitos en el campo de los discos de video hasta el desarrollo del actual DVD. A mitad de los años 1990, un consorcio de fabricantes desarrolló la segunda generación de discos ópticos, el DVD. La tercera generación de discos ópticos fue desarrollada entre 2000 y 2006, y las primeras películas en discos Blu-ray fueron lanzadas en junio de 2006. Blu-ray eventualmente prevaleció en una guerra de formatos de discos ópticos de alta definición sobre un formato de la competencia, el HD DVD. Un disco estándar Blu-ray puede almacenar aproximadamente 25 GB de datos, un DVD aproximadamente 4.7 GB, y un CD alrededor de 700 MB.

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 71


Grabación óptica digital. Compact Disc (CD audio) El CD de audio' (CD-A; CD son las siglas de Compact Disc, que significa ‘disco compacto’), también conocido como CD de audio digital (CD-DA, CD-Digital Audio), comenzó a ser comercializado en 1982 por las empresas Philips y Sony. Se trata del primer sistema de grabación óptica digital. Con el formato del CD-A se pretendía superar las limitaciones de los formatos convencionales, instituyéndose en el primer sistema de reproducción de sonido que no se deteriora con el uso, puesto que puede reproducirse una y otra vez, sin perder calidad de sonido. El CD-A pertenece a la familia del Disco Compacto. Esta familia incluye también al CDROM, CD-R y CD-RW (cada uno de estos formatos cuenta con su propio estándar). El documento denominado Red Book o Libro rojo define el estándar para los CD-A. Pertenece a un conjunto de libros de colores conocido como Rainbow Books que contiene las especificaciones técnicas para todos los formatos de la familia de discos compactos. La primera edición del Libro rojo fue publicada en 1980 por parte de Philips y Sony y fue adoptada por el Digital Audio Disc Committee (‘comité del disco digital de audio’) y ratificada bajo la norma IEC 908. El estándar no se distribuye libremente y debe ser licenciado por Philips. El diámetro del disco es de 120 Mm. (aunque también se comercializaron CD de 250 MB con un diámetro de 8 cm.). El audio se registra en formato digital, codificado mediante el sistema PCM con una frecuencia de muestreo de 44100 muestras por segundo (y por canal), con una resolución de cuantificación digital de 16 bits (lo que permite un rango dinámico de 96 dB) y con dos canales (sonido estéreo). Debido a la frecuencia de 44100 muestras por segundo, según el teorema de muestreo de Nyquist-Shannon este formato permite reproducir frecuencias de hasta 22 kHz, justo sobre el límite superior de la audición humana. La capacidad estándar del CD-A es de 74 minutos con el formato citado anteriormente, existiendo también variedades de 80 y 90 minutos. También existen discos con diámetro algo menor (de 80 Mm.) que permiten el registro de 21 minutos de audio. La implantación del CD-A es tal, que ha desplazado a los discos de vinilo y los casetes, hasta casi hacerlos desaparecer, salvo algunas excepciones. Tras desarrollar conjuntamente el CD, Sony y Philips volvieron a colaborar para sacar un nuevo formato digital que ocupara en el mercado el mismo lugar que el casete compacto y, en 1986, sacaron al mercado la cinta de audio digital (DAT). Después, cada una de ellas sacaron al mercado, en 1992, dos nuevos formatos digitales por separado: •

Philips desarrolló un nuevo formato de casete digital DCC (Digital Compact Cassette), que nunca llegó a implantarse.

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 72


Sony desarrolló el minidisc que aunque tuvo una buena aceptación al principio, estaba condenado a ser efímero, pues no tardaría en llegar el DVD-Audio y el SACD.

El CD sigue siendo un formato de audio muy arraigado en el mercado pese a que hoy compite con 2 nuevos formatos multicanal denominados formatos de alta definición de audio digital: el DVD-A y el SACD. 25 años después de su salida al mercado, parece claro que la decadencia del CD-Audio no es una consecuencia de la aparición de nuevos soportes (que además incluyen sistemas de protección anti-copia que nunca son bienvenidos por el cliente) sino de las facilidades que hoy posibilitan los formatos comprimidos (con o sin pérdida) para la compra o copia de material musical on-line en Internet. El soporte físico del futuro inmediato es el disco duro de alta capacidad con contenidos transferidos por vía electrónica.

Funcionamiento del Compact Disc Todo equipo de lectura o grabación de CD cuenta con dos motores: •

Motor de rotación del disco, en el cual se mantiene una Velocidad Lineal Constante (CLV, siglas en inglés de Constant Linear Velocity). Dicha velocidad es de 1,3 m/s. Esto significa que, en cada segundo, el lector explora un tramo cuya longitud es de 1,3 metros. Que la velocidad lineal sea constante implica que la velocidad de rotación del disco (velocidad angular) no es uniforme. Cuando el cabezal de lectura/grabación está cerca del borde, el motor hace rotar el disco más lento que cuando éste está cerca del centro. La reproducción o grabación se realiza desde el centro, donde la velocidad angular es de 500 rpm; hacia la periferia donde ésta es de 200 rpm.

Un segundo motor mueve el diodo láser a lo ancho del disco. El láser suele tener una longitud de onda en el aire de 782 nm.

Grabación de copias comerciales Los CD-A comerciales se graban en un proceso de 2 etapas: •

La primera etapa consiste en la grabación de un disco maestro que se realiza sobre un disco de vidrio pulido cubierto con una fina lámina de material fotosensible. Un rayo láser de alta potencia vaporiza pequeñas partes del material que recubre el vidrio dejando unas marcas. Luego se ataca al disco químicamente y donde se había fijado las marcas se producen pequeños huecos: los pozos (pits en inglés) y los valles (lands).

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 73


La segunda etapa consiste en la grabación del disco estampador que estampa las copias comerciales calcando las protuberancias del disco maestro.

Grabación óptica Las grabadoras de CD-Audio (que no se usan para grabar discos comerciales) siguen un proceso diferente, donde el disco no es procesado químicamente, sino que se sigue un único proceso de grabación óptica digital. El disco compacto es un disco de 1,2 mm de grosor cubierto de una capa de aluminio reflectante y con una base de policarbonato. Sobre esta superficie actuará un rayo láser y grabará los huecos. Una vez registrada la información, ésta es protegida mediante una nueva capa acrílica formada por lacas y plásticos que intentan evitar que las marcas (pozos y valles) se borren (si se llenan los huecos) o que se creen nuevos huecos. Durante la grabación, un infrarrojo emite un rayo láser hacia un espejo situado en el cabezal y la luz reflejada en el espejo atraviesa una lente y queda enfocado un punto sobre la base de policarbonato. Esta luz enfocada va grabando huecos, que contrastarán con las zonas donde no hay huecos. Los puntos (tanto ‘lands’ como ‘pits’) tienen una anchura de 0,6 micras de profundidad. Estos puntos configuran una especie de código Morse que será reinterpretado en la fase de reproducción durante la conversión digital a analógico. Estos se van grabando en una única espiral (en la que se pueden llegar a integrar 99 pistas, teniendo la separación entre las pistas una anchura de 1,6 micrómetros). La espiral comienza en el interior del disco (cercana al centro), y finaliza en la parte externa.

Corrección de errores Como sistema de corrección de errores, los CD-Audio introducen una codificación (siglas en inglés de Cross-Interleave Reed-Solomon Code, en español código ReedSolomon de intercalación transversal). El código Reed-Solomon debe su nombre a sus desarrolladores. Es un sistema útil si surgen problemas durante la reproducción. No tienen por qué ser grandes problemas: una simple mota de polvo, un arañazo, o una huella digital pueden producir errores. Un sistema de corrección de errores puede reconstruir la señal si las muestras dañadas (ya sean errores aleatorios o errores de ráfaga) no sobrepasan la capacidad del sistema. Cuando se producen estos errores leves, el sistema los corrige automáticamente sin consecuencias para la percepción sonora.

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 74


Cuando el número de errores es tal que no puede corregirse automáticamente, el sistema realiza una interpolación, que consiste en sacar la media matemática entre los valores adyacentes (anterior y posterior). Aunque el valor interpolado no sea el correcto, al menos, no producirá un efecto desagradable. La interpolación también recibe el nombre de promediado u ocultación. Si se dan muchos casos en que los valores hayan tenido que ser promediados, es posible que el disco esté sucio. En los casos en que la interpolación no es posible, lo que se hace es «retener» la muestra anterior (hold). En este caso lo que hace el sistema es anular automáticamente la salida (mute) si detecta varias retenciones. Que se anule la salida, indica que se ha sobrepasado la capacidad de corrección de errores del equipo. Aunque el equipo permita reproducir la señal con errores, el sonido resultante puede ser desagradable (con distorsiones) o puede desaparecer.

Super Audio CD Super Audio CD (SACD) es un tipo de disco óptico desarrollado conjuntamente por Philips y Sony, dado a conocer en 1999 y diseñado para suministrar audio de alta definición. El SACD es híbrido CD-DVD. Es decir: es un formato de disco compacto que utiliza el mismo tamaño de sectores, sistema de corrección de errores, modulación y sistema de archivos (UDF e ISO 9660) que un DVD. Aunque utilice la tecnología DVD, el SACD no puede ser reproducido en todos los lectores DVD (en ninguno de sus tipos: universal, vídeo, audio), puesto que no utiliza el mismo tipo de codificación de audio del disco DVD, sin embargo puede ser compatible con algunos modelos. Por su parentesco con el DVD, aunque el SACD es un formato concebido sólo para audio, permite reservar una zona dentro del disco para otros datos y permite incluir videoclips, texto, gráficos, etc. El SACD utiliza un sistema de codificación de audio digital llamado Direct Stream Digital (DSD), desarrollado por Sony, con una frecuencia de muestreo de 2,8 MHz lo que significa que toma 2,8 millones de muestras de un único bit (Modulación PDM) por segundo. Además proporciona un rango dinámico extenso —de 120 dB— (sólo en la banda de audiofrecuencias) que supera los 98,01 dB del CD. Un disco en formato SACD de una capa, tiene mayor capacidad de almacenamiento (4,7 GB) con respecto al CD (700 MB). Esto es posible gracias a que se ha reducido la anchura de las pistas, el tamaño de los pits (marcas de grabación sobre la superficie del disco) y al tipo de compresión sin pérdidas que emplea la tecnología (DSD). Esta

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 75


gran capacidad, permite al SACD llegar a ofrecer 6 canales de audio, con idéntica calidad en las mismas. El SACD puede utilizar discos de una sola capa, de dos o de tres capas: •

1 sola capa, para leer el disco SACD stereo.

2 capas, para leer el disco SACD stereo y el SACD multicanal.

3 capas, para leer el SACD stereo, el SACD multicanal y el CD convencional.

Cada capa es leída por un rayo láser con una diferente longitud de onda (a mayor longitud de onda mayor profundidad, con lo que se pueden leer las capas inferiores). La información de cada capa resulta invisible al láser del reproductor de otro formato, con lo que se asegura la compatibilidad. Los SACD de tres capas que permiten la compatibilidad con el CD, son los llamados SACD híbridos. El problema es que fabricar discos híbridos es más caro y complicado que fabricar discos sólo para Súper Audio CD, pero, este incremento en los costes de producción se compensa porque se amplia exponencialmente la cuota de mercado. Sony y Philips, siendo los diseñadores del formato, son los principales fabricantes de reproductores, tanto de forma convencional, como combinados con reproductores de DVD. La consola de videojuegos PlayStation 3 permite también la reproducción de SACD multicanal, incluso a través de la salida óptica. Sólo la consola Playstation 3 versión 60GB es capaz de reproducir SACD Un disco SACD híbrido puede ser leído por un reproductor de CD convencional. Esto no implica el camino contrario. Los lectores CD, no pueden decodificar el SACD. Para evitar la piratería, los SACD utilizan un sistema anticopia conocido como PSP (Pit Signal Processing). Este sistema lo que hace es grabar 2 “marcas de agua”. Una invisible y otra visible. •

La invisible se graba en la propia trama de datos.

La visible se encuentra sobre la superficie del disco y lo que hace es enmascarar el tamaño real de los pits para formar una imagen que debería resultar “imposible” de copiar. Al menos, aún no existe ningún método conocido que permita hacerlo.

Blu Ray Blu-ray, también conocido como Blu-ray Disc o BD, es un formato de disco óptico de nueva generación de 12 cm. de diámetro (igual que el CD y el DVD) para vídeo de gran definición y almacenamiento de datos de alta densidad. Su capacidad de almacenamiento llega a 25 GB por capa, ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 76


El disco Blu-ray hace uso de un rayo láser de color azul con una longitud de onda de 405 nanómetros, a diferencia del láser rojo utilizado en lectores de DVD, que tiene una longitud de onda de 650 nanómetros. Esto, junto con otros avances tecnológicos, permite almacenar sustancialmente más información que el DVD en un disco de las mismas dimensiones y aspecto externo. Blu-ray obtiene su nombre del color azul del rayo láser (blue ray significa ‘rayo azul’). La letra e de la palabra original blue fue eliminada debido a que, en algunos países, no se puede registrar para un nombre comercial una palabra común.

Capacidad de almacenaje y velocidad Una capa de disco Blu-ray puede contener alrededor de 25 GB o cerca de 6 horas de vídeo de alta definición más audio; también está en el mercado el disco de doble capa, que puede contener aproximadamente 50 GB. El tamaño del punto mínimo en el que un láser puede ser enfocado está limitado por la difracción, y depende de la longitud de onda del haz de luz y de la apertura numérica de la lente utilizada para enfocarlo. En el caso del láser azul-violeta utilizado en los discos Blu-ray, la longitud de onda es menor con respecto a tecnologías anteriores, aumentando por lo tanto la apertura numérica (0,85, comparado con 0,6 para DVD). Con ello, y gracias a un sistema de lentes duales y a una cubierta protectora más delgada, el rayo láser puede enfocar de forma mucho más precisa en la superficie del disco. Dicho de otra forma, los puntos de información legibles en el disco son mucho más pequeños y, por tanto, el mismo espacio puede contener mucha más información. Por último, además de las mejoras en la tecnología óptica, estos discos incorporan un sistema mejorado de codificación de datos que permite empaquetar aún más información. El DVD tenía dos problemas que se intentaron resolver con la tecnología Blu-Ray, por ello la estructura es distinta. En primer lugar, para la lectura en el DVD el láser debe atravesar la capa de policarbonato de 0,6 mm en la que el láser se puede difractar en dos haces de luz. Si esta difracción es alta, por ejemplo si estuviera rayado, impide la lectura del disco. Pero dicho disco, al tener una capa de sólo 0,1 mm se evita este problema, ya que tiene menos recorrido hasta la capa de datos; además, esta capa es resistente a rayaduras. En segundo lugar, si el disco estuviera inclinado, en el caso del DVD, por igual motivo que el anterior problema, la distorsión del rayo láser haría que leyese en una posición equivocada, dando lugar a errores. Gracias a la cercanía de la lente y la rápida convergencia del láser la distorsión es inferior, pudiéndose evitar posibles errores de lectura. Otra característica importante de los discos Blu-ray es su resistencia a las rayaduras y la suciedad. La delgada separación entre la capa de lectura y la superficie del disco hacía estos discos más propensos a las rayaduras y suciedad que un DVD normal. Es ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 77


por ello que se pensó primero en comercializarlos en una especie de carcasa o Caddy. La idea fue desechada gracias a la elaboración por parte de TDK de un sustrato protector llamado Durabis, que no solo compensa la fragilidad, sino que le otorga una protección extra contra las rayaduras a dicho disco. Existen también discos DVD con esta protección, pero no es tan necesaria debido al mayor espesor de la capa que separa los datos de la superficie del disco, 0,6 mm.

Grabación magneto-óptica digital. MiniDisc El MiniDisc, miniDisc o MD, es un disco magneto-óptico digital desarrollado en los 90 por la multinacional de origen japonés Sony, de menor tamaño que los CDs convencionales y mayor capacidad en comparación. Es un disco óptico de pequeñas dimensiones (7 cm. X 6,75 cm. X 0,5 cm.) y regrabable, de almacenamiento magneto-óptico diseñado inicialmente para contener hasta 80 minutos de audio digitalizado. La tecnología del Minidisc fue anunciada por Sony en 1991, se introdujo en el Mercado el 12 de enero de 1992. En Japón fueron los sustitutos de las cintas de casete, pero no fue así en el resto del mundo pese a los esfuerzos de Sony, ya que su precio era elevado. Llegaron a ser populares en el Reino Unido durante tres años (1998-2001) cuando se comercializaron una selección limitada de álbumes en MiniDisc, además de en CD y cassette, pero la distribución de música por Internet y el auge del formato MP3 no han favorecido su abaratamiento. Actualmente se usan principalmente para la grabación remota. Los discos MiniDisc son más pequeños que los CDs, tienen un diámetro de 64mm. Entrega una resolución de 16 bits, utilizando para ello la frecuencia de muestreo estándar 44,1 KHz.

El MiniDisc fue diseñado para reemplazar las cintas de cassette como sistema de grabación, pero a nivel consumidor no ha tenido todo el éxito que se esperaba. No se afianzó en el mercado norteamericano, ni tampoco en el europeo, tan sólo llegó a ser realmente popular en Japón, aunque hoy en día está siendo rápidamente reemplazado por los reproductores basados en memoria flash, o los basados en disco duro (como iPod). Su discreto éxito inicial se achacó al reducido número de álbumes disponibles a la venta, debido a que muy pocos editores acogieron este nuevo formato de grabación. También tuvo mucho que ver el elevado coste de los equipos para reproducir/grabar. Los álbumes editados en MD desaparecieron del mercado a finales de los 90. Sony evitó caer de nuevo en el error que cometió en la década de los 70 con el sistema de vídeo Betamax (más conocido como Beta), y licenció la tecnología del MD a otros fabricantes como JVC, Sharp, Pioneer, Yamaha y Panasonic, produciendo cada uno sus propios sistemas de MD. El cassette ha ido desapareciendo, y la lucha para su ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 78


sustitución entre el CD-R, la memoria flash, y el disco duro, en la que el MiniDisc ha jugado también su papel, no ha cesado. La principal ventaja que ofrece es su fiabilidad como dispositivo portátil de almacenamiento de sonido. Durante la reproducción del sonido, el minidisc utiliza un buffer que le permite leer con antelación los datos almacenados. Un buffer es una memoria de almacenamiento temporal para la información digital, que permite leerla mientras está esperado para ser procesada. Este Buffer permite eliminar los “saltos” que se presentan cuando los equipos se someten a vibraciones fuertes. El reproductor ya tiene almacenado en la memoria lo que debe sonar, lo reproduce y le da tiempo al lector de recuperarse. Los equipos modernos vienen con un buffer de al menos 40 segundos, lo que hace muy difícil que se presente una interrupción en el sonido.

Aplicaciones del MINIDISC La franja de mercado del minidisc esta en el consumo doméstico selectivo y en sus aplicaciones en la radio. Como la compresión de datos en el minidisc es considerable no se utiliza como master para audio profesional, aunque si será muy empleado por los periodistas, pues ofrecen mayores prestaciones que las grabadoras convencionales. Permite hacer grabaciones caseras de alta fidelidad, proporcionando al usuario opciones avanzadas de edición. Según Sony, un MiniDisc se puede regrabar hasta un millón de veces sin deterioro.

Disco duro mecánico (Hard Disk Drive) En informática, un disco duro o disco rígido (en inglés Hard Disk Drive, HDD) es un dispositivo de almacenamiento de datos no volátil que emplea un sistema de grabación magnética para almacenar datos digitales. Se compone de uno o más platos o discos rígidos, unidos por un mismo eje que gira a gran velocidad dentro de una caja metálica sellada. Sobre cada plato se sitúa un cabezal de lectura/escritura que flota sobre una delgada lámina de aire generada por la rotación de los discos. El primer disco duro fue inventado por IBM en 1956. A lo largo de los años, los discos duros han disminuido su precio al mismo tiempo que han multiplicado su capacidad, siendo la principal opción de almacenamiento secundario para PC desde su aparición en los años 60. Los discos duros han mantenido su posición dominante gracias a los constantes incrementos en la densidad de grabación, que se ha mantenido a la par de las necesidades de almacenamiento secundario. Los tamaños también han variado mucho, desde los primeros discos IBM hasta los formatos estandarizados actualmente: 3,5" los modelos para PCs y servidores, 2,5" los

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 79


modelos para dispositivos portátiles. Todos se comunican con la computadora a través del controlador de disco, empleando una interfaz estandarizado, hoy en dia es el serial SATA. Para poder utilizar un disco duro, un sistema operativo debe aplicar un formato de bajo nivel que defina una o más particiones. La operación de formateo requiere el uso de una fracción del espacio disponible en el disco, que dependerá del formato empleado. Existe otro tipo de almacenamiento que recibe el nombre de Unidades de estado sólido; aunque tienen el mismo uso y emplean las mismas interfaces, no están formadas por discos mecánicos, sino por memorias de circuitos integrados para almacenar la información. El uso de esta clase de dispositivos anteriormente se limitaba a las supercomputadoras, por su elevado precio, aunque hoy en día ya son muchísimo más asequibles para el mercado doméstico.

Interior de un disco duro; se aprecia la superficie de un plato y el cabezal de lectura/escritura retraído, a la izquierda.

Dentro de un disco duro hay uno o varios platos (entre 2 y 4 normalmente, aunque hay hasta de 6 ó 7 platos), que son discos (de aluminio o cristal) concéntricos y que giran todos a la vez. El cabezal (dispositivo de lectura y escritura) es un conjunto de brazos alineados verticalmente que se mueven hacia dentro o fuera según convenga, todos a la vez. En la punta de dichos brazos están las cabezas de lectura/escritura, que gracias al movimiento del cabezal pueden leer tanto zonas interiores como exteriores del disco.

Integridad Debido a la distancia extremadamente pequeña entre los cabezales y la superficie del disco, cualquier contaminación de los cabezales de lectura/escritura o las fuentes puede dar lugar a un accidente en los cabezales, un fallo del disco en el que el cabezal raya la superficie de la fuente, a menudo moliendo la fina película magnética y causando la pérdida de datos. Estos accidentes pueden ser causados por un fallo electrónico, un repentino corte en el suministro eléctrico, golpes físicos, el desgaste, la corrosión o debido a que los cabezales o las fuentes sean de pobre fabricación

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 80


Funcionamiento mecánico. Un disco duro suele tener: •

Platos en donde se graban los datos.

Cabezal de lectura/escritura.

Motor que hace girar los platos.

Electroimán que mueve el cabezal.

Circuito electrónico de control, que incluye: interfaz con la computadora, memoria caché.

Bolsita desecante (gel de sílice) para evitar la humedad.

Caja, que ha de proteger de la suciedad, motivo por el cual suele traer algún filtro de aire.

Las características que se deben tener en cuenta en un disco duro son: •

Tiempo medio de acceso: Tiempo medio que tarda la aguja en situarse en la pista y el sector deseado; es la suma del Tiempo medio de búsqueda (situarse en la pista), Tiempo de lectura/escritura y la Latencia media (situarse en el sector).

Tiempo medio de búsqueda: Tiempo medio que tarda la aguja en situarse en la pista deseada; es la mitad del tiempo empleado por la aguja en ir desde la pista más periférica hasta la más central del disco.

Tiempo de lectura/escritura: Tiempo medio que tarda el disco en leer o escribir nueva información: Depende de la cantidad de información que se quiere leer o escribir, el tamaño de bloque, el número de cabezales, el tiempo por vuelta y la cantidad de sectores por pista.

Latencia media: Tiempo medio que tarda la aguja en situarse en el sector deseado; es la mitad del tiempo empleado en una rotación completa del disco.

Velocidad de rotación: Revoluciones por minuto de los platos. A mayor velocidad de rotación, menor latencia media.

RPM 3600 4500 5400 7200 10000

1 Vuelta cada 16,66 mseg. 13,33 mseg. 11,11 mseg. 8,33 mseg. 6,00 mseg.

Latencia 8,33 mseg. 6,66 mseg. 5,55 mseg. 4,16 mseg. 3,00 mseg.

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 81


Tasa de transferencia: Velocidad a la que puede transferir la información a la computadora una vez la aguja está situada en la pista y sector correctos. Puede ser velocidad sostenida o de pico.

Caché de pista: Es una memoria tipo Flash dentro del disco duro.

Interfaz: Medio de comunicación entre el disco duro y la computadora. Puede ser IDE/ATA, SCSI, SATA, USB, Firewire, Serial Attached SCSI

Landz: Zona sobre las que aparcan las cabezas una vez se apaga la computadora.

Desfragmentación El disco, para mejorar la velocidad de acceso y distribuir de mejor forma el espacio libre del dispositivo. Como este proceso consta en la reorganización de partes de archivos, requiere de suficiente memoria para realizar los movimientos de los trozos de información. Al mover en forma física la información, la estructura lógica no sufre alteraciones. La desfragmentación es el proceso mediante el cual se acomodan los archivos de un disco de tal manera que cada uno quede en un área contigua y sin espacios sin usar entre ellos. Al irse escribiendo y borrando archivos continuamente en el disco duro, éstos tienden a no quedar en áreas contiguas, así, un archivo puede quedar "partido" en muchos pedazos a lo largo del disco, se dice entonces que el archivo está "fragmentado". Al tener los archivos esparcidos por el disco, se vuelve ineficiente el acceso a ellos. El problema de almacenamiento no contiguo de archivos se denomina fragmentación, se produce debido al almacenamiento de archivos en dispositivos como disco duro y memoria RAM por el uso del computador. La fragmentación es un problema que surge debido al ordenamiento interno de los datos en algunos sistema de archivos. Se da muy comúnmente en el sistema operativo Windows aunque también afecta a otras plataformas pero en una escala mucho menor. También se produce fragmentación dentro de la memoria del computador (memoria RAM) cuando se asignan los procesos a los diferentes bloques de memoria. Existen dos tipos de fragmentación: doble y triple. Desfragmentar no hace que el ordenador trabaje más rápido, sino que agiliza el proceso de la navegación por los archivos. En Windows la presencia de archivos inamovibles del sistema, o que el desfragmentador no moverá para simplificar su tarea (sobre todo con el archivo de intercambio, o swap file), puede impedir un buen porcentaje de desfragmentación en el disco.

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 82


Ciertos sistemas de archivos son más susceptibles a cambios por desfragmentación que otros. Por ejemplo, una partición del tipo FAT se fragmenta más rápido que una de partición del tipo NTFS (Windows) , EXT 4 (Linux) o HFS + (MacOSX). Los programas de desfragmentación, por lo general, vienen incorporados al sistema operativo (excepto en Windows NT 4). También existen aplicaciones externas, las cuales poseen opciones más avanzadas que las propuestas por los fabricantes del sistema operativo.

Discos duros de estado sólido (Solid State Drive) Las unidades de estado sólido son dispositivos electrónicos, construidos únicamente con chips de memoria flash, por ello, no son discos, pero juegan el mismo papel a efectos prácticos con todas las mejoras que ello conlleva. Son muy rápidos ya que no tienen partes móviles y consumen menos energía. Todos esto les hace muy fiables y físicamente casi indestructibles. Sin embargo su costo por GB es aún muy elevado ya que el coste de un disco duro común de 1 TB es equivalente a un SSD de 40 GB, 70 € aproximadamente. Las Unidades de estado sólido han sido categorizadas repetidas veces como "discos", cuando es totalmente incorrecto denominarlas así, puesto que a diferencia de sus predecesores, sus datos no se almacenan sobre superficies cilíndricas ni platos. Esta confusión conlleva habitualmente a creer que "SSD" significa Solid State Disk, en vez de Solid State Drive Una Unidad de Estado Sólido o SSD (acrónimo de solid-state drive) es un dispositivo de almacenamiento de datos que usa memoria no volátil tales como flash, o memoria volátil como la SDRAM, para almacenar datos, en lugar de los platos giratorios magnéticos encontrados en los discos duros convencionales. En comparación con los discos duros tradicionales, los SSD son menos susceptibles a golpes, son prácticamente inaudibles y tienen un menor tiempo de acceso y de latencia. Los SSD hacen uso de la misma interfaz que los discos duros, y por tanto son fácilmente intercambiables sin tener que recurrir a adaptadores o tarjetas de expansión para compatibilizarlos con el equipo. Las principales mejoras que presentan las unidades de estado sólido de almacenamiento son el tiempo de acceso, la tasa de transferencia de lectura, el rendimiento constante y el consumo energético. Tienen un tiempo de acceso de 0,1 ms, es decir, acceden a la información 140 veces más rápido que un disco duro Seagate de 7200 r.p.m. Una aplicación directa en el mundo del audio es que permite trabajar con una ingente cantidad de pistas de audio simultáneamente. En resumen: Una memoria de estado sólido es un dispositivo de almacenamiento secundario hecho con componentes electrónicos de estado sólido para su uso en equipos informáticos en

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 83


reemplazo de una unidad de disco duro convencional, como memoria auxiliar o para la fabricación de unidades híbridas compuestas por SSD y disco duro. Consta de una memoria no volátil, en lugar de los platos giratorios y cabezal, que son encontrados en las unidades de disco duro convencionales. Sin partes móviles, una unidad de estado sólido pretende reducir drásticamente el tiempo de búsqueda, latencia y otros, esperando diferenciarse positivamente de sus primos hermanos los discos duros. Al ser inmune a las vibraciones externas, lo hace especialmente apto para su uso en vehículos, computadoras portátiles, etc. Un SSD se compone principalmente: •

Controladora: Es un procesador electrónico que se encarga de administrar, gestionar y unir los módulos de memoria NAND con los conectores en entrada y salida. Ejecuta software a nivel de Firmware y es con toda seguridad, el factor más determinante para las velocidades del dispositivo.

Caché: Un dispositivo SSD utiliza un pequeño dispositivo de memoria DRAM similar al caché de los discos duros. El directorio de la colocación de bloques y el desgaste de nivelación de datos también se mantiene en la memoria caché mientras la unidad está operativa.

Condensador: Es necesario para mantener la integridad de los datos de la memoria caché, si la alimentación eléctrica se ha detenido inesperadamente, el tiempo suficiente para que se puedan enviar los datos retenidos hacia la memoria no volátil.

Optimizaciones afines a SSD en los sistemas de archivos Los sistemas de archivos se pensaron para trabajar y gestionar sus archivos según las funcionalidades de un disco duro. Ese método de gestión no es eficaz para ordenar los archivos dentro del SSD, provocando una seria degradación del rendimiento cuanto más se usa, recuperable por formateo total de la unidad de estado sólido, pero resultando engorroso, sobre todo en sistemas operativos que dependan de almacenar diariamente bases de datos. Para solucionarlo, diferentes sistemas operativos optimizaron sus sistemas de archivos para trabajar eficientemente con unidades de estado sólido, cuando éstas eran detectadas como tales, en vez de como dispositivos de disco duro. Entre dichos sistemas, destacamos:

NTFS y exFAT -Microsoft Windows Antes de Windows 7, todos los sistemas operativos venían preparados para manejar con precisión las unidades de disco duro, Windows Vista incluyó la característica ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 84


ReadyBoost para mejorar y aprovechar las características de las unidades USB, pero para los SSD tan sólo optimizaba la alineación de la partición para prevenir operaciones de lectura, modificaciones y escritura ya que en los SSD normalmente los sectores son de 4 KiB, y actualmente los discos duros tienen sectores de 512 bytes desalineados (que luego también se aumentaron a 4 KiB). Entre algunas cosas, se recomienda desactivar el desfragmentador, su uso en una unidad SSD no tiene sentido, y reduciría su vida al hacer un uso continuo de los ciclos de lectura y escritura. Windows 7 viene optimizado de serie para manejar correctamente los SSD sin perder compatibilidad con los discos duros. El sistema detecta automáticamente si es unidad de estado sólido o disco duro, y cambia varias configuraciones, por ejemplo, desactiva automáticamente el desfragmentador, el Superfetch, el Readyboost, cambia el sistema de arranque e introduce el comando TRIM, que prolonga la vida útil de los SSD.

VENTAJAS Los dispositivos de estado sólido basados en Flash tienen varias ventajas únicas frente a los Discos Duros mecánicos: •

Arranque más rápido, al no tener platos que necesiten coger una velocidad constante.

Gran velocidad de escritura.

Mayor rapidez de lectura - Incluso más de 10 veces más que los discos duros tradicionales más rápidos gracias a RAIDs internos en un mismo SSD.

Baja latencia de lectura y escritura, cientos de veces más rápido que los discos mecánicos.

Lanzamiento y arranque de aplicaciones en menor tiempo - Resultado de la mayor velocidad de lectura y especialmente del tiempo de búsqueda. Pero solo si la aplicación reside en flash y es más dependiente de la velocidad de lectura que de otros aspectos.

Menor consumo de energía y producción de calor - Resultado de no tener elementos mecánicos.

Sin ruido - La misma carencia de partes mecánicas los hace completamente inaudibles.

Mejorado el tiempo medio entre fallos, superando 2 millones de horas, muy superior al de los discos duros.

Seguridad - permitiendo una muy rápida "limpieza" de los datos almacenados.

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 85


Rendimiento determinístico - a diferencia de los discos duros mecánicos, el rendimiento de los SSD es constante y determinístico a través del almacenamiento entero. El tiempo de "búsqueda" constante.

El rendimiento no se deteriora mientras el medio se llena. (Véase Desfragmentación)

Menor peso y tamaño que un disco duro tradicional de similar capacidad.

Resistente - Soporta caídas, golpes y vibraciones sin estropearse y sin descalibrarse como pasaba con los antiguos discos duros, gracias a carecer de elementos mecánicos.

INCONVENEINTES. Los dispositivos de estado sólido basados en flash tienen también varias desventajas: •

Precio - Los precios de las memorias flash son considerablemente más altos en relación Precio/GB, la principal razón de su baja demanda. Sin embargo, ésta no es una desventaja técnica. Según se establezcan en el mercado irá mermando su precio y comparándose a los discos duros mecánicos, que en teoría son más caros de producir al llevar piezas metálicas.

Menor recuperación - Después de un fallo mecánico los datos son completamente perdidos pues la celda es destruida, mientras que en un disco duro normal que sufre daño mecánico los datos son frecuentemente recuperables usando ayuda de expertos.

Capacidad - A día de hoy, tienen menor capacidad máxima que la de un disco duro convencional, que llega a superar los 3 Terabytes.

PROTOCOLOS DE CONEXIÓN DE AUDIO DIGITAL

Un protocolo de audio digital es un protocolo de comunicación (un estándar) que permite transmitir en tiempo real la señal digital entre dos sistemas digitales. Los protocolos más utilizados son: •

Protocolo AES/EBU. Utiliza un interfaz RS-422 de dos canales con líneas balanceadas que acaban en conectores XLR-3 o D-sub (conector multipin que utilizan, por ejemplo, los cables SCSI).

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 86


Protocolo S/PDIF. Utiliza el formato de interfaz digital desarrollado por Sony y Phillips. En esencia, es una versión del protocolo AES/EBU, sin embargo, utiliza no balanceada y, por tanto, conectores RCA o fibras ópticas. Este protocolo se utiliza con el formato DAT y en los lectores de CD.

Protocolo MADI.

Protocolo ADAT Lightpipe.

Protocolo REAC

AES-EBU La interfaz AES3 también conocida en Europa como AES/EBU(Audio Engineering Society/European Broadcasting Union) es una interfaz de comunicación (estandarizada) pensada para transmitir en tiempo real señales digitales de audio, sin compresión entre dispositivos de audio preparados para ello (que cumplen los requisitos). A finales de los años 70 principios de los 80 se empiezan a desarrollar las primeras interfaces digitales. Un ejemplo de ello es Sony, que desarrolla SDIF-2. A principios de los 80 la AES (Audio Engineering Society) compuesta por expertos del sector del audio digital y entidades relacionadas con la difusión, forma un grupo de trabajo con el objetivo de desarrollar una interfaz digital que: •

Sólo use un único cable.

Use transmisión en serie capaz de cubrir largas distancias con la mínima interferencia.

Sea capaz de transportar hasta 24 bits de datos de audio.

Permita datos auxiliares como sincronismos, frecuencia de muestreo, etc.

Sea de fácil adaptación a la infraestructura actual.

En octubre de 1984 se presenta un primer boceto del AES3 (AES3-1985), ésta especificación se presenta para su aprobación a la ANSI en EE. UU., la EBU en Europa i la EIAJ en Japón. Cada uno de estos organismos realiza pequeñas modificaciones en la interfaz para estandarizarlo. Es a partir de éste momento como se le conoce como AES/EBU. En 1992 siguiendo múltiples sugerencias de los usuarios se publica una segunda especificación mejorada. La interfaz AES3 fue inicialmente diseñada para albergar y transportar datos digitales sin compresión PCM. Aunque por su morfología puede transportar otros tipos de señales como DAT a 48KHz o formato CD a 44,1KHz. La portadora es entonces capaz de

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 87


transportar datos a distintas frecuencias de muestreo, gracias a que recupera la señal de reloj mediante codificación BMC.

S/PDIF El acrónimo S/PDIF o S/P-DIF corresponde a Formato de Interfaz Digital Sony/Philips (Sony/Philips Digital Interface Format), conocido también por su código según la Comisión Electrotécnica Internacional, IEC 958 type II, parte de la IEC-60958. Consiste en un protocolo a nivel de hardware para la transmisión de señales de audio digital estéreo moduladas en PCM entre dispositivos y componentes estereofónicos. S/PDIF es una versión del protocolo estándar AES/EBU adaptada para aplicaciones comerciales, presentando pequeñas diferencias que lo hacen menos costoso a la hora de producir los componentes finales. S/PDIF, inicialmente utilizado en los lectores de CD (dispositivo desarrollado conjuntamente por los ingenieros de Sony y Philips), ha extendido su uso a la mayoría de los dispositivos de audio modernos; como reproductores de DVD (en sus salidas de audio), Minidisc, decodificadores TDT, las tarjetas de sonido de los ordenadores más modernos y, en general, cualquier dispositivo que cuente con "salida óptica". Es también muy utilizado en los sistemas de audio en los automóviles, donde sustituye al cableado habitual de cobre por un único cable de fibra óptica, inmune al ruido eléctrico. Otro uso común del protocolo S/PDIF es la transmisión de audio digital comprimido según lo definido por el estándar IEC 61937. Este modo se utiliza para conectar la salida de un reproductor de DVD con un dispositivo de cine en casa que soporte el sistema Dolby Digital o bien el sistema DTS de sonido envolvente. Las especificaciones de S/PDIF permiten diversos tipos de cables y conectores, según dispositivo en que sea utilizado. Éstos pueden estar basados en cable coaxial, utilizando en este caso conectores RCA, o en fibra óptica, donde los conectores serán del tipo TOSLINK (también conocidos como EIAJ óptico). El uso de la versión óptica está más extendido debido a su comentada inmunidad al ruido eléctrico. Existen adaptadores para la interconexión de ambos sistemas, que suelen requerir alimentación externa. S/PDIF fue desarrollado a partir de un estándar usado en los sistemas de audio profesional, conocido como AES/EBU, ampliamente utilizado en los sistemas DAT y en la transmisión de audio en los estudios profesionales de grabación. A nivel de protocolo S/PDIF es idéntico, pero cambia los conectores y los cables. Se sustituyeron los conectores tipo XLR por los RCA y los TOSLINK, según la tecnología de transmisión, más económicos y sencillos de utilizar. En cuanto al cable, se cambia el cable de par trenzado apantallado de 110 Ω (ohmios) de impedancia en línea balanceada por el cable coaxial de 75 Ω, mucho más extendido y económico, o por fibra óptica.

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 88


MADI El protolo MADI, siglas de multichannel audio digital interface (interfaz multicanal de audio digital), es un estándar profesional de transmisión de datos para señales de audio digital hasta 64 canales en un solo cable. El protocolo MADI, como se define en el estándar AES10, permite la conexión de hasta 64 canales de audio (datos cuantificados linealmente) de 24 bit de resolución y 48 kHz de muestreo, (32 canales a 96Khz), transmitidos en serie en un único cable de transmisión coaxial de 75 ohmios con conectores BNC, permitiendo una transmisión a distancias mayores a 50 m y de hasta 2 km. por fibra óptica. Las muestras de audio pueden tener una cuantización máxima de 32 bit. Además, en este protocolo se siguen manteniendo los bits de validez, usuario, status y paridad del AES3. MADI permite conectar estos 64 canales de audio con un solo par de cables. La tasa binaria de datos es de 100 Mbit/s y corresponde a una conexión sincrónica

ADAT Lightpipe ADAT Lightpipe puede llevar ocho canales de audio digital desequilibrado sin comprimir a 48.000 muestras por segundo 24 bits. ADAT Lightpipe, oficialmente Interfaz óptico de ADAT, es un estándar para la transferencia de audio digital entre el equipo. Fue desarrollado originalmente cerca Alesis pero tiene desde se aceptado extensamente, con muchos terceros los fabricantes de hardware incluyendo Lightpipe interconectan en su equipo. Tan popular hace que el protocolo se convierta en que el término “ADAT“es de uso frecuente ahora referir al estándar más bien que a la cinta audio sí mismo de la transferencia de Alesis Digital. Aplicaciones de Lightpipe fibra óptica cables (por lo tanto su nombre) para llevar datos, con Toslink conectadores en cualquier extremo, haciéndolos idénticos a S/PDIF cables ópticos. Sin embargo, las secuencias de datos de los dos protocolos son totalmente incompatibles. S/PDIF se utiliza sobre todo para transferir estéreo o de varios canales rodee el audio sano, mientras que las ayudas ópticas del interfaz de ADAT hasta 8 canales en 48 kilociclos, 24 pedacitos. Recientemente, los dispositivos de Lightpipe se han interconectado con éxito vía FireWire [2]. Aunque estuvo utilizado inicialmente para la transferencia del audio digital entre ADATs, el protocolo fue diseñado con las mejoras futuras en mente. Todas las señales de Lightpipe se transmiten en 24 resoluciones del pedacito, no importa qué la profundidad del audio; la información se contiene dentro de los pedacitos más significativos y el resto de los pedacitos sigue siendo una cadena de ceros. Por ejemplo, si una señal de 16 pedacitos se envía vía Lightpipe, los primeros dieciséis pedacitos contienen la información audio mientras que los otros ocho son ocupados simplemente por ceros. El dispositivo de recepción no hace caso de la información que no puede ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 89


procesar. Por ejemplo, una señal de 20 pedacitos que va de un tipo II ADAT a un tipo I (que funcione solamente en 16 pedacitos) no hará caso simplemente de los pedacitos debajo de los dieciséis MSBs.[3] Lightpipe fue diseñado para el uso con el Alesis ADATs, y aunque extremadamente es versitile, hay algunas limitaciones. Para la transferencia audio digital directa, el dispositivo de recepción puede sincronizar a la señal encajada del reloj de los lightpipe, alcanzando una copia digital de 1:1. Para el control del transporte, la sincronización adicional es necesaria entre los dispositivos. (Por ejemplo, usar dos máquinas de ADAT al mismo tiempo para alcanzar rendimiento de procesamiento de 16 canales requeriría un control mejor del transporte; si no, las dos máquinas de ADAT serían muy poco probables de jugar en la sinc.) Nueve perno conectadores de D se utilizan transferir la información del transporte. Alesis ADAT HD24 también ofertas MIDI Código de Tiempo para la sincronización con los dispositivos Midi-permitidos.

REAC El protocolo REAC corresponde a Formato de Interfaz Digital creado por la marca Roland, (Roland Ethernet Audio Communication) conocido también por su código según la Comisión Electrotécnica Internacional, IEEE 802.3 (cable de Ethernet). Consiste en un protocolo a nivel de hardware para la transmisión de señales de audio digital que permite hasta 40 canales bidireccionales, 80 en total de audio y MIDI, así como señales de control remoto en 24-bit/96kHz para ser transferidos a través de un cable Cat 5 único. Este tipo de cables son inmunes a los zumbidos, a impedancias en general y a las pérdidas que afectan a los cables de tipo analógico. Este sistema proporciona un sonido claro y sin ruidos de fondo, y la libertad de dividir o ampliar su fuente de audio sin ninguna pérdida de calidad, al contrario que pasaría con un sistema analógico, en el cual es difícil evitar la degradación y diafonía de la señal. Este tipo de cables presentan una transferencia digital con una transferencia de audio extremadamente plana y pura para el ancho de banda de frecuencias. La calidad superior y fiabilidad es posible mediante el acoplamiento de preamplificadores de alta calidad con tecnología REAC de transmisión digital. Los zumbidos y las fuentes de ruido externas a menudo puede ser un problema para la instalación de un cable analógico. Una de las principales características de REAC es su baja latencia de la transmisión digital de la señal, con una longitud máxima de cable sin ninguna pérdida de señal de 2 Km. Incluso cuando la transmisión es de 40 canales en forma de 24bit/96kHz/Linear, la latencia es sólo de 0.375ms. REAC se utiliza actualmente por dispositivos electrónicos de audio de la marca Roland que han salido a partir del 2009. Su principal uso es en grandes tiradas de cable en mesas de mezclas, splitters, etc, ya que se ahorra peso y es de gran comodidad.

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 90


• TEMA 4_PROCESOS DE REGISTRO Y GRABACIÓN SONORA

FORMATOS DE ARCHIVO DE AUDIO

Los archivos de audio digital almacenan toda la información que ocurra en el tiempo, el tamaño del archivo no varía así contenga 'silencio' o sonidos muy complejos. Existen muchos formatos de archivo de audio digital, que se pueden dividir en dos categorías: No Comprimidos (PCM) y comprimidos.

Formatos no comprimidos: PCM Los formatos PCM contienen toda la información que salió del convertidor analógico a digital, sin ninguna omisión y por eso, tienen la mejor calidad. Dentro de esta categoría se encuentran los formatos WAV, AIFF, SU, AU y RAW (crudo). La diferencia principal que tienen estos formatos es el encabezado, alrededor de 1000 bytes al comienzo del archivo.

AIFF. Audio Interchange File Format Audio Interchange File Format (AIFF) es un estándar de formato de audio usado para almacenar datos de sonido en computadoras personales. El formato fue codesarrollado por Apple Inc. en 1988 basado en el IFF[1] (Interchange File Format) de Electronic Arts, usado internacionalmente en las computadoras Amiga y actualmente es muy utilizado en las computadoras Apple Macintosh. AIFF también es el utilizado por Silicon Graphics Incorporated. Los datos de audio en el estándar AIFF no están comprimidos, almacenándose los datos en big-endian y emplea una modulación por impulsos codificados (PCM). También hay una variante del estándar donde sí que existe compresión, conocida como AIFF-C o AIFC, con varios códecs definidos. El estándar AIFF es uno de los formatos líderes, junto a SDII y WAV, usados a nivel profesional para aplicaciones de audio ya que, a diferencia del conocido formato con pérdidas MP3, éste formato está comprimido sin ninguna pérdida, lo que ayuda a un rápido procesado de la señal pero con la desventaja del gran espacio en disco que ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 91


supone: alrededor de 10MB para un minuto de audio estéreo con una frecuencia de muestreo de 44.1kHz y 16 bits. Además el estándar da soporte a bucles para notas musicales para uso de aplicaciones musicales o samplers. Las extensiones de archivo para el formato estándar AIFF es .aiff o .aif. Para las variantes comprimidas se supone que es .aifc, pero las anteriores también son aceptadas por las aplicaciones que soportan este tipo de formato.

WAV. Waveform Audio Format WAV (o WAVE), apócope de WAVEform audio file format, es un formato de audio digital normalmente sin compresión de datos desarrollado y propiedad de Microsoft y de IBM que se utiliza para almacenar sonidos en el PC, admite archivos mono y estéreo a diversas resoluciones y velocidades de muestreo, su extensión es .wav. Es una variante del formato RIFF (Resource Interchange File Format, formato de fichero para intercambio de recursos), método para almacenamiento en "paquetes", y relativamente parecido al IFF y al formato AIFF usado por Macintosh. El formato toma en cuenta algunas peculiaridades de la CPU Intel, y es el formato principal usado por Windows. A pesar de que el formato WAV puede soportar casi cualquier códec de audio, se utiliza principalmente con el formato PCM (no comprimido) y al no tener pérdida de calidad puede ser usado por profesionales. Para tener calidad CD de audio se necesita que el sonido se grabe a 44100 Hz y a 16 bits. Por cada minuto de grabación de sonido se consumen unos 10 megabytes de espacio en disco. Una de sus grandes limitaciones es que solo se puede grabar un archivo de hasta 4 gigabytes, que equivale aproximadamente a 6,6 horas en calidad de CD de audio. Es una limitación propia del formato, independientemente de que el sistema operativo donde se utilice sea MS Windows u otro distinto, y se debe a que en la cabecera del fichero se indica la longitud del mismo con un número entero de 32 bit, lo que limita el tamaño del fichero a 4 GB. En Internet no es popular, fundamentalmente porque los archivos sin compresión son muy grandes. Son más frecuentes los formatos comprimidos con pérdida, como el MP3 o el Ogg Vorbis. Como éstos son más pequeños la transferencia a través de Internet es mucho más rápida. Además existen códecs de compresión sin pérdida más eficaces como Apple Lossless o FLAC.

Formatos comprimidos Para usar menos memoria que los archivos PCM existen formatos de sonido comprimidos, como por ejemplo el MP3, AAC y Ogg. Ciertos algoritmos de compresión descartan información que no es perceptible por el oído humano para lograr que el mismo fragmento de audio pueda ocupar en la memoria inclusive décima parte -o ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 92


menos- de lo que ocuparía de ser PCM. La reducción en tamaño implica una pérdida de información y por esto a los formatos de este tipo se les llama formatos comprimidos con pérdida. Existen también formatos de archivo comprimido sin pérdida, dentro de los que se cuentan el FLAC y el Apple Lossless Encoder, cuyo tamaño suele ser de aproximadamente la mitad de su equivalente PCM

Dolby Digital (AC-3) Dolby Digital es el nombre comercial para una serie de tecnologías de compresión de audio desarrollado por los Laboratorios Dolby. AC-3, es la versión más común que contiene hasta un total de 6 canales de sonido, con 5 canales de ancho de banda completa de 20 Hz - 20 kHz para los altavoces de rangonormal (frente derecho, centro, frente izquierdo, parte posterior derecha y parte posterior izquierda) y un canal de salida exclusivo para los sonidos de baja frecuencia conocida como Low Frequency Effect, o subwoofer. El formato Digital Dolby soporta también el uso de Mono y Stereo. Este codec tiene varios alias, que son diversos nombres para el mismo codec: •

Dolby Digital (nombre promocional, no aceptado por la ATSC)

DD (una abreviatura de lo antedicho, combinada a menudo con el número de canales: DD 5.1)

Dolby Surround AC-3 Digital (segundo nombre promocional, como se veía en algunas películas, y en los equipos de audio casero hasta cerca de 1995)

Dolby Stereo Digital (primer nombre promocional, según lo visto en los primeros lanzamientos, también visto en el Disco Laser de la película True Lies

Dolby SR-Digital (cuando la grabación incorpora un formato de grabación Dolby SR para la compatibilidad)

SR-D (abreviatura de lo antes dicho)

Adaptive Transform Coder 3. Se relaciona con el formato de Bitstream de Dolby Digital. No confundir con Adaptive Transform Acoustic Coding 3, o ATRAC3, que es un formato distinto desarrollado por Sony.

AC-3 (abreviatura de lo antes dicho)

Audio Codec 3, Advanced Codec, Acoustic Codec 3.

ATSC A/52 (el nombre del estándar, la version actual es A/52 Rev. B)

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 93


El AC-3 es uno de los formatos denominados de compresión perceptual. Lo que hace, básicamente, es eliminar todas las partes del sonido original, codificado analógicamente, que no pueda ser percibido por el oído humano. De ésta forma, se logra que la misma información sea de menor tamaño y por lo tanto ocupe mucho menos espacio físico. Además, por cada canal se añade información que hace posible que suene de forma fiel a como fue creada por su autor.

MP3 MPEG-1 Audio Layer III o MPEG-2 Audio Layer III, más comunmente conocido como MP3, es un formato de compresión de audio digital patentado que usa un algoritmo con pérdida para conseguir un menor tamaño de archivo. Es un formato de audio común usado para música tanto en ordenadores como en reproductores de audio portátil. MP3 fue desarrollado por el Moving Picture Experts Group (MPEG) para formar parte del estándar MPEG-1 y del posterior y más extendido MPEG-2. Un MP3 creado usando una compresión de 128kbit/s tendrá un tamaño de aproximadamente unas 11 veces menor que su homónimo en CD. Un MP3 también puede comprimirse usando una mayor o menor tasa de bits por segundo, resultando directamente en su mayor o menor calidad de audio final, así como en el tamaño del archivo resultante. Este formato fue desarrollado principalmente por Karlheinz Brandenburg, director de tecnologías de medios electrónicos del Instituto Fraunhofer IIS, perteneciente al Fraunhofer-Gesellschaft - red de centros de investigación alemanes - que junto con Thomson Multimedia controla el grueso de las patentes relacionadas con el MP3. La primera de ellas fue registrada en 1986 y varias más en 1991. Pero no fue hasta julio de 1995 cuando Brandenburg usó por primera vez la extensión .mp3 para los archivos relacionados con el MP3 que guardaba en su ordenador. Un año después su instituto ingresaba en concepto de patentes 1,2 millones de euros. Diez años más tarde esta cantidad ha alcanzado los 26,1 millones. Tras el desarrollo de reproductores autónomos, portátiles o integrados en cadenas musicales (estéreos), el formato MP3 llega más allá del mundo de la informática. El formato MP3 se convirtió en el estándar utilizado para streaming de audio y compresión de audio de alta calidad (con pérdida en equipos de alta fidelidad) gracias a la posibilidad de ajustar la calidad de la compresión, proporcional al tamaño por segundo (bitrate), y por tanto el tamaño final del archivo, que podía llegar a ocupar 12 e incluso 15 veces menos que el archivo original sin comprimir. Fue el primer formato de compresión de audio popularizado gracias a Internet, ya que hizo posible el intercambio de ficheros musicales. Los procesos judiciales contra empresas como Napster y AudioGalaxy son resultado de la facilidad con que se comparten este tipo de ficheros. A principios de 2002 otros formatos de audio ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 94


comprimido como Windows Media Audio y Ogg Vorbis empiezan a ser masivamente incluidos en programas, sistemas operativos y reproductores autónomos, lo que hizo prever que el MP3 fuera paulatinamente cayendo en desuso, en favor de otros formatos, como los mencionados, de mucha mejor calidad. Uno de los factores que influye en el declive del MP3 es que tiene patente. Técnicamente no significa que su calidad sea inferior ni superior, pero impide que la comunidad pueda seguir mejorándolo y puede obligar a pagar por la utilización de algún códec, esto es lo que ocurre con los reproductores de MP3. Aun así, a finales de 2009, el formato mp3 continua siendo el más usado y el que goza de más éxito,sacando nuevas versiones. En esta capa existen varias diferencias respecto a los estándares MPEG-1 y MPEG-2, entre las que se encuentra el llamado banco de filtros híbrido que hace que su diseño tenga mayor complejidad. Esta mejora de la resolución frecuencial empeora la resolución temporal introduciendo problemas de pre-eco que son predichos y corregidos. Además, permite calidad de audio en tasas tan bajas como 64 kbps.

Windows Media Audio Windows Media Audio o WMA es un formato de compresión de audio con pérdida, aunque recientemente se ha desarrollado de compresión sin pérdida, es propiedad de Microsoft. Compite con el MP3, antiguo y bastante inferior técnicamente; y Ogg-Vorbis, superior y libre, usando como estrategia comercial la inclusión de soporte en el reproductor Windows Media Player, incluido en su popular sistema operativo Windows. Aunque el soporte de este formato se ha ampliado desde Windows Media Player y ahora se encuentra disponible en varias aplicaciones y reproductores portátiles, el MP3 continua siendo el formato más popular y por ello más extendido. A diferencia del MP3, este formato posee una infraestructura para proteger el Copyright y así hacer más difícil el "tráfico P2P" de música. Este formato está especialmente relacionado con Windows Media Video (WMV) y Advanced Streaming Format (ASF).

Vorbis Vorbis es un códec de audio libre de compresión con pérdida. Forma parte del proyecto Ogg y entonces es llamado Ogg Vorbis y también sólo ogg por ser el códec más comúnmente encontrado en el contenedor Ogg.

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 95


Vorbis es un códec de audio perceptivo de fines generales previsto para permitir flexibilidad máxima del codificador, permitiéndole escalar competitivamente sobre una gama excepcionalmente amplia de bitrates. En la escala de nivel de calidad/bitrate (CD audio o DAT-rate estéreo, 16/24 bits) se encuentra en la misma liga que MPEG-2 y Musepack (MPC) y comparable con AAC en la mayoría de bitrates. Similarmente, el codificador 1.0 puede codificar niveles de calidad desde CD audio y DAT-rate estéreo hasta 48kbps sin bajar la frecuencia de muestreo. Vorbis también está pensado para frecuencias de muestreo bajas desde telefonía de 8kHz y hasta alta definición de 192kHz, y una gama de representaciones de canales (monoaural, polifónico, estéreo, cuadrafónico, 5.1, ambisónico o hasta 255 canales discretos). Ogg Vorbis es totalmente abierto, libre de patentes y de regalías; la biblioteca de referencia (libVorbis) se distribuye bajo una licencia tipo BSD por lo que cualquiera puede implementarlo ya sea tanto para aplicaciones propietarias como libres. Aplicaciones de streaming audio como Spotify utilizan el formato Ogg (calidad q9- ver tabla siguiente) en versión premium.[2] Vorbis es el primer códec desarrollado como parte de los proyectos multimedia de la Fundación Xiph.org. Comenzó inmediatamente después que Fraunhofer IIS (creadores del MP3) enviaran una "carta de infracción" a varios proyectos pequeños que desarrollan MPEG Audio Layer 3, mencionando que debido a las patentes que poseen sobre el MP3 tienen el derecho de cobrar regalías por cualquier reproductor comercial, todos los codificadores (ya sea vendidos o gratuitos) y también trabajos de arte vendidos en formato MP3. Por este motivo fue creado el Ogg Vorbis y la Fundación Xiph.org: para proteger la multimedia en Internet del control de intereses privados. El formato del bitstream para Vorbis I fue congelado el 8 de Mayo de 2000; todos los archivos creados desde esa fecha seguirán siendo compatibles con futuros lanzamientos de Vorbis.

AAC. Advanced Audio Coding AAC (del inglés Advanced Audio Coding) es un formato informático de señal digital audio basado en el Algoritmo de compresión con pérdida, un proceso por el que se eliminan algunos de los datos de audio para poder obtener el mayor grado de compresión posible, resultando en un archivo de salida que suena lo más parecido posible al original. El formato AAC corresponde al estándar internacional “ISO/IEC 13818-7” como una extensión de MPEG-2: un estándar creado por MPEG (Moving Pictures Expert Group). Debido a su excepcional rendimiento y la calidad, la codificación de audio avanzada (AAC) se encuentra en el núcleo del MPEG-4, 3GPP y 3GPP2, y es el códec de audio de elección para Internet, conexiones inalámbricas y de radio difusión digital.

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 96


Este formato AAC ha sido elegido por Apple como formato principal para los iPods y para su software iTunes. También es utilizado en otras aplicaciones por Ahead Nero, Winamp y Nintendo DSi. El AAC utiliza una frecuencia de bits variable (VBR), un método de codificación que adapta el número de bits utilizados por segundo para codificar datos de audio, en función de la complejidad de la transmisión de audio en un momento determinado. AAC es un algoritmo de codificación de banda ancha de audio que tiene un rendimiento superior al del MP3, que produce una mejor calidad en archivos pequeños y requiere menos recursos del sistema para codificar y descodificar. Este códec está orientado a usos de banda ancha y se basa en la eliminación de redundancias de la señal acústica, así como en compresión mediante la transformada de coseno discreta modificada (MDCT), muy parecido como en el MP3.

EQUIPOS TÉCNICOS DE SONIDO

INTERFACES DE AUDIO, TARJETAS DE SONIDO. El conversor AD/DA, es decir, de una tarjeta de sonido, convierte la señal analógica en una señal digital de determinadas características, según la frecuencia de muestreo y la cuantificación que hayamos determinado. Ahora conoceremos los distintos tipos de tarjetas de sonido que existen en el mercado, según su conexión y funciones añadidas (aparte de su primera función como conversor de señal).

Según su conexión: •

Vía USB

Vía Firewire 400

Vía PCI-PCI Express

Según sus funciones: Básicamente, la primera, (y más importante), función del A/D se ha visto complementada con prestaciones muy interesantes como: •

Previos de micro y línea, con 48V, pads y demás…

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 97


Capacidad de conectar una guitarra directamente, caja de inyección

Preamplificadores de cascos

Protocolos de conexión digital (ADAT, AES-EBU, SPDIF…)

Funciones de controladora

Selectores de monitorización de salida

Entradas y salidas MIDI

Conexiones en cascada a otros elementos

Vista delantera y trasera de la tarjeta Digidesign 003 rack, conexión vía firewire400

Vista delantera y trasera de la tarjeta Alesis 02, conexión vía USB 2.0

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 98


Alesis Multimix vía Firewire

Digidesign 192, va conectada mediante un conector Sub-D a la tarjeta Digidesign HD PCI-e.

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 99


La estación de trabajo de audio digital (DAW: Digital Audio Workstation)

El término estación de trabajo de audio digital (DAW) ha ido adquiriendo el significado de un sistema de grabación de disco duro integrado basado en el ordenador, que normalmente ofrece elementos como: •

Posibilidades avanzadas de grabación multipista, edición y mezcla.

Posibilidades de secuenciar, editar y hacer partituras con MIDI.

Soporte de procesamiento de señal integrada y con utilidades en plugin.

Soporte para integrar utilidades de instrumentos virtuales en software (VSTi) y/o programas periféricos de música (ReWire).

Integración de aparatos periféricos hardware como controladores y tarjetas de audio y MIDI.

La realidad de esta cuestión es que, con esta buena relación de capacidad de producción por un reducido coste, estos programas basados en software y sus periféricos han revolucionado los aspectos de los estudios profesionales, estudios de proyectos y estudios personales, de manera que afectan a todo el mundo relacionado con la producción de música y audio.

Plugins y plataformas de plugins

Las estaciones suelen ofrecer varios efectos que vienen con el programa; sin embargo, una asombrosa variedad de plug-in de efectos de terceras empresas se pueden insertar en un recorrido de señal que realiza funciones para una gran variedad de tareas. Estos efectos se programan para integrarse en una aplicación principal de DAW que se ajuste a plataformas de plug-in como las siguientes:

DirectX. Una plataforma para el PC que ofrece soporte de plug-in para sonido, música, gráficos (juegos) y aplicaciones de red que funcionan con Microsoft Windows (en sus diferentes versiones).

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 100


AU (Audio Units, Unidades de audio). Desarrolladas por Apple para audio y tecnologías MIDI en Mac OSX; proporciona un avanzado GUI (interfaz gráfico de usuario) para audio.

VST (Virtual Studio Technology). Un formato de plug-in creado por Steinberg para utilizarse en PC o Mac; todas las funciones de un procesador o instrumento virtual o procesador de efectos VST son directamente controladas y automatizadas desde el programa principal.

MAS (MOTUAudio System). Un formato a tiempo real de plug-in nativo para Mac que creado por Mark of the Unicorn como formato de plug-in del fabricante para Performer y Digital Performer.

AudioSuite. Un plug-in basado en archivo que aplica destructivamente un efecto a un segmento definido o archivo de sonido completo, ya que se realiza una nueva versión del archivo con efecto para minimizar el número de ciclos de acceso en el DSP. Cuando se aplica AudioSuite, suele ser conveniente aplicar efectos a una copia del archivo original para tener en cuenta futuros cambios.

RTAS (Real-Time Audio Suite). Un formato de plug-in completamente automatizable que fue diseñado por Digidesign para Pro Tools LE y funciona mediante la CPU (es decir con el hardware principal) en Mac y PC.

TDM (Time Domain Multiplex). Un formato de plug-in que sólo se puede utilizar con los sistemas Digidesign Pro Tools (Mac o PC) que lleven añadidas las tarjetas Digidesign nativas. Este sistema de tarjetas de 24 bits y 256 canales integra mezcla y procesamiento de señal digital a tiempo real en el sistema con tiempo de latencia cero y bajo automatización completa.

Estas aplicaciones de software tan populares han ayudado a dar su forma actual a la grabación de disco duro, permitiéndonos escoger y elegir aquellos plugins que mejor se acoplen a nuestras necesidades personales de producción. Como consecuencia, están apareciendo continuamente en el mercado nuevas empresas, ideas y productos orientados a diferentes trabajos.

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 101


• TEMA 5_PROCEDIMIENTOS DE CAPTURA DE AUDIO Y VÍDEO

SISTEMA DE DIFUSIÓN STREAMING

Bajo el término “streaming”, se engloban un conjunto de productos y técnicas cuyo objetivo es la difusión de contenidos multimedia tales como audio y video. Este sistema de distribución se caracteriza por la visualización de los contenidos en el cliente sin la necesidad de esperar la descarga completa de un fichero. Su finalidad es la difusión de contenidos audiovisuales a través de Internet, ya que a pesar de que estos formatos puedan ser reproducidos desde el propio disco duro, son de mayor utilidad cuando el contenido del archivo en cuestión se reproduce en un ordenador a muchos kilómetros de distancia conectado a través de una red LAN, WAN o la misma Internet. Un archivo de vídeo digital ocupa algo más de 200 MB por minuto en calidad de broadcast, adecuado para transmitirse por televisión, pero excesivo para su difusión a través de Internet. Una de las principales restricciones a la hora de trabajar con información multimedia es la necesidad de reducir el ancho de banda necesario para transmitir la información. De esta parte se encarga el sistema compresor, que para optimizar su eficiencia suele ser específico del medio (utilizando técnicas de codificación fuente o source-coding). Con un buen sistema de compresión se puede escoger entre diferentes calidades para la presentación teniendo en cuenta las audiencias posibles que van a recibir la presentación. De esta forma, se puede codificar la presentación global a diferentes velocidades de bit para que el clip se difunda desde el servidor a la máxima velocidad que permita la conexión entre servidor y cliente. La alternativa más trivial a la hora de transmitir la información multimedia es tratarla como el resto de información, usando así aplicaciones y servicios estándar de Internet como por ejemplo ftp y http. Este tipo de servicios nos permiten visualizar el medio una vez lo hayamos descargado completamente, pero esto no es streaming. Una segunda alternativa, basada en los anteriores servicios (ftp, http…), es realizar una descarga progresiva de la información, de manera que cuando se empiece a disponer de información, se pueda empezar a reproducir. En esta segunda alternativa la información se descarga usando el máximo ancho de banda que disponen cliente y servidor, y no hay ningún control para evitar cortes en la reproducción: el medio se va

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 102


almacenando en disco conforme se descarga, pero si el ancho de banda es más reducido que el necesario para la reproducción, la información se reproduce “a saltos”, ya que se va reproduciendo conforme llega. La tercera alternativa es el uso de auténtico streaming, en el que se utilizan protocolos para la transmisión de información multimedia en tiempo real (tal y como el protocolo estándar RTP) con un control de sesión dinámico (como el que permite RTSP). Con esta alternativa no se usa el máximo ancho de banda disponible por el cliente para descargar y visualizar el medio, sino que tan sólo se usa el ancho de banda necesario para ir reproduciendo el medio en tiempo real. Además no se produce una descarga completa del medio, sino que conforme se descarga se va descartando una vez ha sido utilizado para la reproducción. Eso sí, para paliar los posibles efectos perniciosos causados por la variación del retardo (jitter), se aplica una etapa inicial de buffering en la que se almacena una parte inicial del medio para disponer de información a reproducir en el caso en el que el retardo aumente, evitando así cortes en la reproducción.

Streaming de información multimedia El proceso de streaming consiste en la entrega de uno o varios medios hacia un cliente en tiempo real, y usando una red con un determinado ancho de banda (que no tiene por qué ser necesariamente grande). En el proceso de streaming NO hay ningún fichero que se descarga al ordenador del cliente, sino que el medio se reproduce conforme se está recibiendo, y a su vez el medio se recibe a la velocidad adecuada para su reproducción. Esto contrasta con las descargas progresivas, en las que el fichero sí queda descargado en disco y además se recibe a la mayor velocidad posible, con el fin de terminar el proceso de descarga lo antes posible. En un proceso de streaming estándar de audio y vídeo sincronizado, las peticiones de servicio por parte de los clientes se pueden manejar utilizando el protocolo RTSP (RealTime Streaming Protocol). Este protocolo se encarga de controlar el stream de contenido multimedia en dos direcciones, de forma que los clientes pueden pedir al servidor hacer cosas como rebobinar la película, saltar al siguiente capítulo, etc. Esto se puede conseguir con streaming ya que el medio no se descarga linealmente sino que se reproduce conforme se obtiene, y se permiten saltos en la reproducción, consiguiendo un acceso aleatorio al medio, incluso en saltos hacia delante. Por otra parte, los datos del medio (el stream que contiene típicamente audio y vídeo sincronizados) se pueden transportar usando el protocolo estándar RTP (Real-Time Transport Protocol), que es un protocolo de transporte que permite la transmisión de información multimedia en tiempo real sobre cualquier tipo de red (aunque su uso más habitual es sobre redes usando el protocolo UDP).

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 103


Tipos de streaming El proceso de streaming se puede dividir en dos categorías, en función de cómo se obtiene la información a difundir: streaming en directo o bajo demanda. El streaming en directo es aquel que transmite eventos que están sucediendo justo en el momento de la difusión. Por ejemplo, la transmisión de conciertos o de clases son eventos que típicamente se difunden usando este tipo de streaming. La transmisión de radio y televisión por Internet también tiene estas características, aunque en ocasiones parte de la información que se difunde no parte de un evento en directo (por ejemplo, un programa que ha sido grabado previamente, pero que se va a difundir en un momento determinado). En este tipo de transmisión empleamos el término difusión (broadcast) porque realmente se está transmitiendo “en vivo” a todos los clientes la misma información, que no es más que el evento que se está produciendo en ese momento. Así, independientemente de cuando se conecta un cliente al servidor, todos ven exactamente el mismo punto del stream en un instante determinado. Atendiendo a las opciones de difusión, lo podemos dividir en tres: unicast, splitting y multicast. •

Unicast es el método más sencillo y más popular de emisión de contenidos en vivo, pero el servidor crea un stream para cada cliente, y esto consume un gran ancho de banda. Se utiliza principalmente para streaming bajo demanda, donde cada cliente quiere ver el stream en un momento diferente a los demás.

Splitting: este término se utiliza para describir cómo un servidor puede compartir sus difusiones de contenido en vivo con otros servidores. Los clientes conectan a estos otros servidores, llamados splitters, en lugar de al servidor principal donde se generó la difusión del contenido. El splitting reduce la carga de tráfico en el servidor fuente, permitiéndole distribuir varias emisiones simultáneamente. Este método acerca las emisiones a los clientes, mejorando la calidad de servicio de la transmisión.

Multicasting: es un método normalizado para difundir presentaciones a un gran número de usuarios sobre una red o Internet.

Difusión de streaming a varios clientes usando multicast En multicast, un único stream se comparte entre diferentes clientes, de forma que el servidor envía la información una única vez, y ésta llega a todos los clientes que han demandado el servicio. Como ya hemos comentado, esta técnica es ideal para la

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 104


difusión de medios en vivo (por ejemplo, radio en Internet) ya que todos los clientes están dispuestos a recibir el mismo flujo de datos en el mismo instante. Esta técnica reduce claramente el tráfico en la red, y evita posible congestión en los routers. Sin embargo, para llevarla a cabo es necesario tener acceso a una troncal con soporte multicast (por ejemplo Mbone en Internet), o que el servidor y los clientes estén conectados a una red o redes IP bajo un mismo dominio de administración en las que el multicast esté habilitado y existan routers capaces de encaminar información multicast. En la transmisión típica unicast, cada cliente inicia su propio stream, independientemente de que todos los clientes estén interesados en el mismo stream de datos (esto es, aunque sea una difusión “en vivo”), de forma que se inician muchas conexiones uno-a-uno (una entre el servidor y el cliente por cada uno de los clientes). Esta técnica causa que el servidor requiera de un ancho de banda mucho mayor que los clientes y aumenta el tráfico en la red. Sin embargo, este método es el único cuya disponibilidad está garantizada en Internet actualmente, ya que no necesita de acceso a Mbone (cuya disponibilidad no está garantizada por todos los ISP) ni capacidad multicast entre los clientes y el servidor. En general, desde una línea tipo xDSL o cable módem no se dispone de suficiente ancho de banda de inyección en la red (o de subida) para dar un buen servicio de streaming en Internet. Además, en algunos casos, la instalación de este tipo de servidores podría no estar permitida por parte del ISP y su uso puede ser razón de ruptura del contrato. Otra solución intermedia para realizar una difusión en vivo de un stream multimedia es el caso en el que todos los clientes se encuentran conectados a una misma red IP con soporte multicast, y el equipo de difusión que realiza la captura se encuentra situado en otra red distinta (por ejemplo, la difusión de un mensaje de una compañía a una filial geográficamente separada). En este caso, la transmisión se puede hacer mediante unicast entre el equipo de difusión (broadcaster) y la red en la que se encuentran los clientes, y aplicar una difusión multicast en la red destino. Este esquema se conoce como relaying media.

ELEMENTOS NARRATIVOS, EXPRESIVOS Y DESCRIPTIVOS DEL LENGUAJE AUDIOVISUAL EN PRODUCTOS MULTIMEDIA

| 105


manual tratamiento fuentes, GACAMI