Los lenguajes de las imagenes

Page 1


Raymond Colle


Los lenguajes de las imágenes Santiago de Chile, 2014 (Contenido del blog "Lenguaje visual" (Visualismo.blospot.com) revisado y reestructurado)

Licencia Creative Commons: Queda expresamente autorizada la reproducción total o parcial de los textos publicados en este libro, en cualquier formato o soporte imaginable, salvo por explícita voluntad en contra del autor o autora o en caso de ediciones con ánimo de lucro, señalando siempre la fuente. Las publicaciones donde se incluyan extractos de esta publicación serán ediciones no comerciales y han de estar igualmente acogidas a Creative Commons. Harán constar esta licencia y el carácter no venal de la publicación.

_


Índice de contenido 1a Parte: Fundamentos 1. Conceptos básicos Componentes básicos Polisemia Bases fisiológicas El proceso de percepción visual Introduccion Deteccion Y Transmision De Impulsos Recepcion Cerebral De Los Impulsos El Proceso De Reconocimiento Reconocimiento Y Manejo De La Memoria De Largo Plazo Memoria Visual Síntesis Visión e ilusión Ejemplos La percepción del color Psicología del color Manejo psicológico del color en el cine Semiología de la Imagen Introducción ¿Qué es la representación? El carácter peculiar de la representación mental La producción mental del significado Modelos Gráficos Códigos icónicos 2. Niveles de iconicidad Nivel icónico 1: Esquemas de formulación Nivel icónico 2: Esquemas de vectores en espacios abstractos Nivel icónico 3: Gráficos de variaciones en espacios concretos Nivel 4: Diagramas lineales Nivel 5: "Árboles", organigramas y flujogramas Nivel 6: Esquema de principio Nivel 7: Mapas y planos Nivel icónico 8: Ideografía Nivel icónico 9: Representación "estallada" Nivel icónico 10: Esquema anatómico Nivel icónico 11: Representación figurativa no realista Nivel icónico 12: Dibujos y fotografías de alto contraste Nivel icónico 13: Caricaturas Nivel icónico 14: Proyección realista en el plano Escala 3D La selección del nivel de iconicidad Funciones icónicas 2a Parte: La formación del discurso 3. Las bases del discurso Sintáxis básica: Conformación del "ícono" Iconema Incrustación


Yuxtaposición Icono Configuración Nivel icónico y Nivel de reconocimiento Rasgos pertinentes Polivalencia de las figuras La composición del icono Las dimensiones espaciales Los planos Perspectiva Teoría de la forma Reglas La proporción aurea: la clave de la belleza 4. Tipos de discursos Documento y ficción Dimensiones del discurso Reproducción y comentario Lenguaje indirecto Simbolismo Simbología nacional 5. Modalidades de discurso y lenguaje publicitario Modalidades de formulación: Denotación y connotación Modalidades de captación de atención Perfiles factoriales Perfiles factoriales: Factor icónico Perfiles factoriales: Factor Verbal Perfiles factoriales: Factor de función dominante Perfiles factoriales: Factor de determinación Discurso: La imagen de marca 6. Retórica icónica Relaciones entre iconemas Relaciones estructurales básicas Relaciones espaciales de yuxtaposición Relaciones de isomorfismo Relaciones isosémicas Bases retóricas Desarrollo retórico A1: Repetición A2: Rima y Comparación A3: Amumulación A4: Enganche y antítesis A5: Antanaclase y paradoja B1: Elipsis B2: Circunloquio B3: Suspensión B4: Dubitación y reticencia B5: Tautología y preterición C1: Lítote e hipérbole C2: Alusión y metáfora C3: Metonimia C4: Paráfrasis y eufemismo C5: Retruécano y antífrasis


D1: Inversión D2: Endiadis y homología D3: Asindetón D4: Anacoluto y quiasma D5: Antimetábola y antilogía Operaciones con incrustados Retórica icónica en el periodismo gráfico Las figuras retóricas en la secuencia histórica 7. Las imágenes y la ciencia (Historia) El período Paleolítico Las habilidades del Homo Sapiens Las imágenes mentales Las ilustraciones rupestres La Prehistoria Antigüedad Período greco-romano Textos árabes del Medioevo Medioevo Cristiano Meso y Sudamérica precolombinas Astronomía El Renacimiento Era moderna 3a Parte: Técnicas 8. Fotografía Funciones de la fotografía a. Necesidades del Receptor b. Necesidades del Emisor c. Necesidades del referente Los inicios de la fotografía Los inicios de la fotografía de prensa De la química a lo digital Las cámaras Fotografía digital Aplicación de filtros Fotografía 3D Estereoscopía La captura 3D hoy La visualización Software para fotógrafos Imágenes en 360° La fotografía móvil La "toma en terreno" El punto de vista y el momento en fotografía Haciendo arte alterando fotos El Photoshop y sus malas prácticas Origen Manipulación periodística Manipulación publicitaria Premios de fotografía Premio Pulitzer de fotoperiodismo Asociación Nacional de Fotógrafos de Prensa de EEUU Sony World Photography Awards


Premio Nikon "Small World" Premio del Royal Observatory de Inglaterra Premio National Geographic Premio de la revista Smithsonian Selección de la NASA Graphis Photography Annual Gold Award Viendo lo invisible: Microfotografía Álbumes y depósitos de fotografías digitales Compartir fotos Albumes Museos y colecciones Otros sitios Otras opciones Impresión de fotografías e ilustraciones gráficas La impresora La foto El papel 9. Ideografía Orígenes Formulaciones modernas La semantografía El ISOTYPE Alternativas Principios básicos Diseño basado en semejanzas Diseño basado en analogías Símbolos y señales convencionales Símbolos de la era digital Emoticonos Diseño de ideogramas ("iconos" digitales) Expresar relaciones Destacar o enfatizar 10. Infografía Introducción Categorías generales de infográficos Selección del contenido de un infográfico Acontecimientos Procesos Sistemas Objetos Sintaxis 1. Selección de rasgos pertinentes 2. Definición de unidades de información 3. Simplificación de iconos compuestos Infografía dinámica Animación de ideogramas Campos de Aplicación Los manuales de instrucciones La infografía pedagógica Los informes de actividades o resultados de empresas e instituciones Tipología 1. Diagrama infográfico


2. Infográfico iluminista 3. Info-mapa 4. Infográficos de 1º Nivel 5. Infográficos de 2º nivel 6. Secuencias espacio-temporales 7. Infográficos mixtos 8. Megagráficos Síntesis 11. La creación gráfica digital Introducción Sistemas creativos La gráfica por bloques La gráfica por líneas o "vectores" La gráfica de puntos Modelamiento gráfico La gráfica tridimensional Modelamiento ("modeling") Producción ("rendering") La gráfica de los videojuegos La primera gráfica vectorial (en los años `70) Los primeros juegos "bit-map" (1982-1990) Superando los 8bits La revolución 3D del 92 El auge de la gráfica realista 12. Visualización de datos El arte de la visualización de datos Los principales desarrollos de la era moderna Los espacios computacionales: geometrías y sistemas de visualización Análisis Visual de Datos ("VDA") Análisis matemático Atractores y caos La "frontera del caos" Recursos gráficos elementales para la visualización La elaboración de estad&iacutegrafos Alternativas visuales Reglas de construcción de estadígrafoso Principio 1: Ejes cartesianos Principio 2: Orden Principio 3: Homogeneidad Principio 4: Autosuficiencia Reglas complementarias Software para crear estadígrafos Gráficos basados en JavaScript Cartografía Mapas on-line Rivales Mapas informativos Internet, la web y las redes sociales Software de cartografía Mapas conceptuales o semánticos Diagramas de flujos Redes


Redes de transporte y comunicación Relaciones sociales Equipamiento Herramientas analíticas 13. Realidad Virtual Definiciones Breve historia Posibilidades de la Realidad Virtual Aplicaciones Telepresencia Modelos publicitarios Realidad virtual en el cine Realidad virtual en videojuegos Los mundos virtuales de comunidades RV y Experiencia cognitiva Arte digital Fotografía simulada Combinación de recursos ¿El arte digital ignorado? Realidad aumentada Escenarios de Aplicación Conclusión Bibliografía


1a Parte: Fundamentos


1. Conceptos básicos Componentes básicos El lenguaje visual se reduce a un juego con diferentes superficies. Hay siempre al menos dos: una amplia, que constituye el fondo, y otra -menor- que constituye una figura. En el ejemplo adjunto hay un fondo amarillo con una figura café. Pero atención: decimos "figura" porque ya reconocemos una figura geométrica. La "figura" corresponde al mínimo nivel de reconocimiento del Lenguaje Visual. En este otro ejemplo, no hay "figura". Sólo hay algunos trazos que forman un conjunto único. Es el nivel mínimo de "escritura" visual y lo que vemos se llama un "grafema". El grafema es la única mínima de la cual disponemos. En rigor, no se podría hablar de "puntos" y "líneas" porque éstos son conceptos geométricos abstractos y su representación es siempre una figura que encierra una superficie: un círculo para el punto y un rectángulo para una línea, pero nos ceñiremos al uso común de estos términos. Con excepción del grafema circular, todo grafema tiene una "orientación", la cual es uno de los seis factores que la componen: la forma, el tamaño, la orientación, el grano (trama), el valor (grado en la escala de claro-oscuro) y color. Ninguno de ellos puede existir por sí solo. Éstos son los recursos básicos de los cuales dispone el Lenguaje Visual. El grafema (o un conjunto de grafemas) se ubica además en una determinada posición sobre el fondo, lo cual puede o no tener importancia. (El cuadrado que vimos primero está "arriba a la izquierda", pero se puede ser mucho más preciso para indicar la posición, usando "coordenadas"). Figuras

El grafema no tiene de por sí ningún significado. Para llegar a tenerlo, debe ajustarse a una pauta de organización determinada, que es la que permitirá la identificación del referente (reconocimiento de lo que pretende mostrar). La mínima organización que tenga esta capacidad transforma el o los grafemas utilizados en una "figura" (como en la expresión "figura geométrica"). En consecuencia, solo las "figuras" tienen importancia y pueden ser portadoras de información. Pero habrá diferencias significativas en la información proporcionada si una figura aparece sola o si parece acompañada de otras. Unión

Con una sola figura, usada dos veces, se puede representar ya algo reconocible: es el caso del círculo. En el ejemplo, al lado, podemos reconocer una rueda o un disco (CD) gracias al pequeño círculo colocado en el centro del mayor. Juntar figuras lleva, por lo tanto, a permitir el reconocimiento. Es este procedimiento de "unión" que constituye la base del Lenguaje Visual.

Polisemia Esta posibilidad de interpretar una "imagen" de varias maneras es de suma importancia y una característica fundamental del Lenguaje


Visual. Se llama polisemia, lo cual significa "pluralidad de significados". Esta facultad es a veces utilizada para desconcertar a quiĂŠn mira como en la tradicional imagen adjunta que puede verse como una abuela o su nieta, de la cual existen muchas versiones.

Una de las tareas de quiĂŠn quiere utilizar el Lenguaje Visual consiste en "reducir la polisemia" para evitar errores de interpretaciĂłn.


Bases fisiológicas El proceso de percepción visual Introduccion La representación icónica ha nacido exclusivamente porque el hombre dispone de órganos de percepción que le permiten captar la luz y de órganos que le permiten, a través de múltiples recursos técnicos, producir efectos que alteran la transmisión de la luz. Si queremos saber cómo logramos comunicarnos por la vista, resulta indispensable partir conociendo la forma en que trabajan los órganos visuales de percepción, ya que sólo si nos ceñimos a sus exigencias tendremos alguna oportunidad de producir un mensaje que otros puedan captar adecuadamente. Deteccion Y Transmision De Impulsos El ojo puede ser comparado a una cámara fotográfica que tenga una forma parecida a una pequeña esfera. Una lente, el cristalino, ocupa una apertura, la pupila, en esta esfera, por donde entra la luz.

Al penetrar la luz en una cámara oscura por alguna rendija, se proyecta en la parte opuesta la forma de los objetos iluminados que se encuentran al exterior. En el caso del ojo, esta pared es la retina, compuesta de un alto número de elementos sensibles, los conos y bastoncillos, que transmiten la información al cerebro. Para que la imagen se proyecte siempre con nítidez en la retina, el cristalino puede modificar su grosor. Este movimiento compensa la variación en la distancia de los objetos vistos.

Conos y bastoncillos, las células detectoras de la retina, son como espías ubicados frente a un bosque y que se dedican a buscar parpadeos de linternas cada uno en una zona muy limitada del bosque. Los bastoncillos son los expertos para el trabajo en la oscuridad o en condiciones de baja iluminación: no son sensibles al color, sino sólo a la intensidad de luz (del blanco al negro). Los conos son los detectores de color, que sólo funcionan en buenas condiciones de iluminación. Son de tres tipos, y cada uno reacciona a una determinada longitud de onda: azul, rojo y verde.

Los bastoncillos son los más numerosos (120 millones) y se encuentran esparcidos en forma casi pareja por toda la retina. Al contrario, los conos (6 millones) se encuentran en mayor concentración en la zona central de la retina que enfrenta el cristalino(fóvea y mácula), lo cual permite obtener una información mucho más detallada de lo que el ojo puede enfocar mejor (BEGBIE, H.: "El ojo y la visión", p.74.).


La disposición y las conexiones entre los conos y los bastoncillos es tal, que existe una particular sensibilidad para la detección de las líneas de contorno o bordes, especialmente detectables por los cambios de color o de iluminación. En la Ilustración se muestra cómo las células retinianas detectan una línea oscura sobre fondo blanco y el cambio de dirección de la misma (Ibidem, p.143). Más que las identidades, son por lo tanto los cambios en la percepción los que son aprehendidos y transmitidos al cerebro. Es a partir de éstos, como lo veremos en seguida, que empiezan a operar los procesos de identificación de las formas. Si la imagen llegase sólo hasta la retina, no tomaríamos conciencia de ella. Felizmente, los datos ahí registrados son luego transmitidos a la corteza cerebral a través de los nervios ópticos. Cruzando todo el cerebro, son "proyectados" y analizados inicialmente en la corteza visual, que se encuentra en la zona occipital de la cabeza (Ver "mapa" anterior y vista del cerebro al lado), para posteriormente ser interpretados con el concurso de la memoria, repartida por toda el cerebro. Recepcion Cerebral De Los Impulsos La primera operación en el área cortical de la visión consiste en comparar las impresiones que se forman en los dos ojos. El cerebro obliga a éstos a moverse para controlar la información (haciendo que la luz que entra a cada ojo "barra" distintas células detectoras). Estos movimientos y la repetición correspondiente de la información ayudan a superar una grave limitación de las retinas: tienen la forma de plano curvo, parecida a la superficie interna de una esfera. Pero los objetos que vemos no son planos, sino que tienen volumen. El cerebro, gracias a los dos ojos (visión estereoscópica) y a sus movimientos, les restituye su valor de volumen. Para entender sintéticamente cómo lo hace, podemos comparar la información proveniente de cada ojo, como las coordenadas de los puntos más significativos del objeto en el espacio: comparando las variaciones angulares es posible determinar las distancias (principio de triangulación, utilizado también por los geómetros para sus mediciones) y abstraer algunas diferencias.

Además, los ojos no son nuestro único órgano de percepción y el análisis cerebral integra la información que procede de otros órganos como el tacto y la audición, que también contemplan medios para evaluar distancias. Así es como reconocemos un cubo a pesar de que el lado más alejado de nosotros es percibido como de menor tamaño: a nivel inconsciente se producen los cálculos correctores que nos permiten inferir que la parte trasera mide lo mismo que la parte delantera. Los impulsos transmitidos por los nervios ópticos fluyen hacia el área cerebral de procesamiento, donde entran a la memoria de corto plazo (MCP) formando así los perceptos. Como lo veremos más adelante, no hay aquí una mera acumulación de los impulsos recibidos sino que se produce una tranformación globalizadora de los mismos, que ya implica cierta interpretación. La duración de la retención en esta MCP es del orden de 6 segundos; la pérdida u olvido puede producirse por el paso del tiempo (±70% en 12 seg.) o por interferencia (entrada de nuevos impulsos). Es propia de la MCP la posibilidad de repetir su propio


contenido con el fín de extender su alcance en el tiempo,pero esto también depende del grado de atenciónción prestado a los nuevos impulsos que siguen llegando de los órganos perceptores. La capacidad de la MCP es de 5 a 9 "Trozos" de información (o "7±2", como dice G.Miller en "El número mágico siete más o menos dos", en Norman, D.: "El procesamiento ...", pp.100-108.). Un "trozo" equivale a un conjunto significativo cuya complejidad máxima equivale a un número telefónico, una breve proposición verbal (± 7 palabras) o un icono pictórico realista (como una foto). Esto equivale a decir que la capacidad de la MCP corresponde al campo de percepción "inmediata", es decir a un conjunto significativo de estímulos que captamos en una breve unidad de tiempo. Los perceptos no quedan limitados a una mera relación transitoria causa-efecto. Gracias a la autonomía y a la historicidad del sujeto, pueden ser manipulados de distintas maneras para dar origen al proceso de conceptualización. Este último se hace posible gracias a la existencia de una fase de consolidación del cambio interno, posterior a la percepción y anterior a la producción de la conducta expresiva, por la cual los perceptos se vuelven en cierta forma repetibles. Esta fase corresponde al establecimiento y uso de la memoria de largo plazo (MLP): los perceptos se transforman brevemente en "imagen" y luego, si se reúnen las condiciones requeridas para su conservación, en recuerdo.


El Proceso De Reconocimiento Para poder visualizar dinámicamente el proceso de reconocimiento de recuerdos, hemos de introducir algunos conceptos relativos al funcionamiento del cerebro. Este puede ser comparado a un gigantesco edificio de oficinas, donde trabajan 50.000 millones de empleados (cantidad de células nerviosas -neuronas- que lo componen, equivalente aproximadamente a 10 veces la población mundial). Cada neurona mantiene numerosas conexiones tanto con sus vecinas como con grupos más alejados, lo cual equivale a que, en su "mesa de trabajo", cada uno de los "empleados" tenga una central telefónica que le permite comunicarse casi instantáneamente con los diferentes departamentos del edificio y con los sistemas de control del entorno (perceptores y efectores).

En esta inmensa construcción, un "piso" corresponde a la memoria de corto plazo (MCP). Aquí, gran parte de las operaciones ocurren debajo del nivel de la conciencia. Esta área es comparable a una sala de estado-mayor, donde existe una gran pizarra, en que se van colocando las informaciones (Ver Ilustración). Esta pizarra se divide en 6 secciones, por las que "viajarán" los perceptos hasta conformar imágenes reconocibles. En un primer momento, los perceptos llegan al área de "recepción". Luego intervienen varias etapas de análisis en que se componen las imágenes, hasta que, finalmente, las imágenes reconocidas pasen a una séptima zona, que es el área consciente de la MCP. Los perceptos, que se "inscriben" en la Sección nº1, son analizados de acuerdo con sus características y, a medida que son reconocidas algunas de éstas, son transferidos a la Sección nº2. Aquí es donde actúan neuronas especializadas en "reconocer" datos especiales como frecuencias espaciales, contornos, movimientos o colores (en el caso de la vista), frecuencias sonoras, aparición y desaparición de señales o cambios de timbre (en el caso de la audición). En otras palabras, son activadas por perceptos de ciertas características (de la Sección 1 del pizarrón), en cuyo caso transmiten la información a la Sección nº2. Aquí también se estudia la presencia de ciertos grupos de características, (por ejemplo apreciando la conexión y despreciando la posición). Llamaremos aquí "patrones generales de forma" a estos grupos. Si aparecen patrones conocidos, se transfieren estos a la Sección nº3. En esta sección, se agrupan los patrones, formando conjuntos. Nuevos actores recogen ahora estos conjuntos y los colocan en la Sección nº4, a medida que constituyen un indicio útil para iniciar la búsqueda en la memoria de largo plazo (donde están archivados nuestros recuerdos). Ejemplos de patrones son los que corresponden a las letras, cifras y signos de puntuación del lenguaje verbal escrito. Aquí el tamaño de un signo y su posición no influyen en su reconocimiento primario ("a" es "a", cualesquiera sean su tamaño y lugar en una hoja de papel). También forman patrones las figuras geométricas, así como la forma general de una cara, el perfil de un cuerpo humano, de un animal o de un vehículo, o sea, "iconemas" del tipo de los pictogramas, del mayor grado de generalidad posible para evocar clases de objetos. A partir de la Sección nº4 entramos en una área más general llamada de cognición. Todo lo que conocemos, en efecto, se representa de algún modo por una forma, compuesta por una serie de patrones formales (sean imágenes de palabras dichas o escritas,


representaciones icónicas u otras, o modelos de comportamiento), y es aquí donde se verificará si la forma que aparece es conocida o no. En esta área se conserva la mayor cantidad posible de datos, es decir todo lo que la MCP es capaz de recibir, de tal modo que habrá siempre algunos antecedentes útiles para orientar la búsqueda e interpretar la serie de patrones que viene entrando. Así, mientras en la Sección 4 se mantendrá una serie "bajo investigación", en la Sección 5 estará la información contextual ya reconocida y en la Sección 6 se formará una anticipación de lo que podría ser percibido a continuación. Gracias a esta división y a la enorme capacidad de trabajo, mientras una forma esté aún en construcción (Sección 4), el sistema ya busca, de acuerdo con el contexto (Sección 5) y usando los patrones ya reconocidos, cuáles podrían ser los recuerdos asociables a dichos patrones, con lo que es posible aislar y transferir a la Sección 6 elementos complementarios de la forma ya percibida (p.ej. cuál es la terminación de una palabra de que sólo han "llegado" los primeros sonidos, o qué objeto es lógico que aparezca en un panorama visto por los ojos). Esta es la "consulta a la memoria de largo plazo", que permite una reducción inmediata de alternativas a medida que se completa la recepción de patrones, y un reconocimiento más rápido tanto de la forma misma como de su significado, si es conocida. De ahí pasará a las Secciones 5 y 7 (Contexto y Area consciente, la cual coincide en parte con el Contexto). Aunque sólo hemos definido como consciente el Area nº7, es importante tener en cuenta que es posible tomar conciencia de la operación en áreas anteriores. Esto ocurre habitualmente en dos tipos de casos: cuando las formas percibidas no son reconocidas en el nivel de conjuntos complejos (Sección 4), en cuyo caso se desciende progresivamente (Sección 3 y 2 si fuese necesario), para tratar de identificar los componentes formales menores; y durante el período de aprendizaje de las formas significativas necesarias para la comunicación semiótica (como aprender a leer y escribir determinado idioma), lo cual es en el fondo un caso particular de la situación anterior.

Se ha podido descubrir que el procesamiento de patrones y conjuntos de patrones (de distintos niveles de complejidad) es prácticamente simultáneo. Aparentemente, el cerebro analiza los estímulos con diferentes grados de "resolución" (o detalle): en la MCP (Sección 4) se irían "trazando bocetos" simultáneos con diversos grados de resolución (una forma general, como una foto desenfocada, y, aparte, otras formas con detalles más precisos). Así, es posible optar, sea por el mero reconocimiento de un tipo de objeto (o de su representación icónica), que supone el reconocimiento de uno o varios patrones ya memorizados, sea por el reconocimiento de la individualidad específica (cómo la identidad de una persona), lo cual requiere identificar un conjunto de rasgos precisos.

En el joven y el adulto, el "procesador" tiende a centrarse en las configuraciones más generales, dejando en un segundo plano los detalles, que se compararán posteriormente si fuese necesario6. Sólo en el caso de menores de 10 años el proceso es primordialmente analítico y sumativo (perciben y comparan preferentemente los detalles, no las configuraciones). Esto se hace particularmente evidente en el caso del reconocimiento de rostros (Cfr. BRUYER, R.: "El reconocimiento de los rostros", en Revista Mundo Científico nº83, Septiembre 1988, pp.880-890.).

Reconocimiento Y Manejo De La Memoria De Largo Plazo Formada, al menos en parte, la imagen en la MCP, el cerebro intenta reconocerla consultando la Memoria de Largo Plazo y verificando si existe en ésta algún equivalente. En otras palabras, busca si existe algún recuerdo similar. Si existe, decimos que hubo reconocimiento a un nivel primario, en el sentido de que la imagen de los perceptos nuevos puede ser equiparada a un recuerdo, es decir, a una imagen que podemos re-vivir a partir de nuestra memoria. En tal caso, no es necesario agregarla al conjunto de datos, pero el hecho del reconocimiento "reavivó" el camino de acceso al dato, lo cual equivale a reforzar la memoria. (De ahí que olvidemos más rápidamente lo que menos utilizamos y recordemos mejor que "repasamos").


Si no existe, se olvidará (si no le prestamos atención) o bien se agregará a los recuerdos. La diferencia entre el olvido y la retención depende del grado de energía asociado a la imagen percibida. Para memorizar se gasta energía, la cual puede provenir de la misma percepción (Decimos que una experiencia "nos impresionó", por lo cual no la podemos olvidar) o bien de una decisión voluntaria que nos lleva a realizar un esfuerzo de retención (agregamos energía a nuestra percepción, con el fin de integrarla a nuestra memoria).

Lo más común es que nos encontremos con una mezcla de cosas conocidas (reconocidas) y de elementos nuevos. Así, se produce en forma casi permanente una integración activa de nuevos datos a la memoria, la cual depende siempre del proceso de comparación que ocurre en el área de cognición (entre la imagen y el recuerdo). Es a partir de las semejanzas y diferencias que el cerebro establece dónde y cómo memorizar: una nueva experiencia ingresa en función de sus relaciones con experiencias anteriores y, si tiene con ellas algunas diferencias, el análisis podrá conducir a la formación de una configuración de más alto nivel, el llamado "paquete organizador de memoria"(POM) o incluso a reestructurar la organización de sectores más amplios de la memoria. Esta es también la forma en que se van generando los conceptos, que son en cierto modo estructuras de clasificación ("super-patrones"), y es la máxima expresión de la inteligencia racional8. Este proceso de abstracción y reorganización de la información en la memoria, sobre la base de las nuevas percepciones, nunca se detiene: la memoria es dinámica y, como producto de la secuencia de experiencia de cada persona, varía estructuralmente de un sujeto a otro.


Memoria Visual Aunque los paquetes organizadores de memoria integran la información proveniente de todos los sentidos así como la dimensión histórica de las experiencias (modelos de comportamiento, relaciones causa-efecto, etc.), se conviene en que existe también una organización que diferencia los componentes de la memoria de acuerdo con los sentidos a los cuales están asociados. La visión y la audición son obviamente, en condiciones normales, los que ocupan el mayor "espacio" de memoria, ya que son los que más utilizamos para conocer. Así los paquetes organizadores de memoria están compuestos por diversas configuraciones correspondientes tanto a los sentidos como a las elaboraciones internas (reflexiones, generalmente "representadas" bajo la misma forma (interna) que las percepciones verbales auditivas). Las configuraciones visuales son llamadas "marcos" por los especialistas (cfr. MINSKY, M: "A framework for representing knowledge", en Winston, P.H.:"The psychology of computer vision", McGraw-Hill, Nueva York, 1975). Así, de acuerdo con todo lo que hemos visto hasta ahora, podemos deducir que en la memoria visual existe la siguiente estructura:

- al más alto nivel, los marcos o segmentos visuales de los POMs (paquetes organizadores), que corresponden habitualmente al contexto de lo que vemos, con sus variados componentes, tales como podrían ser "paisaje urbano", "paisaje rural", "vivienda" (exterior e interior), "edificio público", "oficina", etc. - en seguida detalles característicos o rasgos de los diversos tipos de objetos (los que forman los patrones), los cuales están compuestos por trazos o áreas que son los componentes mínimos requeridos para la expresión visual. - a nivel inferior a éste, los modelos (cfr. Johnson-Laird, P.N.: "Modelos mentales en ciencia cognitiva", en Norman, D.: "Perspectivas...", pp.179-231) de los objetos, abstracciones mentales que congregan los patrones de reconocimiento y reúnen todo el conocimiento relativo a cada tipo de objeto; - a continuación, los patrones, correspondientes a los distintos aspectos de los objetos, mediante los cuales podemos "figurarnos" tales aspectos; - y, en otra "dimensión" y vinculados a los patrones, que se combinan con rasgos específicos, los recuerdos específicos correspondientes a los distintos objetos conocidos.


En la Ilustración, mostramos algunos patrones asociados al modelo "cuerpo humano" (modelo que es imposible representar visualmente en dos dimensiones y que ponemos como vinculado a un Marco que podría ser "grupo humano"). Al patrón "cara de frente" (uno de los que se agrupan para formar el modelo) asociamos la "foto" de una persona X, y debajo de los patrones mostramos algunos rasgos con los cuales se pueden formar representaciones de caras. Se puede ver en otro cap’tulo que la estructura básica de los códigos icónicos (recursos físicos utilizados para constituir los iconemas) corresponde justamente a los patrones más simples y a los rasgos característicos que componen dichos patrones. Síntesis 1. La percepción visual se produce a partir del impacto de rayos de luz en las células sensibles (conos y bastoncillos) de la retina. Estas están dispuestas de forma tal que existe una particular sensibilidad para la detección de los contornos o bordes de las figuras percibidas. 2. La visión por ambos ojos es coordinada por el cerebro de tal modo que pueda apreciar la distancia y el volumen de los objetos. 3. Los impulsos transmitidos por los nervios ópticos y que constituyen los perceptos fluyen hacia el área cortical de la visión, entrando a la memoria de corto plazo (MCP) donde son procesados. 4. Los perceptos pasan por diversas etapas, primero de agrupación en "patrones" y luego de comparación con patrones y modelos de la memoria de largo plazo. 5. Mientras los patrones van surgiendo en el área de cognición, la mente ya busca en la memoria de largo plazo recuerdos que tengan semejanza con éstos. 6. Cuando falla el reconocimiento a partir de los patrones, se puede efectuar conscientemente un análisis más desmenuzado (rasgos y trazos); pero no es común partir por las características mínimas, salvo en los niños, que recién están alimentando su memoria de largo plazo. 7. En la Memoria de Largo Plazo, los diversos patrones correspondientes a un mismo objeto conforman un "modelo" mientras a la situación contextual en la cual puede aparecer este objeto corresponde un "marco". 8. El reconocimiento de un tipo de objeto (o de su representación icónica) supone el reconocimiento de uno o varios patrones, mientras el reconocimiento de la individualidad específica (cómo la identidad de una persona) requiere identificar también rasgos precisos.


Visión e ilusión El sistema nervioso, como el ser vivo entero, es un sistema determinado estructuralmente. Esto quiere decir que es "un conjunto de elementos conectados de alguna manera tal, que lo que pasa con ese conjunto de elementos, depende de cómo está hecho" (Maturana, 1990, p.61). Si, al apretar con el dedo el botón de puesta en marcha de una grabadora, ésta no funciona, no se va al médico para que examine el dedo. No es el dedo el que determina lo que hace la grabadora, solo "gatilla" lo que hace de acuerdo a su organización y estructura. Del mismo modo, si alguna vez dejamos de oír, no pediremos a un físico que examine las condiciones externas sino que iremos a ver al otólogo, que examinará nuestra subsistema auditivo. Y nadie va al médico porque no oye los infrasonidos o las ondas hertzianas: nuestro sistema no está diseñado para ello. La constitución misma del ser vivo (su estructura y organización) determina qué es lo que le puede afectar. Lo mismo ocurre con el sistema nervioso: solo es afectado por cambios que su constitución le permite detectar a través de la membrana que lo limita y conecta con el resto del organismo y con el entorno del mismo. Y tales cambios "generan otros cambios dentro de él mismo, y su operar consiste en mantener ciertas relaciones entre sus componentes invariantes frente a las contínuas perturbaciones que generan en él tanto la dinámica interna como las interacciones del organismo que integra" (Maturana y Varela, p.111). Este fenómeno constituye la llamada "clausura operacional". Esta característica explica que, en nuestra experiencia de ser vivo, no podemos diferenciar fácilmente la ilusión de la percepción. Maturana lo demuestra con múltiples ejemplos, pero gusta especialmente del experimento de proyección de una sombra con un foco blanco y un foco rojo (conocido desde Otto von Guericke, en 1672). Una de las sombras proyectadas por los dos focos encendidos simultáneamente aparecerá de color azul-verdoso. Sin embargo, no hay ninguna fuente de luz de este color y un espectrómetro confirmaría su "inexistencia". Sin embargo, todos los seres humanos tienen la experiencia de ver este color, experiencia determinada por las características del sistema visual. (Cfr. Maturana y Varela, p.8, y Maturana, 1990, p.13). La interpretación de la percepción como ilusión es, por lo tanto, posterior y dependiente de una nueva experiencia en que sea posible obtener una percepción diferente por algún otro órgano. Ésto explica dos fenómenos: el de las ilusiones ópticas y el de las alucinaciones. El primero responde a las características normales del funcionamiento del sistema nervioso visual mientras el segundo corresponde a una situación patológica en que se borran los límites entre la percepción y la imaginación. También explica que un mismo objeto o un mismo ícono puede ser interpretado de manera diferente por las personas. Como lo hemos visto en la página anterior, la interpretación depende de los esquemas mentales y de la memoria, los cuales no son totalmente idénticos entre las personas ya que dependen de su cultura y de sus experiencias individuales. Ejemplos En esta ilustración, creada por el psicólogo Roger Shepard, se puede ver a un mono que persigue a otro. El mono que parece estar más atrás, también parece más grande, lo cual es una ilusión óptica ya que ambos son exactamente iguales. La perspectiva del túnel o corredor es la que nos engaña.

En este cuadro - la ilusión de Zollner (un astrónomo que la descubrió casualmente en 1860) - , nos parecerá que las "plumillas" divergen cuando, en realidad, todas las líneas son estrictamente paralelas.


A nivel de interpretación, se pueden generar ambigüedades a partir de la misma organización de los trazos. Es el caso de este retrato, del que existen numerosas versiones: se conoce practicamente desde el fin de la Edad Media y el original parece haber sido la combinación del retrato de una abuela y su nieta. Aquí una versión de fines del siglo XIX.


La percepción del color Desde Isaac Newton, en el siglo XVII, sabemos que la luz blanca puede descomponerse mediante un prisma triangular en una banda de siete colores que denominamos espectro cromático y que se ordenaban, de acuerdo con su longitud de onda en las siguientes sensaciones: violeta, añil, azul, verde, amarillo, naranja y rojo. El ojo, sin embargo, solo es sensible a tres gamas o familias de colores: rojo, verde y azul.

Para que una mezcla resulte agradable a la vista es necesario fijarse en reglas básicas de asociación. Se diferencian tres grandes familias de colores: la del amarillo, la del azul y la del rojo. Los colores análogos son aquellos que se sitúan lado a lado en el círculo cromático y son los que mejor armonizan entre sí. Son muy parecidos y se suelen encontrar juntos en la naturaleza. Construir imágenes combinando estos colores dan por lo tanto resultados muy naturales y agradables visualmente.

Los colores complementarios son aquellos que están más alejados el uno del otro en el círculo cromático. Un color parece mucho más vibrante y saturado cuando se encuentra justo al lado de su complementario, generano el mayor contraste posible.

En el fondo del ojo existen millones de células especializadas en detectar las longitudes de onda procedentes de nuestro entorno. Estas células, principalmente los conos y los bastones, recogen los diferentes elementos del espectro de luz solar y las transforman en impulsos eléctricos, que son enviados luego al cerebro a través de los nervios ópticos. Es el cerebro (concretamente la corteza visual, que se halla en el lóbulo occipital) el encargado de hacer consciente la percepción del color. Mientras los bastones miden la intensidad ee la luz, los conos, que se concentran en la zona central de la retina (fóvea) son los responsables de la visión del color y se cree que son de tres tipos: sensibles a los colores rojo, verde y azul. El gráfico muestra la sensibilidad de la retina a las diferentes longitudes onda (colores).

Pero, debido a que el proceso de identificación de colores depende del cerebro y del sistema ocular de cada persona en concreto, el concepto del color producido por ella es totalmente subjetivo, dependiendo de la persona en sí. Dos personas diferentes pueden interpretar un color dado de forma diferente, y puede haber tantas interpretaciones de un color como personas hay.


Es importante recordar que el color como tal no existe en la naturaleza: es completamente fabricado por nuestro cerebro. Las manzanas y los coches de bomberos no son rojos, el cielo y el mar no son azules y ninguna persona es objetivamente "negra" o "blanca". Lo que existe es luz y es nuestro cerebro que la interpreta a partir de los datos que provienen de la retina.

¿Cómo obtenemos el color? Mire la imagen de al lado, en la que hay cuatro cuadritos grises en la superficie superior del cubo de la izquierda y siete cuadritos grises en la superficie equivalente del cubo de la derecha. Una vez esté convencido de que esos cuadritos físicamente son del mismo color (porque lo son), mire los cubos de abajo. Descubrirá que ahora los cuadritos grises de la izquierda se ven azules, mientras que los mismos cuadritos grises de la derecha se ven amarillos. Los cuadritos amarillos y azules de los dos cubos comparten la misma luz, no obstante, se ven muy distintos, por efecto del contexto.

Para un programa de la BBC Horizon, se hicieron varios experimentos para un grupo de 150 personas -de distintas edades, colores, sexo y orígenes- para explorar si todos veían los colores de la misma forma.

Se pidió al grupo ubicar 49 bloques de color en una superficie que tenía 49 espacios. Ninguna otra instrucción. El número de imágenes posibles que se podían crear era 10 a la 62 potencia: una cantidad enorme.Lo que es extraordinario es que la gente hizo patrones que eran muy predecibles, pues todos agruparon los colores de acuerdo a su similitud. ¿Por qué? Porque tenemos una necesidad inherente de estructura y, en particular, de estructuras que nos son familiares, en este caso estructuras que son parecidas a las matemáticas de las imágenes en la naturaleza. La percepción del color hace que, sin importar bajo qué luz veamos el banano, siempre nos parecerá amarillo.

En otro experimento, se probó la relación entre las emociones y el color, hallaron que casi todos los adultos le asignaron amarillo a la felicidad, azul a la tristeza y rojo a la furia. Aunque los niños seguían la misma tendencia, sus selecciones eran mucho más mezcladas y variables. Por otro lado, casi todo el mundo (viejo y joven) mostró una relación similar entre el color y el sonido, dándole a los tonos más bajos azul oscuro y a las notas altas amarillo brillante. En otras palabras, la gente parece tener mapas mentales internos entre el color y otras cualidades perceptivas, como el sonido y la forma. Increíble, dado que estas relaciones no existen en la naturaleza. (BBC Mundo, 14 de agosto de 2011).


Psicología del color De los experimentos señados (y de una larga experiencia) se deriva que existe una psicología del color y los diseñadores publicitarios no dejan de utilizarla para motivar a los clientes. Cada color entraña una experiencia perceptiva diferente que genera a su vez emociones diferentes, aunque puedan ser subliminales. Se estima que el color influye un 80% en el reconocimiento de una marca. Mostramos aquí diferentes aplicaciones en logotipos e inserciones publicitarias. Rojo

El rojo evoca energía, pasión y excitación. Se aplica principalmente en productos de entretención, deporte y alimentación, para activar el apetito, dar un sentido de urgencia, atraer la atención o sugerir confianza.

Naranja

El naranja sugiere entusiasmo, fascinación, felicidad y fuerza. Se utiliza en productos de entretención, alimentación y para niños, para estimular la actividad mental y comunicar el aspecto entretenido.


Amarillo

El amarillo evoca energía, inteligencia, espontaneidad, alegría. Lo utilizan en productos para niños y de ocio.

Verde

El verde sugiere salud, frescura, serenidad. Aparece en publicidad de educación, de de bienestar y asuntos de medio ambiente.


Azul

El azul evoca seguridad, confianza, responsabilidad. Lo utilizan en finanzas, tecnologĂ­a productos de cuidado de la salud.


Violeta - Púrpura

El violeta y el púrpura sugieren nobleza, misterio, sabiduría, espiritualidad. También se usa en finanzas y productos de cuidado de la salud.


Marrón

El café o marrón evoca durabilidad, simpleza, naturalidad, tierra. Es más frecuente en las áreas de la agricultura, el medio ambiente y la alimentación.


Negro

El negro sugiere exclusividad, sofisticación, glamour, poder. Se aplica a productos de tecnología, autos de lujo, productos de diseño.


Blanco

Sugiere pureza, limpieza, simplicidad o perfecci贸n. Aparece en productos de cuidado de la salud y de lujo.


Los logotipos que incluímos fueron seleccionados en su mayoría por Bags & Bows, en Infographic Journal. La selección de publicidad es nuestra.

_


Manejo psicológico del color en el cine Después de ver algunos ejemplos en la publicidad, veamos algunos ejemplos en el cine. La diseñadora gráfica, Roxy Radulescu, de Illinois (EEUU), creó un archivo de películas en el cual selecciona determinadas escenas características por su color y analiza su gama tonal. El proyecto se denomina “Movies in color” y divide las zonas del fotograma en Luminosos – Medios – Oscuros además de incluir un espectro general. Seleccionando algunos fotogramos, podemos ver cómo la emoción sugerida por los colores se relaciona con la temática de del filme o de la escena particular. Aquí, nuestra propia selección, con comentarios obtenidos de Javier Millán Luengo en Dzoom.org. 1. "2001, Odisea del Espacio" – La gama de rojos y naranjas contrasta con los azules del borde del casco. El primer plano se ve claramente reforzado por las propiedades que nos ofrecen los colores cálidos, provocando una sensación de agobio.

2. "Amelie” – El vestido rojo de ella contrasta a la perfección con el ambiente predominantemente verde. Ella es muy pasional, de ahí el rojo, y la escena es alegre, bohemia, de ahí el verde.


3. “Prometeo” – La paleta de tonalidades azules provoca a la vez lejanía y profundidad, a lo que se suma un plano angular perfectamente coherente.

4. “El lobo de Wall Street” – Escena de tonos pastel con el rosa y violeta como protagonistas. Quizá la potencia visual de la escena radique en el contraste entre la “inocencia” del rosa en contraposición con la carga sexual del fotograma.


5. “Moulin Rouge” – Aquí predominan los amarillos y rojos, colores acogedores, sensuales, excitantes y muy vitales, perfectamente empleados en dicha escena.

_


Semiología de la Imagen Introducción El contenido de la comunicación es por esencia una información y ésta ha de estar relacionada con el conocimiento de quién la emite, al mismo tiempo que su objetivo o finalidad será lograr también un conocimiento en el destinatario, de lo contrario se podría dudar de la utilidad del proceso (no prejuzgamos nada en relación al valor o a la importancia que se pueda dar a ese conocimiento, ni tampoco acerca de su eventual conservación u olvido). El descubrimiento de lo anterior por parte de los especialistas (principalmente comunicólogos y psicólogos) ha llevado numerosos centros académicos e incluso centros rectores a nivel nacional, como el Centro Nacional de Investigación Científica (CNRS) de Francia, a considerar que las «ciencias de la comunicación» y las «ciencias cognitivas» forman en realidad un sólo y mismo campo de estudio. Como consecuencia de esta convergencia, la semiótica se ha visto interpelada y los múltiples modelos explicativos del proceso semiótico se han ido revisando y ajustanco en los últimos años. No pretendemos aquí participar de este proceso de revisión, modelo por modelo, sino exponer los factores que nos parecen claves a la luz de nuestra investigación acerca de la explicación cognitiva del fenómeno de la comunicación, estudio que hemos publicado en nuestro libro titulado "Teoría Cognitiva Sistémica de la Comunicación". Pero nos limitamos a lo que puede tener importancia en materia de "semiología de la imagen". ¿Qué es la representación? Uno de los postulados esenciales del cognitivismo es que el conocimiento es una representación simbólica de lo real. Hemos de aclarar aquí qué se entiende por "representación" y recordar los supuestos epistemológicos en los cuales, junto con los cognitivistas expertos, basamos nuestro análisis. Según el Diccionario de la Real Academia de la Lengua, "representación" significa "figura, imagen o idea que substituye a la realidad"; según el Larousse, se trata de la "imagen de un objeto, dada por los sentidos o por la memoria". Aunque implícito en la segunda definición, podemos advertir que la idea de substitución está presente en ambos casos. Acumulando las precisiones o complementos que admiten ambas definiciones y considerando el significado técnico que asumiremos aquí, hemos de recalcar que el término "representación" se aplica tanto a los estados mentales cuyo origen es el proceso perceptivo consciente como a expresiones externas, modelos y enunciados -en algún lenguaje o mediante alguna técnica de reproducción-. Aunque todas éstas sean entidades de muy variada naturaleza, todas ellas comparten un rasgo esencial: siempre están ligadas a otra entidad a la cual remiten. En otras palabras, una representación es tributaria de un vínculo (la "relación de representación") que la une a algún "referente" por la mediación de su contenido (cfr. Perner, p.30). Figura R-1. Relación de representación

Es fundamental entender a la representación como un medio con contenido propio y establecer la diferencia entre este contenido y el referente. La confusión entre estos elementos puede llevar a enormes dificultades para la comprensión de los procesos mentales, así como ha causado grandes problemas en diversas épocas y escuelas de la filosofía (Perner, p.30). Este esquema también nos puede ayudar a comprender que la representación no es simplemente una "imagen de un referente" (usando aquí imagen en el sentido psicológico -que no se limita a lo icónico-), sino que representa un referente de una determinada manera ("as being a certain way", en el original de Perner, según anota el traductor). De este modo, hay que distinguir entre el objeto real (que es el referente) y lo que la mente se representa como referente, que no es lo mismo. Lo que la mente se representa "como referente" es lo que hemos de llamar "sentido" o significado de la representación. Así, como lo muestra el gráfico corregido, la relación con el referente pasa por el sentido, el cual puede apuntar certera o equivocadamente hacia el referente, y depende de la existencia de otros referentes y de otros contenidos mentales.


A diferencia de las relaciones físicas, la relación de representación sólo vincula la representación con ciertos aspectos de un objeto y no con el objeto en tanto tal, aspectos en los cuales puede influir el contexto. Figura R-2. Relación de representación corregida

También debemos aclarar aquí la existencia de una diferenciación entre "representación" -mental- e "imagen mental". Según lo autores constructivistas, la imagen psíquica es la proyección cortical de los perceptos, en cuanto forma una unidad que se corresponde con el referente (visual, auditivo o de otro tipo), antes de ser analizada por el cerebro e identificada semánticamente ("re-conocida") es de cir de llegar a aparecer como "teniendo un significado". La representación interna -aún la primaria- correspondería a la toma de conciencia a partir de esta proyección interna de la percepción externa. La representación implica "presentar" de modo que resulten significativos (identificatorios, re-conocibles) aspectos claves de un objeto-referente, lo cual implica interpretación. Lamentablemente muchos autores no hacen tal distinción (*) y, en particular en las citas que se encontrarán a continuación, podremos encontrar los términos "imagen mental" utilizados en sel sentido de "representación". (*) Algunos autores incluso, como Damasio, utilizan estos términos en forma opuesta, hablando de "representación neural" para los perceptos recibidos y de "imagen" para el contenido de la conciencia. Las características de la relación de representación, tal como la define Perner, son básicamente cuatro: " Asimetría: La imagen te representa, pero tú no representas la imagen (*). (*) Aquí y en las otras citas, téngase presente lo dicho acerca del significado del término "imagen", generalmente usado por "representación" -principalmente externa- (y no referido exclusivamente a lo icónico). 2. Singularidad: Tu imagen te representa a ti, aun cuando sea indiscernible de una imagen de tu gemelo idéntico. 3. Representación errónea: Para cualquier representación es posible representar de manera errónea. [...] 4. No existencia: El objeto o situación descrita en una imagen no tiene necesidad de existir." (Perner, p.34) El carácter peculiar de la representación mental El tema de la existencia de las representaciones mentales es un tema controvertido, a pesar de que nadie -al parecer- duda de la existencia de los procesos mediante los cuales el hombre percibe, conserva y compara sus experiencias perceptivas, siendo capaz, además, de producir -por ejemplo- retratos de los objetos visualizados e incluso de objetos inexistentes. La controversia, obviamente, contradice nuestra experiencia y nuestro sentido común: "Hablamos con perfecta seguridad de las imágenes mentales que tenemos, de su claridad o de su vaguedad, de los detalles que presentan o de que carecen, de su manipulación o exprimentación. Podemos describirlas, representarlas gráficamente, compararlas con otras imágenes o con los objetos que reproducen. Sabemos lo que significa poder o no poder evocar una imagen, y podemos comparar nuestra experiencia de las imágenes con la de otra gente. En realidad, el discurso sobre las imágenes apenas es menos intersubjetivo, en este sentido, que el discurso sobre los objetos." (Goodman, p.103) Sin embargo, ¿qué son esas representaciones? No tienen ningún soporte material. En realidad, no las "vemos" ni oímos, ya que no usamos los ojos ni los oídos para captarlas. No tenemos en la cabeza ningún "micro-cine" que nos las proyecte, como bien acotan Goodman (p.104) y Maturana ("El arbol...", p.88). Podemos reconocer inicialmente dos tipos de representaciones mentales: las que surgen circunstancialmente en el momento en que


realizamos alguna acción, rápidamente reemplazadas por otras a medida que las circunstancias cambian (conforme a los datos transmitidos por nuestros órganos de percepción), y las que permanecen en la memoria, estabilizadas en forma de conocimiento adquirido y que pueden ser evocadas -normalmente- a voluntad. En ambos casos, las representaciones pueden adquirir tres formas diferentes: "- Las representaciones proposicionales que toman el aspecto de las estructuras predicativas del lenguaje, particularmente adaptadas por este hecho a las diversas formas de la comunicación; - Las representaciones icónicas, conformes a las estructuras espaciales propias de la percepción visual; - Las representaciones asociadas a la ejecución de acciones y tributarias, por lo tanto, de la sensomotricidad bajo la forma de encadenamientos de estados ligados a actividades estructuradas en el tiempo." (Vignaux, p.212) En realidad esta clasificación propuesta por Vignaux debería ser corregida y la segunda categoría ampliada: existen hoy suficientes evidencias de que existe un tipo de representación asociado a cada tipo de órgano de percepción, así que no sólo existen "representaciones icónicas" sino varias formas de representaciones sensoriales (auditivas, tactiles, gustativas). En todos los casos, las representaciones -desde el punto de vista psicológico- constituyen modelos mentales del entorno del sujeto y de sus acciones en este entorno, modelos que son los utilizados para regular y planificar la conducta (cfr. Denis, p.33). No pueden separarse las representaciones de las conductas: "Los procesos que, en el tratamiento de la información, construyen o utilizan representaciones, se encuentran siempre integrados a la economía general de las conductas. Las representaciones son interpretables como las bases funcionales de estas conductas, como estructuras permanentes que sirven de ancla a conductas por esencia circunstanciales. Esta idea tiene como corolario que no se puede formular hipótesis alguna acerca de las representaciones mentales sin un esfuerzo de especificación de los procesos que actúan sobre dichas representaciones . El tomar en cuenta, por parte del investigador, los «pares» representación-proceso es cada vez más generalmente tomado como un imperativo epistemológico de la psicología cognitiva." (Denis, p.33) ¿Qué es lo que ocurre realmente? Al ocurrir el fenómeno de la percepción, los impulsos percibidos son encaminados hacia la corteza cerebral (y, más específicamente, hacia determinadas áreas de la corteza, ya que ésta tiene una organización espacial muy clara y vinculada a la localización de los detectores) donde se producen múltiples interacciones y algunos cambios estructurales que, en determinadas circunstancias, pueden hacerse permanentes. La primera "proyección" cortical -donde llegan y terminan su proceso de transmisión las neuronas perceptoras- constituye la "imagen" perceptual, pero ésta se analiza luego de tal modo que sus componentes son disgregados y transformados en "disposiciones", que son las que son comparadas con disposiciones existentes para el efecto del "reconocimiento". Lo que llamamos representación mental es el producto de esta actividad, cuando de él tomamos conciencia. Es importante conceder el aspecto eminentemente dinámico (e inmaterial) de las representaciones mentales, pero no por ello hemos de renunciar a un concepto que podemos definir técnicamente y que resulta de extrema utilidad para la investigación cognitiva. En especial su mantención nos facilita comprender cómo es posible que la observación inmediata y la rememoración puedan ser fuentes idénticas de una actividad correlacionada como podría ser enunciar una descripción verbal o realizar un dibujo representativo. Las representaciones mentales se constituyen sobre la base de percepciones de objetos externos, y no debemos -obviamentedefinirlas o estudiarlas como unas -extrañas- «imágenes fotográficas» que tendríamos en la cabeza, sino en relación con estímulos potenciales comparables en todo a los estímulos externos que reciben nuestras células perceptoras. Está demostrado empíricamente que los mismos procesos se encuentran en la base de la percepción y de la imaginación (cfr.Shepard, p.249). ¿Y cómo llamaríamos el producto de la actividad imaginativa, sino representación (o "imagen mental", en el sentido común y no técnico que muchos autores dan a estas palabras)? ¿Cómo llamar el estado -en su conjunto- de las áreas corticales activadas por un fenómeno perceptivo dado? ¿Y cómo llamar el recuerdo de este estado, que puede ser rescatado y "reactivado" también a través de la imaginación? A falta de un neologismo, la mayoría de los cognitivistas sigue usando el término "representación", aunque en el entendido de que su naturaleza difiere de las representaciones materiales externas utilizadas para efectos de conservación o comunicación. La producción mental del significado La neurofisiología muestra claramente el rol interactivo de las diferentes estructuras cerebrales y el papel fundamental que desempeñan sus conexiones para permitir tanto la coordinación de los movimientos como la producción de respuestas basadas en la


acumulación de experiencias previas (aprendizaje). La reentrada de señales (reiteración), por lo tanto, modifica los circuitos reforzando las conexiones cuando se dan condiciones similares y debilitándolas en caso contrario, dando origen paralelamente a la memoria y al fenómeno de "conceptualización", dando al término "concepto" una acepción amplia que abarque los fenómenos de categorización previos incluso a la adquisición del lenguaje. Ésta implica la capacidad de regular el comportamiento de manera general, reaccionando de manera similar en situaciones que se asemejan. Supone la capacidad de establecer relación entre una categoría perceptiva y otra, aunque la segunda sea aparentemente diferente de la primera y sin que haya sido estimulada desde el exterior, como puede ocurrir al recordar o imaginar algo (Ver Figura E-1). Esta actividad de establecimiento de relaciones es la que llamamos "pensar", aunque olvidamos muchas veces que el lenguaje no es constutivo de ella, sino una forma más avanzada. Figura E-1. Asociación de experiencias semejantes

Los "significados", o sea las categorizaciones conceptuales, descanzan en una mezcla de relaciones que unen impulsos provenientes del mundo real (externo), de los recuerdos y de los comportamientos pasados; y las áreas cerebrales que las controlan pueden operar sin entradas directas o con entradas que provienen de diferentes "fuentes" (como algo visto y algo loído). Las representaciones externas (como las que hemos llamado "iconos" para mayor claridad -y para no confundir con las imágenes mentales-) son percibidas del mismo modo que los referentes (o "realidad primaria") y generan, en consecuencia, también una representación mental, que no es la misma que la que genera el referente primario. Es entonces la mente que ha de encontrar los elementos que permiten asociar un tipo de representación con el otro a partir de los "mapas mentales" asociados. Figura E-2. Mapas mentales asociados por reentradas

La Figura E-2 muestra cómo dos mapas de grupos neuronales (las que -en términos semióticos- pueden corresponder a dos formas distintas de un mismo significante, o sea dos representaciones externas que apuntan a un mismo referente) reciben entradas independientes. Capa mapa reacciona a condiciones específicas (diferentes), pero entre ambos existen fibras nerviosas que transportan señales de uno a otro. La repetición de ciertas señales (neurales) establece una asociación preferencial (mediante modificación sináptica) que hace que ciertas respuestas del mapa 1 quedarán ligadas a respuestas del mapa 2, formándose así un "par de clasificación". Este par establecería entonces la equivalencia de dos representaciones distintas de un mismo referente. Es lo ocurre en el caso del isomorfismo (como cuando miramos un objeto y lo comparamos con su fotografía) como lo ilustra el cuadro que sigue.


Figura E-3. Ejemplo de asociación de mapas mentales

Modelos Gráficos Podemos ahora sintetizar todo lo anterior en dos modelos gráficos, el primero (R-3) en términos de la psicología cognitiva, el segundo (R-4) en términos semióticos más clásicos y el tercero (R-5) combinando ambos aspectos. Figura R-3. Modelo cognitivo

Figura R-4. Modelo semiótico básico


Figura R-5. Modelo semiótico-cognitivo

Como es posible observar en R-4, volvemos así esencialmente a un modelo triádico. La definición de "significante" -como clase de las representaciones con idéntico significado- se puede explicarse biológicamente en función de la "Teoría de la Selección de los Grupos Neuronales" de G.Edelman como un conjunto de mapas neuronales fuertemente asociados entre sí, de tal modo que provocan idéntica respuesta motora ("acoplamiento de las salidas de un conjunto de mapas interconectados de modo reentrante con el comportamiento senso-motor"). Este texto es un extracto revisado y ajustado de mi artículo publicado en "Revista LATINA de Comunicación Social", nº60, juliodiciembre 2005.


Códigos icónicos El código de comunicación es un sistema de vehículos físicos regidos por reglas mediante el cual el hombre pretende transmitir a otro una información. Tiene, por lo tanto, dos tipos de componentes: los "vehículos", que son transformaciones que el emisor produce en su entorno y que el receptor debe poder percibir, y "reglas" que determinen el correcto uso de estos vehículos y su transmisión. La selección de los vehículos y la determinación de las reglas -y su conocimiento- están íntimamente ligadas tanto a aspectos físicopsicológicos como a las culturas en las cuales han nacido y son usadas. Toda comunicación se realiza mediante "actos sémicos" que son acciones mediante las cuales un emisor selecciona un significado, lo codifica y luego lo transmite. En otras palabras, se puede hablar de que ha de existir primero un pensamiento (acto mental), el cual se transforma luego en una expresión (acto físico). Le corresponde la acción de "recepción", que engloba la percepción del acto físico y su "decodificación" o transformación, nuevamente, en acto mental, mediante el cual se extrae la significación. Ya hemos abordado este tipo de proceso en las páginas anteriores. Sobre la base de la relación existente entre la representación externa (realidad secundaria) y el referente (realidad primaria), se han de distinguir dos tipos de códigos icónicos: 1. el código isomórfico, donde es posible reconocer semejanzas de carácter físico en el orden de lo visual entre el referente y su representación externa; 2. los códigos protomórficos, donde la forma de las expresiones mantienen otro tipo de relación con los referentes. Código isomórfico

El código isomórfico se extiende en numerosos niveles de iconicidad, desde el más simple como una pantalla de radar (que es una representación espacial de un referente geográfico) hasta una fotografía de alta definición, pasando por caricaturas de mayor o menor grado de realismo. Vea al respecto el Capítulo 2, donde el código isomórfico corresponde a los niveles 6 a 14. Han de incluirse en el código isomórfico todas las formas de representación icónica que utilizan los mismos componentes y las mismas reglas, aunque al producto (icono) no corresponda en realidad ningún referente concreto ("realidad primaria"), como el caso de la "realidad virtual" y como ha ocurrido desde los inicios de la historia con el arte, especialmente el arte sacro (Ejemplo: los dioses egipcios, a continuación).

El código isomórfico es por esencia substitutivo, analógico, contínuo y no-arbitrario debido a la semejanza entre la representación y el referente. Otros códigos combinan de diferente manera estas cuatro características. Algunos autores consideran que se han de distinguir diferentes códigos isomórficos, según el nivel de iconicidad adoptado para la representación. Nos parece que ésta opinión es incorrecta por cuanto lo que ha de tomarse en cuenta es el conjunto de los


componentes y de las reglas para formular expresiones. En todos los niveles de iconicidad en que existe isomorfismo, los componentes (grafemas) y las reglas (composición/configuración) son las mismas. Por lo tanto, no se puede hablar de varios códigos. Códigos protomórficos

Dónde sí puede existir una multiplicidad de códigos es donde no existe una estrecha relación de isomorfismo. Aquí, dado que se trata aún de códigos icónicos, se usarán también los mismos componentes (grafemas) pero las reglas de composición podrán variar al mismo tiempo que el tipo de relación. En la práctica podemos observar que diversas disciplinas científicas han creado sus propios códigos, como la estadística ha dado origen a la estadigrafía y la computación a diversas técnicas de visualización como la VDA y el análisis matemático (ver más adelante). Protagonistas de noticias religiosas

Una de las reglas semióticas fundamentales es que el código debe ser conocido tanto por el emisor como por el receptor. Ésto resulta evidente si se quiere asegurar que la interpretación sea correcta (o sea que el significado captado por el receptor se acerque al máximo al que pensó el emisor). Éste es el principio de "convencionalismo". Pero la misma convención de un código puede ser estable o variable. En el caso -por ejemplo- del código de circulación en carreteras (donde hay una mezcla de expresiones protomórficas e isomórficas), la convención es estable: los mismos iconos han de interpretarse siempre del mismo modo por todo el mundo. Por el contrario, en el caso de la estadigrafía, sólo hay convenciones sintácticas (como construir un icono) pero el significado de un gráfico o diagrama varía en cada caso particular, por lo cual debe ser acompañado SIEMPRE de un texto (o elementos isomórficos) que indique claramente a qué se refiere y de qué modo debe ser interpretado. En realidad y en consecuencia, cualquier persona puede crear un código icónico protomórfico para un uso particular siempre que explicite las reglas de interpretación del resultado, como en el caso que sigue. Es, en realidad, así que muchos científicos han podido poner en evidencia fenómenos antes desconocidos, como los "fractales", puestos en evidencia con los trabajos de Mandelbrot (ver "Análisis matemático de datos"). Crisis de los misiles rusos en Cuba (1962)


_


2. Niveles de iconicidad Una de las características fundamentales de todo lenguaje es su grado de isomorfismo (e.d. semejanza en la forma) en relación a las características de lo que representa, y dicho grado varía a lo largo de una amplia escala: "Una gama contínua de formas va de los medios menos isomórficos a los que lo son más; incluye elementos intermedios como los sonidos onomatopéyicos del lenguaje, los ideogramas, las alegorías y otros símbolos convencionales." (R.ARNHEIM, "El pensamiento visual", p.247) El isomorfismo es la base de la mayor universalidad (independencia en relación al idioma) de la mayor parte de los lenguajes icónicos. Pero, como lo señala Arnheim, existen diferentes grados de semejanza, lo que también podemos llamar "niveles de iconocidad". De este modo, se puede construir una "escala de iconicidad" que va de lo más abstracto (y menos figurativo) a lo más concreto (más figurativo y más "parecido" a lo que se representa). Al mismo tiempo, los niveles más bajos son los que recurren a los componentes más simples (líneas, flechas, etc) y los más altos a composiciones más complejas (como en la fotografía). A partir de las propuestas de varios autores como Abraham Moles, Justo Villafañe y Joan Costa, hemos construído una escala de catorce niveles que describiremos aquí uno por uno.

Nivel icónico 1: Esquemas de formulación Esquemas basados en una relación lógica entre elementos en un espacio no geométrico, donde el espacio no representa distancias ni fuerzas. Los lazos son simbólicos y todos los componentes son descritos con otros signos (alfanuméricos, palabras...). Ejemplo 1: Fórmula de química orgánica (metilparabeno)

Ejemplo 2: Sociograma (relaciones entre miembros de grupos)

(De revista-redes.rediris.es/html-vol8/vol8_6.htm)

Ejemplo 3: Relaciones entre registros de una base de datos


(De un original tridimensional del autor)


Nivel icónico 2: Esquemas de vectores en espacios abstractos Corresponde a representaciones gráficas de relaciones entre tamaños vectoriales en espacios métricos abstractos, representadas también por fórmulas matemáticas. Ejemplo

Relación de fuerzas en un sistema mecánico

Nivel icónico 3: Gráficos de variaciones en espacios concretos Corresponde a representaciones lineales de variaciones captadas por aparatos de medición como los oscilógrafos, espectrógrafos, anemómetros, etc. Ejemplo 1: Dirección y fuerza del viento en un determinado lugar según hora o fecha

Ejemplo 2: Estudio de un flujo de agua

Ejemplo 3: Sonograma

_


Nivel 4: Diagramas lineales Los más comunes y típicos son los diagramas "de fiebre" o "dientes de sierra": gráficos que utilizan una o varias "lineas quebradas" para representar variaciones de valores numéricos (generalmente a través del tiempo, al cual corresponde el eje horizontal o X). Ejemplo 1: Aeronaútica chilena

(El Mercurio 31-1-2008)

Los diagramas de "radar" sirven para informar acerca de varios factores que utilizan una misma escala evaluativa, para una entidad o un conjunto de entidades (por ejemplo las notas obtenidas por un alumno en 5 materias). Son muy útiles cuando se ha de buscar la mayor armonía o balance de los factores (y muy apreciados en países del Lejano Oriente). Estos dos ejemplos nos introducen en el tema de la estadigrafía (gráfica al servicio de la estadística) que trataremos en detalle más adelante. Pero se pueden usar diagramas lineales para representar otros fenómenos, especialmente cuando el tiempo está involucrado: Ejemplo 1: Campaña de Rusia de Napoleón

Realizado por Charles Joseph M inard (1781-1870), integra 6 variables del proceso histórico. En café está la ida y en negro la vuelta. El ancho de estas líneas representa la cantidad de soldados vivos.

Ejemplo 2: Crisis de los misiles rusos en Cuba (1962)


Anรกlisis de los elementos de decisiรณn en distintas etapas de la crisis, realizado por A. Joxe, citado por J.Costa ("La esquemรกtica", p.118)

_


Nivel 5: "Árboles", organigramas y flujogramas Gráficos que se componen de "cajas" funcionales, conectadas lógicamente para presentar tipos específicos de funciones u operaciones que tienen entre sí una relación de dependencia o sucesión temporal. Ejemplo 1: Flujograma

Ejemplo 2: Campo semántico

Ejemplo 3: Arbol genealógico


Fuente: www.absint.com/aisee/galeria5.htm

_


Nivel 6: Esquema de principio Los componentes de los referentes son representados por símbolos normalizados; se introduce la topología (importancia de la ubicación relativa, si bien las distancias no son necesariamente proporcionales) y se "geometriza" la representación. Ejemplo 1: Mapa esquematizado del metro de Roma

Ejemplo 2: Mapa de conexiones de un aparato electrónico

_


Nivel 7: Mapas y planos Representaci贸n gr谩fica lineal de las disposici贸n de los componentes de un objeto, respetando su topolog铆a (relaciones espaciales proporcionales). Ejemplo 1: Mapa de Bruselas

Ejemplo 2: Plano de arquitectura

_


Nivel icónico 8: Ideografía Los mapas introducen muchas veces otros signos gráficos que, por la computación, conocemos generalmente como "iconos" pero que han de llamarse "pictogramas" o "ideogramas". Representan de modo simplificado algún objeto (pictograma) o idea (ideograma). Si diseño constituye en sí toda una disciplina llamada "ideografía". La trataremos más detalladamente más adelante. Nos bastará aquí introducir la regla básica que la guía: se trata de reducir la representación a los llamados "rasgos pertinentes" (definido en el capítulo anterior). En el ejemplo 1 se muestra el proceso a partir de una foto de la Torre Eiffel.

Ejemplo 1: Torre Eiffel

Ejemplo 2: Ideogramas basados en siluetas (Los ideogramas representan, en el orden: Remo - Restorán - Lectura - Escritura)

_


Nivel icónico 9: Representación "estallada" Corresponde a la representación recurriendo a una disposición en perspectiva artificial de partes de un objeto según sus relaciones de vecindad topográfica. Aparece comúnmente en manuales de ensamble o reparación y, algunas veces, en infográficos de prensa. Ejemplo: Satélite (bajo la flecha)

(Mercurio, 20-11-1993)

_


Nivel icónico 10: Esquema anatómico Más preciso que las "representaciones estalladas" son los cortes en el objeto (en la superfieice externa, el envoltorio o la carocería) respetando la topografía (ubicación exacta); se incluye eventualemnte una cuantificación de elementos y simplificación. Ejemplo 1: SpaceLab

(El Mercurio, 1980)

Ejemplo 2: Sistema nervioso cerebral

(Anatomic Chart Co., 1986)

_


Nivel ic贸nico 11: Representaci贸n figurativa no realista De uso practicamente restringido al mundo del arte (especialmente cubista). Ejemplo: Las se帽oritas de Avignon

(Picasso)

_


Nivel icónico 12: Dibujos y fotografías de alto contraste Ejemplo: Estátua de la Libertad

(De J.Costa, "La imagen y el impacto psico-visual", p.89)

_


Nivel ic贸nico 13: Caricaturas Dibujos m谩s detallados que en el nivel anterior. Ejemplo 1: Direcci贸n de la circulaci贸n

(De "La Tercera", 17-4-1992)

Ejemplo 2: Escenario de crimen

(De "La Tercera", 30-4-1999)

_


Nivel icónico 14: Proyección realista en el plano Fotografía, pintura o dibujo realista en un plano: con perspectiva rigurosa, medios tonos y sombras. Se podrían distinguir dos sub-niveles: en el bajo la proyección en blanco y negro (o bi-color) y en el alto la multicolor.

Ejemplo 1: Pintura "Carta de amor"

(Vermeer)

Ejemplo 2: Fotografía Salón VIP en Barajas

(España)

Escala 3D De este modo terminamos la escala de iconicidad, excepto por un detalle: nos hemos limitado a las dos dimensiones del plano. Pero también se pueden realizar representaciones en tres dimensiones (3D), lo cual corresponde esencialmente a la escultura o confección de modelos reducidos (maquetas). Ésto es aplicable casi a toda la escala por lo cual a cada nivel de ésta podría agregarse una versión "3D". Se podría alegar que no hemos considerado la representación 3D en computadores. A ello responderemos que se trata de una falsa tercera dimensión, ya que se trata de producir diferentes vistas biplanas de los objetos. Que se pueda "mover" en forma contínua es segundario y no cambia en nivel de iconicidad (Por ello tampoco hemos mencionado en cine que, como todos saben, en una secuencia de iconos biplanos fijos que simulan el movimiento).


La selección del nivel de iconicidad Dice Rudolf Arnheim: "Cuando las imágenes deben emplearse con fines técnicos o científicos -por ejemplo, ilustraciones de máquinas, organismos microscópicos u operaciones quirúrgicas- se prefiere utilizar dibujos o, al menos, fotografías retocadas a mano. La razón es que la imagen nos proporciona la cosa «en sí» solo mediante la indicación de algunas de sus propie-dades: la silueta característica de un pájaro, el color de una sustancia química o el número de capas geológicas. Una ilustración médica debe distinguir entre una textura suave y otra áspera, señalar el tamaño y posición relativos de los órganos, las ramificaciones de los vasos sanguíneos o el mecanismo de una articulación. Una ilustración técnica debe suministrar las proporciones y los ángulos exactos, la concavidad o convexidad de una parte dada, la diferencia entre lo que se encuentra en la parte anterior y lo que se encuentra en la parte posterior, las distancias entre unidades. Estas propiedades constituyen todo lo que deseamos saber. Esto significa no solo que la mejor imagen es la que deja de lado todo detalle innecesario e indica las características fundamentales, sino también que los hechos pertinentes deben revelarse claramente ante la visión." ("Arte y percepción visual", pp.120-121). La afirmación de Arnheim subrayada en negrita apunta con toda precisión a lo que constituye lo medular en materia de sentido: el significado está vinculado a las propiedades que el mensaje visual ha de poner en evidencia. Y en la mayoría de los casos estas propiedades son espaciales, mientras en los demás casos traducen propiedades no espaciales en símbolos de carácter espacial, del mismo modo que -en la escritura- los sonidos son transformados en letras. _


Funciones icónicas En algunos casos será conveniente preguntarse cual es el objetivo de la presentación de un icono, o sea que función cumple. Debemos recordar que uno de los "padres" de la semiología, Eric Buyssens, señala que "El carácter sémico de un hecho o de un objeto depende de la función que le atribuyamos" (p.25), es decir que cualquiera sea la naturaleza de un sistema de expresión, su carácter sémico está ligado a una función que no es solamente la de comunicar. Los trabajos de Roman Jakobson se inscriben en cierto modo en esta misma perspectiva cuando distingue las seis funciones básicas del lenguaje verbal. Pero el aporte que nos parece más importante en el campo de lo icónico es el que se debe a Umberto Eco, en su estudio de los códigos arquitecturales (en "La Estructura Ausente"). Muestra como la base semántica de tales códigos es esencialmente funcional: hay diseños típicos de edificios (templos, oficinas, casas), de habitaciones (estar, cocina, dormitorio). Y ocurre lo mismo con los muebles, la vestimenta, etc. Ilustración: Casa vs. templo

La investigación del proceso creador, en esta categoría de códigos y particularmente en la arquitectura y el urbanismo, pone en evidencia la interrelación de códigos de distinta naturaleza en distintos niveles, de modo parecido a los que ocurre con denotación, connotación y metalenguaje. Aquí, se observa que el significado de la forma viene a ser el significante de la función; el significado de la función viene a ser el significante de la necesidad humana (cfr. Eco, 1972, pp.330-342). Esto, para quién estudia la obra realizada. Pero su creador partió de la necesidad, dedujo la función que debería cumplir la obra y tradujo esta función en las formas pertinentes. Otro punto de vista, complemetario, es el que desarrolló Péninou para situar y caracterizar los mensajes icónicos de la publicidad: considera que al alejarse de la función documental, la representación tiende a servir predominantemente sea al emisor sea al destinatario. Aunque preocupado exclusivamente por el discurso publicitario, su esquema abarca todas las alternativas posibles. (pp.90-91) _


2a Parte: La formación del discurso 3. Las bases del discurso Sintáxis básica: Conformación del "ícono" Las figuras se unen de dos posibles maneras: mediante incrustación y mediante yuxtaposición. Estos dos mecanismos constructivos son característicos del lenguaje icónico (tal como la yuxtaposición secuenciada de sonidos -fonemas - lo es en el lenguaje verbal). Considerando una de las representaciones visuales más sencillas en su composición, el retrato, podemos ver indicado un único referente, la cara del profesor.

Iconema Pero un dibujante podría haberse "acercado" más y haber representado solamente un ojo o la boca. Cada una de las figuras que componen el retrato podría así ser objeto de una representación separada. Sin embargo, suprimir una o varias de ellas no es posible sin destruir la estructura o el conjunto de propiedades de la unidad al cual pertenecen, o cambiar radicalmente su significado. La unidad indivisible así constituída, compuesta de varias figuras, es el "ICONEMA". Incrustación Un ojo -sólo- no puede ser representado sin distinguir el contorno de los párpados, el iris y la pupila; pero en una cara podrán obviarse algunos detalles del ojo (que podría ser representado hasta por un mero punto) sin que sea posible eliminar totalmente el ojo (a no ser tapándolo con una venda, lo cual no es una supresión sino una substitución formal que respeta la estructura del referente). Esta relación de pertenencia es la que designamos con el nombre de incrustación. Muchos elementos de la realidad están incrustados unos en otros y el lenguaje icónico refleja directamente este hecho, cosa ajena a la sintaxis del lenguaje verbal. Yuxtaposición La naturaleza de la incrustación puede quedar aún más clara al referirnos al segundo mecanismo sintáctico: la yuxtaposición. Miremos la fotografía adjunta de una familia de los años 50. En ella vemos el padre, la madre, dos hijos grandes y uno chico, algunos detalles del patio y el muro de fondo. Son todas representaciones de distintos objetos que aparecen circunstancialmente unidos en la evocación icónica. Tenemos en este caso una yuxtaposición de varios iconemas, cada uno representando un referente. Pero las hojas de las plantas no están incrustadas, por cuanto no son un componente estructural de las personas ni del muro. Los ladrillos del muro de atrás están incrustados en el muro, pero éste está yuxtapuesto a las personas y las plantas.. Icono El conjunto de los elementos yuxtapuestos conforma una unidad mayor, delimitada por un marco: el icono. Pero también existen casos en que la unidad espacial determinada por el marco sólo es ocupada por un sólo iconema, lo cual es un "caso límite" (como el


retrato que hemos visto antes). Por ello, se define el icono como una unidad discursiva, espacialmente delimitada, dentro de la cual aparecen conjuntos de señales gráficas (grafemas), que pueden indicar uno o varios referentes (a los cuales corresponden iconemas).

El marco puede ser real -en cuyo caso hay una figura que lo delimita- o virtual (si la unidad espacial mantiene otra modalidad de solución de continuidad en relación a su contexto).

Nota: En sentido estricto, la "imagen" es la proyección mental (realidad psicológica) de lo percibido por el órgano de la visión. La realidad física que los ojos perciben y que llamamos habitualmente "imagen" (habría que decir "imagen vista" o, como haremos habitualmente, "representación" visual) es un "icono" en el sentido utilizado aquí.


Configuración Si bien la incrustación se impone al autor, existe más libertad en el modo en que puede efectuarse la yuxtaposición. En el espacio de un icono, los iconemas pueden ocupar variadas posiciones y las que ocupen efectivamente pueden influenciar el sentido del conjunto. Las posiciones respectivas que ocupan los iconemas yuxtapuestos conforman una CONFIGURACION. De la identificación de los elementos, de su estructura y de su configuración surge el sentido del mensaje visual.

Nivel icónico y Nivel de reconocimiento La forma significante surge generalmente cuando se unen varias figuras en un conjunto más complejo. En el caso ilustrado la unión de figuras permite ver una vela encendida. Para poder llegar a decir "Esto es una vela encendida", combinamos dos niveles de análisis: el nivel propiamente icónico, que corresponde a la identificación de un referente asociado al iconema, y el nivel de reconocimiento en el cual se identifican las figuras que componen el iconema con partes o características del referente (como el cuerpo y la llama de la vela). Rasgos pertinentes Para reconocer una cara humana (no específica) se requiere al menos un círculo, dos puntos y dos rayas, figuras que, separadas o en otra configuración no significan nada.

Las figuras indispensables son llamados RASGOS PERTINENTES y pueden estar acompañados de rasgos complementarios. La posición de las figuras forma parte de la pertinencia del rasgo.

La selección de los rasgos pertinentes (junto a su configuración) es una tarea esencial de la infografía, dado su objetivo de información sintética. Polivalencia de las figuras Podemos desmostrar que las mismas figuras pueden constituir otros signos, cambiando ligeramente el iconema (Ver Ilustración): tratándose de una lámpara, el rectángulo inferior, de cuerpo de vela, pasa a ser cuerpo de lámpara (que es en este caso un recipiente y no la materia usada). Esta inestabilidad de las figuras visuales, por oposición a la estabilidad de los iconemas, es de suma importancia: es la que permite la "economía" de recursos en los códigos visuales (mecanismo llamado "articulación"). Es considerando las figuras utilizadas que se determina cuáles son los componentes necesarios para que el objeto sea reconocible.


_


La composición del icono Las dimensiones espaciales El cuadro en el cual se situarán los iconemas se compone, geométricamente, de dos dimensiones: la horizontal y la vertical. Si bien existe una relación (topológica) entre éstas y las correspondientes al volumen de los objetos representados, las dos dimensiones de las representaciones icónicas han de ser concebidas también como expresión permanente de las relaciones entre el Hombre (como «ser vertical») y su Ambiente (su «horizonte»), como lo señala Dondis: «El constructo horizontal-vertical es la relación básica del hombre con su entorno» (La sintaxis de la imagen, p.36). Estas dimensiones también juegan un papel importante a la hora de verificar el equilibrio de una composición. Así, su papel no se limita al de meros ejes cartesianos sino que también juegan un rol de ejes psicológicos. Pero si disponemos solamente de dos dimensiones cartesianas (que el marco, cuando no es circular, vuelve a poner en evidencia), se plantea el problema de la «transcripción» de la tercera dimensión: todo volumen ha de reducirse al plano. Esto es posible mediante el procedimiento de la proyección, que ya está presente cuando los rayos luminosos reflejados por los objetos activan las células detectoras que conforman el plano de nuestras retinas. De este modo es importante reconocer que la interpretación tridimensional de la proyección es el modo básico (y único) de operar de la percepción visual. El producto de nuestra experiencia visual con la realidad primaria introduce en el plano de la representación un sector medio que conesponde a la proyección de la profundidad, tal como lo esquematizamos en la Ilustración siguiente. Imaginando un «acto de percepción visual visto de perfil», los objetos aparecen en diversas ubicaciones que, al proyectarse en un solo plano (visión frontal normal), determinan la regla general de la interpretación tridimensional.


Este procedimiento, usual en Occidente desde el Renacimiento, no es el único posible, como lo veremos al hablar de la perspectiva. Su consecuencia es que nunca tenemos acceso de una sola vez a la apariencia total de un objet, lo cual obliga a seleccionar el punto de vista más adecuado para el reconocimiento o la transmisión de información. "Tanto en el procedimiento egipcio como en el perspectivista un aspecto o proyección particular de la cosa tiene como objeto representar el todo. Para lograrlo así deben llenarse dos condiciones. En primer lugar, debe notarse que en sí mismo el aspecto no es la cosa completa, sino sólo una parte de algo más amplio. En segundo término, la estructura de la totalidad que sugiere debe ser correcta. Cuando miramos un cubo desde la perspectiva frontal, no hay nada en el cuadrado percibido que indique que constituye una parte de un cuerpo cúbico. Por lo tanto, una proyección semejante no es la adecuada para representar la estructura tridimensional del cubo." (Arnheim, R.: El pensamiento visual, p. 77) Una proyección simple, sea frontal o de perfil, puede ser suficiente, como en el caso del cuerpo humano: "Su volumen entero conforma aproximadamente la impresión que produce el aspecto frontal. Cuando el cuerpo se vuelve, no se experimenta ninguna gran sorpresa. Nada esencial se oculta. Dentro de ciertos fimites que son evidentes, la forma de la proyección incluye la ley de la forma total." (Arnheim, R.: El pensamiento visual, p. 78) Pero: "Si la estructura proyectiva posee una forma más bien simple, esta simplicidad obstaculiza su función, pues cuanto más simple sea la forma de un objeto, tanto más resistencia ofrecerá a ser percibido como tridimensional; por el contrario tenderá a parecer plana. En la figura adjunta, el escorzo del aspecto superior de un hombre sentado se proyecta con la forma de un cuadrado. La figura, a causa de su forma simple, posee una gran estabilidad en el plano y se resiste a descomponerse en un objeto tridimensional menos simple." (Arnheim, R.: El pensamiento visual, p. 80)


Los planos El término 'plano' es ambiguo. En efecto, puede designar el plano de la representación, o sea el que soporta el marco y que se utiliza para «colocar» las figuras. Pero también puede ser entendido como el plano geométrico correspondiente a cada figura o iconema bidimensional, cuando se superponen unos a otros. En este caso, aparecen varios planos colocados en forma paralela (uno delante del otro) en la dirección de la profundidad. Además, en la opción del estilo cubista, un mismo objeto puede aparecer representado en varios planos (correspondientes a los distintos puntos de vista seleccionados). La elección de los planos es por lo tanto fundamental tanto para la información sobre cada referente como para la expresión de relaciones espaciales (distancia y profundidad). Para cada objeto, la información dependerá de la cantidad de planos y de su ubicación: varios planos (como en el cubismo) pueden dar más información, pero arrojan un resultado muy poco natural. Y, en cuanto a la ubicación, un «primer plano» (más cercano al espectador) puede ser más detallado, mientras los siguientes tendrán alguna área tapada por el primero. Sin embargo, la estética recomienda utilizar un primer plano irrelevante (o con información contextual), de poca extensión, mientras el referente de mayor importancia estará en el «plano principal» (segundo o tercero del conjunto). En la ilustración adjunta, se observa claramente la sucesión de múltiples planos. Ilustración: Planos superpuestos en «La excursión en bote»

(Según cuadro de Mary Cassat. En Arnheim, R. Op. Cit., p. 202)


Perspectiva La pintura y el grabado egipcios utilizaron una convención gráfica propia para representar seres humanos (ilustración 7.12). Nada permite afirmar que las reglas diferentes que utiliza nuestra cultura permiten representaciones más «objetivas» o más cercanas a la realidad. Nuestra «perspectiva central» es también bastante alejada de la percepción real, que tiene una base curvilínea debido a la estructura misma del campo visual.

Convención egipcia

Perspectiva curvilínea

(De Barre & Flocon, "La perspective curviligne", p.173)

Estructura de un plano frontal en perspectiva curvilínea: La pared ha sido recubierta de una cuadrícula para mostrar mejor la estructura perceptiva curvilínea. La perspectiva clásica supone «erróneamente» la equidistancia de todos los puntos del plano frontal


con relación al observador. La perspectiva curvilínea rinde mejor cuenta del alejamiento progresivo de los puntos que no están al centro del eje de la visión. Principios

Aunque existen algunas obras pictóricas anteriores que hacen gala de ella, la perspectiva central rectilínea apareció definida teóricamente por primera vez en 1436 en el libro «De Pictura» de León Battista Alberti, quién explicaba incluso procedimientos prácticos para lograr una representación con la perspectiva correcta: interponer un velo cuadriculado entre el pintor y la escena. Alberto Durero (1471-1528) desarrolló varios aparatos mecánicos para facilitar su aplicación (ver ilustración siguiente) y fue el mayor difusor de las concepciones italianas en los países del norte. Con Leonardo da Vinci (1452-1519), la perspectiva superó los límites de la abstracción geométrica propugnada por sus predecesores, para integrar mejor los datos de la experiencia perceptiva como el desenfoque (no todos los planos se perciben igualmente nítidos) y el «azulearse» de los colores con el aumento de la distancia.

La máquina de Durero

Las reglas de la perspectiva central constituyen una clave para la organización espacial dentro del icono. A diferencia de las opciones de otras culturas (como la egipcia ya citada), es el resultado de un procedimiento mecánico, como la inserción de un panel de vidrio entre los ojos y la realidad. La consecuente imitación mecánica, enormemente perfeccionada por la fotografía, no anuló sin embargo la imaginación artística, excepto durante el Siglo XIX, en que condujo a una decadencia de la cultura visual popular. Consecuencias

Las consecuencias prácticas de este método son las que nos interesan aquí. Primero debe señalarse que da particular intensidad al efecto de profundidad. Sin embargo, si no se utiliza un medio mecánico, resulta difícil determinar el ángulo de las líneas de fuga y la longitud adecuada de las aristas que las siguen.

En un caso simple, como «La Ultima Cena» de Leonardo, el centro del marco y el de la escena coinciden. Las líneas de las paredes y del cielo raso convergen hacia la figura de Cristo. Con ello se obtiene un efecto de armonía, equilibrio y estabilidad. Pero también el efecto de profundidad es mínimo.

Si, al contrario, desplazamos el centro de la escena hacia uno de los puntos virtuales que atraen más el ojo, obtenemos un esquema con alta tensión debido a la asimetría, como se puede observar en esta otra ilustración, meramente teórica. Mantuvimos sin embargo el equilibrio del conjunto al situar, en este caso, el punto focal del lado izquierdo, el cual «soporta» mejor el peso de las líneas que ahí se concentran. Este tipo de relación entre puntos focales y puntos estructurales es lo que da al sistema de perspectiva central una riqueza y un dinamismo que otras formas de proyección no tienen. Muchos artistas se aprovecharon de ello.


Nótese también, aquí, la ilusión óptica que hace aparecer las líneas horizontales como curvadas, y las verticales a la derecha del punto de fuga como más cortas que las de la izquierda: la intersección de líneas, en la perspectiva central puede distorsionar la visión. La fotografía es el mejor medio para evitar errores en la representación de la perspectiva. Como lo recalca Arnheim (p.240), la «intensidad» de la experiencia visual frente a un cuadro de perspectiva central depende de tres factores: la distancia a la cual se encuentra el observador, la visibilidad del objeto (parcial o total) y el ángulo de convergencia de las «líneas de fuga» (líneas virtuales sobre las cuales se ordenan los iconemas, en la dimensión de la profundidad). La fotografía permite captar con precisión estos factores y muestra como la distancia (eventualmente modificada por el ángulo del lente) influye en los demás factores. El ángulo de convergencia. en particular, depende fuertemente de la distancia entre la cámara y el objeto: cuanto más cerca esté, mayores serán las diferencias: lo que está cerca muy grande, y lo que está más lejos muy chico (lo cual un lente de foco corto resalta aún más, como en la fotografía adjunta, sacada con un «gran angular»). Esta convergencia también aumenta si el ángulo de visión no es frontal (perpendicular al objeto): una toma oblicua enfatiza el efecto.


Teoría de la forma Los estudios acerca de la psicología de la percepción han dado origen a la escuela de la "Gestalt", mal llamada "Teoría de la Forma" ya que "gestalt" significa más bien "configuración". recordaremos aquí las reglas principios puesto en evidencia por esta Teoría. Fuerzas básicas

Todo iconema o conjunto de iconemas queda ubicado dentro de un MARCO (real o virtual) y mantiene con dicho marco relaciones que pueden ser interpretadas como "fuerzas". Las fuerzas básicas son el PESO de las figuras introducidas en el marco y las fuerzas CENTRIFUGA (presión hacia el exterior) y CENTRIPETA (presión hacia el centro) que ejercen el marco y eventualmente cada iconema con respecto a los demás, si son varios (Vea Ilustraciones).

Estas fuerzas no proceden de la realidad sino de la forma de trabajar del cerebro (estudiada por la psicología de la forma). De la combinación de las fuerzas puede surgir una impresión de equilibrio o desequilibrio, de estabilidad o de dinamismo (movimiento).

¡Pero estabilidad y equilibrio -aunque pueden darse juntos- no son iguales! Lo podremos descubrir más aldelante con los ejemplos relativos a otras reglas involucradas. También se explica en parte porque no todas las fuerzas se ejercen del mismo modo ni con el mismo efecto...

"Peso" de un iconema único

Una forma ubicada fuera de ejes parece más pesada que sobre los ejes (Fig.1 y 2). Una forma ubicada arriba parece más pesada que una ubicada abajo (Fig. 3 y 4). Un forma de orientación vertical parece más pesada que una oblícua de idéntica superficie (Fig. 5 y 6).


Equilibrio de yuxtaposición

Cuando se colocan varias figuras o iconemas en el marco, es importante lograr una configuración equilibrada: deben equilibrarse - los pesos de las figuras, como también - las fuerzas que se ejercen recíprocamente (interacción).

Distancia y profundidad

La "profundidad" del icono y la distancia entre los objetos representados se evoca de diferentes maneras: - mediante superposición de figuras (1): parece más alejado lo que está atrás, - mediante escalonamiento -de arriba hacia abajo- (2): parece más alejado lo que está más arriba, - mediante diferenciación de tamaño (3): parece más alejado lo que es más chico.

Economía: S implicidad y Agrupación

El cerebro siempre tiende a operar con la máxima economía. Por esta razón busca la interpretación más simple de lo que observa y si hay varias figuras- la agrupación de acuerdo a la proximidad o a la semejanza.


Economía: Continuidad o Cierre

El principio de economía tiene otra consecuencia: lleva a interpretar a veces por medio de la continuidad una figura discontínua, por ejemplo un círculo atravesado por una recta para el caso de la Fig.1 ilustrada aquí... lo cual no es exacto.

Y la memoria tenderá a olvidar esta discontinuidad, del mismo modo que tiende a olvidar detalles no simples adjuntos a figuras simples (Fig.2). (Si intervienen varios principios de economía, el de continuidad es mas potente que la semejanza y ambos se imponen a la proximidad).

Lectura

El ojo explora el icono y registra varias figuras buscando un orden. Si las figuras son muy pequeñas y numerosas, lo más probable es que adopte el orden de la lectura de texto: de izquierda a derecha y de arriba abajo, al menos para la mayoría de los occidentales (1). Si no es posible y si la configuración no indica otra cosa, es más probable que vaya aproximadamente desde el centro hacia el marco, siguiendo un recorrido parecido a una espiral (2).


Pero, en la mayoría de los casos habrá algunos puntos o grafemas que atraerán la vista y la "conduzcan" en un determinado recorrido (3).

Ritmo

El "ritmo" es la fuerza típica de una composición que permite al ojo recorrer en forma rápida y con economía de esfuerzo una composición de múltiples figuras. Su base es la agrupación de figuras: al percibir una agrupación en un conjunto de figuras, el ojo busca su repetición.

S uperposición

Uno de los problemas más frecuentes en la yuxtaposición de figuras o iconemas -y al cual hay que prestar mucha atención- es el de cómo se produce la superposición, cuando los componentes no se distancian unos de otros. Figuras que se recortan mútuamente son interpretadas como "superpuestas", en distintos "planos" ubicados uno tras otro en el sentido de la profundidad. El cerebro buscará siempre economía y simplicidad, considerando que la superposición puede facilitar las cosas, razón por la cual interpreta la ilustración adjunta como un círculo tapando en parte a un cuadrado.

Pero si modificamos ligeramente la ilustración anterior, podemos complicar enormemente la interpretación. Predominando la idea de superposición, ya no se puede adivinar cual es la forma "tapada", lo cual hará difícil no sólo la comprensión sino también la memorización. El caso así ilustrado pone en evidencia la importancia del CONTORNO de las figuras o iconemas. Si las figuras o iconemas que se superponen forman en conjunto una nueva forma geométricamente simple y/o con contornos que se prolongan unos a otros, no se entenderán como distintos ni superpuestas (Fig.1). Para que se perciban más exactamente es necesario evitar las relaciones simples y los bordes en común, tratando de que los contornos de la figura delantera recorten claramente los de la figura trasera (Fig.3) y no cambien de direccción justo en el punto de corte (Fig.2).


Figura y fondo

El último problema que abordaremos y que es tratado ampliamente por la Teoría de la Forma es el de la relación entre figura y fondo. En la Fig.1 resulta muy difícil saber cual es el fondo y cual es la figura propiamente tal.

La regla general es que la superficie rodeante es el fondo mientras lo rodeado es la figura (como la ventana de la Fig.2). Si no hay rodeante, la zona que llega más abajo tenderá a verse adelante y el resto como fondo (como las "montañas" de la Fig.3). La falta de respeto por las reglas de la Teoría de la Forma puede generar diversas ilusiones ópticas. No repasamos así todos los principios y casos contemplados en la Teoría de la Forma. Pero los casos presentados pretenden recordar las reglas más importantes y más útiles para un trabajo creativo correcto especialmente en el campo de la Infografía, que es dónde se produce el mayor interés para combinar distintos iconemas e incluir algo de texto para informar lo más sintética y precisamente posible al destinatario del mensaje.


Reglas Introduccion

El estudio de la estructura que hemos realizado en páginas anteriores es indispensable para poder abordar la tarea de crear un nuevo icono. Y aunque pueda parecer una preocupación propia de un pintor o dibujante, no está ajena al fotógrafo. Este, si bien en la mayoría de los casos no está en condiciones de desplazar los objetos de la realidad primaria que fotografía, sí puede desplazarse él mismo y, buscando diversos ángulos, crear múltiples representaciones de una misma escena. El término composición designa esta acción del pintor, dibujante o fotógrafo que, al seleccionar los objetos que representará, determina la posición y tamaño que ocuparán en la representación que se propone crear. Obviamente ha de respetar las principales reglas de la Teoría de la Forma pero, como lo veremos aquí, la búsqueda de un conjunto armónico y sinérgicamente significativo (es decir que la totalidad signifique más que la mera suma de sus partes) implica un nivel más alto de exigencia. El arte de la composicion

Componer adecuadamente, más que una técnica, es fundamentalmente un arte. La manera de acomodar los objetos en el encuadre no sólo ha de seguir las reglas básicas de la Teoría de la Forma sino, además, ha de llevar también un significado en sÍ. La fuerza y la habilidad del pensamiento, como acción mental a nivel cognitivo, consiste esencialmente en buscar y hacer descubrir por el espectador ante todo la estructura, y ésta ha de ser congruente con los otros elementos del mensaje. El artista que desea proyectar esta fuerza en su obra no se contenta con la mera percepción natural, sino que busca la estructura compleja y completa de la escena que observa o imagina. Esto es lo que podemos descubrir en las grandes obras de arte, como en el caso de« La Creación de AdLin» de Miguel Angel, que describe y explica R. Arnheim (ilustración adjunta): «En las grandes obras de arte, el más hondo significado se le transmite al ojo con poderosa exactitud por las características perceptuales de la estructura de la composición. La «trama» de la Creación de Adán de Miguel Angel, es entendida por cualquier lector del libro del Génesis. Pero aún la trama se modifica de modo que se hace visualmente más comprensible e imponente. En lugar de animar con el soplo un cuerpo de arcilla -motivo que no es fácilmente traducible a una estructura expresiva-, Dios se extiende hacia el brazo de Adán como si una chispa vivificadora que pasara de dedo a dedo se transmitiera del creador a la criatura. El puente que constituye el brazo conecta dos mundos separados: la redondez completa e independiente del manto que circunda a Dios, al que se imparte un movimiento de avance por la posición diagonal de su cuerpo, y el incompleto y plano trozo de tierra, cuya pasividad se expresa por la inclinación de su contorno. Hay también pasividad en la cuna cóncava sobre la cual se modela el cuerpo de Adán. Su figura yace y puede levantarse en parte por el poder de atracción de su creador que se aproxima. El deseo y la potencial capacidad de levantarse y andar se indican como tema subordinado en la pierna izquierda, que sirve de apoyo al brazo de Adán, incapaz de sostenerse por sí mismo libremente, como ocurre con el brazo de Dios, cargado de energía. El análisis muestra que el esqueleto estructural de la composición pictórica revela la estructura dinámica de la historia. Hay un poder activo que establece contacto con un objeto pasivo, el cual se anima por la energía que recibe. La esencia de la historia aparece en lo que primero salta a la vista del observador: la estructura perceptual dominante de la obra. ... Las fuerzas que caracterizan el significado de la historia se hacen activas en el observador y producen la especie de animada participación que distingue la experiencia artística de la desprendida aceptación de un dato» (Arnheim, p.372-373) La composición, en cuanto se preocupa de estos aspectos estructurales o de organización del conjunto de los iconemas, entra a aplicar una sintaxis de segundo nivel, mientras el manejo de las formas y la búsqueda de su equilibrio o dinamismo en conformidad a la Teoría de la Forma constituyen la sintaxis de primer nivel. Con ello se enriquece la significación, tal como lo ha demostrado Arnheim en el ejemplo anterior. Lo cual también pone en evidencia, entonces, que el mero enunciado verbal de los referentes representados y de su posición respectiva (forma común de describir un icono) puede estar muy lejos de expresar la totalidad del significado. Reglas básicas


De modo general, la composición es independiente del grado de iconicidad: una caricatura y un cuadro realista, de un mismo referente, pueden tener la misma configuración, como producto de la composición, y, así, conllevar el mismo significado estructural. Esto queda muy claro en el esquema del fresco de Miguel Angel, que acabamos de ver. Aún más: según Villafañe, la significación ligada a la estructura compositiva «no se basa en factores semánticos» (p.178), lo cual quiere decir que es independiente del significado de los iconemas, aunque interactúa con éstos para conformar el sentido global del cuadro. El resultado visual de la composición depende de un efecto de totalidad y no de la mera suma de los componentes. Al contrario de la independencia respecto del grado de iconicidad, la composición se ve afectada y ha de respetar el orden visual impuesto por el sistema perceptivo, lo cual no impide que algún artista rompa con éste y plantee una creación original, como ocurrió con el cubismo y diversos cuadros surrealistas. Dicho orden visual y la extensa experiencia de los artistas permite sugerir algunas reglas básicas de composición: Regla 1: El ojo necesita ser guiado. Una buena forma de atraerlo es colocar el sujeto principal en uno de los 4 puntos fuertes (virtuales). Un segundo elemento de menor importancia colocado en un segundo punto fuerte puede ayudar a equilibrar y dinamizar el resultado final. Ha de evitarse el centro, salvo que se desee enfatizar una impresión de calma y reposo. Un ejemplo es el «Guitarrista solitario» de la Fotografía adjunta, ubicado en el punto fuerte inferior derecho, marcado en el esquema. Se ha equilibrado esta posición con el arbusto cercano al personaje, que cubre el punto fuerte superior izquierdo (zona sombreada en el esquema).

Regla 2: La configuración debe estar «ventilada»: hay que evitar las masas compactas tanto como el exceso de espacios vacíos inútiles, para que el sujeto principal quede claramente valorado. Regla 3: Presentar en forma simple las cosas más extraordinarias y de modo imprevisto las más simples. Regla 4: Si hay una línea de horizonte visible, es conveniente que corte el cuadro en el tercio inferior o el tercio superior. Regla 5: Las líneas importantes de la configuración se llaman dominantes y deben ser compensadas o equilibradas por otras líneas, de acuerdo con una ley de contraste. En particular, cualquier línea diagonal rompe el equilibrio y debe ser compensada por una o varias líneas oblicuas de dirección opuesta. Regla 6: Una buena composición busca colocar los elementos a lo largo de una línea principal que obligue al espectador a seguir un recorrido predeterminado. Esta línea será la «espina dorsal» de la configuración, y todas las demás líneas deben concurrir a reforzar su predominio, «de igual manera que los afluentes aportan su tributo a la majestad de un río».

Regla 7: En un icono compuesto de varios iconemas, la posición respectiva de éstos debe tener en cuenta el significado que puede estar ligado a la orientación de los mismos. Es la regla de coherencia formal-semántica, que recuerda que no puede haber contradicción entre la estructura y el significado de sus partes. El mejor ejemplo, en este caso, es el de los paneles indicadores de dirección. En dichos paneles, los objetos móviles representados deben mantener la coherencia


entre el sentido en que se desplazan y la dirección indicada, como en el caso del indicador carretero «Al aeropuerto». Frente a la sexta regla podríamos evocar un criterio evaluativo: ¿Cómo distinguir un icono efectivamente «compuesto» de uno accidental? «Si comparamos una imagen 'compuesta' de un tema con otra imagen accidental de dicho tema, los límites de la imagen resultan prolongables a izquierda y derecha en la segunda, por arriba y por abajo, mientras que, en la compuesta, dichos fimites resultan infranqueables.» (Villafañe, p. 181.). Esta regla, tal como la presenta Villafañe, parece extremadamente rígida. Cualquier trabajo fotográfico fuera del estudio pone en evidencia que es casi imposible evitar que algunos componentes del contexto natural (paisaje), sea del primer plano, sea del último (fondo), se prolonguen fuera del cuadro, aun efectuando un serio trabajo de composición. Y muchas obras clásicas de la pintura se adecuan a esta realidad, lo cual no quiere decir que no hayan sido «compuestas».

En consecuencia, tenemos que relativizar la regla antes señalada dejando en claro que no se aplica a los elementos meramente contextuales, cuya prolongación o no-prolongación fuera del marco sea irrelevante desde el punto de vista del significado total. Así, una composición que representa un guitarrista sólo en un jardín tendrá plena validez aunque los arbustos se prolonguen fuera del cuadro. Asimismo un primer plano utilizado para reforzar el sentido y orientar la atención (como en la fotografía adjunta) no requiere mayor extensión y no tendría sentido alguno extenderlo hasta incluirlo totalmente en el marco.


La proporción aurea: la clave de la belleza ¿Qué hace que un girasol sea tan agradable a la vista? ¿O qué hace fascinante el edificio en forma de caja de cereales de las Naciones Unidas en la ciudad de Nueva York? Salvador Dalí y Le Corbusier están entre los artistas que han utilizado la proporción aurea (o número de oro) como un principio rector de su trabajo. El Taj Mahal también fue diseñado con él en mente (vea el rectángulo central de la fachada).

La belleza sin duda puede ser subjetiva, pero existe sin embargo una fórmula matemática que influye poderosamente en la belleza de muchos objetos e imágenes. Es el llamado número áureo, representada por la ecuación: a / b = (a + b) / a. Y la encontramos en numerosas formas naturales como las conchas cónicos de mar, los pétalos de flores, e incluso los rostros humanos. ¿Qué significa la fórmula? Que la línea se divide en dos secciones en una manera tal que la relación de toda la línea a la sección más grande es igual a la relación de la sección más grande a la sección más pequeña. Esta relación termina siendo 1,618. Pero es más fácil ver con un gráfico cómo se determina. Euclides mostró cómo construir el rectángulo áureo con regla y compas: se obtiene el rectángulo AEFD a partir del cuadrado ABCD. El rectángulo BEFC es asimismo áureo.

Aquí tenemos una serie de rectángulos con esta proporción:


Y otros ejemplos, seleccionados por Liz Stinson:


4. Tipos de discursos Documento y ficción

Si comparamos los íconos de arriba, representando en forma diferente a un hombre pensando, podemos deducir que ambos restituyen también distintos referentes (ver fotos). Y la razón de la diferencia no reside solamente en que ha cambiado la persona y el lugar. Mientras el hombre sentado en la mesa tiene una pose natural, captada instantánea e imprevistamente por el fotógrafo, el que está sentado en unos escalones de cemento tiene una pose calculada y preparada de tal modo que la sombra duplique claramente como otra representación más- la posición adoptada. En este último caso, la realidad primaria* (referencial) ha sido ajustada, prefabricada: es una realidad ficticia, artificial... aunque no menos "real" que la otra. * Por realidad primaria se entiende algún elemento perteneciente al entorno físico, excluyendo de éste todo elemento artificial con función sémica (como un icono o iconema).

Por otra parte, en niveles más bajos de analogía, el dibujo siempre ha permitido «crear» realidades mediales sin referente primario (los pintores surrealistas son, en cierto modo, los principales cultores de esta modalidad). Hoy, las técnicas de procesamiento digital de imágenes (en computadores) permiten evitar la manipulación de objetos primarios, manipulando directamente o incluso generando representaciones de altísimo valor analógico (de la calidad de la fotografía), como lo han mostrado varios spots de televisión (aunque en algunos la calidad es tal que nadie se da cuenta del «engaño»). Estos procedimientos electrónicos han llevado a introducir un nuevo término, el de realidad virtrual (ver Ilustración). Esta es una realidad «primaria» que sólo existe en la imaginación de su creador y se hace comunicable gracias a la producción de la realidad medial. Es obviamente diferente de la realidad primaria artificialmente manipulada para lograr una representación ficticia, la que podríamos llamar realidad «alterada» Ahora bien, si observamos una fotonovela o una teleserie, sabemos que la realidad primaria ha sido inventada. La expresión icónica obtenida es una ficción. Pero cuando vemos íconos noticiosos -en el diario o la televisión-, vemos edificios destruídos en el Palestina o un transbordador lanzado al espacio. En estos casos, la realidad primaria es histórica y los íconos correspondientes no son ficticios sino documentales. ¿Qué ocurre, ahora, en el caso de una película o historieta histórica? ¡No fue posible, por cierto, estar presente para observar y representar los hechos! Sin embargo, no se trata de una ficción: nos encontramos ante íconos documentales que corresponden a una reconstrucción basada en datos recogidos de otra manera por una o varias personas (cfr. Doelker, pp.71-146). [Fotograma de "Los 300"] Entre el documento y la ficción, aparte de esta alternativa de la reconstrucción, existe otra categoría que mezcla elementos de ambos tipos. Así, es posible contar (visualmente) una historia inventada en que se insertan contenidos documentales. El caso más común es el de la publicidad, que recurre a la escenificación o introduce


transformaciones en el momento de la producción. Los llamaremos mensajes mixtos. Los procesos digitales permiten hoy combinaciones cada vez más sofisticadas de representaciones documentales originales, reconstruidas y alteradas. (Ya circulan frecuentemente fotografias de prensa «originales-alteradas», es decir, que representan el suceso pero que fueron alteradas para suprimir algún detalle anexo que podría confundir al destinatario o que entra en conflicto con la estética). Con ello la certificación de autenticidad fáctica de los documentos icónicos se hace cada vez más dificil. Este es uno de los ejes que corresponden a las dimensiones básicas de todo discurso, y poder determinar la posición del mensaje en este eje es vital para una correcta interpretación y un conocimiento adecuado.


Dimensiones del discurso La anterior consideración acerca de los distintos tipos de representaciones que podemos encontrar obliga a buscar un esquema o modelo abstracto que nos permita organizar racionalmente los múltiples casos posibles. Como punto de partida usaremos las distinciones establecidas por el profesor José-María Desantes, quien parte de la consideración de que todo mensaje tiene necesariamente una procedencia que es estrictamente interna del emisor (sus pensamientos). Sin embargo, todo emisor está en condiciones de discriminar dos distintos tipos de referentes: uno que pertenece solamente a su mundo interior (ideas, pensamientos, creencias, sentimientos) y otro que corresponde a una realidad externa observable por otros (objetos materiales y acontecimientos). Señala Desantes: "La comunicación del mundo interior, por su misma naturaleza, se dirige a la voluntad de los receptores a través de su entendimiento; en otras palabras, es per se persuasiva; propone a la voluntad un bien o una apariencia de bien. (...) El constitutivo de este mensaje ideológico es, así, un constitutivo moral. (...) La comunicación del mundo exterior, por su propia naturaleza, se dirige a la inteligencia del receptor a través de su conocimiento; en otras palabras, es per se cognoscitiva (...) El constitutivo de este mensaje es, así, la verdad, la adecuación de lo informado con la realidad convertida en comunicación noticiosa." (DESANTES, J.M.: "El mensaje... ", pp. 44-52.) (Se habla en este caso de "mensaje fáctico"). A estas dos categorías, agrega Desantes, ha de agregarse una tercera. Cuando aplicamos una idea a un hecho, del choque de ambos términos resulta un juicio, en el que hay una mezcla del mundo interior y del mundo exterior del que realiza esta operación. Lo que el emisor comunica es un juicio que, por su propia naturaleza, se refiere a la razón del receptor, facilitando a éste una opinión que podrá o no compartir. Por ello, este tipo de mensaje es llamado opinático. La opinión ha de basarse en un hecho verdadero al que se aplica una idea conforme con la ética, de acuerdo con reglas lógicas. El constitutivo de este mensaje es así triple: verdad, moral y lógica. Este análisis de Desantes nos lleva al esquema que presentamos en la Ilustración 9: todos los casos que corresponden fundamentalmente a un discurso informativo (Desantes sólo analiza la comunicación periodística) pueden ser ubicados en un plano, entre el Eje fáctico y el Eje ideológico.

Plano informativo

Pero, como lo hemos visto, existen discursos que tienen otra finalidad o que combinan la finalidad informativa con otra: mensajes en que no existe ningún contenido propiamente fáctico, reemplazándose éste por hechos imaginarios, sea que existan sólo en la mente del emisor, sea que hayan sido producidos artificialmente mediante actuación filmada o técnicas digitales. De acuerdo con el enfoque de Desantes, éstos son esencialmente productos del "mundo interior" de un emisor. Pero no son necesariamente "ideológicos", ya que podrían ser hechos imaginarios (es decir correspondientes a una realidad virtual). De este modo deberemos considerar la adición de un tercer eje al esquema original: el Eje virtual, que no es una mera continuación negativa del Eje fáctico sino una tercera dimensión del discurso, por cuanto puede haber diferentes tipos de combinación de lo fáctico y lo virtual (Ver Ilustr.10). Así, el Eje fáctico junto al Eje virtual crean un nuevo plano, que llamaremos Plano seudo-informativo


(nombre que escogemos por el hecho de que reúne representaciones que pretenden, la mayoría de las veces, ser una imitación de la realidad. El Eje virtual se une a su vez con el Eje ideológico para dar origen a un tercer plano que llamaremos Plano imaginativo. Las representaciones típivas de éste no tienen referentes fácticos: son meros productos interiores de la mente, que combinan una realidad virtual con una proposición de contenido valórico, directa o indirectamente persuasiva.

El universo del discurso

Para situar en este espacio tridimensional los casos antes descubiertos y ver cuáles agregar, será útil dividir cada uno de los dos nuevos planos en dos mitades, indicando para cada una la característica dominante. Así:

En el Plano seudo-informativo: cerca del Eje fáctico podemos colocar casos como los que corresponden a filmes históricos y avisos publicitarios en que actores simulan casos reales, o sea los "documentos reconstruidos"; alejado del Eje fáctico, colocaremos las representaciones en que la situación es imaginaria pero en que se utilizaron objetos y personajes reales: es la "ficción documentada". Existen obviamente numerosos casos intermedios: con mayor o menor reconstrucción, mayor o menor ficción, todo lo cual puede ser evaluado y llevar a una infinidad de "coordenadas" que ubiquen dichos casos en el Plano. En el Plano imaginativo: cerca del Eje virtual, se ubican los productos totalmente imaginarios, expuestos mediante técnicas digitales, como los dibujos animados de ciencia-ficción: es el área de la "ficción virtual"; alejado del Eje virtual han de ubicarse otras representaciones imaginarias, en que el componente ideológico cobra una importancia determinante como es el caso del mito en que un relato imaginario se utiliza para enseñar una concepción del mundo o proponer normas de conducta. Aquí también pueden darse múltiples casos intermedios, con mayor o menor presencia de algún componente. Como podemos deducir, cualquier discurso (tanto visual como verbal) contiene, en última instancia, elementos que corresponden a los tres aspectos mencionados, aunque la intención del autor puede concentrarse en uno o dos de ellos. Al disponer de una representación tridimensional del universo del discurso, vemos la posibilidad de que cada caso particular sea analizado sobre la base de esas tres variables y, al obtener diferentes valores para cada una, se lo ubicará en el espacio


volumétrico, a cierta distancia de cada eje. Mostramos lo que ocurre, a modo de ejemplo, con un típico aviso publicitario de tipo persuasivo, que ofrece un bien, combinando elementos fácticos (el producto) con un juicio ("Es bueno para Ud."), lo cual está sujeto a discusión. Por otra parte, se ha utilizado una actriz para simular una situación real, lo cual nos da un valor virtual mediano. El resultado es que dicho mensaje se ubica casi al centro del espacio correspondiente al "Universo del discurso".

Ubicación del aviso publicitario


Reproducción y comentario La dificultad que puede existir para distinguir entre documento y ficción visual pocas veces puede ser solucionada por el mero análisis de los iconos. Un filme constituido por documentos originales y reconstruidos acerca del asesinato del Presidente John Kennedy, pero acompañados de hechos supuestos y construido a partir de hipótesis escabrosas, como es el caso de "JFK", podría terminar siendo tan ficticio como "El Padrino", aunque incluya fragmentos documentales. Pero la ausencia de documentos originales tampoco asegura que todo sea ficción: mientras "Gandhi" es un documento reconstruido, "Rocky", que no lo es, bien podría parecerlo.

Sólo el texto, sólo el lenguaje verbal acompañando a las representaciones icónicas es capaz de levantar la duda y dejar establecido el valor informativo de la reproducción. (Obsérvese cómo las fotografías de prensa van acompañadas de una leyenda que las autentifica). Aunque no ocurre siempre, es responsabilidad del emisor (de quien hace o difunde la reproducción) identificarse y señalar el carácter informativo del icono, del mismo modo que se indican los componentes de un fármaco o los ingredientes de un alimento preparado. En el caso del cine, la publicidad, muchas veces, no levanta siquiera la duda: la mayoría de las veces hace falta el comentario de un crítico para aclarar de qué tipo de representación se trata.

Es por lo tanto un comentario el que ha de asegurar la diferenciación entre icono documental e icono de ficción. Pero la relación entre la palabra y el icono va más allá. El comentario puede ser más amplio y entrar en detalles que la ilustración no puede entregar como el lugar y la fecha de un acontecimiento o la explicación del significado de algunos contenidos visuales. El comentario no reproduce la realidad, sino que se refiere a ella, utilizándola como objeto de reflexión. Sin embargo, este desarrollo del discurso verbal que acompaña a la imagen puede cambiar de carácter. Puede ocurrir (y es incluso frecuente en la información noticiosa) que las palabras contengan el verdadero y más amplio contenido informativo, mientras el icono se ve relegado a un lugar secundario y complementario, sirviendo para recordar un rostro o facilitar la comprensión del texto. En este caso nos encontramos con que el lenguaje verbal es el que reproduce la realidad primaria (documental o ficticia) y la representación icónica sólo sirve de comentario. Esto no es una anomalía, sino otra alternativa de combinación de los dos tipos de lenguaje. (Cfr. DOELKER, pp. 56-66). En un informativo de televisión ocurren generalmente las dos cosas: el locutor cuenta los acontecimientos y, de vez en cuando, su imagen desaparece de la pantalla para dejar lugar a una grabación realizada "en el lugar de los hechos", en cuyo caso el mensaje verbal pasa del relato al comentario y el mensaje icónico constituye la reproducción.


Lenguaje indirecto Las imágenes pueden utilizarse ocasionalmente para sugerir, escondiendo algo que no se desea o no se puede mostrar (por razones físicas, éticas o culturales). Podemos no ver la gota que cae, pero saber de ella captando su efecto (foto Adam Hart-Davis, DHD Multimedia Gallery). La publicidad también puede recurrir a este tipo de recurso para evocar algún concepto, como lo mullido de estas alfombras:

Un cadáver puede no ser una vista agradable y las series policiales de TV recurren frecuentemente a imágenes que reconocemos con facilidad:

Es común en el cine y en revistas que se sugiera el desnudo sin mostrar nada en absoluto. Aquí un poster del filme "Un hombre y una mujer" (Claude Lelouch, 1966).


La deportista Luciana Aymar se prest贸 para una foto de este tipo (a continuaci贸n) -que, por cierto, no permite reconocerla-, publicada por la revista Gente en 2010.


Simbolismo Cuando una connotación se establece como algo estable y casi universal, el significado denotado tiende a reemplazarse en forma autom´tica por el significado connotado. Éste es el mecanismo de establecimiento de los símbolos, tan antiguo como el lenguaje. El símbolo es esencialmente la representación de una noción intelectual o espriritual por mediante forma que la expresa, por una imagen gráfica o verbal. Es un objeto concebido por el hombre que ofrece a los ojos o a la mente la apariencia de algo que existe solamente en ésta (en la mente) (Prieur, "Les symboles universels", p7). "Entre el mundo de las ideas y el de las cosas ocupa un lugar equidistante el mundo -siempre bello y atractivo- de los símbolos. El simbolismo -tan antiguo y diverso como la vida misma- supone la facultad del hombre para ver en el cosmos, en las creencias y en los conceptos, en las relaciones humanas, en los seres animados y en las cosas, un contenido espiritual. Es el de los símbolos un juego del espíritu al que la humanidad se ha entregado desde los tiempos más remotos, al crear representaciones de las ideas, de los seres y de los objetos que, luego, le sirven para explicarse el mundo circundante. Así, desde los mitos más lejanos a nuestros dias." (J.A.Perez-Rioja, "Diccioanrio de símbolos y mitos,p.9) "En Egipto alcanzó ya gran difusión el símbolo. Simbólica era, por ejemplo, la escritura jeroglífica, que expresaba ideas concretas por medio de signos convencionales; simbólicas> asimismo, numerosas representaciones plásticas.

En las religiones semíticas -la caldeoasiria, la fenicia, etc.- se encuentra también un predominio evidente de valores simbólicos. Entre los griegos, los fenómenos de la naturaleza fueron personificados por medio de seres invisibles. Todas las divinidades del paganismo helénico -adoptadas o transformadas luego por los romanos- son símbolos que se ocultan bajo cada mito. Por otra parte, muchos mitos greco-latinos pasarán, más tarde, al simbolismo cristiano. Si la mitología y las antiguas religiones nacieron de símbolos, también la Biblia está impregnada de simbolismo: el arco iris es la alianza de paz entre Dios y los hombres; la manzana es el pecado; el mal es la serpiente...


La liturgia y el arte cristiano están igualmente plagados de simbolismo. Si el simbolismo encuentra su explicación en la naturaleza del hombre -que de lo sensible se eleva a lo espiritual-, la Iglesia había de servirse de aquél para instruir a los fieles en los misterios de la religión. La cristiandad oriental había recibido también una extensa herencia simbólica. Los Padres de la Iglesia, en su mayoría, abundan en interpretaciones simbólicas. En la Edad Media, el simbolismo es la clave de la teología, de la filosofía, de la mística, de la poesía. Es el órgano rector del pensamiento. (...)

El Renacimiento sigue interesándose también por el simbolismo, aunque con un sentido más individualista y un matiz profano, impregnado no pocas veces de retoricismo literario. Ha venido, más tarde, el "Siglo de las Luces", y tras él, el maquinismo y el predominio absorbente de la técnica cómo portadores de la nueva era atómica. (...) Afortunadamente se procede hoy, sin embargo, a la revalorización de los mitos. Las mentes más auténticas se inclinan ante la fecunda transformación de la realidad que es el mito. La Historia, además, irrumpe en los mitos y en ellos se purifica e incluso satisface su incontenible afán de permanencia. Cuando los símbolos parecían ya arrumbados para siempre, Arrington rompe una lanza asegurando que la «materia es un puro símbolo». Desde hace algunos años, el psicoanálisis ha contribuido también a poner en circulación palabras como imagen,símbolo y simbolismo, que pertenecen hoy al lenguaje corriente." (ibidem, pp.12-13)

Lejos de ser curiosidades arqueológicas, los símbolos están presente por todas partes en el mundo moderno. Pareciera que nos asedian, sin que nos damos cuenta: están en las banderas, en el papel moneda, en las estampillas, en los monumentos, en los emblemas de las ciudades y hasta en la política y la publicidad (Al lado: las "alianzas", símbolo de matrimonio, como argumento publicitario). Simbología nacional Los países se identifican principalmente por sus banderas, pero dicen mucho más de sí-mismos por sus escudos. Aprovechamos las


celebraciones del Bicentenario de la Independencia en Sudamérica por abordar este tema, con el ejemplo de la simbología nacional chilena.

El primer escudo nacional de Chile se estableció durante el gobierno de José Miguel Carrera, en 1812. Fue diseñado sobre un óvalo; en el centro tenía una columna que representaba el Arbol de la Libertad; sobre la columna se observaba un globo terráqueo; sobre el globo, una lanza y una palma cruzadas, y sobre éstas una estrella. De pie junto a la columna, a un lado un hombre y al otro una mujer, ambos indígenas. En la parte superior, este escudo llevaba un lema el latín -"Post tenebras lux"- que significa "Después de las tinieblas, la luz", y en la parte inferior, otro, también en latín -"Aut consiliis aut ense"-, que significa "O por consejo o por espada". En 1817, surgen dos nuevos escudos. El de junio de ese año, simplemente conserva la columna, el globo y la estrella sobre un óvalo, que en su parte superior lleva impresa la palabra "Libertad". En octubre, se crea otro semejante al anterior, al que se le agrega dos banderas cuyos mástiles se entrecruzan, y desaparece la palabra "Libertad".

La bandera de la independencia chilena llevaba este mismo escudo en su centro, aunque con las modificaciones de 1817. La bandera actual tiene los mismos colores pero no lleva escudo y la estrella ha sido simplificada y enderezada.

El actual escudo fue aprobado por el Congreso nacional el 24 de junio de 1834, a pedido del presidente Prieto y su ministro Joaquín Tocornal. Está diseñado sobre un fondo figurativo cortado en dos campos: azul el superior y rojo el inferior, con una estrella blanca en el centro del fondo. Sobre el fondo figurativo va un penacho o plumaje tricolor: azul, blanco y rojo, y por soportes lleva un huemul a la derecha y un cóndor a la izquierda, cada uno con una corona naval dorada.


5. Modalidades de discurso y lenguaje publicitario Existen diversas modalidades de formulación del mensaje, las que pueden obsrevarse con mayor facilidad en los mensajes publicitarios, por lo que recurreremos a ejemplos de esta índole para nuestros ejemplos.

Modalidades de formulación: Denotación y connotación El sentido del discurso puede estar claramente limitado a componentes denotativos (componentes cuya mera identificación y suficiente para captar el mensaje), como también puede depender de factores connotativos (que agregan elementos que llevan a una necesaria interpretación). Existen estructuras formales típicas de uno u otro predominio:

a. La codificación con predominio denotativo se ciñe generalmente a una de las tres alternativas siguientes: 1. Infinitivo: muestra el referente aislado;

2. Informativo: sitúa el referente principal en un contexto familiar;

3. Instructivo: incluye además elementos capaces de provocar una motivación objetiva directa del destinatario.


b. El predominio connotativo se observa en esquemas más complejos: - Asociativo: adjunta al referente principal otros elementos objetivamente vinculados al mismo, la elección de los mismos debiendo llevar el destinatario a interpretar el mensaje a nivel connotativo; (Aquí ejemplo de producto y usuario). Puede haber asociación: del objeto y su composicó,n del producto y sus efectos de los usuarios de las circunstancias de uso

- Adscriptivo: adjunta elementos NO objetivamente vinculados al referente central (asociación basada en una fantasía). Puede haber adscripción por: tradición (ejemplo adjunto) identificación (con clase social, ídolo; situación exitosa) evocació sexual humor símbolo afín

Esta diferenciación entre el nivel de la denotación y el de la connotación es la que nos lleva a estudiar cada uno por separado en los dos próximos capítulos.


Modalidades de captaciรณn de atenciรณn El modo en que el autor pretende llamar la atenciรณn del destinatario da origen a mรบltiples alternativas que pueden agruparse en directas e indirectas.

a. Las modalidades directas son cinco:

Presentaciรณn: modalidad mรกs simple de todas, puede realizarse de tres maneras distintas: Erecciรณn: muestra el referente sin soporte ni base (como "flotando en el espacio");

Exhibiciรณn: lo muestra sobre una base o en la mano de una persona;

Designaciรณn: a la exhibiciรณn o erecciรณn se agrega un iconema de indicaciรณn (flecha o mano apuntando).;

Pregรณn:


El emisor se dirige al receptor, sin implicar a éste (no lo individualiza, ni le da órdenes, ni le hace preguntas);

Interpelación: Caso opuesto, en que el emisor se dirige al receptor, implicándolo (contándole, sugiriéndole o preguntándole: aparece generalmente el pronombre "Usted" en el texto);

Anécdota: Cuento emitido en una tercera persona (del tipo "Ocurrió una vez..." o "Fulano cuenta su experiencia..." );

Sobresignificación: Ampliación formal del contenido semántico (se recalca una parte del mensaje mediante un cambio de color, un marco que la encierra u otro artificio formal).


b. Si la modalidad es indirecta, pueden ocurrir dos casos: Alusión: El ícono no contiene referencia visual al objeto-referente, el nexo produciéndose por medio de un mensaje verbal adjunto;

Artificio retórico;: Transformación artificial ("truco") de las relaciones mútuas entre los iconemas que componen el ícono. (Ver Capítulo siguiente)


Perfiles factoriales Rodríguez Diéguez, inspirándose en la metodología de Osgood (diferenciador semántico), realizó en España un análisis factorial de una colección de 506 vallas publicitarias, logrando construir posteriormente un instrumento de análisis descriptivo (formal) que agrupa cerca de 20 variables bipolares en cuatro grandes "Factores": Factor icónico Factor verbal Factor función dominante Factor de determinación

Si bien los dos primeros factores eran obvios, ya que el "lenguaje publicitario" es esencialmente verbo-icónico, la precisión de las variables básicas que determinan estos factores y la definición de los dos últimos constituyen un complemento importante. Aunque Rodríguez define cada una de las variables inspirándose en las escalas bi-polares y estructuradas en base a 5 "grados de saturación" (al estilo del diferenciador semántico), nuestra experiencia y varias consideraciones teóricas aconsejan tener solamente en cuenta el eventual predominio de uno u otro polo en cada variable. (Así, solo 3 posiciones son posibles: "Hacia Polo izquierdo", "Neutral" y "Hacia Polo derecho" ). Es posible comparar distintos perfiles en una misma planilla o en varias planillas transparentes, como también efectuar cálculos de frecuencia de los datos nominales. (ejemplo en el siguiente cuadro, seguido de los iconos aludidos) . Cuadro: Perfil factorial


Hemos podido comprobar en la práctica que este instrumento, diseñado específicamente para el análisis de publicidad, es aplicable en forma bastante más amplia: así, por ejemplo, todos los ejes mencionados son aplicables a la fotografía de prensa (aunque no todos, necesariamente, a una determinada foto). En consecuencia, frente a cada ícono que analicemos, podemos preguntar, para cada par de variables (de un eje) cuál predomina o si existe equilibrio o falta de predominio. Las definiciones de los ejes y las variables son las siguientes (Asumimos aquí las definiciones propuestas por Rodríguez, aunque cambiando un eje de factor, para mejor comprensión y mayor congruencia lógica. (Cfr. Rodríguez, pp. 177-182)


Perfiles factoriales: Factor icónico Variable 1: Presentación/Asociación Presentación: simple exposición del producto; el mensaje lo muestra real o simbólicamente, de forma inequívoca.

Asociación: Ligazón o enlace entre el producto y alguna referencia que aclare o motive al receptor.

Variable 2: Simplicidad/Complejidad Simplicidad: Sencillez expresiva de imagen (y texto) que se refleja en una fácil interpretación.


Complejidad: Dificultad de interpretaci贸n como consecuencia de una expresi贸n no excesivamente directa.

Variable 3: Naturalidad/Artificialidad


Naturalidad: Presentaci贸n objetiva y fidedigna del objeto, patente en rasgos como espontaneidad, fidelidad y credibilidad.

Artificialidad: Presentaci贸n mediante una cuidada elaboraci贸n que adultera, sofistica y deforma al objeto.

Variable 4: Originalidad/Trivialidad


Originalidad: Sentido creativo, de sorpresa y novedad.

Trivialidad: Presentaci贸n habitual de los elementos b谩sicos del mensaje y/o su estructura.

Variable 5: Implicaci贸n participativa/Pasividad


Implicación participativa: Búsqueda de colaboración o participación formal del receptor (como identificarse, completar mentalmente el mensaje, etc.

Pasividad: ausencia de tal intento de obtener "colaboración", evitando toda invitación a una actividad complementaria a la decodificación.

El conjunto "Presentación-Simplicidad-Naturalidad-Trivialidad-Pasividad" se define como "Facilitación Icónica" y constituye uno de los polos del Factor. El otro polo del Factor -que reúne los polos opuestos de las 5 variables- se define como "Ocultación icónica". La posición intermedia se llama "Alusión icónica". En nuestro instrumento de análisis, añadimos como parte del "Factor Icónico" la "Estructura plana o perspectiva" (que Rodríguez ubicaba bajo el "Factor Función Dominante"): Variable 6: Estructura Plana/Perspectiva Plano: Ninguno de los elementos da sensación de profundidad.


Perspectiva: Representaci贸n que muestra o incrementa la dimensi贸n de profundidad.


Perfiles factoriales: Factor Verbal Variable 7: Legibilidad/Ilegibilidad Legibilidad: Facilitación de la percepción o lectura de la parte verbal del mensaje.

Ilegibilidad: Dificultad en la percepción o lectura del texto.

Ambos rasgos están determinados por: el número de los caracteres, el tipo de letra y tamaño, la cantidad relativa imagen/texto, el claro resalte de las palabras, la usualidad del texto, la existencia de alguna dificultad de lectura.

Estos factores modifican un cómputo automático que se basa en la cantidad de palabras: (Caso de "Vallas Publicitarias" de carreteras)


1 a 6 palabras: legible, 7 a 10 palabras: neutro, 11 y más palabras: "ilegible".

Variable 8: Linealidad/Globalismo Linealidad: Estructura que facilita la percepción secuencial u ordenada de las partes (El mensaje se percibe en unidades informativas perfectamente diferenciadas).

Globalismo: Estructura que favorece la captación integral del conjunto de los elementos del mensaje, sin excluir la posibilidad de un posterior análisis.

Variable 9: Información máxima/mínima


Información máxima: El número de unidades informativas es muy elevado.

Información mínima: El número de unidades informativas es escaso.


Perfiles factoriales: Factor de función dominante Variable 10: Dinamismo/Inercia Dinamismo: Expresión de movimiento o ritmo logrado por la ilustración o la composición.

Inercia: Ausencia de expresión de movimiento.

Variable 11: Afectividad/Racionalidad Afectividad: Predominante invocación de los sentimientos.


Racionalidad: Argumentaci贸n intencionalmente l贸gica en el mensaje.

Variable 12: Predominio motivador/expositivo


Motivador: Prima notablemente la búsqueda de recursos que atraigan la atención del receptor.

Expositivo: Cumple una función meramente informativa.

La polaridad de este factor determina tres situaciones diferenciales: predominio informativo (racional), predominio motivador (afectivo) o equilibrio entre ambos, según el grado de saturación de cada variable. De ahí el nombre que se le ha dado.


Perfiles factoriales: Factor de determinación Variable 13: Claridad/Confusión Claridad: Facilidad de percepción e interpretación del mensaje.

Confusión: Dificultad correspondiente.

Variable 14: Coordinación imagen-texto/incoordinación Coordinación: Fusión de imagen y texto en una estructura unitaria, en la doble vertiente gráfica y temática (forma y contenido).


Incoordinación: Disgregación gráfica o temática de imagen y texto.

Variable 15: Mensaje icónico unívoco/equívoco Unívoco: Alta especificidad, que reduce el campo de las interpretaciones posibles.


Equívoco: Inespecificidad que posibilita asociaciones o proyecciones personales del receptor.

Variable 16: Definición de objetivo/Indefinición Definición: Convergencia de la información en una sola finalidad, fácilmente identificable por el receptor.


Indefinición: Falta de tal convergencia o presencia de más de un fin explícito.

Variable 17: Adecuación al objeto/inadecuación Adecuación: Relación patente entre el objeto y el mensaje que se transmite.


Inadecuación: Falta de relación. Imposición artificial.

Variable 18: Definición/Indefinición de público-meta. Definición: Delimitación clara y restringida del público al cual va dirigido el mensaje.


Indefinición: Generalización del posible público destinatario del mensaje.

Variable 19: Mensaje verbal unívoco/equívoco Idéntico a la Variable 15, pero aplicado al texto. De acuerdo a la saturación de estas variables, se obtiene una indicación cerca de la mayor o menor determinación objetiva y concreta del contenido transmitido. La evaluación de cada factor, y especialmente de la congruencia de posiciones de las variables correspondientes a cada uno, dará una indicación importante acerca de la coherencia y precisión del mensaje ideado por el emisor, como también de la mayor o menor facilidad con que el destinatario puede interpretarlo. Es, en este sentido, un poderoso instrumento de evaluación en la etapa de diseño de mensajes verbo-icónicos (como los de la publicidad). Verbal unívoco


Verbal equiĂ­voco


Discurso: La imagen de marca La "imagen de marca" es mucho más que un icono o un concepto: es un conjunto de "percepciones, ideas, asociaciones, creencias e impresiones, reales o psicológicas, que el público percibe" (Diccionario J. Walter Thompson). Lo que nos interesa aquí no es este complejo concepto, sino el rol de lo visual en el reconocimiento de una marca. La clave, aquí, está en lo que significa "marca: "Un signo que identifica y diferencia un producto / servicio de sus competidores, y certifica su origen" (J.COSTA). El signo visual es un poderoso medio de memorización e identificación por lo que, si se elige bien, se erige en un factor trascendental. Como agrega Costa: "Es pura magia simpática". Pero la marca como signo, tiene dos componentes: uno icónico y otro verbal, por cuanto hay que poder nombrarla. El éxito en la introducción de una marca será mayor si se da una óptima combinación de ambos. Que perdure depende de muchos otros factores, sobretodo los ligados a los beneficios de la experiencia con el producto o servicio mismo.

En lo propiamente visual, los factores claves son: Facilidad y rapidez de reconocimiento de formas Legibilidad Adaptabilidad a diferentes formatos Afinidad gráfica con el usuario/receptor Amabilidad Innovación Veamos ahora algunos ejemplos exitosos.

La bebida fue creada por el farmacéutico John Pemberton como una medicina patentada en 1885, pero fue adquirida posteriormente por el empresario Asa Griggs Candler. Frank Robinson le puso el nombre de CocaCola, y con su caligrafía diseñó el logo actual de la marca. No solo este diseño ha permitido mantener exitosamente la visualización de la marca: la forma de la botella -creada en 1916 por la Root Glass Company de Terre Haute (Indiana)- ha sido otro acierto del marketing (generalmente asociada a las curvas de la figura femenina).

René Lacoste, apodado 'Crocodile', tomó su mote desde que se apostó una bolsa hecha de cocodrilo y la ganó. Más tarde se hizo bordar un cocodrilo en la solapa de su chaqueta, pues por aquel entonces aún era infrecuente ver jugar a los tenistas en pantalón y camiseta corta. Más adelante, cuando fundó su propia marca de ropa en 1933 le puso su apellido a la marca y la insignia del cocodrilo. El logo de la marca es un cocodrilo verde (en algunas ocasiones plateado conservando el color rojo de su hocico abierto) el cual de varias maneras se encuentra en la gran mayoría de los productos de la marca, siendo pionera la marca de colocar el logo en el exterior de las prendas. (Wikipedia)

Mercedes-Benz es el fabricante de automóviles más antiguo del mundo. La famosa estrella de 3 puntas, diseñada por Gottlieb


Daimler, muestra la capacidad de sus motores para su uso en la tierra, el mar o el aire, elementos en los que los motores Daimler habían sido pioneros, y que simboliza la búsqueda original de Daimler de proveer pequeños y poderosos motores útiles para viajar por cualquiera de ellos. Apareció por primera vez en un automóvil Daimler de 1909. El anillo plano que une las tres puntas de la estrella fue utilizado por primera vez en 1937. (Wikipedia)

En 1908, el whisky Walker's Kilmarnock Whiskies cambio su nombre por Johnnie Walker Whisky y Tom Browne diseñó la famosa imagen del caballero caminante.

Yellow Tail, vino australiano Un canguro es el símbolo de este vino australiano que, de la nada, pasó a ser el más vendido en EE. UU (5 millones de cajas) ¿en 2008?.


6. Retórica icónica Relaciones entre iconemas Entre los iconemas que aparecen simultáneamente en un cuadro existen diversos tipos de relaciones, algunas necesarias e inevitables (las «estructurales») y otras que pueden ser manejadas por el productor de la representación. Relaciones estructurales básicas Las relaciones estructurales son de dos tipos: - la incrustación: relación esencial, propia de la similitud topológica con los objetos representados (al representar la totalidad, se representan también sus partes), y - la yuxtaposición: relación secundaria (presencia simultánea en un mismo marco) que es consecuencia de la operación de unión (o composición del cuadro).

La yuxtaposición puede ser: - «simple»: iconemas puestos uno «al lado» de otro (unión asociativa). - «vinculada»: los dos iconemas pasan a formar una unidad, con una relación de dependencia entre los dos (unión constructiva). Ejemplo: el remero: hombre que maneja remos (Ilustración adjunta).

Relaciones espaciales de yuxtaposición La yuxtaposición, en un espacio bidimensional, lleva a definir las diversas relaciones de posición, que pueden combinarse entre sí: arriba o debajo de a la derecha o a la izquierda de superpuesto a (que equivale a «delante de»)

Estas relaciones sólo son transitivas (Si a}b y b}c entonces a}c) en un sistema espacial de dos dimensiones. En un sistema de 3 dimensiones, hay una total incertidumbre acerca de la transitividad. Por otra parte, si bien los dos primeros pares de relaciones son pares de opuestos, la negación de uno no implica la afirmación del otro «no arriba de» puede significar «a la derecha» o «a la izquierda» tanto como «debajo»). «Superpuesto» se usa, en un sistema bidimensional, en reemplazo del par «delante-detrás», que sólo tendría sentido en un sistema tridimensional.

Además, se establecen las relaciones de tamaño, que se aplican a la superficie ocupada por los iconemas que se comparan: «mayor que» y «menor que».

Debemos recordar, además, que la perspectiva determina un cambio progresivo de escala, ya que los objetos más cercanos al observador se ven más grandes que los alejados. El tamaño, por 10 tanto, queda determinado por la combinación de dos variables: el tamaño relativo real (comparación de los referentes) y el plano en que aparece (en la dimensión de la profundidad).


Relaciones de isomorfismo La multiplicidad de iconemas también lleva a una comparación de sus fOnDas (recordemos que el ojo busca el «rimo», o sea repeticiones), por lo cual, sin tomar en cuenta las variaciones de tamaño, han de considerarse relaciones de: identidad: definida como relación de un iconema consigo mismo o con otro que es una copia idéntica, de igual tamaño o tamaño diferente sin alteración de los rasgos que lo componen, semejanza: presencia simultánea en ambos iconemas de uno o varios rasgos o propiedades idénticos, diferencia: iconemas sin rasgos ni propiedades comunes. Relaciones isosémicas Si bien la identidad de dos formas indica habitualmente una identidad en la realidad primaria, sabemos que un mismo objeto puede aparecer representado de varias maneras, por lo cual iconemas diferentes pueden representar referentes idénticos. El conocimiento que tenemos del mundo que nos rodea nos pennite así descubrir relaciones presentes aunque no formalmente en un icono: identidad: dos iconemas (que pueden ser formalmente diferentes) representan un mismo referente, semejanza: se representan 2 referentes semejantes, diferencia: los referentes pertenecen a distintos conjuntos de objetos, sin características comunes, oposición: los referentes expuestos pertenecen cada uno a un conjunto que es complemento lógico del otro, y falsa homología: opone identidad isomórfica e isosémica: el texto adjunto declara la existencia de una identidad semántica donde no se observa formalmente o de una diferencia semántica donde hay identidad isomórfica. Las relaciones naturales entre los iconemas pueden ser alteradas con un propósito estético o informativo. La «retórica» es el conjunto de las reglas que guían tales transformaciones, y su propósito básico consiste en traducir en un «lenguaje figurado» un enunciado simple del lenguaje directo. ¿Por qué hacer este esfuerzo de transformación, si un enunciado simple expresaría lo mismo? Esencialmente para aumentar la atención o motivación del espectador, o bien a fin de transgredir indirectamente normas morales, sociales o gramaticales establecidas (hay cosas «que no se pueden mostrar»), o, simplemente, para lograr un efecto más estético.


Bases retóricas Para el estudio de los efectos retóricos en la composición, conviene considerar el icono como una MATRIZ compuesta de varios iconemas que cumplen diferentes funciones: . el objeto principal, que es el que ha de concentrar la atención y que constituye la razón de ser principal oque determina el núcleo del sentido del icono (en publicidad: el producto o la idea que se desea hacer apreciar y eventualmente adoptar); . el soporte, elemento facultativo por cuanto se requiere solamente en los casos en que el objeto no tiene existencia visible (por ejemplo un concepto) o independiente (por ejemplo un líquido, que requiere envase, o una emoción, que requiere un cuerpo expresivo); . variantes, que son otros iconemas, que representan elementos del entorno o contexto, ayudando a precisar la interpretación o a dar alguna connotación el objeto. Los iconos motivadores (como en el caso de la publicidad) se crean generalmente, en nuestros medios, sobre la base de las intuiciones de los diseñadores. Sin embargo, además de los factores naturales que inciden en la selección de los elementos de la matriz, un estudio de las producciones gráficas y una comparación con las figuras de estilo de la retórica clásica (en el lenguaje verbal) llevaron a un investigador francés, J. Durand, a encontrar reglas aplicables a todos los casos conocidos y capaces de guiar las operaciones icónicas tendientes a crear nuevos iconos sobre la base de una matriz inicial (DURAND. J.: Retórica e imagen publicitaria, en METZ. C.: Análisis de las imágenes. Ed. Tiempo Contemporáneo. Buenos Aires. 1972.). La transformación retórica consiste en aplicar una operación gráfica en uno o varios elementos de la matriz original, teniendo en cuenta las relaciones entre los elementos escogidos. Aunque Durand solo tomó en cuenta los elementos yuxtapuestos y sus relaciones de isosemia (entre significados) e isomorfismo (entre formas), es posible considerar operaciones aplicadas a las relaciones de incrustación que también hemos mencionado. Así, el sistema icónico da pie para producir numerosas combinaciones, que dependen de la definición de relaciones entre iconemas. Múltiples experiencias de análisis y producción nos han demostrado que dichas relaciones no son obvias ni unívocas. Así, en una fotografía de un accidente de tránsito, se puede considerar que el ciclista atropellado y el chofer del auto son «semejantes» tanto en forma como en significado (en cuanto son seres humanos) o bien «opuestos» en significado (uno es al agente y el otro, el paciente de la acción). Lo mismo ocurre con los vehículos, semejantes por cumplir la misma función, lo cual corresponde al significado, o, formalmente, por tener ruedas, pero diferentes por su estructura (forma y significado) o incluso opuestos, si se centra el análisis sobre un aspecto particular «binario» como sería tener o no carrocería. Por lo tanto, para efectuar las posibles operaciones, debe hacerse previamente una lista de los iconemas y explicitar las relaciones que se tomarán en cuenta. A los componentes de la matriz inicial podrán agregarse otros, que no aparecen inicialmente, para facilitar las operaciones que sólo pueden ejercerse entre pares asociados (como el intercambio), pero sólo se toman en cuenta las relaciones que mantienen estos elementos con los de la matriz inicial.

Desarrollo retórico En las siguientes páginas presentaremos un inventario de las «figuras de retórica» que pueden aplicarse a composiciones icónicas. Se obtienen combinando entre sí las cuatro operaciones gráficas de unión, supresión, substitución e intercambio con las relaciones de incrustación y yuxtaposición entre iconemas. En este segundo caso pueden ser alteradas las relaciones isomórficas (identidad, semejanza y diferencia), e isosémicas (identidad, semejanza, diferencia, oposición y falsa homología) definidas anteriormente. El caso de la incrustación se relaciona solo con algunas relaciones mórficas.

Presentaremos para cada «figura retórica» un ejemplo teórico y un ejemplo real. Mostramos aquí el estado inicial ("natural") del ejemplo teórico, constituído de figuras ideográficas, que simula un aviso publicitario para un jugo de naranja cuyo mensaje motivador sería "jugo natural para quedar esvelto". La 'matriz' inicial se compone de: el 'objeto' = el jugo; el 'soporte' = el vaso y las naranjas; las variantes = el naranjo y la mujer.


Los ejemplos reales serán obviamente todos diferentes y no son siempre fáciles de encontrar. Corresponderán todos a avisos publicitarios relativamente antiguos ya que la retórica es poco usada en otros campos y parece incluso poco conocida por los publicistas actuales (al menos en Chile, donde residimos desde hace años). Los ejemplos son de diversos países y diferentes fechas.


A1: Repetición La primera operación retórica es la unión (A) de elementos idénticos. Se logra repitiendo alguno o algunos de los iconemas. Con nuestro ejemplo teórico, repetimos la mujer que lleva el vaso de jugo, lo que equivale a "mostrar varios usuarios idénticos".

El ejemplo práctico es de una publicidad de televisores Philips (1974): se repiten el objeto y el usuario.



A2: Rima y Comparación La segunda operación retórica es la unión de elementos semejantes. Tiene dos posibles aplicaciones: considerar iconemas que mantienen relaciones de semejanza formales (A2a) o de semejanza semántica (A2b). Con semejanza formal, obtenemos una "rima". Sin personaje y con varios objetos semejantes es la exposición del paradigma del objeto. Mostrando varios personajes, puede ser el paradigma de los usuarios, como en el ejemplo teórico adjunto. Con la semejanza semántica, o sea basada en el significado, hacemos un "comparación": una manera de hacerlo es mostrar el objeto y su origen, cuando es posible. El ejemplo práctico es de una publicidad de relojes Kelton (1976) donde se combinan el paradigma del objeto y el de usuarios (Rima).



A3: Amumulación La tercera operación retórica es la unión de elementos diferentes, como varios productos o múltiples usuarios. En el modelo teórico, mostramos a la vez productos (o más bien diferentes envases con el producto) y usuarios diferentes.

En el ejemplo real, se trata de diferentes formas del producto genérico (queso Dos Alamos, 1979).


A4: Enganche y antítesis La siguiente operación retórica es la unión de elementos opuestos por su relación formal (enganche) o semántica (antítesis). Algunos ejemplos de estas relaciones son el antes y después del uso, el usuario con un ojeto y con otro que se le opone, la oposición visible entre el usuario y el no-usuario. En el modelo teórico, mostramos la oposición posible entre un usuario y un no-usuario (tanto formal como semántica). En el ejemplo real, mostramos el mismo tipo de oposición (usuaria y no-usuaria del detergente Kosla, 1976).


A5: Antanaclase y paradoja La siguiente operación retórica es la unión de elementos falsamente "homólogos" es decir que son o se declaran semejantes aunque se ven diferentes o que se ven idénticos y se declaran diferentes (el texto es fundamental para expresar ésto en en el caso de la imagen). Los nombres clásicos de estas figuras son antanaclase (o "doble sentido") y paradoja respectivamente. En el modelo teórico, la modelo muestra dos vasos de jugo y declararía que no son lo mismo (paradoja). Los ejemplos reales son difíciles de encontrar. El ejemplo adjunto se acerca bastante al principio en que se basa este figura, desde un punto de vista semántico. En efecto, si bien hay una diferencia formal -el reflejo de la cara en el agua es más "pixelado"- y el texto alude a cómo la mujer se verá dentro de diez años, este reflejo es evidentemente la imagen actual (identidad). Se trabaja por lo tanto con un concepto de antanaclase en lo semántico: se ve (y se verá) diferente pero en realidad es lo mismo. (Jabón Palmolive, 1975)



B1: Elipsis La siguiente operación retórica es la elipse o supresión de algún elemento que pertenece a la "matriz" original. se suprime el objeto, su soporte o un elemento variante normalmente presente. En el modelo teórico, se suprimió el usuario y el producto dejando lo que define su origen (el naranjo, con fruta).

El ejemplo real muestra una publicidad de cecinas donde se "borró" la usuaria ("Super Cerdo", 2005).


B2: Circunloquio La siguiente operación retórica es el circunloquio o supresión de algún elemento semejante a otro (cuya ausencia es detectable).

En el modelo teórico, se suprimió el árbol que es el soporte de la fruta (producto origen) que se mantuvo "en el aire". El ejemplo real muestra una publicidad de panties, "semejantes" a los que no se ven en las piernas ("Minouche", 1975).


B3: Suspensión La siguiente operación retórica es la suspensión o supresión de algún elemento diferente de otro, lo cual se aplica normalmente a un elemento variante de la matriz original (puede no ser detectable si no se conoce esa matriz). En el modelo teórico, se suprimió todo lo que es diferente del vaso (uno de los "sportes" de la matriz).. El ejemplo real muestra una publicidad de cirugía estética donde un objeto -el neumático- esconde la parte operada del cuerpo ("Dermoestética", 2004).


B4: Dubitación y reticencia La siguiente operación retórica es la dubitación y la reticencia o supresión de dos elementos opuestos (formalmente para la dubitación, semánticamente para la reticencia). En el modelo teórico, sólo la naranja y el vaso (los dos "soportes" del jugo) pueden ser considerados como formalmente opuestos pero, como consecuencia ya no se podría mostrar el jugo. Podría quedar una imagen como la sugerida aquí, con un mensaje como "Nos hemos tomado todo el jugo". No contamos con ningún ejemplo real (publicitario) para este tipo de figura.


B5: Tautología y preterición La siguiente operación retórica es la tautología y preterición o supresión de elementos falsamente homólogos. En el modelo teórico, se suprimió el vaso de jugo (considerado falso homólogo de las naranjas) y se modificó la actitud de la modelo ("No cuenten mi secreto..."). No disponemos de ejemplo real de una publicidad basada en este tipo de figura, bastante difícil de concretar.


C1: Lítote e hipérbole Empezando con las figuras de substitución, observamos la lítote que es la reducción de un iconema (reeemplazo por sí mismo en menor tamaño) y la hipérbole que es la ampliación de un iconema (reeemplazo por sí mismo en mayor tamaño). En el modelo teórico, se muestra una hipérbole (ampliación del vaso de jugo).

En el ejemplo real, mostramos una publicidad basada en lítote (publicidad de Iberia, con el avión reducido al mínimo, 1975).


C2: Alusión y metáfora Las siguientes figuras de substitución son la alusión o la metáfora, que corresponde al reeemplazo de un elemento por un símbolo o una característica propia. En el modelo teórico, se reemplazó la usuaria por una raqueta y pelota de tenis (alusión a que es deportista).

En el ejemplo real, mostramos la publicidad de una tienda de vestuario, con el edificio sustituido por las páginas de su catálogo metáfora-. (Vert Baudet, ca.1970).


C3: Metonimia Otra figura de substituci贸n es la metonimia, que corresponde al reeemplazo de un elemento por otro, diferente, por ejemplo la causa por su efecto o a la inversa, o un objeto por su uso. En el modelo te贸rico, se coloc贸 el naranjo dentro de una botella para evocar el jugo natural.

En el ejemplo real, la publicidad presenta los productos fabricados con maizena (Dropa, 1974?) .


C4: Paráfrasis y eufemismo Nuevas figuras de substitución son la paráfrasis y el eufemismo, que corresponde a la substitución en función de una relación de oposición (formal o semántica). En el modelo teórico, se subtituyó la modelo consumidora por una no-consumidora.

En ejemplo real habla por sí solo: "tecleadoras" por teclas. (ETP, 1974) .


C5: Retruécano y antífrasis Nuevas figuras de substitución son la retruécano y la antífrasis, que corresponden a la substitución en función de una relación de falsa homología (formal o semántica respectivamente). En el modelo teórico, se subtituyó la modelo consumidora por una no-consumidora y se cambiaron las naranjas por vasos.

El ejemplo real promociona un "vestido invisible" (falsa homología del vestido). (Yves Saint Laurent, 1974?) .


D1: Inversión Hemos de pasar ahora a las operaciones de INTERCAMBIO. El primer caso corresponde a la inversión, de posiciones o de tamaños entre pares asociados. El modelo teórico es muy claro al respecto.

En el ejemplo real está clara la inversión de tamaño entre la mujer y la botella (Undurraga, 2008).



D2: Endiadis y homología En las operaciones de INTERCAMBIO pasamos al endiadis y la homología, en que se cambia el objeto por otro definido como "semejante" y que el usuario utiliza como si fuese el original. En el modelo teórico se muestra un usuario utilizando una naranja para verter jugo en el vaso, mientras hay botellas en el árbol.

En el ejemplo real el paquete de margarina vegetal se colocó en lugar de la pequeña cantidad de la misma necesaria para rostisar (Biskin).


D3: Asindetón La operación siguiente corresponde al intercambio de elementos diferentes: es el asindetón. En el modelo teórico la usuaria ofrece el árbol en lugar del vaso de jugo (con intercambio de posición y tamaño de ambos).

En la práctica real, solo hemos encontrado esta forma parcial de realizarla, cortando parte del ícono en franjas y cambiando su posición (Hirmas,1979).


D4: Anacoluto y quiasma La operación siguiente corresponde al intercambio de elementos opuestos: es el anacoluto (formal) y el quiasma (semántico): se intercambia el contexto con una de sus partes o símbolos asociados a lo que representan. En el modelo teórico puso una "no-consumidora" como portadora del jugo, quitándo éste a la "consumidora".

En el ejemplo práctico real, se ha intercambiado la oficina con el interior de una de las máquinas que ésta contiene (Dimacofi,2008)


D5: Antimetábola y antilogía La operación siguiente corresponde al intercambio de pares asociados por falsa homología, lo cual se obtiene ampliando un elemento asociado chico o reduciendo un elemento asociado grande: puede ser como antimetábola (doble sentido) o antilogía (paradoja). En el modelo teórico se invirtió el tamaño de pares de elementos de la matriz.

El ejemplo práctico real ilustró un artículo de diario (El Mercurio, 2004)


Operaciones con incrustados Las operaciones que hemos mostrado hasta ahora son las derivadas de las "clásicas" del lenguaje verbal y aplicadas a elementos yuxtapuestos de la matriz original de un ícono complejo. Pero es también posible efectuar operaciones sobre elementos incrustados, lo cual es un recurso exclusivo del lenguaje visual. Así, es posible suprimir (hacer desaparecer) un elemento incrustado de uno de los iconemas (como dejar el jugo de naranja sin vaso ni botella, en nuestro modelo teórico) substituir un incrustante por un incrustado (o inversamente), como reemplazar el naranjo por una sola naranja en nuestra matriz teórica intercambiar un incrustado de un iconema con el de otro iconema pero parece desconocido por los diseñadores ya que no hemos encontrado aplicaciones.


Retórica icónica en el periodismo gráfico Se podría considerar que el uso de figuras de retórica -como expuesto inicialmente en el capítulo 10- es exclusivamente propio de la creación gráfica, especialmente la publicitaria, pero no es así. Es posible demostrar que también está presente en la realidad y que la podemos observar en el periodismo gráfico (fotografía de prensa). Hemos hecho el ejercio con un grupo de alumnos, a los que hemos dado la "matriz inicial" y les hemos pedido que creasen las situaciones correspondientes a las diferentes figuras retóricas y las fotografiasen, efectuando solo excepcionalmente algún tratamiento técnico de la foto. Presentamos a continuación el resultado. Matriz

La situación corresponde a un accidente de tránsito en que un ciclista es atropellado por un automóvil. Para llegar a las diversas figuras se considera que el acontecimiento se desarrolla en el tiempo, con un antes, durante y después, momentos que podrán ser la base de las diversas figuras. Los componentes de la MATRIZ son: el objeto principal: el ciclista variantes -que son otros iconemas asociados-: el vehículo atropellador, el vehículo del accidentado (bicicleta), observadores, ambulancia, etc. (No hay necesidad de "soporte" en este caso, ya que el objeto tiene existencia visible e independiente).

A continuación presentamos el inventario de las "figuras de retórica" que pudieron ser construídas, empezando aquí por la serie A, es decir las figuras de unión. Uniones

A1. Repetición (Imágenes en espejo; podría haber varios ciclistas accidentados)


A3. Acumulaci贸n (adici贸n de observadores)


S upresiones

B1. Elipsis (Desaparece el ciclista: fallecido ha sido tapado)

B2. Circunloquio (Los veh铆culos que chocaron han sido retirados)

B3. Suspensi贸n (No aparece el auto)


B4. Dubitaci贸n o reticencia (No aparecen ni el chofer ni el ciclista, considerando como "opuestos" el atropellador ni el atropellado)


S ubstituciones

C1. Hipérbole (Se muestra fuertemente ampliada la bicicleta: primer plano)

C2. Alusión o metáfora (El ciclista no herido, un momento "antes de" se sugiere/alude a la posibilidad de accidente)

C4. Paráfrasis o eufemismo (El auto es reemplazado por una moto que se acerca)


C6. En lugar del auto se muestra solamente su rueda delantera y parachoque: sustituci贸n de un iconema por un elemento que le pertenece como "incrustado"


Intercambios

D1. Inversión (Foto espejo: se montó el negativo al revés)

D2. Endiadis o homología (Se cambió el auto por la ambulancia que se lleva el herido)

D4. Anacoluto o quiasma (Se "intercambió" el herido: es el chofer del vehículo en vez del ciclista)



Las figuras retóricas en la secuencia histórica Si el lector prestó atención al conjunto de las fotos presentadas en este capítulo, se habrá dado cuenta -como lo sugeríamos al iniciar la serie- que la mayoría corresponde a la secuencia cronológica de los hechos y a cambios de ángulos, como lo mostramos aquí. Solo algunas fotos -que no se recogen aquí- son producto de una alteración "de laboratorio" o corresponden a otro hecho pero comparable.

La secuencia en palabras: C2. El ciclista cruza delante del auto Matriz: Inmediatamente después del choque B3. Idem con acercamiento (sin el auto) C6. Idem pero más cercano A3. Llegada de observadores C1. El auto ha sido alejado y no se ve B2. El ciclisto en espera de la ambulancia B1. El ciclista, fallecido, ha sido tapado D2. La ambulancia se lleva al ciclista B4. Todos se han ido, quedan los vehículos


7. Las imágenes y la ciencia (Historia) El período Paleolítico Las primeras imágenes aparecieron durante el período Paleolítico Superior, que empezó hace unos 45.000 años para terminar hace 10.000 años, al menos en Europa Occidental, porque en otros continentes puede haber algunas diferencias ligadas a las migraciones del Homo Sapiens. Es también en Europa Occidental que las pinturas y los tallados rupestres son los más abundantes y donde es más fácil estudiarlos. El período anterior es el Paleolítico Medio, período dominado por el Hombre de Neanderthal, el que no ha dejado ningún tipo de ilustración visual. Tampoco lo han hecho el Homo erectus o el Homo habilis, que son los antepasados del Homo Sapiens, especie a la cual pertenecemos y que apareció inicialmente en África hace unos 140 a 200.000 años. El Homo Sapiens y el Hombre de Neanderthal convivieron durante unos miles de años, período de transición del inicio del Paleolítico Superior, que es cuando apareció el "arte" visual. Las habilidades del Homo Sapiens El Homo Sapiens se caracteriza no solo por el desarrollo de sus habilidades materiales como la fabricación de herramientas (ya presente en el Homo habilis) sino por muestras inconfundibles del desarrollo de su cerebro y, con éste, de su capacidad mental y de un comportamiento que ya se considera "moderno", especialmente por el desarrollo del lenguaje estructurado, es decir de una lengua que permite la comunicación entre individuos (transmisión de información) y que se comparte socialmente. Se produce un cambio social importante en comparación con las poblaciones anteriores. El desarrollo mental y la aparición de la lengua es un factor esencial para comprender el origen de las imágenes rupestres y el significado de éstas. La lengua es lo que da "sustancia" a la conciencia propiamente humana, permitiendo al hombre "decirse algo a sí mismo". Está evidentemente ligado también al desarrollo de la memoria y a la percepción del paso del tiempo. El lenguaje "se guarda" y se vuelve a utilizar. Las ideas que se formulan con él, también se pueden guardar y volver a formular. Ésto, no lo podían hacer el Hombre de Neanderthal ni los otros homínidos pre-Sapiens. Y ésta diferencia es esencial. Las imágenes mentales El desarrollo del cerebro (fundamentalmente del cortex, su parte superior) conlleva otro aspecto: el cerebro funciona tanto durante el período de vigilia como durante el sueño. Durante una buena noche de descanso, el ser humano pasa unas dos horas en estado REM, es decir soñando y con movimientos oculares rápidos. Todos los mamíferos parecen tener esta capacidad, pero el ser humano es sin duda el único capaz, gracias a su memoria y al lenguaje, de recordarlos (eventualmente) y describirlos. Y los componentes de los sueños son esencialmente visuales. La capacidad de soñar está ligada a la estructura biológica del cerebro, al modo en que funciona su red de neuronas. Dormir -y soñar- es necesario para su funcionamiento óptimo durante la vigilia y, por esta razón sin duda, la evolución ha mantenido esta capacidad a pesar de que el Homo Sapiens es especialmente vulnerable durante ese período. La socialización a través del lenguaje ha llevado a los hombres a contarse sus sueños cuando los recordaban, cosa que, por su estructura cerebral, no podía hacer el hombre de Neanderthal. Y sabemos, por el estudio etnológico de poblaciones primitivas actuales que, muchas veces, se pueden haber valorado estas experiencias e incluso algunas personas -los chamanes- podían "especializarse" en soñar y contar o interpretar los sueños. De este modo, se socializaban las imágenes mentales. A las imágenes de los sueños naturales, se añadieron dos otros tipos: las imágenes "entópticas", que son figuras que aparecen en la corteza visual sin corresponder a una percepción externa (lo vamos a explicar), y las visiones de un estado de conciencia alterado producto de la absorción de ciertos productos químicos que afectan la red de neuronas, los halucinógenos (también usado por muchos chamanes).


El fenómeno entóptico se caracteriza por la estimulación visual cuya fuente son los ojos mismos, por ejemplo los fosfenos, manchas luminosas originadas por la estimulación mecánica de los ojos, especialmente al frotar los párpados con bastante presión, y las "moscas voladoras", afección ocular que se manifiesta como un conjunto de manchas, puntos o filamentos (a menudo en forma de telaraña o arcos quebrados) suspendidos en el campo visual. (Ver ampliación de la imagen adjunta) Las ilustraciones rupestres Lo primero que ha de llamar la atención al observar los conjuntos rupestres es la presencia de "representaciones" de figuras entópticas. No debemos dejarnos engañar por los numerosos libros de "arte perhistórico" que no le prestan atención, prefiriendo evidentemente lo figuativo. La reproducciones anexas corresponden a grabados rupestres de África del Sur que corresponden claramenta a fenómenos entópticos. ¿Por qué son importantes estas figuras? Porque confirman que lo que se "representa" en el arte rupestre es una imagen mental. Se ha comprobado con actuales poblaciones primitivas que producen imágenes sin, por ejemplo, ser capaces de entender qué representa una fotografía. Lo que representan, son los contenidos de sus visiones, socializadas mediante en el lenguaje. Las visiones tienen dos dimensiones y se "proyectan" generalmente sobre fondos planos y neutros, que es lo que se reproduce al pintar la misma figura en la pared de una cueva. Cuando se emerge de un estado de conciencia alterada, la visión permanece también un cierto tiempo y se proyecta sobre el muro o el cielo raso ("imagen remanente"), lo cual -justamente- puede haber sugerido la idea de transformar la visión en permamente mediante el dibujo o el tallado. Las ilustraciones rupestres no son proyecciones de una realidad 3D en un plano 2D, sino la "solidificación" de la experiencia mental en dos dimensiones.

Así, lo que representa el arte rupestre son las imágenes mentales. Y si, en las numerosas "colecciones" que se encuentran en cuevas europeas, queda claro que son imágenes también filtradas por las relaciones sociales: representan animales -no otros objetos naturales (no aparecen ni árboles ni plantas ni paisajes)- y no son todos los que circulaban en el área, sino los que tenían más importancia para el grupo humano: bisontes, mamuts, caballos, aurocs, ciervos. (A la derecha: figuras de Niaux, Francia). Quienes tenían las experiencias mentales (sea rememorando sueños, sea utilizando halucinógenos) y alguna habilidad manual fueron sin dudas quienes realizaron las primeras representaciones. Posteriormente, es posible que otros aprendieron a hacer lo mismo, reproduciendo en otra parte las primeras ilustraciones aunque, muy probablemente bajo control social.


La Prehistoria Aunque podría darse la impresión de que iniciamos aquí una especie de "Historia del Arte", nada está más alejado de nuestro pensamiento. Como lo señala el arqueólogo Jaime Errazuriz, "En el mundo antiguo todo lo expuesto, fuera una vasija, un grabado sobre roca o un textil, tenía significado; el hombre primitivo no era artista en el sentido que nosotros damos a la palabra, ese concepto era para él desconocido, la obra que ejecutaba formaba parte de un lenguaje visual que antecedía al lenguaje escrito en su mundo analfabeto: era su forma gráfica de comunicación con el mundo que lo rodeaba." ("Cuenca del Pacífico", p.123)

Recordemos antetodo que nuestros conocimientos más antigüos de la comunicación se deben a los artistas prehistóricos que pintaron las paredes de cuevas o cerros en distintas partes del mundo. A pesar de que su objetivo era posiblemente de tipo religioso o mágico, con ello nos han legado un importante conocimiento del ambiente de su época. Los sitios más conocidos son Lascaux (foto anexa), en Francia, y Altamira, en España, pero existen muchos más.

Uno de los sitios descubiertos más recientemente es la gruta de Cosquer, cerca de Marsella en Francia. Aquí un ciervo pintado en Cosquer hace unos 19.000 años.

Pero la prehistoria también ha registrado visualmente conocimientos que hoy nos resulta muy difícil interpretar (Aquí un grabado australiano).

Antigüedad

Geometría

Tablilla de geometría (Cálculo del área del círculo) -Babylonia, Siglo XIX A.C.


Derecho

Código de leyes de Hammourabi -Babylonia, Siglo XVIII A.C.

Historia

La imagen ha sido una herramienta esencial en la conservación de los recuerdos históricos. Ramsès II en la batalla de Kadesh (S.XIII a.c.)

Oficios

El arte de tejer: Papiro de la XX º Dinastía egipcia(1150 A.C.)

Geografía y astronomía

El principio básico de la representación visual es el uso del espacio. En este sentido, la geografía -y especialmente la confección de mapas- ha sido una de las primeras disciplinas en recurrir a la representación visual del conocimiento. El origen de los mapas se pierde en el tiempo. "Nadie sabe cómo, cuándo o por qué se le ocurrió a alguién utilizar un esquema para indicar la ubicación de algo. Debe haber sido hace milenios, antes de que se tuviera siquiera el concepto de 'Tierra'." (J.N. Wilford, "The MapMakers", p. 7.). Aquí el mapa más antiguo que se conoce: hecho en Babilonia hace más de 3.000 años, representa el océano en el círculo exterior, mientras el poblado aparece en el centro. Posteriormente aparecen algunos mapas en la Grecia clásica. En Oriente, el mapa más antiguo sería un mapa chino que data de 1137 y muestra las rutas de Yu el Grande, entre costas, ríos y ciudades de parte de China.


La representación de las constelaciones también parece haber sido una de las primeras formas de iconismo. Una división reconocible del cielo debió ser muy importante para los viajeros en el desierto, los primeros marinos, los campesinos que necesitaban un calendario (I. Ridpath, "StarTales", p. 1.). Aquí el disco de Nebra, de hace 3.600 años descubierto en el monte Milltelberg (Alemania): representa el monte y 32 estrellas de las Pléyades.

Aquí, una constelación de acuerdo a los antiguos egipcios: procesión formada por un toro, un hombre (acostado) y un hipopótamo con un cocodrilo a cuestas.


Período greco-romano Geometría

Texto griego de la geometría de Euclides (Manuscrito D'Orville, Bodleyan Library de Oxhord).

Anatomía

En la medicina etrusca, el hígado jugó un papel importante. Modelo en bronce conservado en el Museo de Piacenza. Página con esquemas correspondientes a la teoría de Sorano, fundador romano de la obstetricia ("De arte obstetrica morbisque", Bibl. Real de Bruselas).

Mosáico romano representando el sistema óseo (Museo de Nápoles).

Geografía

Uno de los mapas más antiguos (Siglo VI): el mosáico de Madeba (cerca de Amman), que representaba Palestina. El fragmento que vemos muestra la desembocadura del Jordán en el Mar Muerto y las ciudades de la zona (Jericó, Gilgal y Bethabara).


Textos árabes del Medioevo Astronomía

Manuscrito reproduciendo el "Almagesto" de Tolomeo, con la explicación de su sistema astronómico.

Geografía

Mapa del norte de Africa de 1375, "Atlas Catalán" (Bibl.Nacional, París).

Química

Manuscrito sobre química y farmacología -Siglo XIII o XIV

Anatomía

Lámina correspondiente al "Canon" de Avicena en la copia de Al-Mansuri de 1396 (Museo Welcome, Londres).


Medioevo Cristiano Astronomía

Inclinaciones de las órbitas planterias en función del tiempo. Gráfico del Siglo X. Es posiblemente el intento más antiguo de representación de un fenómeno mediante un diagrama de tipo cartesiano.

Técnica

Primer libro con ilustraciones de máquinas: "De re militari", de Roberto Vaturi, impreso por Nicodai de Verona en 1472.

Historia

Miniatura del Siglo XV representando el sitio de Constantinopla por los turcos (Bibl.Nacional de Paris).

Primer gráfico lineal jerárquico: la genealogía del rey Eduardo I (1296) de Inglaterra.


Meso y Sudamérica precolombinas Las ilustraciones que se pueden considerar científicas son escasas en este continente aunque la "historia visual" de nuestra región empieza unos 3.000 años antes de Cristo con la alfarería y el tallado en piedra de la cultura Valdivia del norte de Ecuador. Astronomía Heredero de los mayas es el calendario azteca (M useo Nacional de Antropología de M éxico).

Códice Laud, libro de 46 páginas, doblado en forma de biombo y pintado sobre una larga tira de piel de venado, que se ha de leer de derecha a izquierda. En el se encuentra pintada la cuenta de los días (con glifos al pie de cada página), de acuerdo al sistema mixteca. Contiene una serie de escenas rituales. Se estima originario de la zona de Tizatlán -por sus similitudes con los frescos de los templos de este lugar (zona del Golfo de México) y probablemente del siglo XIV. Es el mejor conservado de un grupo llamado "Códices Borgia", en que también hay códices que registran hechos históricos y geográficos.


El Renacimiento Anatomía

Dibujos anatómicos de Leonardo da Vinci

Mecánica

Inventos mecánicos de Leonardo da Vinci

Astronomía

Aquí las Tablas Astronómicas de Sebastián Münster - Heidelberg, 1522 . Los primeros mapas celestes dignos de este nombre serían el conjunto llamado "Uranometira", que confeccionó el astrónomo aficionado bávaro Johann Beyer en 1603, a partir de las observaciones del danés Tycho Brahe.

Registro automático

Primera máquina -concebida por el arquitecto inglés Chrislefther Wren- para registrar automáticamente datos en forma gráfica: "el reloj del tiempo" que usaba una aguja para dibujar los cambios de temperatura en un tambor giratorio (1664).


Era moderna Enciclopedia

La "Enciclopedia" francesa de d'Alembert dedicó once de sus 25 tomos a ilustraciones de los conocimientos de la época (1751-1772).

Geometría

Primer libro dedicado a la geometría descriptiva, fundamento del diseño ingenieril que resultó vital para la revolución industrial. Se debe a Gaspard Monge, matemático francés. (1795).

Historia

La explicación de procesos históricos recurre frecuentemente a "líneas de desarrollo temporal". Rara vez se encuentran graficaciones tan sugestivas como la combinación de SEIS variables que logró el ingeniero de caminos francés Charles Joseph Minard (1781-1870) en su representación de la Campaña de Rusia de Napoleón. Las variables son: el tamaño del ejército (grosor de la ínea) la localización del mismo en el mapa (2 variables espaciales) la fecha o "línea de tiempo" (sistema adoptado por el químico inglés Joseph Priestley en 1765, a partir de una publicación francesa anterior que él señala pero que no pudo ser ubicada) la dirección del movimiento (color café a la ida, negro para la vuelta) temperatura ambiente, en la fase de retirada (gráfico de fiebre en la parte baja)

De este modo se observa claramente el terrible desastre producido una vez llegado en las cercanías de Moscú y la poderosa influencia del "General Invierno" en la derrota. (Edward Tufte, The Visual Display of Quantitative Information, Cheshire (Conn), Graphics Press, 1983, p. 41.

Estadigrafía

El economista política inglés William Playfair es sin duda el padre de la estadigrafía moderna. Se le debe el primer diagrama "de torta" (en su obra "Statistical Account of the United States of America", en 1805).


Del mismo modo, se le debe el desarrollo del método requerido para graficar la evolución de una variable en el tiempo o modelo en "diente de sierra", como en su obra "Commerical and Political Atlas" de 1786.

En esa misma obra encontramos diagramas de barras (histogramas). Aunque no es el inventor (se pueden encontrar ejemplos a partir de 1350), es quién desarrolló la técnica y forma de presentación más completa y precisa conocida hasta esa fecha.

George Mulhall es, por su parte, el inventorr de la "estadística pictórica" o sea del uso de pictogramas de tamaño variable para representar valores estadísticos, uno de los componentes que volveremos a encontrar en la infografía de fines del siglo XX. Sus obras son "History of Prices Since the Year 1850" (1885) y "The Dictionary of Statistics" (1892). Aquí, la producción de alimentos en diversos países.


3a Parte: Técnicas 8. Fotografía Funciones de la fotografía

Lo que es obvio en el caso de objetos artificiales como los arquitecturales también puede ser válido para investigar el sentido de conjuntos sémicos. En el caso de la fotografía documental -como también de otras expresiones pictóricas documentales-, las necesidades a considerar son las del emisor, del destinatario (receptor) y del referente. (Nos inspiramos aquí tanto de Eco como de Péninou). Un desarrollo más amplio se ha publicado en un documento de trabajo de la Escuela de Periodismo de la Pontificia Universidad Católica de Chile bajo el título "Exploración inicial de las funciones de la fotografía en la prensa" (1980). a. Necesidades del Receptor Nos parece que la principal razón de ser de la fotografía de prensa dice relación con el objetivo de hacer llegar información al destinatario. Es este último la razón de ser de la prensa. Son por lo tanto sus necesidades las que deberían prevalecer. Podemos distinguir cuatro:

la necesidad de saber: desea conocer lo que ocurre y, en muchos casos, los medios de comunicación son la única alternativa de que dispone para enterarse de hechos que ocurren fuera de su pequeño círculo de vida diaria;

la necesidad de comprender: muchas veces la mera información no basta, haciéndose necesaria una explicación de la misma para facilitar el entendimiento;

la necesidad de recordar: no se acuerda siempre de las personas u objetos a los cuales el mensaje se refiere, aunque éstos hayan sido ya aludidos varias veces; necesita que se le recuerden quienes son los actores, cuales son los instrumentos o como son los lugares propios del hecho del cual se informa;


la necesidad de recrearse: el conocimiento no es lo único que se espera de los medios de comunicación: incluso de la prensa -que es esencialmente informativa- se espera también un clima de comunicación grato, para lo cual importa incluir mensajes que sean recreativos en su contenido.

b. Necesidades del Emisor Sabemos también que el destinatario no tiene siempre interés o deseo de entererarse de algo. En estos casos el emisor ha de hacer un esfuerzo para despertar su atención. En otros casos, no estará seguro de que el receptor creerá el mensaje y deberá buscar argumentos para convencerlo. Así surgen dos nuevos tipos de necesidades, ligadas al emisor:

la necesidad de motivar al destinatario, de llamar su atención hacia el mensaje, de interesarlo, de introducirle el deseo de saber, comprender o actuar;

la necesidad de comprobar, de dar pruebas irrefutables del hecho descrito. La actual moda de las "selfies" se inscribe principalmente en esta necesidad de dar prueba o "valor notarial" aunque puede también ser una mera expresión de vanidad o narcisismo. c. Necesidades del referente También podría existir un "predominio del Ello", como lo llamaría Péninou (pp.89-90). Lo que puede necesitar o desear el referente es fundamentalmente ser conocido, es decir ser identificado. Esto se expresa clásicamente en fotografías que exhiben personas premiadas o que se incorporan a la vida pública (al asumir cargos).



Los inicios de la fotografía Hasta el Siglo XIX, la reproducción de imágenes debía hacerse mediante sistemas de grabado. Uno de los últimos perfeccionamientos en este campo fue la litografía - creada en 1796 por Senefelder, en Alemania - la que permitió un gran auge en la reproducción de ilustraciones, más baratas e incluso a colores. (Aquí, "El duelo", de Goya).

En 1727, Johan Heinrich Schülze descubrió que las sales de plata cambiaban de tono por efecto de luz. Otros investigadores logran producir siluetas pero son incapaces de fijarlas. En 1816, en Francia, Nicéphore Niepce utilizando los mismos principios y una caja oscura logra su primera imagen, pero aún sin poder fijarla bien. En 1819, John Herschel descubre las propiedades fijadoras del hiposulfito de sodio.

Niepce necesitó diez años más para desarrollar un proceso que permitiera la conservación de la imagen (Al lado: el primer paisaje impresionado por Niepce, en1826). Dado que la luz solar es la que produce la imagen, llamó el proceso "heliografía".

Muy poco tiempo después (1837), Daguerre inventa la cámara fotográfica, aplicando los descubrimientos de Niepce. También crea la primera placa fotográfica: el daguerrotipo, que se publicita como el "espevjo que recuerda". Primer sistema comercializado (desde 1839) tuvo un enorme éxito hasta 1855. Los daguerrotipos daban una visión muy precisa y fueron tratados como objetos preciosos. Los retratos fueron muy apreciados y se multiplicaron con rápidez: adjunto un ejemplo anónimo de 1853 (Daguerreian Society ).

Pero otros objetos e incluso amplios panoramas también captaron la atención y la obras se fueron diversificando con rapidez. Aquí la fotografía (daguerrotipo) más antigua que se tiene del Salto del Niágara (1850) (Daguerreian Society ).

En 1835, en Inglaterra, Talbot obtiene la primera fotografía -en negativosobre papel: "The Fastman" (M useo Americano de la Fotografía). Patenta su invento, el "calitipo" ("calotype"), en 1841. Así mientras Niepce y Daguerre son, en conjunto, los inventores de la cámara, Talbot puede ser considerado como el inventor del proceso fotográfico moderno (químico), mientras sus predecesores abrieron la ruta, despejando los mecanismos involucrados. ("Fotógrafos" son quienes han utilizado este tipo de proceso, aunque el mismo nombre se sigue aplicando hoy a quiénes utilizan los nuevos sistemas digitales).

En 1839, Hippolyte Bayard obtiene positivos directos sobre papel. Foto: "El ahogado", positivo directo de H.Bayard tomado en 1840. (Sociedad Francesa de Fotografía).


En 1864, B.J.Sayce y W.B.Bolton introdujeron por primera vez el bromuro de plata en la emulsión coloidal -luego reemplazada por gelatina, proceso que se generalizó y utiliza hasta hoy-.

Las primeras fotografías atrajeron rápidamente la atención del público y nació el deseo de contar con retratos familiares, los cuales se multiplicaron rápidamente. Pero los fotógrafos tenían también otros intereses y un grupo importante de ellos se dedicó a hacer retratos de su época (socio-fotografía), mientras otros iniciaron tímidamente la fotografía científica. Un exponente señero de la socio-fotografía fue el belga Norbert Ghisoland (1878-1939), que realizó nada menos que 40.000 fotografías sobre vidrio de obreros, mineros, jugadores de pelota, arqueros, boxeadores, bandas musicales, familias, etc.(Al lado una de sus fotos).

Muchas disciplinas científicas se fueron beneficiando rápidamente de esta nueva técnica. En el campo del conocimiento visual del pasado, por ejemplo, la fotografía jugó un papel importante en el desarrollo de la arqueología, que se benefició muy tempranamente de ella. En la foto, el arqueólogo americano A.Maudsley en 1891 en las ruinas de Palenque (México).

Es importante tomar en cuenta que la fotografía constituyó no sólo un nuevo medio de expresión, sino también un nuevo medio para conocer: permitió registrar detalles que el ojo no captaba, como lo hizo por primera vez Muybridge, fotógrafo inglés que viajó a California, donde registró los movimientos de un caballo al galope, en 1849, despejando de este modo las hipótesis que se hacían respecto a los movimientos del caballo.

Otra muestra de "cronofotografía" -inspirada en Muybridge- son los "Ejercicios de flexión" fotografiados por


Albert Londe -considerado precursor de la fotografía moderna- en 1895. (Sociedad Francesa de Fotografía).

Estos trabajos constituyeron un primer paso en el camino que llevaría a la creación del cinematógrafo, gracias a los trabajos de Eastman (película), Edison (imágenes animadas) y los hermanos Lumière (cámara y proyector). Con la creación de negativos, y mediante procesos químicos, un original (el negativo) permitía hacer una cantidad ilimitada de copias (positivos). Este principio -muy parecido al de la imprenta- iba a dar origen, a la técnica híbrida del fotograbado, inventado por el alemán Klietsch en 1875, que evolucionó hasta el "offset" moderno, un tipo de fotograbado aplicado en máquinas rotativas de imprenta. Los diarios no tardan, por lo tanto, en adoptar el proceso y en incluir fotografías en sus páginas. (Ver página siguiente sobre Fotoperiodismo).

En 1906, George Lawrence realiza una fotografía érea, panorámica, de las ruinas dejadas por el terremoto de San Francisco, atando una cámara a un conjunto de volantines elevados a 2000 pies (Archivo Kite).

No es, sin embargo, la primera "fotografía aérea", ya que el francés Nadar (Félix Tournachon) se hizo famoso desde 1854 por sus ascensiones y fotos desde globos aerostáticos.

Así, el siglo XIX se terminó indicando varias direcciones nuevas en las cuales se desarrollarán las técnicas de creación y conservación de imágenes del siglo XX.


Los inicios de la fotografía de prensa Las primeras fotografías "noticiosas" nu pudieron ser publicadas en la prensa, no existiendo aún procedimientos técnicos para ello. Sin embargo, varios fotógrafos se interesaron por los sucesos del momento y los registraron con los medios de que disponían. Entre ellos se cuentan Albert Londe, Charles-David Winter e Hippolithe Bayard. Aquí, la construcción del puente de ferrocarril sobre el río Rhin (1860). Foto de Ch.D.Winter (Sociedad Francesa de Fotografía). La Torre Eiffel en construcción (1888). Negativo de A.Londe (Sociedad Francesa de Fotografía).

La primera foto publicada en un diario es la del edificio "Steinway Hall", publicada por el Daily Graphic, luego de perefeccionar la técnica del "medio tono", consistente en reproducir la foto mediante una trama de puntos. Este proceso sólo se generalizó después de 1890 y se siguió utilizando hasta su reemplazo por la impresión offset, en la segundo mitad del Siglo XX.

El primer reportaje fotográfico aparecido en la prensa -constituído de instantáneas obtenidas con flashdata de 1891 y se debe a Jacob Rijs.

Otro pionero del reporterismo gráfico ha sido Charles David Winter (1821-1904). Aquí la construcción de un puente de ferrocarril sobre el río Rhin (1860).

Se ha destacado como el primer verdadero "reportero gráfico" a León Gimpel. Aquí su foto de la visita del rey de Portugal a París, en 1905. La leyenda al pie señalaba: "El rey de Portugal y el Sr.Loubet dejan la Estación del Bois de Boulogne". (Colección Sociedad Francesa de Fotografía).

El dirigible "Ville de Bruxelles" siendo inflado en Issy-les-Moulineaux (cerca de París), el 22 de mayo de 1910. Foto de L.Gimpel (Sociedad Francesa de Fotografía).


Una de las primeras fotografĂ­as publicadas por el diario "El Mercurio" de Santiago fue esta foto de la Alameda en 1900.


De la química a lo digital En 1864, B.J.Sayce y W.B.Bolton introdujeron por primera vez el bromuro de plata en la emulsión coloidal -luego reemplazada por gelatina, proceso que se generalizó y se utilizó hasta elsurgimiento de la fotografía digital-. Muchas disciplinas científicas se fueron beneficiando rápidamente de esta nueva técnica.

Con la creación de negativos, y mediante procesos químicos, un original (el negativo) permitía hacer una cantidad ilimitada de copias (positivos). Este principio -muy parecido al de la imprenta- iba a dar origen, a la técnica híbrida del fotograbado, inventado por el alemán Klietsch en 1875, que evolucionó hasta el “offset” moderno, un tipo de fotograbado aplicado en máquinas rotativas de imprenta. Los diarios no tardaron, así, en adoptar el proceso y en incluir fotografías en sus páginas.

Pero en la década de 1960 iba a producirse una revolución: la de la fotografía digital. En 1969, los laboratorios Bell (AT&T) crearon y demostraron por primera vez el potencial de un sistema electrónico de captación de los fotones que llegan a través del lente, sistema llamado “dispositivo de detección por acoplamiento de carga” o “CCD” (Charge Coupled Device). La tecnología electrónica y la programación de aplicaciones se unán para crear un nuevo “ambiente” fotográfico.

Los CCD son chips capaces de transformar la luz en señales eléctricas. Están constituidos de varias capas y divididos en “pozos” que corresponden a los pixeles (o “puntos” de color, igual que los conos en nuestra retina). Hacia el exterior hay microlentes y filtros de color, luego está el cableado electrónico y finalmente las células fotoeléctricas (o fotodiodos, que transforman la luz en electricidad), al fondo de cada “pozo”. Esta conformación reduce obviamente la cantidad de luz que llega a los fotodiodos, haciendo además que un poco de luz rebote en la zona de cableado y pierda el ángulo correcto para llegar a la parte inferior del “pozo”. En los modelos tradicionales, solo se aprovecha entre el 30 y el 80% de la luz, aunque desde el año 2009 se inició la fabricación de nuevos modelos, llamados “de iluminación trasera” (“back iluminated” o BI), que permiten captar la totalidad de la luz, y aparecen desde el 2012 en algunas cámaras, que se anuncian con una alta sensibilidad en situación de poca luz. (Ver Gráfico siguiente).


A mayor cantidad de pixeles por lado, mayor es la nitidez obtenida, aunque ésto depende también en gran parte de la calidad de la óptica (lente). Cada fotodiodo está conectado a dos polos encargados de medir el voltaje. Cuando un fotón pasa por el filtro de color, libera electrones en el sustrato de silicio. Una carga eléctrica aplicada a los polos reúne estos electrones, el sistema mide su cantidad y luego la anota en formato digital. En 1974, la Oficina de Acceso y Tecnología Espacial (OSAT) auspició un programa para incrementar el tamaño de los CCD que entonces era solo de 100 x 100 pixeles. Los avances han permitido una calidad de imagen muchísimo mayor y que telescopios espaciales, como el Hubble, los utilicen en la recolección de información. En efecto, la sensibilidad de un CCD típico puede alcanzar hasta un 70% comparada con la sensibilidad típica de películas fotográficas que está en torno al 2%. Por esta razón la fotografía digital sustituyó rápidamente a la fotografía convencional en casi todos los campos de la astronomía y, también por la facilidad de efectuar correcciones mediante filtros, empezó a imponerse en la fotografía profesional (por ejemplo para la producción de catálogos). Al CCD, cuyas señales eléctricas son ampliadas y digitalizadas fuera del sensor, ha sucedido el CMOS, que incorpora un amplificador de la señal eléctrica en cada fotocélula e incluso incluye comunmente el conversor digital en el propio chip. La desventaja es que entre los receptores de luz y la fuente lumínica se encuentra mucha electrónica que no es sensible a la luz. La primera solución a este problema vino por una mayor densidad de integración (mayor cantidad de diodos en una misma superficie) y por la aplicación de microlentes que a modo de lupa, para concentrar la luz de cada fotocelda. La siguiente solución ha sido construir de otra forma los sensores, asegurando la captación de la luz sin atravesar la capa de cableado electrónico: es la llamada iluminación trasera (BI, ver Gráfico arriba). Omnivision ayudó a desarrollar el uso de sensores de iluminación trasera en 2007, pero hasta hace poco han sido demasiado caros para su producción masiva. Sony produjo en 2009 el Exmor R, uno de los primeros sensores BI de línea de producción, y la inclusión de sensores BI se consolidó a partir del 2010 al ser utilizados en teléfonos emblemáticos como el iPhone 4 de Apple y el HTC EVO 4G. Son estos sensores que aparecen ahora en las cámaras que anuncian una alta sensibilidad en situación de poca luz. Las cámaras De acuerdo a la Wikipedia “La primera cámara fotográfica digital verdadera que registraba imágenes en un archivo de computadora fue probablemente el modelo DS-1P de Fuji, en 1988, que grababa en una tarjeta de memoria interna de 16 MB y utilizaba una batería para mantener los datos en la memoria. Esta cámara fotográfica nunca fue puesta en venta en los Estados Unidos. La primera cámara fotográfica digital disponible en el mercado fue la Dycam Model 1, en 1991, que también fue vendida con el nombre de Logitech Fotoman. Usaba un sensor CCD, grababa digitalmente las imágenes, y disponía de un cable de conexión para descarga directa en la computadora.”


Kodak inició en 1991 la venta de cámaras digitales profesionales mientras la primera cámara digital que funcionaba con conexión a un PC fue la Apple Quicktake 100, en 1994. La primera cámara fotográfica para aficionados, con una pantalla de cristal líquido en la parte posterior, fue la Casio QV10 de 1995 (foto adjunta, de casio-intl.com), y la primera cámara fotográfica en utilizar tarjetas de memoria CompactFlash fue la Kodak DC-25 en 1996. En 1997 aparecieron las primeras cámaras fotográficas de un megapixel y en 1999 las primeras reflex (D-SLR), con más de 2 megapixeles. El año 2003 se caracterizó por el desarrollo de las funciones de los teléfonos celulares incluyendo el acceso a internet. Poco después, Japón empiezó a vivir la fiebre de los celulares con cámara fotográfica y tanto los fabricantes de este país como los de Suecia se esmeran a la vez por producir pantallas capaces de visualizar mejor éstas como también las páginas web. Ese año apareció el teléfono-consola de videojuego Ngage de Nokia y los primeros celulares con cámara de video (como el Mitsubishi 3G). Sin embargo, es solamente en los últimos tres o cuatro años que se han multiplicado los teléfonos con cámara en los países de habla hispana así como, más recientemente aún, de cámaras con conexión inalámbrica (Wi-Fi).


Fotografía digital El desarrollo de los hipertextos e hipermedios, y especialmente la World Wide Web , han acelerado la producción y la difusión de cámaras fotográficas que reemplazan la película química por un sistema electrónico de captación de los fotones que llegan a través del lente (sistema llamado "dispositivo de detección por acoplamiento de carga" o "CCD").

Los CCD (Charge Coupled Device) son chips capaces de transformar la luz en señales eléctricas. La superficie es una especie de rejilla muy fina en que cada punto donde se cruzan los alambres es sensible a la luz. Esta rejilla de electrodos, como se puede ver en el gráfico, divide la superficie en pixeles (que corresponden a los "puntos" de color, igual que los conos en nuestra retina). A mayor cantidad de alambres por lado, mayor es la nitidez obtenida. Cada electrodo está conectado a dos polos encargados de medir el voltaje. Delante del electrodo hay un filtro de color que determina cual de los colores primarios (rojo, verde o azul) será registrado. Cuando un fotón pasa por el filtro, libera electrones en el sustrato de silicio que está detrás del electrodo. Una carga eléctrica aplicada a los polos reúne estos electrones, a través de un "elemento de captura". El sistema mide su cantidad y la anota en el formato digital que requiere el computador. Fue en 1969, en los laboratorios Bell (AT&T), cuando se demostró el potencial del chip por primera vez. Cinco años más tarde, la Oficina de Acceso y Tecnología Espacial (OSAT), auspició un programa para incrementar el tamaño de los CCD que entonces era de 100 x 100 pixeles. Los avances han permitido una calidad de imagen muchísimo mayor y que telescopios espaciales, como el Hubble, los utilicen en la recolección de información. Existen tres tipos de cámaras: las profesionales de captación lineal (que "barren" la imagen que penetra, como lo hace un scanner), las profesionales de captación de área (que reciben toda la imagen sobre una superficie completa de detectores) y las cámaras "domésticas" (de captación de área), más económicas pero en su mayoría suficientes para producir excelentes fotos para monitores de computación. Las cámaras profesionales son hoy capaces de producir originales para la realización de catálogos impresos de alta calidad (no así de posters o tamaños mayores, que sólo el proceso fotoquímico es capaz de producir hasta ahora). Así, la Big Shot de Dicomed ya era capaz de capturar más de 50 Mb con un disparo de flash en 1996. Expertos fotográficos dicen que una buena cámara analógica, con un buen objetivo, un buen negativo y un buen revelado equivaldría a unos 40 Megapixeles. En 2008, las cámaras digitales alcanzaron los 160 Megapixeles, por ejemplo con la cámara digital "Seitz Phototechnik AG 6x17". Los resultados son muchas veces mejores que los obtenidos con película; no hay problemas de grano y la nitidez y el manejo de la luminosidad son notables. Esta calidad es otra de las ventajas de tomar una foto digitalmente en vez de recurrir a un escáner. No hay pérdida si se conserva en formato RAW ya que se obtiene una imagen de primera generación. En el diario "El Mercurio" (Santiago de Chile), se recalcó en 1996 la ventaja de la cámara digital para el reporteo: "Las exigencias de los diarios son distintas a las de un fotógrafo aficionado o de publicidad -indica Fernando Pastene, fotógrafo de El Mercurio que trabaja con una Nikon NC2000e, con respaldo Kodak y lanzada al mercado por Associated Press.


Esta cámara se usa especialmente para fotografías tomadas en la tarde, cercano al cierre del plazo de entrega del material, ya que no hay pérdida de tiempo en revelado. También resulta práctica durante los viajes." La capacidad de las tarjetas de memoria es hoy, evidentemente, también mucho mayor (hasta 32Gb o más y varios centenares de fotos). Y las fotos pueden ser enviadas por e-mail, publicadas en la web, unidas en albumes en CDs (que, incluso pueden ser vistos en un televisor con lector de DVD). Para los aficionados, la resolución máxima de las primeras cámaras iba de los 480 x 240 pixeles a los 756 x 504 para superar hoy los 3.000x2.000 en cámaras de 8 Mpixeles (incluso presentes ya en móviles) y no faltan más "poderosas". Hacer álbumes familiares, agregar fotografías a una presentación o incluso imprimir un currículo con fotografía incluida, son sólo algunas de las posibilidades. La fotografía móvil, de la que hablaremos más adelante, ha agregado muchas otras. Aplicación de filtros Una de las grandes novedades de la fotografía digital es la facilidad para alterar los fotos mediante software de edición, en particular aplicando filtros. Los filtros que aportan las aplicaciones de edición de fotografías permiten numerosos efectos que pueden transformar totalmente una fotografía. No pretendemos enumerar aquí estos filtros, que son numerosos y cuyas combinaciones pueden generar los efectos más diversos. Un solo ejemplo aquí, con sus diferentes etapas: primero la foto original, luego una primera etapa aplicando el efecto "Ripple". A este resultado se aplicó el efecto "Rotating Mirror" y finalmente el "Kaleidoscope" (4 "pétalos" y 1 órbita) acompañado de una "negativación".



Fotografía 3D Estereoscopía La fotografía 3D intenta reproducir la sensación de profundidad de la visión estereoscópica natural. Si obtenemos dos fotografías con una separación adecuada, correspondientes a la visión que se obtendría con cada ojo, y se observan con un visor apropiado, es posible recrear la sensación de profundidad, de la cual carecen las fotografías convencionales. Fue un físico escocés, Sir Charles Wheatstone, quién en Junio de 1838 describió primero con cierto rigor el fenómeno de la visión tridimensional y construyó luego un aparato con el que se podían apreciar en relieve dibujos geométricos: el Estereoscopio. Años más tarde, en 1849, Sir David Brewster diseñó y construyó la primera cámara fotográfica estereoscópica, con la que obtuvo las primeras fotografías en relieve. Construyó también un visor con lentes para observarlas (foto al lado). Posteriormente, Oliver Wendell Holmes, en 1862, construyó otro modelo de estereoscopio de mano que se hizo muy popular a finales del siglo XIX. Con él podían verse en relieve fotografías estereoscópicas montadas sobre un cartón. En la fotografía y cinematografía estereoscópica se manipula la distancia entre los objetivos para lograr mayor detalle, según la distancia de los objetos enfocados. En efecto, a mayor separación entre los lentes, mayor es la distancia a la que se capta el relieve. Así, por ejemplo, para la cartografía se toman fotos con 100 metros de separación, lo cual permite obtener una excelente apreciación del relieve, imposible a ojo desnudo. Al contrario, para obtener imágenes en relieve de objetos pequeños o microscópicos, se reduce la separación de los lentes.

Para una observación natural, la distancia entre los lentes ha de ser equivalente a la distancia entre los dos ojos. Ésto ha sido aplicado en las primeras cámaras estereográficas (fotografía fotoquímica), como la máquina Kodak (foto izquierda), que se vendieron hasta los años 1950 pero por las cuales el entusiasmo decayó rápidamente debido a las dificultades con que se encontraba el fotógrafo aficionado a la hora de visionar las imágenes.

Aquí, la nueva cámara digital estereográfica de Sony, presentada en el CES 2011.

La empresa ViewMaster fabricó una cámara estereográfica en los años 1930 y sus discos y visores estereoscópicos tuvieron amplio éxito hasta los años 1960. La captura 3D hoy Se pueden lograr fotografías 3D de diversas maneras. Con una sola cámara podemos obtener las dos imágenes, en dos tiempos,


desplazando la cámara una distancia similar a la de separación de los ojos, unos 65 mm. En las siguientes fotos, se muestra el dispositivo Novoflex para tomas sucesivas con una misma cámara, perteneciente al autor y el dispositivo con las dos posiciones de la cámara. Un software especial "monta" después la imagen 3D (ver más abajo).

Naturalmente, el sujeto no debe moverse entre las dos tomas, por lo cual este procedimiento sólo sirve para fotografiar objetos inmóviles. Si queremos obtener fotografías 3D en movimiento debemos emplear una cámara especial (con dos lentes), una cámara convencional dotada de un accesorio especial con espejos o bien dos cámaras disparadas simultáneamente. Algunas cámaras normales (con lente único), para responder rápidamente a la actual moda ofrecen crear imágenes en 3D con una sola toma, recurriendo a un software pre-instalado que, en realidad, simula la tercera dimensión superponiendo dos veces el mismo original, con un leve desplazamiento lateral (Volveremos a hablar de este método). La visualización El principal problema es la forma de observar las fotografías, de manera que cada ojo vea solamente la imagen que le corresponde. Los visores o estereoscopios permiten una visión casi perfecta pero individual. Los sistemas empleados en la proyección de películas permiten ver imágenes tridimensionales a un grupo numeroso de personas, pero les obliga a portar gafas especiales. Éstas pueden ser de varios tipos, pero son dos los que hoy se disputan el mercado: Anaglífo: combinación de filtros verde y rojo para producir una imagen única Polarización electromagnética: se crean dos versiones de la imágen, polarizando la luz en dos ángulos diferentes y los correspondientes filtros polarizadores -en los lentes- bloquean el paso de luz polarizada a 90º respecto al plano polarizador del filtro.

Las empresas fabricantes de televisores trabajan hoy en el desarrollo de pantallas «autoestereoscópicos», que no requieren lentes especiales. Tienen claro que el mercado preferirá los televisores sin lentes y que éste es el camino para la industria futura de la televisión. Así, mientras Toshiba anuncia ya (diciembre 2010) un televisor 3D sin gafas, Apple tamnién ha adquirido una patente de televisión 3D sin necesidad de gafas, el que funcionaría mediante una cámara que detecta la posición de la cara de los espectadores y proyecta diferentes imágenes de tal modo que todos percibirían los diferentes efectos 3D. Software para fotógrafos Actualmente se puede descargar de la web la aplicación Free 3D PhotoMaker. Con ella, se han de abrir las dos fotografías originales (izquierda y derecha) para luego obtener el producto 3D. Es evidente que la mejor forma de hacerlo, es utilizando la cámara con un dispositivo como el Novoflex que hemos mostrado aquí, de lo contrario hay que desplazar un poco el trípode (siempre recomendable). Para apreciar bien la profundidad, es conveniente trabajar con escenas en que la variación de los planos es notoria. No es efectivo para los paisajes, a menos que se cuente con buenos primeros planos. Aquí un ejemplo donde la profundidad se nota particularmente bien (se requieren lentes anáglifos).


Utilizando un software de edición, como Photoshop, a partir de una sola foto se pueden crear dos imágenes, como lo mostramos aquí, recortando la original hacia un lado y luego hacia el otro (la diferencia es poco notoria aquí, pero es capital):

Aplicando luego el 3D PhotoMaker, obtuvimos la siguiente imagen:


Este tipo de procedimiento es el que puede estar incorporado en la cĂĄmaras digitales que hoy ofrecen una funciĂłn 3D sin contar con dos lentes. Para hacerlo en el computador, calcular el desplazamiento adecuado puede ser difĂ­cil y conviene hacer varias pruebas.


Imágenes en 360° El fotógrafo Laurent Egli tuvo la suerte de visitar el Gran Colisionador de Hadrones (LHC) mientras estaba detenido por reparaciones, momento que aprovechó para desenfundar su Roundshot D3 y capturar imágenes en 360º de las instalaciones enterradas 100 metros bajo Suiza. “Cada foto demoró 8 minutos en ser capturada en un escaneo muy lento. La foto resultante fue un archivo tif de 180 millones de pixeles de 19.000 x 9.500, 16 bit. En unas dos horas pude capturar los seis panoramas, en y debajo de las pasarelas alrededor de CMS”, explicó Egli.

La visualización dinámica de la foto panorámica -tomada el 08/02/2011- se obtiene con Flash y puede ser vista en www.360cities.net/image/cern-cms-4-europe.


La fotografía móvil Según el Banco Mundial, el 75% de la población mundial tenía teléfono móvil a mediados de 2012 y el número de abonados globales «pronto» será superior al de la población mundial (La Tercera, 17-07-2012). Según la Unión Internacional de Telecomunicaciones (UIT), a fines de 2011 la tasa de penetración global de la telefonía móvil superaba de este modo el 56,3% de la radio, el 34,7% de Internet y el 23,1% de la televisión (Tomi Ahonen Almanaque 2011). Y si en 2009 había unos 143 millones de “teléfonos inteligentes” en todo el mundo, en su mayoría iPhone, de los 1.780 millones de teléfonos celulares vendidos en 2012, el 83% tenía cámara fotográfica, según PR Newswire. Según estadísticas difundidas por la asociación 4G Americas, la venta de “teléfonos inteligentes” aumentaría en 134% entre 2011 y 2015, alcanzando mil millones, con 7,5 mil millones de conexiones a nivel mundial en 2015.

Un estudio de InfoTrends (2012) sobre imagen móvil ha observado un aumento dramático en el uso de teléfonos inteligentes desde 2011. El porcentaje de encuestados cuyo primer teléfono era un teléfono inteligente con cámara saltó de 24% en 2011 a casi el 46% en 2012. El aumento del uso de cámaras de teléfono se ha visto en todos los grupos etarios. Si en 2011, se produjo un importante descenso en el uso de teléfonos con cámara entre los encuestados mayores de 35 años, ya no es el caso. En 2012, más de la mitad de los participantes del estudio poseían teléfonos con cámara, incluso en el grupo de más edad. En España, la penetración de los smartphones supera el 63 por ciento, lo que sitúa a este país en el primer puesto entre los cinco países más poblados de la Unión Europea (Que.es 10-01-2013). Supera a los Estados Unidos, donde la penetración es de 48% (El Mercurio, 25-03-2013). En América Latina, Uruguay tiene la mayor penetración de smartphones (22%), seguido por Ecuador (21%) y Chile (19%). (El Mercurio, 18-03-2013; Gráfico 5).

Los años 2006 y 2007 marcaron un giro importante en materia de comunicaciones digitales, a diez años de la apertura de la Web al ámbito comercial y privado: se produjo el “despegue” de las redes sociales y, casi simultáneamente la comercialización de los llamados “teléfonos inteligentes” o smartphones que, poco a poco fueron incluyendo una cámara fotográfica. El gráfico siguiente muestra el rápido crecimiento de las redes sociales así como la aparición y evolución del mercado de smartphones, según las estadísticas de las noticias publicadas en el sitio especializado Notibits (notibits.recinet.org), que registra las principales novedades en el “mundo digital”. En dicho sitio, las cámaras digitales hicieron noticia desde el año 2004 (la base de datos empieza en el año 2000), mientras los smartphones aparecieron claramente en la estadística de 2007, al igual que las redes sociales2 (Vea el apartado siguiente en relación al rol de la “Web 2.0”). Vemos también que, mientras crecían los “smartphones”, se estabilizó y empezó a bajar la aparición de nuevas cámaras, lo cual responde sin duda a la inclusión de cámaras en los nuevos teléfonos. También podemos observar, a través de un registro estadístico-histórico de la difusión de la fotografía como, a mediados de la pasada década, la fotografía tradicional decayó brutalmente, siendo rápidamente reemplazada (y sobrepasada) por la fotografía digital.


Si bien la fotografía digital de aficionados sigue asociada a la vida familial, con los aparatos que caben en el bolsillo aparece un ingrediente personal más importante. Además de retratar eventos familares, se retratan mucho más vivencias y observaciones individuales, abriendo también un mayor espacio para lo que llegó a llamarse “periodismo ciudadano” o “foto denuncia”. Ir por la calle, con una pequeña cámara, permite en efecto observar numerosos eventos que pueden ser de interés para la comunidad y que pueden poner en evidencia comportamientos o procedimientos censurables. No tardan hoy en aparecer en las redes sociales: 40% al menos de las fotos tomadas con smartphones son compartidas en estas redes.

Con los Google Glass y sus similares, la fotografía móvil tendría otro impulso, el cual podría ir aún más lejos con su nuevo proyecto: insertar pequeñas cámaras en los lentes de contacto, para lo cual ya ha presentado una nueva patente. Además de tomar fotos de lo que el usuario está viendo, podrían por cierto servir para aumentar la visión de las personas con problemas oculares. Autoretratos (Selfies)

Los teléfonos y tabletas con cámara frontal han dado origen también a una nueva moda: la de los autoretraos (selfies). La publicación de fotos de sí-mismo constituye una nueva función, no ajena a algo de narcicismo, orientada generalmente a conseguir elogios, expresiones de aprecio o comentarios y, quizás, nuevos contactos (especialmente en sitios de búsqueda de pareja, que no tardaron en aparecer). Jordi V Pou, un conocido fotógrafo catalán, considera incluso que significa un cambio fundamental en la fotografía: “El cambio primordial es que antes había tres tipos de fotografía: la doméstica, la artística y la documental. Pero ahora hay una cuarta: la fotografía personal, la que utiliza uno para comunicarse con su círculo de amigos” (Aradas, 2013). Se trata de una función doble: a la


vez de comunicaci贸n y de individuaci贸n.

Dos han sido sin duda los autoretratos de mayor 茅xito en las redes sociales (en 2014): la del Papa Francisco y la de Ellen DeGeneres en la ceremonia de entrega de los Oscar 2014 publicada en Twitter.

Los astronautas se han plegado a esta moda.


Las selfies no son sin embargo cosa nueva. ¡La más antigua es de fines del siglo XIX!

Y se conoce otra de 1920, de la cual se documentó el proceso:

La difusión de la fotografía digital dió pie a la creación de sitios web para publicarlas (anticipando el sistema, hoy más generalizado, de archivos en la “nube”, es decir en servidores externos destinados al almacenamiento de datos). Éste será el tema de otra página.


La "toma en terreno" La fotografía con smartphone no es siempre la modalidad más adecuada para la captura de imágenes, especialmente para fines de control. Con el avance de las tecnologías de captura de datos, la imagen (en este caso la fotografía) está cobrando cada vez más nuevos usos. Es así como están apareciendo aplicaciones destinadas a operaciones de control de "usuarios en terreno". Ejemplos son las desarrolladas por las empresas KNK y Coda System, que fueron presentadas al Microsoft Mobility Briefing. ¿De qué se trata? Existen hoy numerosas personas cuya función consiste en hacer entregas a domicilio o a recopilar datos en terreno y que han sido equipadas con aparatos digitales para recoger los datos correspondientes. Son, la mayoría de las veces, el equivalente de los PDAs (personal digital assistent). Los PDAs han evolucionado mayormente hacia los "smartphones", teléfonos celulares con múltiples funciones, cada vez más parecidos a los computadores. Pero estos teléfonos también han ido integrando cámaras fotográficas digitales. Aquí es donde aparece la idea de usar dichas cámaras para recoger información. Pero transmitir fotos por teléfono sería lento y costoso. Tampoco es necesario en el caso de "recopiladores de datos de terreno", que acumulan los datos en su memoria y los "vacian" en el sistema central cuando el usuario vuelve a la oficina. De ahí que han surgido nuevos PDAs no telefónicos pero dotados de cámara, así como aplicaciones que pueden instalarse en smartphones, en que la foto complementa datos recogidos en un formulario y viene a ser un elemento probatorio de la entrega al destinatario o de la lectura o copia de los datos requeridos. Con ello se gana en fiabilidad, se evitan errores de transcripción, se automatizan procesos y se conservan elementos probatorios.

Es lo que hacen las soluciones "Shoot a Proof" de CodaSystem (pantallazo al lado) o "InMore" de KNK. "Shoot a Proof", además marca y encripta las fotos, aumentando así la seguridad de la prueba (dándole eventualmente validez judicial, como ocurre en Francia). Es compatible con el Curve y el Bold de BlackBerry, los smartphones Windows con cámara de 3Mpx y el iPhone de Apple.


El punto de vista y el momento en fotografía

El punto de vista, es decir, dónde nos situamos para obtener una fotografía, marca en muchas ocasiones la diferencia entre una foto normal – la que puede hacer cualquiera – y otra, espectacular. Así lo entiende, Philip Plisson, fotógrafo francés especializado en paisajes marinos que nos muestra imágenes espectaculares de la tempestad Petra que azotabó, a principios de febrero 2014, el norte de España y las costas de Francia y Gran Bretaña. (Muestra su trabajo en un video en Youtube).

Tenemos algunas veces buenas oportunidades para acceder a un punto de vista sorprendente (sin necesidad de arrendar un helicóptero). Aquí una vista tomada de una montaña rusa (de GeekPro.es, en Facebook):


Esta foto, de Aung Pyae Soe (Yangon, Myanmar), ha sido finalista del concurso fotogrรกfico 2014 del Instituto Smithsonian :en la secciรณn Viajes. Ha sido tomada en Inle Lake, Myanmar, en noviembre de 2013, con un cรกmara Canon EOS 1DX.

Cambiando de punto de vista, podemos hacer que una barrera para peatones (izquierda) parezca una valla infranqueable (derecha) [Fotos del autor]:


Combinar el punto de vista con el ángulo de iluminación puede ser clave para "dar carácter" a objetos simples [Fotos del autor]:

Nos gusta particularmente esta foto que tomamos en De Panne (Bélgica), por los contrastes de luz y la posición del "turista" frente a la estátua (véala ampliada de ser posible):



Haciendo arte alterando fotos La revista del instituto Smithsonian realiza concursos anuales de fotografía, una de cuyas categorías es "fotografía alterada". La siguiente es una de las diez fotos finalistas de 2014, que se debe a Michael Frank (Rochester, New York).

El artista Aaron Hobson busca escenas llamativas en el mundo entero. Pero no lo hace viajando, sino que utilizando Google Street View. Una vez que descubre una toma que le gusta, le aplica alguna herramienta para agregarle algo de fantasía. (Wired, 17/03/2014)

Instagram ha sido quizás la mejor herramienta para mostrar a los afdicionados lo que es posible lograr aplicando filtros. (Aquí un trabajo de Mc Gutty con Slow Shutter en Instagram, 2013) Estos dos primeros ejemplos corresponden también a lo que se llama algunas veces "fotografía surrealista". Se pueden encontrar en la web otros autores de este tipo de trabajo, como Erik Johansson (http://erikjohanssonphoto.com/), Gregory Crewdson y Maggie Taylor (http://maggietaylor.com/).


Pero hay mucho más que Instagram. Obviamente, los aficionados a la fotografía conocen también los filtros de Photoshop y sus semejantes (como Paint Shop Photo Pro, que utilizamos en nuestras muestras). Como lo hace Hobson, gracias a los filtros, podemos "mejorar" nuestras fotos pero también distorsionar la realidad: cambiar la aparente hora del día (alterando las luces: la siguiente foto ha sido tomada de madrugada por el autor pero filtrada para parecer una puesta de sol):


Podemos superponer fotos, como ésta, donde pusimos una nieta en una pantalla de Nueva York, ayudado por la aplicación Photofunia que ofrece numerosas alternativas de fondos donde insertar alguna foto así como diversos filtros:

Pero los filtros nos permiten transformar mucho más nuestras fotos (aquí la calle La Bolsa de Santiago de Chile):


y obtener incluso resultados que ni se parecen a la fotografía original (aquí el original y el producto final):

Unas palabras más, para quienes desean mejorar sus autofotos ("selfies"): hay apps que permiten eliminar manchas del rostro, aplicar maquillaje e incluso adelgazar la cara, como Candy Camera, y Perfect365 que, gracias a la tecnología de detección de rostros Arcsoft, aplica un maquillaje digital cuyo resultado se asemeja a uno real. ¡Pero cuidado al "photoshopear" fotos!


El Photoshop y sus malas prácticas Origen Photoshop nació en 1988, con el nombre de Image Pro, de la mano de los hermanos Thomas y John Knoll, que unieron sus talentos para crear un programa que permitiese editar imágenes. Thomas era un estudiante de doctorado en ingeniería en la U. de Michigan, y John trabajaba para la célebre Industrial Light & Magic, la productora de efectos especiales de George Lucas. Se conoció como Photoshop en febrero de 1990, cuando salió a la venta de la mano de Adobe, empresa con la cual establecieron una alianza y gracias a la cual se convirtió rápidamente en un estándar de la industria gráfica y de la fotografía digital. De este modo, el programa invadió tanto los medios de prensa y las agencias de publicidad, en los primeros esencialmente para corregir pequeños defectos visuales y en las segundas para "pulir" retratos y realizar nuevas composiciones (montajes). Pero este tipo de operación está dando pie a crecientes críticas. La primera foto "photoshopeada" de la historia fue tomada por John Knoll, el mismo creador de Photoshop y era, por casualidad, la única que tenía a mano cuando fue a enseñar su producto por primera vez: la de su prometida en una playa de Tahiti.

Hay un video de su demostración en Youtube. Manipulación periodística PSDisarter es un portal especializado en cazar los errores cometidos con Photoshop en la prensa. Ha publicado el artículo titulado "Top 20 Photoshop Disasters of 2010" en el que recoge las veinte equivocaciones más sonadas de los retoques de imágenes de 2010. Desde cuerpos de actrices a los que han modificado el tamaño de su busto, políticos cambiados de posición para que parezcan que tienen más poder o a otros a los que les borran los adornos para dar una imagen más seria.

Mubarak es puesto delante de Obama por el diario egipcio Al-Ahram. En la imagen auténtica, tomada por el fotógrafo Alex Wong para la agencia Getty, era Obama el que encabezaba la comitiva. (Recogido en PSdisasters.com)


Pero existen casos bastante más graves que atañen a la ética periodística. En Argentina es famoso el caso de la revista Gente que puso en portada fotomontajes de supuestas victorias durante la Guerra de Malvinas. La Editorial Atlántida generó una serie de tapas de su revista Gente, como reconoció Jorge Gayoso: “He fabricado fotos que luego salieron en tapa” y agregó, “durante el conflicto de Malvinas me llamaron de Editorial Atlántida… Como tengo mucho material de aeronáutica y marina, donde estuve dos años, a esas fotos les agregaba humo, ambiente bélico, les agregaba grano para hacerlas más auténticas, y parecían sacadas allá”. Manipulación publicitaria Hace poco, las autoridades inglesas obligaron a retirar por considerarla "engañosa" la foto de Julia Roberts utilizada en la campaña publicitaria para Lancôme. La actriz promocionaba la base de maquillaje Teint Miracle, un producto que provocaría "brillo natural" en la piel. Pero en las fotografías su rostro se veía tan liso y perfecto que los británicos consideraron imposible que fuese a causa del producto. Tampoco ayudó que L'Oréal se negara a mostrar las fotos originales, aduciendo que su contrato con la actriz se lo impedía. Otras marcas como Maybelline, Olay o Ralph Lauren también se han visto obligadas a retirar campañas globales que bordean los US$ 50 millones. (El Mercurio, 31-07-2011)


(Fotos de modelos recogidas por El M ercurio, 31-07-2011)

"En Chile, el retail es uno de los sectores que mĂĄs retoque aplica en la publicidad. Lo que se busca es emular la apariencia de las guaguas en las fotos", dice el connotado "retocador" Ricardo Salamanca, dueĂąo de la empresa Sala MĂĄgica. Casi todas las fotos pasan por un proceso en el que se les eliminan todas las arrugas, se les achican los poros de la piel y se les quitan los vellos. (El Mercurio, 31-07-2011)


En 2009, la revista GQ adelgazó el torso y las piernas de Kate Winslet pero no se dio cuenta que el verdadero cuerpo de Kate era visible en el espejo detrás de ella.

30-11-2011: Investigadores de Ciencias de la Computación del Darmouth College de Hanover (Estados Unidos) desarrollaron un programa con el que es posible cuantificar los retoques a los que ha sido sometida una fotografía, creando una escala de 1 a 5 para categorizar la foto desde retoques mínimos hasta la ficción. El algoritmo fue perfeccionado recurriendo a cientos de personas en línea para que comparen un conjunto de imágenes antes y después de ser retocadas y aplicando la mencionada escala. Ejemplo a continuación. (www.cs.dartmouth.edu/farid/downloads/publications/pnas11)

También está disponible una aplicación que detecta si una foto ha pasado por Photoshop en Fotoforensics.com. Verifica si una imagen ha pasado por algún editor de imágenes. La técnica utilizada consiste en guardar varias veces en jpeg la misma imagen, ya que


las regiones alteradas vía Photoshop no pierden calidad al mismo ritmo que el resto, por lo que puede detectarse el cambio. Hay que indicar la url o subir la foto para obtener un mapa de calor que nos determinará las zonas en las que una fotografía ha sido manipulada.


Premios de fotografía Premio Pulitzer de fotoperiodismo Este premio se dió por primera vez en 1942 y fue para Milton Brooks, que publicó en el Detroit News la foto de un supuesto “Rompehuelgas” apaleado por los trabajadores de la fábrica Fords. Elegimos una foto por década, partiendo por la famosa foto titulada "Raising The Flag On Iwo Jima", tomada por Joe Rosenthal para Associated Press, que ganó el Pulitzer en 1945. En ella se aprecia a varios marines de los Estados Unidos levantando una bandera de su país en el monte Suribachi durante la Batalla de Iwo Jima de la Segunda Guerra Mundial. La imagen representa el triunfo de las fuerzas aliadas y su papel en las batallas acontecidas en el Pacífico durante el transcurso de la Segunda Guerra Mundial.

1957: Premio para Harry A. Trask por su galería fotográfica del hundimiento del SS Andrea. Tomadas todas desde un helicóptero apenas desde 10 minutos antes del hundimiento total del barco y publicadas en el Boston Traveler.

Cuando Jack Ruby asesinó a Lee Oswald (el asesino de Kennedy) fue captado por Robert H. Jackson, del Dallas Times-Herald, que ganó así el Pulitzer de 1964.

El premio de 1976 fue para Stanley Forman por la foto tomada para el Boston Herald American de un incendio en la ciudad.

En 1986, fue para Tom Gralish, del The Philadelphia Inquirer, por las fotos de personas sin hogar en Filadelfia.


En 1996, el premio fue para Charles Porter, fotógrafo freelance, por la foto adjunta.

En 2007, ganó el premio Oded Balilty, de Associated Press, por la foto en la que una mujer desafía las fuerzas de seguridad de Israel.

En 2013, fue para Javier Manzano, fotógrafo free-lance mexicano que captó a dos soldados rebeldes manteniendo la posición en Siria. La foto fue distribuida por la Agencia de Prensa de Francia.

En 2014, The Boston Globe fue premiado por su cobertura del atentado en la maratón de Boston el año anterior. (Se pueden ver fotos de todos los años en SiempreContectado

Asociación Nacional de Fotógrafos de Prensa de EEUU


El concurso de Mejor Fotoperiodismo de la Asociación Nacional de Fotógrafos de Prensa en EE.UU. eligió a las mejores fotografías de lo que va del 2014. El fotógrafo John Tlumacki de The Boston Globe fue nombrado el Fotoperiodista del Año para un mercado amplio. Su foto retrata las explosiones en la maratón de Boston.

Tyler Hicks de NYT fue premiado en la categoría de Mejor foto internacional por esta imagen en Kenia, en setiembre del 2013.

Sony World Photography Awards Sony otorga premios y aquí podemos ver dos de los últimos, el primero de Michael Nordqvist, de Suecia, y el segundo de Chen Li, de China.

Premio Nikon "Small World" El trabajo ganador en 2012 del concurso anual "Small World" de Nikon pertenece a los doctores Jennifer Peters y Michael Taylor, que por primera vez lograron captar la formación de la barrera hematoencefálica (entre neurona y sangre) en un animal vivo, el pez cebra.


Premio del Royal Observatory de Inglaterra Foto de Júpiter tomada por el aficionado Damian Peach desde Barbados.

Premio National Geographic National Geographic publicó las fotografías ganadoras de su «2013 Traveler Photo Contest». Aquí, una foto de Francisco Negroni tomada durante la erupción del volcán Caulle en la Región de Los Rios, en Chile, en 2011.

Premio de la revista Smithsonian La revista Smithsonian anunció en abril 2014 los 60 finalistas de la undécima edición de su concurso de fotografía, diez para cada una de sus seis diferentes categorías: naturaleza, viajes, gente, americana, fotografía trucada y móvil. Aquí, una de las finalistas de la categoría móvil, que se debe a Cammie Cooley (Ragley, Louisiana)

y otra, en la sección Naturaleza, de John Matzick (Port Hadlock, Washington), que corresponde a Adak Island, Alaska.

Selección de la NASA En 2013, la NASA lanzó un concurso para que los internautas elijan la mejor imagen del año de entre una serie preseleccionada por la agencia. Un volcán submarino de las Islas Canarias ganó la primera edición de este certamen que se repitió en 2014, donde volvieron a ganar las islas Canarias con una foto que muestra desde una perspectiva aérea el viento y las olas alrededor de las islas(derecha). Gracias a fotos captadas desde los satélites, la Nasa lanzó el libro "La Tierra como Arte", el que contiene un total de 75 imágenes que muestran increíbles secuencias de formas y colores de nuestro planeta y que sólo se pueden observar desde el espacio. Puede bajarse en forma gratuita, como libro electrónico en PDF desde el sitio, a la vez que también se puede descargar como aplicación para iPad. Aquí, las montañas Bogda, en China. Graphis Photography Annual Gold Award


El premio Graphis de Oro de fotografia se otorga anualmente y las mejores fotos se reĂşnen en un album (AquĂ­ el de 2014).


Viendo lo invisible: Microfotografía Desde 1975, Nikon -empresa que además de máquinas fotográficas fabrica microscopios electrónicos- convoca a científicos y a fanáticos de la fotografía a capturar imágenes del mundo que no se ve a simple vista. Recientemente ha publicado los seleccionados del Concurso de Fotomicrografía 2009. Aquí algunas muestras.

El saco de polen de la flor fue capturado por Heiti Paves, de la U. Tecnológica de Tallin (Estonia).

Gerd Guenther, un agricultor orgánico alemán, obtuvo un detalle del tallo de una planta silvestre.

El patrón creado por un semiconductor inspiró a Pedro Barrios Pérez, de Ottawa (Canadá).

Larva acuática de mosca Atherix ibis, de Fabrice Parais,DIREN Basse-Normandie, Hérouville-Saint-Clair, Francia


Huevos de Lymnaea sp. (serpeinte), de Massimo Brizzi, Microcosmo Italia, Empoli, Florencia, Italia


Álbumes y depósitos de fotografías digitales La difusión de la fotografía digital dió pie a la creación de sitios web para publicarlas (anticipando el sistema, hoy más generalizado, de archivo en la “nube”, es decir en servidores externos destinados al almacenamiento de datos). Así, Picasa fue creada en 2002 por Lifescape y es propiedad de Google desde el año 2004. Ha sido integrado a Google+ pero ha sido nuevamente separado. (Todas las imágenes del blog de Lenguaje Visual -y de la presente publicación- están ahí, junto con otras fotografías nuestras).

Flickr, lanzado en febrero de 2004 por Ludicorp y adquirido por Yahoo! en 2005, albergaba ya más de tres mil millones de imágenes en noviembre de 2008.

Pero Facebook les hizo rápidamente la competencia y, en agosto de 2011, alojaba ya unos 140 mil millones de fotos, pasando del billón (un millón de millones) de páginas vistas en un mes (según FayerWayer, 29-08-2011). Entre los 3,5 trillones de fotos que existen alrededor del planeta (sólo en servicios de acceso público -no solo internet-) desde la primera imagen tomada por Joseph Niépce en 1826, el 4% pertenecía así a la red social Facebook (FayerWayer, 22-09-2011).


Y no se ha de olvidar que han surgido otros servicios de alojamiento de fotografías como Pinterest, mientras Instagram (con 27 millones de usuarios en marzo 2012) fue adquirido por Facebook, sumándose a la colección propia de esta red social y llegando de este modo a 100 millones de usuarios mensuales en febrero 2013.

En el mundo, setecientos millones de teléfonos tienen hoy una cámara fotográfica. El 67% de los poseedores tomaría fotos al menos una vez por semana y el 54%, además, las enviarían por este medio a terceros. El 83% de ellos también utilizarían su ordenador con un programa para editarlas (Darell, 2013). Hoy se toman cerca de 1.000 millones de fotografías al día y se hacen más fotos en dos minutos que las que se hicieron en todo el siglo XIX (Aradas, BBC, 2013). La tendencia dominante de compartir las fotos on-line conlleva también la disminución de la producción de fotos impresas, según señalan los especialistas (Lévêque, 2013) pero, al parecer, este fenómeno no sería intrínsecamente producto del auge de las


“fonocámaras” sino de la fotografía digital en general, ya que las fotos se conservan y se pueden apreciar en los ordenadores. Los medios sociales solo han aportado una nueva -pero importante- forma de acumularlas y compartirlas. Queda por ver si, con el tiempo y la abundancia de lo compartido, servirán para cumplir la función recordatoria unida a la “solemnizadora”, las que justificaban la producción de álbumes en papel. Si bien algunas empresas ofrecen la producción de tales álbumes de fotos digitales seleccionadas, no existe aún, al parecer, una estadística al respecto. Compartir fotos Los lugares para compartir fotos en la Web no faltan. Los medios más comúnes, fuera de Facebook e Instagram, para compartir fotografías son Flickr (asociado a Yahoo!), Pinterest, y Picasaweb (Google+).

Instagram, especial para usuarios móviles, tiene ya 200 millones de usuarios activos cada mes y cuenta con 20.000 millones de fotos (marzo 2014). Desde PC y Mac, se pueden subir fotos a Instagram con Bluestacks. Google+, recibiendo 15.500 millones de fotos cada semana, es ahora el principal competidor en el campo de las redes sociales, especialmente desde que incluyó Picasa, pero aún está lejos de alcanzar a Facebook que, con más mil millones de usarios, agrega 350 millones diariamente (dic.2013). Twitter, que es un sistema de “microblogging” (publicación breve) con rasgos de red social tiene una enorme participación pero la función fotográfica, agregada hace poco, no forma parte de su esencia y no permite formar álbumes. Albumes Tanto Flickr como Picasa/G+ operan permitiendo la agrupación en álbumes temáticos. Pero también existen otros, evidentemente menos masivos (y que pueden desaparecer en cualquier momento, ya que muchas iniciativas son muy efímeras en al World Wide Web). Podemos citar Fotolog, el líder mundial de foto-blogging, que cuenta con más de 33 millones de miembros, Webshots, una de las mayores bibliotecas de fotos del mundo, el servicio de intercambio y comercio DotPhoto y Photobucket. Algunos incluyen software para editar las fotos o, como Go2Album, una aplicación que permite a los usuarios construir su propia presentación de diapositivas en pocos minutos subiéndolas a su “nube” (servidor de almacenamiento).



Amazon también creó un depósito en la nube: Cloud Drive Photos, cuya finalidad sería mantener copias de seguridad más que constituir un álbum. Permite subir y guardar fotos con una app de Android (5 GB gratuitos).

Museos y colecciones Getty Images, uno de los registros fotográficos más importantes de la red, anunció la apertura de su acervo de más de 80 millones de imágenes para su libre uso. La decisión ayudará a todo aquél que no pague una suscripción a Getty Images a compartir sus imágenes de manera libre y sin pagar un sólo centavo. Como una forma de controlar el uso de imágenes restringidas, según informó el


portal, los usuarios que no estén suscritos podrán insertar cualquier imagen vía código HTML en sus webs usando Embedded Viewer. (No se permite copiar y pegar imágenes directamente de Getty Images).

El Museo Ludwig de la Fotografía (Colonia, Alemania) fue el primer museo de arte contemporáneo del mundo en dedicarle una considerable porción de su exhibición a la fotografía internacional. Actualmente cuenta con 9.300 fotografías de mas de 300 fotógrafos del siglo XX. El Museo Ludwig adquirió la colección Man Ray de Renate y L. Fritz Gruber en septiembre de 2012, con el apoyo financiero de la Fundación Cultural de los Estados Federal Alemana y la Fundación de las Artes del Estado Federal de Renania del Norte-Westfalia. Entre los artistas representados en la colección que pueden verse encontramos a grandes nombres de la fotografía internacional como René Burri, Peter Hürst, Hideki Fujii, Yuri Eremin, Ansel Adams, Moholy-Nagy, Philippe Halsman, Richard Avendon, Michael Snow o el mencionado Man Ray.

Otros sitios VII Photo es un sitio que contiene un archivo público de más de 60.000 imágenes, todas ellas conformando un resumen icónico del siglo XX. El sitio web fue creado en 2001 por siete fotoperiodistas y ha ido creciendo hasta el día de hoy, incluso ganando premios (en 2005 quedó en tercer lugar en la lista de “100 Most Important People in Photography”).


Photocrowd es una comunidad online con concursos de fotografía donde, además de subir fotos, podemos participar en concursos patrocinados por otros servicios, productos o marcas relacionadas con la fotografía y los ganadores pueden llevarse pequeños premios. Para votar por las fotos de los concursos es necesario estar registrado y se puede hacer de dos formas: con un Like (me gusta) y con un Love (me encanta), en forma anónima.

Sharalike es una aplicación para iOS, web, Windows y Mac que permite identificar las fotos que son semejantes, mostrarlas en una galería para que decidamos cuál es la mejor y crear un montaje con el grupo de imágenes seleccionadas para que podamos compartirlo de forma sencilla. El resultado es una presentación con música en la que las fotos van pasando una tras otra, algo que promete hacer en pocos segundos y con resultado en HTML5 para que pueda ser consultado tanto desde PC como desde dispositivos móviles.


Adobe Revel aumenta la cantidad de opciones que tenemos para guardar nuestras fotos en la nube. Es un producto de Adobe para Android, una aplicación que se presenta como un espacio privado para guardar, ver y compartir nuestras fotos, permitiendo que varios miembros alimenten una misma cuenta para crear colecciones creadas en grupo. Es posible visualizar el contenido desde varios dispositivos y dar acceso individual a miembros específicos, personas que podrán decidir si quieren o no guardar de forma automática sus fotos.

Otras opciones 4 Free Photos


Unsplash

Pixabay

MorgueFile

StockVault


Public Domain Photos: Es una red que sigue creciendo con material libre para usar. El sitio ser organiza en categorías y etiquetas. Pixabay: Contiene fotografías e imágenes clipart gratuitas. Señala el origen del material, el tipo de licencia y hasta la cámara utilizada. U.S. History Images: Tiene una colección sobre la historia de los Estados Unidos que se remonta a 1862. Las casi 5,000 imágenes son libres . The Wayback Machine: Tiene casi 2 petabytes de data. En el archivo, se puede escribir una palabra clave y luego filtrar los resultados por tipo de medio (imagen) para obtener acceso a millones de imágenes de los archivos que están licenciados bajo Creative Commons. Clipart-History: Tiene imágenes de alta calidad sobre sucesos importantes en la historia. Totally Free Images (500.000 imágenes): Permite buscar imágenes relacionadas con la astronomía, la pintura y la microscopía, todas de uso libre. Pics4Learning: imágenes que se ofrecen para ilustrar proyectos educativos. Tiene figuras de animales, de arquitectura, de geografía y ciencias, entre otros.


Impresión de fotografías e ilustraciones gráficas Si tiene algunas obras de arte o fotografías digitales que desea colgar en sus paredes, antes de encargarlo a un laboratorio ha de pensar en lo que es factible para cualquier usuario de PC. Una limitación será el tamaño: las impresoras habituales no pasan del tamaño carta o A4 (o un poco más largo, lo que no es útil). Quizás lo haya probado y no le satisfizo el resultado. Para una impresión de calidad, requiere una buena impresora orientada a la fotografía y el papel adecuado. Solo así obtendrá una impresión de buena calidad. La impresora Las impresoras a inyección de tinta comunes, para la casa o las pequeñas empresas, tienden a estar mejor diseñadas para manejar documentos con gráficos ya que las empresas necesitan a menudo folletos, volantes y otros materiales con gráficos. Las impresoras láser y las basadas en LED no son apropiadas para fotos. Imprimir buenas imágenes no es lo mismo que imprimir gráficos comerciales o estadísticos.

Para conseguir buenas fotografías se necesita una impresora fabricada con esta finalidad. Las grandes marcas, aunque indican generalmente que sus impresoras caseras estándar permiten imprimir fotos, ofrecen modelos especiales que garantizan mejores resultados en esta materia. ¿Que impresoras recomiendas los expertos? Las Epson Stylus Photo y Canon Pixma Photo Printer son las preferidas de PC Magazine. La HP Officejet Pro Color Printer es otra opción. las hay en diversos rangos de precio (hasta us$800, pero para un tamaño de 30x45cm) y no es necesario que adquiera la más costosa. Ya puede esperar buenos resultados con una de unos us$200, aunque se recomienda muchas veces modelos algo más caros. Estas impresoras aseguran una calidad suficiente para la presentación de trabajos profesionales en exposiciones si se usa el papel adecuado, lo cual es todo lo que, sin duda, puede desear. Pero incluso una multifuncional Canon Pixma le puede dar buenos resultados si no supera 20x25cm. Si va a comprar una impresora nueva, fíjese también cuantos cartuchos de tinta utiliza. Es generalmente mejor un mayor numero de cartuchos (diferentes colores), ya uno de los colores se gasta generalmente más rápido que los otros y se pierde lo que sobra. Consulte también el costo de los cartuchos y su rendimiento, ya que la tinta es más cara que los perfumes más costosos (y el set, a veces, más caro que la misma impresora). La foto No se olvide que la calidad de la foto (resolución) es fundamental. Obviamente, la baja resolución y la compresión de la imagen puede impactar la impresión, sobre todo si la amplía. Evite archivos JPG si es posible. Para imprimir, seleccione 300 ppp.

Grandes franjas de colores oscuros a menudo no se imprimen bien, como tampoco grandes espacios de colores claros, a menos que tenga una impresora que tiene específicamente un depósito de tinta negra. De lo contrario, "negro" será en realidad una mezcla de todos los colores, lo que podría ser visible -y poco agradable- en el resultado. Así que si aléjese de los fondos negros e inclínese hacia colores más claros y sus gradientes. El papel Utilice papel fotográfico brillante, de 190 gr/m o más, y, antes de imprimir, asegúrese de elegir la opción correspondiente en los


settings de la impresora. Si no hace este ajuste, el resultado podría ser decepcionante. Ajuste de acuerdo al peso del papel si le es posible. Verifique también si se le ofrecen más opciones para mejorar la calidad, como "Calidad de impresión alta", "Más nítida", "Evitar efecto serrucho", etc.

Recuerde también que los colores impresos nunca coinciden perfectamente con los que ve en pantalla. Si considera esencial el ajuste de color, le conviene seleccionar un trozo de su foto y hacer una impresión de prueba para hacer las correcciones necesarias antes de gastar más tinta y papel. Si hace tiempo que no imprime, utilice la utilidad de la impresora que permite verificar que los inyectores están limpios y alineados antes de empezar el trabajo.

Es posible «transferir» una fotografía impresa con una impresora convencional de inyección de tinta en superficies como madera como se muestra en un video.


9. Ideografía Orígenes Los ideogramas (dibujos simplificados para representar ideas) han estado al inicio de la historia de la escritura. Aún hoy, algunos pueblos -como China, Japón y Corea- utilizan escrituras ideográficas, aunque su forma actual ha perdido en su mayor parte su carácter isomorfo (semejanza de forma con un objeto real). En la imagen, la primera línea muestra la forma más antigua (más isomorfa) y la última el carácter actual.

Podemos aún hoy observar mejor el carácter original y altamente sugestivo de una escritura ideográfica contemplando los jeroglíficos del antiguo Egipto.

Los ideogramas egipcios representaban objetos o ideas abstractas (ver al lado), pero, como descubrió Young y luego confirmó Champollion, salvo indicio especial, indicaban la o las consonantes del término correspondiente.

La escritura maya también recurría a ideogramas.

"El sueño de un lenguaje universal ha hechizado a lingüistas y filósofos por siglos. En los 1600, el filósofo Leibniz propuso crear tal lenguaje basado en un conjunto de símbolos visuales simples, combinados según reglas lógivas precisas. Intentos más recientes incluyen los "LoCos" de Yuko Ota, los "Glifos de la Era del Jet" de Zavalani y los "Picto" de Jansen. A pesar de su diseño inteligente y sus nobles intenciones, estos lenguajes icónicos han sido usados slamente en disciplinas cercanas para propósitos específicos." (W.Horton, p.11).

El uso sistemático de pictogramas o ideogramas para lograr una comunicación que superara en estos casos la barrera de los idiomas se conoce solamente desde principios de nuestro siglo. Sin embargo, cada evento internacional y cada autor de algún manual o instructivo parece sentirse obligado a crear su propio sistema de signos, lo cual puede -en algunos casos- desvirturar el objetivo de asegurar la máxima comprensión, especialmente si no se respetan algunas reglas básicas que son las que pretendemos exponer aquí, junto con una colección de ejemplos bien logrados.


"A lo largo de la Historia, la ciencia y la técnica han desarrollado su propio sistema de símbolos. Actualmente las instrucciones sobre el manejo de máquinas y artículos de uso se facilitan, casi exclusivamente, por medio de símbolos gráficos. Carreteras, estaciones de ferrocarril, aeropuertos, exposiciones mundiales, ferias e instalaciones deportivas y también hoteles y, progresivamente, locales comerciales así como otras instituciones y edificios públicos resultan ya inimaginables sin símbolos gráficas para la orientación e información de los usuarios." (Aicher y Krampen, p.5)


Formulaciones modernas "En nuestro tiempo, junto al lenguaje hablado y escrito, los símbolos visuales y especialmente los símbolos gráficos se han convertido en medios de entendimiento indispensables. La aceleración de este desarrollo, desde principios de nuestro siglo, indica que para determinadas situaciones comunicativas, el idioma nacional y su transmisión escrita o tipográfica se sustituye progresivamente por símbolos. Esta situación se produce en todos aquellos sectores donde se pretende la superación de las barreras lingüísticas. En principio este hecho se originó a causa del tráfico internacional." (Aicher y Krampen, p.5)

"Dos lenguajes icónicos han logrado un uso algo mayor: la «semantografía» y el sistema «ISOTYPE». Ninguno está en condiciones de reemplazar las palabras ni de rivalizar con el más oscuro de los lenguajes escritos. Tampoco parecen estar en condiciones de ser adoptados como interfaz gráfica de computadores, aunque ambos ofrecen a los diseñadores ejemplos de sistemas flexibles, plenamente elaborados, de representación de conceptos por medio de símbolos visuales."(W.Horton, pp.11-12).

La semantografía La semantografía es un sistema que ha sido desarrollado por Charles Bliss y publicado en 1963. Se compone de un "alfabeto" de 100 símbolos fundamentales que se yuxtaponen o superponen para representar conceptos más ricos. Las figuras fundamentales son formas geométricas, pero también se incluyen cifras y símbolos matemáticos. (Vea su sitio web.)

Bliss detalla luego en su libro (882 páginas) la manera de combinar estas figuras para expresar ideas más complejas y más abstractas.

El ISOTYPE "ISOTYPE" es en realidad una sigla: "International System Of TYpographic Picture Education", sistema desarrollado por el profesor austríaco Otto Neurath (1882-1945) para facilitar la comprensión de información estadística. Recurre a pictogramas simplificados para acelerar el aprendizaje y la comprensión. También define un conjunto de elementos básicos que se pueden combinar.

Como señala Horton, el ISOTYPE presagia de algún modo el sistema de "íconos" de la interfaz gráfica de los computadores.

Otros ejemplos de isotipos



Alternativas Si bien los "íconos" de computadores tienen algunas veces calidad fotográfica, no caen en este caso en la categoría de los "ideogramas", por lo que no consideraremos aquí las reglas para la confección de este tipo de íconos (Aquí, el Palacio de la Moneda, de Santiago, en tamaño de 100 x 60 pixeles). Pero todo lo que indicaremos a continuación es valido para pictogramas e iconogramas utilizables tanto en interfaces de computadores como en medios impresos.

La fotografía no se reduce fácilmente al mínimo tamaño de los ideogramas, como lo mostramos al lado con una foto de la Torre Eiffel (que podría servir de ideograma para identificar a la ciudad de París). La mostramos en tres escalas: 150 pixeles de alto, 50 pixeles y 32 pixeles, sin retocar los colores ni el contraste de la fotografía original.

Podemos observar, sin embargo, que la fotografía puede ser eventualmente un buen punto de partida para el diseño del ideograma: aumentamos el contraste y, en 50 pixeles, aún se pueden observar algunos detalles, mientras en 32 pixeles hemos tenido que retocar y conservar casi exclusivamente trazos oscuros. Las posibilidades gráficas que se ofrecen para los ideogramas son esencialmente cuatro pero, como acabamos de ver, no son válidas para todos los tamaños:

El dibujo detallado (Dibujo computarizado de una máquina Caterpillar, reducido a 100 x 70 pixeles, (Fuente: NCSA).

La caricatura: al lado, un torero, en 150 pixeles y en 50 pixeles de altos. Nótese cómo la reducción de tamaño afecta el dibujo: obviamente los pictogramas más pequeños requieren mayor eliminación de detalles. (Fuente: S.M onot, "Supercliparts Vectoriels pour M ac")

El dibujo lineal o "outline" (limitado a contornos), que puede ser mucho más reducido (aquí 40 x 50 pixeles), y

La silueta, de frecuente uso en paneles de avisaje.

En todos los casos, el diseño de los ideogramas se basa en la identificación de los rasgos pertinentes (ver "Configuración" en el Cap.3), que son los que se deben poner en evidencia para lograr la finalidad primaria: asegurar el reconocimiento del objeto.



Principios básicos 1. Los ideogramas no son imágenes realistas. No pretenden representar ningún objeto en particular, al contrario: hacen abstracción de los detalles, para poder ser vistos y reconocidos al instante. Querer recargar un ideograma con detalles realistas puede hacer de él una forma irreconocible. Tampoco tienen ni necesitan cumplir una función estética, aunque siempre será preferible una forma bella: la finalidad del ideograma es esencialmente funcional y se debe dar prioridad a este objetivo.

2. El diseño de los ideogramas mantiene ciertas semejanzas con el dibujo de caricaturas: se basa en el reconocimiento de los rasgos pertinentes (ver "Composición" en Cap.3).

En consecuencia, es mucho más fácil diseñar (y reconocer) ideogramas que evocan objetos materiales que ideas abstractas.

3. Por lo tanto, para representar acciones y procesos es conveniente recurrir al diseño de los objetos implicados. Al lado, por ejemplo (vea si identifica fácilmente cada acción a pesar de que alteramos su orden): llamar por teléfono, insertar un diskete, leer, estudiar, hacer gimnasia, enseñar. Obviamente, en múltiples casos es posible dar al ideograma otra interpretación: no escapan al carácter polisémico de toda imagen y sería iluso pretender crear ideogramas totalmente unívocos. (Ver página siguiente acerca de las asociaciones de ideas).

4. No se debe olvidar que los ideogramas han de seguir la regla del orden de lectura, igual que los textos. Esta regla los afecta no sólo en su eventual secuencia, sino en su composición misma: todo objeto que sugiere un movimiento debe ser representado desplazándose hacia la derecha. Así, por ejemplo, un avión siempre se representará como en la figura 'a.', a no ser que deba incluirse en un panel de dirección de tránsito, como en 'b.' donde, por razones de coherencia, se ha de poner en una orientación que coincida con la del camino a seguir. Pero la forma 'c.' es incoherente porque la dirección de vuelo contradice la dirección que ha de seguir la persona que se dirige al aeropuerto.

A su vez, la orientación del objeto (aquí, el avión) puede referir significados diferentes, como "Salida" y "Llegada" ('d.' y 'e.').

Del mismo modo, la relación antes-después debe ir en el orden de lectura.

W.Horton señala excepciones a la regla de la dirección del movimiento: apuntar hacia la izquierda, más que señalar un regreso serviría más bien para llamar la atención sobre algo, es decir a detener el movimiento (y eventualmente la lectura).


Fíjese, en este ejemplo, en el cambio de interpretación que tiende a producir el cambio de dirección del peatón en esta señal de carretera: mientras queda muy claro en 'a.' que hay que tener precaución por un posible cruce peatonal, 'b' parece indicar que hay peatones alejándose, lo cual tiene poco sentido (tómese en cuenta que la regla internacional es que estas señales se colocan del lado derecho de la calzada, salvo en Gran Bretaña y sus ex-colonias).

La profundidad también puede influir en el significado: aquí 'a' es "enviar" y 'b' es "recibir".


Diseño basado en semejanzas Es obvio que la manera más sencilla de diseñar ideogramas consiste en observar el objeto o la acción que se pretende evocar, extraer sus rasgos icónicos relevantes y dibujarlos a una mínima escala. Utilizamos de este modo el principio de correspondencia isomórfica (equivalencia de la forma). Es lo que veíamos en los íconos de la página anterior.

En algunos casos habrá que buscar un poco más, como cuando queremos expresar un concepto más abstracto que se puede traducir en lenguaje corporal, como escribir y entregar una tarjeta.

Una cara puede expresar emociones, y es tan fácil dibujarlas que bastan unos pocos caracteres del teclado (conjuntos llamados "emoticones"), cosa popular entre los usuarios del correo electrónico y de los SMS.

Pero se puede decir más recogiendo aspectos característicos del lenguaje corporal W.Horton)...

(Ideogramas de

... o agregando algunos trazos convencionales, heredados del lenguaje"audio-cinético" de la historieta (Ejemplos: hablar, pegar).

Ante objetos de estructura compleja o que forman grandes conjuntos, recurriremos a la evocación del todo por una de sus partes. Así, unos pocos libros sugerirán una biblioteca, un fotograma una película, los cubiertos un restorán, una bomba la bencinera, etc..


Diseño basado en analogías Si el concepto no puede ser mostrado, la primera alternativa consiste en buscar un objeto que lo pueda sugerir con facilidad (analogía funcional). Las herramientas e instrumentos cumplen plenamente este objetivo. (La calculadora se muestra como signo de la función de calcular; la lupa sugiere la función de buscar; etc.). (Iconos de software)

En otras ocasiones, la analogía se basará en el producto o resultado de la acción: la bandera que crea "BannerManía", la montaña de Bryce (aplicación de diseño tridimensional de paisajes), etc...

A veces el objeto o concepto tiene algunas características asociadas que es más fácil poner en evidencia. Así, por ejemplo, los sonidos pueden dividirse en tres clases: la música (que se puede representar con un par de corcheas), el ruido (con la señal de un osciloscopio) y el habla (boca y "ondas").

Si no se puede encontrar un símbolo directo, se puede buscar algo que indique la negación de lo opuesto (figura de retórica llamada "lítote"), como la flecha quebrada de los indios Kiowa, que significa "paz", o la cadena rota que significa libertad.

(Esto es común en las señales de tránsito que indican interdicción, para lo cual se recurre el círculo rojo cruzado por un diámetro diagonal).

Cuando el objeto es demasiado pequeño o sufre una deformación ligera, difícil de apreciar, se recurre a la hipérbole, que exagera el carácter diferenciador o recurre a un concepto-objeto más llamativo, como por ejemplo una bomba para indicar un error (usado en antiguas versiones del sistema operativo Macintosh para indicar "error de sistema").


Símbolos y señales convencionales En muchos casos no es necesario inventar nuevos ideogramas, ya que muchos se encuentran ya - con su significado convencionalmente establecido - en la vida cotidiana. Sin embargo, es posible que el diseñador experto quiera crear una nueva colección, dándoles un "toque" estilístico personal, como en este ejemplo que corresponde a grandes almacenes de la antigua RDA.

En otros casos bastará con adaptar figuras clásicas del "código visual" popular ...

... o recurrir a los códigos ya establecidos por diversas disciplinas, como la arquitectura o

la cartografía (De Aicher & Krampen, "Sistemas de signos", p.94),

códigos que el grafista ha de investigar antes de realizar una creación propia.


Símbolos de la era digital

El signo @ parece tener sus orígenes en el siglo VI, cuando los monjes lo adoptaron como una mejor manera de escribir la palabra "at" o "hacia"-que era tan fácil de confundir con el AD, la designación de Anno Domini (los años después de la muerte de Cristo). Apareció en el teclado de la máquina de escribir Underwood americana en 1885 como un símbolo de taquigrafía de contabilidad que significa "a razón de". Finalmente, en 1971, el programador Raymond Tomlinson decidió insertar el símbolo entre direcciones de red informática para separar el usuario del terminal. A pesar de haber sido "inventado" muchos años antes, lo que ahora reconocemos como el puerto Ethernet fue diseñado por David Hill para IBM. Según Hill, el símbolo era parte de un conjunto de símbolos que estaban destinados a representar las diferentes conexiones locales de red. La matriz de bloques representa cada una de las computadoras / terminales. El origen del signo "Pausa" parece clásico: en la notación musical, indica la pausa (cesura). El signo "Play" aparecieó por primera vez como símbolo de avance de la cinta en las grabadoras de cintas a mediados de la década de 1960. En algunos casos, ha sido acompañado por el doble triángulo de rebobinado y avance rápido. La dirección de la flecha indicaba la dirección de avance de la cinta. Creado como parte de la especificación USB 1.0, el icono de USB se diseñó para parecerse al Tridente de Neptuno., pero en lugar de las puntas, los promotores del USB decidieron poner un triángulo, un cuadrado y un círculo, para significar todos los diferentes periféricos que se podrían unir mediante el estándar. El símbolo de Bluetooth es una combinación de dos runas que representan las iniciales del rey danés Harald Blåtand, porque el primer receptor de Bluetooth tenía una forma parecida a los dientes de Harald. Pero la interacción simbólica no termina ahí. Como señala las notas de los creadores de Bluetooth, Blåtand "jugó un papel decisivo en la unión de las facciones en guerra en partes de lo que ahora son Noruega, Suecia y Dinamarca, al igual que la tecnología Bluetooth está diseñada para permitir la colaboración entre diferentes industrias como la informática, el teléfono móvil y los mercados de automoción". Para el símbolo "Comando", que Apple quería colocar en sus teclados, la artista digital Susan Kare estudió minuciosamente un diccionario de símbolos internacionales y escogió un símbolo floral que, en Suecia, indicaba un atractivo digno de mención en un camping. Es también conocido como el bucle de Gorgon, o bucle infinito, y, en el estándar Unicode, representa una "señal de lugar de interés". Se ha mantenido como uno de los pilares de los teclados de Apple hasta ahora. En 1973, la Comisión Electrotécnica Internacional codificó un círculo roto con una línea dentro de él como "el estado de energía de reserva". El Instituto de Ingenieros Eléctricos y Electrónicos, sin embargo, decidió que era demasiado vago, y alteró la definición para significar simplemente el poder. Emoticonos Los emoticonos nacieron como una secuencia de caracteres ASCII querepresentaba una cara humana y expresaba una emoción, por ejemplo :-) . Los primeros aparecieron 1881 en la revista satírica estadounidense Puck. La secuencia de caracteres :-) fue propuesta en 1982 por el científico del cómputo estadounidense Scott Fahlman. Los conocidos emoticonos o emojis que estamos tan acostumbrados a utilizar a través de nuestros ‘smartphones’ llegan ahora a la


versión web de Twitter. El servicio de ‘microblogging’ permite, gracias a su actualización, ver estos simpáticos dibujos a través del ordenador.

Una de las medidas más populares tomadas por Apple fue la inclusión de un teclado de "emojis" en la versión de iOS, lanzada en 2012. La compañía por fin permitía el uso de los populares emoticones japoneses de forma nativa, sin tener que instalar aplicaciones de terceros.

Ahora, a menos de dos años de ese lanzamiento, parece que Apple se está volviendo un jugador clave en el mundo de los emojis, ya que según publicó MTV Act, la compañía estaría trabajando para renovar el sistema, incluyendo íconos más diversos culturalmente. (Noticiasdot.com, 26/03/2014) Y estos son solo algunos de los numerosos emoticones que ofrece Gmail para su correo electrónico.



Diseño de ideogramas ("iconos" digitales) La multiplicación de "apps" para equipos móviles hace conveniente revisar algunos consejos para un adecuado diseño de íconos. El responsable del blog oficial de desarrolladores de la plataforma Android, Roman Nurik, da algunas claves sobre cómo crear iconos "perfectos" para ésta.

Evitar las formas demasiado sencillas (redondas o cuadradas) y optar por formas complejas que le den una silueta única a sus creaciones. Efecto tridimensional: que una ligera perspectiva de una sensación de profundidad, con una ligera sombra. Complejidad: incluir efectos de bordes, degradados o texturas.* * Este último punto es contestado por otros diseñadores, incluso por el Director de arte de Google, Christopher Betting, que publicó otra serie de recomendaciones visuales sobre cómo deben diseñarse los productos de la compañía.




Expresar relaciones No es fácil mostrar relaciones en las exigüas dimensiones de un ideograma (La dimensión más común de un ícono de computador es de 32x32 pixeles, pero los hay frecuentemente más pequeños en las barras de herramientas: aquí la barra de "xRes 2").

Sin embargo, se pueden aplicar las reglas de la teoría de la forma (ver Cap.3), en particular las de asociación por semejanza o por proximidad. El uso de flechas puede ayudar a precisar el sentido.

Las relaciones también están presentes cuando es necesario reunir varios ideogramas, como en un menú gráfico. En este caso es importante colocar juntos los íconos relacionados y hacer resaltar las diferencias mediante un cambio de color o de estilo (Ejemplos de W.Horton; vea también cómo se agruparon los íconos según las funciones en la barra de xRes, arriba).


Destacar o enfatizar En diversas oportunidades el elemento que se requiere poner en evidencia necesita de su entorno visual para ser reconocido, pero en este caso se hace imposible conservar las proporciones normales, ya que el elemento a destacar podría confundirse en el conjunto. Este problema puede resolverse de diversas maneras:

aplicándole un color o contraste que lo destaque, aumentando su tamaño, llamando la atención mediante líneas diagonales o quebradas, agregando una flecha o una mano apuntando, colocándolo en primer plano (tapando parcialmente los otros), usando una forma notoriamente diferente de las otras, encerrando el elemento en un círculo o rectángulo (preferentemente de otro color), destacándolo por su posición. En cada caso deberá juzgarse cual es la solución más apropiada para transmitir el significado deseado.


10. Infografía Introducción El objetivo de la infografía consiste en aprovechar estas características para transmitir visualmente, en una unidad de tiempo mínima, un máximo de información útil. Como lo señala J.Costa a propósito de los esquemas gráficos, el objetivo de la infografía "supone una capacidad de abstracción, de síntesis. De la mayor eficacia informacional con el menor número posible de elementos. De la máxima claridad y de transferencia unívoca de conocimientos." ("La esquemática", p.128). ¿Cómo saber si la cantidad de elementos está dentro de un rango que facilita la percepción y memorización? Para ello, podemos remitirnos a la "regla del 7 +o- 2 de George Miller y tratar de descubrir cómo aplicarla aquí. En una exposición de 1956 sobre investigaciones en inteligencia artificial, George Miller expuso que, de acuerdo a sus estudios, se ha de considerar como base el "instante de percepción", que corresponde -por ejemplo- al tiempo requerido para ver el cuadro con la manzana, de aquí arriba, y reconocer su contenido (significado). Llamó "chunk" (trozo) a la cantidad total de información recogida en un "instante de percepción", capaz de ser recibida a la vez en la memoria inmediata. Pero lo más importante aquí es saber que - según las investigaciones de Miller - un "chunk" se compone de un máximo de 7 +o- 2 componentes: 7 cifras +o- 2 (un número telefónico); 7 palabras +o-2 (de una misma frase)... O sea que el componente del chunk no es estrictamente formal sino una forma a la cual corresponde una unidad de significado (un concepto, un nombre, una idea). En materia icónica, esto significa que sólo puede haber 7 +o- 2 componentes significativos en el marco de una ilustración infográfica si queremos realmente explotar toda su potencia informativa sin exceder la capacidad de recordación del receptor en un instante dado. Si bien nadie nos obliga a limitarnos de este modo (y la prensa ha publicado muchos cuadros infográficos hiper-saturados -o sea que superan la capacidad de la memoria de corto plazo-), la preocupación por respetar esta limitación ha de corresponder al deseo de informar mejor y más sintéticamente todas las veces que sea posible. Una solución es usar varias viñetas -como varios iconos- en un marco mayor, como en el ejemplo que sigue (aunque, en éste, se puede considerar que hay un exceso de texto): 2 veces 7 +o- 2 ... es mejor que 14 +o- 4.


De lo anterior se desprende también que resulta mucho mejor hacer dos pequeños cuadros con 7+o- 2 componentes que uno grande con muchos componentes. El receptor captará con facilidad y rapidez, en forma secuencial, la información de dos (o más) cuadros simples, mientras le costará tiempo y trabajo decodificar un sólo cuadro recargado de información. Pero ¿cuáles son los componentes que hay que tomar en cuenta? Obviamente los RASGOS PERTINENTES, a nivel de figura y eventualmente de factores de los grafemas si se utilizan éstos para efectuar distinciones. Categorías generales de infográficos Los infográfico s ("IG's") pueden ser agrupados en tres grandes categorías de acuerdo a sus objetivos: IG's científicos o técnicos Son los que encontramos en los textos científicos o manuales técnicos. Tienen siglos de tradición, basados en la simple asociación e integración de dibujo y texto. Vea el artículo de J.M. de Pablos: "Siempre ha habido infografía". IG's de divulgación La transmisión del conocimiento científico y técnico hacia el gran público ha tenido que recurrir frecuentemente a la imagen para facilitar su aprehensión. Es así como las enciclopedias y los manuales escolares han incluído progresivamente representaciones verbo-icónicas para complementar el texto. En la segunda mitad del Siglo XX, gracias al avance en las técnicas de impresión, las revistas de divulgación científica tanto de alto nivel (como "Scientific American" o "La Recherche") como las más populares ("Muy Interesante", "Conozca Más", etc.) han hecho un significativo aporte en este campo mediante el mejoramiento de las técnicas de diseño gráfico y el desarrollo de la cultura de los lectores. (Incluiremos en esta misma categoría los IG's de uso empresarial (en informes de actividades, catálogos, etc.)


IG's noticiosos o periodísticos Si bien los IG's han estado presente ocasionalmente en la prensa desde 1806 (o, incluso, desde 1740, según G.Peltzer), se ha de reconocer que se desarrolló principalmente a partir de los años ochenta, en los Estados Unidos (Associated Press lanzó su servicio de IG's en 1986, poco después de KRTN) y -quizás más tímidamente- en Europa, mientras la "Guerra del Golfo" (1991) fue, al parecer, el principal detonante de su inserción en los periódicos latinoamericanos. En la prensa, el principal aporte de los IG's viene a ser, a nuestro juicio, la posibilidad no sólo de ayudar a visualizar lo ocurrido o descrito, sino a incluir información secuencial, representando en un medio fijo acontecimientos que se han desarrollado en el tiempo, tal como lo hacen -pero en un número mucho mayor de cuadros ("viñetas") las historietas.


Selección del contenido de un infográfico Aunque el objetivo de la infografía consiste en presentar la información en forma sintética, cosa que la imagen facilita enormemente, es evidente que ciertos elementos informativos no son graficables y que el lenguaje verbal resulta imprescindible para asegurar una correcta interpretación.

¿;Qué expresar en lenguaje icónico y qué en lenguaje verbal? Esto es lo que debemos tratar de resolver ahora. Distinguiremos diversos tipos de casos, para los cuales intentaremos fijar una guía de trabajo: Acontecimientos Procesos Sistemas Objetos Información Periodística Acontecimientos La información periodística sobre un determinado acontecimiento ha de incluir diversos componentes para cada uno de los cuales indicamos los códigos utilizables:

El asterisco (*) indica una obligación: la fecha y el lugar siempre deben ser nombrados. Generalmente, en los periódicos, aparecen en el texto adjunto o se supone que remiten a acontecimientos del día anterior: estimamos que ésta es una imprecisión que sería muy fácil corregir. En lo visual, el lugar podrá ser representado por un mapa o un dibujo, mientras en lo verbal se indicará su nombre (ciudad o comuna, nombre del edificio...) Los protagonistas se representarán generalmente en los 2 códigos (recurriendo habitualmente a algún pictograma, en lo visual). Aunque todo puede ser verbalizado, ha de recordarse que el texto no ha de ser necesariamente una oración o un párrafo gramaticalmente correcto: pueden ser palabras insertadas en el icono, ya que su función es aportar mayor precisión y asegurar una correcta interpretación. No es una buena infografía la que describe todo verbalmente y anexa al texto una ilustración, a modo de comentario del mismo.

Un buen ejemplo:


Procesos Un proceso consiste en una secuencia de acciones o acontecimientos. El desarrollo temporal puede ser fรกcilmente expresado graficando los momentos claves (etapas) del proceso. Para ello vale lo dicho acerca de los acontecimientos, teniendo en cuenta que la secuencia temporal supone y admite la presencia repetida de iconemas representando las personas u objetos involucrados, mientras no es necesario repetirlos en lo verbal. Se deben poner claramente en evidencia los detalles que diferencian las diferentes etapas e ilustrar solamente los "momentos" realmente significativos (como en los ejemplos anexos). La clave, entonces, reside en determinar estos "momentos" e ilustrar claramente su secuencia y las diferencias entre ellos.


Sistemas Para nuestros efectos, condideramos aquí un sistema como un conjunto de elementos relacionados entre sí. Lo que importa es la clara identificación de los componentes y de las relaciones. En este sentido la representación gráfica es justamente una de las formas más importantes de descripción de sistemas. Pero los gráficos geométricos ("cajas") del "análisis de sistemas" pueden ser más expresivos y más accesibles a legos si se reemplazan o complementan las figuras geométricas por pictogramas.

Objetos Muchas disciplinas científicas recurren al lenguaje icónico para registrar y exponer los conocimientos. Necesitan, por cierto, variados "niveles de iconicidad" y es recomendable recordar que no siempre es útil el mayor nivel de abstracción (como los gráficos vectoriales en física, por ejemplo), sobre todo si se desea realizar una labor de divulgación científica. Es sobretodo en este caso que la infografía puede hacer un aporte significativo. Pensemos en la posibilidad de representar las etapas de un experimento (como en una historieta) o de mostrar ampliaciones sucesivas de secciones de un órgano (ejemplo adjunto). Aquí vale evidentemente la advertencia de Arnheim: es el conocimiento del científico el que debe determinar cuales son los rasgos pertinentes que deben aparecer en el icono.



Sintaxis 1. Selección de rasgos pertinentes El primer y más importante procedimiento es el de la simplificación mediante supresión de los rasgos no pertinentes. La simplificación se obtiene buscando las propiedades estructurales y eliminando las características complementarias, de acuerdo a la definición de Arnheim. El problema mayor que se plantea aquí es si podemos o no conservar la configuración, simplificando los iconemas. Para conservarla, sólo existe una vía posible: transformar el icono exhaustivo en icono de tipo caricatural, simplificando cada iconema pero respetando las proporciones y la composición (disposición y uso del espacio), tal como se ha hecho -por ejemplo- para representar los deportes olímpicos. De este modo, se pierde un grado de especificidad, reemplazándose el conjunto de rasgos individualizadores -que permiten eventualmente reconocer y nombrar un referente preciso (por ejemplo el retrato de tal persona) - por rasgos pertinentes que solo permiten reconocer la clase de objetos representada ("una cara"). Pero se conserva aún la proporción y la posición relativa en cada icono, o sea permanece la configuración. En el ejemplo que sigue hay una buena reducción a los rasgos pertinentes, pero hay un error de coherencia entre el orden normal de lectura y el orden de los hechos: se debió dibujar la pista desde el ángulo de visión opuesto, para que las etapas (1, 2, 3, 4) se leyeran de izquierda a derecha (No había dificultad alguna en ello).

El buen CONOCIMIENTO del objeto es, por lo tanto, importante a la hora de seleccionar los rasgos para simplicar el icono. Otros conocimientos también serán importantes si se desea componer un icono mediante yuxtaposición de iconemas, como el de las reglas de percepción y de lectura. 2. Definición de unidades de información Mientras aislada, la forma de una figura será probablemente el único factor significativo, en cambio en el caso de una yuxtaposición los demás factores (tamaño, valor...) de sus grafemas pueden cobrar relevancia. En los casos más simples, las 6 variables constitutivas NO representan 6 componentes de un "chunk" de información sino uno sólo. Así ocurre, por ejemplo, con el icono de la "Puerta del Sol" ("botón" de arriba a la derecha, que remite a la ficha inicial "Home"): la figura es perfectamente unitaria y, en realidad, solo su forma importa. Nadie analizaría sus otros "factores", ya que no son relevantes


aquí. Pero podrían ser relevantes en otro contexto, donde haya yuxtaposición.

Variables relevantes

Dada una misma forma, otras variables gráficas cobran relevancia si son utilizadas para fines de diferenciación. Así, por ejemplo, podemos ilustrar el crecimiento de la población de un país utilizando figuras de forma única pero tamaño variable:

Para tres momentos del tiempo, se han dibujado 3 iconemas, para los cuales la forma cuenta una sola vez: 1 forma + 3 tamaños = 4 unidades básicas en el chunk de percepción icónica. (&161;Y podemos agregar aún de 3 a 5 unidades!)

Mensaje mixto

En el ejemplo recién elegido, resulta evidente que, para comunicar el mensaje, es necesario agregar algunas figuras (por ejemplo 2 ejes), lo cual podría conducir al aspecto que muestra el botón de ilustración.

Los 2 ejes (y las guías horizontales correspondientes a las cantidades) componen 1 iconema y 1 unidad más del chunk, que ponen en evidencia el concepto de crecimiento y la idea de una proporción. Esto es todo lo que podemos hacer con recursos icónicos. Más información requiere texto (para precisar y completar la interpretación), pero ello implica crear un mensaje mixto (verbo-icónico) y genera varios chunks en vez de uno solo. La introducción del texto implica pasar de un nivel de lectura sintético (percepción-interpretación en 1 chunk) a un nivel más analítico (mayor cantidad de chunks, por mayor cantidad de información).

Se obtiene aquí agregando primero el significado de los ejes, dado por las palabras "Millones" y "Años". Con ello se agregan 2 chunks, dejando perfectamente claro cómo debe inter- pretarse el icono: crecimiento anual de la población. Precisamos más la información agregando las cantidades y años, datos que provendrían de una tabla estadística. (En otras páginas mostramos otros desarrollos y estilos de tratamiento). Mensaje periodístico

Una infografía periodística es siempre un mensaje mixto ya que contiene siempre elementos que sólo las palabras pueden precisar. También implica generalmente sumar varios chunks de información. Sin embargo si bien muchas veces no es posible respetar la regla del 7 +-2, siempre se debe tener presente el principio de economía: economía de espacio y economía de datos. Esto implica siempre ser lo más claro y preciso posible, eligiendo lo esencial de la noticia, por lo cual la infografía debe parecerse a un buen "lead". (Vea a continuación cómo se puede "simplificar"...) 3. Simplificación de iconos compuestos Resulta muchas veces poco eficaz mantener inalterable la configuración icónica (y las proporciones reales) si pretendemos lograr un verdadero mecanismo informativo sintético. Separar los iconemas cuando hay yuxtaposición y tratarlos por separado resulta muchas vez más claro y expresivo. Esto obliga algunas veces a pasar por alto la configuración, considerando los iconemas uno por uno. (Ver


ejemplo anexo). Como dice también Arnheim "Hay una polaridad entre la multiplicidad de lo real y la sencillez de forma: apartarse de uno de esos polos significa aproximarse al otro". Concentrar información en forma gráfica implica buscar formas sencillas, según el mismo principio general de simplificación visual, que tiende a "desnudar lo esencial". Deben entonces simplificarse tanto el icono como los iconemas, pero la operación no puede realizarse con prescindencia del significado general del icono completo. Hay que recordar que los rasgos pertinentes son tales en cuanto representan características estructurales de los referentes, los cuales deben conocerse para una adecuada selección.

Como ejemplo, pensemos en la representación de un puerto: se identifica generalmente al reconocer -juntos- un barco (o varios), un muelle o embarcadero y una grúa.

Es posible, por lo tanto, introducir un factor sintáctico que permite unir un número reducido de pictogramas, respetando -en mayor o menor grado- el isomorfismo de la estructura espacial (entre icono y referentes). El producto será el icono infográfico, que no pretende identificar directamente referentes (el barco o la grúa, por ejemplo) sino conceptos, más abstractos. Otra alternativa consiste en dividir el marco en dos o más áreas de representación, mútuamente complementarias y cada una formando una unidad desde el punto de vista del significado (dos o más ideas que se complementan mútuamente para entregar toda la información.) Formalmente se puede recurrir a varias viñetas (marcos menores dentro del marco mayor), a una superposición (por ejemplo un mapa agrandado de una zona menor sobre el mapa de la zona mayor) o a zonas adjuntas como en el ejemplo anexo. Una excelente reducción a los rasgos pertinentes se puede observar en los siguientes dibujos producidos por el departamento de infografía del diario español "El País", acerca de las medidas de seguridad en el transporte aéreo (Septiembre 2001).



Infografía dinámica La infografía que todos conocemos por su presencia en la prensa prefigura una nueva forma de "escritura" icónica, que P.Lévy llama "ideografía dinámica", la cual ha aparecido en juegos computarizados (especialmente los de estrategia) y está poco a poco apareciendo en medios audio-visuales (televisión) y en la Web, donde -en general- se debe hablar más bien de infografía dinámica. La forma más simple -y que encontramos más a menudo, como en los cuadros y mapas "interactivos" de la CNN en Internet (http://cnn.com)- consiste en señalar distintas áreas del gráfico-base y, para no recargar éste, asociarles texto complementario, visible a voluntad. Es lo que podemos ver en el infográfico adjunto, tomado de la CNN (lo hemos "bloqueado" y copiado después de activar el triángulo que corresponde a Serbia).

Se puede observar en este ejemplo un problema de diagramación que no había sido resuelto por la CNN: al abrir la página a tamaño normal, el campo de texto y el mapa no podían ser vistos enteros al mismo tiempo (salvo si se disponía de un monitor con pantalla vertical o con una definición horizontal superior a 1000 pixeles).

La técnica que vemos aquí -y usada frecuentemente en algunos periódicos en Internet - corresponde al uso de "javascripts" (un complemento del lenguaje "HTML" que sirve para crear las páginas de web) para la inserción dinámica de comentarios en infogramas cuya parte pictórica es estática: el texto cambia según el lugar de la imagen al que se apunta con un "clic". La técnica ha avanzado y es común que el texto se visualice hoy encima del gráfico y no al lado o debajo, como ocurría hace algunos años (vea más abajo). (Lamentablemente es imposible publicar una versión completa de un infográfico de este tipo)

En estos casos, no es el infografista el que preparó los elementos dinámicos: el texto (preparado por el periodista) ha tenido que ser introducido junto con comandos (funciones) propios del lenguaje Javascript por un programador, lo cual es evidentemente más complejo y requiere el apoyo de personal capacitado. El Javascript no sólo permite "dinamizar" el texto, sino también crear "capas"


de ilustraciones que aparezcan y desaparezcan.

Este tipo de infografía -llamado de "texto escamoteado"- tiene especial importancia para la transmisión de conocimientos, por cuanto ha sido demostrado (investigaciones del TECFA, Universidad de Ginebra; A.Bisseret en Grenoble, y otros) que el formato "escamoteable" da mejores resultados de memorización que otras alternativas de combinación de imagen y texto. Para ello se pueden anotar tres argumentos: 1. el texto escondido permite mejorar la legibilidad de la imagen, 2. permite recalcar una fuente de información y jerarquizar el estudio del documento, y 3. hace del documento un medio interactivo, lo cual mejora la motivación y el rendimiento del usuario. En el primer ejemplo que sigue se puede ver un ejemplo de lo que NO debería hacerse y en el segundo un ejemplo de una solución intermedia (la típica de los "macrográficos" impresos), que podría ser válida en hipermedios si hubiese poco texto pero que ya no lo es al haber mucho y se vería mucho mejor en un hipermedio recurriendo al texto escamoteable.

1

2

M egagráfico de Jaime Serra, un extraordinario infografista español

Otra posibilidad es la "dinamización" de la imagen misma lo cual ha sido posible utilizando el "GIF animado" o la aplicación "Flash", que funcionan como en una película de animación, montando una imagen sobre otra (gif) o una tras otra (flash). El Gif no reemplaza necesariamente todo el cuadro sino sólo las partes que se modifican, lo cual permite una gran economía de bytes. La velocidad y el número de reiteraciones pueden ser definidos por el realizador, pero el lector no puede intervenir.


Por mucho tiempo la solución más plenamente interactiva fue dada por la tecnología "Flash", que requiere que el "plug-in" adecuado sea agregado al navegador del cliente (pero tiende a ser abandonado con el desarrollo del HTML5). Este recurso se usó en la infografía periodística en diarios como EL Mundo y El País, de España, y el mejor ejemplo de que disponíamos al preparar la primera versión de este texto era la secuencia Flash que el diario El País confeccionó para explicar el accidente del Concorde (24 de julio 2000). Obviamos, no podemos incluir aquí la animación.

La técnica actual (con JavaScript y HTML5) facilita aún más la publicación de gráficos interactivos. Así, la compañía de seguridad Kasperski publicó una página interactiva sobre "La ciberguerra en el mundo en tiempo real", de donde sacamos esta vista activando los datos relativos a España (28/08/2014).

Animación de ideogramas Otra alternativa consiste en el uso de símbolos gráficos (ideogramas) animados. Esto conduce a otro tipo de animación, cuyos ejemplos más conocidos hasta ahora son los que muestran las trayectorias de los satélites y sondas espaciales, así como los mapas meteorológicos que exhiben diariamente algunos canales de televisión.


Campos de Aplicación Los principales campos de aplicación de la infografía son: Los manuales de instrucciones Los informes de empresas La infografía pedagógica La infografía científica La infografía periodística La infografía publicitaria Los manuales de instrucciones La gran cantidad de aparatos que han invadido nuestra vida cotidiana en el siglo XX, así como el desarrollo de "hobbies" o pasatiempos que requieren cuidadosos procesos han dado origen también a numerosos folletos que informan acerca de las operaciones a realizar y, eventualmente, las partes del aparato y los cuidados que requiere. Se espera evidentemente de ellos que el usuario capte con facilidad el significado (como aquí a la izquierda). Desgraciadamente, como señala Joan Costa en su libro sobre "La esquemática", la mayoría de estas publicaciones nos llegan solamente después de haber adquirido el aparato (o los componentes a armar) y sólo entonces nos damos cuenta del poco cuidado con que han sido realizado. Con ello, como dice Costa "muchos fabricantes no calculan en términos de pérdidas y ganancias: tal vez piensan haber ganado un comprador, pero han perdido un cliente y han perdido la imagen." (p.186).

No nos detendremos aquí sobre la diagramación del texto y la forma en que se incluyen (y, a veces, mezclan) múltiples idiomas (muchas veces pésimamente traducidos), aspectos que -aunque escapan al ámbito de este curso- tienen la mayor importancia. Pero no faltan los ejemplos de mal diseño infográfico. Abajo, izquierda: Montaje de un ventilador de torre (¡reproducido a tamaño real!) (Airolite) Derecha: cargadores de baterías (¿Qué significan los detalles aumentados en la parte superior?¡No hay explicación!) (Black&Decker)

Pero mejor fijémonos en algunos buenos ejemplos: ¿Quién habrá pensado en la utilidad de indicar cómo lubricar una corchetera? (tamaño real 18x25cm.)


Instrucciones para el cambio de hoja y el correcto uso de una sierra eléctrica (Hay en realidad 3 páginas tamaño carta y 13 ilustraciones, siendo todas fotografías, salvo parte de la primera como se puede ver aquí. ¡Pero el texto viene solamente en inglés... para Sudamérica!). Vea especialmente la conveniencia de las Fig.11 y 12, que digitalizamos aparte. (Black&Decker)

Quiénes más se preocupan de la fácil comprensión de sus instrucciones de seguridad (a pesar de que pocos pasajeros las hojean) son sin duda las compañías aéreas. Sus cartolas con la indicación de las salidas de emergencia y el modo de usar el chaleco salvavida son sin duda producto de un cuidadoso estudio (que hace generalmente innecesario el texto).


La infografía pedagógica Pero ya en los diarios podemos observar, a veces, instructivos parecidos, que cumplen mas bien una función pedagógica. Obviamente se se encuentran también en manuales destinados a la enseñanza de diversas materias, donde, por otra parte, también aparecen infográficos idénticos a los de las enciclopedias (los que cumplen generalmente las mismas funciones).

(El M ercurio))

Los informes de actividades o resultados de empresas e instituciones Muchas empresas e instituciones acostumbran publicar anualmente informes acerca de sus operaciones. Éstos contienen generalmente fotografías de instalaciones o productos así como estadígrafos de producción, ventas o beneficios. Ocasionalmente pueden contener infográficos, aunque -al parecer- es poco común, ya que no hemos encontrado ejemplos como para reproducir aquí. Sirva esta observación para que se tome más en cuenta esta posibilidad como medio de información empresarial. (Izquierda: Informe LanChile).


Tipología Distinguiremos 8 tipos o estilos de infográficos: 1. 2. 3. 4. 5. 6. 7. 8.

Diagrama infográfico Infográfico iluminista Info-mapa Infográficos de 1º nivel Infográficos de 2º nivel Secuencias espacio-temporales Infográficos mixtos Megagráficos

1. Diagrama infográfico El resultado del reemplazo de barras de histogramas -como visto antes- por pictogramas, aunque tiene el mismo contenido informativo que una tabla estadística, es obviamente mucho más "sugestivo": más fácil y rápido de captar y de memorizar, cumpliendo el objetivo de la infografía. Permite incluso ahorrar un título (aunque no se acostumbra tal ahorro), lo cual no sería factible en caso de usar un estadígrafo (diagrama) tradicional dado que éste es aún más abstracto (vea el ejemplo). He aquí una de las ventajas de combinar códigos: diagrama + pictograma o iconema pictórico. Este tipo de combinación es el más importante que nos ofrece la infografía. El diagrama infográfico es el primero y el más elemental de los tipos de infográficos.


2. Infográfico iluminista

Entre los infográficos que publica la prensa, podemos encontrar ejemplos en que el texto sigue siendo el más importante, acompañado de pictogramas o iconemas que lo ilustran. Se han de considerar como infográfico -aunque irregulares (por no decir malos)- por su aspecto general: unidad visual determinada por un marco rectangular, en que hay contenidos verbales e icónicos, pero el texto no sigue los principios de secuencia discursiva única. Proponemos llamarlos "iluministas", por referencia al estilo de los manuscritos de la Alta Edad Media que incluían ilustraciones dentro del texto, sea mediante recuadros sea utilizando la forma o el fondo de alguna letra inicial. 3. Info-mapa Los mapas económicos (producciones locales, industrias, etc) y temáticos (turismo, etc) aparecen como otra fuente de la infografía, ya que también introdujeron -desde hace tiempo- la combinación de iconemas (mapa propiamente tal y pictogramas) con texto. Hay infográficos de hoy que son una mera aplicación de la técnica cartográfica: usan el mapa, seleccionan los pictogramas que vienen al caso y agregan el texto mínimo necesario para la correcta interpretación.

4. Infográficos de 1º Nivel Los anteriores infográficos requieren habitualmente que les acompañe un texto fuera de su propio marco, sea como "pie de foto" sea como nota periodística. El diseño de infográfico va hoy más allá: permite que el "pie de foto" entre dentro del marco icónico, transformándose en lo que debemos llamar "texto de anclaje". Así, una buena construcción verbo-icónica reemplaza el "lead" verbal. Con esta modificación estilística queda conformado el modelo más completo del infográfico, que podemos llamar de "1º nivel". Se compone básicamente de: título, texto de anclaje e ilustración (que puede contener palabras identificadoras, como en los mapas, y contener recuadros).


Su característica principal es que el texto permanece fuera de los iconemos que conforman la ilustración (Ésto es importante, como diferenciación con los IG de "2º Nivel" que presentamos en la siguiente página).

Aquí mostramos dos ejemplos diferentes de este tipo.


5. Infográficos de 2º nivel Podemos construir un icono en el cual el texto se transforma en una parte dinámica del infográfico, tal como ocurre en las historietas (con "globos virtuales", lo cual explicamos más adelante). Esto hace innecesario un texto periodístico explicativo separado en que se relata el acontecimiento o se adjuntan descripciones. Es lo que propongo llamar "Infográfico de 2º nivel". Vemos aparecer este tipo de construcción en 1991 en cuadros de la Agencia Reuters. "El Mercurio" de Santiago adoptó rápidamente este estilo, y los otros medios chilenos lo siguieron, aunque siempre encontraremos infográficos de los diversos tipos. Hay diferentes maneras de integrar el texto: superpuestos a los iconemas o en espacios libres, con o sin globos (como en las historietas), etc. pero hay que recordar que en el tipo "1r Nivel" el texto se mantiene completamente en los márgenes, sean éstos rectos o no. [Ejemplo: fuente Reuters]

6. Secuencias espacio-temporales Podemos seguir el desarrollo de un acontecimiento que transcurre en el tiempo, mostrando las diversas etapas del mismo en un sólo


gráfico, haciendo de la secuencia espacial una forma de representación de la secuencia temporal. [Ejemplo: fuente El Mercurio]

7. Infográficos mixtos Dado que es posible dividir un infográfico en mútiples viñetas, es lógico que éstas puedan recurrir a gráficos de diversos tipos, dando origen a múltiples cmbinaciones posibles, como las que siguen. [Ejemplo: fuente Reuters]


8. Megagráficos A los modelos anteriores hemos de añadir finalmente el caso de cuadros infográficos más complejos, con abundante información, que no respetan las reglas de simplificación y economía de espacio: al contrario, se adueñan de la totalidad de una página (o una doble página, en el caso de revistas) para acumular la mayor cantidad posible de información.


Estos "mega-cuadros" pretenden resumir un conjunto de informaciones acerca de una secuencia histórica, un proceso o una situación dada. En el campo periodístico, se usan en forma mucho menos frecuente y son más típicos, en principio, de los cuerpos de reportaje o de las revistas de divulgación científica, ya que son más acorde con el estilo periodístico de éstos. [ Ejemplo: "Paranal": primer megagráfico publicado en "El Mercurio" de Santiago de Chile ] Nota: IG dinámicos Los nuevos medios "on-line", gracias a su tecnología, han introducido otros formatos que sólo funcionan en éstos y que son esencialmente de dos tipos: las animaciones (que funcionan sin intervención del lector) y los gráficos interactivos (que operan en base a ésta), de los cuales hemos hablado anteriormente. (Esta tipología ha sido publicada en la Revista Latina de Comunicación Social, nº58, julio-diciembre 2004.)


Síntesis Los puntos de partida del desarrollo de la infografía son por lo tanto tres: los estadígrafos, la cartografía y la historieta. Los dos primeros modos dan origen a los diagramas infográficos y a los info-mapas, que son de algún modo "pre-infográficos". Una mayor elaboración de los mismos, con inclusión de todo el texto necesario para el conocimiento de la información da origen al "infográfico de 1º nivel", que es el modelo más típico. El infográfico "iluminista" -en que el texto es de tal importancia que podría ser suficiente sin ilustración- constituye un "protoinfográfico". El uso de recursos inspirados en el lenguaje de la historieta (globos y códigos picto-cinético o audio-pictóricos) introduce a un "2º nivel". Esto también puede ser expresado gráficamente:

En resumen, podemos definir un infográfico como una unidad espacial en la cual se utiliza una combinacion (mezcla) de codigos iconicos y verbales para entregar una informacion amplia y precisa, para la cual un discurso verbal resultaria mas complejo y requeriria mas espacio. Se diferencia esencialmente de los códigos verbo-icónicos tradicionales (como la cartografía) por la mezcla de códigos icónicos (pictogramas, señales, etc.) y la inclusión y el tratamiento de textos de manera parecida a las historietas. Se produce en cierto modo una fusión de los tipos verbales e icónicos de discursos y no solo yuxtaposición de componentes.


11. La creación gráfica digital Introducción Una imagen, dice el adagio, vale más que 1.000 palabras. Y en el mundo de la ciencia, un diagrama puede describir conceptos que trascienden a la palabra escrita. El diagrama del Sistema Solar de Copérnico transformó nuestra visión del lugar que ocupamos en el Universo. Los diagramas ópticos de Newton transformaron la luz en geometría. Así, uno de los usos más poderosos de los diagramas ha sido la visualización de datos científicos. Pero la informática también permite utilizar la geometría para diseñar nuevos objetos y hasta personas ficticias. En éste y los siguientes capítulos repasaremos estos importantes aportes.

La primera "imagen" producida en una pantalla a partir de un computador ha sido la que corresponde al sistema de defensa aérea SAGE de los Estados Unidos, que operó entre 1949 y 1958. Un radar seguía la trayectoria de los aviones, mientras el computador analizaba los resultados y mostraba la posición del avión en un monitor.

En 1960, General Motors lanzó el primer sistema para el diseño de prototipos de automóviles. En el mismo año, en el MIT, J.E. Sutherland puso a punto un software del mismo tipo. Estos sistemas permitían una visualización gráfica interactiva, pudiendo manipular el usuario toda la imagen o parte de ella: efectuar traslaciones, rotaciones, cambios de escala. En 1963 apareció el primer programa de diseño en tres dimensiones. En 1965 un software de los laboratorios Bell permitió suprimirlas partes ocultas en la visualización de esos objetos. Éste es el origen de los sistemas de diseño por computador o "CAD" (computer-aided design).

La gráfica requiere ingentes cantidades de memoria y velocidad de proceso, por lo cual quedó limitada, durante muchos años, a computadores de alto poder y costo y a tareas que sólo algunas industrias podían financiar. La "visualización industrial", origen de los sistemas de diseño por computador o "CAD", además, permitía dirigir los procesos de fabricación correspondientes ("CAM": computeraided manufacturing). Los sistemas CAD-CAM son los que han tenido el mayor crecimiento en los últimos 20 años. El CAD ha pasado rápidamente del diseño estrictamente industrial al diseño arquitectónico y es muy usado hoy por los arquitectos. De modo parecido se han desarrollado aplicaciones especializadas para la confección de mapas geográficos y el modelamiento molecular.

Los computadores reemplazaron el dibujo sobre transparencias en la animación cinematográfica (como en "ToyStory", al lado), la que se está dividiendo en dos corrientes: la de los dibujos animados (2D) y la de la realidad virtual (3D), gracias al desarrollo de diversas aplicaciones de diseño tridimensional hoy familiares para los diseñadores gráficos. Con el aumento de velocidad de los procesadores, el abaratamiento y el aumento de capacidad de los chips de memoria, el procesamiento gráfico ha podido llegar a los equipos de escritorio e incluso a microsistemas orientados exclusivamente al juego (playstations).

Películas como la serie sobre "La Guerra de las Galaxias" incluyeron numerosos ambientes artificiales y efectos especiales producto de la gráfica digital. Algunas incluso -como "Tron" y "Toy Story"- son casi integralmente productos de la computación, mientras otras -como "El Hombre del Jardín", "Matrix" y "Avatar"- ilustran las posibilidades de creación computacional de mundos reales o ficticios, o la mezcla de ambos. "Tron" ha sido la primera película en combinar personajes humanos con realidad virtual, en 1982 (foto de la


izquierda).


Sistemas creativos Son básicamente tres los métodos utilizados en microcomputadores para generar y manipular gráficos: gráficos por bloques gráficos por líneas (vectoriales) gráficos por pixeles (bit maps) En todos los casos, se exhibe la imagen en una pantalla que es un tubo catódico en que un rayo luminoso activa puntos sensibles de la superficie de la pantalla, como ocurre en un televisor, aunque el orden en que se iluminan estos puntos puede variar, según la técnica utilizada. La principal diferencia entre los tres métodos aludidos reside en el tamaño del más pequeño conjunto de puntos de pantalla al cual el programador puede acceder. La gráfica por bloques En los primeros microcomputadores caseros, la pantalla se dividía en "bloques", cada bloque sirviendo para exhibir sea una letra, cifra o signo (del teclado normal, igual a una máquina de escribir). Pero, al mismo tiempo, apretando una tecla especial (como se hace para las mayúsculas), tembién era posible generar pequeñas configuraciones gráficas, por lo cual era posible "tipear un dibujo" rudimentario. Ese fue el sistema utilizado por el muy pequeño Sinclair ZX-81 (que medía menos de 20 cm de ancho y un par de cm de alto, y tenía 1Kb de RAM). En la imagen adjunta se pueden observar algunos de estos caracteres gráficos.

Con este sistema (que solo se utilizó en blanco y negro), era posible construir ilustraciones bastante detalladas, aunque el efecto de dientes de sierra en las diagonales era siempre muy notorio y, por lo tanto, se evitaban en lo posible.

En un microcomputador como el Commodore-PET, la pantalla tenía una resolución de 320x200 puntos, pero cada bloque ocupaba 8x8 puntos, con lo cual se disponía de 25 líneas de 40 caracteres (bloques), lo cual reducía la resolución manipulable a 40x25 (aunque los bloques gráficos no ocupaban los 8x8 puntos sino bordes, líneas transversales o cuadros de 4x4 puntos, como se puede ver en el teclado del ZX-81, lo cual eleva la resolución visual).

La gráfica por líneas o "vectores" Los microcomputadores de la siguiente generación (como los Apple II y Atari) incluyeron la posibilidad de crear gráficos trazando líneas, método que fue incluído en el lenguaje BASIC que los aficionados de la época podían utilizar para crear sus propios programas. Así, existían comandos como DRAW, MOVE y PLOT que permitían desplazar una punta trazadora, tirando -en la pantalla- una línea (recta) desde un punto de partida hasta una posición dada. Esto permite dibujos muy refinados aunque, en un principio, solo eran filiformes (sin relleno) y era necesario conocer las coordenadas de todos los puntos que formaban el dibujo. Posteriormente se desarroló la técnica que permitió "rellenar" los contornos en forma automática.


También se ha ido refinando la manera de describir los contornos, pasando de formas geométricas simples a formas muy complejas gracias al sistema definido por Bézier (Ver ejemplo de figura Bezier, hecha con Freehand. Se pueden observar los puntos de curvatura y las + que son manipuladores que permiten cambiar la curvatura de la línea asociada a ese punto.).

La gráfica vectorial ha jugado un papel importante en el desarrollo inicial de los videojuegos y sigue teniendo un rol importante en el diseño gráfico (FreeHand e Illustrator) y en el diseño industrial (CAD). La gráfica de puntos La gráfica de puntos, también llamada de "mapas de bits" o "rasterizada", corresponde al manejo secuencial de todos los puntos luminosos de la pantalla (pixeles). La secuencia de exhibición (y de conservación de la imagen) sigue el movimiento normal del rayo catódico al "refrescar" la pantalla (línea horizontal por línea horizontal o rastering). Y también siguen este procedimientos los escáners para capturar una imagen.

Este sistema es aún similar al sistema de bloques para la generación de los caracteres de escritura y se pueden utilizar múltiples "fuentes" tipográficas con pequeños dibujos ("dingbats"), aunque resulta muy difícil "tipear" una ilustración mayor con un procesador de texto. De hecho, en un primer momento, los juegos utilizaron bloques de gráfica de puntos (los "sprites") para caracterizar sus personajes u objetos móviles (como el "glotón" del Pacman), combinados con una gráfica vectorial. Aquí, el tamaño de la pantalla influye en el tamaño de la imagen que se puede exhibir más que en la resolución o calidad de la misma. Obviamente, si hay más puntos por pulgada de ancho, habrá mayor resolución (y la imagen se verá más chica), pero las aplicaciones comunes de gráfica ya no toman en cuenta las (pocas) alternativas que existen en este campo, siendo más importantes las dimensiones de memoria disponible. Lo que juega un papel fundamental en la calidad de la imagen es el tamaño de la "palabra" que cabe en la memoria interna de procesador: sea 8 bits, 16 bits, o más. Con 8 bits se pueden manejar imágenes de 256 colores, con 16 bits "miles de colores" y con más, "millones de colores". El ojo humano estará totalmente satisfecho con 16 bits y miles de colores. Procesadores con una mayor capacidad se justifican más bien para el manejo más eficiente de animaciones, es decir por un asunto de velocidad para "refrescar" la pantalla, con transiciones más suaves. El segundo componente de memoria importante es la capacidad de memoria RAM disponible para la imagen ("RAM de video"), sea en la RAM general del equipo sea en una tarjeta de video especial (que, en este caso, también trae generalmente un procesador especial, que acelera la construcción y los cambios de imágenes). De la RAM disponible depende el tamaño de las imágenes que podemos ver y también su velocidad de exhibición: si puede contener más de una, será más fácil y rápido ver animaciones o videos, aunque esto, como lo acabamos de señalar, también dependerá de la capacidad del procesador (principal o de la tarjeta de video) y de su velocidad de trabajo (señalada en "hertz"). Gracias al poder de los procesadores y las crecientes dimensiones de las memorias, la gráfica de puntos (bitmap) ha sido la vencedora y la más generalmente utilizada en la realidad virtual, tanto en los videojuegos como en el cine.


Modelamiento gráfico CAD-CAM La ingeniería recurre a los sistemas de CAD (computer-aided design) en numerosos casos, no sólo para diseñar nuevas creaciones (desde aviones hasta moléculas) sino también para poner a prueba sus características simulando determinadas condiciones de uso y, posteriormente, para controlar los procesos de fabricación correspondientes ("CAM": computer-aided manufacturing). Un CAD, apoyado por los sistemas más modernos de rendering (producción de una imagen bidimensional a partir de la información tridimensional y de diversas características del objeto y del ambiente) permite hoy la producción de imágenes de calidad fotográfica que pueden ser determinantes para la toma de decisiones acerca de la producción, de la publicidad, etc. (Al lado, arriba: Diseño de un reloj Tissot realizado con CAD)

Análisis de efectos Los ingenieros utilizan habitualmente sistemas de "análisis de elementos finitos" ("FEA": "finite element analysis") para determinar los efectos de distintos tipos de fuerzas que se ejercen sobre objetos, las vibraciones, el comportamiento térmico y electromagnético. Los resultados, antiguamente, eran largas columnas de cifras, las que hoy se transfieren a un procesador gráfico, pudiendo visualizar no sólo los cambios en el objeto sino también posibles cambios en las fuerzas y los efectos que producen, gracias a animaciones basadas en gráfica 3D. Los sistemas más sofisticados permiten tener en cuenta y representar simultaneamente las variaciones de múltiples variables. Esto evita la costosa construcción y prueba de prototipos. (Al lado arriba: Presión del flujo de aire en torno a un F-18. Imagen NASA.) Diseño molecular La física y la química también recurren a técnicas de CAD y FEA para estudiar la conformación y el desempeño de moléculas complejas. Ésto es de especial importancia en el campo de la farmacología. (Aquí molécula de "C-60")

No olvidemos que la genética también ha recurrido al CAD para la visualización de la hélice del ADN.


La gráfica tridimensional Existen distintos modos de entender lo que es una "gráfica tridimensional", aunque todos se refieren a ilustraciones que -en realidad- son solo bidimensionales. La forma más conocida -y antigua- es la estereoscópica, que se basa en la diferente visión de los dos ojos y produce el efecto de profundidad mediante lentes con filtros rojo y verde (uno para cada ojo). Otra estuvo en pleno auge hace un par de años y se conoce como "autoestereograma": son los "puntitos" que no parecen representar nada pero, con buenos ojos, paciencia, esfuerzo para desenfocar la vista (...y posteriores posibles dolores de cabeza) permiten ver figuras con "profundidad". Ambas técnicas se benefician hoy del computador para su producción. Pero ninguna de éstas permite obtener varias vistas de un mismo objeto o de un mismo paisaje. La técnica para esto es otra: es la que usan arquitectos e ingenieros para diseñar edificios, muebles y máquinas. En otras palabras, se necesitan planos o, más precisamente, juegos de coordenadas de todos los vértices, ecuaciones que representen los vectores (aristas rectas o curvas) y muchos, muchos cálculos para hacer aparecer un objeto en cierta posición y luego en otra. Y aún más instrucciones y cálculos para posicionar fuentes de luz, proyectar sombras, ajustar colores en función de la distancia, etc. Esto es lo que hicieron las aplicaciones profesionales de CAD (diseño asistido por computador) primero en grandes computadores o en máquinas especializadas (estaciones gráficas) y hoy se están popularizando como aplicaciones de 3D al alcance de cualquier aficionado. Por cierto se necesita siempre cierto "poder de cómputo" y no cualquier Macintosh o PC sirve. Modelamiento ("modeling") Lo primero, en la creación 3D, consiste en crear un objeto: es el "modelamiento". Esto puede hacerse de diversas maneras. Lo más simple es hacer un dibujo en dos dimensiones y luego "moverlo" para generar un volumen. La extrusión consiste en desplazar el dibujo inicial siguiendo una línea recta (en aplicaciones básicas) o una trayectoria tridimensional prediseñada (en aplicaciones avanzadas), dejando un "rastro" de sus posiciones anteriores (Orden "Extrude" en inglés). Así, un rectángulo forma un paralelipípedo, un círculo forma un cilindro o un helicóide, etc.: un ejemplo son las letras "3D" del título de este artículo. Otra herramienta para modelar es la revolución ("Lathe"): se desplaza el dibujo inicial siguiendo un círculo, alrededor de un eje preelegido. Así, medio círculo genera una esfera y el simple perfil de la ilustración superior produce el volúmen que la sigue. Además de proponer objetos simples prediseñados, un buen modelador permite unir varios volúmenes entre sí y el más avanzado permite operaciones booleanas (que añaden o sustraen volúmenes unos a otros, permitiendo crear huecos de variadas formas).

Otra función importante del modelador consiste en dividir todas las superficies en elementos menores ("facets", preferentemente triángulos), lo cual es especialmente importante para facilitar el sombreado y la creación de reflejos sobre superficies curvas: es el "splitting" o "gridding". Además, existen funciones que permiten deformar (inflar, torcer, separar...) una o varias caras o facetas de cada volumen creado. Todas las etapas de modelamiento se hacen utilizando una visualización de malla de alambre (sólo líneas), lo cual permite trabajar con mayor rapidez. Una vez terminado el modelo de malla, se define la consistencia y el color de los planos y se pasa a la producción. Producción ("rendering") Una vez creado el objeto, hay que realizar la imagen final, lo cual implica escoger un punto de vista -como lo haría un fotógrafo- y colocar fuentes de iluminación (una o varias). También se puede agregar un decorado: un fondo de cierto color y eventualmente un primer plano, que puede esconder cierta parte del objeto. Ciertas aplicaciones permiten usar como fondo una ilustración 2D preexistente y, por cierto, se pueden cortar y pegar otros objetos tridimensionales desde otras realizaciones. Es posible trabajar con un mínimo de elementos de iluminación, pero también con espejos y reflejos de un objeto sobre otro: todo depende de la aplicación, del poder de cálculo...y de la paciencia, porque esta etapa es la que toma más tiempo. También es posible prefijar una "trayectoria de cámara" para pasar de una vista a otra en forma automática, generando cuadros que


podrán formar parte, después, de una secuencia QuickTime o de VCR. De nuevo, depende de la aplicación y del procesador...y de mucha paciencia.

Algunas aplicaciones tienen módulos complementarios para crear decorados, como generadores de árboles o plantas, de texturas para el fondo o las facetas, etc. Pero también existen programas especializados para generar paisajes tridimensionales. Para principiantes y profesionales, las aplicaciones comerciales de generación 3D son numerosas. Entre las profesionales mejor referenciadas está Maya de Autodesk que se usó incluso en el cine. Para la creación de paisajes es famoso Bryce. Pero frente a estos programas relativamente caros y exigentes en disponibilidad de memoria RAM, también existen sharewaresde buena calidad y bastante más compactos como Blender 3D. En las ilustraciones de esta página hemos usado Vision-3D, DesignerWorkShop y Bryce.


La gráfica de los videojuegos La primera gráfica vectorial (en los años `70) Mientras los gráficos vectoriales estuvieron una vez en el corazón de la industria de los videojuegos de galería, al principio del decenio de los '80, es probable que la mayoría de los jugadores de hoy y la mayoría de los diseñadores de juegos, probablemente nunca han visto una imagen vectorial tal como se utilizadaba en los juegos de esa época. (Es aún común en programas de diseño tipográfico como "FreeHand" y también se utiliza en gráfica tridimensional).

Las imágenes vectoriales -a diferencia de las imágenes más realistas que acostumbramos ver hoy- no se basan en el mapeo de memoria del computador, sino que consisten en líneas proyectadas directamente en la pantalla. Se controla el haz de electrones del tubo catódico (pantalla), el que se puede encender, apagar o disminuir y con el cual se puede trazar líneas (vectores); mover hacia o desde el centro de la pantalla; cambiar la escala de los vectores; y, mediante el programa, saltar a una subrutina de vectores a dibujar y luego regresar a la secuencia inicial. Todos los dibujos se hacían tirando líneas (en parte apagadas, hasta llegar donde debían aparecer) desde el centro de la pantalla, lo cual -a la larga- quemaba el monitor en ese punto, y frenaba la presentación de múltiples figuras. Éstas desaparecían solas, al terminar la emisión del rayo, y debían ser redibujadas, eventualmente en otra posición, lo cual facilitaba la representación del movimiento pero hacía difícil crear escenas complejas (no había "memoria de pantalla" que permitiera mantener la imagen y renovarlas a intervalos regulares). Se podían utilizar 16 colores, que se definían en memoria RAM. Los gráficos vectoriales -a veces llamados gráficas XY- eran buenos para los juegos de video porque proveían una muy alta resolución, imágenes como "cortadas a navaja", en una época en que 200x180 pixeles se consideraron "hi-res" (alta resolución). Una gran ventaja de los vectores para los juegos era la capacidad para aplicar un factor de escala al dibujo. Un objeto podría aparecer volando hacia fuera en la distancia, pero todavía realmente usar la misma subrutina de definición vectorial. En el juego "Major Havoc", por ejemplo, hay un pequeño mapa del laberinto entero en la esquina de la pantalla. Usa las mismas rutinas de dibujo que el laberinto grande, pero es reducido matemáticamente de escala. Y las escenas del espacio aparecen en una perspectiva 3D, aúnque se dibujan de un plano XY de rejilla estándar. Cambiando el factor de escala sobre la marcha, las gráficas parecen desaparecer en un punto que desvanece, haciéndose cada vez menor hacia la cima de la pantalla, lo cual da una impresión de 3D. El sistema vectorial sin embargo tenía otro defecto: para lograr una buena imagen en los bordes de la pantalla, había que hacer que el rayo de electrones completara parte de la imagen fuera de la pantalla, lo cual -a la larga- alteraba los monitores. La gráfica vectorial fue utilizada en los primeros Atari (procesador 6502), siendo el primer juego de este tipo el "Lunar Lander", lanzado en agosto de 1979. El último (El Imperio Contraataca) salió en 1985. Otra tecnología -con menores problemas de pantallaestaba ganando la batalla. Traducido de "M emories of a Vector World", de Owen R.Rubin (uno de los primeros ingenieros diseñadores de juegos de Atari)

La gráfica vectorial y sus algoritmos -cada vez más sofisticados- siguió teniendo mucha importancia para el desarrollo de las imágenes de tres dimensiones (3D) presentadas en el plano (2D). Así, por ejemplo, la creación de algoritmos que permitieran esconder correctamente las aristas y los planos traseros de los objetos ha sido fundamental. Los primeros juegos "bit-map" (1982-1990) En 1980 se cruza un importante umbral: se admite que una gráfica de tipo realista es factible, cosa que no se aceptaba fácilmente antes. Los gráficos vectoriales fueron reemplazados por los gráficos en mapas de bits (definiendo colores de los diferentes pixeles


que componen la pantalla, por filas, como en la generación de las imágenes de televisión). Los computadores "de 8 bits" (la "frase" admitida por el procesador) de mayor éxito y uso en la época fueron los Sinclair Spectrum, Atari 400/800, Apple II y Commodore 64. Nótese que en 1985 ya se lograba una gráfica tridimensional y que el Atari llegó a permitir 128 colores (dependiendo de la pericia del programador), los otros estando limitados a 16 colores. Los mejores juegos en 8bits fueron, según S.Collins: Encounter (a) , Tornado Low Level (b), Elite (c), Lords of Midnight (d), Stunt Car Racer (e), The Hobbit (f), Ant Attack (g), KnightLore (h), y Head over Heels (i).

La base del diseño eran los "sprites", pequeños elementos gráficos de altura y anchura fija que pueden ubicarse independientemente en la pantalla principal y se utilizaban para representar y mover los "caracteres" (actores) en los juegos. Este sistema fomentó una gran experimentación, y una generación entera de programadores se familiarizó con su arquitectura y comenzó a empujar el linde de lo que era posible.

Uno de los primeros -y más famosos- juegos que utilizaban sprites fue el "Pacman", juego de "actores" que comían -o eran comidos- al desplazarse por un laberinto. (Foto de pantalla del Pacman en un Apple II)


Escala ampliada del "sprite" (Cada cuadrado básico equivale a un pixel.)

La paleta de color muy restrictiva hizo difícil equilibrar las gráficas. Era particularmente duro conseguir que los caracteres (objetos o personajes) permanecieran destacados ante fondos detallados, porque todos los colores eran casi igualmente nítidos. En la era de oro de los "8 bits", los programadores eran los héroes. Todo el mundo esperaba la próxima producción de los más famosos como el Sr. Braybrook, o Jeff Minter, Tony Crowther, Paul Noakes, Geoff Crammond, David Braben, Steve de Tornero, John Phillips y tantos otros.

En 1974, la compañía japonesa Nintendo introdujo los primeros juegos de galería, basados en proyecciones de películas de 16mm. El año siguiente, en cooperación con Mitsubishi, introdujo el sistema de video y el primer microprocesador especializado. En 1977 fabricó el primer videojuego para la casa y el año siguiente lanzó los videojuegos computarizados operados con monedas, para galerías, obteniendo su primer gran éxito con "Donkey Kong" en 1981. En 1983 lanzó la primera consola casera computarizada de videojuego, con CPU especializada, y en 1995 lanzó el primer sistema de inmersión virtual ("Virtual Boy").

Superando los 8bits Pero el verdadero auge de la gráfica se vincula más bien a la capacidad de manejar imágenes de estilo fotográfico, para lo cual ha sido clave contar con procesadores de 16 bits (y luego de 32) y contar con aplicaciones como el Photoshop y After Effects, y la técnica del "rastering" (lectura/escritura de los puntos de la pantalla, como en la imagen de televisión). Las imágenes "rasterizadas" se han transformado rápidamente en el sistema dominante. Pero hoy la distinción entre rastering y sistemas vectoriales tiende a desaparecer y las nuevas aplicaciones mezclan ambas técnicas (ver el software Bryce y otros). Y la investigación recurre cada vez más a trabajos interdisciplinarios que hacen intervenir la física, la fisiología (visión y procesamiento cerebral de imágenes), las ciencias cognitivas, etc. La revolución 3D del 92 Una revolución se produjo en 1992: apareció el juego "Wolfenstein 3D", con una versión de 3 niveles distribuída como "shareware" (libre distribución; otros 27 niveles se podían comprar). El diseño era simplista, la rutina de juego guardada en una forma bruta de memoria. Era el scrolling suave, la textura, la vista en primera persona que causaban el deslumbramiento. Nada igual se había visto antes en un PC. Y la mayoría de los desarrolladores de juegos se preguntaba cómo era esto posible: ¿Sobre un 80286 con gráfica VGA estándar, nada menos? Popularizaba la técnica del "ray casting", un algoritmo de dibujo originalmente usado para gráfica lineal que, como se mostraba, daba estupendos resultados al aplicarse a superficies. El ray-casting, inspirado en el sistema vectorial, ya había sido usado en Atari desde 1987, pero la técnica sólo se difundió con el exitoso Wolfenstein y los comentarios que provocó en los newsgroups expecializados de la época.


El ray-casting es una forma limitada (no recursiva) de "ray casting", un método que sigue los rayos de luz desde el objeto iluminado hacia la fuente de iluminación para determinar el color que debe tener dicho objeto (y las sombras de objetos interpuestos). En el ray tracing completo, la recursividad permite tener en cuenta la reflección de la luz en objetos brillantes. El auge de la gráfica realista Con los procesadores de 16 bits y más, una nueva era empezaba: la del dominio de los artistas, dado que, por fin, la máquina permitía una gráfica más realista. Y el público la esperaba.

Al mismo tiempo, en el cine, los efectos especiales empiezan a realizarse mediante computadores, y los programadores de tales efectos también son requeridos por los creadores de juegos. Empieza el reino destacado de "Lucas Art", la empresa creada por George Lucas, después del éxito de "La Guerra de las Galaxias", la que produce la serie de juegos "Rebel Assault", famosa por su introducción de la calidad de video.

El arte era evidentemente más fácil de desarrollar en "novelas" gráficas (especies de historietas o "comics" llevadas al computador), en lo cual, a nuestro juicio, el producto más logrado ha sido "Sinkha", del destacado diseñador italiano Marco Patrito (Ed. Mojave, 1995).


La combinación novela-juego ha sido una óptima solución para combinar el arte con el ingenio. Se considera "de antología" en esta categoría el juego "MYST", de 1993, que tuvo un éxito que superó ampliamente el de cualquier otro juego ( y fue seguido de varias secuelas).

Se puede ver en Youtube (http://www.youtube.com/embed/HcMm6TJoYL0) una excelente síntesis de la historia de los videojuegos.

Volveremos más adelante sobre el tema del arte en los videojuegos.


12. Visualización de datos El arte de la visualización de datos Descartes aprobó más de 100 láminas para el Discurso del Método (1637). Esas láminas implican relaciones impensadas con la mitología, los libros de óptica y la anatomía de un siglo antes. Pero, además, ayudan a entender las técnicas asociadas a la imprenta de esa época y a las formas de circulación. Uno de los testimonios más emblemáticos del libro "René Descartes. El método de las figuras", de Pablo Chiuminatto, es una carta donde el matemático holandés Christian Huygens aconseja a Descartes sobre cómo trabajar las imágenes para seducir más al lector, en 1635, dos años antes de publicar el Método. Le escribe: "Si fuera por mí, grabaría sobre madera; las láminas en cobre dejan huellas en los bordes y vuelven confusa la página, o bien toman, en los libros, más espacio del debido. Presumo que juzgará oportuno ir al encuentro del lector insertando las figuras a lo largo de todo el texto, más que amontonar muchas figuras en una hoja, las que sería necesario ir a buscar lejos, hojeando muchas hojas a página entera; que es como el esfuerzo de aquél pájaro que trabaja agujereando los árboles y que da muchas veces vueltas, para ver si lo ha logrado...". Con oportunidad del reciente lanzamiento de este libro (abril 2013), retomamos el tema de la visualización de datos y agregamos un par de páginas al respecto. También acaba de aparecer un minidocumental, de PBS, acerca del mismo tema, que incluye algunas entrevistas con expertos en diversos aspectos de este complejo arte que a la vez es una importante técnica en el campo científico y el periodismo. Insertamos el enlace a continuación. En él, Edward Tufte (Universidad de Yale) explica por ejemplo su origen en los antiguos mapas que han guiado a nuestra civilización desde la antigüedad. Julie Steele (O’Reilly Media) explica algunos de los conceptos básicos de esta técnica, incluyendo cómo los cerebros de los seres humanos están desde tiempos inmemoriales «programados para reconocer patrones».

http://www.youtube.com/embed/AdSZJzb-aX8

En 1987, la Fundación Nacional de Ciencias (NSF) de los Estados Unidos publicó un informe subrayando la importancia estratégica -para la ciencia- del desarrollo de medios de visualización de datos. Desde entonces se han ido creando múltiples aplicaciones que permiten explorar conjuntos de datos de diferentes tipos y magnitudes y obtener de ellos, gracias a la imagen, nuevos conocimientos de enorme valor. Es lo que, desde entonces, se ha llamado la "visualización científica".


Los principales desarrollos de la era moderna Durante los siglos XVII y XVIII se suceden los avances en la estadística y las invenciones de nuevos gráficos. En 1637 René Descartes publica tres libros sobre física: “Geométrie”, “Dioptrique” y “Météores”. En la “Geométrie” establece el sistema que ha sido la base del dibujo científico y técnico desde entonces ("coordenadas cartesianas"). Este sistema se había usado alguna vez en épocas anteriores pero se relanza con el establecimiento de la relación entre la línea representada y la ecuación que la define. En 1765 Joseph Priestley, más conocido por su investigaciones en química, es el primero del que se tiene noticia en utilizar la “línea de tiempo” para representar la localización de acontecimientos en forma cronológica (aunque la primera representación de movimiento en el tiempo data del siglo X con un gráfico del movimiento aparente de los planetas*). Durante la segunda mitad del siglo XVIII la representación gráfica se empieza a hacer tan popular que en 1794 el Dr. Buxton comienza a comercializar en Inglaterra el primer papel con cuadricula impresa, lo que permitía hacer gráficos estadísticos en menor tiempo.

Pero es William Playfair (1759-1823), político y economista inglés quien le da el impulso definitivo a lo que hoy conocemos como gráficos de negocios. No sólo inventa el archipopular gráfico de pastel, sino que populariza los gráficos circulares, o de burbujas, realiza el primer gráfico de barras moderno, y le da la forma actual a los gráficos de series temporales. Sus libros“Commercial and Political Atlas” de 1786 o el "Statistical Breviary” de 1801 están llenos, por primera vez, del tipo de gráficos a que estamos acostumbrados hoy en día (como el ejemplo adjunto). A partir de este punto y durante todo el siglo XIX se sucede una autentica explosión de creatividad y expansión de todo tipo de visualizaciones aplicadas a las ciencias naturales, sociales y a la tecnología sin parangón en tiempos anteriores. El físico inglés James Maxwell puede ser reconocido como el "padre" de la visualización científica actual: construyó el primer modelo tridimensional del comportamiento termodinámico complejo de los fluídos. Además, junto con hacer importantes contribuciones a la geometría de la óptica, acuñó terminologías y formas relacionadas con el estudio y la representación de vectores, tales como las flechas para representar fuerzas. El desarrollo tecnológico del Siglo XX produjo un importante incremento en la cantidad de datos e informaciones disponibles para los científicos. Las principales herramientas de este desarrollo han sido: Los mejores telescopios y los radiotelescopios El radar y el sonar El microscopio electrónico Las estaciones de observación meteorológica Los satélites en órbita y los experimentos espaciales Los aparatos médicos de "diagnóstico por imágenes" El computador

Los espacios computacionales: geometrías y sistemas de visualización "Rejillas" computacionales

En el computador podemos manejar el espacio dividiéndolo de acuerdo a distintos tipos de rejillas, formadas por celdas de una, dos o tres dimensiones. Podemos reemplazar el espacio contínuo por uno discreto, formado por puntos espaciados


ajustar la geometría (apariencia) de la rejilla en función del problema investigado. Tipos estándares de rejillas

* Uniforme Espacio físico implícito a partir de la forma de la rejilla. dx = dy = dz = 1

* Rectilínea Cada variable de cada dimensión del espacio computacional se "mapea" en una coordenada física. Ejes ortogonales, diferente espaciamiento

* Inestructurada Basado en elemento/volumen finito. Configuración múltiple de las celdas.

* Irregular Sin restricción de correspondencia entre el espacio computacional y el espacio físico A cada elemento en el espacio computacional son asignadas sus propias coordenadas espaciales. Otros espacios y ténicas computacionales Coordenadas (i.e. moléculas, átomos) Elementos finitos Sistemas de Partículas Refinamiento adaptativo de malla (AMR)


Análisis Visual de Datos ("VDA") El análisis visual de datos es una técnica emergente que usa en forma intensiva las innovaciones en el campo de las interfaces gráficas y de la visualización científica de datos. Se puede considerar que las primeras aplicaciones de VDA han sido las planillas de cálculo que venían acompañadas de un medio de graficación (como Excel). Pero la idea del VDA no es simplemente de facilitar la representación de funciones estadísticas, sino de ayudar al usuario a explorar los datos y "navegar" a través de ellos de manera más interactiva. Esto supone recurrir también a técnicas de "rendering" y de animación o incluso de "inmersión" virtual en el "espacio" tridimensional de los datos. Es común que grandes empresas dispongan de grandes cantidades de datos acerca de sus operaciones, sus clientes, el mercado en el cual operan, etc. Así, también, las posibilidades de cruzar variables son numerosas y imposible adivinar de antemano, en muchos casos, cuales serían los cruces más significativos. Nuevas técnicas computacionales - agrupadas bajo el concepto de "explotación de datos" o "data mining"- se han desarrollado y permiten descubrir los factores que pueden ser importantes. Entre ellos se cuentan los sistemas de "descubrimiento de conocimientos en bases de datos" ("KDD": "knowledge discovery in databases"): no se refieren a la extracción de informaciónes propias de los registros acumulados (como lo hacen los "motores de búsqueda" en la WWW) sino a "meta-información", es decir a información acerca de la información: características que relacionan múltiples registros de un modo inesperado. Una aplicación de este tipo ha permitido a la compañía de teléfonos British Telecom obtener invaluable información acerca de los fraudes en las llamadas telefónicas. A continuación se adjuntan algunos gráficos que ilustran operaciones de VDA y "data mining".

Venta de café caliente, según la temperatura ambiente. (Gráfico publicado en "El Mercurio", 25/11/1999).

Crecimiento financiero por industria, región y año - Andersen Consulting

Proyectos de clientes y sus atributos por región, industria y tipo - Andersen Consulting

En el Centro de Estudios Mediales (Universidad Diego Portales, Santiago de Chile), hemos desarrollado un amplio trabajo de "Data Mining" con VDA a partir de la base de datos de las noticias de nuestra revista "TDC". Con el software GVA ("Generic Visualization Architecture") hemos generado algunos gráficos como el adjunto que representan las interrelaciones entre las diferentes noticias,


según diferentes variables clasificatorias, representadas por la forma y el color de las diferentes figuras (al pulsar sobre una figura, en la aplicación que las generó, se obtienen datos que la identifican).

Visualización de programación computacional

Durante los últimos años, el artista rumano Alex Dragulescu -también investigador del MIT- ha aplicado técnicas en modelado por computador y visualización de información para inventar una nueva forma de expresión artística. Uno de sus proyectos más notables implicó crear lo que él llama "Plantas de Spam". Escribió algoritmos que analizaron varios puntos de texto y de datos del correo electrónico chatarra para producir imágenes "orgánicas" de estructuras parecidas a una planta que crece espontáneamente basadas en el spam entrante. Los valores ASCII encontrados en el texto de los mensajes no deseados determinan los atributos y cualidades de las "plantas".

Hizo lo mismo con "gusanos" computacionales, como el Netsky, examinando la estructura del código del virus y codificando sus características.

Sobre Análisis Visual de Datos aplicado en el área del periodismo, vea mi libro "Explotar la Información Noticiosa: Data Mining aplicado en el Periodismo" (Univ.Complutense de Madrid, 2002; en ISSUU: http://issuu.com/raymondcolle/docs/librodmdp)


Análisis matemático Diversas áreas de la matemática hacen uso de la gráfica: todos conocemos algo de geometría, que es la más antigua en este campo. Pero la computación -basada en gran parte en la matemática- ha hecho surgir nuevas áreas de investigación en que la imagen está jugando un papel fundamental para descubrir estructuras y características peculiares de diversas funciones matemáticas.

Así, la simple división en tres, repetida "al infinito", de los lados un triángulo equilátero, construyendo cada vez en el tercio central un nuevo triángulo, termina generando una superficie finita pero encerrada en un perímetro de longitud infinita, llamado "curva de Koch". Esta paradoja ha conducido a un gran descubrimiento: ¡el que las "tres dimensiones del espacio" constituyen en realidad un sistema contínuo y que existen medidas intermedias (1,5 .. 2,3 ... etc.)! Así, se calcula que la dimensión de la llamada "curva de Koch" es 1,2628... (o sea, está entre la línea -dimensión 1- y el plano -dimensión 2-). A dichas dimensiones, que son fracciones de las tradicionales, y a sus representaciones se dió el nombre de fractal.

Se ha llevado este concepto a la geografía y se ha descubierto que las costas de los continentes tienen una dimensión fractal: en efecto, mientras más detallada es la escala adoptada, más cambios de ángulos se descubren ... ¡y habría que medir hasta cada grano de arena para completar el diseño del contorno completo! Éste fue un descubrimiento de Benoit Mandelbrot, inventor del término "fractal" (1975). Encontró aspectos parecidos en secuencias de errores en la transmisión computacional de datos, en las crecidas del Nilo y en la forma de las nubes. También se puede reconocer en la forma en que crecen las plantas y en la forma en que divide yb progresa el rayo en una tormenta, estructura llamada "bifurcaciones en límites naturales inestables" (La proyección gráfica de la función matemática se exhibe al lado). Además, encontró luego una estructura regular al comparar -en diferentes escalas- las evoluciones de los precios del algodón en todo el último siglo, como también en la evolución de las rentas (cfr."The Fractal Geometry of Nature", 1977).

Atractores y caos El principal desarrollo matemático-visual basado en la computación y en la existencia de los fractales ha sido sin duda la "Teoría del Caos", que partió del descubrimiento de funciones con comportamiento extraño.

La base formal de los conocimientos de hoy se remonta a Edward Lorenz (meteorólogo del MIT), quién publicó en 1963 "Deterministic Nonperiodic Flow" sobre el comportamiento no-lineal de un sistema de 3 ecuaciones lineales correspondiente a un modelo simplificado de dinámica de fluídos. La figura A1 muestra la forma tradicional (bidimensional) de representación de la evolución de este tipo de sistema (como el de los giros de una noria en función del flujo de agua). Pero si se recurre a una representación tridimensional, la secuencia de coordenadas de los puntos determinados por los valores de las 3 variables es también contínua, pero se desplaza en dos planos (figura A2) y va formando -con el tiempo- una suerte de espiral doble como una mariposa con su par de alas. Lo extraño es que ningún punto se repetía jamás a pesar de que la imagen muestra claramente la existencia de un nuevo tipo de orden, que se llamó "atractor" (figura A3) (Ilustración de Gleick, p.36).


James Yorke descubrió en 1972 el trabajo de Lorenz, lo difundió y lo analizó con Robert May (matemático, biólogo y ecólogo). Analizando matemáticamente el comportamiento de la ecuación (que May puso en evidencia) Yorke probó que cualquier sistema unidimensional (como el de la curva logística), si muestra en algún momemento un período regular de 3, mostrará ciclos regulares de extensión diferente y también otros, caóticos. Así hizo el gran descubrimiento de que "sistemas sencillos hacen cosas complejas", el que dió a conocer en el artículo "Period three Implies Chaos" (1975). Se descubrieron luego efectos similares en genética, economía, dinámica de fluidos, epidemiología, fisiología, etc. (cfr. May, R.: "Simple Mathematical Models", Nature, 1976, p.467; Lewin, R.: "La Complexité", pp.111-115)

También se pudo comprobar que, en un fractal, las cuencas corresponden a atractores (funciones poderosas que parecen mantener un fenómeno dentro de ciertos límites, hasta que la suma de pequeños cambios es tal que su evolución se "libera" o, a la inversa, que conduce la suma de cambios a un estado aparentemente más estable). Los límites entre cuencas ponen en evidencia que la frontera entre "la calma y la catástrofe" es más complicada que todo lo que se puede imaginar. Mitchell Feigenbaum llevó el análisis a los fenómenos mentales, lo cual lo llevó a plantear que "para entender cómo la mente humana entresaca algo del caos de la percepción, habría que entender de qué manera el desorden produce universalidad" (Ej.: vistos de muy lejos, los movimientos de una familia en un picnic parecen caóticos). Al comparar la evolución de diferentes funciones matemáticas que producen bifurcacionse llegó finalmente (1976) a una teoría y un procedimiento matemático aplicable en forma universal. Este trabajo llevó a realizar el 1º Congreso sobre "Ciencia del Caos" en Como, Italia (1977) y las pruebas matemáticas definitivas las produjo Oscar Lanford III en 1979. John Hubbard (U. de Cornell) demostró la existencia de una continuidad lineal de todos los elementos de un gráfico fractal, con infinita variedad (en una repetición sólo aparente a grandes rasgos). Y las investigaciones muestran que todos los fractales parecen terminar en el conjunto de Mandelbrot, confirmándose el principio de universalidad (Cfr.Gleick, J. "Caos", p.236). Mandelbrot, en efecto, descubrió una función matemática muy simple que, ingeniosamente graficada, genera las imágenes que mostramos abajo y que son ampliaciones de fragmentos del conjunto original, en algunos casos con distintas opciones de color. (Generado en el computador del autor).


En 1977, Robert Shaw, doctorando de la U. de Santa Cruz (CA) abandona sus trabajos de física superconductora para dedicarse a la matemática del caos, que descubre programando el atractor de Lorenz en un computador analógico. Varios nuevos profesionales se le unieron para intentar enlazar la teoría (aún débil) con lo experimental (más desarrollado). Shaw descubrió la relación entre los atractores, el caos y la Teoría de la Información fundada en la entropía (cfr. "Strange Atractors, Chaotic Behavior and Information Flow"). Los atractores son medidas de la entropía; el caos es la creación de la información; sin caos, no hay sorpresa, es decir que no hay información (cfr. Gleick, p.255-259).

Arnold Mandell, siquiatra, descubrió un comportamiento caótico en enzimas del cerebro. Los trabajos de Mandell apuntan a reconocer que el funcionamiento de la mente también tiene una estructura fractal tanto en su base fisiológica como en la estructura semántica.

La "frontera del caos" Hacia 1980, Steven Wolfram descubrió que, aparte de los 3 estados clásicos de los sistemas dinámicos (estable, periódico y caótico) existe un cuarto estado, en el límite entre orden y caos. Tres años después, Chris Langton pudo mostrar que esta cuarta clase es la que exige el mayor volúmen de cálculo y el manejo de la mayor cantidad de información. Ahí, en la zona de transisión entre orden y caos, "se presiente que el tratamiento de la información constituye uno de los elementos importantes de la dinámica de un sistema". Norman Packard, que hacía investigaciones paralelas, dió a este 4º estado el nombre de "frontera del caos". Investigó cómo el proceso evolutivo se encuentra en esta área y descubrió -con autómatas celulares (imagen al lado) y reglas que se modifican mediante un algoritmo genético- que las reglas de cambios internos se modifican solas en la dirección de una eficiencia máxima, siempre más cerca del límite del caos (Lewin, R., La complexité, p.56-60).


Recursos gráficos elementales para la visualización Como la mayor parte de los datos recogidos en una investigación son de tipo cuantitativo, nos aparece inmediatamente que el recurso visual más adecuado es la variación de tamaño (ancho o alto) de una misma forma (rectángulo o "trozo de torta"), ya que es el único que permite traducir con exactitud cantidades. Sin embargo, son más los factores visuales que podemos y debemos manipular: recordemos que las figuras gráficas responden a la combinación de seis factores: la forma el tamaño la orientación el valor (variación de claro a oscuro) el grano (grosor de la trama) y el color Para determinar cuales de estos factores pueden ser manipulados para expresar información numérica, es necesario tomar en cuenta la forma en que responden a las siguientes características: asociatividad (capacidad de ser identificado con figuras semejantes en distintas posiciones, en medio de otras figuras no semejantes) diferencia (facilidad para ser distinguido de otras figuras) ordenabilidad (aptitud para representar una serie ordenada o una secuencia lógica) variabilidad cuantitativa (aptitud para representar adecuadamente cantidades diferenciadas) La aptitud de los factores gráficos para cumplir con estas características se exhibe en la siguiente tabla:

Este cuadro muestra claramente que sólo la variación de tamaño es cuantitativa. La orientación y la forma sólo son diferenciales en el caso de figuras reducidas, no cuando cubren zonas extensas. (Por principio la orientación y la forma son únicos en los histogramas. En los gráficos de curvas, sólo es una línea, de orientación variable en función de los datos). Las variaciones de valor y grano permiten la diferenciación y también la presentación de un conjunto ordenado. Sólo la variación de forma cumple completamente con el principio de asociatividad, aunque el grano y el color pueden -en algunos


casos (cuando hay pocas figuras por comparar)- también ser utilizados. El valor y el tamaño no pueden ser utilizados para asegurar asociaciones. Si bien la variación de tamaño es la única adecuada para mostrar las variaciones cuantitativas, en muchos casos no permite apreciar correctamente pequeñas diferencias, cuando se observa globalmente un gráfico. Es posible medir una diferencia de 1 mm. (utilizando una regla) entre dos barras distanciadas de un gráfico -que puede ser tan importante como representar 1000 personas- pero dicha diferencia no aparecerá a primera vista si las dos barras no están pegadas la una a la otra. Se podrá eventualmente modificar la escala del gráfico para aumentar la diferencia, pero ello no es siempre posible. Es una de las razones que obligan a adjuntar a los gráficos las tablas con las cifras exactas (cifras que no deben colocarse dentro del gráfico).


La elaboración de estadígrafos Alternativas visuales La representación visual de información cuantitativa constituye un problema que se tiende a resolver de un modo intuitivo o imitando soluciones aparecidas en la prensa diaria. Ni la imaginación -si no está basada en un conocimiento formal- ni la prensa resultan ser los mejores "consejeros". Existen tanto reglas generales de composición gráfica como reglas específicas aplicables al caso de los datos estadísticos. Las alternativas comunes de las cuales disponemos son esencialmente tres: los histogramas (verticales (columnas) o horizontales (barras) las curvas o diagramas "de fiebre" los círculos o "tortas" A ellas se han de agregar: los diagramas de radar los gráficos de coordenadas paralelas No es indiferente escoger una forma u otra: depende del tipo de variable, es decir del tipo de información que hemos de exponer. La eficiencia de la comunicación en una presentación gráfica de datos depende en primer término de las características de la información a transmitir; en segundo término, de la correcta organización (orden de los datos) y en tercer término de la adecuada selección de los códigos visuales (para la identificación de los componentes y de las variaciones cuantitativas).

Los diagramas lineales o "de fiebre" se utilizan para expresar la evolución de una o diversas variables a través del tiempo. NO deben ser utilizados para representar cantidades que corresponden a diversas categorías o valores de una variable que no tiene carácter histórico o secuencial.

Los histogramas o diagramas de columnas se utilizan para expresar cantidades asociadas a categorías y sus relaciones. Los de barras (horizontales) se utilizan para comparar magnitudes de tiempo (duraciones).

Las "tortas" se utilizan para exponer las relaciones entre las partes y un todo (proporciones), generalmente porcentajes.

Los "radares" sirven para informar acerca de varios factores que utilizan una misma escala evaluativa, para una entidad o un conjunto de entidades (por ejemplo las notas obtenidas por un alumno en 5 materias). Son muy útiles cuando se ha de buscar la mayor armonía o balance de los factores (y muy apreciados en países del Lejano Oriente).

Los gráficos de coordenadas paralelas permiten comparar en un solo plano datos con muchas dimensiones. Para cada variable


(dimensión) se define un eje y se colocan en paralela, verticalmente, los ejes que corresponden a cada variable. Luego se coloca en cada eje el valor que corresponde a cada caso y se unen estos puntos mediante segmentos de recta. Obviamente no es posible representar una gran cantidad de casos, pero s&íacute; una gran cantidad de variables. Así, por ejemplo, si se quiere caracterizar diferentes tipos de automóviles, se podría indicar la cilindrada en un eje, el número de puertas en otro, el gasto de gasolina por km en un tercero, etc. Cada línea quebrada correspondería a un modelo de auto. (Este sistema fue inventado en 1985 por Alfred Inselberg).


Reglas de construcción de estadígrafoso Principio 1: Ejes cartesianos El ojo sigue un recorrido rectilíneo y la mejor forma para separar dos recorridos del ojo se hace utlizando un ángulo recto. Este principio pone de inmediato en entredicho los gráficos circulares (tortas) que se utilizan frecuentemente para representar proporciones. Los gráficos más claros son siempre los que recurren a coordenadas cartesianas, es decir a ejes perpendiculares. El eje vertical (y) se reserva preferentemente a las variaciones cuantitativas (resultados obtenidos), mientras el eje horizontal (x) se reserva para los valores de la variable. Se podrán conservar eventualmente las "tortas" cuando el significado más importante que se desee presentar visualmente es la correlación de las proporciones. (La gran importancia dada al "Papa" en el ejemplo que sigue puede ser una justificación).

En el caso de histogramas muy simples, se podrá utilizar una representación tridimensional. Sin embargo, cuando se trata de comparar variables NO es conveniente recurrir a la opción tridimensional por dos razones: La perspectiva hace más difícil la comparación. Los valores más altos tienden a tapar los valores más bajos y puede resultar muy difícil lograr que todos sean a la vez igualmente visibles y comparables. Como lo puede ver a continuación, un estadígrafo bidimensional es mucho más claro en este caso.


Principio 2: Orden Todo conjunto de datos cuantitativos puede y debe ser ordenado. Si la variable es ordenada por naturaleza, se respeta el orden natural, pero si sus valores son ordenables, se reordenan de acuerdo a los resultados. Si la variable es ordinal o aritmética, es probable que no podamos cambiar el orden "natural" de sus alternativas (por ejemplo una escala de edades o en una secuencia histórica), ya que un cambio de orden perjudicaría la percepción e interpretación de los resultados. Pero si la variable es nominal (como una clasificación temática), lo que ha de definir el orden de presentación es la variación cuantitativa, en cuyo caso la "Teoría de la Forma" indica que se debe preferir un orden de mayor a menor en el sentido de lectura (de izquierda a derecha), como en el siguiente ejemplo.

Consecuentemente, también, la naturaleza de la variable determina la forma del gráfico: si la variable es contínua, la representaremos mediante una curva (o línea quebrada); si es discreta (escala de intervalos o valores nominales), usaremos barras (histograma). Principio 3: Homogeneidad Es preferible separar gráficos pequeños antes que realizar un sólo gráfico de conjunto con variables (o alternativas de variables) entremezcladas. Esto puede resultar complejo si hemos de comparar, por ejemplo, las variaciones de una misma variable aplicada a varios medios de prensa, en un análisis de forma o contenido. En virtud del principio de homogeneidad, debemos hacer un gráfico para cada medio. Pero, aunque mantengamos el mismo orden en los diversos gráficos, no será fácil para el ojo hacer la comparación de los resultados. Para lograr este propósito, agregaremos un gráfico de conjunto aplicando el principio de homogeneidad en el interior del mismo, agrupando (siempre en el mismo orden) los medios y separando las alternativas de la variable. Es lo que hicimos en el siguiente ejemplo, usando como criterio de ordenamiento la frecuencia decreciente en el diario "La Tercera":


Sin embargo, un análisis más acucioso del gráfico permite descubrir que existe una forma mejor de poner en evidencia las tendencias: colocar en primera posición (izquierda) "El Mercurio", que es el que tiene los valores más altos en la mayoría de los casos, seguido de "La Tercera":

Principio 4: Autosuficiencia Todo gráfico debe contener todo lo necesario para facilitar su correcta comprensión y completa interpretación. Esto significa que el lector debe entender de inmediato la información, aunque no necesariamente con la precisión que puede entregar una tabla de cifras. De hecho las cifras precisas estarán en una tabla aparte, mientras el gráfico sólo ha de permitir una percepción aproximada de ellas, siendo más importante la percepción de las semejanzas y diferencias cuantitativas (comparación que no es tan fácil en una tabla). Esto implica que el gráfico debe ser correctamente titulado (Su título debe contener el nombre de la variable) y debe contener la identificación de los ejes, de los códigos de color o de trama -si los hay- así como de los valores de la variable, como en el ejemplo anterior. Como se puede observar, el título se coloca al centro y arriba, mientras la nomenclatura (código de color o trama) se coloca del lado


derecho o eventualmente abajo (si falta espacio a la derecha). Los ejes son acompañados de los valores significativos que les corresponden. (Debe quedar claro si el eje vertical representa un porcentaje o una frecuencia neta, lo que -en el ejemplo- se indicó en bajada del título). Reglas complementarias Además de los principios básicos recién enunciados, deben tomarse en cuenta algunas exigencias de orden técnico para facilitar al lector la percepción e interpretación de los gráficos: Densidad La cantidad de figuras que se incluyen en un gráfico puede llegar a ser demasiado grande, recargando el dibujo: en este caso hablamos de "densidad excesiva". Rara vez se peca por defecto de densidad (Si una variable tiene sólo dos valores y es aplicada a un sólo "corpus", habrá solamente dos cifras, que se expondrán verbalmente en el texto y no requerirán ni tabla ni gráfico). Entre ambos extremos, un óptimo debe ser buscado (por ejemplo reagrupando valores de la variable o suprimiendo los no significativos). Discriminación de tamaños Las aptitudes de discriminación del ojo son limitadas. En particular surgen errores de percepción cuando el ángulo de visión que abarca algún objeto es muy reducido. En consecuencia, el tamaño de las figuras no puede ser demasiado pequeño -lo cual es fuente de confusión o de cansancio visual- ni debe existir una disproporción entre las dimensiones horizontal y vertical. El diagrama ideal se enmarca en una forma comprendida entre el cuadrado y el rectángulo de razón (y=1)*(x=2), con el eje horizontal paralelo a las líneas normales del texto y ancho máximo preferentemente inferior al espacio entre los márgenes normales del texto (Evitar gráficos puestos en forma transversal en páginas separadas, lo cual sólo podría ser justificado por una gran densidad de datos). Énfasis en lo principal Es importante recordar que la variable visual principal (las barras o la curva) debe destacarse siempre. Los demás elementos, como contornos o elementos de referencia, deben ser mucho más discretos, es decir de trazo más delgado y limitado a lo indispensable. Así, nunca debe reproducirse la cuadrícula completa que sirve de base para construir la curva o el histograma: se han de incluir solamente las líneas de referencias que ayuden efectivamente a evaluar correctamente las cantidades o períodos. Diferenciación comparativa Para destacar elementos de comparación (valores de una variable o "muestras" diferentes a las cuales se aplicó), se debe tener cuidado de que los factores gráficos de valor, grano o color se diferencien claramente: no es conveniente utilizar más de 6 tramas (líneas o granos) o colores diferentes. Si se requiere mayor diferenciación, se pueden combinar trama y color (no así valor y color, que resulta muy difícil de discriminar).

Obviamente se podrán encontrar representaciones que no se ajustan a los principios aquí señalados, las que podrán justificarse en determinados casos. (No se pretende agotar aquí todos los casos posibles, sino presentar reglas generales).


Software para crear estadígrafos 1. Excel, Calc, etc.Excel - o su equivalente en OpenOffice o LibreOffice - sigue siendo la herramienta básica y de fácil acceso. Basta seleccionar las columnas de datos y luego el tipo de gráfico. Las hojas con los gráficos pueden ser guardadas en la nube.

2. Google Chart API Este sitio ofrece herramientas para tablas dinámicas. Funciona en todos los navegadores que soporten SVG, VML y lona.

3. Datawrapper Elabora gráfico de barras, de círculos y lineales. También permite insertar información de Excel o OpenOffice y transformarla en gráficos.


4. Infogr.am Presenta de manera dinámica y llamativa estadígrafos a partir de una planilla de cálculo o archivo CSV. Se puede usar la herramienta de forma gratuita pero la versión pro permite descargar los archivos.

5. Circos Ofrece la posibilidad, en su versión online, de presentar relaciones en un formato circular a partir de una tabla de doble entrada originada en un programa como Excel.


6. Many Eyes Un aporte de IBM a la visualización de datos numéricos (gráficos de tipo Excel y otros). Funciona "en la nube", después de registrarse. Requiere contar con el ambiente Java en muchos casos.

7. Tableau Esta plataforma "en la nube" (us$500) o en el PC (us$999), basada en tecnología de la Universidad de Stanford, utiliza el método de arrastrar y soltar para compilar las categorías y gráficos (incluyendo modelos interactivos), así como otras visualizaciones de datos.


Gráficos basados en JavaScript 1. Flot Es una gran biblioteca JavaScript de gráficos de líneas y gráficos de barras. Funciona en todos los navegadores con HTML 5. Para versiones anteriores de HTML y navegadores, se puede emular en Flash con Flashcanvas. Lo bueno de Flot es que da acceso a muchos a códigos y estilos de resultados. Sin embargo, esta herramienta sólo genera gráficos de línea y barras. No tiene muchas opciones.

2. Raphaël Es otra gran biblioteca de JavaScript para la creación de diagramas y gráficos. La mayor diferencia con otras bibliotecas es que se centra en la salida SVG y VML. El sitio tiene muchas demo que muestran cómo usar esta herramienta. Además, tiene la capacidad de crear algunas visualizaciones muy complejas, para lo que hay que recurrir a otras herramientas vectoriales como Illustrator o Inkscape.


3. D3 (Data-Driven Documents) Data-Driven Documents es otra biblioteca JavaScript que soporta renderizado SVG. Los ejemplos van desde los gráficos de barras y líneas simples, a diagramas de Voronoi mucho más complicados, mapas forestales, las agrupaciones circulares y nubes de palabras.

4. Crossfilter JavaScript Crossfilter es una biblioteca que muestra los datos, pero al mismo tiempo puede restringir el rango de los mismos y ver otros gráficos vinculados a su interés.


5. Tangle La biblioteca JavaScript Tangle permite describir una interacción compleja o una ecuación en una entrada, dejando al lector ajustar los valores de la misma, y ver los resultados por sí mismo, explorando los datos. Arrastrando las variables permite aumentar o disminuir sus valores y ver una gráfica que se actualiza automáticamente.


Cartografía Mapas on-line Desde que se lanzó Google Earth, el interés por los mapas y la "navegación geográfica virtual" ha conocido un desarrollo extraordinario en la WWW. Varios proveedores, además de Google, se disputan hoy las preferencias. Veremos algunos después de "despejar" lo que Google ofrece y es en cierto modo, la norma o sistema de referencia obligado. Lo esencial aquí, especialmente desde nuestro punto de vista, es la asociación de varias formas de presentar la información geográfica. Google incluye: Acceso y Mapa de calles

Tráfico

Vista de calle

Vista satelital

Relieve

Rivales


El eterno rival de Google, Yahoo! (http://maps.yahoo.com), cuenta también con un servicio de mapas online. Con respecto a la visualización, es posible ver la ubicación como Mapa, Satélite o la mezcla de ambos. La aplicación cuenta además con una herramienta para crear y administrar mapas personalizados, a los que se les pueden añadir fotos, comentarios y situar ubicaciones a través de Yahoo Maps.

Otra opción es Live Search Maps (http://maps.live.com), que permite buscar cualquier localización en el mundo, ya sea un negocio, una dirección o un mapa creado por otros usuarios. La visualización permite ver los mapas por calles, con o sin tráfico, y por vista aérea. Los usuarios también pueden hacer colecciones, es decir, mapas de una actividad determinada, por ejemplo, bares, restaurantes y cines.

Para no quedarse atrás, AOL cuenta con MapQuest, pero con mapas más pequeños.


En la red tambiĂŠn es posible encontrar algunos servicios de pago, muchos de las cuales pueden cargarse a un PDA o un telĂŠfono mĂłvil (con tarjeta de memoria), e incluso a los GPS fabricados especialmente para la industria automotriz.


Mapas informativos Si bien los mapas tienen una larguísima historia en el campo de la cartografía terrestre, se usan cada vez más como base para ilustrar y situar datos estadísticos de múltiples tipos. Presentamos aquí algunos ejemplos. (Aquí, mapa del norte de Africa de 1375, "Atlas Catalán", Bibl.Nacional, París).

Libertad de prensa: Reporteros sin Fronteras elaboró el siguiente mapa sobre libertad de prensa en el mundo.

El petróleo en España: El gobierno español muestra la situación de la producción y almacenamiento de petróleo en ese país en el siguiente mapa.

Internet, la web y las redes sociales


Las informaciones relativas a internet también "se toman" los mapas, que se han tornado en un recurso muy útil para divisar mejor que ocurre con las comunicaciones digitales. Este es el mapa de los sitios más visitados hecho por el Oxford Internet Institute.

Éste es el mapa que sitúa las estadísticas de usuarios de las principales redes sociales, de Morgan Stanley Research con datos de ComScore:


Software de cartografía 1. Modest Maps Es una biblioteca pequeña de cartografía, con un peso de sólo 10 KB. Esto hace que sea muy limitado en su forma básica. Este es un producto de Estambre, Bloom y MapBox, lo que la convierte en una herramienta respetable.

2. Leaflet Es otro marco de asignación pequeño, diseñado para crear amigables páginas. Leaflet y Modest, son proyectos de código abierto, lo que los hace ideales para su uso en sus propios sitios.

3. Polymaps Es otra biblioteca de mapeo, dirigida a una audiencia de visualización de datos. Ofrece un enfoque único para crear mapas.


4. OpenLayers Probablemente la herramienta más eficaz de todas. Ninguna otra biblioteca ofrece lo que OpenLayers.

5. Kartograph‘s Su eslogan es “repensar la cartografía”, y eso es lo que sus desarrolladores ofrecen.

6. CartoDB


La facilidad con la que se puede combinar datos tabulares con mapas es insuperable con esta herramienta. Se puede alimentar en un archivo CSV de cadenas de direcciones y los convertirá en latitudes y longitudes. Es gratis por un máximo de cinco meses, después de eso, hay planes mensuales de precios.

7. Geocommons Este programa permite a los usuarios subir datos a la plataforma y ubicarlos en un mapa. Se puede insertar información de cualquier tema e inclusive, acompañar el mapa con imágenes. Geocommons incluye una pequeña variedad de mapas para elegir. Todos cuentan con una leyenda que trabaja de manera interactiva y puede dividir los datos de acuerdo a lo que se programe.

8. MapBox Trabaja ubicando datos e imágenes en un mapa de manera automática, pero ofrece personalizar un poco más el gráfico con opciones de color y tamaño. Además, puedes modificar el idioma. Esta herramienta solo ofrece dos mapas de referencia básicos, uno callejero y otro que es un mapa de terreno.


9. Quantum GIS “Quantum GIS” permite crear mapas en 3d bastante desarrollados, en donde uno puede insertar mucha información y personalizarla. Debido al grado de dificultad, la escuela de graduados en periodismo de la Universidad de California en Berkeley ofrece un curso en línea para desarrollar adecuadamente las herramientas que incluye el programa.

10. Google MyMaps Google ha reforzado esta herramienta para crear puntos personalizados y más.


Mapas conceptuales o semánticos Uno de los aportes prácticos de las ciencias cognitivas ha sido poner en evidencia la importancia de sistemas de representación del conocimiento diferentes del relato verbal, por cuanto el pensamiento y la memoria no siguen necesariamente el modelo lineal que ha de seguir el lenguaje. También han recalcado que aprender consiste en establecer relaciones entre lo nuevo y lo ya conocido, lo cual no es lineal sino multidimensional. Por esta razón se promueven métodos de aprendizaje basados en formas de representación que eliminen la sintaxis del lenguaje y utilicen la gráfica para representar las relaciones: los "mapas conceptuales". "En su forma más simple, un mapa conceptual constaría tan sólo de dos conceptos unidos por una palabra de enlace para formar una proposición; por ejemplo 'el cielo es azul'" (Novak y Gowin). Se podría representar como:

Aunque es posible transformar una proposición gramatical en mapa, los mapas conceptuales pueden tener estructuras y representar relaciones mucho más complejas y extensas que las que permite el lenguaje verbal. Pueden servir para mostrar la mera existencia de interrelaciones entre diversos temas y, eventualmente, su agrupación u orden:

Los mapas conceptuales apuntan a representar relaciones de significación. Si bien los sistemas de clasificación pueden ser representados mediante diagramas de conjuntos, el análisis de una significación que recurra a relaciones jerárquicas -como ocurre habitualmente en la memoria- puede exigir otro tipo de gráfico: se sitúan los conceptos más generales e inclusivos en la parte superior del mapa y los más específicos, progresivamente, hacia abajo y hacia la derecha:


Las relaciones jerárquicas pueden, evidentemente, cambiar según el punto de vista adoptado. La realización de este tipo de gráfico puede ser una excelente manera de resumir (y aprender) una materia. También se puede analizar el contenido de un discurso y representar gráficamente la interrelación de los temas tratados (a partir de la coocurrencia de palabras significativas en las distintas oraciones), como en el siguiente mapa de un discurso electoral de Eduardo Frei en Chile (Las cifras indican la cantidad de veces que los conceptos aparecen juntos en una misma oración):

Del mismo modo podemos representar las relaciones entre los temas tratados por una revista, como los temas de la Revista Latina de Comunicación Social desde su creación, en el siguiente ejemplo (el grosor de las líneas es proporcional a la frecuencia y solo se representan las asociaciones más frecuentes):

He aquí un ejemplo de mapa conceptual sobre el futuro de la tecnología en educación.



Diagramas de flujos Parecidos son los "diagramas de flujo", que pueden hacer las veces de "mapas de carretera" para mostrar, por ejemplo, los caminos que se deben o pueden recorrer para estudiar una materia:

También se pueden diseñar mapas subordinados unos a otros (p.ej. al hacer `clic' sobre un concepto se abre otro mapa con elementos de detalle relativos a este concepto), modalidad facilitada por los computadores, lo que permite la construcción y consulta de mapas muy complejos, especialmente útiles para guiar a los usuarios de sitios web, como en el siguiente ejemplo.

Los diagramas de flujo son utilizados en la programación de actividades y el diseño de programas computacionales, ya que indican secuencias de acciones:



Redes Los mapas semánticos son -como se pudo observar- un tipo particular de red. Veamos aquí algunas otras aplicaciones. Redes de transporte y comunicación Red de metro (Se hace abstracción de la geografía real, manteniendo solamente la oprientación de la red)

Red de comunicación Gráfico hiperbólico de la topología actual de Internet desarrollado por Young Hyun que muestra cómo se agrupan los sitios web mediante los enlaces (hyperlinks).


Alianzas en la industria de Internet


Redes sociales: He aquĂ­ como ReadWrite ha representado el flujo de los contenidos en las redes sociales.

Relaciones sociales La sociometrĂ­a utiliza un sistema propio de descripciĂłn de las relaciones interpersonales:


Estructuras parentales: La genealogía y la biología también utilizan redes para mostrar las relaciones parentales.

Equipamiento Sean computadores u otras tipos de equipos, sus redes también pueden obviamente ser graficadas...

Para el diseño de redes y su análisis existen múltiples aplicaciones computacionales, algunas genéricas y otras especializadas para un tipo particular. Exponemos algunas ahora.


Herramientas analíticas NetDraw NetDraw es una herramienta de análisis de redes. Permite leer relaciones múltiples entre los mismos nodos, y cambiarlas o combinarlas fácilmente. Con el programa es simple leer atributos múltiples de los nodos y usarlos para establecer colores y tamaños de los nodos (así como bordes, etiquetas, etc.). (Se pueden generar a partir de archivos CSV adecuadamente preparados.)

WordItOut Genera una nube de palabras de tamaño ajustado a su frecuencia a partir de una página web o pegando el texto.

Giraph Apache Giraph es un sistema de procesamiento gráfico construido para una alta escalabilidad iterativa. Por ejemplo, se usa actualmente en Facebook para analizar el gráfico social formado por los usuarios y sus conexiones. Giraph es una elección natural para liberar el potencial de los conjuntos de datos estructurados en una escala masiva. Requiere Java y Maven 3.


NodeBox Es una aplicación OS X para crear gráficos 2D y visualizaciones. Es necesario conocer y entender el código Python. Es una manera rápida y fácil de ajustar las variables y ver los resultados al instante.

Gephi Es un visualizador gráfico Open Source basado en datos y exploración que funciona con Java. No solo permite procesar grandes conjuntos de datos y producir visualizaciones destacadas, también limpiar y ordenar los datos. Es una pieza compleja de software, lo que la ubica delante de cualquier otra herramienta en este campo.

R project Es una herramienta muy compleja, y que lleva un tiempo comprender, pero tiene una comunidad fuerte y una biblioteca de paquetes, que crece a gran velocidad. Su curva de aprendizaje es una de la más complicadas de las que hemos mencionado.



13. Realidad Virtual Definiciones La ilustración gráfica, durante milenios, sólo tuvo a su disposición las dos dimensiones del plano para representar objetos tridimensionales. El creciente poder de cálculo de los computadores ha permitido conservar en forma digital imágenes tridimensionales de objetos reales o imaginarios, permitiendo que un observador obtenga, en la pantalla, diferentes vistas del mismo objeto, según la posición de observación que decida ocupar: la máquina se encarga de calcular el aspecto que tendrá el objeto desde tal o cual ángulo de visión y lo presenta así en el monitor. Aún más: los últimos avances en el desarrollo de los llamados "periféricos" que son los instrumentos que utilizamos para comunicarnos con el procesador- han dado origen al casco estereoscópico, mediante el cual el observador puede tener la sensación de estar "presente" frente al objeto o dentro de él, es decir de penetrar en un mundo que posiblemente sólo existirá en su memoria de corto plazo -mientras lo observe- y en la memoria del computador. Nacen así los "mundos virtuales", sinónimos de mundos imaginarios o imaginados.

El Diccionario de la Real Academia Española define como "virtual": 1. "lo que tiene virtud para producir un efecto, aunque no lo produce de presente"; 2. "lo implícto o tácito"; 3. "lo que tiene existencia aparente y no real". En síntesis, lo virtual es lo que existe en esencia o como efecto pero no como forma o hecho real tangible. Esto plantea evidentemente una aparente o parcial contradicción cuando se juntan las palabras "realidad" y "virtual". Sin embargo se ha de asumir la expresión en un sentido técnico, conforme al campo de investigación en el cual nació y, por esta vía, hemos de admitir una de las siguientes definiciones: - sistema interactivo computarizado tan rápido e intuitivo que la presencia de la máquina desaparece de la conciencia del usuario, dejando en ella la imagen de un objeto o entorno con una alta impresión de realidad; o - entorno tridimensional sintetizado por un computador, en el que uno o varios participantes pueden manipular elementos físicos simulados o relacionarse con las representaciones de otras personas, pasadas o presentes, reales o ficticias. (cf.Larijani, C., p.xi)

De esta manera entraron en "nuestro mundo" primero Roger Rabbit y luego los dinosaurios de "Jurassic Park". Y de este modo entró (supuestamente) en un mundo irreal el héroe de "El Hombre del Jardín". Para ello, este último tuvo que utilizar gafas y un traje especial, ambos elementos que hoy efectivamente existen, aunque sólo el casco estereoscópico se esté comercializando ya para su uso con computadores personales. (Foto Secico, P.Universidad Católica de Chile)

Así, la Realidad Virtual (RV) es por esencia una "realidad alternativa": imagen tridimensional de un mundo ficticio o de un mundo real pero que no está dentro del rango normal de alcance de los órganos de percepción del observador. No se limita, por ello, a los videojuegos ni tampoco a aplicaciones científicas de alto nivel. Tiende a transformarse, en verdad, en un nuevo medio de comunicación y podrá influenciar todos los campos del saber, de la enseñanza, de los negocios y de la entretención.

Uno de los problemas no técnicos de la RV es saber cómo el ser humano hará -desde ahora- la distinción entre el mundo de la experiencia y el ciberespacio. Según S.Schmidt, será siempre el cuerpo del usuario el que trazará la frontera entre la experiencia de lo real y de lo virtual, a pesar de que ahora tenemos un acceso ilimitado a todo tipo de datos y la posibilidad de transformar en información todo lo que queramos. En este sentido, también hay una "realidad" en el ciberespacio, como la hay en la imaginación. Ya vivíamos distintos tipos de realidad, pero quizás sin prestarles mucha atención. Ahora tenemos que acostumbrarnos a que lo virtual


tenga una mayor presencia en nuestra vida… y afinar nuestros sentidos para discriminar entre una cosa y otra. Porque en la sociedad de mañana, la información, el conocimiento, también dependerán del manejo de la "virtualidad".

En síntesis: 1. La Realidad Virtual es un sistema de representación, esencialmente visual pero también cada vez más tactil (gracias al data glove, guante de manipulación virtual), que permite "traer a los sentidos" y manipular de distintos modos conocimientos reales y datos imaginarios que no estarían normalmente al alcance de nuestras manos y nuestros ojos.De este modo su principal importancia, en el mundo de la educación superior, consiste en su capacidad para profundizar el conocimiento de nuestro mundo -como medio de investigación- y para mejorar la transmisión de dicho conocimiento -como medio para la docencia-. 2. Podemos acceder a la RV de dos maneras: por observación bidimensional, o sea en la pantalla de un computador o en un televisor, lo cual sitúa normalmente dentro de nuestro campo visual -junto con las imágenes de RV- objetos más familiares, propios de la realidad en la cual estamos efectivamente inmersos; por la técnica llamada de "inmersión" que -a través de un conjunto de elementos técnicos complementarios (casco, guantes o traje especial) nos hace "penetrar" en el mundo virtual, tratando de borrar de la conciencia la percepción de elementos del entorno real. 3. Realidad virtual y realidad artificial no son sinónimos. Según Bettetini y Colombo "En el primer caso (RV) se tiende a destacar la posibilidad de simular el mundo real con una finalidad cognoscitiva, realizando simulaciones basadas en modelos que se demuestren instrumentalmente adecuados para este objetivo. En el segundo caso (RA) nos proponemos, en cambio, simular entornos y escenas inexistentes, o imposibles porque incumplen leyes físicas, a fin de explorar las potencialidades expresivas del medio más allá de sus capacidades reproductivas en relación con lo real." Sin embargo, la tecnología de la RV asume, como ya señalado, todo lo que puede ofrecer la realidad artificial e incluso todo lo que permite la imaginación, mezclando -sin solución de continuidad- lo artificial con lo real. Por lo tanto, lo "virtual" es o bien totalmente ficticio o bien una simulación de un objeto o fenómeno real.a página siguiente: es un ejemplo de mal uso del concepto de virtualidad.


Breve historia 1956 - Morton Heilig inventa el Sensorama. 1956 - Stanton inventa un casco binocular con pantallas de TV. 1957 - M.L. Heilig patenta un par de lentes con dos pantallas de TV a color. 1965 - Ivan Sutherland publica "The Ultimate Display". 1966 - Tom Furness empieza a trabajar en sistemas de pantallas para pilotos. 1967 - Fred Brooksy otros desarrollan el sistema GROPE de retroalimentación de fuerza en la UNC de Chapel Hill. 1968 - Ivan Sutherland publica "A Head-Mounted Three Dimensional Display". 1971 - Redifon Ltd. (GB) inicia la fabricación de simuladores de vuelo con pantallas de gráfica computarizada. 1977 - Dan Sandin y Richard Sayre inventan un guante sensible. 1979 - F. H. Raaby otros describen el sistema Polhemus de seguimiento. 1981 - Tom Furness desarrolla el 'cockpit virtual'. 1981 - G.J. Grimes, asignado a los Laboratorios Bell Telephone Labs, patenta un guante como periférico de entrada de datos.

1982 - La expresión "mundos virtuales" ("virtual worlds") fue usada por primera vez por el consultor en administración Donald Schon en 1982, para referirse a las imágenes mentales que mantiene un sujeto acerca del entorno con el cual interactúa. Posteriormente, estos términos han sido retomados, discutidos y difundidos -en el sentido en que se usan hoy en el ambiente de la computación- por el Departamento de Ciencias de la Computación de la Universidad de Carolina del Norte.

1983 - Mark Callahan construye un sistema de proyección transparente en el MIT (como usarán después los pilotos para ver mapas y, a través de ellos, el paisaje real). 1983 - Myron Krueger publica "Artificial Reality". 1984 - William Gibson describe el "ciberespacio" en su novela "Neuromancer".

1984 - El primer sistema que se proponía atravesar el umbral de las dos dimensiones y recrear una verdadera «telepresencia en un espacio de datos» (Telepresence in Dataspace) fue concebido en los laboratorios Ames de la NASA en Moffett Field, California, por el equipo dirigido por Michael Mc Greevy. El proyecto Vived (Virtual Environment Display), iniciado ahí en 1984, tenía como objetivo la construcción de una estación de trabajo virtual destinada a ser utilizada en misiones espaciales de la NASA.

1985 - Se funda VPL Resaerch, Inc. 1989 - Jaron Lanier, CEO de VPL, acuña el término "realidad virtual". 1989 - VPL Research y Autodesk introducen comercialmente los cascos de RV.


1992 - Thomas DeFanti y otros hacen una demostración del sistema CAVE en la conferencia de diseñadores "SIGGRAPH". 1993 - El manual "DESIGNING VIRTUAL WORLDS" obtuvo premio de la Evans & Sutherland Computer Company como "award-winning copyrighted guidebook".

Durante varios años el desarrollo de los equipos se ha visto detenido o frenado por diversas razones, una de ellas siendo la potencia limitada de los procesadores gráficos, pero ésta -y la calidad gráfica- ha avanzado notablemente después del año 2000 y más aún desde el 2010.

Con la creación de dispositivos cada vez más sofisticados como los guantes de manipulación (data gloves) o los trajes sensitivos completos -dotados de sensores y visores especiales- (data suits), la RV involucra, además de la vista y el oído, el tacto y el llamado «sentido del cuerpo». Según Weissberg, se está pasando así desde una situación de «prolongación de lo real en lo virtual por contigüidad» hacia una «inyección de lo real en lo virtual». La investigación sobre Realidad Virtual plenamente inmersiva (con los data suits complementando el casco/lente) ha encontrado sin embargo dificultades que podrían conspirar contra el éxito de esta tecnología. En efecto, el uso intensivo de procesos inmersivos (donde uno se "siente" presente en el mundo virtual) ha dado origen a una enfermedad llamada "enfermedad del movimiento": al parecer el cerebro detecta que se trata de una "realidad incompleta" y los sistemas normales de orientación y equilibrio se ven afectados. Mientras no se descubra la solución a este nuevo problema es probable que los sistemas de RV se utilicen solamente en versiones 2-D (3-D simulada en una pantalla) y los de 3-D inmersiva en investigaciones muy específicas. (Foto del "data suit" del "giróscopo interactivo" de los Angel Studios, San Diego, CA. -Foto D.Kirkland-)


Posibilidades de la Realidad Virtual La tecnología de la RV permite conocer cosas que de otro modo no estarían a nuestro alcance: pensemos en la estructura del átomo, la hélice del ADN (código genético), la futura estación espacial Alpha o la programación de un recorrido en la superficie de Marte. También permite a futuros cirujanos operar a pacientes inexistentes (quirófano virtual) -sin riesgo de matarlos por su inexperiencia-, a químicos intentar la creación de nuevas moléculas, a diseñadores de automóviles probar los vehículos en carreteras ficticias, etc. Aquí es posible mezclar los conocimientos adquiridos con la fantasía y poner a prueba hipótesis sin el riesgo de destruir objetos o entornos delicados. (Foto de morphing, mecanismo de transformación visual). También se puede reproducir en la memoria del computador una pirámide egipcia o cavernas prehistóricas cuya visita constituye un riesgo para su conservación: traspasado a un CD-ROM o un DVD, cualquier persona podría realizar la visita "caminando" a su antojo por dicho monumento. O recorrer las venas y arterias del cuerpo humano como en el micro-submarino del filme "Viaje alucinante". ¿La diferencia con el filme? Que el espectador es quien define el recorrido: gira cuando quiere, se acerca a lo que quiere (con ciertos límites definidos por el productor, obviamente). Todos los aspectos, todos los puntos de vista posibles de la realidad representada -verdadera o imaginaria- deben estar ahí, para que el visitante construya su propio recorrido. En este sentido rigen las reglas de la libre exploración, igual que en la navegación por la web.


Aplicaciones Ya hemos mencionado múltiples aplicaciones, como el quirófano virtual (ya en uso en la Facultad de Medicina de la Universidad Complutense de Madrid), la exploración espacial y la arqueológica, la investigación genética y química. También se benefician todas las profesiones que utilizan habitualmente maquetas o prototipos, ya que la RV permite al diseñador presentar a sus clientes simulaciones tridimensionales de la obra antes de iniciar su realización. Las actividades de alto riesgo constituyen otro campo donde la RV se puede convertir en un aliado invaluable, permitiendo, entre otras cosas, el entrenamiento de personal especializado sin poner en peligro su integridad física. (Foto: Stereo Graphic Corp., del libro "Realidad Virtual" de C.Larijani) Telepresencia La "telepresencia" -fuera del ámbito de los juegos- constituye un aspecto que también puede ser de gran importancia para la investigación. Si un operador se mantiene conectado a un robot que se desplaza en un ambiente desconocido, a través de su "data suit" podrá ayudar a construir una representación de este entorno más adecuado para el cumplimiento de los objetivos de los investigadores. No sólo se podría visualizar así -por ejemplo- el suelo marciano sino también palparlo, experimentar el peso o la resistencia de su atmósfera, etc. de modo tal que otro investigador o estudiante pueda, después, repetir o incluso profundizar la experiencia sin estar directamente conectado al robot que esté en la superficie marciana (o de otro cuerpo celeste).

Campo diferente de la telepresencia sería el de las "reuniones virtuales", en que los participantes podrían "encontrarse" en un ambiente común (sala virtual) a través de las representaciones tridimensionales de cada uno. En este caso, "el entorno virtual se convierte en un entorno compartido en el que el usuario no se percibe sólo como presente, sino como contemporáneamente presente con otros. [...] El espacio de esta presencia contemporánea simulada no corresponde a ninguno de los espacios reales en que se encuentran concretamente los interlocutores; su existencia está determinada por la comunicación entre sujetos; dicho espacio está constituido por las informaciones disponibles a la vez para las partes que establecen la comunicación [... y ...] construido en el ordenador, en el momento en que es utilizado." (Vittadini, N., p.140) Modelos publicitarios Steven Stahlberg, un especialista en animación en tres dimensiones, creó en 1999 lo que podría ser la primera "modelo virtual", para la agencia de modelos "Elite". La llamó Webbie Tookay, y su fuente de inspiración fue Lara Croft, la heroína del juego de ordenador Tomb Raider. La empresa ha invertido más de un millón de dolares en el proyecto. Stahlberg cuenta con un equipo de 15 personas para ayudarle a fabricar más mujeres y hombres virtualmente perfectos. (El Mundo/Diario del Navegante, 2/08/99)

Realidad virtual en el cine


La realidad virtual es desde hace tiempo un recurso fundamental del cine y de las series televisivas de ciencia ficción. La primera película que incorpora elementos de realidad virtual de una forma total es "The Lawnmover Man" (El cortador de césped). Sin embargo, otras películas anteriores, mejores y más interesantes, ya reflejaban los comienzos y los precedentes de la realidad virtual en el cine: "Proyecto Brainstorm", "Tron" y "Desafio Total".

Sería imposible señalar todos los títulos aparecidos desde entonces, hoy innumerables. Pero nos parece de mucho interés rescatar algunas obras que han sido a la vez pioneras e interesantes medios de difusión científica basdas en la RV:

"Viaje fantástico", basado en una novela de Asimov recorre -y explica- el sistema circulatorio humano.

"Tron" ha sido la primera película en combinar personajes humanos con realidad virtual, en 1982 (foto de la izquierda).

Pero la gráfica tridimensional (3D) progresa velozmente y, hoy, el realismo es tal que se hace en algunos casos imposible distinguir la verdad de la ficción virtual. En "Titanic", muchos "extras" fueron virtuales y, trás la muerte de Brandon Lee durante la filmación de "El Cuervo", fue reemplazado por un "doble" virtual para terminar esa película. Lo mejor de lo producido hasta mediados del 2001, ha sido sin duda "Fantasía Final", donde "actúa" la modelo virtual Aki Ross (foto al lado).

Weta Digital, el estudio que está detrás de los asombrosos efectos de la película "El señor de los Anillos", tuvo que crear


numerosos personajes virtuales para "Las dos torres" (2002), como Gollum y muchos otros. Esto no habría sido posible sin aplicaciones de alto nivel, entre las que se incluyen Maya de Alias Wavefront, Shake de Apple y RenderMap y Alfred de Pixar, software que distribuye las tareas de producción entre cientos de procesadores que trabajan con el sistema operativo Linux.

Lo más avanzado, hasta el 2003, fue lo que ofrecía un chip diseñado por nVidia, que permitía representar con mayor aspecto de realidad a seres humanos con todos aquellos pequeños detalles que los caracterizan. "Normalmente, cuánto más te acercas a un carácter en tiempo real, la calidad de la imagen empeora. Pero cuánto más te acercas a Aurora, mejor se ve ella. Así, si se mira su piel, ella tiene lunares, si se mira a sus ojos, ella tiene retina, una córnea y vasos capilares", dijo Andrew Humbar, de nVidia. Aurora es el hada que nVidia creó para demostrar las nuevas posibilidades de su tarjeta de video de 2003 (imagen al lado).

Nuevos avances se pudieron observar en la película "Avatar" escrita, producida y dirigida por James Cameron en 2009. Transcurridas tres semanas, se situó como la película con mayor recaudación de todos los tiempos y ganó el Premio Oscar en las categorías de Mejores efectos visuales (gracias a los efectos especiales realizados por la empresa Digital Domain), Mejor dirección de arte, y Mejor fotografía.


Realidad virtual en videojuegos Como ya lo hemos visto, las aplicaciones de diseño gráfico han progresado notoriamente, igual que la "expertise" de los diseñadores. Capaces de crear impresionantes copias de la realidad, lo son también de "realidades alternas", como ha sido extraordinariamente exhibido en la película Avatar. Fuera del cine de fantasía, los videojuegos son campo de trabajo importante para los grafistas expertos. Recogemos aquí algunas de las mejores producciones gráficas del año 2014, especialmente algunas que demuestran el hiperrealismo al que se está llegando, una de las apuestas que dejó la feria E3 de este año, como en el caso de "Call Of Duty: Advanced Warfare", "Titanfall" y "Rise of the Tomb Raider".

Project CARS: ‘Project CARS’ es un juego de conducción que debe ver la luz en noviembre 2014, desarrollado por Slightly Mad Studios, también responsable de otros títulos de conducción como ‘Need for Speed: Shift’ o ‘Shift 2: Unleashed’. Posiblemente revolucione el género con su versión para PC y Oculus Rift. [Comentario de Geekpro.es]

Assasin’s Creed IV: Black Flag: Esta entrega, situada esta vez en los mares del Caribe y en plena Edad de Oro de la Piratería, es una de las más brillantes de la saga; son notables los efectos a la hora de movimientos de pelo, los primeros planos, el agua, que siempre ha sido el talón de Aquiles para muchas compañías… [Comentario de Geekpro.es]

Assasin’s Creed: Unity: Éste es el próximo título de la franquicia de acción y aventura, que promete una profunda definición de los gráficos y un sistema parkour más completo en un París de los albores de la Revolución Francesa. Promete al jugador


una mayor y más precisa libertad que anteriores entregas.

Ryse: Son Of Rome: Una aventura de acción y fantasía desarrollada por Crytek y distribuida por Microsoft para Xbox One. Marius Titus es un general romano que busca vengarse y descubrir la verdad sobre la muerte de sus padres durante la época del emperador Nerón. Sus imágenes fueron elogiadas por Electronic Gaming Monthly.

Wolfenstein: The New Order: Un videojuego de disparo en primera persona desarrollado por MachineGames y distribuido por Bethesda Softworks, que se distingue de sus versiones anteriores por el mayor trabajo en los entornos, un toque de ciencia-ficción y la historia, que varía según opciones tomadas. Una experiencia diferente del castillo y de la utopía nazi.


Watch Dogs: Watch Dogs es un juego de acción / aventura desarrollado por Ubisoft Montreal, en desarrollo desde 2009, que presenta un mundo hiper-conectado, con la totalidad de Chicago dirigido por un superordenador. Tiene una historia general, pero los jugadores también pueden explorar e interactuar con la infraestructura de la ciudad, o utilizar el sistema de hackeo para descubrir misiones adicionales. Este título es uno de los más esperados de 2014,marcado por el despegue de una nueva generación de consolas que pretenden dar un salto de calidad y aportar mayor realismo y potencia gráfica.

Call Of Duty: Advanced Warfare: Esta nueva entrega (noviembre de 2014), que propone guerras mucho más futuristas y avanzadas, tiene los gráficos realmente mejorados, como vimos en el trailer.


Titanfall: Titanfall, de Electronic Arts, llegó al millón de unidades vendidas para Xbox One y PC en las primeras tres semanas después de su lanzamiento, sin contar las ventas digitales, lo que confirma su calidad.

Rise of the Tomb Raider: La último secuela de Tomb Raider, "Rise of the Tomb Raider", que llegará a finales del 2015, es más impactante que nunca.


Destiny: Ambientado 700 años en el futuro, Destiny -lanzado en septiembre 2014- es un shooter en primera persona de nueva generación, con una rica narración cinematográfica en enormes mundos para explorar. Los jugadores son guardianes de la última ciudad del planeta y luchan contra The Darkness y sus aliados alienígenas. 500 personas han trabajado en su desarrollo durante 5 años y es el videojuego de mayor costo de desarrollo de toda la historia. Tiene la intención de abrir paso a una saga de videojuegos de ciencia ficción que se estima podría perdurar toda una década. En la prueba online de su versión beta participaron cuatro millones y medio de personas.

Unreal Tournament: Unreal Tournament mostró cuál será la calidad visual que aspiran ofrecer en su próximo juego y luce impresionante. (Solo el escenario del primer nivel era visible al momento de redactar esta página).



Los mundos virtuales de comunidades El proyecto Habitat (de 1986) ha sido una de las primeras tentativas para crear un "mundo virtual" con interfaz gráfica, compartido a través de una amplia red de computadores (WAN) y con miles de usuarios. Ha sido creado por Lucasfilm Games, una filial de LucasArts Entertainment Company en colaboración con Quantum Computer Services Inc., y fue una fuente inagotable de aprendizaje acerca de los problemas prácticos y las implicaciones asociadas al mantenimiento de un espacio cibernético serio y comercialmente viable.

Como medio experimental, Habitat fue presentado como un "juego" de ciencia ficción, inspirado en el relato "True Names" de Vernon Vinge (1981) y en los modernos "juegos de rol". Su primera versión partió utilizando como servidores equipos Stratus de Quantum Link y PC Commodore 64 como "clientes" (usuarios) -muy difundidos en la época-, en cuya pantalla aparecía un lugar con los personajes interactuando ("avatars") y sus mensajes en forma de globos, como en las historietas (comics).

Cada avatar (personaje) podía desplazarse y efectuar diversos gestos (recoger o entregar algo, dialogar, etc) bajo el control del usuario que representa. El mundo virtual se componía de 20.000 lugares ("regiones") diferentes, con variada ambientación (decorado y objetos) y con un diferente "set" de acciones que podía realizar el usuario. Los usuarios podían desplazarse de un lugar a otro a través de caminos y puertas visualizadas en pantalla. También estaban previstas cuentas bancarias (ficticias) que permitían hacer compras (igualmente ficticias, aunque eventualmente de objetos que podían aparecer en pantalla, por ejemplo para alhajar la residencia de un avatar o para ser llevado o guardado en el bolsillo).

Habitat pretendía partir con una capacidad para 20.000 usuarios y llegar hasta 50.000, pero se encontró ahogado cuando la cantidad de usuarios simultáneos llegó a 50. Debía prever ambientes gráficos para todas estas personas (p.ej. una casa para cada una, organizadas en calles, barrios, etc.), así como actividades que tuvieran sentido (profesiones, juegos, deportes, etc. con los lugares donde ejercerlos), asegurando suficiente diversidad como para interesar a los participantes. Este trabajo creativo es muy laborioso y, por lo tanto, costoso. Y los resultados pueden "esfumarse" en pocas horas, como ocurrió con la actividad de "casa del tesoro", que requirió varias semanas de planificación y programación, pensando que los usuarios pasarían varios días entretenidos antes de llegar a la meta. Pero a las ocho horas de publicado, un participante ya había resuelto el juego, frustrando a todos los demás (y a los programadores).

Después del proyecto Habitat, Quantum Link sostuvo por un tiempo una comunidad que llegó a 30.000 participantes. En Japón, Fujitsu implementó una versión más avanzada, apoyada por un CD-ROM conteniendo las imágenes y sonidos, entregado a los usuarios. Posteriormente aparecieron "ExploreNet", "Virtual City", "Virtual Academy Network", "LambdaMoo", "Virtual Polis", etc. Las de mayor éxito han sido "The Palace" de Time Warner (imagen adjunta), "Worlds Away" de CompuServe y "The Realm" de Sierra On-Line, todas en 2D. En 3D (VRML) apareció el exitoso "AlphaWorld" (www.worlds.net/alphaworld/).

En 1997 apareció el primer mundo virtual europeo: " Le Deuxiéme Monde" ("El Segundo Mundo"), realizado por CRYO Interactive Entertainment, líder francés del sector ludo-educativo, con el apoyo de Canal Plus (TV Cable de pago). Recurría a un CD-ROM que contiene la aplicación para el cliente, y conexión a Internet para el juego on-line. Off-line se puede seguir un juego de aventura acerca


de las leyendas del subsuelo de París, mientras on-line se recorre el París actual en superficie, donde el usuario se encontrará con los otros participantes y podrá desarrollar una "vida" comunitaria: formar clubes, participar en foros, juegos, talleres, elecciones, etc. Cada actividad tiene su propio coordinador y hay animadores que acompañan a los novatos para capacitarlos. Sin embargo, todas las reglas éticas, sociales, políticas y económicas debían ser definidas mediante acuerdo y participación democrática. Aunque también se ofrecían servicios reales con reglas "normales": agencias de viajes, servicios bancarios, "malls" de compras, etc. , incluyendo ¡publicidad! En 1998 se lanzó "Colony City", de Cybertown y Blaxxun Interactive (desaparecido, como los anteriores). Orientado a juegos, temas de ciencia ficción, mundos virtuales y "high tech", incluía estructuras sociales definiendo roles para los participantes (alcalde, consejero, etc.), en un ambiente 3D (VRML) y una geografía al estilo de SimCity. Entre las verdaderas comunidades virtuales subsistentes, se destaca solamente Second Life, que ha resuelto todos los problemas de las generaciones anteriores de mundos/comunidades virtuales.


RV y Experiencia cognitiva Lo anterior permite a Vidali decir que: "En la RV no se comunican ya simples mensajes: se comunican mundos" (p.264). Y es que junto al mundo real -en el cual vivimos- se hace presente el mundo de los sueños -en el cual también, en cierto modo "vivimos", pero en otro estado de conciencia- y también se suma el mundo irreal de la imaginación a través de la labor artística llevada a las tres dimensiones. Pero el "mundo real" adquiere además nuevas formas, a través de las "imágenes de síntesis", generadas por el cálculo matemático o lógico-, como es lo que ha ocurrido con la matemática del caos. Tenenos así acceso a otros aspectos del mundo, que no podíamos conocer de otro manera anteriormente. Se puede concluir de ello que "La realidad virtual fue la primera tecnología en comprender, de modo explícito y programático, que la experiencia no es de la realidad sino de la relación con la realidad. Su novedad está en el hecho de ser el primer medium que no comunica mensajes sino percepciones del mundo." (Vidali, p.265). El conjunto de los medios de comunicación -y con ellos los medios de enseñanza- se ve de este modo directamente afectado: los mass-media tradicionales generalizan la experiencia, los nuevos media -como la RV- la particularizan: cada uno desarrolla su propia experiencia, su propio conocimiento, a partir del "recorrido" que hace por el micro-mundo virtual que explora. Y esta exploración es eminentemente interactiva, tal como lo es nuestra exploración de nuestro entorno diario. Cosa aún más perturbadora: algunos sistemas permiten al usuario verse a sí-mismo "presente" en el entorno virtual. Aquí aparece un "otro yo" (incluso, en algunos juegos, se pueden elegir diferentes aspectos -de otro ser humano, de un animal o un ser de fantasía-), con lo cual se produce un desdoblamiento de la personalidad acerca de cuyos efectos habrán de opinar los especialistas. La psicóloga Debby Harlow afirma que la asunción de una identidad particular puede corresponder también a la exteriorización de un paisaje interior y constituir un elemento reforzador de la propia personalidad real...¿pero no podría también introducir o expresar algo de esquizofrenia? Una cosa es segura: más que nunca, en esos casos, se pone en evidencia que la experiencia no es de un mundo -real o imaginariosino de la relación del observador con el mundo: estamos ahora forzados a observar que observamos: "La experiencia no es de las cosas, sino de la interacción con las cosas". (Vidali, p.268)


Arte digital Ya hemos mostrado como los filtros nos permiten crear nuestras propias obras de arte ("Haciendo arte alterando fotos" en el cap.8). Pero existen muchas otras maneras de crear arte digital. También hemos mostrado ya algunas, basadas en métodos matemáticos (Ver "Análisis matemático" en el cap.12).

El artista generativo y diseñador Jonathan McCabe, con sede en Canberra, Australia, utiliza la matemática -y, más precisamente la teoría de Turing sobre difusión de patrones- para crear arte digital. Para ello, McCabe utiliza píxeles. Cada píxel consigue un valor aleatorio, por lo general un número entre -1 y 1, que está representado en la imagen final por un color. Entonces, McCabe le aplica un conjunto de reglas que dictan cómo el valor de cada píxel se desplaza en respuesta a los que lo rodean. A medida que el programa avanza, los valores de píxel cambian y grupos de formas comienzan a emerger de la mezcla originalmente aleatoria de números. Al final, los lienzos digitales de McCabe a veces adquieren una apariencia sorprendentemente biológica, asemejándose a todo, desde las mitocondrias, a las manchas y rayas, con una sección transversal del tejido de las hojas que es posible estudiar con el microscopio.

Otro método de desarrollo matemático es el los "autómatas celulares", descubierto dentro del campo de la física computacional por John von Neumann en la década de 1950 y del que John Conway derivó el conocido "Juego de la vida". Aquí un producto generado en 1995 por Andrew Wuensche, en el Santa Fe Institute.


Otro método es generar fractales, como los descubiertos por Benoît Mandelbrot, padre del método y descubridor de su presencia en la naturaleza.

Otras estructuras físico-matemáticas con características fractales son los denominados "atractores extraños", como este, desarrollado por Brian Wissman con Chaoscope, un software especializado.

El Instituto de Matemáticas y Aplicaciones de Reino Unido, con motivo de su 50° aniversario, ha publicado el libro "50 Visions of Mathematics" que contiene imágenes fascinantes que representan conceptos matemáticos complejos, como ésta de la exposición de un doble péndulo. Su movimiento está gobernado por dos ecuaciones diferenciales ordinarias acopladas.


Fotografía simulada Marcin Gruszczyk es un maestro en crear realidades. Para esta imagen ha tenido que calcular detalles como la erosión de la montaña y estudiar la iluminación. Hasta a diseñadores con experiencia les cuesta convencerse de que no es una fotografía.

Alberto Trujillo es otro maestro de la creación de paisajes naturales, como lo demuestra esta imagen con increibles detalles:


Se puede ver más de Trujillo en http://alberto-trujillo.com

Combinación de recursos Lightfarm Studios ha creado esta imagen, a la que ha llamado «Naturaleza nociva». El punto de partida requiere fotografiar a la modelo con una técnica de fotografía submarina relativamente convencional, pero, a partir de ahí, todo el peso recae en el diseño gráfico y la composición 3D. Explica el proceso con lujo de detalles en un video.

¿El arte digital ignorado? "How Not To Be Seen", de Hito Steyerl (2013).


Steyerl ha sido objeto de una retrospectiva en el Instituto de Arte Contemporáneo de Londres y también se cuenta entre los más de 30 de artistas que se presentó en marzo en una nueva exposición, "Arte post-internet", que se inauguró en marzo en el Centro Ullens de Arte Contemporáneo de Pekín. "Arte post-internet" se refiere a las obras de arte nacidas después de la aparición de internet y no especialmente al arte digital. Sin embargo, la exposición y los comentarios de los artistas han llevado a reconocer que el arte contemporáneo de los últimos 20 años no fue hacia lo digital y que los artistas digitales han quedado marginados de las galerías, ferias y exposiciones, aunque el Museo Whitney de Nueva York recopiló unas cuantas obras de internet. "El arte digital, siempre marginado del discurso del arte contemporáneo, ahora es el centro de atención, pero no de la forma que uno supondría" dijo la BBC respecto de la exposición. (BBC Mundo, 27/03/2014).


Realidad aumentada La realidad aumentada (RA) es un sistema de exhibiciones 3D que se usa para sobreponer un mundo sintetizado encima del mundo verdadero captado, generalmente, por una cámara de televisión. En conjunto se proyecta en una pantalla de computador o en lentes de visión directa (por transparencia). El siguiente esquema muestra cómo puede ser usada en forma móvil, por ejemplo para recorrer y conocer un campus univeristario (equipo del Computer Graphics and User Interfaces Lab, Columbia University).

El equipamiento requerido ha progesado enormemente desde estas primeras experiencias de la Universidad de Columbia (donde se llevaba un PC en una mochila), al punto todo se resume a unos lentes especiales tan sencillos como los Google Glass.

Escenarios de Aplicación 1. Máquina de Turismo (Touring Machine): Sistema de información que asiste al usuario para encontrar lugares e inquirir información sobre puntos de interés, como edificios, estátuas, etc. El modelo puede ser ampliado para periodistas o especialistas, agregando acceso a documentos históricos o científicos. El uso que parece más frecuentemente desarrollado en la actualidad es la proyección de datos útiles en el parabrisa de automóviles, como el Cyber Navi de Pioneer (al lado). 2. Interfaces de Usuarios para colaboración Interior/Exterior: Los usuarios externos pueden informar de sus observaciones al personal del interior. El laboratorio de la universidad de Columbia ha desarrollado para ello una infraestructura distribuida que permite conectar diversas interfaces de usuario (portátil, de mano, de escritorio, de pantalla de pared y de inmersión virtual) a un mismo archivo de información. 3. La visualización en y para la guerra: La realidad aumentada es cosa común para pilotos de combate desde hace varios años. Las imágenes vistas en películas de ciencia ficción en las que los combatientes pueden ver imágenes del entorno superpuestas a la visión normal, con información sobre la situación de los compañeros y de los enemigos, ya son realidad. El Naval Research Laboratory de la US Navy en su centro de realidad virtual está trabajando en varios proyectos entre los que destacan el sistema Dragón de visualización del campo de batalla (ver al lado) y el Battlefield Augmented Reality System (BARS o sistema de realidad aumentada para el campo de batalla).



Conclusión En una columna del diario El Mercurio (Santiago de Chile, 19-09-2009), Pedro Gandolfo escribe: "Una persona es visualmente alfabetizada cuando, en primer lugar, conoce una parte importante del legado de imágenes que el arte de Occidente ha creado hasta hoy. Incluso más, deberíamos exigir, por nuestro carácter mestizo, que ese conocimiento se extienda a la iconografía fundamental de los pueblos americanos precolombinos. Conocerlo implica, muy primariamente, "haberlo visto" y, secundariamente, ser capaz de identificar a su autor (individual o colectivo) y situarlo en su contexto histórico y cultural." Podemos preguntarnos si esta concepción del "alfabetismo visual" es correcta. Partamos para ello por las definiciones, recurriendo al Diccionario de la Real Academia Española de la Lengua: Analfabetismo (De analfabeto) 1. m. Falta de instrucción elemental en un país, referida especialmente al número de sus ciudadanos que no saben leer. 2. m. Cualidad de analfabeto. Analfabeto 1. adj. Que no sabe leer ni escribir. 2. adj. Ignorante, sin cultura, o profano en alguna disciplina. Así, ser analfabeto es no saber leer ni escribir o bien ser ignorante, en el presente caso en materia de expresión visual. Pero es evidente que todo el mundo (o casi) es capaz de "leer" imágenes visuales y, gracias hoy a las cámaras digitales, muchísimos son los que pueden "escribir". ¿Es ésto suficiente o deben asumirse la exigencias de Gandolfo?

En realidad, Gandolfo se centra en un tipo particular de alfabetismo visual: el propio de la cultura occidental y de la cultura local. Pero existen otras formas o niveles: nivel básico o elemental: cualquier persona dotada de visión y de capacidad de procesamiento mental es capaz de reconocer formas y categorizarlas, aunque la atribución final de significado puede variar según la cultura nivel avanzado: dominio de las reglas de expresión, que son las que hemos expuesto Entre los dos se encuentra el nivel al cual se refiere Gandolfo. Hemos expuesto extensamente aquí (especialmente sus primeros capítulos) lo relativo al nivel avanzado. Proponemos aquí un pequeño test para evaluar nuestro "alfabetismo cultural". Vea si puede identificar los iconos que presentamos a continuación (soluciones al final). Cultura occidental 1.


2.

3.

4.

5.

6.


7.

8.

9.

10.

Cultura precolombina


11.

12.

13.

14.

15.


16.

Identificación de las ilustraciones Occidentales 1. Código de Hammurabi (Mesopotamia) 2. Pirámide y esfinge de Gizah (Egipto) 3. Apolo del Belvedere (Grecia) 4. Coliseo (Roma) 5. Santa Sofía (Istambul, Bizantino) 6. Nuestra Señora de París (Francia, Gótico) 7. La Piedad, de Miguel Ángel (Italia, Renacimiento o "Cinquecento") 8. El Cordero Místico, de Humberto Van Eyck (Pintura flamenca, Renacimiento) 9. La rendición de Breda, de Velázquez (Barroco español) 10. Bal au Moulin de la Galette, de Auguste Renoir (Impresionismo francés) Precolombinas 11. Observatorio de Chichen-Itzá (México, Maya clásico, siglos III a X) 12. Calendario azteca (México, siglos XIV a XVI) 13. Sacsayhuamán (Cuzco, Inca, 1200-1535 d.C.) (Obviamente Machu-Picchu es mucho más conocido) 14. Puerta del Sol, Tiwanaku (Bolivia, 1.500 a.C. o más) 15. Momia Chinchorro (Chile, 7020 a.C.) 16. Petroglifo de Nazca (0-800 d.C)


Bibliografía Abreu, C.: La imagen periodística no fotográfica (1.La imagen en el periodismo), en Revista Latina de Comunicación Social, nº 28, abril 2000. Arnheim, R.: Arte y percepción visual, EUDEBA, Buenos Aires, 4a. ed.1971. Arnheim, R.: El pensamiento visual, Eudeba, Buenos Aires, 1976. Aicher, O. y Krampen, M.: Sistemas de signos en la comunicación visual, G.Gili, Barcelona, 1979. Barnhurst, K.: "Los cuadros gráficos", en Revista Latina de Comunicación Social, nº 16, abril 1999. Barre & Flocon: La perspectíve curviligne, Flammarion, París, 1968. Begbie, H.: "El ojo y la visión", EUDEBA, Buenos Aires, 1972. Bettetini, G. y Colombo, F.: Las nuevas tecnologías de la comunicación, Paidos, Barcelona, 1995. Bock, D.P.: "Computer Graphics II" (http://woodall.ncsa.uiuc.edu/dbock/Class/csc232/LectureNotes.htm) Colle, R.: Iniciación al lenguaje de la imagen, Ed.Universidad Católica, Santiago, 2ª ed. 1998. (Manual que ampliamos y actualizamos aquí). Dragulescu, Alex: Sitio web www.sq.ro Buyssens, E.: Les langages et le discours, Lebègue, Bruselas, 1943. Chappé, J.M.: "L'infographie de presse", C.F.P.J., Paris, 1993. Colle,R.: Teoría Cognitiva Sistémica de la Comunicación, Santiago de Chile, Ed.San Pablo, 2002. Colom,R.: ¿Sabe geometría el martín pescador? Hacia una concepción psicológica del conocimiento humano, Estudios de Psicología, nº.50, 1993, pp.89-106. Costa, J.: La esquemática, Paidós, Barcelona, 1998. Costa, J.: La imagen de marca, Paidos, 2004 Costa, J.: Reinventar la publicidad: reflexiones desde las ciencias sociales Denis, M.: Image et cognition, Paris, PUF, 1989. de Pablos, J.M.: "Infoperiodismo - El periodista como creador de infografía", Síntesis, Madrid, 1999. de Pablos, J.M.: Siempre ha habido infografía, en Revista Latina de Comunicación Social, nº 5, mayo 1998. Desantes, J.M.: El mensaje en la documentación, en "Publitecnia" n.57, 1981. Doelker, Ch.: La realidad manipulada, G. Gili, Barcelona. 1976. Dondis, D.A.: La sintaxis de la Imagen. G. Gili, Barcelona, 1976. Dursteler, J.C.: La guerra, InfoVis.net, mensaje 115, 24 de febrero 2003, www.infovis.net/Revista/num_115 Eco, U.: La estructura ausente, Lumen, Barcelona, 1972. Edelman: Biologie de la conscience, Paris, Odile Jacob, 1992. Frisby,J.: Seeing: Illusion, Brain and Mind, Oxford, Oxford University Press, 1980. Gaines, B. y Shaw, M.: Concept Maps as Hypermedia Components, Knowledge Science Institute University of Calgary, richarddagan.com/cogmap/ConceptMaps.pdf. Harris, R.: "Information graphics", Management Graphics, Atlanta, 1996. Hessen,J.: Teoría del Conocimiento, Bogotá, Ed.Universales Höllerer, T.: MARS, Computer Graphics and User Interfaces Lab, Columbia University Horton, W.: The Icon Book, John Wiley, New York, 1994. Jacobson, R.: Worlds and Words and Wars, Newsgroup "sci.virtual-worlds", junio 1994. Larijani, C.: "Realidad virtual", McGraw-Hill, Madrid, 1994. Leturia, E.: "¿Qué es infografía"?, en Revista Latina de Comunicación Social, nº 4, abril 1998 Lévy, P.: "L'idéographie dynamique", La Découverte, Paris, 1991. Lewis-Williams, D.: The Mind in the Cave. Consciousness and the Origins of Art, Thames & Hudson, Londres, 2002. Lindsay, P.& Norman, D.: Introducción a la psicología cognitiva, Madrid, Tecnos, 2º ed. 1983. Marshall, G.: Programmez vos graphiques sur micro-ordinateur, Ed.Organisation, Paris, 1984. Maturana,H.: Biología de la cognición y epistemología, Temuco, Univ. de La Frontera, 1990. Maturana,H. y Varela,F.El árbol del conocimiento, Santiago de Chile, OEA, 1984. McGreevy, M.: Virtual Reality and Planetary Exploration, On-line vol.13 nº8, Ames Computer Systems and Research Division, 1991. Minsky, M: "A framework for representing knowledge", en Winston,P.H., 1975 Moles, A.: L'image, communication fonctionnelle, Casterman, Tournai, 1981.


Morin,E.: La méthode: 3. La connaissance de la connaissance, Paris, Seuil, 1986. NN: BARS (Battlefield Augmented Reality System), www.ait.nrl.navy.mil/vrlab/projects/BARS/BARS.html NN: Conciencia, realidad virtual y ciberespacio en educación", Curso de la Universidad de Montreal, 1991. NN: Data mining, IT Horizons, vol.2, n.2 (http://www.cambashi.com/dm-role.htm) NN: Sistema Dragon de visualización del campo de batalla, www.ait.nrl.navy.mil/vrlab/projects/Dragon/Dragon.html NN: Ventana Gráfica, El Mercurio, Santiago, 14-04-2008. Norman, D.: El procesamiento de la información en el hombre, Buenos Aires, Paidos, 1973. Norman, D.: "Perspectivas de la ciencia cognitiva", Barcelona, Paidos, 1987. Novak, J. y Gowin, D.B.: Aprendiendo a aprender, México, Trillas, 1998. Olsen, Stefanie: One man's spam is another's art, News.com, 26-07-2006. Osgood, C.: The measurement of meaning, Univ. of Illinois, Urbana, 1975. Peltzer, G. y Sanchez, J.F.: "Información periodística visual: Las grandes redes mundiales de distribución de infográficos", en Cuadernos de Información nº 7, Santiago, 1991. Peninou, G.: Semiótica de la publicidad, G. Gili, Barcelona, 1976. Pérez, E.J.: "Radiografía de una megainfografía", en Revista Latina de Comunicación Social, nº 20, agosto 1999. Putnam,H.: Representación y realidad, Barcelona, Gedisa, 2º ed. 1995. Perner,J: Comprender la mente representacional, Barcelona, Paidos, 1994. Rheingold, H.: Virtual Reality, Summit Books, Simon & Schuster, New York, 1991. Robinson,J.O.: The Psychology of Visual Illusions, Londres, Hutchinson University Library, 1972. Rodríguez, J.L.: Las funciones de la imagen en la enseñanza, G.Gili, Barcelona, 1976. Royo, J.: Identidad líquida, Las marcas en el ciberespacio, 2008? (www.joancosta.com/). Schmidt, S.: New definitions of reality, Paper, Conference on a New Space for Culture and Society, Praga, nov.1996. Shepard,R.: Sobre la comprensión de las imágenes mentales, en BARLOW,H. & col.: Imagen y Conocimiento, Barcelona, Crítica, 1994, pp.247-252. SRA: "Knowledge discovery in databases" (http://www.knowledgediscovery.com) Tufte, E.: Envisioning Information, Graphics Press, 1992. Vidali, P.: "Experiencia y comunicación en los nuevos media" en Bettetini, G. & Colombo, F.: Las nuevas tecnologías de la comunicación, Paidos, Barcelona, 1995, pp.259-285. Vignaux,G.: Les sciences cognitives: Une introduction, Paris, La Découverte, 1991. Villafañe, J.: Introducción a la teoría de la imagen, Pirámide, Madrid, 1985. Vittadini, N.: "Comunicar con los nuevos media" en Bettetini, G. & Colombo, F.: Las nuevas tecnologías de la comunicación, Paidos, Barcelona, 1995, pp.125-176. Westphal, Ch. & Blaxton, T.: Data Mining Solutions, Wiley, New York, 1998. Winston, P.H.: The psychology of computer vision, McGraw-Hill, Nueva York, 1975. Witmer, R., Bailey, J. & Knerr, B.: Virtual spaces and real world places: transfer of route knowledge, International Journal of HumanComputer Studies, vol.45, 1996. pp. 413-428. Los lectores interesados en el análisis de contenido de los mensajes visuales pueden encontrar un manual nuestro sobre este tema en la siguiente dirección: http://www.revistalatinacs.org/067/cuadernos/08_Colle_interior_DEF.pdf. La dirección de nuestro blog de Lenguaje Visual es visualismo.blogspot.com Puede encontrar nuestro curriculum y otras publicaciones en sites.google.com/site/colle/raymond-colle


Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.