Issuu on Google+


Vestigium Volumen 3, número 1 ISSN: 1794-8940 Corporación Universitaria Unitec PRESIDENTA Dra. Amparo de Arango RECTOR Dr. Fernando Parra Ferro CONSEJO EDITORIAL Editor José Ignacio Duarte García, Ed. M. Oficina de Promoción y Desarrollo Académico Editor Asociado David Arturo Acosta Silva, Ed. M. Centro de Investigación Vicerrector Académico Ing. Jorge Coronado Padilla, M. Sc. COMITÉ CIENTÍFICO Diego Fernando Barragán Giraldo Universidad de La Salle Área socio-humanística Adyel Quintero, Ph. D. Corporación Universitaria Unitec Área artes Marta Quiroz Corporación Universitaria Unitec Área ciencias económicas y administrativas Ing. Mauricio Díaz, M. SC. Corporación Universitaria Unitec Área ingeniería Director de Arte Carlos Soto Artistas invitados Estudiantes Programa de Diseño y Producción Gráfica, Corporación Universitaria Unitec. Asesoría gráfica Marcelo Meléndez Corrector de estilo Hernando Salamanca Coordinadora de diseño y diagramación Diana Marcela Grosso Noguera Taller de Diseño Digital Diseño de portada Rafael Ricardo Angarita Rodríguez Diseñadores Gladys Cecilia Lancheros Rodríguez Rafael Ricardo Angarita Rodríguez. © Corporación Universitaria Unitec, 2007. Todos los derechos reservados


Vestigium

Revista Académica Universitaria ISSN 1794-8940

Volumen 3 Número 1 Febrero-julio de 2007

Editor José Ignacio Duarte García, Ed. M.

Oficina de Promoción y Desarrollo Académico EDITOR ASOCIADO DAVID ARTURO ACOSTA SILVA, Ed. M.

Centro de investigación

Corporación Universitaria Unitec


 OBJETIVOS Y COBERTURA TEMÁTICA La revista Vestigium (ISSN 1794-8940) es una publicación académica, comprometida con la difusión de la producción investigativa y académica de la comunidad uniteísta; mas también está abierta al trabajo de académicos de cualquier nacionalidad. Vestigium publica artículos científicos, ensayos, reseñas e informes sobre cuatro áreas centrales: ciencias humanas y educación, ingeniería, ciencias sociales y arte.

POLÍTICA EDITORIAL Vestigium es publicada semestralmente (en los meses de febrero y agosto) en un volumen por año por la Oficina de Promoción y Desarrollo Académico y distribuida gratuitamente a la comunidad académica colombiana. Su política editorial es planteada y revisada semestralmente por su consejo editorial, de acuerdo con las directrices editoriales generales de la Universidad. Contribuciones son bienvenidas de dentro y fuera de la universidad, sobre cualquiera de los temas cubiertos. Vestigium no espera que tales contribuciones cumplan con estándares más allá de los cánones de la academia y la ciencia: claridad de lenguaje, uso de evidencias para soportar afirmaciones y validez científica. Las instrucciones para los autores se encuentran en las páginas anteriores de la contracubierta. Los escritos publicados en Vestigium reflejan exclusivamente el pensamiento de sus autores y no necesariamente una posición de sus editores o de la Corporación Universitaria Unitec. Espacios para publicidad en Vestigium están disponibles, siempre y cuando estén de acuerdo a la naturaleza de la revista y a los intereses de los lectores.

DERECHOS DE AUTOR La reproducción total o parcial de este escrito en forma idéntica o modificada por cualquier medio mecánico, electrónico o informático, incluyendo fotocopia, grabación, digitalización o cualquier sistema de almacenamiento y recuperación de información no autorizada por la Corporación Universitaria Unitec viola los derechos reservados. Solicitudes de permisos de reproducción pueden ser dirigidas directamente al editor o al titular de los derechos; éste aparece en la leyenda de copyright en la primera página de cada artículo.

Canje: Marcela Álvarez. Jefe Sección de Biblioteca. Corporación Universitaria Unitec. Cra. 15 No. 76-40. Bogotá, D. C., Colombia.

Correspondencia, copias números anteriores y publicidad: Revista Vestigium, Oficina de Promoción y Desarrollo Académico. Calle 76 No. 12-58. Bogotá, D. C., Colombia.

Oficina de Promoción y Desarrollo Académico Corporación Universitaria Unitec Calle 76 No. 12-58 Bogotá, D. C., Colombia. jduarte@unitec.edu.co www.unitec.edu.co Preprensa e impresión: Artes Gráficas Unidas AGU. Impreso en Colombia


Contenido Volumen 3, número 1, enero-julio 2007

ISSN 1794-8940

CIENCIAS HUMANAS Y EDUCACIÓN Cómo debería ser una “buena” investigación en educación. Karl Hostetler Ctrl+C, Ctrl+V, hipertextualidad y plagio. Álvaro Cardona Trujillo Motivación en el proceso educativo. María Teresa Davis Díaz

8 20 28

INGENIERÍA Utilización de mapas de autoorganización en la clasificación de coeficientes wavelet para la creación de escenas de video naturales.

34

Mauricio Díaz Melo y Pedro Raúl Vizcaya Guarín Principios fundamentales para el desarrollo y administración eficiente de redes de computadores LAN en la fábrica. José Ebert Bonilla Olaya y Jaime Humberto Carvajal Rojas

45

CIENCIAS SOCIALES Una reflexión sobre la importancia de la formación administrativa. Luis Alejandro Duarte García

54

ARTES La historia de la película es interesante: ¿…? Adyel Quintero Díaz

59

Los míos, los tuyos y el diseño. Marcelo Meléndez Peñaranda

67

Canal universitario nacional: oportunidad audiovisual de desarrollo y construcción de país. Juan Camilo Díaz Bohórquez

72







Editorial Después de dos años de circulación en el ámbito educativo, y de manera especial en el ambiente de la educación superior, la Revista Académica Universitaria Vestigium goza de gran aceptación y reconocimiento; es por ello que cada nuevo número es esperado con gran expectativa, dados los aportes que presenta y su contribución a la discusión académica que se desarrolla en nuestro país. Si bien es cierto que nos sentimos satisfechos con los resultados y el camino recorrido hasta el momento, al mismo tiempo somos conscientes de que es hora de dar un nuevo paso y colocarnos mayores desafíos que nos conduzcan a la indexación de nuestra revista. Es por ello que venimos introduciendo algunos cambios dentro de los que queremos destacar los siguientes: La conformación de un Comité Científico integrado por representantes calificados de cada una de las Escuelas institucionales y con la participación de un par académico de una reconocida universidad del país. Ello nos permitirá trabajar la revista en las áreas de conocimiento que son fortaleza de la Institución. Lo anterior se comienza a evidenciar en la edición del presente número en donde los artículos se encuentran clasificados por áreas disciplinares. Asimismo, a partir de ahora Vestigium cuenta con un corrector de estilo externo, en éste caso el Lingüista Hernando Salamanca, quien ha querido unirse a nuestro trabajo y nos aportará sus conocimientos para enriquecer nuestra publicación. Por su parte, si bien la circulación de la revista continuará siendo semestral (publicada en los meses de febrero y agosto), a partir del presente año su identificación se trabajará por volúmenes anuales –y no por años como se venía organizando–, constando cada volumen de dos números. De tal forma, la presente revista, a la cual le corresponde el número cinco de nuestra colección, se identificará como el primer número del volumen tres y la del mes de agosto corresponderá al número dos de dicho volumen.

Por último, es bueno destacar que en cada edición se buscará aplicar con mayor rigor y exigencia los parámetros establecidos para la publicación y que han sido comunicados en diferentes medios y en la misma revista (en el anverso de la contracubierta), con el fin de lograr una uniformidad metodológica y de estilo que nos permita ser reconocidos con un perfil claro y definido por parte de nuestros lectores. Pero no todo es cambio; seguimos contando con la traducción de un artículo internacional, el cual nos permitirá confrontar nuestros resultados con aquellos que se están dando en el entorno global de la educación y que alimentará nuestros intereses especialmente en lo que tiene que ver con el aspecto investigativo en educación. Ello nos ayudará a alcanzar el objetivo institucional de que los escritos publicados en las diferentes áreas sean el resultado de las investigaciones desarrolladas en el seno de nuestra comunidad académica. Es así como destacamos en el presente número el significativo aporte del profesor Karl Hostetler (Ed. D.) de la Universidad de Nebraska quien con su artículo “Cómo debería ser una ‘buena’ investigación en educación” nos genera grandes aportes e interrogantes sobre nuestra labor investigativa. Al mismo tiempo, presentamos un sincero reconocimiento a los estudiantes del programa de Diseño Gráfico de nuestra institución quienes con su trabajo han colaborado para enriquecer la parte gráfica de la revista. Con el ánimo de seguir avanzando en nuestro proyecto institucional de colocar a Vestigium como una publicación de altísima calidad y así alcanzar su reconocimiento científico e indexación entregamos a los pares académicos y al público en general el nuevo número de nuestra publicación.

Carlos Fernando Parra Ferro, Ed. M. Rector




Artículo  disponible  sólo  en  la  versión  impresa   por  decisión  de  los  titulares  de  los  derechos  de  autor.


Cómo debería ser una “buena” investigación en educación.

19


20 CTRL+C, CTRL+V, HIPERTEXTUALIDAD Y PLAGIO Álvaro Cardona Trujillo Especialista en Derecho Público Corporación Universitaria Unitec

Resumen La generación que utiliza hoy las tecnologías de información y comunicación (TIC) y cursa estudios profesionales es expedita en el manejo de las mismas, pero generalmente experimenta un gran vacío en materia de metodología de investigación en cuanto respecta a su uso y manipulación, hecho proveniente de la brecha generacional existente con quienes le imparten su educación superior, lo que genera una relación de causalidad entre la calidad de la educación superior impartida y la calidad del conocimiento adquirido. Se requiere entonces que la orientación en materia de investigación gire en orden al aprovechamiento de tales tecnologías, lo que impone primeramente alejar la transmisión del conocimiento del modelo tradicional para que el establecimiento educativo, el docente y el estudiante, interactúen dentro de un modelo flexible por el uso expedito de las nuevas tecnologías, las cuales les permitirán incrementar su comunicación. Además, esto lleva al alumno a protagonizar mayormente su acceso al conocimiento y consultar con el profesor en su calidad

Álvaro Cardona Trujillo es docente en Constitución Política del área de Humanidades en la Corporación Universitaria Unitec y en la Facultad de Derecho de la Universidad de Bogotá Jorge Tadeo Lozano. Abogado litigante, con estudios de especialización en Derecho Público en la Universidad Nacional; cardonatrujillo@gmail.com

Vestigium, 3, (1). Febrero de 2007, pp. 20-26. © Corporación Universitaria Unitec, 2007.

de conductor más que de exponente, sin limitación de tiempo y espacio, o, para expresarlo mejor, sin la sujeción exclusiva al aula de clase. Palabras claves: copiar y pegar, derecho de autor, plagio académico, redes informáticas, universidad.

Introducción

Fray Luis de León, Moratín, Espronceda, Shakespeare y hasta Dante y tantos otros famosos antiguos y modernos, se introdujeron en ajenas heredades, para sustraer ideas, temas, argumentos, versos y aún estrofas completas o imitaron ostensiblemente a los clásicos tales como Virgilio, que a su vez copió a Teócrito, Platón, Píndaro, Cicerón, etcétera.1 Esa especie de nueva generación pérdida,2 a la que pertenecimos quienes transitamos la universidad sin poder utilizar las herramientas que hoy proporcionan la informática y las telecomunicaciones, manipuló la máquina de escribir para realizar sus investigaciones y ensayos; fueron trabajos editados en tiempo real y en


CTRL +C, CTRL+V, hipertextualidad y plagio.

dos copias gracias al papel carbón. La consecución de la información dependía de la pesquisa que en las bibliotecas proporcionaba la investigación requerida, copiando lo pertinente e insertando, muchas veces, su contenido idénticamente en el escrito mediante el instrumento mecánico de teclas que impuso siempre una mediatez hoy poco deseada, dado el tiempo transcurrido entre la investigación y el resultado traducido en el cuerpo físico de su contenido. Fueron tiempos en los que el uso del computador en las empresas e instituciones de educación superior se limitaba a los asuntos contables, con estrictos códigos de mando y combinaciones de teclas bajo el sistema operativo DOS (sistema operativo de disco) en pantalla negra, extraño e inexpugnable para el usuario. Casi veinte años después la generación posterior, recursiva en el uso de la informática para la consecución de sus fines culturales y hedónicos, ha sido capaz de violar desde hace una década y desde la niñez, la torpe seguridad establecida por sus padres en el sistema operativo del ordenador y del acceso a Internet, para ingresar a páginas web, bajar contenidos ilegales de programación, de música e imágenes, ingresar a sitios del ciberespacio abiertamente ilegales en sus respectivos países y también a los sitios legales que ofrecen, entre otros, documentos, la elaboración de monografías y trabajos de investigación, que posteriormente son presentados bajo su autoría en las instituciones donde cursan sus estudios. La generación anterior y la posterior se hayan ahora bajo un reto mutuo, derivado de la brecha tecnológica y ética existente entre ellas, lo que supone para aquélla el miedo al uso de las nuevas tecnologías y el vacío relativo en la escala de valores transmitidos a sus hijos, y para ésta, la trasgresión consecuencial de los valores mal asimilados, la versatilidad y destreza en el uso de la informática y las telecomunicaciones, y su disposición proactiva al avance de las mismas. El plagio del derecho de autor de forma repetida y crónica en las universidades por parte de los estudiantes, la forma como estos adquieren la información referenciada en los proyectos pedagógicos temáticos y el enfoque proporcionado por el cuerpo docente para la metodología de la investigación, habida cuenta de la celeridad en la transmisión de la información, constituyen el objeto de análisis y controversia planteada en este breve artículo y el propósito de argüir sobre la necesidad perentoria de utilizar la informática a tono con el reto que la misma plantea al cuerpo docente y al Alma Mater, en virtud de la velocidad para transferir la información, del fenómeno del hipertexto, hiperdocumento e hiperespacio,3 del software

didáctico, los soportes multimedia, las redes informáticas, etcétera.

Derecho de autor y ética

Los países miembros de la Comunidad Andina de Naciones adoptaron el Régimen Común sobre Derecho de Autor y Derechos Conexos,4 teniendo en cuenta los siguientes aspectos de creatividad: Las obras expresadas por escrito (…) como libros, folletos, (…) además de las obras dramáticas, artísticas y cinematográficas, (…) derivan el derecho moral de conservar la obra inédita o divulgarla, (…) reivindicar su

21


22 paternidad en cualquier momento, y (…) oponerse a toda deformación mutilación o modificación que atente contra el decoro de la obra o la reputación del autor (…), y el derecho patrimonial (…) de realizar, autorizar o prohibir su reproducción, (…) comunicación pública, (…) distribución pública, (…) importación de copias al territorio de cualquier país miembro, traducción, adaptación (…)5 Los anteriores parámetros permiten a los autores en ejercicio de tales derechos ejecutar mediante autoridad competente las medidas procesales cautelares de embargo y secuestro, e incautaciones de los bienes utilizados en el ilícito, además del pago de los perjuicios derivados traducidos en indemnizaciones y costas procesales, sin perjuicio de las sanciones penales a que hubiere lugar. La Comunidad Andina de Naciones unificó los criterios relativos al derecho de autor para una aplicación estandarizada de su definición y protección, y de la represión a su violación. En Colombia la Ley reguló el tema en materia civil, comercial, informática e industrial y estructuró la Dirección Nacional de Derecho de Autor6; en materia penal, mientras tanto, consideró la “violación a los derechos morales de autor, la defraudación a los derechos patrimoniales de autor y la violación a los mecanismos de protección de los derechos patrimoniales de autor y otras defraudaciones”,7 como conductas punibles que, tipificadas en diferentes modalidades, imponen multas hasta de veinte mil salarios mínimos mensuales legales vigentes y prisión de dos a cinco años. El plagio del derecho de autor en textos escritos tiene lugar de forma reiterada por parte de miembros de la comunidad estudiantil en la educación superior; la queja por esta conducta a través de los medios de comunicación, informa a la sociedad que sus autores en abanico la personifican en todas sus capas: el estudiante anónimo, el practicante en la prensa escrita8, el representante ante cuerpos colegiados de carácter nacional9, el hijo del gobernante10, etcétera. De quienes lo cometen, se exceptúan los que generan valor agregado a su conocimiento, logros académicos y prestigio institucional de la universidad a la que pertenecen. Cada establecimiento educativo superior reglamenta la aplicación disciplinaria contra tales conductas, tanto para el estudiante como para el docente.11 Al concretar con el uso del copy&paste (copiar y pegar) la intensión explícita de consumar plagio en un trabajo de investigación, el estudiante resulta responsable (y solo él), con exclusión del docente que lo orienta durante el desarrollo de la materia que le dicta; pero la metodología de investigación que le proporciona éste mientras aprende a desarrollarla –y que le tomará todo el transcurso de

su carrera—, deberá ajustarlo a límites definidos para el resultado de su producción escrita en la definición del “(…) tipo de escrito académico, (…) la construcción del trabajo académico, (…) la estructura del mismo, (…) la citación y paráfrasis (…), la propiedad intelectual de los derechos de autor y el plagio”.12 El motivo del plagio académico se puede comprender desde su aceptación por parte de la sociedad, hasta por el mal manejo que del tiempo hace el estudiante, la indiferencia del docente en tomar en serio la situación, la falta de conocimiento de los estudiantes para efectuar una investigación y para aplicar las citas debidamente, la ignorancia del significado de los derechos de autor y, también, porque les asiste una fuerte pereza. Los ingredientes anteriores mezclados con el condimento de la inmediatez —proporcionada por Internet para obtener los temas (páginas web especializadas en trabajos y monografías)—, han incrementado altamente los valores cuantitativos de participación de copistas en la universidad. A la práctica del plagio, que no es un fenómeno nuevo, hay que añadir el nuevo lenguaje del ciber plagio académico, que es el uso de las tecnologías de información y de comunicación (TIC) para llevar a cabo dicha práctica de forma parcial o total en los referidos escritos. Y aunque la presencia de las nuevas tecnologías no cambia la naturaleza del plagio, resulta cierto que el uso de dichas tecnologías para tal finalidad predomina, sus efectos se desconocen y la solución aún continúa siendo un punto de discusión dada la dificultad que entraña su aplicación. La transmisión de valores como la honestidad y el respeto a los aportes que otros han hecho con sus investigaciones a las nuestras, resulta de vital importancia para el alumno, porque el obrar en contravía de los mismos mediante la práctica del plagio a través de su carrera, lo hace ver como poseedor de un conocimiento que no tiene, aunque la frivolidad existente le haga creer que lo posee, deteriorándose así, por cada promoción de egresados, el proyecto y finalidad de la educación superior. Somos testigos del sentido mercantil de la sociedad del plagio, pero también lo somos de la ausencia de dolo de los estudiantes al plagiar los escritos académicos, por lo que resultaría conducente como alternativa a la aplicación de los rigores disciplinarios por su consumación reflexionar en el hecho de que el lenguaje escrito del que se nutren las ideas está girando hacia el uso de la tecnología y, más puntualmente, hacia Internet y su multiforme potencialidad, y que es conducente y ético el uso de dicho lenguaje donde todos pueden participar, expresarse, opinar, crear contenidos, insertar enlaces y relacionarse, alrededor del tema de investigación propuesto dentro de una misma dirección o URL (del inglés: Universal Resource Locutor —localizador


CTRL +C, CTRL+V, hipertextualidad y plagio.

universal de recursos—).

Hipertextualidad e investigación El acceso a la información en el siglo XXI resulta en una práctica casi ilimitada, diferente de aquella época en la que para obtenerla estaba circunscrita al tránsito del libro. Es igualmente un hecho que la visita a las bibliotecas en cuanto cultura del libro está siendo afectada por las nuevas tecnologías que nos proporcionan dicha información con mayor facilidad, y que permiten que las personas interactúen y la intercambien. Al hacer esto se topan con el derecho de autor, que fue estructurado inicialmente para transportar las ideas en libros, pero con el propósito de que las mismas las pudiera utilizar la gente; sólo que esa protección entraba en rigor al plasmar las ideas en el soporte físico, por lo que, según Barlow, “En otras palabras se protege la botella y no el vino”.13 Entre una y otra tecnología (la producción del libro y la world wide web) los innumerables contenedores de la información que son los libros se cambian a uno que los contiene a todos y que en la actualidad se encuentra en proceso de formación, pero que permite la interactividad entre los usuarios de tal tecnología para la adquisición del saber, lo que impondrá a la educación superior una preparación puntual para la obtención de destrezas en la exploración y manipulación de los datos.14 Al respecto la Fundación Wikipedia afirma: (…) la información contenida en el ciberespacio promueve un lector activo y entrometido que cuenta no sólo con libertad de trayecto, sino que está facultado para realizar anotaciones y crear nexos. De este modo también se da un debilitamiento de la autonomía del texto (…) Dentro del marco protector del derecho de autor la originalidad es su elemento, pero las nuevas tecnologías de información imponen la variación y la repetición en contravía de dicha originalidad para complacerse en la obra más que en su singularidad o como lo afirma la Fundación Wikipedia: (…) esa naturaleza de la información electrónica basada en hipertexto que busca sobre todo poner al lector a jugar y a participar, y que tiene su antecedente en la noción de la doble productividad posmoderna, según la cual, el autor se empeña en diseñar artefactos y “modelos para armar” y no en mostrar una visión original y novedosa de las cosas —la cual, de otro lado, debe ser formada por el lector— (…)15

Mediante el uso de los pies de página y referencias, el investigador necesariamente debe acudir a otros textos, es decir, suspender la lectura del texto principal para buscar información relacionada con éste, lo que implica siempre un tiempo valioso de tardanza en el proceso; el hipertexto, en cambio, le permite moverse en el ciberespacio con gran velocidad, y con “(…) una flexibilidad que por lo menos se aproxima al funcionamiento del intelecto humano de forma que ni los libros ni la lectura secuencial pueden permitir (…)”.16 Bajar la información de la red representa una acción que en términos de tiempo permite condensar físicamente la información de forma inmediata, lo que contrasta con el tiempo que en cuestión de imprenta transcurre entre la producción y distribución del producto escrito. La informática17 traducida en el uso de las bases de datos y las redes electrónicas, no permite ningún intervalo de tiempo entre producción y distribución.

Marco propositivo

Internet, desde su surgimiento, ha venido incrementando sus herramientas y, a través de éstas, la información y el conocimiento son accesibles a todo tipo de personas y de comunidades. Dentro de ellas, la comunidad académica ha diversificado su uso, desde las páginas web como portal

23


24 de acceso a las instituciones que la representan, hasta los foros de discusión18 anexos a páginas web sobre un tema común. Para obtener conocimiento las nuevas generaciones cuentan con criterios y posiciones deliberantes y mucho mejor estructuradas que las antiguas, en la medida en que acudan al uso expedito de dichas herramientas, bajo tutoría del cuerpo docente o por su propia cuenta, porque, en esencia, la red constituye una vehemente invitación a su manipulación, interacción, inclusión de contenidos y modificación de los mismos. Es posible que la transición de la clase magistral hacia el uso de las nuevas tecnologías experimente inevitables inconvenientes propios de dicha acción; pero la universidad en Colombia habrá de agregar a su página web (que muestra su estructura organizativa por programas y facultades, servicios e información sobre las carreras profesionales o técnicas que imparte y su génesis y pensamiento) otros enlaces como lo son la biblioteca, su uso y acceso e inscripción, con el objeto de reservar la información pertinente por parte de alumnos y docentes, y enlaces a otras bibliotecas e instituciones de la localidad. Incluso proveer acceso al dispositivo de ebook o libro electrónico,19 que en gran medida reemplace el contenido físico del libro como tal. La educación a distancia es una realidad en varios centros de educación superior del país, pero podría incrementarse su uso por parte de muchas otras con el fin de permitir su acceso a personas de la tercera edad, discapacitados o quienes residen fuera de la localidad, etc. Sin embargo, el cuerpo docente con apoyo del centro educativo al que pertenece, puede en la actualidad “colgar” en la red el contenido del programa y saber qué pretende transmitir y el método de su manipulación por parte de éste y sus alumnos para analizarlo y explorarlo de forma dinámica, para lo cual el tema principal de dicho programa contará con

su propia página web con enlaces a otras sobre el mismo tema y de diferentes instituciones educativas, además de su foro de discusión anexo, en donde los estudiantes deberán participar según el método sugerido o convenido, por medio del cual transformarán la información aportada enriqueciéndola, pues la dinámica del foro es la aportación continua, la expresión de dudas y explicaciones, la polémica e incluso la invitación a participantes de afuera, que bien pueden ser miembros de otras comunidades académicas. Crear un blog o weblog20 podrá ser una alternativa para que los estudiantes alcancen las competencias establecidas en los proyectos pedagógicos, cuya responsabilidad de creación les asignará el docente para que aquellos inserten sus trabajos personales y de grupo “colgándola” a la página pertinente, además de otros enlaces y contenido audiovisual si se quiere sobre el mismo tema y sus respectivas conclusiones. Cabe aclarar que la diferencia con el foro de discusión anexo a una página web institucional es que aquél tiene la posibilidad gratuita de ser creado como una página personal. Los grupos de noticias o usenet,21 bajo inscripción previa en listas de correo, permiten, aunque no de forma interactiva, acceder a innumerables opiniones calificadas sobre temas específicos y contestarlas dentro de varias jerarquías de temas que van desde neurología y computadoras hasta humanidades y religión, por lo que, bajo orientación puntual la academia igualmente, puede beneficiarse de los mismos. En los casos de menor complejidad, todos los medios de comunicación escrita, hablada y audiovisual, lo mismo que organizaciones no gubernamentales, corporaciones y empresas a nivel global y local, cuentan con presencia estable en la red y permiten e invitan al usuario a que interactúe con ellas, tome información y se integre, por lo


CTRL +C, CTRL+V, hipertextualidad y plagio.

que cientos de millones de seres humanos que utilizan la Internet, en nuestro caso en la educación superior, están experimentando un cambio continuo y dramático en sus estructuras tradicionales, lo que les impone y obliga a adecuarlas en nuestro beneficio y el de las generaciones futuras.

Conclusión Cortar y pegar como práctica indeseada en la búsqueda de la información en la Internet, no debe considerarse de ningún modo como adquisición de conocimiento, pero ante la insistencia crónica en su uso y el resultado negativo de su desestímulo mediante acción disciplinaria y aún pedagógica en la educación superior de todas las latitudes, puede evitarse aprendiendo a procesarla de forma colectiva: del mismo modo que para los trabajos académicos escritos contamos con normas estandarizadas para su elaboración, así la investigación, mediante las nuevas tecnologías, exigirá una metodología para el efecto y una pedagogía para llevarla a cabo, cosas que permitirán a los estudiantes, de manera conjunta, encausarla y manipularla.

Notas Juan Valera, Obras completas. Madrid: s. d., 1949. Citado en Lucio Mendieta y Núñez, El plagio y la investigación. México: Aguilar, 1966, p. 455. 2 “Con este nombre se conoce a los escritores estadounidenses que reflejaron el clima de pesimismo y desconcierto que siguió a la Primera Guerra Mundial”. Wikipedia. La Enciclopedia Libre. [En línea] Disponible en Internet en la dirección: http://es.wikipedia.org/wiki/Generaci%C3%B3n Perdida 3 “(…) El hipertexto ha sido definido como un enfoque para manejar y organizar información, en el cual los datos se almacenan en una red de nodos conectados por enlaces. Los nodos contienen textos y si contienen además gráficos, imágenes, audio, animaciones y video, así como código ejecutable u otra forma de datos, se les da el nombre de hipermedio, es decir, una generalización de hipertexto (…)”. Adelaide Bianchini, Conceptos y definiciones de hipertexto [En línea] Disponible en Internet en la dirección: http://www.ldc.usb.ve/~abianc/hipertexto. html#Caracteristicas 4 Ministerio del Interior y de Justicia (Colombia). Decisión andina 351 de 1993. 29 de diciembre de 2002. [En línea] Disponible en Internet en la dirección: http://www.derautor.gov.co/htm/legal/legislación/decision. htm 5 Ibíd. 6 D.M.S. Derecho Comercial, Ley 23 de 1982 sobre derecho de autor. Ley 44 de 1993 que modifica la Ley 23/82. Decreto 1360 de 1989 sobre inscripción del soporte lógico. Decreto 0162 de 1996 que reglamenta la decisión andina 351 de 1993. Decreto 1278 de 1996 que fija la 1

Se necesitará entonces una interacción entre la universidad, el docente y el alumno para la difusión del uso adecuado de la informática, como mecanismo que alimente el conocimiento y la consecución de información que en lugar de servir para la violación de los principios éticos de la investigación, como hoy la padecemos de manera recurrente, la enriquezcan y contribuyan aportando a la sociedad egresados integrales con perfiles profesionales armónicos con la nueva sociedad de la información. Se dice que no hay nada nuevo bajo el sol y que las situaciones que experimenta la humanidad se repiten de forma inexorable a través de los tiempos; será porque el hombre, como máxima expresión del universo, visto desde la experiencia idealista en la visión de sí mismo y del cosmos, sabe que también es una copia de su creador que por su generosidad lo hizo a su imagen y semejanza.22

estructura interna de la dirección nacional de derecho de autor. [cd-rom] s. l.: Ediciones Jurídicas, 2004. 7 Congreso de Colombia. Código penal colombiano (ley 599 de 2000). TITULO VIII Artículos 270-272. Bogotá: Junio 24 de 2000. Diario Oficial No. 44097 de Julio 24 de 2000, p.1. 8 El Tiempo publicó un artículo titulado “Prostitutos de estrato 6”, elaborado por un practicante de una universidad bogotana, que resultó ser plagio de publicación del periódico de la Universidad Nacional, titulado “Mi belleza por tu dinero”. Defensor del Lector, “Plagio en artículo de El Tiempo”, El Tiempo. Domingo 28 de Mayo de 2006. 9 Al entonces Representante a la Cámara Luis Fernando Velasco, le fue cancelada la matrícula en la Universidad Externado de Colombia por plagio en trabajo de postgrado. Terra Punto Com, Actualidad Nacional. [En línea] Disponible en Internet en la dirección: http://www.terra.com. co/actualidad/nacional/30-08-2003/nota104464.html (Acceso 28 de Septiembre de 2006). 10 Un hijo del presidente Álvaro Uribe, que estudia Economía en la Universidad de Los Andes, quedó en matrícula condicional, por plagio en la clase de un profesor visitante de la Universidad de Harvard. La Nota. com. Confidencias. [En línea] Disponible en Internet en la dirección: http:// www.lanota.com.co/noticias/barras/Confidencias/Confidencia8005.php (Acceso 28 de septiembre de 2006). 11 “Son conductas de orden disciplinario de los miembros del Estamento Docente, susceptibles de ser calificadas como faltas graves o leves (…), apropiarse o aprovecharse indebidamente de descubrimientos científicos, trabajos o investigaciones, escritos, artículos, textos, obras o materiales de Unitec o de terceros…” Corporación Universitaria Unitec, Reglamento Docente. Bogotá: Corporación Universitaria Unitec, 24 de octubre de

25


26 2001. Art.31, literal d. 12 David Arturo Acosta Silva, Manual para la presentación de trabajos académicos escritos. Bogotá: Corporación Universitaria Unitec, 2006, pp. 3-4. 13 Cibercultura. Hacia una pedagogía del plagio. [En línea] Disponible en Internet en la dirección: http://es.wikibooks.org/wiki/Cibercultura: hacia_una_pedagog%C3%ADa_del_plagio#Plagio_Ut.C3.B3pico. E2.80.93La_era_de_la_recombinaci.C3.B3n 14 Cf. Ibíd. 15 Ibíd. 16 Critical Art Ensemble. El plagio utópico, la hipertextualidad y la producción cultural electrónica. Traducción: Paloma García Abad. [En línea] Disponible en Internet en la dirección: http://serbal.pntic.mec.es/ AParteRei/ 17 “(…) Conjunto de conocimientos científicos y de técnicas que hacen posible el tratamiento automático de la información por medio de computadoras…” Encarta. Biblioteca de Consulta Microsoft. 2005. Microsoft Corporation. 18 “(…) los foros en Internet existen como un complemento a un sitio web invitando a los usuarios a discutir o compartir información relevante a la temática del sitio, en discusión libre e informal, con lo cual se llega a formar una comunidad en torno a un interés común (…)”. Wikipedia. La Enciclopedia Libre. [En línea] Disponible en Internet en la dirección: http://es.wikipedia.org/wiki/Foro 19 “(…) Un e-book, ebook, o libro-e es una versión electrónica o digital de un libro (…) dispositivo utilizado para leer libros en formato digital…”. Wikipedia. La Enciclopedia Libre. [En línea] Disponible en Internet en la dirección: http://es.wikipedia.org/wiki/Libro-e 20 “(…) conocido como weblog o cuaderno de bitácora (listado de sucesos), es un sitio web periódicamente actualizado que recopila cronológicamente textos o artículos de uno o varios autores, apareciendo primero el más reciente, donde el autor conserva siempre la libertad de dejar publicado lo que crea pertinente…”. Wikipedia. La Enciclopedia Libre. [En línea] Disponible en Internet en la dirección: http://es.wikipedia.org/wiki/ Blog#Historia 21 “(…) el servicio Usenet es una red de grupos de opinión o noticias sobre (…) temas diferentes (más de 15.000). En lugar de operar en modo interactivo, (…) memorizan los mensajes de los usuarios y periódicamente los envían a otros ordenadores en la red que a su vez repiten la misma operación, con lo que la información es accesible para un gran número de máquinas (…); la diferencia fundamental con respecto al correo electrónico es que en este (…) los mensajes se reciben de forma automática en el buzón, mientras que las noticias Usenet deben recuperarse del ordenador que ofrece el servicio (…)”. Colegio oficial de psicólogos. Grupos de noticias. [En línea] Disponible en Internet en la dirección http://www.cop.es/docs_web/news/news.htm 22 Santa Biblia. Versión Reina Valera. Sociedades Bíblicas unidas, 1960.

Referencias bibliográficas Acosta Silva, David Arturo, Manual para la presentación de trabajos académicos escritos. Bogotá: Corporación Universitaria Unitec, 2006. Bianchini, Adelaida, “Conceptos y definiciones de hipertexto”. [En línea] Junio de 2000. Caracas. Brooklyn N.Y., 1994. [En línea] Disponible en Internet en la dirección: http://serbal.pntic.mec.es/AParteRei/ (Acceso 28 de septiembre de 2006). Cibercultura, “Hacia una pedagogía del plagio”. [En línea] s.f. s.l. Disponible en Internet en la dirección: http://es.wikibooks.org/wiki/ Cibercultura:hacia_una_pedagog%C3%ADa_del_plagio#Plagio_Ut.C3. B3pico.E2.80.93La_era_de_la_recombinaci.C3.B3n (Acceso 28 de Septiembre de 2006). Congreso de Colombia, “Código penal colombiano (Ley 599 de 2000)”. En Diario Oficial No. 44097. Bogotá, Julio 24 de 2000. Critical Art Ensemble, “El plagio utópico, la hipertextualidad y la

producción cultural electrónica”. Capítulo V del libro The Electronic Disturbance. Traducción: Paloma García Abad. Disponible en Internet en la dirección: http://www.ldc.usb.ve/~abianc/ hipertexto.html#Caracteristicas (Acceso 26 de septiembre de 2006). D. M. S., Ediciones Jurídicas. Derecho comercial. (Versión en disco compacto). s.l: 2004. Defensor del lector, “Plagio en artículo de El Tiempo”. En El Tiempo. Domingo 28 de mayo de 2006. Google, “Definiciones de Blog en la Web”. [En línea] s. l., 2006. Disponible en Internet en la dirección http://www.google.es/search?hl=es&hs=MZ s&lr=&client=firefox-a&rls=org.mozilla:es- (acceso 28 de septiembre de 2006). La Nota.com, “Confidencias”. [En línea] Colombia. 7 de febrero de 2006. Disponible en Internet en la dirección: www.lanota.com.co/noticias/ barras/Confidencias/Confidencia8005.php (Acceso 28 de septiembre de 2006). Mendieta y Núñez, Lucio, Ensayo sobre el plagio y la investigación (el caso de Juan Comas). México D. F.: Editorial Cultura, 1966. Ministerio del Interior y de Justicia, “Decisión andina 351 de 1993”. [En línea] Bogotá. Junio 21 de 2005. Disponible en Internet en la dirección: http://www.derautor.gov.co/htm/legal/legislación/decision.htm (Acceso 26 de Septiembre de 2006). Reina, Casiodoro de, y Cipriano de Valera, Santa Biblia. Revisión de 1960. Sociedades bíblicas unidas, 1987. Terra Punto Com, “Actualidad nacional”. [En línea] Colombia. 30 de Agosto de 2003. Disponible en Internet en la dirección: http://www. terra.com.co/actualidad/nacional/30-08-2003/nota104464.html (Acceso 28 de Septiembre de 2006). Wikipedia, “La Enciclopedia Libre”. [En línea] s.f. Disponible en Internet en la dirección: http://es.wikipedia.org/wiki/Generaci%C3%B3n_Perdida (Acceso 26 de Septiembre de 2006).


CTRL +C, CTRL+V, hipertextualidad y plagio.

27


28

MOTIVACIÓN EN EL PROCESO EDUCATIVO

María Teresa Davis Díaz, Ed. M. Corporación Universitaria Unitec

Resumen

Introducción

El presente artículo muestra una panorámica educativa en donde el quehacer del maestro cobra especial relevancia, al considerarlo gestor importante y comprometido con la formación del estudiante teniendo en cuenta sus dimensiones humanas. Fruto de varios años de experiencia en el campo de la educación, este artículo refleja posturas de la práctica educativa con jóvenes a nivel universitario.

En la vida moderna el ejercicio de cualquier profesión que conlleve una cierta dosis de responsabilidad social, precisa, en quien la ejerce, una preparación cuidadosa en el ramo de la cultura a que se refiera ese campo específico.

Palabras claves: motivación, educador, aprendizaje, educabilidad, estudiante.

María Teresa Davis Díaz es psicóloga, especialista en Educación y Desarrollo Cultural, magíster en docencia (Universidad de La Salle) y actualmente se desempeña como profesora de tiempo completo coordinadora del área socio-humanística de la Corporación Universitaria Unitec; mdavis@unitec.edu.co

Vestigium, 3, (1). Febrero de 2007, pp. 28-33. © Corporación Universitaria Unitec, 2007.

La educación, por los múltiples aspectos de la vida humana, ayuda a desarrollar carácter, inteligencia, personalidad, criterio, juicio crítico, etcétera, e implica tener una visión del hombre que vive en sociedad y cuyo desempeño debe procurar el bienestar y progreso humano. Por su propia naturaleza la obra educativa es compleja y llena de responsabilidades, tanto para el maestro como para el estudiante; sus efectos pueden ser profundos y duraderos mientras que la persona sea persistente en sus prácticas. Estamos todavía lejos de comprender la eficacia social de la educación como factor de mejora social y de comprender qué representa no sólo el desarrollo de los niños y adolescentes de hoy, sino también el perfeccionamiento de la futura sociedad que ellos habrán de construir. Así, la educación puede convertirse en un instrumento eficaz para realizar las más hermosas esperanzas de una sociedad.


Motivación en el proceso educatico

Para que ese ideal se realice es necesario un abordaje consciente de los sistemas educativos, para que su filosofía no sea sólo su fundamento sino la meta a alcanzar, mediante la adopción de los medios propicios para ello. Esto se vincula a una visión de futuro donde no haya temores ni impedimentos de orden mental ni didáctico, sino el convencimiento de cómo las posibilidades que se encuentran de manera intrínseca en cada individuo hallen las directrices apropiadas para desarrollarse, esto llegando a ser lo que se debe ser, en un ambiente de aprendizaje que puede a su vez ser modificado o mantenido por él mismo, pero que, mediante la actualización de esas mismas posibilidades, será un marco cada vez más amplio y profundo en la esfera del saber y de la trascendencia humana. Esta tarea no es ajena a la competencia del educador. Compete al educador la acción de ayuda, apoyo y dirección, aspectos necesarios para el logro de los objetivos que se fija el educando, más o menos válidos y perfectos en tanto que el prototipo al que trata de parecerse y de quien toma valores así lo demuestre. Indudablemente, el tema de la motivación para aprender en el aula incluye una serie de interpretaciones que no se pueden pasar por alto, porque configuran un todo mucho más complejo que la mera palabra motivación. Como quiera que a los educadores les interesa que en desarrollo de su papel se tenga contacto con jóvenes en formación (conociendo los móviles de conducta, así como también la tendencia a la perfección de los seres humanos), conviene acudir a algunos pensadores que se dieron a la difícil tarea de observar el proceso de asimilación e interiorización de enseñanzas y de aprendizajes, tanto de conocimientos como de valores, actitudes y criterios, los cuales se dan mediante la presentación de modelos que, por sus mismas características, son meritorios de imitar y de mejorar.

La motivación

Conviene recordar que el término motivación se deriva del verbo latino movere, cuyo significado es “moverse”, “poner en movimiento” o “estar listo para la acción”.1 El mismo término, según la Real Academia de la Lengua Española, significa “poner algo en movimiento” o “estimular una acción”. De esta manera, un motivo es un elemento de conciencia que entra en la determinación de un acto volitivo; es lo que induce a una persona a llevar a la práctica una

acción. Se deduce así que referido al contexto pedagógico muestra dos polaridades, que en un “puente consciente” se involucran para interactuar bajo el mismo objetivo, esto es, el acto de esa potencialidad humana que consiste en la educabilidad del hombre bajo el fundamento de su tendencia a la perfección. Se evidencia la presencia del maestro y del estudiante, que bajo el influjo de alcanzar metas comunes logran una interacción racional-afectiva donde cobra sentido la motivación, puesto que proporciona motivos, es decir, moviliza la voluntad de enseñar y de aprender. Se logra una acción dialógica entre los actores del proceso pedagógico. Ahora bien, el rol del maestro, teniendo en cuenta la motivación, consistirá en presentar motivos a sus estudiantes para que ejecuten voluntariamente los “rituales” inherentes a los aprendizajes y comportamientos específicos, tanto en la construcción del conocimiento como en el desarrollo de las actitudes coherentes que puedan proporcionar significado y aplicabilidad a lo aprendido. Según Barriga,2 “el papel de la motivación en el logro del aprendizaje significativo se relaciona con la necesidad de inducir en el alumno el interés y esfuerzo necesarios, y es labor del profesor ofrecer la dirección y guía pertinente

29


30 en cada situación”. Para estos autores, es el maestro quien ejerce la acción motivadora y quien moviliza en sus alumnos su energía para convertirla en un eficaz aliado. Así, el maestro al referir cómo él aprendió a ser tolerante, “engancha” en sus estudiantes el esfuerzo concomitante para que estos logren la aceptación de sus compañeros de grupo. La forma de pensar en el estudiante está condicionada por los procesos motivacionales que su maestro utilice y, como consecuencia, el tipo de aprendizaje que produzca, puesto que están en juego condiciones también personales para adquirir aprendizajes y aplicarlos en el contexto conveniente y están presentes en la voluntad para aprender y en saber pensar, incentivado o no por la acción educativa del maestro. La estrategia no es exclusiva de quien enseña, puesto que en muchos casos el miedo a reprobar una materia y el alto costo socio-económico y afectivo que se genera, aporta lo suyo para potenciar el proceso de aprendizaje. En el contexto escolar los docentes suelen valorar el esfuerzo que realiza el estudiante, de lo cual devienen motivaciones positivas, momento en el cual surgen alumnos que a su vez presentan alta motivación de logro y muestran confianza en sí mismos. Los que aceptan el fracaso manifiestan una auto-imagen menoscabada donde el control ambiental se les dificulta y, por tanto, renuncian al esfuerzo. De igual manera hay quienes evitan el fracaso, con lo cual se protegen a sí mismos, y al cuidar su autoestima renuncian a esfuerzos, son poco participativos y hacen cualquier cosa por pasar inadvertidos.3

Es con grupos de estudiantes que con alta, baja o ninguna motivación para desempeñarse como seres inmersos en su proceso de aprendizaje, que los docentes pueden ejercer procesos motivacionales para que el desarrollo de las competencias que señalan los proyectos educativos se logren.4 Si las motivaciones son de orden negativo —esto es, si es el castigo, la represión, la burla, la baja calificación y afines son los elementos fundamentales con los que se espera movilizar las fuentes intrínsecas del individuo para el aprendizaje— muy probablemente el resultado puede ser contrario a lo deseado. Por tanto, vale la pena reflexionar sobre los mecanismos, las estrategias y los modelos didácticos que guíen el quehacer pedagógico dentro o fuera del aula. Los mensajes que transmite el maestro con sus actitudes (por ejemplo, la organización de la clase, el ambiente de enseñanza-aprendizaje, la preparación de los contenidos a entregar, los mecanismos de retroalimentación al desarrollo de las competencias cognitivas de los estudiantes, la atención y calificación a sus aportes, la mayor o menor importancia a los resultados como al proceso de construcción de conocimientos, la aplicabilidad de los mismos, la experticia didáctica) constituyen una enorme resonancia en la movilización de la voluntad para que haya un cambio positivo y significativo en sus estudiantes, quienes están alertas a “condicionarlo” si efectivamente responde a sus expectativas de aprendizaje. La programación didáctica,5 a través de la cual se


Motivación en el proceso educatico

organizan los diversos elementos de una acción educativa determinada, muestra las metas a las cuales se debe arribar, teniendo en cuenta un grupo determinado de alumnos para no improvisar las tareas inherentes al acto de enseñanza. Esta programación ha de guardar características como la coherencia, contextualización, utilidad, realismo, colaboración en el trabajo y flexibilidad en la diversidad, dentro de un proceso educativo continuo cuyo objetivo es el estudiante, a quien precisamente debe referirse todo el esfuerzo del docente en su práctica educativa con especial preponderancia en motivaciones intrínsecas y extrínsecas de alta calidad.6 Teniendo en cuenta lo anterior, a continuación se esbozan algunas de las características que acompañan a los buenos educadores, las cuales abarcan los planos conceptual, reflexivo y práctico.

Algunas características del buen educador (motivador) Es el educador quien desempeña diferentes roles en su quehacer educativo, los cuales se refieren a la transmisión de los saberes propios de su disciplina, la guía del proceso de aprendizaje, la investigación educativa y la formación de actitudes, todos en un engranaje perfecto para que la acción que se ejerce en el educando le lleve a actualizar el potencial trascendente que tiene el ser humano, es decir, le lleve a ser motivador. A continuación se esbozan algunas de las múltiples cualidades que debe tener el educador: Fidelidad, consistente en ser leal a sus principios y a la vocación de enseñar lo poco o mucho que sabe, sin mezquindades en la construcción colectiva del conocimiento, dando de sí siempre lo mejor en beneficio de sus estudiantes, considerándose un ser en continuo aprendizaje y que no escatima esfuerzo alguno para procurar siempre la transparencia y coherencia entre su pensar y actuar, con su vida ejemplar y ejemplarizante. Alta autoestima, porque el buen maestro se conoce a sí mismo y es capaz de controlar la manifestación de aquellas condiciones humanas que son susceptibles de mejorar, al fomentar el cambio consciente de paradigmas que sean perjudiciales para sí mismo en su interacción con el entorno y con los demás. Al ejercer autocontrol de sus emociones posibilita un ambiente de tolerancia donde los diversos actores desarrollan, igualmente, auto confianza. Debe verse a sí mismo como una persona capacitada para irradiar (y de hecho lo hace) un proyecto de vida rico en posibilidades de permanente aprendizaje, donde tiene cabida el respeto cimentado en un buen auto-concepto y auto-aceptación.

Es comunicativo. Llámese comunicación no sólo al uso del lenguaje hablado o escrito de la lengua, sino también al lenguaje no verbal que incluye la mímica, los gestos, la mirada, la tonalidad de la voz, las actitudes y todo aquello que le da significado particular o reafirma algo que se manifiesta entre los agentes inmersos en ella. Y es que el lenguaje no verbal reviste gran significado en el proceso de enseñanza-aprendizaje, justamente porque deviene en un ambiente creado ex profeso para ello entre el maestro y sus estudiantes. Posee capacidad para resolver conflictos. La diversidad cultural, favorecida actualmente por la globalización económica, política y social del mundo moderno, ejerce presiones de diferente índole, que se magnifican cuando no se generan las fórmulas mágicas para minimizar los conflictos emergentes. Es por tal razón que el buen maestro no sólo debe saber resolver conflictos, sino que es su responsabilidad propiciar los espacios pedagógicos para que sus estudiantes aprendan a resolverlos. Tiene gusto por el trabajo en equipo. La construcción conjunta del conocimiento, el trabajo colaborativo, el engranaje transversal de las múltiples disciplinas, las redes de apoyo y un amplio número de posibilidades que brinda el compartir las competencias cognitivas, afectivas y psicosiociales, se hayan en la base del trabajo compartido que no es ajeno al ejercicio docente. El trabajo en equipo es, por excelencia, el escenario donde se muestra el espíritu gregario de la raza humana, por tanto, también tiene de suyo el quehacer pedagógico enseñarlo y practicarlo por vía del ejemplo docente. Actualizarse en su saber disciplinar, ya que es su obligación mantenerse informado de los adelantos y descubrimientos científicos propios de su área de conocimiento, puesto que ello le brinda mayor seguridad y autoridad científica en el proceso de enseñar a los estudiantes que tenga a su cargo. El buen maestro, por consiguiente, es un virtuoso del conocimiento de vanguardia. Enseña a ser. Se preocupa por la formación integral de la persona anteponiéndola a los procesos de formación disciplinar e inculca la importancia esencial del ser humano en atención al desarrollo de sus dimensiones, donde su esencia es especialmente relevante para el proyecto de vida individual y social. Enseña a aprender. Motiva a sus estudiantes para que utilicen las herramientas intelectivas, emocionales y psicoafectivas que conforman la competencia de aprender a aprender. A través de dicha herramienta se capacita para permanecer actualizado y reconstruye el conocimiento y la

31


32 nueva información, incorporándolos a su estructura mental. Aprender a aprender constituye la base fundamental para un aprendizaje significativo, importante en el desarrollo del campo ocupacional de cualquier individuo. Enseña a convivir, al ser mediador entre el estudiante y la cultura a través de su propio nivel cultural, tamizado por las experiencias, éxitos y fracasos personales. Se convierte en un promotor de cultura resaltando los valores de la convivencia y la significación de estos en el contexto social del proceso educativo para que, al ser valorados por sus estudiantes, se produzca la aprehensión consciente de los comportamientos aceptados y/o rechazados por el grupo. Enseña a hacer. Su labor no se limita a enseñanzas teóricas, sino que se preocupa por el desarrollo de las competencias que se pueden adaptar a los diferentes ambientes que exigen tanto la aplicación de diseño, como la aplicación y manejo de recursos materiales en la solución de problemas. Enseña a emprender. La actitud emprendedora es ejemplarizante, por ello el buen maestro se convierte en modelo a imitar por la relevancia que otorga al desarrollo de la creatividad, lo cual consigue animando constantemente a sus estudiantes en la re-estructuración de modelos biopsico-sociales que sean innovadores y propicien una mejor calidad de vida, respetando, claro está, la autonomía y libertad de grupo. Las anteriores características han de estar alimentadas con altas dosis de motivación positiva, provenientes de su vocación docente. Sin embargo, los procesos de formación a docentes brindan una amplia gama de medios y recursos didácticos para el abordaje exitoso de su labor con los estudiantes, puesto que la finalidad última de la intervención educativa se encuentra en poder desarrollar el potencial de la estructura cognitiva de estos, con aprendizajes significativos que les mantenga motivados a acceder a nuevos aprendizajes y desaprender aquellos que resultan inútiles e inconexos con su entorno sociocultural y psicoafectivo.7

Los estudiantes ¿Cómo concebir un proceso educativo o una acción pedagógica sin un receptor idóneo para ello? ¿Cómo son nuestros actuales estudiantes? Son personas ávidas de formación, de comprensión, de afecto, de modelos ejemplares que les orienten en su rol el desarrollo de sus potencialidades, sin perder de vista que son tan humanos y frágiles como nosotros, los que enseñamos. Se nos


Motivación en el proceso educatico

ha encargado que mediante el ejercicio de la acción pedagógica, en conjunto —ellos y nosotros— propiciemos el surgimiento del ideal de persona que cada uno lleva consigo —como el sabio escultor que talla el bronce porque visualiza la hermosa obra de arte que allí se esconde—. Recordemos que educar deviene del latín educere, que significa sacar de dentro. Los estudiantes quieren la escolaridad no solamente por aprender contenidos programáticos, sino por aprender a aprender, a vivir y a convivir con sus compañeros y amigos, y a desarrollarse como personas en un contexto social que brinde los elementos teórico-prácticos para establecer nexos socio-culturales en su desarrollo bio-psico-social.8 Por ende, el proceso educativo ha de ser altamente motivador, de manera que satisfaga las expectativas e intereses de los educandos. Parecería que todo el éxito del proceso educativo recayera exclusivamente en el docente, pero “las preconcepciones o teorías implícitas del alumno son el punto de partida de su proceso de aprendizaje, también lo son para el profesor las teorías implícitas que tiene sobre la enseñanza, en la forma de una serie de representaciones o pensamiento didáctico espontáneo o de sentido común.”9

Los fundamentos ontológicos del Proyecto Educativo Institucional (PEI) de la Corporación Universitaria Unitec, reza: “Unitec concibe a la persona como el centro de su acción formadora y lo visualiza como un ser trascendente, ello quiere decir que el hombre no se agota en su dimensión física mundana, sino que posee una dimensión espiritual que le permite elevarse y proyectarse hacia diferentes dimensiones (…)” Pues bien, ¡el estudiante que tenemos es esa persona! Es a él a quien va dirigida toda nuestra acción educadora y sólo por él cobra sentido nuestro quehacer, es decir, la motivación en el proceso educativo. Reflexión: La motivación condiciona la forma de pensar del alumno, la re-estructuración de sus paradigmas, de sus creencias, el abordaje de aprendizajes significativos, su forma de responder a los procesos de enseñanza y sus estilos de aprendizaje. “La motivación o necesidad de logro es el deseo o tendencia para hacer las cosas tan rápidamente y/o tan bien como sea posible (...) de lograr algo difícil (…) obtener un alto nivel (…) de destacar”10 ¿Somos sus educadores?

Referencias bibliográficas Barriga Arceo, Frida y Gerardo Hernández Rojas. Estrategias docentes para un aprendizaje significativo. Una interpretación constructivista. México: McGraw-Hill, 1999. Corporación Universitaria Unitec. Proyecto Educativo Institucional (PEI). Bogotá: Corporación Universitaria Unitec, 2005. Diccionario Enciclopédico Terranova. Colombia: Terranova, 1996. Gallego-Badillo, Rómulo. El saber pedagógico: una visión alternativa. Bogotá: Mesa redonda Magisterio, 1992. Iafrancesco V., y M. Giovanni. Los cambios en la educación: perspectiva etnometodológica. Bogotá: Magisterio, 2003. Medina Rivilla, Antonio y Francisco Salvador. Didáctica General. Madrid: Prentice Hall, 2002. Navarro, Rubén Edel. “El rendimiento académico: concepto, investigación y desarrollo”. [En línea]. Disponible en Internet en la dirección: www.ice. edusto.es/rinace/reice/volln2/Edel.pdf (Acceso 15 de febrero de 2007). Tapia, Alonso. Motivación y aprendizaje en el aula. Madrid: Santillana, 1991. Torres González, José Antonio. “El papel de las estructuras de apoyo y asesoramiento educativos en el proceso de integración sociolaboral de alumnos con necesidades educativas especiales”. [En línea] Universidad de Jaen. Disponible en Internet en la dirección: http://tecnologiaedu. us.es/formaytrabajo/Documentos/lin1tor.pdf Zubiría Samper, Julián de. Tratado de pedagogía conceptual: Los modelos pedagógicos. Bogotá: Fundación Alberto Merani, 1994. Notas

se encauza la energía”. Disponible en Internet en la dirección: http:// www.gestiopolis.com/recursos/documentos/ fulldocs/rrhh/lamotivacion. htm 2 Frida Díaz Barriga Arceo y Gerardo Hernández Rojas, Estrategias docentes para un aprendizaje significativo. México: McGraw-Hill, 1998, p. 16. 3 Cf. Rubén Edel Navarro, “El rendimiento académico: concepto, investigación y desarrollo”. Acceso en Internet en la dirección: http:// www.ice.edusto.es/rinace/reice/volln2/Edel.pdf 4 Cf. de Julián Zubiría Samper, Tratado de pedagogía conceptual: los modelos pedagógicos. Bogotá: Fundación Alberto Merani, 1994, p. 20. 5 Cf. Rómulo Gallego-Badillo, El saber pedagógico: una visión alternativa. Bogotá: Magisterio, 1992, pp. 14-15. 6 Cf. Antonio Medina Rivilla y Francisco Salvador Mata, Didáctica General. Madrid: Prentice Hall, 2002, pp. 107-108. 7 Cf. Frida Díaz Barriga Arceo y Gerardo Hernández Rojas, óp. cit., p.15. 8 Cf. V. Iafrancesco V. y M. Giovanni, Los cambios en la educación: perspectiva etnometodológica. Bogotá: Magisterio, 2003, p. 81. 9 Frida Díaz Barriga Arceo y Gerardo Hernández Rojas, óp. cit., p. 7. 10 José Antonio Torres González, “El papel de las estructuras de apoyo y asesoramiento educativos en el proceso de integración sociolaboral de alumnos con necesidades educativas especiales”. Universidad de Jaen. Disponible en Internet en la dirección: http://tecnologiaedu.us.es/ formaytrabajo/Documentos/lin1tor.pdf

1 Adriana López dice que “La motivación es, en síntesis, lo que hace que un individuo actúe y se comporte de una determinada manera. Es una combinación de procesos intelectuales, fisiológicos y psicológicos que decide, en una situación dada, con qué vigor se actúa y en qué dirección

33


34 UTILIZACIÓN DE MAPAS DE AUTOORGANIZACIÓN EN LA CLASIFICACIÓN DE COEFICIENTES WAVELET PARA LA CREACIÓN DE ESCENAS DE VIDEO NATURALES Mauricio Díaz Melo, M. Sc. Corporación Universitaria Unitec

Resumen Este artículo plantea un nuevo método de parametrización y clasificación de secuencias de video para ser usadas en telefonía visual, basado en el uso de una transformada multiresolución, los conceptos de codificación subbanda y los mapas de autoorganización de características (SOFM) comparado con cuantificadores vectoriales LBG con criterio minimax. Dadas las características de estas escenas, emplear transformaciones de este tipo resulta útil para generar diferentes niveles de detalle en los coeficientes a clasificar y para su posterior utilización durante la transmisión comprimida de un libro de códigos, base para la reconstrucción en el receptor. Igualmente, el clasificador con criterio minimax permite la inclusión de muestras atípicas que, bajo otras circunstancias,

Mauricio Díaz es ingeniero electrónico de la Pontificia Universidad Javeriana y actualmente se desempeña como coordinador del Centro de Investigación de la Escuela de Ingeniería, Corporación Universitaria Unitec (Bogotá, Colombia); mdiaz@unitec.edu.co. Pedro R. Vizcaya G. es ingeniero electrónico, realizó sus estudios de doctorado en Rensselaer Polytechnic Institute, Troy, (N. Y., EE. UU.) y en la actualidad es profesor asociado del Departamento de Electrónica de la Pontificia Universidad Javeriana (Bogotá, Colombia); pvizcaya@javeriana.edu.co.

Vestigium, 3, (1). Febrero de 2007, pp. 34-44. © Corporación Universitaria Unitec, 2007.

Pedro Raúl Vizcaya Guarín, Ph. D. Pontificia Universidad Javeriana

pueden clasificarse erróneamente, mientras que el libro de códigos encontrado con el clasificador SOFM presenta características importantes como, por ejemplo, la organización topológica.

Palabras claves: cuantificación SOFM, telefonía visual, wavelet.

vectorial,

minimax,

Introducción Actualmente los sistemas de telefonía visual se basan en estándares (ITU H.100 1998, ITU H320 1999) que no aprovechan óptimamente las cualidades de este tipo de escenas. La información que presentan las secuencias de video comparadas con las de audio en sistemas de telefonía visual, es bastante menor (Essa, 1995). Sin embargo, estudios realizados por diversos investigadores como Green y Kuhl, Sumby y Pollack, O’Neill, citados por Mark y Allen (1994), y el trabajo desarrollado por Bárcenas et ál. (2001), concluyen que el video es útil para aumentar o mejorar la inteligibilidad de señales de voz


Utilización de mapas de autoorganización en la clasificación de coeficientes wavelet para La creación de escenas de video naturales

en ambientes ruidosos, en valores que van desde uno hasta 15 decibeles, pero que con la carencia del audio el mensaje es prácticamente incomprensible, mientras que en el caso contrario no sucede lo mismo. Diferentes alternativas enfocadas al desarrollo de un sistema de telefonía visual se han desarrollado en los últimos años. Entre las primeras aproximaciones al problema se encuentra la solución planteada por Bárcenas et ál. (2001), trabajo en el cual se realizan cambios morfológicos entre diferentes imágenes almacenadas para obtener secuencias de video creíbles; sin embargo, el tiempo de procesamiento que esto implica no permite tener un sistema en tiempo real. Posteriormente se planteó la idea de realizar el procesamiento en un dominio paramétrico (Machado y Santa, 2001), surgiendo así una alternativa que permitió implementar un conversor de texto a voz visual en tiempo real (AVSS). A partir de las necesidades de segmentación de la región de interés (boca), se creó el sistema SPARV (Sistema de segmentación automática de rostros en video) (Baptiste, Sotomayor y Vizcaya, 2002) en el cual se analizaron diferentes métodos de parametrización, incluyendo la transformada discreta de Fourier y un método para la segmentación automática de la boca utilizando las características de movimiento y la detección de la piel por medio del color. Hacia mediados del 2004 se presentó un trabajo que analizó a fondo diferentes transformaciones como métodos de parametrización (Soto y Vizcaya 2004), incluyendo la DCT y el análisis de componentes principales. Igualmente, se desarrolló un algoritmo de interpolación entre imágenes que genera secuencias naturales y se creó un libro de

códigos de tamaño reducido. Esta investigación permitió la implementación completa del sistema en tiempo real. El proyecto “Telefonía visual por canales de muy baja capacidad” (Vizcaya et ál., 2004) permitió unir todos los logros desarrollados en trabajos anteriores e implementar un sistema prototipo de videofonía. El proyecto consta de tres módulos claramente definidos: segmentación, codificación y transmisión. La segmentación se realiza utilizando características de la imagen en el plano de luminancia, aplicando sumas acumulativas a lo largo y ancho de la imagen. Esto determina una primera región de interés que sirve de búsqueda para la región de la boca. La codificación de las imágenes se realiza en el dominio de los parámetros (DCT). El diseño del libro de códigos se basa en un criterio que minimiza el error máximo entre las muestras y sus representantes, teniendo en cuenta que se quieren generar secuencias naturales, a diferencia del criterio más ampliamente usado que minimiza la relación señal a distorsión; se utilizó la distancia L1 como métrica. También se desarrolló un algoritmo de interpolación de imágenes basado en la búsqueda de Viterbi. Este documento plantea una nueva propuesta para un algoritmo de parametrización y codificación de escenas típicas de telefonía visual, basado en la transformada Wavelet y en los conceptos de codificación sub-banda. Dadas las características de este tipo de escenas, el uso de esta transformación es útil para hacer una selección de coeficientes basada en la varianza temporal y su ubicación espacial. Por otra parte, se plantea la creación de un libro de códigos usando el algoritmo SOFM con diferentes

35


36 topologías y dimensionalidades. La principal característica que otorga el uso de este clasificador es la organización topológica de la base de datos obtenida. Parametrización y selección de características Dentro del proceso de codificación de una señal cualquiera, es muy común trabajar con una representación de ésta en un espacio que decorrelacione los diferentes datos. Esto se logra encontrando una transformación que genere unos coeficientes (espacio de características) que no posean información redundante, reduciendo de esta forma el tiempo de procesamiento y los requerimientos del sistema. En el área de compresión de imágenes es usual utilizar transformadas como la DCT que implementa el estándar JPEG y, recientemente, se ha incrementado el uso de transformadas multiresolución como las wavelets, en nuevos estándares como JPEG2000 y MPEG4 (González y Woods, 2003, Skodras et ál., 2001). Una transformada multiresolución ofrece interesantes características que permiten un análisis más global de este tipo de señales. Expansión en series de wavelet Frecuentemente, una señal o función f ( x) puede analizarse de una mejor forma como una combinación lineal de funciones de expansión, cuando estas forman una base del espacio vectorial que contiene a la señal (González y Woods, 2003):

f (x ) = ∑ α kϕ k (x ) k

(1)

αk Aquí k es un coeficiente entero, finito o infinito, corresponde a valores reales llamados coeficientes de ϕ

(x )

expansión y k valores reales llamados funciones de expansión. Si solamente existe un conjunto de coeficientes

αk

para un

las funciones

f (x )

dado y son linealmente independientes,

ϕ k (x )

se llaman funciones base, mientras que

{ϕ (x )}

el conjunto de expansión k es denominado una base. Un ejemplo de una base son las funciones exponenciales complejas, que forman un gran espacio de señales (todas aquellas que se pueden representar mediante la serie de Fourier). Estas funciones forman un espacio V de funciones, en homología a un espacio vectorial que se denota de la siguiente manera:

V = Span{ϕ k (x )}

(2)

La expansión en series de wavelets de una función


Utilización de mapas de autoorganización en la clasificación de coeficientes wavelet para La creación de escenas de video naturales

f (x )∈ L2 (ℜ )

relativa a una función wavelet

ψ (x )

y una

ϕ (x )

función de escala se define, de acuerdo a la ecuación 1, de la siguiente forma (Strang y Nguyen, 1997): ∞

f (x ) = ∑ c jo (k )ϕ jo ,k (x ) + ∑ ∑ d j (k )ψ j ,k (x ) k

j = j0 k

(3)

Aquí

j0

c jo (k )

son conocidos como los coeficientes de aproximación

es una escala de inicio arbitraria, los coeficientes

d (k )

j o escala y los coeficientes se nombran como coeficientes wavelet o de detalle. Estos nombres se dan porque la primera sumatoria de la ecuación 3 usa funciones

de escala que proveen una aproximación de j0

f (x )

a una

fácil implementación en cascada, sin la necesidad de ser compensados en fase. Sin embargo, no hay una solución no trivial para hallar filtros ortonormales FIR de fase lineal con las características de reconstrucción exactas (Antonini, et ál., 1992). Es posible preservar la linealidad de fase sacrificando el criterio de ortonormalidad y usando bases biortogonales. Es por esto que las funciones wavelets más ampliamente usadas en sistemas de compresión son las wavelets de Daubechies y las wavelets biortogonales. El estándar de compresión JPEG 2000 (Skodras et ál., 2001) utiliza la función wavelet conocida como Daubechies 7/9. En este trabajo se utiliza esta misma función. A continuación se muestra la función de escala y la función discreta wavelet para los filtros de análisis y síntesis.

j ≥ j0

escala . Para cada escala en la segunda sumatoria, una función de resolución más fina (suma de wavelets) es adicionada a la aproximación, aumentando de esta forma el nivel de detalle. Si la función de expansión forma una base ortonormal, los coeficientes de la expansión pueden ser calculados con el producto interno: c j0 (k ) = f (x ), ϕ j0 ,k (x ) = ∫ f (x )⋅ ϕ j0 ,k (x )⋅ dx

y

d j (k ) = f (x ),ψ j ,k (x ) = ∫ f (x )⋅ψ j ,k (x )⋅ dx

Figura 1. Funciones de escala y wavelet. (4) ϕ

Para el caso de las bases biortogonales los términos y ψ en las ecuaciones anteriores, son reemplazados por sus

La función de escala wavelet en dos dimensiones se muestra a continuación.

  funciones duales ϕ y ψ , respectivamente (Antonini et ál., 1992).

Selección de la función wavelet La influencia de las funciones escogidas como base de la transformación, afecta directamente todos los aspectos de un sistema de codificación con wavelets. La principal característica a tener en cuenta radica en la complejidad computacional de la transformación, mientras que en segundo lugar se haya la habilidad del sistema para comprimir y reconstruir imágenes con un aceptable error. Para la reconstrucción exacta de una imagen fotorrealista1 es apropiado usar una base ortonormal con una función wavelet “suave”, es decir, que no contenga saltos bruscos, ya que este tipo de bases permite representar la imagen con unos pocos coeficientes. Los filtros por medio de los cuales se implementa esta transformación deben ser cortos (de no muchos coeficientes). Por otra parte, es deseable que los filtros resultantes sean FIR con fase lineal para su

Figura 2. Función de escala en 2D. Selección de coeficientes Para la selección de los coeficientes a clasificar, se hace una búsqueda de aquellos que presentan mayor varianza en una determinada región de interés que contiene la cara del sujeto en la escena. Este análisis de movimiento se realiza

37


38 utilizando la acumulación de las diferencias absolutas entre píxeles de cuadros consecutivos. Finalmente se obtiene una máscara que indica cuáles de esos coeficientes tienen una mayor varianza temporal. Este análisis evita el almacenamiento de todos los coeficientes del video de entrenamiento, manteniendo solamente el acumulador, los coeficientes actuales y los inmediatamente anteriores. Una vez encontrada la máscara con los valores de varianza temporal de los coeficientes en el video de entrenamiento, es posible seleccionar cuáles de estos coeficientes son los que se usan para conformar el clasificador. Esta alternativa permitiría ir variando los coeficientes de forma dinámica para crear un clasificador adaptable, sin embargo, este tema no se discutirá en este trabajo.

Figura 3. Transformación de 3 niveles de 256x256.

Figura 4. Varianza temporal de los coeficientes usados en el entrenamiento. Inicialmente se aplicó un umbral global para encontrar los coeficientes que se utilizan en el clasificador. Se probaron diferentes valores en el intervalo del valor medio del acumulador temporal hasta 10 veces ese mismo valor medio. Sin embargo, vale la pena señalar, como se muestra en la figura 6, que la aplicación de un umbral determinado para cada nivel de la transformación es más indicada, ya que de otra forma pueden no ser tenidos en cuenta coeficientes que sirven en el proceso de clasificación. Este


Utilización de mapas de autoorganización en la clasificación de coeficientes wavelet para La creación de escenas de video naturales

umbral para cada nivel está determinado de la siguiente forma:  f ( x, y ) u ( x, y ) =  0 

si

f ( x, y ) ≤ 0.9 ⋅ (max( f ( x, y ))) otro caso

(5)

Aunque la teoría de información establece que siempre se conseguirán mejores resultados codificando vectores que escalares, los cuantificadores escalares han permanecido durante años como los sistemas de compresión de datos más comunes, lo cual se debe, en gran parte, a su simplicidad y buen desempeño cuando la capacidad del canal es bastante grande. Sin embargo, la disminución de las tasas de bits para los canales de comunicación y la necesidad de un mejor uso del canal, han dado paso a diversos algoritmos de diseño que han desarrollado una gran variedad de cuantificadores vectoriales para diversas aplicaciones, entre ellas la telefonía visual.

Figura 5. Coeficientes seleccionados con un umbral global (en blanco).

Figura 6. Ubicación espacial de los coeficientes seleccionados con un umbral diferente para cada nivel (en negro). Obtención del libro de códigos Cuantificador Vectorial con criterio minimax La cuantificación vectorial o cuantificador multidimensional es un concepto desarrollado ampliamente desde comienzos de la década de los ochenta (Gray, 1984, Linde et ál., 1980, Nasrabadi, 1985). Es un sistema que asigna una secuencia de vectores continuos o discretos en una secuencia digital, para usar sobre un canal de comunicación o para su almacenamiento digital. Su principal éxito radica en la compresión de los datos. Esta asignación puede o no tener memoria en el sentido de dependencia de las acciones pasadas del codificador, tal y como sucede en el caso escalar, por ejemplo en técnicas como PCM (Lloyd, 1982).

En el trabajo de Vizcaya et ál. (2004), se desarrolla un método de cuantificación que permite encontrar un libro de códigos apto para la transmisión de telefonía visual. Este método se basa en el algoritmo LBG (Linde-BuzoGray) (Linde et ál., 1980), sin embargo, no utiliza el paradigma del error cuadrático medio (MSE) como medida de distorsión para el cálculo de nuevos centros, sino un criterio que minimiza el máximo error entre el centro y sus muestras (minimax). Esta aproximación permite la construcción de un video resintetizado más natural, ya que este criterio permite incluir imágenes atípicas y descartar la inclusión de imágenes muy parecidas. El algoritmo iterativo para la búsqueda del libro de códigos apropiado (codebook), se basa fundamentalmente en dos condiciones que asignan el nuevo centro a una región y que determinan la pertenencia o no de las muestras a una clase, usando el criterio minimax. Cuantificador Vectorial con SOFM (mapas de autoorganización de características) Una de las principales aplicaciones de los mapas de autoorganización de características, desarrollados por Kohonen (Kohonen, 1984, Haykin, 1994), consiste en transformar una señal patrón de dimensiones arbitrarias en un mapa discreto de una o dos dimensiones, y realizar esta transformación de forma que se adopte un ordenamiento topológico. Kohonen basó su desarrollo en el funcionamiento del cerebro humano y la forma en que las capas de la corteza cerebral se organizan de acuerdo a la función fisiológica que desarrollan. Una aproximación inicial se plantea desde el punto de vista de las redes neuronales. El algoritmo se puede resumir de la siguiente manera: 1. Inicialización. Escoger valores aleatorios para el vector inicial de pesos sinápticos

w j (0)

. La única restricción que

39


40 w j (0) existe es que debe ser diferente para j = 1, 2,...N , donde N es el número de neuronas.

2. Muestreo. Dibujar una muestra x de la distribución de entrada con una cierta probabilidad; el vector x representa la señal sensada. 3. Criterio de similaridad. Encontrar la neurona que “mejor se acomoda” (neurona ganadora) i (x) en un tiempo n, usando el criterio de mínima distancia Euclidiana. i (x) = arg min x( n) − w j ,

j = 1, 2,..., N

(6)

4. Actualizar. Ajustar los vectores de pesos sinápticos de todas las neuronas, usando la fórmula de actualización que involucra a los vecinos (regla de Kohonen).  j ∈ Λ i ( x ) ( n) w j (n) + η (n)  x( n) − w j ( n)  , w j (n + 1) =  w ( n ) de otra forma  j 

(7)

5. Donde η (n) es un parámetro conocido como la tasa de aprendizaje y

Λ i ( x ) ( n)

es la función de aprendizaje

alrededor de la neurona ganadora i (x) ; tanto la tasa como la función de aprendizaje cambian dinámicamente para obtener los mejores resultados. 6. Volver al paso 2 hasta no observar cambios en el mapa resultante. Se puede hacer un paralelo entre el algoritmo de SOFM y el algoritmo LBG. En ambos casos se busca minimizar una función criterio y posteriormente se reasignan las muestras. Desde este punto de vista el algoritmo de mapas de autoorganización es un algoritmo de cuantificación vectorial. Diversas aplicaciones han sido desarrolladas, entre ellas el método conocido como Cuantificación Vectorial de Aprendizaje (Learning Vector Quantization,

LVQ) (Haykin, 1994). El método de SOFM posee tres propiedades que lo caracterizan: 1. La aproximación del espacio de entrada. Un mapa de autoorganización de características Φ , representado por

{w j | j = 1, 2,..., N } , el conjunto de vectores de peso sináptico en un espacio de salida A, provee una buena aproximación del espacio de entrada X . 2. Ordenamiento topológico. El mapa de características Φ calculado con el algoritmo SOFM está topológicamente ordenado en el sentido de la localización espacial de los nodos en la estructura, la cual corresponde a un dominio particular de las características de los patrones de entrada. 3. Correspondencia de la función de densidad de la entrada. El mapa de características Φ refleja las variaciones estadísticas de la distribución de la entrada. Resultados Simulaciones El proceso de selección de los coeficientes wavelet con base en la varianza temporal de la secuencia, busca obtener la mínima cantidad de coeficientes que permita hacer una clasificación óptima para resintetizar secuencias creíbles. Inicialmente se tomaron los coeficientes que superaran un valor determinado por la media de su distribución, sin embargo, la cantidad de coeficientes obtenidos en estos casos puede llegar a los 36.000 para regiones de 265x256 píxeles. Por esta razón, se determinó la realización de un umbral diferente para cada nivel de la transformación, lo cual resulta en la determinación de coeficientes más adecuados para realizar la clasificación. Los umbrales para cada nivel se determinan de acuerdo a un porcentaje (90%)


Utilización de mapas de autoorganización en la clasificación de coeficientes wavelet para La creación de escenas de video naturales

del valor máximo en cada nivel y para cada transformación (horizontal, vertical, diagonal) de la imagen. Con este procedimiento se reduce el número de coeficientes en un 99%, tomando sólo aquellos que realmente son de interés para el análisis y codificación de cada cuadro del video.

Al aplicar el algoritmo de SOFM con una topología rectangular de 8 nodos, se obtienen estos centros (en negro) con sus respectivas relaciones topológicas (en gris):

Para la creación del libro de códigos se desarrolló el algoritmo de SOFM y se comparó con resultados obtenidos aplicando el algoritmo LBG minimax. Inicialmente se hicieron simulaciones bidimensionales, para lo cual se tomaron dos variables aleatorias gausianas bidimensionales X1 y X 2 con 200 y 400 realizaciones cada una. Estas se describen con su media y matriz de covarianza de la siguiente forma: Para X1:

µ1 = [−3, −2]

Para X2 :

µ 2 = [4,1]

2 0 K1 =   0 2 1 0  K2 =   0 1 

(8) Al aplicar el algoritmo tradicional LBG y el LBG modificado, se obtienen centros mostrados en negro:

Figura 9. Clasificador SOFM.

Figura 10. Topología cuadrada de 2x4. Figura 7. Clasificador LBG tradicional.

Figura 8. Clasificador LBG mínimas.

En este ejemplo se demuestran claramente las ventajas del diseño del clasificador usando el criterio minimax: la figura anterior ilustra que el uso del algoritmo LBG tradicional encuentra los centros de masa como los representantes de cada clase, mientras que con el criterio modificado los centros encontrados son aquellos que minimizan el máximo error; esto representa un libro de códigos con menos imágenes repetidas (los centros no se acumulan en regiones con alta densidad de muestras). Al hacer uso de la clasificación SOFM, ésta se basa en un criterio de minimización del error cuadrático medio (como en LBG tradicional), sin embargo, se presenta una ventaja adicional que consiste en la preservación topológica de los centros encontrados con base en una topología previamente establecida. Los centros encontrados, por lo tanto, tienden a comportarse como en el caso de LBG tradicional, restringidos por la preservación de la

41


42 continuidad que impone la estructura topológica. Las pruebas y algoritmos desarrollados para el caso bidimensional fueron aplicados sobre diferentes videos de entrenamiento obteniendo el libro de códigos reducidos de 8 y 16 palabras código. Esta simulación pretende demostrar de forma práctica e intuitiva los beneficios y desventajas en la creación de libro de códigos con los diferentes procedimientos.

Figura 11. Libro de códigos obtenido con SOFM topología cuadrada 2x4.

La población que contestó la evaluación corresponde a un amplio intervalo de edades y diferentes sexos; en total se realizaron 30 pruebas. Los resultados obtenidos en dichas pruebas cualitativas se encuentran respaldados por cantidades cuantitativas, como son el error cuadrático medio (MSE) y la correlación entre trayectorias seguidas sobre puntos predefinidos. Una de las preguntas de la encuesta buscaba determinar cómo influye el número de niveles de la transformada en el proceso de resíntesis. Los resultados indican una mayoría que selecciona entre los videos resintetizados con 2 y 4 niveles. El número de niveles de la transformada influye directamente en la forma como se representa la imagen. Es decir, la aproximación de una señal, dada por la transformada wavelet, es del tamaño de la imagen original decimada por un factor de 2N, donde N representa el número de niveles. Esto significa que con niveles mayores es posible representar una aproximación (pasabajos) de la imagen con pocos coeficientes. Sin embargo, muy pocos coeficientes no logran una representación óptima. Estos resultados permitieron plantear un método de selección de los coeficientes que tenga en cuenta tanto los de aproximación como los de detalles. En este caso sí se registró un decremento del MSE a medida que el nivel de la transformada aumenta, como podría preverse inicialmente.

En la figura anterior se observa la relación topológica que se da entre imágenes clasificadas y los parámetros encontrados con la transformada wavelet. La distribución de las bocas se encuentra de acuerdo a lo esperado por la topología. Por ejemplo: la imagen 1 está conectada con la imagen 2 y la imagen 5 en la topología rectangular; la boca de las imágenes 2 y 5 son transiciones suaves de la boca en la imagen 1, etc. Pruebas y mediciones Las evaluaciones subjetivas realizadas están inspiradas en los modelos MOS (Mean Opinion Score) y DMOS (Degradation Mean Opinion Score) (Tobias, 1999). En este trabajo se desarrolló una encuesta que consta de 7 preguntas. Las preguntas invitan al encuestado a dar su concepto personal sobre la “naturalidad” de los videos que se le presentan. En todos los casos se presentan comparaciones entre 2 y hasta 3 videos; la persona debe elegir el que a criterio personal sea “más natural”. Una aclaración previa al comienzo de la prueba consistió en limitar el enfoque de naturalidad, como una secuencia que cambia suavemente y no presenta saltos abruptos. A pesar de que los videos disponen de audio para facilitar su comprensión, se explicó en un comienzo que el objetivo de la encuesta no era evaluar la calidad de la señal sonora.

Figura 12. Medición MSE con diferentes niveles y manteniendo todos los coeficientes de la aproximación.

Fifura 13. Medición MSE con diferentes niveles y selección de coeficientes igual.


Utilización de mapas de autoorganización en la clasificación de coeficientes wavelet para La creación de escenas de video naturales

Otro interesante resultado muestra la preferencia de los encuestados por los videos resintetizados con los parámetros wavelet de una región de 256x256 píxeles, con aproximadamente 1.000 coeficientes, por encima de los videos resintetizados con la DCT en una región de 100x60 píxeles con 60.000 coeficientes.

Tabla 1. Coeficientes de correlación punto 1 (labio).

Tabla 2. Coeficientes de correlación punto 3 (mejilla).

Figura 14. Preferencias de videos resintetizados con DCT y con DWT. Este resultado se sustenta por las mediciones de los coeficientes de correlación de las trayectorias seguidas en dos puntos diferentes, correspondientes a regiones de la boca (punto 1) y de la mejilla (punto 3). Se puede ver en las tablas 1 y 2 que el coeficiente de correlación con respecto a la trayectoria original del punto 1, es un poco mayor en el caso de la DCT; sin embargo, en el punto 3 el coeficiente de correlación de la trayectoria es mayor al tener los parámetros DWT. Al tenerse en cuenta parámetros en una región mayor a la de solamente la boca, el clasificador puede representar mejor estas regiones otorgando más naturalidad al video.

Finalmente, dos de las preguntas de la encuesta se diseñaron con el fin de determinar cómo influye la forma y la dimensionalidad de la topología en las secuencias generadas. Los resultados de las encuestas muestran que se presenta una diferencia estadísticamente significativa entre los resultados con un nivel de significancia de 5%. Sin embargo, desde el punto de vista subjetivo del autor los videos no presentan mayores diferencias. En este caso, se plantea la hipótesis de que el algoritmo de SOFM converge a mínimos locales y no al cuantificador óptimo. Este planteamiento se sustenta con las gráficas de medición del error MSE (Gráfico 15). Se observa que la diferencia en el error es muy pequeña para diferentes formas de la topología y diferentes dimensionalidades. La idea se basa en que el proceso de cuantificación demuestra que la superficie cercana al punto del mínimo global es una superficie bastante rugosa. El clasificador se encarga de encontrar puntos cercanos a este mínimo global, garantizando mantener la estructura topológica.

Gráfico 15. Medición de MSE para clasificación SOFM con topologías de diferentes dimensionalidades. Conclusiones Figura 15. Definición de trayectorias de puntos a seguir.

El uso de una transformada multiresolución permite obtener

43


44 parámetros para la generación de un libro de códigos que reproduce secuencias de video naturales. Dentro de las funciones evaluadas, es posible el uso de funciones wavelet como la Haar, Daubechies 2 o una función wavelet biortogonal como la Daubechies 7/9. Esta última otorga una ventaja adicional: la obtención de coeficientes que permitan una adecuada compresión y reconstrucción del libro de códigos. La selección de coeficientes basados en la varianza temporal permite obtener parámetros para una clasificación eficiente. Sin embargo, el criterio de selección debe estar asociado a todos los coeficientes de igual forma, tanto de aproximación como de detalles, generando así un clasificador que mejora con el número de niveles de la transformación. Por otra parte, el uso de la varianza temporal en la selección de los coeficientes permite plantear una primera aproximación al uso de un libro de códigos, basada en unos parámetros dinámicos, es decir, un clasificador que se adapte a los coeficientes encontrados con los cambios en el tiempo. La selección de una región de interés más amplia a solamente la boca reduce los saltos presentados en los

videos resintetizados en regiones como las mejillas, aumentando de esta forma la naturalidad de la secuencia obtenida. Es posible obtener un libro de códigos ordenado topológicamente de acuerdo a una estructura con una dimensión determinada y previamente establecida. Las imágenes que componen este libro de códigos, por lo tanto, presentan relaciones que pueden ser explotadas para generar secuencias de video suaves. El ordenamiento topológico, característica presente en el libro de códigos, permite plantear alternativas en la interpolación de imágenes para la reconstrucción e, igualmente, buscar métodos de compresión de la base de datos aprovechando este ordenamiento. Los resultados encontrados utilizando el método de cuantificación con el algoritmo LBG modificado con criterio minimax, validan los resultados hallados en otras investigaciones, extendiendo su uso a otro tipo de imágenes parametrizadas con una transformada multiresolución.

Referencias bibliográficas Antonini, Marc et ál. “Image coding using wavelet transform”. Transactions on Image Processing. Vol. 1, No. 2. (Abril, 1992), pp. 205-220. Baptiste, Carlos, Mauricio Sotomayor y Pedro Vizcaya. Segmentación y parametrización automática de rostros en video. Bogotá: Pontificia Universidad Javeriana, 2002. Bárcenas, Edson et ál. “Análisis y síntesis de voz visual en el idioma español”. Trabajo de grado (Ingeniería Electrónica). Bogotá: Pontifica Universidad Javeriana, 2001. Essa, Irfan Aziz. “Analysis, Interpretation, and Synthesis of Facial Expressions”. ����������������������������������������������������������� PhD thesis (Arts and Sciences). Massachusetts Institute of Technology, Department of Media Arts and Sciences, 1995. Gray, Robert. “Vector Quantization”. IEEE ASSP Magazine. (Abril, 1984), pp. 4-29. González, Rafael y Richard Woods. “Digital Image Processing”. Second edition. Prentice Hall. New �������������������������������� Jersey. (2003), pp. 349-402. Haykin, Simon, Neural Networks. A Comprehensive Foundation. New Jersey: Englewwood Cliffs, 1994. Internacional Telecommunication Union, ITU. “Visual Telephone Systems”. ITU-T Recommendation H.100, 1998. Internacional Telecommunication Union, ITU. “Narrow-band visual telephone systems and terminal equipment”. ITU-T Recommendation H.320, 1999. Kohonen, Teuvo. “Self-Organization and Associative Memory”. Springer Series in Information Sciences. Helsinki, 1984. Linde, Y., A. Buzo y Robert M. Gray. “An algorithm for vector quantizer design”. IEEE Transactions on Communications. Vol. 28 (1980), pp. 8495. Lloyd, S. P. “Least squares quantization in PCM”. IEEE Transactions on Information Theory. Vol. 28. (March, 1982), pp. 129-137. Machado, Juan Felipe y Diego Santa. “Síntesis paramétrica de voz visual”. Trabajo de grado (Ingeniería Eléctrica). Bogotá: Pontificia Universidad Javeriana, 2001.

Mak, M.W. y W.G. Allen. “Lip-motion analysis for speech segmentation in noise”. Speech Communications. Vol. 14, No. 3. (Jun., 1994), pp. 279296. Nasrabadi, N. M. “Use of vector quantizers in image coding”. Proc. IEEE Int. Conf. Acoustic, Speech, Signal Processing. ����������������������� (Marzo, 1985), pp. 125128. Soto, Carolina y Pedro Vizcaya., Generador de corpus para síntesis de voz visual. Bogotá: ����������������������������������������������� Pontificia Universidad Javeriana, 2004. Skodras, Athanassios, Charilaos Christopoulos y T. Ebrahimi. “The JPEG200 Still Image Compression Standard”. IEEE Signal Processing Magazine. (September, 2001), pp. 36-58. Strang, Gilbert y Truong Nguyen. Wavelets and Filter Banks. Massachusetts: Wellesley, 1997. Tobias, Ö. How to Meet the User Requirement Of Room-Based Videoconferencing. Estocolmo: Royal Institute of Technology, 1999. Vizcaya, Pedro et ál. “Codificación y Decodificación de Secuencias de Telefonía Visual”. Memorias del IX Simposio de Tratamiento de Señales, Imágenes y Visión Artificial. Manizales (Colombia), Septiembre de 2004. Notas Fotorrealista en el sentido de tener transiciones suaves entre las diferentes regiones que limitan los elementos presentes en la imagen. 1


Principios fundamentales para el desarrollo y adminisración eficiente de redes de computadores LAN en la fábrica

PRINCIPIOS FUNDAMENTALES PARA EL DESARROLLO Y ADMINISTRACIÓN EFICIENTE DE REDES DE COMPUTADORES LAN EN LA FÁBRICA José Ebert Bonilla Candidato a Magíster Corporación Universitaria Unitec

Jaime Humberto Carvajal, M. Sc. Universidad de La Salle

Resumen Las buenas redes operan sin ser percibidas, y esto sólo es posible con una infraestructura de administración de red organizada que permita, a la vez, el intercambio y procesamiento de información en forma eficaz y una óptima utilización de los recursos de la red con una alta satisfacción de los usuarios. La administración de una red de área local engloba una serie de actividades, tales como la gestión de fallas, configuración, contabilidad, seguridad, inventario, mapeo de red y plantación de la infraestructura, cada una de las cuales se debe atender en detalle. Hay que considerar que las redes son sistemas sinérgicos, lo cual implica que el descuido en una de sus áreas impactará directa y sustancialmente en el desempeño total de las mismas. El presente artículo presenta una visión teórico-práctica de los principios fundamentales para administración eficiente de redes de computadores LAN.

José Ebert Bonilla es ingeniero de sistemas de la Universidad Católica de Colombia, especialista en Gerencia de Tecnología (EAN) y candidato a Magíster en Ciencia de la Información y Telecomunicaciones de la Universidad Distrital de Bogotá. Es el actual jefe de los programas de Tecnología en Sistemas, y Electrónica y Telecomunicaciones, Corporación Universitaria Unitec; jbonilla@unitec.edu.co. Jaime Humberto Carvajal Rojas es ingeniero mecánico de la UFPS (Cúcuta, Colombia), magíster en Sistemas Automáticos de Producción (UTP) y doctor en Ingeniería Mecánica con especialización en Ingeniería Mecatrónica y Robótica Industrial (Universidad Estatal de Campinas UNICAMP, Brasil). Decano Facultad de Ingeniería de Diseño y Automatización Electrónica de la Universidad de La Salle; jcarvajal@lasalle.edu.co.

Vestigium, 3, (1). Febrero de 2007, pp. 45-53. © Corporación Universitaria Unitec, 2007.

45


46 Palabras claves: administración de redes, calidad de servicio, red de área local LAN, análisis de tráfico, seguridad en redes.

Introducción En los años 70, Robert Metcalfe y David Bogas (ver Ahuja, 1982), quienes en ese entonces trabajaban para Xerox, inventaron un sistema mediante el cual se podían comunicar computadores que se encontraran a distancias no mayores de 2.800 m,1 a una velocidad de 10 Megabits por segundo.2

Figura 1. Plano en borrador de la red Ethernet.3 En los 80, se entrega al mercado de consumo un elemento tecnológico que revolucionó el mundo, el PC (Personal Computer). La revolución consistió en poner la computación

al servicio y en manos de las personas del común (Derfler, 1998). Los dos hechos inevitablemente tuvieron una 4 convergencia. El auge de la computación llevó a que en pequeñas áreas (el espacio de una oficina, el piso de un edificio o un edificio) se tuviera una densidad de computadores personales bastante apreciable. Unido a lo anterior, se tenía una nueva arquitectura de red que permitía el flujo de información a “alta velocidad”. A este tipo de redes se les denominó redes de área local. Las aplicaciones de software empresarial ejecutadas en los PC tuvieron un aumento exponencial y, al lado de ellos, la interconexión de los mismos. Pero este crecimiento casi desbordado trajo consigo la presencia de fallas no fáciles de detectar, congestión de tráfico en los canales de comunicación, pérdida de la noción de la topología de la red, disminución de la seguridad en el transporte y almacenamiento de la información y pérdida de la confidencialidad y veracidad de la misma. La sensación de malestar e insatisfacción dentro de los usuarios no se hizo esperar. Resumiendo, la calidad del servicio decayó ostensiblemente, a tal punto que dio la idea de que la red ya no cumplía con los servicios para los cuales había sido creada. Siguiendo el proceso evolutivo, las tecnologías de las redes tuvieron un momento de caos, en el cual tanto los productores de software como de hardware para redes consideraron necesario aplicar prácticas tecnológicas de


Principios fundamentales para el desarrollo y adminisración eficiente de redes de computadores LAN en la fábrica

uso y administración de las redes de comunicación de datos, de tal forma que se logrará el crecimiento de las mismas en forma ordenada y manteniendo una calidad de servicio satisfactoria para los usuarios finales.

una red de área local, dependiendo de la magnitud de la red y de su aplicación, pero es necesario el orden de los mismos:

El proceso inició por una serie de recomendaciones a través de los denominados DRAFT. Algunas de dichas recomendaciones se convirtieron en protocolo, otras en software y algunas más en metodologías y procedimientos. Con los desarrollos tecnológicos, los proveedores decidieron recoger todo esto en una única solución integrada de gran envergadura. Cabe anotar que la administración de redes no tiene que ver únicamente con elementos técnicos y tecnológicos que permitan hacer un manejo adecuado de la red, sino que también hay que sumarle un personal debidamente entrenado y una administración altamente prospectiva y preactiva, con lo cual se podrán tomar decisiones acertadas, oportunas y eficientes.

1. 2. 3. 4. 5. 6. 7. 8.

Análisis de rendimiento. Seguridad. Monitoreo de fallas. Control de configuración. Mapa de la red. Manejo de inventario. Planeación de red. Contabilidad de costos.

Análisis de rendimiento Este análisis involucra el monitoreo de la cantidad de tráfico en la red, el uso de los recursos y el mantenimiento del archivo histórico (logs de auditoría).

Administración de una red Una red con dos usuarios no necesita un despliegue técnico y humano para administrarla. En estos casos se le asigna la administración a cada uno de los usuarios, quienes son directamente responsables. Pero la administración de una red con muchos usuarios se vuelve compleja, ya que intervienen muchas variables: -

Redes físicamente dispersas. Incremento del uso de la red (aumento de tráfico). Necesidad de discriminación entre usuarios. Interconexión con otras redes (conexión a Internet, redes WAN, generación de extranets, etc.). Un número superior a 15 usuarios. Implementación de redes privadas virtuales. Tiempo de respuesta muy largos. Necesidad de administración de seguridad.

Figura 2. Detalle del análisis de rendimiento de una LAN.6

Una de las metas de la administración de redes es anticiparse a los problemas, lo que permite ejercer una labor silenciosa pero eficiente, obteniendo una calidad de servicio superior a las necesidades de la empresa. En este caso es necesario generar políticas de administración de red o un sistema de administración de redes locales,5 además de seleccionar una persona idónea para la administración de la misma.

Esta función está encaminada a mantener un nivel adecuado en la velocidad de prestación de servicios y el tiempo promedio de respuesta que experimenta cada uno de los usuarios de la red. A través de una serie de mediciones de tráfico7 se puede obtener una gran cantidad de datos que permiten establecer parámetros estadísticos,8 por medio de los cuales se determina el comportamiento de la red. La medición de tráfico se debe realizar en diferentes días y a diferentes horas. Es de suma importancia conocer las horas y días de máximo y mínimo tráfico, que son los momentos más propicios para desarrollar esta actividad. Igual relevancia tiene el determinar las áreas y los equipos que generan el mayor flujo de información.

Principios de administración de redes

En el momento de realizar el análisis de los datos obtenidos en las diferentes mediciones, se debe considerar el tipo de protocolo o pila de protocolos que se están usando

Existen ocho principios básicos para la administración de

en la red. Este ítem permite determinar si el overhead es alto o bajo, porque cada protocolo maneja diferentes

47


48 tamaños de encabezados, lo cual marca una diferencia en el contenido de información de los datos recogidos. Dentro del análisis de rendimiento es necesario revisar los enlaces virtuales que se establecen entre los diferentes usuarios de la red. Dicha revisión se apoya en el hecho de que los usuarios establecen estos enlaces virtuales, que son usados esporádicamente pero saturan los recursos y causan una sobrecarga en la red. Los sistemas operativos actuales traen incluidas algunas herramientas que permiten hacer un monitoreo de red básico. Con sistemas de administración de red actuales se puede hacer un monitoreo completo y en tiempo real, mostrando los resultados a través de gráficas muy dicientes que permiten que el administrador tome decisiones en forma oportuna. Para obtener un mejor desempeño en la red se puede pensar en una implementación de soluciones de baja o alta complejidad, baratas o costosas dependiendo de la infraestructura tecnológica con que se cuente y con el presupuesto asignado para tal fin. Algunas de las opciones a las que se puede acceder para mejorar el rendimiento son:

posibles alternativas tales como hacer una actualización del procesador, un aumento de memoria o la utilización de memoria caché. Si el problema es de espacio de almacenamiento secundario, un aumento de disco estaría bien, aunque se puede ser más radical dependiendo de la gravedad del problema, llegando al cambio del servidor por uno nuevo con una configuración de mayor potencia al actual. En este caso, es de vital importancia el contemplar el crecimiento que presentará la red en el mediano plazo, esto con el fin de no tener un servidor obsoleto muy pronto. Pero no sólo los servidores son los culpables de la degradación del rendimiento de la red, ya que otro cuello de botella se puede presentar en los elementos activos (router, switch, gateway, etc.). En este caso es necesario pensar en un cambio del dispositivo de mayor velocidad o efectuar otro tipo de segmentación de tráfico. Otro elemento que puede afectar el rendimiento de la red es el cableado o el backbone, caso en el cual se puede optar por el cambio de tipo de cableado o, si es el caso, pensar en fibra óptica.

Seguridad - Incremento en la potencia y capacidad de almacenamiento de los servidores. - Incremento en el número de servidores. - Cambio de tarjetas de red para el aumento de la velocidad. - Segmentación de red. - Cambio en el patrón de uso de la red. - Cambio de tipo de red. - Cambio de cableado. - Cambio de backbone. - Mejora o cambio de los elementos de interconexión activos (router, switch, etc.). Todo lo anterior se aplica de acuerdo con los resultados arrojados por las estadísticas. Se puede encontrar el caso de un cuello de botella en un servidor de uso múltiple (comunicaciones, aplicaciones, impresión, etc.), caso en el cual la solución más conveniente es distribuir las tareas en otros servidores que se tengan en la red y que posean la capacidad para ejecutar la tarea. En caso de no poder implementar esta solución, por baja capacidad de los servidores, se hace necesario aumentar el número de servidores. Pero, igualmente, se puede detectar que el problema es la lentitud del servidor; entonces se debe pensar en

La seguridad tiene cada día más preponderancia en el ámbito de la administración de redes de transmisión de información. El uso intensivo de la red de redes Internet por parte de las empresas y de la comunidad en general, la vinculación de las redes corporativas a ésta y la existencia de usuarios de todo tipo y de muy variadas intenciones, han magnificado el tema hasta el punto de crear una paranoia en cuanto a seguridad de la información se refiere. La seguridad se encaminada a proteger los datos y los equipos de daños accidentales o mal intencionados. Los actuales sistemas operativos de red han implementado una protección para el acceso, tanto a nivel local como a nivel de red (recursos compartidos), con el fin de evitar el acceso a la red por parte de personas no autorizadas. Pero esto no basta, ya que se requiere la incorporación de nuevo hardware y software que haga frente a los diferentes peligros a los cuales está expuesta la información. Usualmente los sistemas operativos traen implementados unos mecanismos de validación de acceso, los cuales no son suficientes. Para la seguridad en la red LAN se requieren elementos como routers de selección, firewalls, proxys, NAT, mecanismos de encripción de llave pública o llave privada, etc. Algunos de estos son


Principios fundamentales para el desarrollo y adminisración eficiente de redes de computadores LAN en la fábrica

hardware, mientras que otros están implementados en software, pero en la mayoría de los casos se trata de una combinación, buscando con esto mayor rapidez sin hacer un amplio sacrificio de la flexibilidad. Cabe decir que la implementación de estrategias de seguridad conlleva un costo asociado que puede ser alto. Para determinar si es necesario hacer la inversión, lo primero que se tiene que hacer es estimar el valor de la información que se quiere proteger y luego compararlo con el costo del sistema de seguridad. Una de las medidas que en cualquiera de los casos se debe implementar, y que no tiene un costo directo, es la activación de los log de auditoría, porque a través de ellos se pueden llegar a establecer las acciones ejecutadas por los usuarios de la red o por intrusos. Otro tipo de seguridad que debe implementarse es la defensa contra los “patógenos” virus electrónicos, y esto se puede lograr haciendo uso de software legal, no bajando software de Internet de dudosa procedencia y, ante todo, teniendo un antivirus que nos asegure en alguna medida la no entrada de virus al sistema. Una de las formas más fáciles de contaminar los equipos existentes en una empresa es a través de la red. Una recomendación es no usar dos o más antivirus al tiempo; esto no le da mayor protección, por el contrario, hace su infraestructura más vulnerable. Se ha hablado de la protección lógica que se le debe brindar a los datos, pero también es importante darle protección física a los servidores y demás elementos que conforman la red. Es aconsejable mantener los servidores en lugares de área restringida, ya que en algunos casos son equipos que tienen información crítica para la empresa y en el momento de producirse un accidente se pueden causar pérdidas incalculables a todo nivel. En cuanto a los otros elementos de la red, es muy aconsejable que estos se encuentren ubicados en gabinetes con su respectiva protección. En cuanto al cableado, es imprescindible que el tendido se encuentre dentro de su respectiva canaleta metálica o en una coraza del mismo tipo. No es aconsejable el uso de canaletas plásticas. La razón por la cual se debe usar canaleta metálica es porque se consigue formar la denominada cámara de Faraday, que aísla el cableado de inducciones magnéticas externas que puedan generar errores en la transmisión de los datos.

Monitoreo de fallas

Una forma para contrarrestar las fallas es poseer copias

49


50 de seguridad de la información. Por normas de auditoría es necesario tener tres copias distribuidas en distintos lugares, a fin de poder responder con prontitud frente a cualquier contingencia. Es recomendable que las fallas presentadas se documenten, con el ánimo de llevar una bitácora adecuada que permita a otra persona saber cómo actuar frente a dichas fallas. Igualmente, es aconsejable que se haga un seguimiento minucioso con el fin de poder determinar las causas y poner en marcha planes que aseguren que estas fallas no se repitan. Existen acciones a tomar con el fin de poder asegurar un alto porcentaje de disponibilidad de la red: - Detectar alguna falla que haya sucedido o esté por suceder. - Minimizar el impacto de las fallas. - Adecuado soporte para el arreglo de problemas. Cuando se cuenta con un buen sistema de administración de redes, es posible que se hagan previsiones sobre una posible falla en la red o en los equipos que se encuentran conectados a ella. Igualmente, se debe tener facilidad de hacer bypass a los equipos que se encuentren fallando, evitando así que degraden la totalidad de la red. Otro aspecto a considerar es la minimización del impacto que ocasionan las fallas en los usuarios. Se deben tener procedimientos de contingencia que permitan, en lo posible, que los usuarios no se enteren de la falla en la red. El administrador de la red, por otra parte, debe apoyarse en personal de mantenimiento a los equipos y a la red en tiempo récord, deseable en término de horas, además de establecer alianzas estratégicas con el proveedor. Una de las medidas a tomar para proveer disponibilidad de la red es tener siempre en funcionamiento los servidores, lo cual se obtendrá a través de los sistemas operativos de red local o del software de red, o por medio de utilitarios. Los sistemas operativos actuales proporcionan utilitarios tales como el escaneo de disco al iniciar la sesión, con el fin de proporcionar un medio seguro de almacenamiento al usuario. Si el sistema operativo no tiene estas posibilidades, entonces se debe, en lo posible, tratar de implementar las siguientes recomendaciones: - Que se haga una verificación de lectura después de escribir. - Seguimiento de las transacciones. - Discos espejados y duplicidad de disco. - Servidores espejados. - Fuentes de poder ininterrumpibles (UPS).


Principios fundamentales para el desarrollo y adminisración eficiente de redes de computadores LAN en la fábrica

Control de configuración

Es aconsejable que el manejo de la configuración de la red se lleve de manera automática; de esta forma se facilita tanto la actualización de la información como su consulta, además de que se puede disponer de un gran número de copias en poco tiempo y a bajo costo. Los principios a considerar para el control de configuración, entre otros, son los siguientes: -

Cableado. Equipos de cómputo. Servidores. Estaciones de trabajo. Equipos de comunicación. HUB. Router. Switch. Bridges. Gateway. Firewalls.

En caso de que los equipos estén conformados tanto de parte física como lógica, se hace necesario llevar registro de ambas. La actualización de la configuración garantiza tener un inventario de todos los elementos que conforman la red. Además, ayuda a que los cambios o modificaciones que se efectúen estén soportados sobre el estudio previo de las configuraciones existentes, evitando así problemas.

Mapa de red

El mapa de red proporciona el sistema administrador de red y debe ser lo suficientemente potente y amigable como para que permita el manejo de la configuración, además de lograr visualizar a través suyo el punto donde se ha detectado una falla. Se pueden tener dos tipos de mapas: geográfico y topológico. El mapa geográfico se hace necesario cuando se tienen muchas de redes LAN dispersas e interconectadas. Este tipo de mapa muestra la ubicación geográfica de cada uno de los elementos que componen la red. El mapa topológico, por su parte, sirve para visualizar los dispositivos y enlaces establecidos entre ellos, sin interesar si se encuentran en su posición geográfica exacta. Es muy usado para redes pequeñas. Dependiendo de la magnitud

de la red y de su distribución, se puede usar tanto el uno como el otro, o una combinación de ambos, para obtener mayor claridad de la magnitud de la red.

Manejo de inventarios

Manejo de inventarios está directamente ligado con el mapa de red y con el manejo de la configuración. Su utilidad radica en poder llevar el registro de los equipos que se han utilizado a lo largo del ciclo de vida de la red, lo que arrojará el histórico de su evolución. Se hace útil, igualmente, en caso de tener alguna falla lógica o física en la red reportada por un usuario, ya que rápidamente, a través del inventario, se identifica la configuración de ese punto y se determina si la falla es generada ahí o en otro punto.

Planeación de red

Planeación de red se refiere a las reformas a realizar, tales como el crecimiento de usuarios en la red, actualización de software, comunicación con otras redes o sistemas y todo aquello que de una u otra forma afecte a los usuarios. Esta planeación de red debe responder a las necesidades que se van presentando y a la actualización del administrador, para que le permita incorporar nuevos productos y equipos a la red, a fin de mejorar los servicios presentes o implementar nuevos que mejoren la productividad de los usuarios.

Contabilidad de costos

Contabilidad de costos es apropiada en empresas con redes grandes y divididas en departamentos, en donde a cada departamento se le carga el costo de tener la red en funcionamiento. Poner en funcionamiento una red implica una serie de costos, que al inicio son altos y los cuales hay que poner en confrontación con los beneficios obtenidos, buscando que la relación establecida entre estas dos cantidades sea mayor a uno (1).

51


52 - Elementos activos cuyo consumo de corriente sea muy bajo o, en el mejor de los casos, que su alimentación se tome directamente del elemento conectante, lo cual ayuda a reducir de tamaño los dispositivos, permitiendo que se integre a los medios generadores de datos. - Cuando se tiene menor información que transmitir se requiere menos ancho de banda, pero actualmente el flujo de información es creciente, por tal razón se está trabajando en algoritmos que permitan mayores grados de compresión de la información, acción que se hace más necesaria cuando se están transmitiendo imágenes. Esto contribuiría sustancialmente a disminuir el tráfico efectivo de información, pero aumentaría el tráfico de tramas de control. - Uno de los grandes inconvenientes de la administración de redes es el alto flujo de información que se genera. Por esto, se está trabajando en un concepto denominado agentes inteligentes, los cuales estarían distribuidos por toda la red, monitoreándola continuamente y almacenando la información en bases de datos distribuidas. Desarrollos con red LAN y ambiente virtual: 1. Modelamiento y proyectos de automatización, robots y FMC. 2. Simulación y programación off-line de automatización y robots industriales. 3. Simulación y programación off-line de sistemas CAD / CAM. 4. Planeamiento estratégico de FMS (FMS Scheduling) 5. Robótica avanzada y nuevas aplicaciones industriales. 6. Diseño mecatrónico de robots, dispositivos y mecanismos. 7. Manufactura integrada por computador CIM.

5. Conclusiones

Figura 5. Enseñanza de robótica y FMS en ambiente virtual.

La administración eficiente de redes de computadores LAN es la integración humana y tecnológica hacia una estrategia de aplicación óptima de los recursos de una empresa. Dicha administración significa aplicar una integración sinérgica de recursos humanos y físicos hacia la productividad, competitividad y flexibilidad de la fábrica, en un mundo cada vez más globalizado.

Tendencias A nivel de las redes de datos, su aplicación en las fábricas y administración, se pueden evidenciar varias tendencias y desarrollo futuros. Dentro de los más relevantes se cuentan: - Unificar las redes de datos y las redes de los sistemas flexibles de manufactura en un solo sistema que sea totalmente transparente para el usuario. Esto permitirá que las organizaciones puedan tener un único sistema de administración de red que consolide los datos de ambos ambientes. - Las redes inalámbricas serán la próxima generación de redes en la fábrica. Se está trabajando en codificaciones que sean inmunes al ruido y las interferencias magnéticas.

El análisis de tráfico es la principal herramienta que se posee para la administración de redes, ya que a través suyo se identifica la mayoría de fallas e inconvenientes que se presentan en las redes de comunicación de datos.

Es necesario tener en cuenta que a medida que se aumenten los controles de seguridad el redimiendo de la red decrece, por tanto, es necesario tomar medidas complementarias que permitan contrarrestar esta pérdida. El control de configuración es una de las tareas que un administrador de red debe mantener actualizada y en lo posible automatizada, ya que así puede saber con qué recursos cuenta y le permite dar respuestas eficientes en caso de ser necesario efectuar algún cambio. Cabe recordar que el éxito de las redes radica en el hecho de que el usuario no se percate de su presencia.


Principios fundamentales para el desarrollo y adminisración eficiente de redes de computadores LAN en la fábrica

Referencias bibliográficas Ahuja, Vigía. Design and analysis of computer communications networks. Singapore: McGraw Hill, Inc., 1982. Carvajal Rojas, Jaime Humberto. “Metodologia de Modelagem, Simulação e Programação Off-Line de Robôs e Dispositivos Mecatrônicos Integrados e Direcionados à Células Flexíveis de Manufatura FMC”. Ph. ������������������ D. Trabajo de grado (Ingeniería Mecánica). Brasil: Universidade Estadual de Campinas, 2004. Derfler, Frank. Descubre Redes Lan & Wan. Claro. Conciso. Confiable. Madrid: Prentice Hall, 1998. Hunter, Philip, Local Area Network, Making the right choice. Great Britain: Addisson-Wesley, 1993. McClure, Stuart. Hackers: Secretos y Soluciones para la seguridad de redes. España: McGraw Hill, 2000. Northcutt, Stephen. Detección de Intrusos. Guía Avanzada. 2da. Edición. España: Pearson Educación, 2001. Piattini, Mario G., Auditoria Informática. Enfoque práctico. México: Alfaomega, 1998. Notas A esta red se le denominó Ethernet. La figura 1 presenta el plano en borrador de dicha red. Este gráfico fue tomado del sitio de Xerox. 2 Cabe anotar que esta velocidad era muy alta en ese tiempo. La velocidad que se lograba por pares aislados no era mayor a 9600 bits por segundo. 1

Esta velocidad se obtenía cuando las condiciones de comunicación y los enlaces estaban en óptimas condiciones. 3 Figura tomada de la página web: http://www.tcp-ip-info.de/tcp_ip_ und_internet/ethernet.gif 4 Esta convergencia se propició por el uso cada vez más común de elementos de procesamiento en las comunicaciones -lo cual las iba haciendo más eficientes-, por el proceso de digitalización de todo tipo de información y por la necesidad de compartir información en forma fácil y en tiempo real. 5 El uso de un sistema de administración de redes va a depender del tamaño de la red y de los recursos con que cuente la empresa para tal fin. 6 Figura tomada de la página web: http://www.integracion-de-sistemas. com/analisis-y-monitoreo-de-redes/images/Observer_bandwidth_ utilization_graph.gif 7 Se sugiere que las mediciones de tráfico se efectúen en diferentes puntos de la red, a diferentes horas del día y teniendo en cuenta los días de más alto volumen de tráfico, si estos llegaran a existir. 8 Alguno de los parámetros estadísticos a tener en cuenta pueden ser promedio de paquetes enviados, recibidos, retransmisiones, overhead, tráfico efectivo tasa de errores, entre otros.

53


54 UNA REFLEXIÓN SOBRE LA IMPORTANCIA DE LA FORMACIÓN ADMINISTRATIVA Luis Alejandro Duarte García, Ed. M. Corporación Universitaria Unitec

Resumen El presente artículo pretende dejar una inquietud en relación con la necesidad e importancia de la formación administrativa en el perfil integral de los profesionales. Estas líneas están dirigidas en especial a quienes no se forman en la profesión de administradores, con el fin de hacerlos reflexionar sobre la pertinencia de este tipo de conocimientos para su proyección profesional. Para lograrlo, se hace una aproximación al concepto administrativo, buscando identificar su fundamento, destacando la necesidad de las habilidades gerenciales para enfrentar los retos de hoy en un mundo globalizado, para, finalmente, reflejar la valiosa contribución de estos conocimientos en el desempeño efectivo de todo profesional. Palabras claves: inestabilidad, formación, administración, recursos, metas.

Alejandro Duarte es administrador de empresas y magíster en Docencia (Universidad de La Salle). Actualmente se desempeña como Coordinador del Área Financiera de la Corporación Universitaria Unitec; lduarte@unitec.edu.co.

Vestigium, 3, (1). Febrero de 2007, pp. 54-58. © Corporación Universitaria Unitec, 2007.

Introducción

Generalmente los estudiantes de educación superior, y aun algunos profesionales, consideran que las temáticas vitales de su formación son aquellas que les brindan los conocimientos técnicos en la profesión, por ejemplo: el diseñador, las áreas de dibujo, diseño, artes gráficas; el ingeniero de sistemas, las áreas de programación, redes, sistemas operativos; o el publicista, las áreas de medios, campañas o creatividad. Normalmente estos estudiantes y/o profesionales tienden a pensar que las demás temáticas contempladas en su formación son de menor importancia o que se trata de aquellas denominadas, en un término muy común y utilizado de forma peyorativa, “el relleno”. Pero si valoramos la verdadera dimensión que implica el término relleno, de manera metafórica, se puede decir que es el que permite dar la forma, el sazón, el sabor, en otras palabras, son las áreas que forman el perfil integral del profesional. En este sentido, las temáticas administrativas se encuentran en el selecto grupo de las menospreciadas cuando se opta por alternativas de formación diferentes.


Una reflexión sobre la importancia de la formación administrativa

Es por esto que al escribir estas líneas no estoy pensando en los administradores; muy por el contrario, mis principales destinatarios son aquellos profesionales o futuros profesionales que han decidido optar por una opción de formación diferente, pueden ser ingenieros, abogados, economistas, médicos, sacerdotes, diseñadores, cineastas… Con ustedes quiero compartir esta sencilla pero valiosa reflexión.

La administración

Es indiscutible que para lograr concretar objetivos y metas de manera efectiva, se hace necesaria una sólida formación administrativa, la cual permite llevar a feliz término los resultados esperados. Pero quienes no se forman en esta profesión parecen no entender que ésta es necesaria para el desarrollo de cualquier actividad humana y que día a día se hace indispensable para enfrentar los nuevos retos. En mi intención de hacer comprender su relevancia es pertinente realizar una aproximación al significado de la administración. Si bien es cierto que existen abundantes textos que conceptúan sobre la administración, no es fácil encontrar una definición que integre de manera única la verdadera dimensión de sus alcances, por eso la intención de esta aproximación es buscar, en algunas de las definiciones

disponibles, elementos comunes que permitan vislumbrar y comprender su fundamento, estableciendo así su convergencia con la formación de todo profesional. Algunas de estas definiciones son: Idalberto Chiavenato: la administración es la tarea que se encarga de interpretar los objetivos propuestos por la organización y transformarlos en acción organizacional a través de la planeación, la organización, la dirección y el control de todos los esfuerzos realizados en todas las áreas y niveles de la organización, con el fin de alcanzar tales objetivos de la manera más adecuada a la situación.1 James Stoner: la administración es el proceso de planeación, organización, dirección y control del trabajo de los miembros de la organización, y de usar los recursos disponibles de la organización para alcanzar las metas establecidas.2 Harold Koontz: la administración es el proceso de diseñar y mantener un ambiente en el cual las personas, trabajando juntas, en equipo, alcancen con eficiencia metas seleccionadas.3 Carlos Dávila: la administración es una práctica social usualmente esquematizada como el manejo de los recursos de una organización para el logro de sus objetivos, para lo cual se ejercen los elementos administrativos (proceso

55


56 administrativo) de planear, organizar, dirigir y controlar.4 Wilburg Jiménez Castro: la administración es una ciencia social compuesta de principios, técnicas y prácticas, cuya aplicación a conjuntos humanos permite establecer sistemas racionales de esfuerzos cooperativos, a través de los cuales se puedan alcanzar propósitos comunes que individualmente no sería factible lograr.5

El fundamento administrativo

De forma general se puede identificar que la administración requiere de la aplicación de un proceso intencionado no improvisado, el cual permite integrar esfuerzos, dar un uso adecuado a los recursos y lograr objetivos y metas propuestos. Este fundamento adquiere relevancia hoy, en un mundo moderno caracterizado por la alta competencia donde no existe espacio para improvisar. En este sentido, ninguna actividad humana puede ser ajena a la necesidad de ser administrada, ya que en las condiciones actuales se debe estar preparado para actuar con precisión. Hay quienes suelen decir que el fundamento y los principios administrativos son obvios y que su aplicación se da por simple sentido común; tal vez así parezca, pero desarrollarlos en forma adecuada en el momento y bajo las condiciones apropiadas no es cosa sencilla, y en las condiciones actuales cada día se hace una labor más compleja. Si la administración fuera tan sólo sentido común no fracasarían tantas empresas ni tantos gerentes incompetentes. Es cierto, el sentido común es valioso en el momento de tomar algunas decisiones cotidianas y de tipo programado, pero no es suficiente en la medida que éstas se hacen más complejas y elaboradas.

El reto de administrar las organizaciones hoy

La función administrativa está en cabeza de los gerentes, cuyo reto es lograr el éxito de sus organizaciones. Pero ejercer esta función no es exclusividad de quienes estudiaron administración; hoy es una función que se integra a todos los niveles funcionales de las organizaciones, convirtiéndose en un verdadero desafío para las habilidades de cualquier profesional; es un contraste de cualquiera otra función productiva, ya que es variable, intermitente y cargada de tareas imprevistas. La gerencia es el arte de pensar, de decidir y actuar; es el arte de hacer que las cosas se realicen, de obtener resultados previstos, los cuales deben lograrse a través de las personas en una

interacción humana constante.6 La gerencia es, en esencia, la ejecución de la función administrativa, integrando recursos y actividades de cooperación en búsqueda de resultados de interés común; la administración consiste en darle forma, de manera intencional, consciente y racional a las organizaciones. Los gerentes son las personas responsables de realizar estas acciones y deben lograr que los demás lleven a buen término su contribución a los objetivos trazados. Hoy se entiende que la especificidad de una profesión no es limitante para ejercer la gerencia de un negocio; en la actualidad se contratan ingenieros como gerentes de compañías informáticas, médicos para administrar hospitales, arquitectos para ser gerentes de constructoras, y el no ser administradores no los libera del compromiso y la responsabilidad de proyectar sus organizaciones por el camino del éxito. Es por ello que todo profesional debe desarrollar habilidades que le permitan enfrentar las contradicciones y transformaciones de las organizaciones


Una reflexión sobre la importancia de la formación administrativa

modernas, y si desea conseguirlo debe estar preparado frente a las cambiantes exigencias del mercado, para lo cual se requiere la formación administrativa.

los fracasos, evita esfuerzos vanos y, por ende, incrementa los beneficios.

Conclusión La necesidad del conocimiento administrativo

El mundo está compuesto por organizaciones extremadamente heterogéneas en permanente interacción y cambio, sin importar su tamaño o razón de ser, donde cada una es pieza que contribuye y forma parte vital del sistema mundial. La sociedad se consolida en una interacción constante de las organizaciones y de las personas en la búsqueda de intereses mutuos; el conjunto de estas relaciones de dependencia realza la importancia del fundamento administrativo en su propósito de lograr la permanencia de una sociedad. Dicha permanencia significa un constante desarrollo, un mejoramiento continuo, incrementar la calidad de vida e impactar favorablemente el entorno social. En otras palabras, el mundo requiere organizaciones competitivas, capaces de satisfacer las necesidades de sus clientes y las de los miembros que la integran, además de ser rentables para así perdurar. Hoy somos consientes de que el mundo no se detiene, por el contrario, el ritmo de los cambios día a día se acelera y las organizaciones evolucionan rápidamente, sus operaciones cada vez son más complejas, dispendiosas y exigen una capacidad de respuesta oportuna por parte de las personas que ejecutan las actividades. “Ya no se habla únicamente de formación para el empleo, ni siquiera para el puesto de trabajo, sino para la mejora de las competencias personales, reflejadas en la capacidad de competir de las organizaciones”.7 Frente a esta realidad se requiere un mayor potencial de trabajo en las personas, con clara visión de mundo, comprensión de los negocios, sus relaciones y comportamientos, es decir, profesionales con una sólida formación en conocimientos administrativos. Es posible que personas exitosas en sus negocios afirmen que jamás se formaron como administradores y que su mejor escuela fue la experiencia del ensayo y el error. Si bien esto puede ser cierto, generalmente el éxito empírico se presenta después de muchos fracasos, esfuerzos innecesarios, recursos desperdiciados y mucho de lo que llamamos suerte, y normalmente se requiere de la asesoría de expertos para proyectarlos. Es verdad que la formación académica en administración no podrá sustituir a la experiencia, muy por el contrario, se debe reconocer que ésta es vital para la consolidación de todo profesional, pero la formación académica sí provee una preparación valiosa que facilita la comprensión y ejecución de los procesos, mejora la utilización de los recursos, disminuye

Todo profesional debe estar preparado para responder de manera efectiva a los nuevos requerimientos organizacionales, para ello debe comprender que las funciones empresariales han cambiado de actividades disgregadas a una labor integral, debe tener claridad de que la función administrativa tiene una aplicación universal y que se requiere en todos los niveles y áreas funcionales de una organización. Los negocios, grandes o pequeños, necesitan y se benefician de una administración efectiva; los encargados de estas organizaciones pueden ser médicos, sacerdotes, ingenieros, pedagogos, etc., pero todos en esencia son administradores y responsables del éxito o fracaso de dichas organizaciones. Si evaluamos, ninguno de ellos estudió para ser administrador, pero para poder ser los líderes de sus organizaciones y tener éxito requieren de un adecuado manejo administrativo. Tal vez una última razón para argumentar la necesidad del estudio administrativo en todas las profesiones es que las organizaciones requieren hoy de gerentes con conocimientos específicos (técnicos) propios de su profesión, pero con la capacidad de integrar los esfuerzos de todos los que conforman sus áreas funcionales, con miras a encaminarlos hacia el objetivo general. En síntesis, todo profesional demanda una sólida formación administrativa, la cual facilita el desarrollo de las habilidades gerenciales para así orientar adecuadamente los negocios, racionalizando recursos, optimizando esfuerzos y maximizando utilidades. Si usted se prepara obtendrá beneficios más pronto de lo que se imagina. Si se identificó con lo aquí expuesto, espero que vislumbre de una manera diferente su percepción frente a la necesidad de una formación integral, que comprenda la importancia de todas las áreas de formación que conforman el “relleno” de su profesión y que sea conciente de que las demandas actuales de las organizaciones necesitan profesionales con conocimientos y habilidades para administrar.

57


58

Referencias bibliográficas

Notas

Bateman, Thomas y Scout Snell. Administración: una ventaja competitiva. 4ª ed. México: McGraw-Hill, 2001. Chiavenato, Adalberto. Introducción a la teoría general de la administración. 4ª ed. Bogotá: McGraw-Hill, 1998. Dávila, Carlos. Teorías organizacionales y administración. Edición revisada. Bogotá: McGraw-Hill, 1992. Gitman, Lawrence y Carl McDaniel. El mundo de los negocios. México: Harla, 1995. Jiménez, Castro. Introducción al Estudio de la Teoría Administrativa. 5ª reimpresión. México: Limusa, 1996. Koontz, Harol. Elementos de administración. 5ª ed. México: McGraw-Hill, 1994. Motta, Paulo. El arte y la ciencia de ser dirigente. Bogotá: Tercer mundo editores, 1998. Navarro Domenichelli, Rogelio. “De la formación al desarrollo de las competencias”. [En línea] Disponible en Internet en la dirección: http:// www.rrhhmagazine@rrhhmagazine.com. (Acceso: noviembre de 2005). Stoner, James. Administración. 6ª ed. México: Prentice Hall, 1996.

Cf. Idalberto Chiavenato, Introducción a la teoría general de la administración. 4ª ��������������������������������������� ed. Bogotá: McGraw-Hill: 1998, p. 8. 2 Cf. James Stoner, Administración. 6ª ed. México: Prentice Hall, 1996, p. 6-7. 3 Cf. Harol Koontz, Elementos de administración. 5ª ed. México: McGrawHill: 1994, p. 4. 4 Cf. Carlos Dávila, Teorías organizacionales y administración. Edición revisada. Bogotá: McGraw-Hill: 1992, p. 8. 5 Cf. Jiménez Castro, Introducción al estudio de la teoría administrativa. 5ª reimpresión. México: Limusa: 1996, p. 23. 6 Cf. Thomas Bateman y Scout Snell, Administración: una ventaja competitiva. 4ª ed. México: Mc Graw-Hill: 2001, pp. 324-327. 7 Rogelio Navarro Domenichelli, “De la formación al desarrollo de las competencias”. Disponible en Internet en la dirección: http://www.rrhh magazine@rrhhmagazine.com 1


La historia de la película es interesante ¿...?

LA HISTORIA DE LA PELÍCULA ES INTERESANTE: ¿…? Adyel Quintero Díaz, Ph. D. Corporación Universitaria Unitec

Resumen Uno de los problemas fundamentales del cine colombiano actual es, según criterio generalizado de expertos y público, el tratamiento de los guiones. A pesar de que, en ese sentido, se podría hablar de falencias en la construcción de los diálogos, el diseño de los personajes, la falta de originalidad en las estructuras, etc., la mayoría de los espectadores coinciden en señalar problemas en la formulación del argumento. La historia no es interesante, o tiene una buena historia, pero…, son dos frases que se escuchan mucho en el contexto audiovisual colombiano para referirse a la calidad de un guión. Sin embargo, ¿qué significa que una historia sea interesante? Después de analizar el significado que en ese sentido poseen algunas

categorías dramáticas (historia, argumento, tema, premisa, punto de vista, plot), se llega a la conclusión de que al elaborar o componer la trama es cuando realmente el guionista empieza a modelar en profundidad lo que quiere decir, a develar el contenido espiritual de su narrativa y a trazar caminos para que la imagen y la dramaturgia alcancen a completarse en el plano de la connotación estética. Por eso, es la trama —entendida como la forma de tejer las acciones operantes de un relato cinematográfico, la manera de contar la historia— la que realmente puede sostener, intensificar o hacer decaer el interés de las narrativas audiovisuales. Palabras claves: guión cinematográfico, argumento, punto de vista, trama.

Adyel Quintero Díaz es Doctor en Ciencias sobre Arte. Es el coordinador del Área de Arte Escénico y Realización del programa universitario de Cine y Televisión de la Corporación Universitaria Unitec; aquintero@unitec. edu.co.

narrativa,

Uno de los problemas fundamentales del cine colombiano actual es, según criterio generalizado de expertos y público, el tratamiento de los guiones. A pesar de que, Vestigium, 3, (1). Febrero de 2007, pp. 59-66. © Corporación Universitaria Unitec, 2007.

59


60 en ese sentido, se podría hablar de falencias en la construcción de los diálogos, el diseño de los personajes, la falta de originalidad en las estructuras, etc., la mayoría de los espectadores coinciden en señalar problemas en la formulación del argumento. La historia no es interesante o tiene una buena historia, pero…, son dos frases que se escuchan en el contexto audiovisual colombiano para referirse a la calidad de un guión. Sin embargo, ¿qué significa que una historia sea interesante?, ¿acaso que muestre la realidad nacional tal y como nos la presentan todos los días los noticieros de televisión?, ¿que involucre elementos de humor?, ¿que sea enrevesada, laberíntica, intrincada?, ¿que contenga gran cantidad de ingredientes fáciles para establecer empatía con el espectador?, ¿que posea una carga emocional intensa?, ¿que tenga misterio y sorpresa?, ¿que no le falte sexo, escenas de violencia, besos apasionados o un plot amoroso? Detrás de cualquiera de estos elementos se encuentra un sinnúmero de vicios o clichés culturales que como receptores estamos acostumbrados a obedecer. La cultura instituye una serie de patrones, tanto a nivel formal como conceptual, de lo que puede ser una historia atractiva, y nos acostumbramos a valorar un argumento según este discurso preestablecido, a veces agotado y colonizador. La Poética de Aristóteles (una de las fuentes clásicas para el estudio del guión y de la dramaturgia en general) señala, por ejemplo, que toda buena historia debe tener principio, medio y fin, y que la extensión de la narrativa requiere ser bien calculada pues en esto radica su belleza. Es magnitud ideal, plantea Aristóteles, aquella que, siendo la acción verosímil, va de la desdicha a la felicidad o de la felicidad a la desdicha.1 Es decir, para que la historia quede bien contada se necesita tener un cambio de fortuna en el destino del héroe, o dicho de una manera más contemporánea, un punto de giro que oriente las acciones del protagonista hacia la consecución de un fin, generalmente relacionado con la solución del conflicto o crisis que se han desatado y el restablecimiento, por ende, del equilibrio inicial. Semejante concepción del drama occidental ha sido desarrollada posteriormente por muchos teóricos, tanto de la dramaturgia teatral como cinematográfica. Entre los estudios más conocidos en el ámbito del guión, podemos citar a Syd Field y a Christopher Vogler;2 el primero, con la teoría de los tres actos, el segundo, con su estructura del viaje del héroe. En ambos casos, el modelo aristotélico ha sido particularizado definiendo las características de cada etapa y momento en el desarrollo de las historias. Teniendo en cuenta una u otra teoría, al analizar la eficacia de una narrativa cinematográfica nos hemos acostumbrado a valorar la misma partiendo

de estas modelaciones y, en ocasiones, nos atrevemos a asegurar que cierta historia no funciona porque no desarrolló en forma adecuada uno de los tres actos o porque se omitió de manera deliberada una de las etapas del viaje del héroe, etc.; todo esto, sin tener en cuenta las particularidades estilísticas, estéticas y la naturaleza de la dramaturgia objeto de estudio. A veces nos ocurre, con ciertos filmes de corte más experimental, que al no lograr enmarcarlos dentro del paradigma Syd Field, Vogler o cualquier otro que se esté usando como referencia, nos damos por vencidos en nuestra tarea hermenéutica o simplemente los desechamos. Y este constituye sólo un ejemplo de cómo un modelo teórico, mal entendido o aplicado de manera esquemática, puede hacerle mucho daño a la comprensión de los fenómenos artísticos. Claro que con esto no se está queriendo invalidar ningún marco teórico o conceptual para el estudio del guión, sino que, si la creación se valida sobre todo a partir de principios, más que de fórmulas, también debemos aprender a valorarla tomando como base esos principios que la engendraron, sin hacernos presos de los conceptos y los esquemas, y desentrañando la manera en que se construye el bios significante en la obra artística analizada. Pero en aras de continuar con el análisis inicial (¿qué hace interesante una historia para la pantalla?), diferenciemos las nociones de historia y argumento. En la teoría narrativa clásica, historia es sencillamente una sucesión cronológica de hechos. Por ejemplo, tomemos el poema de Coleridge: “Si un hombre atravesara el paraíso en un sueño y le dieran una flor como prueba de que había estado ahí, y al despertar encontrara esa flor en su mano... ¿entonces, qué?”. ¿Cuál es la historia que cuenta él mismo? Una versión abreviada de esta podría ser: un hombre se acuesta en su cama. Sueña que está en el paraíso. Un ángel le da una flor. El hombre despierta y se da cuenta que tiene la flor en la mano. Para llevar esta historia al nivel de argumento, tendríamos que empezar por responder preguntas tales como: ¿cuál es la razón que motiva a este hombre a soñar con el paraíso?, ¿quién es el ángel?, ¿por qué el personaje despierta con una flor en la mano?, ¿qué significado tiene esta flor?, etc. Al solucionar las interrogantes tal vez podríamos armar un argumento atractivo, pero ¿de qué depende que así sea? El argumento realmente se hace atractivo cuando logra construir una emoción significativa, cuando, tomando como base la historia, establece las conexiones entre los hechos a partir de un sentido concreto, crea escenarios (espacio-tiempos) para el desarrollo de la narrativa y define las acciones —es decir, arma el relato— pero siempre con una finalidad concreta, buscando edificar uno o varios puntos de vista, un significado y una función


La historia de la película es interesante ¿...?

para cada evento y la historia en general. Dicho con un lenguaje más semiótico, el argumento debe plantear un equilibrio entre lo denotativo y lo connotativo; denotación, entendida como la producción de sentidos primarios, y connotación, definida como el proceso de instauración de sentidos suplementarios. En esa misma dirección, Eugenio Barba, célebre teórico de la dramaturgia y el arte del actor en el siglo XX, plantea la existencia de dos polos o planos que rigen la construcción de una dramaturgia: la concatenación y la simultaneidad. Y aunque al hacerlo Barba se refiere específicamente al desarrollo de la trama (más adelante analizaremos este concepto), pues para él historia y argumento son equivalentes, es posible aplicar la misma idea cuando queremos desentrañar la naturaleza que sigue el argumento -tal y como fue conceptualizado al comienzo de este párrafo- en el proceso de generación y establecimiento de sentidos: La trama puede ser de dos clases: La primera se realiza mediante el desarrollo de las acciones en el tiempo a través de una concatenación de causas y efectos o a través de una alternancia de acciones que representan dos desarrollos paralelos. La segunda clase se realiza a través de la presencia simultánea de varias acciones. (…) Las acciones operantes (la dramaturgia) viven respecto al equilibrio entre el polo de la concatenación y el polo de la simultaneidad. Esta vida corre peligro de perderse si se pierde la tensión entre los dos polos.3 A partir de lo anterior Barba analiza cómo la pérdida del equilibrio hacia uno u otro polo puede generar o una dramaturgia muy obvia, donde todo es contado de manera bastante explícita, o una dramaturgia muy intrincada, impenetrable, cerrada, que no le deja canales de acceso a su receptor y se vuelve, por tanto, casi ilegible. Lo cierto es que la consecución de este equilibrio entre concatenación y simultaneidad, o denotación y connotación, estará directamente relacionada con el significado que se les pretende dar a la historia y al argumento. A menudo este significado o sentido se confunde con el tema, la premisa y/o el plot. La confusión parte de una comprensión desacertada de estos conceptos y del escaso valor que se les da a otros, tal vez más relevantes, en el proceso de productividad significante. El tema generalmente es entendido como el aspecto de la realidad que se toma para desarrollar el argumento, para darle una dirección. Éste ayuda a conectar los hechos, les da coherencia, unidad, se escribe en una o dos líneas máximo

61


62 y debe ser lo más particular posible. En algunos libros de guión se intentan definir algunos temas que suelen ser constantes universales en las narrativas, por ejemplo, el amor, la muerte, la traición, la venganza, etc.; pero estas son definiciones muy generales y poco operativas en términos de construcción dramática. Para hacer del tema un instrumento operativo eficaz en el proceso de generación de significados de la historia, es necesario que éste contenga, de cierta manera, una premisa del escritor respecto al mismo. Es decir, el tema en general de una narrativa puede ser el amor, pero dicho de una manera más específica podría plantearse: cómo la fuerza del amor trasciende por encima de los conflictos raciales. En este caso se ha introducido una proposición ideológica que finalmente ayuda a edificar una sinopsis en miniatura del guión. La premisa fue estudiada con detenimiento por Lajos Egri en su libro The Art of Dramatic Writing. Egri argumenta que la misma debe contener al personaje principal, su conflicto y el desenlace. En el caso de la premisa enunciada anteriormente, por ejemplo, ésta presupone la existencia de dos personajes de diferentes procedencias raciales, enamorados y enfrentados a una fuerza, seguramente de naturaleza social que se les opone pero que, finalmente, es vencida por el amor que se tienen estos individuos. Definir el tema y articularle, en lo más posible, una premisa particular, ayuda a darle una orientación, también más distintiva, a lo narrado. Sin embargo, tal definición no necesariamente se debe realizar, en el caso del guión, desde el primer día, pues en ocasiones esto mata ciertos impulsos vitales que pueden llegar durante el acto creativo, ya que tema y premisa se convierten en elementos rígidos que no le permiten al argumento crecer, encontrar su naturaleza, probar alternativas de construcción que de repente pueden ser más eficaces en el armazón o dramatización del/los significado(s) buscado(s). También sucede con frecuencia que del descubrimiento del tema y la premisa puede devenir una fascinante aventura que incluye un proceso de pre-escritura o investigación de fuentes, en el cual el guionista explora de manera incesante y apasionada sus personajes, los hechos y situaciones dramáticas, las escenas, los diálogos, etc., hasta encontrarles una dirección precisa que le permita decantar, seleccionar, montar las acciones operantes de la trama y llegar a una primera o definitiva versión del guión en la que, finalmente, quedan concretados y dramatizados un tema y una premisa sobre los cuales será necesario, además, que el guionista elija un punto de vista para desarrollarlos. Ese punto de vista, por su parte, incluye la formulación de


La historia de la película es interesante ¿...?

varias preguntas: quién ve la historia, cuánto ve quien ve (cantidad de información que es comunicada), desde dónde la ve (relación entre el espacio del narrador y el espacio del argumento), cuándo la ve (el tiempo que habita el narrador y el tiempo de lo narrado), cómo la ve (¿está afectado por lo que ocurre?, ¿qué siente respecto a lo que cuenta?, ¿fue (es) testigo o participante de los hechos?, etc.), con qué tono la cuenta (¿el narrador habla desde la tristeza, el dolor, la desesperación?), para quién la cuenta (¿para otro personaje?, ¿para sí mismo?, ¿para un espectador imaginario?). La respuesta a cada una de estas preguntas, obviamente, también nos fijará un modo determinado de relatar, estrechamente vinculado a la premisa que sobre el tema ha de plantearse el guionista. La teoría y la praxis del guión tratan de construir todo el tiempo conceptos que puedan definir con claridad la manera en que se construye una historia acertada para la pantalla. Otro de estos conceptos es el llamado plot o columna vertebral de la narrativa. Tal y como lo expresa Doc Comparato,4 el plot es el equivalente de la llamada fábula aristotélica, entendida como ordenamiento o sucesión de los hechos, con principio, medio y fin y un claro significado trazado en función de la resolución de un conflicto o crisis planteado al comienzo: “(…) las acciones organizadas de modo tal que si suprimiéramos o cambiáramos alguna de ellas, alteraríamos el todo”.5 El pensamiento dramático occidental también ha intentado, al igual que con los temas, definir algunos tipos de plot (venganza, amoroso, de búsqueda, de éxito, etc.), en función de los asuntos y estrategias o fórmulas narrativas que se han empleado con frecuencia para reflexionar, desde el relato cinematográfico, sobre ciertas inquietudes filosóficas y éticas de nuestra cultura. Pero definitivamente el establecimiento del tema, la premisa, el punto de vista, el plot, la historia y el argumento, no son suficientes para hablar de “lo interesante” de una narrativa. Los antiguos griegos iban al teatro no para enterarse de lo que sucedía, sino de cómo iban a ocurrir las cosas, pues el qué ya estaba garantizado porque toda la comunidad conocía el mito con el cual estaba tratando el poeta.6 Para ellos lo más importante era la trama, es decir, la manera de hilar, atar los eventos y componentes de la narrativa, la forma en que se establece el tejido de imágenes y sonidos que da lugar a la dramaturgia. En ese sentido, un mismo argumento puede originar una multiplicidad de tramas. Muchos textos sobre guión plantean un plan de trabajo para escribir que parte del estudio de la idea inicial, la definición de la historia, el argumento, el tema y los perfiles de los personajes; luego se escaletea (es decir, se divide el argumento en escenas, situaciones y acciones significativas); se hace el tratamiento (la escaleta se amplia y se investiga la estructura y función de cada escena, los posibles diálogos, el estilo, el género,

la puesta en escena), y entonces estamos listos para hacer una primera versión del guión.7 Este esquema de trabajo se ha impuesto en la industria audiovisual, al punto que las productoras y entidades que realizan convocatorias para el desarrollo de guiones, ocasionalmente les solicitan a los participantes incluir los resultados de algunos de estos pasos al presentar sus trabajos. Evidentemente el plan descrito con anterioridad puede funcionar en varias ocasiones, mas no en todas. El oficio de construir un guión para la pantalla, de crear el espacio tiempo de un relato cinematográfico, entraña una investigación sobre la forma de conjugar los signos visuales y sonoros en pos de, como planteamos en párrafos previos, construir una emoción significativa, un buen argumento. Estos signos son puestos en tensión escénica y sólo en ese momento alcanzan a completar su significado; pero de todos modos el guión ya debe contener un armazón tal que la letra tenga espíritu. No se trata de que el guión esboce una sola puesta en escena posible, pero si hay espíritu en la letra hay imagen artística, y si hay imagen artística existe la posibilidad de la mutación de los signos. Un buen guión contiene, en potens, la sugerencia para múltiples puestas en escena, para disímiles formas de presentar, esculpir nuevamente, a través de los signos visuales y sonoros el espíritu que lo engendró y que ha quedado expresado, marcado, en el verbo: “El signo penetra en la escritura, rehusando siempre su mortandad, pues signo es siempre señal. (…) El signo expresa pero no se demuda en la expresión. El signo pasado a la expresión, hace que la letra siempre tenga espíritu.”8 Esto quiere decir que al elaborar o componer la trama es cuando realmente el guionista empieza a modelar en profundidad lo que quiere decir, a develar el contenido espiritual de su narrativa y a trazar caminos para que la imagen y la dramaturgia alcancen a completarse en el plano de la connotación estética.9 Es un proceso en el cual la dicotomía forma y contenido se convierte en un sinsentido. El escritor debe estar muy atento para descubrir ese instante súbito en el cual una imagen o una secuencia de imágenes construyen la excepción de la forma, lo particular, la belleza inédita; obviamente, no a partir del estaticismo sino del constante movimiento que suponen las acciones dramáticas. Es la trama la que esencialmente hace distinta a una narrativa audiovisual de otra y la que a la vez las une, pues en el proceso de desarrollo del pensamiento dramático occidental se han ido estableciendo algunas regularidades en cuanto a las formas de estructurar y componer la ficción, que son las que han definido la existencia de ciertos géneros y estilos dramáticos. Por eso, cuando hagamos referencia a si una historia es realmente interesante o no, tal vez sea más

63


64 preciso determinar si la misma está armando alguna emoción significativa y si dicha emoción se construye desde un tejido interesante de acciones operantes,10 es decir, si existe una trama que verdaderamente —a partir de la estructura, el espacio y el tiempo en el objeto que nos ocupa (el relato cinematográfico)— logra cimentar una caja de imágenes y sonidos donde cada signo se encuentra lleno de espíritu. Claro está que, para completar semejante reflexión, habría que hacer referencia también a los elementos presentados anteriormente: el tema, el plot, la premisa y el punto de vista, pero otorgándole definitivamente un gran peso a la manera de estructurar, unir y tejer la narrativa. El análisis de la trama pasa a su vez por el estudio de diversos elementos entre los cuales encontramos: El tempo, es decir, el nivel de actividad dentro de las escenas. El ritmo, entendido como paso global en la sucesión o acaecimiento de las cosas en una narrativa. El mismo se desarrolla mediante la repetición de las tomas, las variaciones en los tipos de escenas dentro de las secuencias y las variaciones entre las secuencias en toda la narrativa.11 Además de lo anterior se encuentran los diálogos y sus relaciones con las acciones, las imágenes, las situaciones, los personajes y el manejo de subtextos, que crean una corriente de pensamiento interior y hacen más atractivo el uso de la palabra en sus conjugaciones con la imagen. A cualquiera de los ítems anteriores podríamos dedicarle un ensayo aparte, sin embargo, para finalizar, haremos referencia a tres niveles devenidos a partir de los estudios semióticos, claves para comprender las operaciones de estructuración de sentido que determinan la composición de todo texto. Partiendo de la definición barbiana, podemos entender la trama como un texto12 en el cual hallaremos un nivel ideológico, constituido por el referente discursivo y por el lugar de articulación de las formaciones ideológicas y discursivas;13 un nivel intertextual, formado por el conjunto de los textos lingüísticos, gestuales, visuales, etc. a los que todo texto puede estar asociado, sea temática (al tomar en préstamo un motivo o un topos) o formalmente (como analogía estructural o utilización de un procedimiento formal);14 y por último, un nivel autotextual, o dimensión del texto considerado como entidad que se repliega sobre sí misma, como conjunto de figuras y de remisiones dentro de él mismo.15

El caso del nivel ideológico no sólo tiene que ver con la forma en que el pensamiento del guionista, su filiación a una u otra tendencia filosófica, religión o visión del mundo ha quedado plasmada en los diálogos o en lo que dicen los personajes, sino también con la manera en que el uso o elección de una determinada forma, tempo, ritmo, estilo visual, etc. refleja la pertinencia a cierta ideología artística. Por ejemplo, si tengo un concepto del cine como representación de la realidad de cada día, a medio camino entre la ficción y el documental, podría desarrollar tramas ambientadas entre los sectores más desfavorecidos, abundantes en el uso de los rodajes exteriores, con importante presencia de actores no profesionales entre sus secundarios, y, con frecuencia, incluso entre los protagonistas.16 En este caso estaríamos haciendo alusión al neorrealismo italiano. La ideología, aquí y en otros múltiples ejemplos que podríamos traer a colación, es textualizada en gran parte por la manera de tramar, de presentar los hechos o eventos de la narrativa. El nivel intertextual hace fuerte presencia en cualquier guión pero sobre todo en los adaptados, pues este plano de la trama tiene que ver con todos los materiales fuentes mediante los cuales se construye el tejido“texto”, aquellos “pedazos” de otros textos en los cuales se inspira y contra los cuales también podría componerse. Es decir, la trama puede ser legible en este nivel sólo si conocemos los referentes textuales que le dieron origen. Por ejemplo, para comprender de manera acuciosa la forma en que el director Neil Jordan y la escritora Angela Carter construyeron el guión del filme En compañía de lobos (1984), no sólo habría que conocer las historias cortas del libro The bloody chamber, de Angela Carter, sino también las diferentes versiones del cuento de La Caperucita roja, sobre todo la de Charles Perrault y la de los Hermanos Grimm, así como las leyendas sobre hombres-lobos y sus significados en la cultura occidental. Todos estos elementos funcionan como intertextos que determinan el sentido y la composición en cada momento de esta trama, en donde el símbolo de la iniciación sexual femenina es armado desde el juego con diferentes tópicos y situaciones tomados de las fuentes originales, que han sido recombinados, atados de un modo diferente con el fin de producir, también, una nueva y bellísima lectura de esta conocida historia. Lo autotextual, por último, se manifiesta como una referencia permanente al “como yo digo”. Constantemente la trama nos está revelando su forma de elaborarse a través de disímiles procedimientos: un espacio por cuya composición visual se crea cierta


La historia de la película es interesante ¿...?

atmósfera que resulta consecuente con el tono dominante de la narrativa; un personaje que hace comentarios acerca del tema de la historia, los cuales serán verificados o demostrados por el desarrollo del filme; un leitmotiv (motivo reiterado) que cada cierto tiempo nos recuerda quién es el protagonista y cuál es su problemática, etc. Pero existen algunos filmes donde este nivel se aprecia con mayor fuerza y de hecho es el que tiene mayor incidencia sobre la forma de relatar. Esto ocurre especialmente en aquellas películas que juegan a hacer “cine dentro del cine” y a crear un comentario metatextual acerca del lenguaje cinematográfico y su relación con un determinado concepto o filosofía en torno al arte de hacer cine. Claro ejemplo de ello es la secuencia del largometraje cubano, de Tomás Gutiérrez Alea, Memorias del subdesarrollo (1968), durante la cual aparece el director junto al personaje principal viendo unos retazos de películas en una sala de cine. El director le comenta al protagonista (Sergio) que usará estos fragmentos en un filme que está haciendo y que será una mezcla de muchas cosas. Sergio le pregunta si se lo dejarán poner y el director contesta que sí. Esta última pregunta queda respondida de manera objetiva, además porque ya en el momento en que transcurre el enunciado el espectador está siendo testigo de que efectivamente el filme se hizo, pues lo está viendo en ese preciso instante. La película, efectivamente, se construye partiendo de la mezcla de documental con ficción, de varios materiales de archivo con otros creados expresamente para el largometraje. De hecho, la propia mixtura de escenas cinematográficas censuradas que están mirando el director y Sergio, ha quedado grabada en la obra y en ese instante genera un significado que explicita, devela, el mecanismo de construcción de la trama de Memorias del subdesarrollo.

interesante para la pantalla. Como hemos visto, no se trata de qué hechos se cuentan, sino de cómo se cuentan. En ese sentido, resulta erróneo plantear que las historias se hacen buenas por lo que relatan, pues el cine está lleno de innumerables ejemplos donde un sencillo argumento, aparentemente sin ningún interés dramático, ha generado filmes de gran calidad, y lo contrario: hechos o anécdotas tomados incluso de la vida cotidiana o la literatura, con un enorme potencial narrativo y dramático, que al ser contados a través de la pantalla grande han resultado un fracaso. La tarea de analizar hasta qué punto se ha hecho seductora la historia (cómo ha cautivado, mantenido el interés del espectador, montado de manera adecuada su atención) puede ser un reto para el analista, el crítico o el estudioso del lenguaje cinematográfico, quienes deben poseer las herramientas y la competencia cultural a fin de estudiar profundamente el argumento, el tema, la premisa, el punto de vista, el plot, la trama y sus elementos constitutivos, y fundamentar qué ha funcionado y qué no; claro está, sin perder de vista a los espectadores, quienes a veces no son capaces de llegar a este nivel de análisis dramatúrgico y semiótico, pero que sí constituyen nuestro mejor termómetro para definir el grado de interés que ha suscitado la narrativa. Son ellos los receptores de esa energía que atraviesa los canales diseñados por el tejido“texto” o trama, para que el sentido de la historia alcance a completar un recorrido que lo defina, lo cierre y a la vez lo abra, lo construya y lo desmiembre, logrando un montaje sugerente, atractivo, ¿interesante…?

Hasta aquí hemos hecho un recorrido por los diferentes elementos que hacen de una historia algo realmente

65


66

Referencias bibliográficas Barba, Eugenio, El arte secreto del actor: diccionario de antropología teatral. México: Múltiple, 1990. Comparato, Doc. Técnicas de guión y dramaturgia para libretos de TV y Cine. Buenos Aires: Centro de Artes de Laranjeiras, 1986. Cucca, Antoine. L’Écriture du Scénario. France: ����������������������� Dujarric, 1986. Field, Syd. El libro del guión: fundamentos de la escritura de guiones, una guía paso a paso, desde la primera idea hasta el guión acabado. Traducción Marta Heras. Barcelona: Plot, 1999. Howard Lawson, John. Teoría y técnica de la dramaturgia. La Habana: Arte y Literatura, 1976. Lajos, Egri. Cómo escribir un drama. México: CUEC, 1966. Lezama Lima, José. La cantidad hechizada. La Habana: Ediciones UNEAC, 1970. Parker, Philip. Arte y ciencia del guión. Traducción de Jorge Conde. Barcelona: Robinbook, 2003. Pavis, Patrice. Diccionario del teatro. T. 2. Traducción de Fernando de Toro. Barcelona: Paidós, 1980. ――――――. El análisis de los espectáculos: teatro, mimo, danza, cine. Traducción de Enrique Folch González. Barcelona: Paidós, 2000. ――――――. El teatro y su recepción. Semiología, cruce de culturas y postmodernismo. Selección y traducción Desiderio Navarro, La Habana: UNEAC, Casa de las Américas y Embajada de Francia en Cuba, 1994. Swain, Dwight V. y Joye R. Swain. Film scriptwriting: a practical manual. 2da. edición. London: Focal Press, 1988. Revista Conjunto, No. 100. La Habana, Casa de las Américas, 1995. Vilches, Lorenzo (comp.). Taller de escritura para cine. Barcelona: Gedisa, 1998. Vogler, Christopher. El viaje del escritor: las estructuras míticas para escritores, dramaturgos y novelistas. Barcelona: Ma non troppo, 2002. Notas 1 En este caso, la cita de la Poética de Aristóteles fue tomada de Pere Lluís Cano: “Las fuentes clásicas del guión”, en Taller de escritura para cine, compilación de Lorenzo Vilches, 1998, p. 78. 2 Tanto Syd Field (El libro del guión) como Christopher Vogler (El viaje del escritor) construyeron, cada uno, un modelo para estructurar las historias en el cine y el teatro. Además de ellos, otros paradigmas importantes y reconocidos han sido los de: Dwight Swain (Film Scriptwriting), Antoine Cucca (L’écriture du scénario) y Egri Lajos (The Art of Dramatic Writing). En todos ellos se perciben diferentes maneras de enfrentar el proceso creativo de la vida del drama, pero partiendo siempre de una estructura para la historia que prevé la existencia de un estado inicial, el cual resulta alterado por el planteamiento de una crisis (exposición), el desarrollo progresivo de la misma (nudo), hasta llegar a una situación climática y

su resolución (desenlace). 3 Eugenio Barba: “Dramaturgia”, en El arte secreto del actor: diccionario de antropología teatral. México: Múltiple, 1990, pp. 78-79. 4 Cf. Doc Comparato, Técnicas de guión y dramaturgia para libretos de TV y cine. Buenos Aires: Centro de Artes de Laranjeiras, 1986, p. 71. 5 Ibíd. 6 Esto sobre todo en el caso de la tragedia, que siempre tenía su base argumental en un mito conocido por la comunidad. En cuanto a la comedia, vale aclarar que, tal y como planteaba el propio Aristófanes, célebre comediógrafo de la antigüedad clásica griega, era necesaria inventarlo todo. 7 Aunque este no siempre es el orden, pues todo depende del paradigma de escritura que se tenga como referencia. Algunos teóricos no mencionan el tratamiento o no lo colocan como un paso posterior a la escaleta, sino previo. También la propia definición de tratamiento puede variar, hasta confundirse con una redacción detallada del argumento. 8 José Lezama Lima, “Preludio a las eras imaginarias”. En La cantidad hechizada. La habana: UNEAC, 1970, p. 22. 9 Utilizamos como referente el concepto de trama desarrollado por Eugenio Barba y acuñado por la práctica cinematográfica en los últimos tiempos: “La trama: está constituida por el cómo se cuenta una cosa. Es el desarrollo particular y específico elaborado por el director del argumento en cuestión. Como es notorio, un mismo argumento puede dar lugar a una infinidad de tramas distintas”. Entonces, la trama depende no sólo del planteamiento de estructura y composición del guionista, sino de la manera en como se organiza la dramaturgia de la puesta en escena y el montaje final del filme. Cf. Lluís Masgrau, “Odin Teatret: La dualidad de la ficción”, en Conjunto, No. 100, p. 45. 10 Por “acciones operantes” en la dramaturgia, Eugenio Barba entiende todas las interacciones entre los personajes, o entre los personajes y las luces, el espacio, los objetos; es decir, cualquier entrelazamiento que se transforme en signo tanto en el texto como en la puesta en escena, creando un tejido de relaciones significativas que finalmente constituye la trama. Cf. Eugenio Barba, óp. cit., p. 76-81. 11 Tanto el concepto de tempo como el de ritmo fueron tomados de: Philip Parker, Arte y ciencia del guión. Barcelona: Robinbook, 2003, p. 197. 12 Lo que importa es señalar que las acciones sólo son operantes cuando están tramadas entre sí, cuando se convierten en tejido-“texto”. Eugenio Barba: óp. cit., p. 76. 13 Patrice Pavis: “Producción y recepción en el teatro”. En El teatro y su recepción. Semiología, cruce de culturas y posmodernismo. Barcelona: Paidós, 1980, p. 65. 14 Ibíd. 15 Ibid, pág. 66. 16 http://es.wikipedia.org/wiki/Neorrealismo_italiano


Los mios, los tuyos y el diseño

LOS MIOS, LOS TUYOS Y EL DISEÑO Marcelo Meléndez Peñaranda Maestro Bellas Artes Corporación Universitaria Unitec

Resumen En el ejercicio del diseño son variadas las respuestas que se dan en el momento que cuestionamos y evaluamos los múltiples estratos de la profesión como sistemas de creatividad, servicio y mercado, lo mismo si se hace a partir del análisis del proceso de transformación ideológica o académica en el diseño en los últimos veinte años. Lo que resulta indiscutible es la necesidad de estudiar, redefinir y poner al día una actitud de ética profesional y un claro sentido de la capacidad profesional, preguntándose si nuestro proceder individual puede convivir con el proceder social. Es vital en todo el rango de la profesión, el reconocer las condiciones de trabajo y describir el desencuentro que se nos da entre los procesos culturales, los medios técnicos y el papel que proverbialmente se nos ha designado a los diseñadores en el proceso interno de nuestra disciplina como práctica social.

Marcelo Meléndez Peñaranda es maestro en Bellas Artes. Coordinador del área de Diseño del programa de Diseño y Producción Gráfica en la Corporación Universitaria Unitec; mmelendez@unitec.edu.co

El diseño en todo su género no se sitúa en el lugar donde se toman las decisiones. Las transformaciones de nuestra sociedad, los procesos sociales, los caminos culturales, los destinos estéticos y los renacimientos académicos se deciden en otro lado. Es bastante difícil como inocente creer que desde la disciplina misma de la profesión puedan solventarse escenarios culturales y sociales. Si bien el diseño forma parte de procesos productivos complejos, sólo en casos únicos tiene protagonismo sobre contextos tan concluyentes; el diseño carece de facultad programática y no tiene la capacidad de decisión sobre el sentido y propósito de sus productos. Palabras claves: construcción, diseño, ética, pensamiento, producto.

En todo proceso que se precie de nuevo conocimiento, llámese academia, universidad o escuela, la pregunta ¿qué es diseño?, parece no obtener siempre una respuesta, pero, como sucede con los cargos de conciencia, el pensamiento hace que se le aparte un espacio.

Vestigium, 3, (1). Febrero de 2007, pp. 67-71. © Corporación Universitaria Unitec, 2007.

67


68 Desde su propio ámbito local, cada diseñador parece tener una respuesta y afirmación adecuadas, pero desde la perspectiva de la aplicación y la individualidad de los procesos el asunto se torna incierto e intranquilo. Y es que muchos diseñadores encuentran enormes problemas al tener que categorizar su propia labor; pareciera que la valoración formal de la tarea de diseñar no es completa y ahí es cuando anexos éticos, históricos y hasta morales se dan a la tarea de mostrar al diseño con unos compromisos sociales nunca definidos, o, inclusive, con funciones artísticas que al parecer el diseño y los diseñadores tendrían por propio beneficio genético.

no todos los diseñadores hacen lo mismo y que bajo el toldo general del diseño se cubren profesionales de tal diversidad que sus cánones no son intercambiables —es el caso de un diseñador gráfico, que es incapaz de diseñar una pieza ortopédica—. Por ello es que todos los diseñadores, en su portafolio o tarjeta de presentación, agregan la correspondiente aclaración sobre su especialidad, sea gráfico, industrial, de moda, de interiores etc.; a su vez, se define cada una en familias de diseño denotando propios espacios laborales, es decir, el diseñador gráfico en la comunicación visual; el diseñador industrial en la producción de artefactos, etc.

Es muy fácil hoy en día entender la definición de la tarea socialmente extendida del diseño, nada diferente a cualquier otra área del conocimiento; lo difícil de entender es que tales valores nacen en la realidad y no en los deseos; es ésta la tipificada confrontación con el arte.

En la medida que se construye esta particular genealogía, los aspectos individuales de los procesos, su aplicación y tipologías muestran las especialidades como definición frente a las diferencias. Así pues, ¿qué grado de parentesco se dará entonces entre un diseñador gráfico de producción editorial, un diseñador de modas especializado en ropa industrial y un diseñador industrial técnico en ortopedia?

Si el conocimiento es un esfuerzo por entender la realidad, sin confundirla con sus sentimientos o deseos, es fácil comprender a una buena cantidad de individuos, sobre todo en los campos laborales de la tecnificación, que llamándose a sí mismos diseñadores, se ganan la vida creando cosas que otros les encargan —en la mayoría de los casos a cambio de un rubro—, y que, a su vez, esos otros llamen a aquellos los diseñadores. Así, esencialmente, el diseño es lo que hacen los diseñadores cuando diseñan. Se puede establecer, entonces, que la tarea de los diseñadores se hace singular y que su permanencia en el tiempo es suficiente como para tener una designación propia; ello nace en el propio contexto de la realidad y nada tiene que ver lo dispuesto por concepto de academia o precedente histórico. De hecho, la actividad de quienes la ejercen ha merecido que el lenguaje los incorpore a su terminología normal con unas palabras propias: el diseño y los diseñadores. Se observa que dentro del género de diseñadores se diseña con ideas políticas, con variadas condiciones económicas y místicas, con diversidad de técnicas y aplicaciones; diferencias que no alteran su carácter, todos son diseñadores y como tal los reconoce el resto. La valoración anterior puede decir, entonces, que ni el diseño ni quienes lo ofrecen constituyen un fenómeno marginal o fugaz, sino que son actores de entornos muy extendidos en el progreso social. Entendiendo lo anterior, se dispone como consecuencia de pensamiento el saber en qué consiste y para qué sirve el diseñar o, simplemente, a qué se dedican los diseñadores. Desde el propio contexto de la realidad se advierte que

Poder determinar qué hay de común en la actividad de todos los que trabajan en diseño y son reconocidos socialmente como diseñadores, implica tropezarse con la definición del diseño; entonces, dicha definición provendrá de contestar una simple pregunta: ¿en qué se parecen todos los tipos de diseñadores cuando diseñan? En una propia analogía, es la manera en que la definición de felino reúne los aspectos compartidos entre un gato angora y un tigre de bengala. Tal formulación y discernimiento del tema sólo propone diferencias y resulta difícil encontrar aspectos en común y redundancias en un horizonte tan amplio. Es aquí donde el bagaje académico esgrime su enunciación como pretensión de conocimiento, un craso error que por desconocimiento de la realidad condena y predispone el sentido del diseño; en ello es fácil definir al diseño por el tipo de producto final, pero se diseñan desde mensajes hasta herramientas y desde ropa interior hasta mobiliario para automóviles. Fácil también es el definirlo por su sentido social, pero tanto se diseña una revista anarquista como también un periódico conservador, desde automóviles contaminantes hasta empaques ecológicamente reciclables. Fácil es definirlo por el género de cliente, pero se diseña para estamentos públicos y a su vez para entidades privadas, para las empresas petroleras como para los grupos ambientales, para una compañía multinacional como para una entidad regional. Fácil es definir al diseño por su proceso o gestión, pero la simple observación del trabajo de los diseñadores hace elocuente la imposibilidad de describir un procedimiento común que garantice soluciones mensurables. Sin embargo, algo tienen en común todos ellos. Si se


Los mios, los tuyos y el diseño

observa bien podrá confirmarse que allí donde cualquier diseñador trabaja, es decir, diseña, algún producto está siendo planeado antes de su elaboración definitiva, sea este un afiche, un mueble, un libro, un aviso o un logo. Si con una suerte cósmica pudiese verse en simultánea a todos los diseñadores del mundo en sus mesas de trabajo, se anotaría que todos están en algún punto de un proceso creativo que tiene como objetivo definir las características finales de un objeto previamente a su producción y uso. En nuestro ámbito y su proyección de mercadeo, la cual se da de forma inseparable, el total de los objetos o productos diseñados que se consumen y usan revisten el carácter de proceso industrial, ya se trate de un plegado para el anuncio de simposio, de un cartel para una bebida gaseosa, del lanzamiento de una nueva imagen corporativa de un banco o simplemente de un artefacto de uso domestico; todos ellos son productos de línea industrial, pues sus características simbólicas y materiales, sus funciones, sus modos de producción, sus números de ejemplares a producir, sus fines económicos, culturales, políticos, sociales, etc., además de su distribución, condiciones de compra, de uso y servicio, sus precios, sus costos y publicidad, su temporalidad y vida útil, su tendencia y estilo de diseño, están determinados y planificados de antemano con la mayor precisión operable. Es decir, participan de una compleja malla industrial en producción y distribución, totalmente ajena de los contextos del quehacer artesanal y artístico. También es cierto que hay formas de producción, servicio y comercialización que hoy en día existen y que no pueden

llamarse industriales, sino, de manera muy indirecta, servicios especializados, los cuales no establecen un proceso terminal, convirtiendo al resultado en un conjunto de eslabones para la producción. Un minimercado de barrio que abastece a una docena de vecinos con los productos que trae de una central de abastos no necesita diseño, y hacerle un diseño de logotipo sería absolutamente superfluo, pues implicaría dotarlo de unos signos ajenos a su necesidad e identidad. En el caso de que ese minimercado necesitara un aviso identificador, el aviso podrá pintarlo su propio dueño o un dibujante de avisos de la localidad, que con su oficio diseñará unas armónicas letras a tono del negocio y su escala. Ahora, si este propietario de minimercado, por azar del destino, consigue recursos para poner una cadena de minimercados que abastezca a miles de compradores en la ciudad, y proyecte instalarla luego en todo el país, de manera urgente deberá recurrir al diseño, pues ya cualquier nombre no será bueno, ni cualquier logotipo, ni cualquier campaña publicitaria, ni cualquier diseño interior o mobiliario, ni… A nuestro propietario le ha surgido un problema típicamente industrial y por tanto requiere, obligadamente, planificar los aspectos concretos, comunicacionales y simbólicos de su negocio.1 Arfuch señala que, “Todo producto industrial, y para el caso es lo mismo la comunicación pública de un museo que la arquitectura para una cadena de comidas rápidas, es el resultado de una serie de decisiones sobredeterminadas por el contexto, donde cada eslabón carece de independencia absoluta y su independencia siempre es relativa. Y el diseño es uno de esos eslabones productivos.”2

69


70 El diseño es un servicio a terceros cuya especialidad consiste en determinar, anticipadamente a su realización, las características finales de un objeto, artefacto o producto y sus alternativas de producción, para que cumpla con una serie de requisitos definidos de antemano, funcionales, formales, estéticos, informativos, materiales, ergonómicos, etc.

Consecuente resulta entonces determinar el perfil del diseño en razón al condicionamiento de quienes lo demandan. Determinar qué se diseña, para qué se diseña y qué contenidos transmiten los objetos que se diseñan, no es responsabilidad de los diseñadores; y pensar que las aulas de clase que enseñan a diseñar equivocan su sentido en la pretensión soberbia del concepto.

En la definición del acto de diseñar no es posible avanzar mucho más allá, porque todo avance implicaría salirse de lo común del diseñar para entrar en lo específico de cada rama o género de diseño. En otras palabras, entre un diseñador de carátulas para libros de niños y un diseñador de mobiliario para automóvil, las diferencias son contundentes, son distintas las técnicas aplicadas, distintas las funciones del producto diseñado, las habilidades y conocimientos necesarios para resolverlo, distintas las formas de prototipos y bocetos, distinto el tipo de cliente, los fines sociales, los aspectos de los materiales, los elementos simbólicos y lecturas del producto final, etc. y más etc., sin embargo, los dos diseñan.

Esta determinación externa de los objetivos de los oficios y profesiones no es solamente un problema de los diseñadores, pues de ser así debería culparse a los docentes por el analfabetismo o culpar a los arquitectos por la falta de sensibilidad social en el déficit de vivienda popular, porque entonces serían responsables los médicos por el estado de la salud publica o responsables los ingenieros por el mantenimiento de vías y carreteras, o responsable el diseñador gráfico por las ventas y mercadeo de un producto. Esto simplemente son trabas desde lo semántico hasta lo conceptual.

Resulta claro y concluyente, eso sí, que para realizar su trabajo cada tipo de diseñador debe poseer un particular y muy diferente perfil de conocimientos y una capacidad creativa adecuada a su especialidad. En el proyecto para una nueva cámara fotográfica seguramente intervendrán, entre otros, el ingeniero electrónico, el óptico, el fotógrafo experto, el diseñador industrial, el diseñador gráfico y el publicitario, cada uno en su área de pertinencia, y aunque cada uno diseñe cosas tan distintas como los circuitos y los mecanismos, la forma material externa, las funciones y secuencias, el envase y su embalaje, el logotipo, imagen gráfica y campaña visual, todos en general brindan un mismo servicio insoslayable en el actual esquema productivo de la sociedad, todos en absoluto son eslabones en la planificación anticipada y completa de un producto o un aspecto de él.3 Sin embargo, el anterior argumento, basado en la evidencia cotidiana, resulta insatisfactorio, y muchos insisten en definir al diseño en función de sus deseos y no de su realidad. Los fines del trabajo los determina incuestionablemente el cliente, que siempre es externo al diseñador, aunque excepcionalmente puedan coincidir en una misma persona; de hecho, un cliente puede encargar y diseñar su propio cometido, pero lo que no se pone en juicio es el hecho de que el cliente tiene objetivos propios. La tarea del diseñador, cuando acepta un trabajo, es brindar sus servicios con la mayor eficiencia y calidad profesional posible para satisfacer a su cliente, y si no está dispuesto a ello tiene la alternativa de rechazar el trabajo.

Para que un diseñador intervenga en la planificación de productos, cosas y artefactos para el bien común, es necesaria una condición anterior, “la existencia de un actor social cuya finalidad sea el propio bien común, y que por ende necesite diseño para lograr sus objetivos”. Sin demandas externas el diseño pierde toda razón de ser, pues carece de plataforma propia.4 Más allá de cada encargo laboral, el “diseño” de un diseñador es la construcción de un pensamiento y la persistencia de un pensamiento siempre dado en construcción. Es el modo de ir sumando piezas a una estructura original, partes de una búsqueda en la que los diseños, más que partes de un mismo ente, son etapas autónomas de una continua elaboración. Debe ser una práctica íntima y a la vez social, que no es otra cosa que una búsqueda de los posibles modos de relación con lo que llamamos nuestro mundo. El diseño, entonces, es la consecuencia inevitable de una reflexión e implica pluralidad del objeto y el sujeto. Aspira al conocimiento universal para arribar a lo especifico, “cuanto uno más sabe, es más libre”; es este el sentido más amplio de la palabra construcción: el de individuos pensándose a sí mismos en el acto de proyectar. Una vez tomado el camino de la conciencia ya nada puede quedar afuera. El diseño es uno mismo.5


Los mios, los tuyos y el diseño

Referencias bibliográficas Arfuch, Leonor. Diseño y comunicación. Buenos Aires: Paidós, 1971. Bajtin, Mijail. Estética de la creación verbal. México: Siglo XXI, 1982. Chávez, Norberto. El oficio de diseñar. Barcelona: Gustavo Gilli, 2001. Costa, Joan. “¿Por que el diseño no es arte?”, Web Diseño y Sociedad, 2005. Fuente ���������������������������������������������������������������� Imágenes: F. Frazetta, Painting With Fire [Cd-Rom]. Dark Kingdom Inc, 2003. Eco, Umberto. Tratado de semiótica general. Barcelona: Lumen, 1972. Frascara, Jorge. Diseño gráfico y su comunicación. Barcelona: Trillas, 2001. Musso Rodríguez, Alejandro. “El diseño como estrategia cultural”. Web Diseño y sociedad, 2006. Santos, Zunzunegui. Pensar imagen. Madrid: Paidós, 1997.

Notas 1 Mijail Bajtin, Estética de la creación verbal. México: Siglo XXI, 1982, p. 145. 2 “Cada género define una serie peculiar de expectativas y demandas, exige de su destinatario ciertas competencias y propone determinados contratos de lectura”. Leonor Arfuch, Diseño y Comunicación. Buenos Aires: Paidós, 1971, p. 123. 3 “Es la forma lo que hace al sentido, la intención y su servicio la razón del producto, objeto o artefacto, lo dicho de otro modo será, entonces, otra cosa”. Citado por Leonor Arfuch, en Diseño y Comunicación, óp. cit., p. 189. 4 Norberto Chávez, El oficio de diseñar. Barcelona: Gustavo Gilli, 2001, p. 125. 5 Ruben Cherny, “Trabajar y mantener la independencia”. Publicaciones Diseño Actual [Weblog]. Noviembre 09 de 2006.

71


72 CANAL UNIVERSITARIO NACIONAL: OPORTUNIDAD AUDIOVISUAL DE DESARROLLO Y CONSTRUCCIÓN DE PAÍS Juan Camilo Díaz Bohórquez Comunicador Social Corporación Universitaria Unitec

Resumen Recientemente se realizaron las primeras pruebas del naciente Canal Universitario Nacional, en el marco del X Encuentro Nacional de Televisión que se desarrolló en Barranquilla. Aunque la comunidad universitaria colombiana celebró la creación de un espacio libre y autónomo, la pregunta que se hacen académicos, comunicadores, realizadores y estudiantes es ¿qué es y qué caracteriza la televisión universitaria?, ¿es la misma televisión joven? ¿Es televisión promocional de los resultados y logros de las universidades?, ¿es televisión hecha por jóvenes para jóvenes?, ¿es televisión hecha por los adultos para los jóvenes?, ¿es televisión realizada por los jóvenes para todo tipo de públicos?, ¿quién manejará los contenidos? Mejor aún, ¿qué tipo de contenidos deben hacer parte del canal universitario nacional?

Juan Camilo Díaz Bohórquez es comunicador social, especialista en Pedagogía para el Desarrollo del Aprendizaje Autónomo. Profesor Asistente del programa Universitario de Cine y Televisión en la Corporación Universitaria Unitec; jdiaz@uni

Vestigium, 3, (1). Febrero de 2007, pp. 72-76. © Corporación Universitaria Unitec, 2007.

Palabras claves: canal, universidad, CNTV, jóvenes, educación. La Comisión Nacional de Televisión (CNTV), mediante Acuerdo 05 de 2006,1 creó el Canal Universitario Nacional y dispuso que el pasado miércoles 11 de octubre de 2006 se emitiera vía satélite un programa especial de prueba, simultáneamente con la instalación del X Encuentro Nacional de Televisión en la Universidad del Norte que reunió académicos, realizadores y estudiantes para debatir acerca del tema. La señal de prueba se emitió desde Telecaribe y se pudo ver por los operadores de televisión por suscripción, canales comunitarios, señales incidentales y Señal Colombia Institucional, además de Iberoamérica y el norte de África.2 La creación del Canal Universitario Nacional fue un proceso largo en el cual las universidades, entre públicas y privadas, realizaron encuentros regionales con el objetivo de instalar mesas de trabajo sobre el tema. De inmediato se iniciaron los debates sobre aspectos referentes al Acuerdo, diseño programático del canal, posibilidades actuales de acceso satelital y fuentes de recursos que permitieran el despegue del Canal en el 2006. Además, se trabajó en el proceso de identificar el volumen y diversidad de la producción de televisión desarrollada por las instituciones universitarias


Canal universitario nacional: oportunidad audiovisual de desarrollo y constitución de país

colombianas, para efectuar así un diagnóstico de este patrimonio audiovisual. Nadie en el país duda del alcance que este hecho tiene no sólo para la academia colombiana, sino para el desarrollo de la televisión en Colombia. Que las universidades cuenten con un canal es consecuencia de la experiencia y trayectoria que han adquirido en la producción y realización audiovisual. Además, tal y como consta en el Acuerdo, el Canal Universitario Nacional se regirá por el principio del reconocimiento, desarrollo y respeto de la Autonomía Universitaria, según lo dispuesto en la Constitución y la ley,3 lo que le garantiza a las universidades un espacio y manejo autónomo del Canal. Canal U U. de Antioquia: tiene 7 años y es el primer canal local de televisión abierta. Tiene producciones de cuatro universidades y del Sena. Llega a más de tres millones de habitantes. Canal 23 U. Autónoma del Caribe (Barranquilla): tiene operación en este distrito. Su programación entre las 6 a.m. y 9 p.m. se puede ver también por Internet. U. de Cartagena En 1999 le fue otorgada la licencia. Se encuentra en inicio de operación. Telepaz U. de Nariño: tiene cinco horas de programación y su cobertura alcanza el perímetro urbano de la ciudad. Canal Local Universitario U. del Valle: tiene 275 mil televidentes. Emite programas culturales, educativos y aquellos que promueven la investigación. Teleamiga U. La Gran Colombia: inició su transmisión en el 2001 con un enfoque marcado en la difusión de valores y temas espirituales. U. del Pacífico. Tiene licencia desde el 2003. Su inicio y programación está en construcción. Canal 5.5 Politécnico Santa Fe de Bogotá: Obtuvo su licencia en el 2004 y su fin es educativo y cultural. Cubre el área metropolitana de la capital. Tabla 1. Los ocho canales universitarios.4 Definida la creación del Canal la pregunta es ¿qué es la televisión universitaria, cuáles son sus contenidos y cómo manejarla en conjunto y no a nombre propio? Debemos comenzar por comprender el vínculo existente entre comunicación, televisión, universidad y desarrollo.

73


74 Partamos del hecho de que las sociedades tienen una serie de necesidades básicas insatisfechas y que su cubrimiento responde a un conjunto de procesos sociales, entre los cuales se encuentra la exposición y concientización de nuestras realidades. Esto significa que para que se produzca un desarrollo material de la sociedad, antes se requiere generar un previo crecimiento mental de la misma.5 En este sentido, la televisión cumple una tarea fundamental al ser un medio de carácter audiovisual, lo que genera emotividad y cercanía. Debemos tener claro que la televisión no provoca cambios automáticos en el sentir de las sociedades, como tampoco lo hacen los otros medios, y que a pesar de no ser infalible o certera en todos los casos, si es bien dirigida puede crear, con el tiempo, hábitos y formas de pensar benéficos para todos. En este aspecto la televisión universitaria puede contribuir al desarrollo social por la difusión constante y clara de la realidad; de no hacerlo, de no lograr generar emociones, sentidos, crítica, análisis, cercanía con quiénes estamos frente al televisor, puede caer en el repetitivo error de alejarnos de la realidad y de nuestro entorno, tal y como sucede con la televisión comercial. Eduardo Noriega, comisionado de la CNTV, sostiene que “el canal es una iniciativa institucional que busca materializar el uso de la televisión en el cumplimiento de las funciones y finalidades del Estado Social de Derecho, pues permite fortalecer los programas de educación a distancia, la formación de docentes y educación para el trabajo.”6 Para muchos sería un error utilizar el canal únicamente como herramienta de educación a distancia, como hace varios años se trabajó con el canal institucional, puesto que ya existe otra serie de posibilidades con mayor cobertura y menores costos, como es el caso de la educación virtual. En el concepto del Comisionado, la televisión universitaria debe ser la llamada a crear y modificar la sociedad con argumentos mediante la utilización de formatos novedosos, ya que diariamente los medios de comunicación nos bombardean con información que en la mayoría de los casos no es analizada; prima la cantidad antes que la calidad. Eso sí, no se debe olvidar que el “apellido” universitaria, que en este caso lleva la TV, implícitamente debe significar educación y formación. Siguiendo la misma línea, la televisión universitaria debe ser un instrumento de extensión y aprovechamiento de los recursos humanos y tecnológicos con que cuentan las universidades, ya no solamente al servicio interno sino también al servicio de la sociedad en general, con la cual tiene una gran responsabilidad como ente formador; es decir, su función no debe ser mercantilista sino social.

Es por eso que debe tener y cumplir un alto compromiso de construcción de país. En este punto llegamos a un interrogante: ¿cómo lograr interesar a la audiencia sin perder ese compromiso? La respuesta se podría encontrar en el desarrollo de contenidos formativos pero a la vez representativos de la realidad de los jóvenes, sin caer en el recurrente error del denominado “ladrillo cultural”, es decir, aquellos programas que intentan formar con propuestas acartonadas, del presentador con anteojos gruesos, bata y tablero. No, es necesario establecer los canales de comunicación necesarios. No existe la fórmula mágica que indique qué tipos de programa debe presentar el canal. Es necesario adelantar talleres en donde exista una fuerte presencia de jóvenes para definir la programación. Además, se deben mirar y analizar propuestas similares adelantadas en otros países que nos sirvan de guía. Ojo: no son simplemente bluyines, peinados estrafalarios y tenis de moda, lo que cuenta es el tipo y la calidad de los mensajes. Siguiendo con el tema de la función social de la televisión universitaria de la mano de la función educativa (pero lejos de la función mercantilista, para no utilizar el Canal como espacio de comercialización de las universidades para montar estrategias de mercadeo para el aumento de matrículas) debemos definir quiénes van a generar los contenidos. ¿Es televisión hecha por jóvenes para jóvenes?, ¿es televisión hecha por los adultos para los jóvenes?, ¿es televisión realizada por los jóvenes para todo tipo de públicos? Sí, deben ser los jóvenes quienes como miembros de un grupo interdisciplinario, compuesto por docentes y realizadores, deben adelantar el trabajo de la realización audiovisual para el Canal. Las ideas deben surgir de ellos, personas en proceso de formación, con grandes y atrevidas propuestas, conocedores de su entorno y necesidades, con la voluntad suficiente para comenzar a producir, para tomar experiencia, pero también porque sienten que han encontrado el espacio para expresarse, razón fundamental por la cual escogieron estudiar carreras afines con la comunicación y la realización, y porque es una necesidad a gritos que tienen en un mundo convulsionado, mediático y cambiante. ¿A quién dirigir los contenidos? A todo el mundo. Los jóvenes deben saber qué dicen y piensan sus pares generacionales; deben contar con espacios en donde se les escuche, aconseje, proponga, rete, invite, comparta, donde creen, investiguen y descubran, pero sobre todo, donde construyan y transformen. Los adultos debemos entender que los jóvenes no son simplemente personas desubicadas, desinformadas y desinteresadas de la realidad social. Los recientes programas hechos por ellos, y que son transmitidos por los canales públicos (lo que


Canal universitario nacional: oportunidad audiovisual de desarrollo y constitución de país

demuestra el marcado desinterés de la televisión privada en ellos, al no considerarlos rentables), son una muestra real de la calidad de las propuestas juveniles. Sub 30, Ópera Prima, Banderas en Marte y El espejo, entre otros, son realizados por jóvenes, pero cualquiera de nosotros, sin importar la edad, los encontramos interesantes, enriquecedores y formadores de cultura, opinión y país por las temáticas que abordan y cómo se abordan. Por lo menos, durante su emisión nos hacen sentir jóvenes y eso de por sí ya es un logro invaluable. Por otro lado, y mucho más difícil, es la urgente prioridad de definir la administración, la operación y el contenido de la programación del Canal, que en opinión de la CNTV debe ser realizado por las universidades. Afirma Noriega que, “el diseño, la organización, la administración, la operación y el contenido de la programación serán definidos por las mismas instituciones. Para eso, se conformará un Comité Transitorio, con representación de todas las universidades públicas y privadas del país”.7 El problema que deben resolver las universidades es cómo hacerlo sin entrar en disputas por ganar el mejor puesto. Ya se dio un primer paso con la propuesta de creación de la Alianza de los Centros Universitarios de Producción Audiovisual, proyecto que se ha venido discutiendo con el propósito de crear frentes comunes de producción audiovisual. Dicha participación se desarrollaría bajo la modalidad de coproducciones, préstamo de equipos, aporte de personal técnico, cesión parcial o total de derechos de emisión y gestión conjunta ante organismos regionales, nacionales e internacionales que apoyen la producción audiovisual y/o cualquier otra modalidad afín con la naturaleza e intención de las instituciones educativas y centros de medios audiovisuales universitarios.8

La Corporación Universitaria Unitec, mediante su Programa de Cine y Televisión, hace parte de la Alianza. En los últimos meses se ha venido trabajando en la identificación de fortalezas, debilidades y oportunidades frente a la realización audiovisual. Contamos con una infraestructura técnica y tecnológica de gran calidad, recurso humano preparado y una experiencia de 28 años en la formación audiovisual, la más extensa en el sector de la educación privada en Colombia y Latinoamérica, además de egresados reconocidos y premiados nacional e internacionalmente, cartas de presentación que nos permiten tener un rol fuerte y definido dentro de la Alianza. Recientemente se llevó a cabo un encuentro en Bogotá para definir las estrategias futuras y el desarrollo de propuestas de trabajo. Internamente se viene adelantando un trabajo de generación de propuestas de programación y desarrollo audiovisual, que nos permita a futuro tener una fuerte presencia en el canal. El reto que tenemos frente las universidades con el Canal Universitario es enorme. La sociedad colombiana está a la expectativa de lo que vamos a hacer. No podemos ser inferiores a la voluntad institucional y estatal de abrir el espacio y entregarle el manejo a la comunidad universitaria. Es urgente definir el papel que desempeñarán las instituciones y, sobre todo, trabajar mancomunadamente en el sostenimiento de un espacio que se necesitaba para el bien común de la sociedad colombiana y de las futuras generaciones.

75


76

Referencias bibliográficas “Acta de intención de trabajo conjunto como etapa exploratoria del proyecto de creación de una Alianza de Centros Universitarios de Producción Audiovisual. X Encuentro Nacional de Televisión”, firmada en Barranquilla, octubre 11, 12 y 13 de 2006. Acuerdo 05 de 2006 de la Comisión Nacional de Televisión. [En línea] Disponible en Internet en la dirección: http://www.cntv.org.co/pdf/ ACREACI%C3%93NCANALU.pdf (Acceso: octubre de 2006). Ministerio de Educación Nacional (Colombia). [En línea] Disponible en Internet en la página: www.mineducación.edu.co (Acceso: octubre de 2006). Unimedios. Edición 97. Septiembre de 2006. Esteinou Madrid, Javier. “La televisión universitaria dentro del horizonte del servicio público”. [En línea] Razón y Palabra, No. 2, año 1, marzoabril de 1996. ITESM, Monterrey, México. Disponible en Internet en la dirección: http://www.cem.itesm.mx/dacs/publicaciones/logos/ anteriores/univer.htm.

Notas Acuerdo 05 del 2006 de la Comisión Nacional de televisión, que se encuentra disponible en http://www.cntv.org.co/pdf/ ACREACI%C3%93NCANALU.pdf 2 Según datos que se pueden obtener en www.mineducación.edu.co 3 Acuerdo 05 del 2006, óp. cit. 4 Según datos que se pueden obtener en www.mineducacion.gov.co 5 Razón y palabra. No. 2, año 1, marzo-abril 1996. 6 Unimedios. Edición 97. Septiembre de 2006. 7 Según datos que se pueden obtener en www.mineducacion.edu.co 8 Acta de intención de trabajo conjunto como etapa exploratoria del proyecto de creación de una Alianza de Centros Universitarios de Producción Audiovisual, firmada por los directores y funcionarios de Centros de Medios Audiovisuales Universitarios y Áreas Académicas en el marco del X Encuentro Nacional de Televisión. Barranquilla, octubre 11, 12 y 13 de 2006. 1


77


78 INSTRUCCIONES PARA AUTORES

Preparación del manuscrito Los artículos deber poseer una extensión no menor a 5 páginas y no mayor a 15 (2500-8000 palabras, contando las referencias), con un resumen (abstract) de no más de 200 palabras, a doble espacio (incluso las notas al pie), con un tamaño de letra de 11-12 puntos y alineación justificada. Se presentarán en tamaño carta, con márgenes de 3 ó 3.5 cms en cada lado, sin sangrías ni encabezados e impresión por una sola cara. Todas las hojas del documento deben estar numeradas. Los artículos deben ser inéditos y no estar siendo sometidos para publicación al mismo tiempo en otros medios de divulgación. Si bien la profundidad y los alcances del artículo dependen del autor, el lenguaje que se utilice debe ser comprensible para el lector no especializado. Por lo tanto, los términos técnicos o especializados deben ir seguidos de una definición sencilla en paréntesis. En la medida de lo posible, se debe evitar utilizar siglas, incluso si son de uso común. Cuando el autor considere completamente necesario su empleo, la primera mención debe se aclarada y, dado el caso, traducida. Las notas de pié de página pueden ser tanto de carácter

aclaratorio como bibliográfico, indicándoselas con números arábigos y siempre deberán escribirse después del signo de puntuación, si lo hubiere (exceptuando los dos puntos). El formato de las referencias debe estar de acuerdo a las normas de la universidad.1 Las expresiones y ecuaciones matemáticas complejas deben realizarse empleando un editor de fórmulas (v. g. Mathtype o Word Equation Editor) y los símbolos especiales se deben identificar en forma apropiada, siempre siguiendo los estándares.2 Ya que el texto es escrito en español, salvo casos excepcionales, toda la presentación, notación y empleo de signos debe apegarse a las normas de la Real Academia y no a las de otros idiomas. Cualquier elemento gráfico (tablas, figuras, fotos, etc.) debe presentarse en archivos adicionales al del texto (nombrándolo sólo con el apellido del autor y un número que corresponda al mismo número del elemento dentro del texto –v. g., pérez1.jpg–). Solamente pueden ser utilizados aquellos directamente realizados por el autor, aquellos para las cuales el autor posea los derechos o aquellos de licencias libres (Creative Commons). Los elementos gráficos no deben ser manejados en color.


Es preciso que el autor numere, titule y, dado el caso, presente la fuente de donde tomó, todas y cada una de las tablas, figuras y fotografías que utilice. Los elementos gráficos que inserte el autor en el manuscrito están sólo para ayudarle a medir el tamaño del documento y como guía para los editores; sin embargo, esto no implica que aparezcan publicadas de tal forma. Los derechos de autor no son cedidos o transferidos a la revista, pero se entiende que ésta obtiene los derechos exclusivos de impresión y publicación. De otra parte, cualquier violación de los derechos de autor (ya sea por plagio, por entregar un documento realizado por más autores a nombre de un único titular, etc.) es responsabilidad exclusiva del infractor y no de la revista. Si se detecta alguna de las anteriores fallas, éste será irrevocablemente vetado.

Procedimiento para remisión, evaluación y publicación. Los manuscritos (dos copias impresas y una copia digital) y el resumen de la hoja de vida del autor o autores (con datos de contacto e institución a la que representan) deben ser enviados en formato Word de Microsoft™, a: Editor, Vestigium, revista académica universitaria. Oficina de Promoción y Desarrollo Académico. Calle 76 No. 12-58. Bogotá, D. C., Colombia. Asimismo, las propuestas deben enviarse con una carta al editor de la revista, en la que se certifique que el autor o autores del trabajo están de acuerdo en someter el artículo a consideración del Consejo Editorial. En el momento en el que el editor reciba el material notificará por correo electrónico el recibido y se iniciará el proceso de evaluación por pares. Sólo serán sometidos a evaluación los trabajos recibidos dentro del plazo estipulado. Los entregados en fecha posterior serán tenidos en cuenta para próximas ediciones.

con recomendaciones indicativas sobre el contenido, la forma o los métodos utilizados, o de rechazo. El concepto de los árbitros será notificado al Consejo Editorial, el cual es el encargado de tomar la decisión definitiva. En caso de aceptación, el autor deberá atender las respectivas correcciones de los evaluadores y el último concepto del Consejo para su publicación. Si el autor no está conforme con tales comentarios y correcciones, puede retirar su documento sin tener que otorgar ningún tipo de compensación a la revista. A la versión final del artículo, revisada por los autores después del proceso de evaluación, se le debe anexar una carta en la cual se ratifique la voluntad de los autores de permitir la publicación y divulgación electrónica del mismo y, asimismo, su responsabilidad irrestricta por su contenido. De no ser así, se asume de hecho la aprobación por parte de los autores de estas condiciones. El Consejo Editorial se reserva los derechos de impresión, reproducción total o parcial, corrección, alteración (si fuese necesario) del material, así como el de aceptarlo, rechazarlo o vetarlo de manera definitiva. Los autores cuyos artículos se publiquen recibirán gratuitamente, en contraprestación, dos ejemplares del número de la revista en que resulte publicado su trabajo. Ningún otro tipo de compensación (sea monetaria o de cualquier otra clase) es o será usada. Si el autor considera o encuentra que en la versión publicada de su artículo hay errores graves, debe comunicárselo lo antes posible al Consejo Editorial por medio de una breve carta firmada en donde de cuenta del error y del lugar exacto en el texto. Dicha corrección, si es de gravedad, será realizada en el próximo número de la revista.

Los artículos serán evaluados anónimamente por pares o árbitros, para determinar: la originalidad del conocimiento y su calidad, su actualidad, su pertinencia, su estilo, su aporte a la comunidad y su coherencia global. Los árbitros enviarán al editor o instancia respectiva, su valoración, la cual puede ser de aceptación, de aceptación

David Acosta. Guía para la presentación de trabajos académicos escritos. Bogotá: Corporación Universitaria Unitec, 2006. 2 Cf. Anónimo. Ingeniería e Investigación. No. 52 (julio de 2003), p. 83. 1

79



Vestigium. Revista Académica Universitaria. Vol. 3, No. 1