Issuu on Google+

1 semestre

ISSN 2215-8391


Universidad Pedagógica y Tecnológica de Colombia Avenida Central del Norte PBX (8) 7422175-76 Fax (8) 7436205 www.uptc.edu.com Alfonso López Días Rector Wilson Valenzuela Pérez Vicerrector Académico Manuel Humberto Restrepo Director de Investigaciones Elkin Colmenares Dulcey Diseño y Diagramación Elkin Colmenares Dulcey Fotografía Victor Gamboa Director Arnold Velandia Editor Alexandra Puerto Camila González Elkin Colmenares Dulcey Eliana Marcela Tunarrosa José Misael Páez Jully Paola Peña José David Mestizo Leydi Paola Páez Miguel Ignacio Vargas Mateo Roa Comite editorial Revista Semilleros de Investigación UPTC Revista Semilleros de Investigación Uptc ISSN 2215-8391 revista.semilleros@uptc.edu.com


ISSN 2215-8391


Contenido SER SEMILLERO ES DAR UN PASO ADELANTE.......................................4 EDITORIAL………………………………...…………………………….................8

U Descripción General Del Modelo De Comportamiento Del Consumidor De Engel – Blackwell – Miniard Edgar Sanabria…….....………………………………….....……………………....12 La Estrategia De Bpo&o (tercerización) ¿una Opción De Servicios Para Colombia? Camilo Rojas…......………......………………….……………………….…….......17 Reflexiones Entorno A La Investigación En Turismo Paola Gama, Bibiela Mojica....................................……..................................23

P La Expedición Botánica De 1783 Y El Inicio De La Botánica Moderna En Colombia Eliana Tunarosa……………...…………………………………………………..….34 Evaluaciòn Del Efecto Sanitizante De Un Extracto Biodegradable Obtenido De La Especie Solanum Marginatum, De Uso Etnobotànico En Boyacà. Mauricio Garcia, Maria Cristina Castellanos....................................................41

Bioinformática, Más Que Una Herramienta De Investigación Camilo Medina…………………………………………………………...................47


Contenido T Descripción Fenomenológica De La Ecolocalización, Imágenes A Partir De Sonidos Jully Peña...............………………………………………………………..………..52 Aplicación Del Algoritmo Runge – Kutta En La Obtención De Órbitas Estelares En Galaxias Espirales. Fonseca, Eulises A..........................................................................................57 Microscopia De Fuerza Atómica: Técnica, Equipo Y Aplicaciones Santiago Sandoval……………………………..........………….......................….63 Modelo De La Gota Líquida Con Pequeñas Deformaciones Hernández Yenny, Higuera Sindy……..............................................................69 Propiedades Estructurales Y Electrónicas Del Ti Calculadas Mediante La Dft María A. Puerto, William O. Sosa, Jairo A Rodríguez......................................73

C Estudio A Las Imagenes Religiosas De Santa Clara La Real: San Gabriel Elkin Colmenares…...…...………………………………………….......................80 El Espacio Expositivo, Una Ventana Abierta Al Conocimiento José Páez ..................…...................................................................................86 ¿Qué He Aprendido Al Pertenecer A Un Semillero De Investigación? Diana Díaz........................................................................................................92


RevistaSemilleros .

SER SEMILLERO ES DAR UN PASO ADELANTE Otra vez los jóvenes agrupados en la investigación en calidad de semilleros, continuaron la ruta de la publicación de apartes de los resultados, de los que van siendo participes, junto con el profesorado que alienta el espíritu investigativo de ellos y de los jóvenes becados en formación. Ser semillero implica dar un paso adelante en la condición de estudiante. Pues sus compromisos con el conocimiento y a través de este la libertad, se amplían. Sus horas de estudio aumentan y las fuentes de búsqueda bibliográfica, de experiencias, de talleres, de laboratorios, de discusiones, crece significantemente. Las capacidades de argumentar y construir fundamentos debe ser la respuesta esperada a la función del semillero. Asumir por cuenta propia la condición de semillero, obedece a oportunidades, deseos, condiciones propicias y de manera especial, al compromiso del profesorado que investiga y que al hacerlo engrandece el sentido mismo de la universidad. Las motivaciones para ser semilleros, resultan de la conjugación entre lo que busca el estudiante y lo que facilita el profesorado más las garantías institucionales. El profesorado que investiga hace de la universidad un taller o un laboratorio del conocimiento, al servicio ya no solo de la reproducción de contenidos y asignaturas, si no de la transformación y creación, que es la mayor contribución presenta a la hora de conformar semilleros. Un semillero es el estudiante que no solo hace parte numérica de un grupo de investigación, si no que tiene sus primeras responsabilidades concretas frente a la investigación. La primera responsabilidad es consigo mismo, al asumir que investigar tiene un proceso de formación, esto es, dedicar tiempos y esfuerzos a comprender qué es la investigación, para qué sirve y cuando y cómo se realiza, en qué circunstancias, en qué contexto social, económico, político y cultural se realiza, saber distinguir los medios de los fines, etc. Ello implica leer críticamente, asistir a cursos sobre investigación,

4


RevistaSemilleros .

aprender en los debates sobre la ciencia, su contexto, sus alcances. El segundo compromiso es con la sociedad, con el entorno, con los otros, el punto de partida es formarse en el ámbito de una ética de la vida y de la ciencia. Un investigador debe tener como primer principio el de la honestidad intelectual, responsabilidad con la verdad, dar crédito a lo que han creado otros, no cambiar los resultados para favorecer ningún interés, no falsear la realidad. El trabajo en equipo hace parte del proceso y este indica también entender que la realidad se construye socialmente a partir de enfoques, de formas de mirar y de interpretar, a sabiendas que no hay verdades únicas, ni inmodificables y que la tarea del investigador/a solo mira una o más aristas pero difícilmente logra observar o contener el todo, allí comienza la interdisciplinariedad, el trabajo entre varios quienes se agrupan para producir resultados más completos. El investigador formado encuentra rápidamente la diferencia entre los enunciados de otros y los suyos propios y precisa más fácilmente que es lo que sabe y por ello no pretender abarcar todos los temas. El semillero que trabaja con ese investigador aprende a medida que hace y reflexiona y viceversa. Aparte de las contribuciones con el desarrollo del pensamiento mismo, un semillero se adentra el reconocimiento de la complejidad social tanto global como local, entendiendo el momento que vivimos y el papel de la ciencia en las transformaciones de la sociedad y del sujeto y en esa dirección el papel de la universidad como organismo vivo capaz de producir impactos favorables a formas de organización social más equitativas, más justas, mas responsables con el entorno, más humanas. El semillero, es entonces, mucho más que un estudiante inscrito en un grupo de investigación que se encarga de las tareas administrativas de llevar registros o ayudar a hacer encuestas. Un semillero, es ante todo un estudiante de pregrado, en proceso de formación para cambiar el estado de las cosas a través de sus avances como investigador/a y contribuir de esa manera a ampliar las fronteras de la ciencia, a la vez que buscar salida mediante el conocimiento

5


RevistaSemilleros .

I que genera a las situaciones adversas que atraviesa nuestra sociedad. Las paredes universitarias aun señalan la idea de que los estudiantes deben estar preparados para estudiar y luchar para modificar la realidad nacional, pues he ahí la condición del semillero, iniciarse en la formación que conduzca a transformar la realidad y proponer modos de convivencia. Está llamado a comprender mejor la diversidad de opiniones que conviven en un lugar, la multiplicidad de formas de resolver una situación y del conjunto que se produce cuando varias capacidades se encuentran para crear y recrear con conocimientos orientados por el mismo fin: crear conocimiento para crear otras realidades diversas, plurales, más nuestras. Bienvenida esta segunda edición de la revista semilleros, pensada, diseñada y hecha en su totalidad con el espíritu de los semilleros. Por parte del equipo de Dirección académica de la universidad nuestro reconocimiento y felicitación a este esfuerzo colectivo, joven, estético. Para la Dirección de Investigaciones DIN, este SEGUNDO MAGAZIN EN FORMATO DE REVISTA DE SEMILLEROS, es otro aporte significativo, de lo que a diario hacen los colectivos de investigación y enriquece toda la vida universitaria. La revista de semilleros, lleva aparte de textos de resultados y reflexiones, el espíritu de sus estudiantes que dieron el paso hacia su condición de investigadores/as en formación quienes mediante esta publicación materializan la articulación entre lo que piensan y hacen nuestros jóvenes y el fomento de la política institucional en este campo. En los semilleros, encontramos un pilar esencial para dejar avanzar la universidad hacia otros estadios más flexibles, más heterogéneos, más plurales, que rebasen las formas de la vieja universidad que tiende a sujetar y organizar en torno a la homogeneidad, la centralización y los modos tradicionales de hacer la vida, la academia y la investigación. Como un homenaje a los semilleros, se han realizado desde 2009 los martes, más de 60 sesiones del “Coloquio de Formación Investigadora, Orlando Fals Borda”, que es un escenario de comprensión, análisis y

6


RevistaSemilleros .

reconocimiento sobre el qué, cómo y para qué investigar. Otro escenario colectivo preparado en coordinación con las Universidades Pedagógica Nacional, Distrital Francisco José de Caldas, Colegio Mayor de Cundinamarca y la UPTC a través de la DIN, es el CAMPAMENTO NACIONAL DE SEMILLEROS, que se realizará los días 29,30 y 31 de agosto de 2010, en la UPTC, Tunja y dentro de este el II Congreso Internacional de Semilleros de Hotelería y Turismo, en Paipa. En el Campamento Nacional de semilleros, esta publicación podrá convertirse en ejemplo de autonomía del trabajo estudiantil y en punto de encuentro para fortalecer los espacios organizativos de esta fuerza académica y social que crece en el país y se llama: SEMILLEROS. Manuel Humberto Restrepo Domínguez. Director de Investigaciones. Julio de 2010.

7


RevistaSemilleros .

REVISTA SEMILLEROS DE INVESTIGACIÓN, UN ESPACIO COLECTIVO EN CONSTRUCCIÓN PERMANENTE. Solo hay dos cosas que podemos perder: El Tiempo y la Vida; La segunda es inevitable y el primero imperdonable. José María Franco Cabrera. Desde frases que para algunos representan verdad, para otros sabiduría, para muchos otros motivo de reflexión, debo decir enfáticamente, que esta publicación, es la clara muestra de que los semilleros de investigación de la U.P.T.C no pierden el tiempo, no lo desperdician, todo lo contrario, pues gracias al apoyo institucional promovido desde la DIN, encuentran la grandiosa oportunidad de exponer ante la comunidad académica a la que se deben, algo de su producción intelectual, dé su sentir, de su manera de percibir la realidad que les corresponde y asumen, en un espacio ideado y manejado por otros semilleros. En este número, la Revista Semilleros de Investigación busca a través de su diseño, enunciar la continuidad en el proceso de creación y consolidación de la revista, proceso de por sí enriquecedor en cuanto diversas son las fuentes que alimentan su espíritu y dan fuerza a su razón de ser; visibilizar el trabajo de nosotros, los semilleros de investigación upetecistas. Estudiantes de diversas áreas del conocimiento, con concepciones, aspiraciones e ideologías diferentes, representan la oportunidad única de hacer explícitos, los alcances de la formación en investigación, evidenciando que ésta, traspasa el plano de lo disciplinar y estricto, llegando a lo cotidiano, a lo esencial, a lo humano. Todo ello bajo el titulo de Revista Semilleros de Investigación, contenedor que en el alma de sus páginas y secciones deja inscrito el nombre de nuestra universidad y el valor de lo común. Pero nada de lo mencionado antes sería posible si no existiera gente sensible y comprometida que de manera voluntaria ha querido asumir el

8


RevistaSemilleros .

compromiso de construir colectivamente, pensando en la otredad, un espacio para contar y decir, ya sea con imágenes, formulas o textos, todos ellos pretextos, el valioso potencial contenido en los estudiantes, sus letras y la otra cara de nuestra academia. Severo Ochoa decía que “en principio la investigación necesita más cabezas que medios” y tiene razón, pero considero que somos afortunados pues gracias a este medio que ya ha adquirido la responsabilidad de tener un ejemplar semestralmente, se pueden hacer visibles las ideas de esas cabezas, que gestan, promueven y alientan los nuevos rumbos de la investigación. Tan solo resta decirles desde el Comité Editorial de ésta, su revista, que las puertas están abiertas y en espera de todos aquellos que quieran aportar con sus ideas, iniciativas y consejos al fortalecimiento de este espacio, dé y para semilleros de investigación y así reafirmar al profesor Manuel Restrepo director de investigaciones de nuestra universidad cuando dice, que los semilleros vamos un paso adelante. ARNOLD VELANDIA MATEUS. EDITOR

9


RevistaSemilleros .

Titulo: De la serie “Rayando la Ruina” Fotrográfia: Elkin Colmenares Dulcey Colectivo: En la Ruina Integrantes: Elkin Colmenares, Manuel Barrera, Wilman Zabala. 2010


DESCRIPCIÓN GENERAL DEL MODELO DE COMPORTAMIENTO DEL CONSUMIDOR DE ENGEL – BLACKWELL – MINIARD. SANABRIA, EDGAR. Grupo De Investigacion Management Uptc – Semillero Seges. Escuela De Administracion De Empresas. Facultad Seccional Sogamoso. edsanabriat@gmail.com – edgar.sanabria@uptc.edu.co RESUMEN El presente artículo se enmarca en las ciencias administrativas, más exactamente el mercadeo y el comportamiento del consumidor. Continúa la exploración de los consumidores en hipermercados y supermercados indagando el perfil de los mismos en la ciudad de Sogamoso (Boyacá), partiendo del análisis del más importante modelo de comportamiento del consumidor, visto desde la perspectiva del mercadeo como es el de Engel, Blackwell y Miniard. Se entrega este artículo a la comunidad académica, como avance del proyecto titulado “IDENTIFICACIÓN DEL PERFIL DEL COMPRADOR DE BIENES Y SERVICIOS ADQUIRIDOS EN SUPERMERCADOS E HIPERMERCADOS ESTABLECIDOS EN LA CIUDAD DE SOGAMOSO” PALABRAS CLAVES: Perfil, Consumidor, Hipermercado, Supermercado, Sogamoso, modelo, mercadeo. INTRODUCCIÓN. El presente artículo desarrolla brevemente uno de los más importantes modelos de comportamiento del consumidor existentes desde el punto de vista del mercadeo, como es el modelo de Engel – Blackwell – Miniard, desde su funcionamiento hasta los principales factores que inciden en la adquisición de información para que el consumidor lleve a cabo la elección de compra más apropiada. Se inicia con la descripción de aspectos generales del mercadeo, así como con la mención de algunos de los modelos más importantes que, desde el mercadeo, buscan analizar el comportamiento del consumidor de una forma organizada, sistemática y científica. Seguido esto, se inicia la descripción del modelo,

12


partiendo de la una breve descripción de su origen. También se presenta una ilustración que resume el comportamiento del mismo, continuando con la explicación de su funcionamiento y los modos de decisión bajo los cuales este modelo puede ser utilizado por parte de los consumidores. DEFINICIÓN DE MERCADEO El mercadeo puede ser definido como el… Proceso que comprende todas las actividades mercantiles relacionadas con el flujo de productos de la fábrica al consumidor poniendo los productos en contacto con los mercados, a fin de lograr una distribución racional del producto, su relación estabilidad de precio para el consumidor, y, la garantía de ingreso para el productor con obtención de utilidades (JANY CASTRO, 2005). Puede verse aquí que es necesario para las empresas el gestionar sus recursos con el fin de obtener los resultados esperados, a partir de la correcta planeación y ejecución de las actividades empresariales, incluidas las de mercadeo. Sin embargo, es importante entender los gustos y/o necesidades del consumidor. Solomon (2001), simplifica o reúne este proceso en los siguientes pasos: Reconocimiento del problema, Búsqueda de la Información, Evaluación de las Alternativas, Elección del producto y Evaluación post – compra. Estos pasos están incluidos en modelos especializados que buscan entender desde un punto de vista científico el desarrollo de la voluntad de compra del consumidor, logrando de esta forma influir en la misma para poder llevar al consumidor a la compra de un determinado producto. Existen modelos globales y parciales que detallan cómo el consumidor actúa en algunas partes o en el total del proceso de decisión de compra, respectivamente. Dentro de los modelos globales más importantes encontramos el Modelo de Nicosia, Modelo de Howard – Seth, Modelo de Engel – Blackwell – Miniard y Escuela de la GESTALT; y entre los parciales se encuentran el Modelo de Bettman y el Modelo de Fishbein. (Dirección Nacional de Servicios Académicos Virtuales DNSAV – Universidad Nacional de Colombia, 2009; RIVERA CAMINO, MOLERO AYALA, ARELLANO CUEVA, 2009). MODELO DE ENGEL – BLACKWELL – MINIARD. Este modelo se empieza a desarrollar en 1968 bajo el nombre “Modelo de Engel – Blackwell – Kollat”, y cambia su nombre debido al fallecimiento de David Kollat, coautor del mismo, y los aportes que Paul W. Miniard hace al equipo de trabajo ya constituido. Este es un modelo que, aunque tiene limitaciones, es de los pocos que se renueva constantemente y ofrece

13


una pauta relevante, actualizada y que trata de incluir de una forma coherente los diversos aspectos que incurren en el proceso de comportamiento del consumidor. A continuación se observa una representación del modelo en la Ilustración 1. Este modelo utiliza los elementos que configuran el proceso de comportamiento del consumidor en la siguiente forma: Reconocimiento de la motivación y la necesidad, Búsqueda de información, Evaluación de alternativas, Compra y Resultados (Dirección Nacional de Servicios Académicos Virtuales DNSAV – Universidad Nacional de Colombia, 2009). Estos constituyen los pasos fundamentales que componen el proceso de decisión. El modelo parte del reconocimiento de la necesidad, que nace de la diferencia percibida entre el estado ideal en el que el consumidor desearía estar y el estado real en el cual se encuentra, diferencia ésta que es influenciada por estímulos agrupados en tres categorías definidas: la información que se posee en la memoria sobre el elemento analizado, los factores ambientales y las características individuales del individuo. Una vez ocurre este proceso, se dice que la necesidad ha sido activada.

Fuente: BLACKWELL, MINIARD, ENGEL. (2003). Modelo de comportamiento del consumidor de ENGEL - BLACKWELL - MINIARD.

14


El siguiente paso es la Búsqueda de Información. Primero se acude a la información que el individuo tiene en la memoria interna sobre el elemento analizado, para determinar qué se conoce sobre las diferentes alternativas y cómo se debe elegir entre ellas. Si esa información no es suficiente, se activa la búsqueda externa para recopilar nueva información. Esta búsqueda también se ve afectada por factores individuales en donde aquellos individuos que “corren poco riesgo” suelen buscar una mayor cantidad de información y también consideran en mayor medida los factores ambientales. Todo esto expuesto al análisis que pueda efectuar las actividades procesadoras de información para la extracción de los significados de los estímulos recibidos. El primero de éstos es la exposición a los estímulos, de forma voluntaria o estimulada por una búsqueda activa de información; el segundo es una atención consciente del consumidor admitiendo solamente aquellos que se juzgan como importantes. La siguiente etapa, denominada Comprensión, se encarga de la extracción del significado de la información a la que se le ha prestado atención y su posterior almacenamiento en la “memoria de corto plazo” para que pueda llevarse a cabo con ésta un procesamiento posterior. El siguiente paso es el proceso de Evaluación de alternativas, donde se compara la información que se tiene y se ha podido recuperar de las diferentes marcas y/o alternativas, con los criterios de evaluación para el juzgamiento del producto, que se encuentran almacenadas en la memoria permanente. Pero éste proceso también se divide en otros sub pasos; el primero es la Aceptación, que surge de la modificación, cambio o refuerzo de los criterios evaluativos como consecuencia de la comparación de éstos con la información recientemente adquirida, y en cualquier caso se genera la retención de la información en la memoria permanente. Esta comparación hará que se consoliden o que se cambien dichos parámetros de medición según se ajusten o no a la nueva información recibida, y según la actitud de apoyo o rechazo que genere el individuo hacia la nueva información. Sin embargo, la falta de aceptación ocasiona una pérdida de información. En general, el camino más común es que con la información obtenida se entre en un proceso de juzgamiento de las opciones presentadas, considerando aquellos aspectos que pueden ser apreciados como positivos y negativos, lo que a la postre puede cambiar las actitudes e intenciones de compra. (BLACKWELL, MINIARD, ENGEL, 2003). Este proceso entrega un resultado: la intención de compra de la marca que recibió la mayor valoración. Si no se presenta la intervención de otras situaciones ajenas al comprador/consumidor, como por ejemplo falta de dinero, incertidumbre sobre futuros resultados u otros, que obliguen a posponer el acto de compra, éste se llevará a cabo. Posterior a este paso se encuentra el uso del producto, donde su evaluación continua compara las expectativas con los resultados obtenidos. Pueden presentarse tres estados:

15


descarte, satisfacción o insatisfacción con el producto. En la primera opción, se descarta el uso de l producto por no cumplir las expectativas del producto; si se elige la segunda opción se continúa la evaluación del producto y las diferentes alternativas para cuando sea necesario realizar una nueva compra, pero teniendo en cuenta el aprendizaje previo y la satisfacción lograda con el producto actual, que seguramente tendrá mayores opciones de repetir la compra; en cambio, si el resultado es el segundo, esto puede llevar a una nueva búsqueda de información sobre la marca y/o al cambio de de las creencias sobre la marca y el producto Este proceso se considera continuo y que opera sobre todas las compras. Es de aclarar que este modelo puede operar bajo dos tipos de modos o configuraciones por parte del consumidor, denominados ASP (Comportamiento amplio de solución de problemas) y LSP (Comportamiento limitado de solución de problemas). En el primero, se asume que en este modelo el individuo tendrá una amplia participación en la decisión y el riesgo percibido, es decir, el individuo se informará adecuadamente sobre el producto y, de ser necesario, lo buscará tienda por tienda; para el segundo, el individuo funciona en dos niveles de participación y/o de riesgo percibido: Hace una evaluación poco rigurosa de los productos, y tiene una baja motivación para ir a muchas tiendas, es decir, no tiene lealtad con la marca. Sin embargo, se menciona que este modelo sirve para el análisis de ambos modos de comportamiento. Lo que cambiaría para cada uno de ellos es el grado de involucramiento que los consumidores aplican en una o varias etapas del modelo. (BLACKWELL, MINIARD, ENGEL, 2003). CONCLUSION La importancia del análisis del modelo de comportamiento de consumidor de Engel – Blackwell – Miniard, o de cualquier otro modelo es que a partir de la comprensión de los procesos que están implícitos en su funcionamiento, se pueden entender las diferentes fases que un consumidor debe atravesar para hacer la elección del producto o servicio que ha elegido como idóneo para satisfacer sus gustos o necesidades. Para las empresas, instituciones, publicistas o cualquier otro interesado, el aprender a manejar este o cualquier modelo implica el conocimiento sobre cómo influir en los consumidores para que acepten y elijan el producto, servicio o idea que pretenden ofrecer, para así llegar al cierre de la compra y, más allá de esto, la fidelización del cliente por, al menos, hasta la siguiente compra. Este modelo parte del conocimiento o experiencia del consumidor almacenado en la memoria, así como diferencias individuales y la influencia del entorno sobre el consumidor. Estos contienen las variables que determinan la elaboración de un perfil, aunque éste puede variar en su complejidad según las variables o aspectos a analizar, derivados de la información que se requiera para poder influir en el modelo que el consumidor aplica en sus decisiones de compra.

16


BIBLIOGRAFÍA

? JANY CASTRO, José Nicolás. (2005). Gerencia Comercial: UN Enfoque Operativo. Bogotá, D.C. Fondo Educativo Panamericano. p. 840.

? SOLOMON, Michael R., STUART, Elnora. W. (2001). Marketing: Personas Reales, Decisiones Reales 2ª Ed. Bogotá, D.C. Pearson Educación de Colombia, LTDA. p. 146 – 150.

? Dirección Nacional de Servicios Académicos Virtuales DNSAV – Universidad Nacional de Colombia (2009). Comportamiento del consumidor. Capítulo 3., Extraído 2009, 29 octubre de: http://www.virtual.unal.edu.co/cursos/economicas/2005362/docs_curso/contenido.html

? BLACKWELL, Roger D., MINIARD, Paul W., ENGEL, James F. (2003). “Proceso de decisión del consumidor” en: Comportamiento del Consumidor 9º Ed. México, D.F. Cengage Learning Editores. p.p. 69 – 96.

? RIVERA CAMINO, Jaime., MOLERO AYALA, Víctor, ARELLANO CUEVA, Rolando. (2009). “Modelos de comportamiento del consumidor” en: Conducta Del Consumidor, 2º Ed. Pozuelo de Alarcón (Madrid, España). ESIC Editorial. p. 51.

LA ESTRATEGIA DE BPO&O (TERCERIZACIÓN) ¿UNA OPCIÓN DE SERVICIOS PARA COLOMBIA? ROJAS, CAMILO. Grupo De Investigación: Poder (proyectos Organizacionales Para El Desarrollo Empresarial De La Región)- Escuela Administración De Empresas – Tunja Camilo.rojas@uptc.edu.co RESUMEN El artículo muestra el significado, antecedentes e importancia de la tercerización ó BPO & O, traducidos en menores costos y mayor eficiencia para las empresas. Cuál es su importancia en los países asiáticos, europeos y latinoamericanos. Finaliza haciendo una breve presentación de la tercerización en Colombia y, particularmente, en Boyacá. PALABRAS CLAVES: Boyacá, BPO&O, Colombia, Desventajas, Estrategia, Empresario, Países tercerizadores, Tercerización, Ventajas.

17


INTRODUCCIÓN El presente artículo tiene el propósito de presentar un panorama general sobre el tema de los servicios BPO & O (tercerización), sus antecedentes y mostrar cómo se encuentra este tipo de servicios en Colombia. La tercerización es una práctica que empieza a desarrollarse después de la segunda guerra mundial en la denominada era post-industrial, cuando los empresarios encontraron innecesario abarcar todas las áreas de la empresa, por la necesidad de disminuir costes en sus procesos de producción, pues notaron que la tecnología y la actualización en la misma resultaba muy costosa, de forma que evidenciaron la conveniencia de entregar ciertos trabajos a empresas especializadas (FERNÁNDEZ, Ruddy , 2002). Esta práctica, igualmente conocida BPO&O por sus siglas en inglés (Business Process Outsourcing and Offshoring), significa el hecho de contratar y delegar a largo plazo uno o más procesos no críticos para un negocio, diferentes de los relativos al “core business” o estrategia central de la empresa, para que un proveedor más especializado los realice con mayor efectividad y reducción de costos que permita orientar los mejores esfuerzos de una compañía (Quinn, 2000). En los últimos años el Ministerio de Comercio Industria y Turismo (Mincomercio 2008) está llevando a cabo un plan con el cual pretende ubicar a Colombia como un país de alto rendimiento en el servicio BPO & O, plan que se adelanta 1 2 conjuntamente con el grupo MIDAS y la organización USAID , en un programa denominado “Desarrollando el Sector de BPO&O como uno de Clase Mundial”. Antecedentes y significado de la tercerización Por los años cincuenta después de la reconstrucción de Europa por parte de los Americanos, se dio un fenómeno donde por exceso de demanda sobre la oferta, la subcontratación se hizo para garantizar que algunos proveedores surtieran las materias primas que se requerían y en el momento oportuno. En los años sesenta los empresarios europeos se fueron para el norte de África a buscar mano de obra barata, lo mismo que hicieron los japoneses con el oriente de África y los americanos con el sur de América. Los tres lograron contratar con empresas conocedoras del medio, para que se les redujeran los costos, contratando la producción de algunos bienes. El término nace en realidad a inicios de la década de los 70's enfocado, sobre todo, a las áreas de información tecnológica en las empresas. Las primeras empresas en implementar modelos de Outsourcing fueron 1 2

Más Inversión para el Desarrollo Alternativo Sostenible Agencia de Estados Unidos para el Desarrollo Internacional

18


empresas como EDS, Arthur Andersen, Price Waterhouse entre otros. Pero fue en los años ochenta cuando el mundo empezó a ver cómo era más conveniente entregar ciertos procesos a terceros, que hacerlos la misma empresa y el caso más relevante se da cuando KODAK cedió a IBM su centro de data y sistemas de telecomunicaciones (Fernández 2002). El avance de la tercerización, como es lógico, ha dependido del momento económico, y el enfoque ha ido cambiando. Pasó de ser meramente táctico a convertirse en un enfoque estratégico. Las empresas hoy parten de un análisis de su visión, de su misión, de su cadena de valor y de cuáles deben ser sus procesos centrales y cuales se pueden subcontratar. Dentro de los países más destacados en el desarrollo de servicios de tercerización en Asia, que trabajan como destino de externalización, se encuentran China, India y Filipinas. China se ha convertido en el principal destino para empresas que han querido relocalizar plantas de producción de sus productos. Hoy en día China fabrica ropa, equipos, artefactos 3 electrónicos, juguetes y un sinfín de otros productos (ICEX) . India es líder en relocalización de servicios y procesos administrativos, como centros de atención al cliente y procesos financieros. Dentro de las ventajas que se reconocen de India se cuentan el dominio del idioma inglés (un 20% de su población) y la cantidad de ingenieros en computación que se gradúan cada año (300.000 graduados). Entre los obstáculos que podrían enfrentar las empresas se destaca las diferencias culturales; la empresa nacional más relevante en este país es NASSCOM (Mckensey, Mincomercio 2008). Filipinas surge como alternativa a India, por su infraestructura y conocimiento del inglés. Por otro lado, carece de las habilidades que posee India y existe preocupación por actividades de terrorismo; para este país la empresa líder en la industria es BPA (Mckensey, Mincomercio 2008). En Europa existen varios países que consideran la industria de gran importancia y estratégica como negocio. Rusia cuenta con una gran fuerza laboral en las áreas de ciencia y matemáticas, procesos y metodología. Su debilidad es el escaso dominio del inglés y la inestabilidad política Latinoamérica, en los últimos años emerge como una posibilidad de inversión en BPO&O. Chile se destaca por su estabilidad económica, política y social, además de por su moderna infraestructura, apertura a los mercados y fuerza laboral capacitada. Empresas como Oracle, Sinopsis, Evaluaserve han apostado por Chile como plataforma de negocios. Para consolidar esta iniciativa, se anunció la conformación de un Consejo Estratégico Público3

Instituto Español de Comercio Exterior

19


Privado, el que tendrá como misión diseñar e implementar acciones para fortalecer las condiciones país para el desarrollo y expansión de este sector, seleccionado por el Consejo Nacional de Innovación como uno de los cluster con mayor potencial de crecimiento durante la próxima década (wikipedia 2008). Costa Rica se ha destacado en los últimos 10 años como un fuerte destino de Inversión Extranjera Directa, IED, proveniente mayormente de Estados Unidos, y aún más recientemente de Europa y China. El país recibe unos 600 millones de dólares estadounidenses por año en IED. La inversión se ha concretado en diversos proyectos turísticos, desarrollo de bienes raíces, en industria electrónica y médica de alta tecnología. Estas inversiones se han logrado por su tradición democrática y estabilidad social, apertura comercial y fuerza laboral bien educada y bilingüe (wikipedia 2008). La tercerización en Colombia Colombia es un país debutante en el sector. Aquí la tercerización se encuentra en un uso y nivel distinto a los niveles encontrados y existentes. Según PROEXPORT, LOGYCA y GS1 (Ignacio Gómez, 2009) existen diferentes modelos de tercerización para el ámbito de 4 logística o producción: PL 1, PL2, PL3 Y Pl4 . Según la Encuesta Nacional Logística (Ignacio Gómez, 2009), la opción del operador PL 2 es definitivamente la más usada por las empresas colombianas, en el ámbito nacional como internacional; Para la operación nacional, tienden a usarse más las opciones de PL 1, PL 2 o ninguna opción, mientras que en la operación internacional las empresas buscan socios de negocio con más participación, como los PL 2, PL 3 y PL 4. Colombia puede ser un fuerte competidor, sin trabajo de fondo aún en el tema ; aún así , en los últimos años el Ministerio de Comercio Industria y Turismo está llevando a cabo un plan con el cual pretende ubicar a Colombia como un país de alto rendimiento en el servicio

4 - TWO PARTY LOGISTICS 2PL: Es un proveedor que presta servicios independientes y ocasionales, se enfoca exclusivamente a una sola actividad, por ejemplo, transporte o trámites aduaneros y/o almacenamiento. Su objetivo es reducir costos al cliente o proveer de capacidad extra cuando sea necesario, evitando una inversión innecesaria. - THIRD PARTY LOGISTICS 3PL: Es un operador logístico que realiza todas o una porción de las actividades logísticas bajo un contrato o tarifa, de manera que permita y mejore el cumplimiento de metas y objetivos definidos. Estos servicios pueden ser operativos, administrativos o ambos, pero deben de incluir más que un simple transporte de carga o almacenamiento de mercancías. El 3PL debe considerarse como una extensión del área de logística de las empresas. Se enfoca en actividades de transporte y almacenamiento, apoyándose en las tecnologías de la información y alcanzando mejoras en términos de costos de operación. - FOURTH PARTY LOGISTICS 4PL: Ejerce la actividad de planeación y coordinación del flujo de información desde proveedores hasta clientes. Diseña la arquitectura logística y el sistema de información para integrar los procesos sin ejecutar necesariamente los flujos físicos. El 4PL construye y ejecuta soluciones globales combinando su propia experiencia con la de los proveedores de servicios complementarios, de manera que se comparten riesgos y beneficios con base en una relación directa e intercambio de conocimientos e información.

20


BPO&O, este trabajo se lleva de forma conjunta con el grupo MIDAS y la organización USAID, programa al cual denominan “Desarrollando el Sector de BPO&O como uno de Clase Mundial”, según el informe aportado por el ministerio, las regiones que tienen mayor disposición para este trabajo son: la Región Cafetera, Cundinamarca, Bogotá (por la creación de zonas francas de servicios), la costa Atlántica y Norte de Santander; lo anterior debido a que hay menor rotación del recurso humano dado que las oportunidades laborales resultan poco atractivas, igualmente, mano de obra calificada gracias a la alta presencia de universidades regionales, infraestructura adecuada y mejor calidad de vida , entre otros aspectos que generan ventajas para estos sectores regionales (Mckensey, Mincomercio 2008) La tercerización en Boyacá En el plan (Mckensey, Mincomercio 2008) se menciona la forma en que se segmenta la industria de BPO&O y en cuáles sectores Colombia ha trabajado o en los que puede generar estrategias competitivas. En el estudio se menciona a Tunja como ciudad promedio, pero no se la tiene en cuenta como estratégica para el plan adelantado, pues la madurez que se tiene en la región acerca de la industria de BPO&O es casi nula, igualmente los costos generales son equivalentes a los del promedio del país y tomando en cuenta los resultados del DOING BUSINESS (Banco Mundial 2010) para el 2010 esta ciudad no sale muy bien librada; por otra parte la preparación del recurso humano en la ciudad es muy baja en cuanto a la disponibilidad para este tipo de negocios o en el manejo de idiomas, necesario para el mercado de OFFSHORING. Para Boyacá la tercerización es una industria de muy poco desarrollo según Mckensey (2008), de acuerdo a los estudios del Doing Business para el 2009 Boyacá no cuenta con las herramientas suficientes para lograr desarrollar niveles de BPO&O muy destacados pues los costos de la región, el ambiente de negocios, el recurso humano altamente calificado y dispuesto, los riesgos de llevar a cabo la industria, el conocimiento en este tipo de servicios y exceptuando la infraestructura que posee el departamento; no son los más efectivos para llevar a cabo industrias del tipo. CONCLUSIONES La tercerización es el medio por el cual significa el hecho de contratar y delegar a largo plazo uno o más procesos no críticos para un negocio, diferentes de los relativos al “core business” o estrategia central de la empresa, para que un proveedor más especializado los realice con mayor efectividad y reducción de costos que permita orientar los mejores esfuerzos de una compañía. Las ventajas más relevantes que se evidencian en la aplicación de BPO&O son, el ahorro en inversión en tecnología, consecución de la misma

21


sin altas inversiones, reducción en de preocupación en áreas que menos generan valor agregado y flexibilidad de la organización para cambios continuos. En Asia, Europa y América Latina el BPO&O ha creado ingresos de gran relevancia ya que debido a los modelos de desarrollo económico que se presentan en estos países son distintos a los países desarrollados, es decir que aprovechando los recursos de los países potencia, los países emergentes pueden crear valor agregado para sí y sin necesidad de capitales golondrina. La precariedad de la tercerización en Colombia y, particularmente, en Boyacá son temas de gran preocupación para el gobierno, esto consecuencia de las actitudes expeditas de los países vecinos, es necesario entender esta herramienta como desarrollo industrial, aunque la economía que predomine del sector primario. Por otra parte es ineludible que los empresarios nacionales y regionales entiendan la necesidad del uso de este tipo de estrategias, como la forma de gestión eficiente de las organizaciones y como hecho inevitable para lograr competir con las organizaciones extranjeras que manejan ampliamente esta herramienta; teniendo en cuenta las próximas aperturas económicas, no se puede seguir pensando en las herramientas tradicionales.

BIBLIOGRAFÍA

l Revista DINERO, especial comercial tercerización. Julio 10 de 2009 edición n°329 l Ministerio de Comercio Industria y Turismo Colombia. Invierta en Colombia, Sector Call Center/BPO. Mayo de

2009 l Banco Internacional para la Reconstrucción y el Desarrollo / Banco Mundial. Doing business Colombia 2010.

2010. Washington, D.C. 20433. l Ministerio de Comercio Industria y Turismo. Desarrollando el Sector de BPO&O como uno de Clase Mundial.

Bogotá octubre de 2008 l HERNÁNDEZ, Sampieri Roberto, Fernández Collado Carlos, Baptista Lucio pilar. Metodología de la

investigación. Mc Graw Hill cuarta edición, 2007. Páginas 205- 232. l QUINN, J.B. (2000), Outsourcing Innovation – the new engine of growth, Sloan Management Review, 41, 13-28. l MERTENS, D. M. (2005) research and evaluation in education and psychology: interacting diversity with

quantitative and qualitative approaches. Thousand Oaks: Corwin Press/Sage 7° edición. l GRINNELL, R. M. (1997) work research and evaluation: quantitative and qualitative approaches, Itaca: E.E.

Peacock Publishers. l RUNDQUIST, Jonás. Outsourcing en el desarrollo de nuevos productos, más allá de la participación del

proveedor. Universidad Autónoma de Occidente. Cali-Colombia 2007 ISSN 0121-0777.

22


REFLEXIONES ENTORNO A LA INVESTIGACIÓN EN TURISMO “Si desde la formación de los profesionales en Turismo se tienen problemas, es comprensible que los investigadores del turismo sean pocos.” Rodríguez Woof. GAMA PAOLA C. MOJICA BIBIELA. Grupo de Investigación para la Animación Cultural MUISUATA paogam49@gmail.com- bibiela_7@hotmail.com RESUMEN Realizar un trabajo en torno a la visión de la Investigación en Turismo de la Escuela de Administración Turística y Hotelera de la Universidad Pedagógica y Tecnológica de Colombia (UPTC), requiere tener claridad sobre tres conceptos fundamentales: Primero, sobre la investigación que permite dar cuenta sobre cuáles son sus conceptos e investigación formativa, el lugar y algunas perspectivas de instituciones de orden nacional. Segundo, sobre la Investigación en Turismo, su definición y la situación que afronta en las Universidades, y proposiciones para fortalecer la investigación; y Tercero, sobre el Estado del Arte, por ser la perspectiva metodológica por la cual se aborda este trabajo. PALABRAS CLAVES: Investigación, Turismo, Estado del Arte, Formación.

LA INVESTIGACIÓN EN LA EDUCACIÓN SUPERIOR En el contexto de la educación superior se presentan algunas concepciones de investigación. Según Messina (2008, p. 8), investigar consiste en crear espacios donde investigadores, maestros y miembros de las comunidades trabajen juntos, donde la capacidad de hacer investigación deja de ser privativa de los investigadores profesionales y donde los maestros y los miembros de la comunidad son reconocidos por ellos mismos y por los otros como intelectuales, y en particular como investigadores tanto de su práctica como de otras prácticas.

23


Por su parte, Reimers y Mc Ginn (citados por Messina, 2008) afirman que “la Investigación es la actividad orientadora a la compilación y organización de hechos observables, la organización por medio de técnicas analíticas o sintéticas y la capacidad de interpretar o explicar los datos en términos de conceptos o construcciones no observables” (p.5). La investigación es sinónimo de desarrollo, y en este sentido en la Constitución Política de Colombia de 1991 se ordena fortalecer la investigación científica en las universidades oficiales y privadas y ofrecer condiciones especiales para su desarrollo. En esa medida, el Consejo Nacional de Acreditación (CNA) (2006) retoma la investigación como una práctica de carácter fundamental en el proceso de formación en la educación superior, y la eleva a una exigencia sustentando la importancia de la investigación de la siguiente manera: “no basta asimilar los conocimientos universales sino que se requiere transformarlos, seleccionarlos, reorganizarlos y construir nuevos nexos con la práctica, para adaptarlos a las condiciones del aprendizaje y a las necesidades del contexto nacional, regional o local”. Aunque por un lado la investigación es un factor de gran importancia, por el otro se reconoce de igual manera las grandes debilidades y falencias en cuanto a la consolidación de las comunidades académicas, la producción de conocimiento de frontera y la formación de nuevos núcleos de investigación. La Investigación constituye una función misional de la naturaleza universitaria. Es por ello que dentro de la UPTC se encuentra la Dirección de Investigaciones (DIN), organismo del gobierno universitario “encargado de la formulación, vigilancia y ejecución de las políticas de investigación científica en la Universidad, tales como: consolidar la investigación como eje dinamizador de la academia, garantizando recursos económicos, técnicos y humanos para este fin; fomentar la consolidación de los grupos de investigación y propender por su reconocimiento y escalafonamiento a nivel nacional e internacional, promover la investigación formativa, fomentar el apoyo a los semilleros de investigación, jóvenes investigadores y grupos nacientes, apoyar a los grupos de investigación para que se articulen a la presentación en convocatorias nacionales e internacionales, fomentar la interacción de los grupos de investigación el entorno social y productivo a través de proyectos de extensión y elaborar convocatorias internas pertinentes de capital semilla, que permita impulsar la investigación de los grupos de investigación, entre otras” (2009). De igual manera, la DIN traza y gestiona lineamientos, estrategias, procedimientos y acciones, para adelantar la investigación científica en todos los campos del conocimiento que tienen que ver con la Universidad, esto es, con Artes, Humanidades, Tecnologías, Ciencias Naturales y Sociales.

24


Además de que existan unas políticas claras sobre la investigación, es necesario tener en cuenta el método de formación de estudiantes y docentes entorno a la misma, hablamos entonces de la Investigación Formativa. Restrepo (2003) al respecto dice: “Allí donde no hay buena y variada investigación formativa hoy, difícilmente florecerá mañana la investigación productiva”. Además define la investigación formativa como aquella investigación que se hace entre estudiantes y docentes en el proceso de desarrollo del currículo de un programa (p.10). LA INVESTIGACIÓN EN TURISMO La complejidad del turismo conlleva a investigar en esta área y constituye un compromiso por parte de los profesionales para pasar de la concepción que se tiene de lo pragmático a la cientificidad del turismo. Promover la investigación en turismo permite la introducción de nuevos conocimientos refutando, consolidando o confirmando o no los ya existentes, también logra el aumento de la cantidad y calidad de publicaciones dedicados al turismo, el crecimiento de la formación en turismo y por ende el número de escuelas y universidades, conformación de nuevos grupos y asociaciones de estudiosos y profesionales y, lo más importante, ayuda en la toma de decisiones del sector público y privado ya que de esto depende el desarrollo y proyección de la actividad turística. (Rejowski, 2009 p.2) Es importante conocer los antecedentes de la Investigación en Turismo, los países que más se han interesado en su estudio, cuáles han sido las perspectivas y temáticas de estudio privilegiados a lo largo de su historia y con ello poder develar que tan lejos o que tan cerca estamos de un verdadero proceso de cientificación del Turismo. Existen varios autores que citan la incorporación por primera vez del Turismo en las universidades y el inicio de procesos investigativos entorno al mismo. En ese sentido, desde México Peñaloza y Tamayo (2005, p.4) afirman que el estudio del Turismo como tal se incorpora a las universidades como disciplina en la primera parte del siglo XX, en los años 20 en Italia y en los 30 en Alemania y Reino Unido. Años después se incorporan los estudios turísticos en los Estados Unidos y Canadá, cuya orientación se centra en aspectos de gestión empresarial. Lo que ratifica que los inicios de la investigación en turismo giraron en torno a lo pragmático respondiendo a ciertos intereses de lucro y rentabilidad. Jafari (2005 p. 2:4), profesor de Hospitalidad y Turismo de la Universidad de Wisconsin de los Estados Unidos, presenta una evolución del Turismo en la cual se aprecian varios momentos que él llama plataformas que se dieron en el contexto y la época que se estaba viviendo. Jafari lo presenta de la siguiente manera: en primera instancia la Plataforma Favorable donde se evidencian los efectos beneficios del Turismo tanto económicos como

25


socioculturales. Componen esta plataforma los grupos de interés que sostienen que el Turismo es una industria. Como segunda encontramos la Plataforma Desfavorable que inicia en los setenta, donde nace la preocupación por la protección de la cultura y la naturaleza y por ello se evidencian los costes económicos y socioculturales. La Plataforma Conciliadora surge como debate de las anteriores y en ella se busca favorecer aquellas formas de turismo respetuosas con las comunidades anfitrionas, su cultura y su medio ambiente y favorece al turista con experiencias positivas. Por último, aparece la Plataforma Científica donde finalmente surge la preocupación de ir más allá de lo pragmático y estudiar al turismo de manera científica estructurando un corpus de conocimiento científico del turismo que tiende puentes de conexión, no ataduras, con otros enfoque, de esta manera se pretende contribuir a un tratamiento holístico del turismo. Finalmente, podríamos afirmar que la investigación en turismo nunca ha sido originada por turistólogos, no nació de la actividad turística. La preocupación por su estudio y profundización ha venido desde otras disciplinas que se vieron involucradas con este fenómeno, tal es el caso de geógrafos, ecologistas, mercadólogos, sociólogos y antropólogos. Partiendo de que el estudio del Turismo es relativamente reciente y que como se observa más adelante existen varias deficiencias y causales para que su estudio no se haya realizado de manera científica y que además no se haya consolidado aun un corpus teórico que nos permita servir como fundamento teórico para emprender las investigaciones, no hemos encontrado una definición de Investigación en Turismo que abarque todo lo que implica investigar en este tema. Uno de los elementos fundamentales de la universidad es la Investigación, siendo estas los principales espacios de formación y desarrollo en investigación. Es por esto que al analizar el estado de la Investigación en Turismo debemos remitirnos a los centros de formación, a las universidades. En este sentido, Gómez (2005, p. 1) manifiesta la necesidad de repensar el Turismo ante la irresistible tentación de lo pragmático y lo empírico ya que existe una cultura anti intelectual, analfabetismo científico dentro de los sistemas universitarios con lo que argumentan que el Turismo es visto solo como una actividad meramente económica y practica, donde solo se estudian a turistas, hoteles, restaurantes, viajes y divisas, enfatizados solamente en buscar la eficiencia o la utilidad y no se estudia como el fenómeno social complejo y multideterminado que es. Es evidente que para el desarrollo de la Investigación en Turismo todos los actores deben darle la importancia que esta requiere, dado que el Turismo es una actividad multidisciplinar que requiere de las ciencias sociales y naturales para su mayor comprensión. Siguiendo con Gómez (2005, p. 5), “...es común encontrar a políticos, funcionarios,

26


directivos privados y hasta académicos que menosprecian los aportes de las disciplinas sociales, estamos no solo ante un sistema político y productivo sino también educativo con grandes manchas de ignorancia científica que nos hacen ver, sentir y pensar erróneamente”. El poco carácter científico que se le da al proceso investigativo trae como consecuencia que se preparen estudiantes con miras solo a desempeñarse en cargos operativos, lejos de ser generadores de proyectos y de llegar a ocupar altos cargos e incidir en la toma de decisiones explorando, cuestionando y poniendo en discusión las acciones y discusiones que ejercen de distinta manera las castas dominantes y de esta manera poder reorientar el rumbo del modelo actual de la actividad turística que, así como lo afirma Gómez (2005, p. 14), “ha demostrado su deshumanización, al subordinar aspectos de la vida social y cultural a los intereses privados y se siga considerando como la única vía para lograr el desarrollo socioeconómico, que ha generado riqueza pero no distribución”. Este enfoque ha privilegiado lo empírico, el hacer por encima del saber, lo que hace referencia a la herencia de la escuela turística española de la década de los sesenta, donde la “actividad turística se reduce a una especie de voluntarismo y vocación de servicio, de sacrificio personal y de experiencia empírica marcada por el feeling o sentido común, el inmediatismo y la improvisación” (Guevara, Molina, Tresserras, 2007, p.6). La hipótesis que sostiene Gómez (2009, p.8) es que el rezago científico que presenta el turismo en México, al igual que en Latinoamérica, se debe a la baja calidad de los programas educativos y a la mirada distorsionada que tienen las empresas, el gobierno y hasta la propia academia acerca de la ciencia y, peor aún, que los estudiosos en turismo “no hagan nada, o muy poco, por rechazar el conocimiento teórico y empírico equivocado o falso”. La Investigación en Turismo se encuentra en una “parálisis mental epistemológica que agobia al medio académico”, en este sentido “instituciones oficiales han sido consecuentes con los intereses de los agentes económicos poderosos de la sociedad” y por esta razón el “turismo continúa plagado de ineficiencias, de comportamiento depredador con el entorno natural, de conductas irrespetuosas con los recursos culturales, así como de patrones mercantiles de consumo que únicamente buscan el afán de lucro y de ganancia. Finalmente, Gómez se plantea: ¿dónde queda el interés público?, es más, Figueroa citado por CARIPAN (2008: p.2) dice: "Nuestra experiencia nos indica que los sectores turísticos o especialmente alguna de sus ramas productivas, creen escasamente en trabajar en la investigación y el estudio; y siguen creyendo, que todo presupuesto dedicado a ese

27


objetivo es un gasto, con poca proyección positiva en su cuenta de explotación". Mientras no se dé un giro cultural en torno a la importancia de la Investigación será complicado lograr la cientificidad del Turismo y seguirá sufriendo como lo afirma Vera J.F. e Ivars J. (2001) (citado por Rejowski, 2009, p. 3) “una paradójica y poco deseable postergación.” Una consecuencia del estado de la Investigación son las escasas si no nulas becas referentes al Turismo. Es mucho más fácil y recomendable, afirma Trujillo (2008, p.1), “estudiar posgrados en temas como economía, geografía, administración pública, urbanismo, ciencia política, desarrollo rural y no propiamente turismo”. Finalmente, son pocos y escasos los libros que tratan de los tres tópicos esenciales de la investigación turística: su naturaleza disciplinaria, temática y metodológica. Rejowhski (2009, p.2). Pero ante tal panorama existen de igual manera cosas por rescatar y que varios autores consideran importantes para el desarrollo de una verdadera investigación científica del Turismo. A continuación veremos la postura de varios de ellos. Dado que el principal problema de la investigación en turismo radica en la calidad de formación en Investigación de las universidades, Gómez (2008, p.5) expresa que la manera de elevar la calidad del conocimiento científico en el turismo es “un mayor nexo entre la ciencia y la educación superior en turismo, para no seguir proporcionando toda clase de explicaciones absurdas sobre este fenómeno social contemporáneo”; en ese sentido, la función de las universidades radica en “enseñar a pensar (y bien)” Gómez (2008,p. 5) y la mejor manera de hacerlo es trabajando en torno a la formación de estudiantes críticos, con argumentos, creativos, capacidad de análisis y de síntesis, observadores, ingeniosos e inteligentes, pero también gente humanista, esto es egresados con amplia conciencia social, sensibles al tema de la pobreza y de la desigualdad, pues son problemas que han adquirido una relevancia no sólo nacional sino también global, que logren repensar y cambiar el rumbo de la investigación y algo fundamental para lograrlo es mediante la lectura, “la buena lectura”, es solo mediante esta que se obtiene un sólido conocimiento capaz de generar en los estudiantes una actitud investigativa.

Es indispensable no dejar de lado la parte teórica de la Investigación, ya que se constituye como parte fundamental en el proceso de cientificación del turismo. Al respecto Gómez (2009, p. 8) señala que “si se quiere salir del rezago académico y de la escasa producción de conocimiento de alto nivel, es necesario impulsar la investigación teórica en el turismo” y más cuando se está dejando de lado practicar la epistemología en los trabajos de investigación. Jafari (2005, p. 4) propone como meta fundamental el desarrollo de un corpus de conocimiento que esté temáticamente organizado, coherente y sistematizado. En ese

28


sentido es necesario que el corpus teórico metodológico sea interdisciplinario, con ello se logrará una mejor comprensión del Turismo y se dejará de evitar las simples generalizaciones y los conocimientos obsoletos, para que se puedan comprender las contradicciones del modelo de desarrollo e identificar los falsos estereotipos que existen sobre este fenómeno. Gómez (2005, p. 11). Para terminar, Urdaneta (2008, p. 1) propone tres objetivos que se deben tener en cuenta entorno a la investigación: 1. Ser consciente de la problemática epistemológica que vivimos en la actualidad, clarificando los conceptos básicos que dan sentido al proceso de investigación y sustentan la legitimidad y pertinencia de los conocimientos adquiridos; 2. Tomar conciencia de la gran variedad de métodos disponibles, y 3. La necesidad de realizar estudios que sean útiles y prácticos para la investigación, sin que esto menoscabe su cientificidad. SOBRE ESTADOS DEL ARTE Existen varios tipos de investigación y en nuestro caso retomaremos la investigación cualitativa de carácter documental, en especial la modalidad de Estado de Arte. La investigación documental consiste en un análisis de la información escrita sobre un determinado tema. Su propósito es el de establecer relaciones, diferencias, etapas, posturas o estado actual del conocimiento respecto al tema objeto de estudio. La investigación documental es un proceso de búsqueda que se realiza en fuentes impresas (documentos escritos), donde se realiza una investigación bibliográfica especializada para producir nuevos asientos bibliográficos sobre el particular. (Torres, 2003, p. 8). Mediante esta revisión se puede llegar a develar y comprender el estado de la investigación, dependiendo del tipo de cuestionamientos que se tengan hacia el objeto de investigación. La modalidad de Estado de Arte pretende alcanzar conocimientos acerca del nivel de comprensión que se tiene del fenómeno de interés (cuando se ha aprendido y cuánto se ignora) y la suficiencia o inadecuación de este conocimiento, para finalmente intentar la re comprensión sintética del mismo. (Torres, 2003, p.10). En este sentido los Estados de Arte son herramientas que permiten dar continuidad a las investigaciones, retomar lo que ya se ha trabajado sin dejarlo de lado permitiendo de igual manera el direccionamiento de la misma, es una manera de hacer investigación de la investigación. En torno a este proceso investigativo se genera conocimiento epistemológico y metodológico que contribuye al proceso de formación. (p.12). En cuanto a su construcción, los Estados del Arte se ubica en el marco de la Investigación documental como ya se enunció anteriormente.

29


Los Momentos Metodológicos del Estadodel Arte, según Alfonso, (2008), son: Primero, Descriptivo: Visión global de la problemática abordada por otros, desde la cual es posible observar su parte constitutiva para regresar al texto enriquecido y obtener una visión holística de él. Para su construcción es importante partir de las siguientes perspectivas: Histórica: permite establecer el orden cronológico de ejecución de los trabajos y épocas o décadas en las cuales la investigación tomo más auge o por contrario estuvo rezagada. Temática: Se agrupa la información de acuerdo a los temas que se han privilegiado. Geográfica: establece el área de cobertura en los que se desarrollaron los trabajos de grado.4. Organizacional: se describe hacia qué tipo de organización se dirige la investigación. Poblacional: permite develar la población a la cual va dirigida la propuesta. Orientadora: se establece la dirección de los trabajos de grado, por parte de los diferentes docentes y expertos en los temas de investigación. Teórica: reconstruye los aportes teóricos que se han recogido a través de los años a partir de la investigación documental realizada por los autores, que sirvió de base para el desarrollo de los trabajos. Metodológica: se establece el tipo de investigación asumida para la realización de los trabajos. Dos, Comprensivo. Constituye la interpretación de la descripción de la tradición investigativa donde se pretenden resolver los interrogantes: 1-QUÉ: Cuál es el contexto histórico de desarrollo de la investigación y qué temáticas se han abordado. 2-DESDE DÓNDE: Evidencia las tendencias teóricas (enfoques, escuelas, disciplinas) que explican, interpretan y comprenden la tradición investigativa. 3-PARA QUÉ: Se refiere al sentido y los usos de la producción de la misma. 4-CÓMO: Representa las metodologías utilizadas en los diversas iniciativas de investigación que se desarrollan. 5-QUIÉNES / A QUIÉNES: Hace referencia a hacia quiénes se ha orientado la investigación en términos de la población, las instituciones, las ciudades o regiones que han privilegiado los Trabajos de Grado. Tres, De Constitución de Sentido, donde se desarrolla un proceso sintético que no se constituye en una evidencia más, sino en la reconstrucción teórica del fenómeno de estudio. Es la construcción de nuevos aspectos o relaciones del fenómeno y la elaboración de una nueva explicación que permita comprenderlo en una perspectiva Global, de mayor complejidad y elaboración teórica (Torres, 2003, p.13). En esta fase se busca reconstruir y darle forma al fenómeno o situación que se está estudiando a partir de los documentos consultados. Asimismo, permitirá develar los hallazgos, vacios y perspectivas de latradición investigativa de la Escuela de Administración Turística y Hotelera de la UPTC.

30


BIBLIOGRAFÍA

? GÓMEZ NIEVES, Salvador (2005). Repensar en el turismo: ante la irresistible tentación de lo pragmático y lo empírico. En: VII Congreso Nacional y I Internacional de Investigación en Turismo. Universidad de Guadalajara. (2009) Ciencia y desarrollo turístico en México. México (2008) La cientificidad en el discurso académico del turismo México. ? JAFAR, Jafari (2005). “La cientificación del turismo” en contribuciones a la economía, julio. Texto completo en: http://www.eumed.net/ce/ ? REJOWSKI, M. (2009) “Investigación en Turismo en las Universidades Brasileñas” Universidad de Sao Paulo, Brasil. ? RESTREPO, Bernardo. (2000) CNA Concejo Nacional de Acreditación. “Conceptos y Aplicaciones de la Investigación Formativa, y Criterios para Evaluar la Investigación científica en sentido estricto”. ? GALIANO LUNA, Lucio. Investigación turística Temas globales, perspectivas locales.

31


p


RevistaSemilleros

.

Titulo: De la serie “Rayando la Ruina” Fotrográfia: Elkin Colmenares Dulcey Colectivo: En la Ruina Integrantes: Elkin Colmenares, Manuel Barrera, Wilman Zabala. 2010


LA EXPEDICIÓN BOTÁNICA DE 1.783 Y EL INICIO DE LA BOTÁNICA MODERNA EN COLOMBIA TUNARROSA, E. ELIANA M. Estudiante de Lic. Ciencias Naturales y Educación Ambiental Facultad de Ciencias de la Educación Grupo de Investigación – ILAC “Ilustración en América Colonial” echeverri77@gmail.com RESUMEN En los siglos XVIII y XIX se describió la biodiversidad del territorio de la Nueva Granada con el fin de obtener beneficios económicos, sociales y científicos; estos últimos desarrollaron una interdisciplinaridad logrando la recopilación de conocimiento acerca de la flora y fauna presentes en la Nueva Granada, este evento se ha denominado la Expedición Botánica que tuvo como gestor al sabio José Celestino Mutis. La Expedición Botánica tuvo en cuenta dos factores primordiales para su realización, la Nomenclatura científica (basada en la clasificación de acuerdo al sistema reproductor de cada una de las plantas) realizada por Linneo naturista de Suecia y el otro es colaboración de un conocimiento etnobotánico (conocimiento ancestral y tradicional sobre las plantas) de las poblaciones étnicas quienes ayudaron a la recolección de la nomenclatura popular, reflejándose en las colecciones o iconografías elaboradas por los pigmentos de la misma especie vegetativa y que en ellas se busca destacar un efecto realista (demuestren las imágenes el numero de hojas, las clases de hojas, los colores o pigmentos de las especies) para mayor entendimiento y así reorganizar un herbario diferente donde la elaboración de laminas de muestren lo que tienen los herbarios de las muestras de las plantas.

PALABRAS CLAVES: Expedición Botánica, poblaciones étnicas, colaboradores de la expedición, especies vegetales, iconografía, Nueva Granada, época de la colonia.

34


INTRODUCCIÓN La historia de la botánica moderna en Colombia está marcada por el desarrollo de los trabajos de la Real Expedición Botánica de la Nueva Granada (1783-1816) que se realizo bajo la dirección del naturalista español José Celestino Mutis durante el periodo colonial. El rey Carlos III, permite acceder a la realización de esta expedición con el fin de describir la biodiversidad y riqueza botánica del Reino de la Nueva Granada, con fines científicos y comerciales. Con el desarrollo de la expedición, una de las más importantes desarrolladas por el Reformismo Borbónico en los territorios coloniales de ultramar, colaboraron científicos europeos de la talla de Carl Linneo, uno de los grandes desarrolladores de la clasificación sistemática botánica; y algunos importantes naturalistas criollos como Francisco José de Caldas y Antonio Zea. Con la ayuda de éstos y muchos otros, la expedición botánica dirigida por Mutis, desarrollo una intensa labor de búsqueda, identificación y clasificación de la flora neogranadina. Desarrollando estudios sobre su utilidad comercial y medicinal, particularmente de la quina; y realizando la más importante labor icnográfica en materia de especies botánicas americanas que se haya realizado en todo el proceso colonial americano. Las más de tres mil especies dibujadas por los artistas de la expedición, constituyen el mayor legado de ilustración botánica que se haya desarrollado en el periodo ilustrado tanto en América como en la Europa Ilustrada. (ROBLES, 1999) ¿Qué fue la Real Expedición Botánica? 1

José Celestino Mutis , (SOTO, 2005) nombrado por el rey Carlos III como director de la expedición, fue un personaje representativo de la ilustración americana. (SOTO, 2005) Mutis logro inducir el fomento de las exploraciones científicas y botánicas en el Nuevo Reino de Granada no solo para el desarrollo del método de clasificación Linneano, sino para la utilización de la flora americana como un recurso comercial y farmacéutico. La quina, por ejemplo, se convirtió durante el siglo XVIII en uno de los productos más requeridos y valorados por la medicina europea del momento. De esta manera, y gracias a los estudios de Mutis y sus colaboradores, los diversas tipos de quina, inundaron el mercado farmacéutico de la Europa del siglo Dieciocho, siendo utilizada para las más diversas curaciones, recogiendo con ello una tradición indígena americana que se remontaba a momentos anteriores a la presencia de los españoles y europeos en el continente antes del siglo XV. 1

Mutis, nació el 6 de abril de 1732, en Candiz. Desde su llegada a Santafé en 1760 hasta su muerte en 1808. hay que precisar, que Mutis se convirtió en uno de los principales difusores de la cultura Ilustrada, con incidencia . directa en los cambios que se dieron en los ámbitos de la cultura y la educación.

35


José Celestino Mutis, este ilustre de La Nueva Granada, arribo “en 1760 en calidad de 2 médico del nuevo virrey Pedro Messia De La Cerda , con la idea clara de continuar el estudio de la naturaleza americana emprendido en el siglo XVI por otro naturalista español en México, José Hernández. (SOTO, 2005). A su llegada, Mutis queda impresionado de la majestuosidad y diversidad de la flora y fauna del territorio virreinal, sobre todo de la existente en la zona de Mariquita (Tolima), lugar donde realiza sus primeras exploraciones botánicas; y donde fundará su famosa “Escuela de Dibujo”, en la que trabajaran artistas no sólo colombianos sino también del Ecuador. (ROBLES, 2009) Posteriormente, Mutis se trasladará a Santafé de Bogotá donde continuará su labor de clasificación botánica. (FRIAS, 1995) En todo este proceso, la labor del sueco Carl Linneo fue fundamental tanto por su apoyo, como por establecer las bases principales del método de clasificación naturalista seguido por Mutis. (AMAYA, 2008) II Lineo colaborador en La Real Expedición Botánica Carl Linneo, (1707-1778) naturista sueco desarrolló un método de nomenclatura de clasificación de plantas y animales de carácter binómico basado en las partes sexuales de las plantas, el cual fue utilizado por Mutis en los trabajos de la expedición. Linneo “clasifica las especies florísticas por medio de los sistemas reproductores de la planta y se puede evidenciar en la observación a simple vista ó microscópica de las partes de la flor, estambre etc., “siendo traducido e introducido en España en la época de ilustración.” (PIEDRAHITA, 2008) Mutis realizaba continuos envíos de especímenes de las plantas recopiladas a Linneo con dos finalidades: la primera, que el sabio sueco captase la originalidad de las especies recopiladas; y segundo, le apoyase en su reconocimiento europeo como uno de los mayores naturalistas españoles y americanos. De esta manera, Linneo se convirtió en el patrocinador intelectual de la labor de Mutis; llegando a nombrarlo uno de sus “apóstoles naturalistas” en el proceso de identificar la enorme variedad mundial de especies vegetales. .2

Pedro Messía de la Cerda (1700-1783), militar español, marqués de la Vega de Armijo, virrey de Nueva Granada (1761-1772). Nació en Córdoba en 1700. Ingresó en la Real Compañía de Guardias Marinas de Cádiz. Participó en varias campañas militares (Cerdeña, Sicilia, Orán). En 1720 realizó su primer viaje a las Indias y en 1721 se dedicó a reprimir el contrabando en Cartagena y Portobelo. Después de varios servicios a la Corona, ascendió a teniente general en 1755. En 1760 fue nombrado virrey de Nueva Granada y tomó posesión al año siguiente. Reorganizó la Hacienda, reforzó las fortificaciones de Cartagena y promovió obras públicas, como el camino de Santa Fe a Caracas. Creó la Fábrica de Pólvora de Santa Fe e impulsó la enseñanza superior. Para aumentar la recaudación monopolizó el Servicio o de Correos y gravó el consumo de aguardiente de caña, lo que provocó desórdenes públicos (sublevación en Quito en mayo de 1765). Renunció al cargo en 1771 y entregó el mando en 1772. Murió en 1783 en Madrid. Véase en Microsoft Corporation. Reservados todos los derechos. 1993-2003.

36


El reconocimiento de su labor por parte de Linneo, le sirvió a Mutis para obtener un prestigio ante la Corte Española y también virginal, del que carecieron otros naturalistas ilustrados; lo que le permitió obtener recursos económicos para continuar por espacio de tiempo dilatado su labor, y también apoyo para sus alumnos, especialmente Zea, quien gracias a su apoyo terminó siendo nombrado director del Real Jardín Botánico de Madrid. (SOTO, 1995) También el modelo taxonómico implementado por Linneo fue seguido por Mutis para el desarrollo de su iconografía botánica. (ROBLES, 1995) De esta manera, en cada lámina de dibujo se dispuso una figura tipo, a modo de un modelo ideal de representación, con sus correspondientes despieces florales; de manera que estos despieces, en los que se representaba las partes sexuales de la planta, permitían la clasificación según el método binario ideado por Linneo. (ROBLES, 1999) La iconografía desarrollada por Mutis innovo en el modelo diseñado por el naturalista sueco, ya que los dibujantes a las ordenes de Mutis introdujeron el color de la planta, un elemento que Linneo no tenía contemplado en su modelo, y que acercaba los planteamientos del naturalista español, a los que por entonces desarrollaba el naturalista Adamson, como respuesta al modelo de clasificación del sueco. (ROBLES, 2005) Los artistas de la expedición demuestran la finura y excelencia en el trabajo icnográfico, no sólo desarrollando excelentes láminas que han permitido se continúen hoy en día los trabajos de clasificación botánica dejados inconclusos por Mutis; sino que desarrollaron un tipo de trabajo en el que se puede ver de manera paradigmática la colaboración entre el arte y la ciencia. Colaboración que ha sido fundamental para el desarrollo de ciencias como la botánica, la zoología o la astronomía, por citar algunos casos relevantes. (ROBLES, 1999)

.

Fig.1 Fuente. MILLAM, Martha. Matis, dibujante de la expedición botánica: de discípulo díscolo a difusor del saber Mutisiano. Presentada en el evento: IV Coloquio Internacional de Historia Social y de la Ciencia “Mutis y la Ilustración”.

37


.

Fig. 2. Fuente. Representación de las clasificaciones establecidas por Linneo. DIAZ PIEDRAHITA, Santiago. Vida y obra de Mutis. Presentada en el evento: IV Coloquio Internacional de Historia Social y de la Ciencia “Mutis y la Ilustración”

Fig. 3. DIAZ PIEDRAHITA, Santiago. Vida y obra de Mutis. Sistema de clasificación. Presentada en el evento: IV Coloquio Internacional de Historia Social y de la Ciencia “Mutis y la Ilustración”.

38


Por otra parte, Mutis también desarrolló modelos de conservación de las plantas que estaban emparentados con los desarrollados en Europa por botánicos como Linneo. Como se ve en el anterior ejemplo la metodología de Mutis para la representación de las plantas es muy puntual en el sentido que se detallaban la representación y al llegar las colecciones 3 complementarias a las plantas las perfeccionaban. Las plantas se clasificaron de acuerdo a varios parámetros como la forma de la hoja “(Cinchona Lanceifolia (forma de espada))”. (PIEDRAHITA, 2008) Las ventajas de hacer las representaciones y no tener un herbario es que las plantas se conservan más tiempo en las láminas que en las disecadas ya que con el tiempo se deforman y se van descomponiendo y no se ve con la misma nitidez que una lamina. Otra forma de clasificar la especie nueva descubierta era dándole el nombre de algún ilustre 4 naturalista botánico de la época. Tenemos el caso de la Mutisia Clematis que el mismo Linneo le dedica al ilustre José Celestino Mutis. III Etnobotánica factor primordial en la realización de La Real Expedición Botánica Por último, otro factor a destacar de La Expedición Botánica fue que a lo largo de la realización de ésta, Mutis trabajo con información proveniente del mundo indígena americano. Ya que eran las comunidades indígenas las que poseían el conocimiento ancestral sobre las especies vegetales y su aplicación para curar ciertas enfermedades: “La Botánica Indígena es la relación entre la vegetación y las tribus primitivas que poblaron el nuevo mundo contiene un justo reconocimiento del valor de la etnobotánica precolombina y registra, sobre todo, una tendencia común, de nuestros científicos: médicos, farmacológicos de ordinario por la etnología, usos, costumbres, medio y recursos de nuestros aborígenes; para conservar sus vestigios, identificar sus materias primas y elaborarlas para el bien del mundo enfermo”. “Investigar cual fuera la extensión e importancia de los conocimientos botánicos que tuviera los aborígenes serían ciertamente 3

Las láminas terminadas que están en el Real Jardín Botánico de Madrid guardan algunos dibujos y bosquejos de hojas, flores y otras estructuras específicas, en ocasiones acompañadas de instrucciones que debían seguir los artistas para una apropiada representación de las planta. Véase en Historia Natural y Política: Conocimiento y Representaciones de la Naturaleza Americana, Botánicas y Manufactura de Especies. http://www.lablaa.org/blaavirtual/exhibiciones/historia-natural-politica/hnp-13.html.Mauricio Nieto. Extraído desde Internet online 29-05-09. 4

Mutisia Clematis, es un bejuco que es planta trepadora y de hojas compuestas, posee una flor muy llamativa por que tiene un color rojo intenso y vivo en sus pétalos lo que le permite ser atractivo para los polinizadores tales como coliflores, abejas, insectos importantes dispersores de las semillas de esta especie. Véase en: José Celestino Mutis, “El Precursor de La Botánica en La Nueva Granada”.

39


una obra digna de toda clase de esfuerzos por el provecho incalculable que de ella pudieran reportar la ciencias y las artes”. (VEZGA, 1971) Los conocimientos indígenas sobre el uso medicinal de las plantas fueron descritos desde la época de la colonización por los evangelizadores. Colaboradores de Mutis como Caldas resaltan estos conocimientos ancestrales en su tratado sobre la picadura de serpiente (el mismo es picado por una, poniendo en práctica sus curación), utilizando el Noanama (ROBLES, 1999) (indígena acompañante) la Beslerias “eficaz para esta picadura y se encuentra en países ardientes y templados y no falta en los fríos”. (ROBLES, 1999) CONCLUSIONES La Expedición Botánica marco la época de la colonia ya que se tomaron como referencia varios campos de acción tales como etnobotánica, botánica, zoología, cartografía, sociología, etc. Linneo fue parte primordial la Expedición Botánica con su sistema de clasificación de las especies vegetales, empleado activamente por Mutis. Mutis toma como referencia a Linneo para realizar la respectiva iconografía de las especies vegetales de la Expedición Botánica; aunque fue mucho más allá de lo que había ido el naturalista sueco. Las poblaciones étnicas desempeñaron en la Expedición Botánica un papel informativo fundamental; aunque este papel la ciencia de la época lo desconoció en su mayor parte. Lo que supone que nuestras investigaciones tienen que estar destinadas a restaurar esta deuda histórica que tiene la ciencia moderna occidental con el saber indígena americano.

BIBLIOGRAFÍA ? DE PEDRO ROBLES, Antonio E. (1999). El diseño científico: ss. XV-XIX. Madrid, AKAL. ? PEDRO ROBLES, Antonio E. “Las imágenes de los hechos naturales: del Icono a los Cuadros de la Naturaleza”,

en: DIEZ TORRE, Alejandro y otros (coordinadores) (1995). De la Ciencia Ilustrada a la Ciencia Romántica. Madrid, Ateneo y Doce calles., pp. 344-356. ? FRIAS NUÑEZ, Marcelo. “Ciencia y política: el proyecto botánico de la Nueva Granada”, en: DIEZ TORRE,

Alejandro y otros (coordinadores) (1995). De la Ciencia Ilustrada a la Ciencia Romántica. Madrid, Ateneo y Doce calles., pp. 159-167.

40


? PINTO, Escobar Polidoro. DIAZ, Piedrahita Santiago (1973).

José Celestino Mutis 1732 -1982. Bogotá D.E.

Empresa Editorial Universidad Nacional.

? SOTO Arango, Diana, “Francisco Zea, un criollo ilustrado, director del Real Jardín Botánico de Madrid”, en: DIEZ TORRE, Alejandro y otros (coordinadores) (1995). De la Ciencia Ilustrada a la Ciencia Romántica. Madrid, Ateneo y Doce calles., pp. 295- 312.

? SOTO ARANGO, Diana (2005). Mutis el Educador de la Élite Neogranadina. Tunja-RUDECOLOMBIA. Búhos Editores, Pág. 49

? VEZGA, Florentino (1971). La Expedición Botánica. Cali-Colombia. Editorial Carvajal & Compañía. Pág. 35 INFOGRAFÍA

? C o m i e n z a L a

E x p e d i c i ó n

B o t á n i c a ,

E l

r e d e s c u b r i m i e n t o .

http://www.colombialink.com/01_INDEX/index_historia/04_las_fundaciones_y_poblamiento/0020_expedicion_b otanica.html. José Antonio Amaya. Extraído desde Internet online el 26-01-09

? http://www.lablaa.org/blaavirtual/exhibiciones/historia-natural-politica/hnp13.htm.Mauricio

Nieto. Extraído

desde Internet online 29-05-09.

? La expedición Botánica. www.sogeocol.com.co/documentos/011aexp.pdf. Extraído desde Internet online el 0411-2008.

EVALUACIÒN DEL EFECTO SANITIZANTE DE UN EXTRACTO BIODEGRADABLE OBTENIDO DE LA ESPECIE SOLANUM MARGINATUM, DE USO ETNOBOTÀNICO EN BOYACÀ GARCÍA COLMENARES MAURICIO*, CASTELLANOS C. MARÍA CRISTINA**. *Semillero de investigación en Química Ambiental. **Directora del Grupo de Investigación Química Ambiental. Facultad de Ciencias Básicas. Programa Química de Alimentos. Universidad Pedagógica y Tecnológica de Colombia. fabrycy08@gmail.com RESUMEN Este trabajo tiene como propósito la evaluación del extracto de “lulo de perro”, en calidad de limpiador sanitizante biodegradable. Así contribuir a la calidad e inocuidad en la industria alimentaria y reducir el impacto negativo del medio ambiente. El proyecto se realizo con

41


material biológico recolectado quincenalmente durante tres meses del corredor universitario de la ciudad de Tunja. La extracción de saponinas se llevo a cabo siguiendo el proceder de M. E. Wall 1958. Se realizo ensayos químicos cualitativos en la concentración hidroalcohólica obteniendo pruebas positivas. El potencial sanitizante es más eficaz a una concentración de 10% después de 6 minutos de contacto sobre microorganismos bacilos gram negativos, presentando un porcentaje de inhibición máximo de 99.588%, datos comparados frente a sanitizantes comerciales (Mat-98 y Germigel). La aglicona (sapogenina) se obtuvo por hidrólisis según el proceder de R. Segal 1966; la cual se identifico mediante espectroscopia infrarroja y punto de fusión asignando la estructura correspondiendo a hecogenina. PALABRAS CLAVES: solanum marginatum, saponinas, sapogenina, hecogenina biozanitizante, porcentaje de inhibición, desinfectante, hidrólisis. INTRODUCCIÓN La familia de las solanáceas abarca las plantas del género Solanum que contienen sustancias de estructura similar a las saponinas, los glucósidos de esteroides o de triterpenoides, llamadas así por sus propiedades similares al jabón, de emulsionar la grasa dado que cada molécula está constituida por un elemento hidrofóbico (el esteroide o el triterpenoide) y un elemento hidrofílico (azúcar), con formación de espuma cuando son agitadas en agua. (Fieser, L. et al. 1959). Otras regiones latinoamericanas han reportado el uso etnobotánico de especies Solanum como agentes limpiadores. En Colombia se han realizado estudios de la composición de este fruto, determinando y caracterizando ciertos alcaloides, ( Sanabria 1974 y Herrera 1970) sin embargo, se desconoce la evaluación de la especie “lulo de perro” como agente limpiador que se ha utilizado en la Provincia Norte de Boyacá tradicionalmente. En la especie solanum se ha reportado la extracción con etanol y butanol. (M. E. Wall et al 1958). En el desarrollo de este trabajo se realizo la extracción con etanol al 70% y n-butanol. Mediante ensayos químicos cualitativos se identifica la presencia del limpiador activo de interés en el trabajo. El objetivo del presente trabajo fue evaluar el potencial sanitizante a través de una prueba estándar de desinfección, con el fin de cuantificar el porcentaje de inhibición de microorganismos. Los resultados fueron comparados con limpiadores comerciales de uso en la industria alimentaria. La estructura química fue asignada teniendo en cuenta punto de fusión y espectroscopia infrarroja, comparado con dos patrones.

42


PARTE EXPERIMENTAL Recolección y Preparación de la muestra: El material biológico fue recolectado quincenalmente durante tres meses (octubre y noviembre de 2008 y febrero de 2009) del corredor universitario de la ciudad de Tunja. Se empleo técnica manual para separar la pulpa del fruto y se redujo a trozos de 0.5 cm. Se coloco en un horno de secado (MLW) a 45 ºC, durante 9 días. El sólido se paso a través de un molino mecánico (corona). Luego se tamizo (tamiz 17 N-100). Extracción del Crudo de Saponinas Se llevo a cabo siguiendo el proceder de M. E. Wall et al 1958. Se tomo 400g del material seco tamizado y se macero en 1600 ml de etanol al 70% durante 48 horas. Se filtro y se macero nuevamente en solvente renovado durante 24 horas. Los extractos hidroalcohólicos se concentraron en rotoevaporador (BÛCHI R-205), el residuo se desengraso con éter de petróleo, la parte acuosa de disolvió en 40 ml de agua destilada, se extrajo hasta máximo agotamiento con n-butanol y se concentro hasta obtener un residuo pastoso correspondiendo al crudo de saponinas. Identificación e Hidrolisis de Saponinas Se realizo ensayos químicos cualitativos para determinar posibles saponinas en el extracto concentrado hidroalcohólico. Para la hidrólisis se realizó según el proceder descrito por R. Segal et al. (1966) que consiste en 2 g del crudo de saponinas se disolvieron en 50 ml de etanol al 50 %. A esta disolución se añadió 10 ml de solución de KOH 1mol/L en metanol, y se hizo el reflujo durante 2 horas. La solución se refrescó y se acidificó ligeramente con solución de HCl 0,5 mol\litro y se evaporó el solvente con una corriente de aire a temperatura ambiente. El residuo se lavó 2 veces con agua y se cristalizó en metanol. Evaluación del Efecto Sanitizante Se llevo a cabo sobre superficies de mesones de trabajo de la cocina del restaurante estudiantil de la Universidad Pedagógica y Tecnológica de Colombia sede Tunja. Se siguió el proceder de A.K Carrascal Camacho, A. Páez Morales y M. Burbano Rosero. Para evaluar porcentaje de inhibición de microorganismos: bacilos gram negativos. Comparado con dos desinfectantes comerciales, (mat 98 y Germigel) Asignación de Estructura Química Los cristales (sapogenina) se identificaron por medio de espectroscopia infrarroja y punto de fusión. Los resultados se compararon con dos patrones (diosgenina y hecogenina) y se asigno la estructura química.

43


RESULTADOS Y DISCUSIÓN Materia seca Se obtuvo 42,55% ± 0,27% de pulpa fresca, pulpa seca 4,06% ± 0,97%. Luego de tamizado el material se redujo en 1 %. El valor de rendimiento del material seco es bajo debido al alto contenido de agua y otros sustancias volátiles que la pulpa presenta: 95,64 – 96.8109%. Obtención del Crudo de Saponinas Se obtuvo un residuo n-butanoico de consistencia pastosa y color rojo quemado con un peso: 39,19 –42,2g. Que corresponde al crudo de saponinas, con rendimiento de 79%. Identificación de Saponinas Se realizo ensayos químicos cualitativos para determinar posibles saponinas. Con este estudio se analizo la presencia del agente activo (saponina) en el extracto de concentración hidroalcohólica de interés en el trabajo. Como se observa en la tabla 1.

.

Todos los ensayos son positivos. Para el caso de saponinas los ensayos son muy positivos. Para espuma luego de agitar la muestra durante dos minutos se presento una densa capa de espuma de 2.2 cm, la cual se mantuvo por más de 6 horas. Esta prueba solo es presuntiva. Para confirmar presencia de saponinas por medio del ensayo de hemolisis el cual es muy positivo, ya que al adicionar el extracto sobre medio de cultivo agar sangre se presento lisis de los glóbulos rojos en el área afectada. Para el caso de antrona se presento un leve anillo azul en la interfase indicando una reacción ligeramente positiva. En ensayos más específicos triterpenos y esteroides (Liebermann–Burchard, Salkowski, Rosemheim) es siempre positivo. Para el primer caso al final de la reacción aparece un color negro indicando que hay cantidades importantes del analito de interés. Por presentar coloración azul verdoso indica la presencia de saponinas de estructura esteroidal. Para el caso de sapogeninas (vainillina), la reacción presento colores variables indicando una reacción positiva.

44


Evaluación del porcentaje de inhibición Con esta prueba se evaluó el potencial sanitizante del extracto biodegradable, comparado con dos desinfectantes comerciales. Datos representados en la grafica 1. El porcentaje de inhibición sobre los microorganismos gram negativos depende de la concentración del bio sanitizante y al tiempo de contacto sobre estos. El mayor porcentaje se da a partir de los 6minutos a una concentración del 10%, logrando un máximo de 99,58% de inhibición. El pH afecta tanto la carga neta de las bacterias como el grado de ionización del agente. En general las formas ionizadas de los agentes disociables pasan mejor a través de las membranas biológicas y por tanto son más efectivos. El bio sanitizante es un agente aniónico con grupo carbonilo como porción hidrofílica, con pH ácido de 4.5. Los desinfectantes comerciales (Mat-98 y Germigel), son agentes catiónicos con pH 11.7 y 11.9.

Hidrólisis del crudo de saponinas A partir de 5g de crudo de saponinas tomados para realizar el proceso de hidrólisis, se obtuvo 1,265g de sapogenina; con un rendimiento de 24,1% con respecto al crudo. Respecto al material biológico presento un rendimiento de 0,12%, es relativamente bajo ya que el fruto presenta un 39,846% de semillas, un 17,62% de corteza y un 42,55% de pulpa que es donde se encuentra el analíto de interés. Identificación de la sapogenina Se tuvo como referencia dos patrones de saponinas: diosgenina y hecogenina. El punto de fusión determinado del analíto de interés fue 255 -258ºC. Comparado con los patrones se asemeja más a la hecogenina, la cual tiene p.f de 258–262ºC. Prosiguiendo con el proceso de identificación de la saponina se obtuvo el espectro infrarrojo en un equipo shimadzu prestige. El cual se evidencia en el espectro 1.

45


Se puede observar claramente bandas pronunciadas y limpias, indicando que la sustancia es de buena pureza. Se presentaron las siguientes bandas de vibración y tensión: grupo OH a una longitud de onda de 3304,06 cm-1, en teoría se reporta de 3500 – 2500 cm-1, grupos CH a 2927,94-2852,72 cm-1, en teoría se reporta de 2850 – 3095 cm-1, grupo carbonilo C=O a 1726,29 cm-1, teóricamente se reporta de 1690 – 1760 cm-1; Al igual se confirma la presencia de los grupos CH: CH, CH2 Y CH3.en una longitud de onda de: 1606,92, 1446,61 y 1360,60 cm-1. Hacia 1202,66 cm-1 hay una tensión del grupo C-O, en teoría se reporta de 1050 – 1300 cm-1. Este espectro comparado con el patrón hecogenina de la biblioteca del equipo tiene una similitud de un 99%. Al igual el punto de fusión coincide. La estructura de la sapogenina presente en la especie Solanum marginatum corresponde a la hecogenina. Estandarización El rendimiento de los productos en las diferentes fases del proceso de obtención de hecogenina realizadas por triplicado se muestra en la tabla 3.

.

El rendimiento final de sapogenina es relativamente bajo si se tiene en cuenta que la parte del material biológico que la contiene representa el 42.55% del fruto y al ser secado representa el 4,06% de este, que es donde se encuentra este analíto de interés. CONCLUSIONES El biosanitizante presenta mayor eficiencia sobre los microorganismos (gram negativos) a una concentración del 10% y un tiempo de acción después de 6 minutos, presentando un porcentaje máximo de inhibición de 99,58%. Los sanitizantes comerciales (Mat-98 y Germigel), presentan un porcentaje de inhibición superior, pero generan productos insolubles, deteriorando el medio ambiente y causando problemas de salud a quienes lo manipulan. El biosanitizante extraído compensa la poca diferencia de inhibición (0,412%) con su particularidad de cuidar el entorno ambiental.

46


El agente activo responsable del efecto sanitizante de la especie Solanum marginatum según P.f y I.R corresponde a una saponina conocida como hecogenina. El rendimiento de hecogenina en frutos de la especie Solanum marginatum fue 0,103% con respecto al material biológico y 24,1% con respecto al material seco. Se recomienda Llevar a cabo la extracción del compuesto activo de esta especie, en fase húmeda con fines de comparar su eficiencia frente a la extracción seca.

BIBLIOGRAFÍA

? A.K Carrascal Camacho, A. Páez Morales y M. Burbano Rosero. Manual de laboratorio: Microbiología de alimentos. Colombia 1998.

? Fieser, L et al, saponinas esteroides. Revista cubana de farmacia. Cuba 1959. ? Herrera, A., Kecán, G. análisis fitoquímico y farmacológico del solanum marginatum, Rev. Colombiana ciencias químico-farmacéuticas. Bogotá 1970

? Hernández R. R. Obtención de crudos de saponinas. Cuba 1997 ? Hostettman, K., Marston, A.; "Chemistry and Pharmacology of Natural Products. ? Martínez M. A. Saponinas esteroides. Rev. Universitaria de Antioquia. Colombia 2001 ? M. E. Wall et al. Saponinas esteroidales y triterpénicas. Anal Chem 1952;24:1337-41 1958 ? Sanabria A. alcaloides del solanum marginatum. Revista colombiana de ciencias químico-farmacéuticas. Bogotá 1974.

? Saponins", Cambridge University Press, New York, NY, 1995, 548 pp, ISBN 0-521-32970 ? R. Segal et al. Saponinas esteroidales y triterpénicas. USA 1966. .

BIOINFORMÁTICA, MÁS QUE UNA HERRAMIENTA DE INVESTIGACIÓN MEDINA CAMILO A. Grupo GEBIMOL semillero GIGA biohazard1916@gmail.com La bioinformática inicio con el análisis de secuencias de ADN, hoy en día maneja un océano de información, es muy probable que en ella este la clave para entender mas ampliamente

47


los procesos evolutivos, las causas de las enfermedades, los procesos celulares, etc. De una forma general podemos ver a la bioinformática como la tecnología de la información, la matemática y la estadística empleadas para organizar, analizar y distribuir información (Attwod T.K.1999) (incluyendo secuencias de nucleótidos y aminoácidos, dominios de proteínas y estructura de proteínas) esto con el fin de dar solución a incógnitas de origen biológico. Debido a la gran evolución de esta disciplina se han creado diferentes centros especializados en esta área, encontrando así: NCBI, DDBJ (DNA Database of Japan), EMBL-EBI (Molecular Biology Laboratory). por dar un ejemplo, en el NCBI1 (centro nacional de información biotecnológica) hallamos bases de datos especificas de ARN en donde permiten el análisis de secuencia transcritas organizadas (unigen) de tal forma que represente un gen; de proteínas las cuales las muestran de una forma depurada o de forma tridimensional al igual que secuencias traductoras; de perfiles la cual realiza generalmente alineamientos entre proteínas y perfiles de las familias de estas proteínas para encontrar patrones (Wheeler D. et al. 2006). Una herramienta muy empleada en estas páginas por su utilidad al comparar secuencias es el BLAST, el cual nos permite después de realizar una búsqueda secuencias de ADN o proteínas compararla con una secuencia de nuestro interés1. De esta forma si uno quiere saber si el organismo con el que esta trabajando es verdaderamente la especie requerida puede ampliar una secuencia de un fragmento corto y definido y luego de comparala con las secuencias almacenadas en las bases de datos, dándonos similitudes y diferencias en parámetros estadísticos. Esto es de un uso práctico enorme, un ejemplo de esto lo demuestran las investigaciones en microbiología en las cuales se han identificado los genes causantes de patogenicidad al comparar cepas de una misma especie bacteriana diferenciadas una de otra por la capacidad patogénica. Las áreas concretas de aplicación por medio de las cuales se despliega la bioinformática encontramos la genómica, la proteogenómica, la farmacogenética y la filogenia (Wheeler D. et al.2006). Dentro de los usos investigativos de esta disciplina esta el de comparar especies (o cualquier taxón) por medio de alineamientos múltiples permitiéndonos saber que funciones y estructuras presentan en común, además de descifrar que tan relacionadas se encuentran estas especies, ver rasgos comunes, definir homologías, analogías, caracteres plesiomórficos, etc.; esto nos permite la construcción de filogenias obteniendo así información sobre las relaciones evolutivas y en un contexto mas amplio entender la historia de la vidade cada organismo. Si llevamos este conocimiento al campo de la biogeografía y si le interpretamos bien se pueden llegar a comprender procesos geológicos de gran escala como lo son el tiempo de separación de continentes; de la misma forma es posible rastrear el origen de un genoma en tiempo y espacio probando así la distribución de una especie en una era definida, lo cual sumado a un conocimiento climático nos da una amplia visión de la relación de esta especie con su medio. un estudio de este tipo se hizo con el hombre por medio de el ADN mitocondrial llevando el surgimiento de nuestro linaje hasta el las tierras africanas (Shreeve J. 2006).

48


BIBLIOGRAFÍA

? Wheeler D. et al. 2006. Database resources of the national center for Biotechnology information. Nucleic Acids Research, 2007, Vol. 35, Database issue Shreeve J. 2006. Genetic trails left by our ancestors are leading scientists back across time in an epic discovery ? of human migration. National Geographic Society

? Attwood T.K., Parris - Smith D.J. 1999. Introducción a la bioinformática. Prentice Hall INFOGRAFÍA

? http://www.ncbi.nlm.nih.gov/ 1

49


RevistaSemilleros .

t


Titulo: De la serie “Rayando la Ruina” Fotrográfia: Elkin Colmenares Dulcey Colectivo: En la Ruina Integrantes: Elkin Colmenares, Manuel Barrera, Wilman Zabala. 2010


DESCRIPCIÓN FENOMENOLÓGICA DE LA ECOLOCALIZACIÓN, IMÁGENES A PARTIR DE SONIDOS PEÑA JULLY P. Grupo de Física de Materiales GFM Escuela de Física, Facultad de Ciencias Básicas 1 jully.pena@uptc.edu.co

RESUMEN Muchos animales utilizan el sonido como herramienta de ubicación y supervivencia, por esta razón, sus sistemas auditivos han evolucionado eficazmente asegurando su conservación en la naturaleza;uno de los procesos más interesantes desarrollados por estos sistemas biológicos es la ecolocalización, fenómeno consistente en la ubicación y reconocimiento del medio ambiente a través del análisis de ondas sonoras de alta frecuencia y que ha alcanzado su máxima perfección, en los murciélagos. Aquí,este fenómeno abordado en su descripción fenomenológica desde el punto de vista físico en cuanto al estudio de las ondas mecánicas y biológico desde la recepción y análisis de sonidos en estos animales. PALABRAS CLAVES: Ecolocalización, sonido, sistema auditivo.

1. INTRODUCCIÓN El sonido es un fenómeno ondulatorio cuyas características físicas son aprovechadas por los sistemas sensoriales de los seres vivos, en general, como medio de comunicación;sin embargo, en algunos animales, la percepción de los sonidos se ha desarrollado alcanzando grados de utilidad y sofisticación que aventajan en sumo grado los sentidos del ser humano. Los sistemas biológicos son por lo general, susceptibles a la interacción con ondas sonoras de baja frecuencia (infrasonidos), animales que utilizan esta situación son, por ejemplo, los tigres, que hacen uso de infrasonidos ligados al rugido para confundir a sus presas o atacantes, así mismo,los elefantes utilizan estas señales para comunicarse a grandes distancias ( que pueden llegar a ser del orden de los kilómetros)enviando infrasonidos por el aire y el suelo;por otro lado, ondas sonoras de alta frecuencia son utilizadas por los murciélagos, en estos, cobran la mayor importancia y utilidad pues ellos dependen casi en

52


2. DESARROLLO La ecolocalización es un proceso físico consistente en la emisión de pulsos sónicos de alta frecuencia por parte de un animal, este los recibe y analiza en forma de reflexiones sonoras o ecos para formarse imágenes mentales en 3D del espacio que lo rodea [ Altringham. 1996]; esta herramienta hace uso de fenómenos físicos asociados con las ondas como la reflexión, refracción y el efecto Doppler. La reflexión es un fenómeno ondulatorio asociado con características físicas del sonido como su frecuencia y longitud de onda; se produce cuando una onda incide sobre un objeto y se devuelve al no poder atravesarlo; si el tamaño del objeto es pequeño, comparado con la longitud de onda, esta lo rodeará, de lo contrario, la onda se reflejará generando un eco [ Crawford.1976], este eco es recogido y procesado por los animales que utilizan ecolocalización y de este pueden obtener información como la distancia a la que está un obstáculo, su tamaño, forma y textura, esto lo hacen midiendo el tiempo de diferencia entre el sonido original y su eco y el cambio en frecuencia y amplitud del mismo. El sofisticado sistema auditivoneuronal del murciélago le permite recoger y analizar esos reflejos para orientarse y cazar con efectividad. Los murciélagos emiten sonidos en un rango de frecuencias muy amplio que recorre desde los sonidos audibles para los humanos, durante la comunicación con otros murciélagos, hasta ultrasonidos ( sonidos de altísima frecuencia, por encima de 20 kHz)usados en la ecolocalización [ Altringham. 1996]; cuyas altas frecuencias garantizan cortas longitudes de onda (desde unos tres milímetros hasta algunos micrómetros) capaces de reflejarse en presencia de objetos pequeñísimos del tamaño de un mosco y del grosor de un cabello humano. Si se encuentran ondas cuyas frecuencias son similares e interactúan una con la otra se modifican las características originales de ambas, este fenómeno se conoce como interferencia; en la ecolocalización se evita al máximo que se presente este fenómeno por la complejidad que implicaría para el animal la clasificación de ondas modificadas de este modo y no por los objetos presentes en el ambiente. Las altas frecuencias sirven para evitar la interferencia ya que hay pocos sonidos tan altos en la naturaleza, además, ondas de estas frecuencias no viajan lejos antes de reflejarse y no alertan a posibles depredadores ya que no son capaces de oír estos sonidos [ Neuweiler. 2000]. Los murciélagos producen los ultrasonidos en la laringe y controlan su frecuencia a través de ajustes de la tensión en las cuerdas vocales. Las ondas sonoras se producen como consecuencia de una compresión en el aire, la cuál, genera un enrarecimiento en e l aire

53


circundante y este a su vez, otra compresión, así se propaga la onda y la velocidad con que lo hace depende de características del medio como densidad, temperatura y presión. Estas ondas chocan con los diferentes objetos y regresan en una dirección determinada de acuerdo con la ley de Snell de la reflexión que, para el caso del murciélago, que está de frente al objeto, es la misma dirección de emisión, la comparación de la onda enviada con la recibida proporcionan la información necesaria para trazar un mapa mental del medio. Las orejas de los murciélagos tienen movimiento independiente y pabellones auditivos grandes para enfocar la onda hacia el tímpano y aumentar en este la presión, las vibraciones pasan por huesos del canal auditivo que finalmente generan señales eléctricas hacia el cerebro el cuál posee dos clases de neuronas utilizadas en ecolocación: una para activar los músculos que producen el sonido y otra para procesar los ecos, estas últimas están distribuidas por toda la corteza cerebral y se subdividen para analizar los ecos provenientes a tiempos diferentes, es decir, cada zona del cerebro analiza ecos con determinado tiempo de retraso luego de la señal emitida [ Neuweiler. 2000]. Estos mamíferos emiten sonidos de ecolocalización en pulsos que son diferentes para las diferentes especies de murciélagos, en algunos, estos pulsos son de frecuencia modulada FM y en otros de frecuencia constante FC [ Altringham.1996], sin embargo suelen presentarse juntos, aprovechando las ventajas que cada uno ofrece. Las ondas de frecuencia modulada tienen pulsos no constantes, es decir, su frecuencia varía en rangos de 30 kHz a 60 kHz con una duración de 0.2 ms a 5.0 ms, esto para evitar que la onda regrese antes que el pulso termine de ser emitido (mientras es enviado un sonido, el canal auditivo está cerrado para evitar el daño a órganos sensibles a sonidos muy fuertes) [ Neuweiler.2000]; los pulsos de FM se caracterizan por empezar con frecuencias bajas en las fases de búsqueda y ubicación y un aumento gradual de la misma cuando el animal se acerca a la presa, cuanto más cerca esté de ella el murciélago necesita más exactitud en su ubicación, con el aumento de frecuencia evita que el sonido se desvíe por su baja longitud de onda, así tendrá mayor poder de penetración lo cuál da indicios sobre la composición interna del objeto próximo, de esta manera, el murciélago varía las frecuencias para determinar posición, velocidad, tamaño, forma y textura del blanco. Por el contrario, los pulsos de FC, mantienen la misma frecuencia durante la emisión del pulso, estos duran de 10 ms a 50 ms y sus frecuencias son un poco menores por lo que las ondas cubren distancias mayores y no se atenúan tanto en el aire, por esta razón se usan en la fase de búsqueda;sin embargo,estos no proporcionan información sobre la estructura

54


de búsqueda se introducen los armónicos (frecuencias que son múltiplos de la frecuencia natural de oscilación de las cuerdas vocales del murciélago) para aumentar la frecuencia [ Neuweiler. 2000]. Como en las llamadas FC los pulsos no cambian de frecuencia, los murciélagos no pueden determinar la posición o velocidad del blanco por la diferencia en frecuencia en la onda reflejada en sí misma, para el cálculo de estos parámetros hacen uso del efecto Doppler, este es un fenómeno físico consistente en el cambio de la frecuencia de una onda percibida por un observador debido al movimiento relativo entre fuente y receptor [ 4]. En el caso de los murciélagos, estos se mueven con la misma velocidad ya que el animal cumple los dos papeles. Cuando el murciélago está en reposo y la presa se mueve, la frecuencia de la onda reflejada percibida por el murciélago es menor si la presa se aleja y mayor si ésta se acerca, así puede conocer la posición y la velocidad determinando que tanto está aumentando o disminuyendo la frecuencia percibida,es decir cuanto está variando el tiempo de retorno de la onda reflejada. Generalmente, los murciélagos no están en reposo sino que se mueven tras la presa, en este caso, una señal que es emitida, llega a la presa en un tiempo t1 y se refleja volviendo al emisor en un tiempo t11 que depende de la velocidad con la que se mueva el murciélago con respecto al blanco, ya que este será mayor si la velocidad del murciélago es menor y menor si este se mueve más rápido;cuando se emite una segunda señal, esta de nuevo da en el blanco en un tiempo t2 y llega al murciélago en t22, así el periodo medido por el murciélago es la diferencia entre los tiempos medidos t22 y t11,y la diferencia de la frecuencia será por supuesto el inverso de ese periodo,con esa diferencia comparada con la frecuencia de emisión del sonido, el murciélago puede ubicar a su presa en posición y velocidad sin tener que cambiar la frecuencia durante los pulsos;sin embargo, los murciélagos procuran cambiarla para que la frecuencia percibida de la onda reflejada esté alrededor de los 82 kHz pues sus oídos están “ afinados”para ser más sensibles a sonidos de esta frecuencia [ Neuweiler. 2000]. La combinación efectiva de estos dos tipos de llamada garantiza la efectividad en la caza, consecución de alimento y ubicación en absoluta ausencia de luz. Se conocen dos mecanismos por los que los murciélagos no confunden sus sonidos con los de otros: uno consiste en suprimir del primero de los armónicos de sus cuerdas vocales alrededor del 1% de su energía, con esto disminuye la amplitud y el eco se hace tan débil que no es capaz de abrir los canales auditivos de otros murciélagos;el otro método es un complicado sistema neuronal que durante pulsos combinados de FC/FM, sólo procesa pulsos reflejados de FM precedidos de pulsos FC con la apropiada diferencia temporal, así

55


el murciélago ignora pulsos de rangos temporales diferentes porque “ conoce”los suyos propios y el tiempo que debe haber entre ellos; además, cada murciélago tiene un timbre con pulsos y frecuencias propios tal como cada persona tiene una voz propia diferente a las demás. Hasta ahora, no se ha comprobado que al igual que las ballenas los murciélagos posean algún sistema sensorial magnético, por lo que se asume, que aún en viajes largos, estos usan la ecolocalización para volver a sus hábitat por el reconocimiento amplio en 3D de los objetos familiares a la cueva de cada uno,esto pueden hacerlo aunque haya medios diferentes por los que deban atravesar, pudiendo también reconocer e interceptar objetos en el agua, para esto utilizan otro fenómeno típicamente ondulatorio, la refracción, basado en la diferencia de la velocidad de propagación en medios diferentes, este cambio de velocidad cambia también la dirección, así la onda refractada atraviesa el medio pero se desvía, los murciélagos son capaces de percibir ese cambio de dirección y velocidad además de la diferencia de texturas entre el agua y la tierra [5]. El fenómeno de la ecolocalización en murciélagos ha sido estudiado por centros de investigación en biología y física de todo el mundo desde antes de la segunda guerra mundial,pero, aún así,son muchos los mecanismos y procesos implicados que son desconocidos por la ciencia y son objeto de estudio en la actualidad.

3. CONCLUSIÓN La ecolocalización puede entenderse como un sistema de percepción sensorial dependiente de las propiedades físicas de los fenómenos ondulatorios, en particular, de la reflexión y refracción de las ondas sonoras además del efecto Doppler, estos le permiten a ciertos animales adecuarse al medio obteniendo de este información detallada para su supervivencia en el mismo; aunque no todos los procesos biológicos pueden ser explicados aún por la física, estos son tomados como base para la elaboración de sistemas artificiales que los imiten aunque por el momento estos se encuentren ante un abismo de desventaja con los sistemas naturales los cuales son el resultado de miles de años de evolución. En los seres vivos los sistemas físicos y biológicos se combinan dando lugar a complejos procesos que son base del estudio de la mayoría de las ciencias.

56


BIBLIOGRAFÍA l l [1] ALTRINGHAM,John

(1996): Bats, Bio logt and Behaviour.New York. Oxford University.

l [2] NEUWEILER, Gerhard (2000): The Biology of Bats. New York. Oxford University. l [3] CRAWFORD Jr, Frank (1979) Ondas, España. Editorial Reverté S. A. l [4] FRANCO Ángel, Física con ordenador l http:/www.fisica con oordenador/ ondas/ doppler l [5] http: / www.physics.ius.edu/argentina, reflexión y refracción de ondas sonoras

APLICACIÓN DEL ALGORITMO RUNGE – KUTTA EN LA OBTENCIÓN DE ÓRBITAS ESTELARES EN GALAXIAS ESPIRALES FONSECA, EULISES A. Grupo de Física Teórica y Computacional, Escuela de Física, Facultad de Ciencias Básicas, Universidad Pedagógica y Tecnológica de Colombia. alejofonseca_44@hotmail.com RESUMEN Se hace una revisión del algoritmo de Runge – Kutta de cuarto orden, aplicado a la solución de las ecuaciones de movimiento para una partícula moviéndose bajo la acción de un potencial arbitrario y se da a conocer algunos resultados del empleo de este en la solución de problemas de ubicación y estabilidad de órbitas en galaxias espirales. PALABRAS CLAVES: Métodos Numéricos: Runge – Kutta 4° Orden, Galaxias: Dinámica, Orbitas: Estabilidad. INTRODUCCIÓN En mecánica clásica uno de los problemas más comunes es encontrar el conjunto de expresiones que relacionen la trayectoria de un sistema en el espacio de fase con el tiempo, en otras palabras, solucionar las ecuaciones de movimiento (Goldstein, et al. 2002). Uno de los primeros, y quizá el más conocido es el problema de los tres cuerpos (Symon. 1961), que si bien, es relativamente simple, no ha sido posible encontrar una solución analítica, sino aproximaciones para casos muy especiales (Hénon. 1969). En sistemas más complejos como galaxias espirales, se hace imposible obtener una

57


solución exacta a las ecuaciones de movimiento, por lo que se recurre a los métodos numéricos. El método más frecuentemente usado es el de Runge – Kutta de cuarto orden (Binney & Tremaine. 2008) por su alta precisión y relativa sencillez. En la primera parte se da un preámbulo acerca de los métodos de obtención de órbitas en galaxias; luego se presenta el algoritmo Runge – Kutta para sistemas físicos autónomos (No dependientes del tiempo), haciendo énfasis en la aplicación en física; a continuación se muestran algunos resultados obtenidos y para terminar, se dan a conocer las principales conclusiones del trabajo. Órbitas Estelares en Galaxias La obtención de la trayectoria de una partícula en cualquier sistema físico se puede obtener por dos métodos: 1 Se toma como partida la segunda ley de Newton, obteniendo las ecuaciones de movimiento, las cuales, en el caso más general forman un sistema de ecuaciones diferenciales ordinarias de segundo orden. La solución de tal sistema constituye la trayectoria de la partícula. 2

Se construye el Hamiltoniano para la partícula, del cual se obtiene las ecuaciones de Hamilton, las cuales forman un sistema de ecuaciones diferenciales de primer orden, cuya solución da la trayectoria de la partícula y el momentum canónico asociado a cada una de las coordenadas espaciales.

Cabe destacar que al llevar a cabo una reducción de orden al sistema de ecuaciones diferenciales del método de Newton, se obtiene el sistema derivado por medio del método de Hamilton. Debido a que se hace más sencillo trabajar con energías (o potenciales) que con fuerzas, el trabajo de obtener ecuaciones de movimiento se lleva a cabo a través del método de Hamilton. Si se ignora la contribución vertical, una galaxia espiral puede ser modelada como un sistema bidimensional, obteniendo así un sistema de 4 ecuaciones diferenciales en la mayoría de los casos, no lineales, haciendo imposible la solución exacta, llevándonos a recurrir a los métodos numéricos. Algoritmo Runge – Kutta Las ecuaciones de Hamilton (Goldstein, et al. 2002) están definidas como:

¶ H p& i = ¶ qi

¶ H q& i = ¶ pi

58

(1)


Dónde qi es la i – ésima coordenada espacial, pi el momentum asociado a la i –ésima coordenada espacial, H el Hamiltoniano del sistema y los puntos sobre las coordenadas canónicas indican derivadas temporales. r Si se define un vector de coordenadas canónicas w :

r w= ( q1 , q2 ,..., qn , p1 , p2 ,..., pn )

(2)

Entonces, las ecuaciones de Hamilton pueden ser escritas en forma vectorial como:

r r r dw && & & & f ( w) = = q& ( 1 , q2 ,..., qn , p1 , p2 ,..., pn ) dt

(3)

r

Si se conoce el valor de las coordenadas canónicas w en un tiempo t (condiciones j j iníciales) y se introduce el valor de paso temporal o timestep h , se define los coeficientes de Runge – Kutta como:

rr r k1 = hf ( wj ) r rr æ r k1 ö k2 = hf ç wj + ÷ è2ø

(4.a) (4.b)

r rr æ r k2 ö k3 = hf ç wj + ÷ è2ø

(4.c)

rr r r k4 = hf w j + k3

()

(4.d)

r

Conocido el valor de cada uno de estos, es posible calcular el vector w j + 1 para un tiempo tj + h

rrr r rr 1æ 1 1 ö wj+ wj + k1 + k2 + k3 + k4 ÷ 1 = ç 6 è2 2 ø

(5)

Así, a partir de ciclos repetitivos se puede llegar a conocer la trayectoria del sistema en el espacio de fase para las condiciones iníciales dadas. La precisión del método depende de la escogencia del timestep, de esta manera entre más pequeño sea h , mejores serán los resultados obtenidos.

59


Estabilidad de Órbitas en Galaxias A partir de la solución de las ecuaciones de Hamilton, es posible encontrar condiciones iníciales para las cuales el sistema va a tener un comportamiento estable. Esto se lleva a cabo usando los diagramas de Poincaré (Binney & Tremaine. 2008). Un diagrama de Poincaré es un corte bidimensional en determinada región del espacio de 0 ), en este se puede observar conjuntos de puntos que forman fase (usualmente qn = curvas cerradas, estas se denominan curvas invariantes y están relacionadas con orbitas cuasi-periódicas. Generalmente las curvas invariantes encierran puntos, estos dan cuenta de soluciones u órbitas periódicas del sistema. Otra característica que puede observarse en un diagrama de Poincaré es la presencia de caos, el cual se ve representado en los puntos que se encuentran dispersos en todo el diagrama y que además no presentan ningún tipo de regularidad. Se desarrolló un programa en FORTRAN basado en el algoritmo Runge – Kutta para dos casos: Una partícula de prueba bajo el potencial de Hénon – Heiles estacionario (Hénon & Heiles. 1964) y una partícula de prueba bajo un potencial galáctico más realista rotando a la velocidad del patrón perturbador (Elmegreen. 1998) En la figura 1.a se muestra un diagrama de Poincaré para una partícula moviéndose bajo el potencial de Hénon – Heiles. En este se puede observar curvas invariantes que dan cuenta de órbitas cuasi-periódicas como la mostrada en la figura 1.b, puntos encerrados indicando la presencia de órbitas periódicas (figura 2.a) y puntos dispersos a causa de la orbitas caóticas (figura 2.b). Di agram a de P oinc a ré E = 0. 125 0 0. 6

0. 4

0. 2

P y 0. 0

- 0. 2

- 0. 4

- 0. 6 - 0. 6

- 0.4

-0 .2

0 .0

0 .2

0. 4

0 .6

0 .8

y

a) b) Figura 1. a) Diagrama de Poincaré ( x = ) Potencial de Hénon – Heiles. b) Orbita cuasi0 periódica para una partícula bajo el potencial de Hénon – Héiles.

60


.

Figura 2. Órbitas de una partícula bajo el potencial de Hénon – Heiles a) Órbita periódica b) Órbita caótica. En el caso de una partícula moviéndose bajo un potencial galáctico medianamente realista (con contribuciones del disco, componente esferoidal, perturbación espiral e ignorando efectos de fricción dinámica, componente gaseosa, entre otros. Véase Amaral, et al. 1997) se obtuvo diagramas de Poincaré como el mostrado en la figura 3 y órbitas de forma elíptica que se presentarán en un próximo trabajo. Diagram a de Poincaré 7 00 600 500 400 300 200 100

p

0 r

-100 -200 -300 -400 -500

E =-3 .52 34 5*10

5

-600 -7 00 -2

0

2

4

6

8

10

12

14

16

18

20

22

24

r (K pc)

Figura 3. Diagrama de Poincaré (q = 0) para una partícula moviendose bajo un potencial galáctico rotante. Nótese la presencia de una órbita periódica en

r= 6.5Kpc

61


CONCLUSIONES El método de Runge – Kutta es de gran utilidad en la solución de problemas físicos que involucran sistemas de ecuaciones diferenciales y mas puntualmente en sistemas dinámicos. El método de Runge – Kutta es una herramienta muy útil en el análisis de estabilidad de sistemas físicos, ya que con esta se obtiene una descripción cualitativa muy precisa acerca de las condiciones necesarias para que la solución del sistema cambie entre caótica y periódica. El método presenta grandes ventajas en la investigación cuando no se cuenta con equipos capaces de llevar a cabo simulaciones de N – cuerpos, debido a que es un método muy económico (computacionalmente hablando).

BIBLIOGRAFÍA

l [1] AMARAL, L. H. & LÉPINE, J. R. D. (1997): “A self-consistent model of the spiral structure of the Galaxy.” en

Monthly Notices of the Royal Astronomical Society, N° 286, P 885 – 894. l [2] BINNEY, James & TREMAINE, Scott. (2008): Galactic Dynamics, 2

nd

Edition. New York. Princeton

University Press. l [3] ELMEGREEN, Debra M. (1998): Galaxies & Galactic Structure. Upper Saddle River, New Jersey. Prentice

Hall. rd

l [4] GOLDSTEIN, Herbert; POOLE, Charles & SAFKO, John. (2002): Classical Mechanics, 3 Edition. San

Francisco. Addison Wesley. l [5] HENON, Michael & HEILES, Carl. (1964). “The applicability of the third integral of motion: Some numerical

experiments.” en Astronomical Journal Vol. 69, P 73 – 79. l [6] HENON, Michael. (1969): “Numerical Exploration of the Restricted Problem. V. Hill's Case: Periodic Orbits

and Their Stability.” en Astronomy & Astrophysics, N° 1, P 223 – 238. nd

l [7] SYMON, Keith. (1961): Mechanics, 2 Edition. Reading, Massachusetts. Addison Wesley.

62


MICROSCOPIA DE FUERZA ATÓMICA: TÉCNICA, EQUIPO Y APLICACIONES SANDOVAL SANTIAGO1, OTÁLORA JOSÉ DEL C2. 1

Grupo Física de Materiales, Estudiante Escuela de Física. Grupo Física de Materiales, Docente escuela de Física. Universidad Pedagógica y Tecnológica de Colombia 1 samos16@gmail.com, 2 jcoa3@hotmail.com 2

RESUMEN Uno de los principales métodos de caracterización de superficies y películas delgadas es el de la microscopía de fuerza atómica, el cual permite obtener la morfología de la superficie desde el rango de los micrómetros y Armstrong donde pueden hacerse medidas de tamaño de grano y rugosidad de la superficie, hasta bajo ciertas condiciones especiales, el nivel atómico de especial interés en el campo de la nanotecnología. Se hace una introducción a la técnica, se describe su electrónica y funcionamiento. Se amplía el tema de los "cantilevers" y las puntas del equipo, describiendo su estructura, la resolución, y la curva de fuerzas debida a las interatómicas implicadas en especial la fuerza de Van der Waals. También se describen algunas de las aplicaciones de la microscopía de fuerza atómica, que permiten obtener mayor información de la superficie, tales como sus propiedades magnéticas, eléctricas y su dureza. PALABRAS CLAVES: Microscopía de fuerza atómica, cantiléver, punta AFM, nanotecnología. 1. INTRODUCCIÓN La microscopía de fuerza atómica (AFM) examina la superficie de una muestra con una punta aguda, de un par de micrómetros de longitud y menos de 100Å en diámetro. La punta está localizada en la punta libre de un cantiléver que es de 100 a 200µm de longitud. Las fuerzas entre la punta y la superficie de la muestra producen que el cantiléver se curve o desvíe. Un detector mide la desviación del cantiléver a medida que la punta es barrida sobre la muestra, o la muestra es barrida bajo la punta. Las desviaciones medidas del cantiléver permiten a un computador generar un mapa de la superficie topográfica. Los AFM pueden ser usados para estudiar aislantes y semiconductores tanto como para conductores eléctricos. [2]

63


Fig. 1.1 Microscopio de Fuerza Atómica. (Sampson 1996) 2. MICROSCOPÍA DE FUERZA ATÓMICA Un esquema de un microscopio de fuerza atómica se muestra en el diagrama. La muestra está montada sobre un detector piezocerámico que puede moverse con precisión en las coordenadas X, Y, y Z. La muestra es barrida en las direcciones X y Y con una punta afilada. Esta punta está montada en el fin libre de un cantiléver sobre el que se enfoca un rayo láser.

Fig. 2.1 Esquema de funcionamiento de un AFM, en donde las desviaciones del cantiléver son medidas por dispositivos ópticos que miden las desviaciones que sufre el rayo láser al reflejarse en el cantiléver. [1]

El rayo se refleja en la parte trasera del cantiléver hacia un juego de cuatro diodos fotosensibles. Éstos detectan cualquier desviación del láser que se origine en el cantiléver que se mueve a medida que la muestra es barrida. Una realimentación actúa para mover el piezodetector en la dirección Z que lleva el rayo láser a su posición original. De esta manera la muestra se examina con una fuerza constante y el resultado de los movimientos del detector en Z producen un mapa topográfico de la región barrida con una resolución vertical menor que 1Å; en los casos favorables. El AFM puede usarse en una variedad de ambientes, en aire, en UHV o bajo los líquidos. [1]

64


2.1 OPERACION DE REALIMENTACION El AFM puede operar en dos modos principales: (1) Con control de realimentación y (2) sin control de realimentación. Si la realimentación electrónica se enciende, entonces el piezodetector que está moviendo la muestra (o punta) de arriba abajo puede responder a cualquier cambio en la fuerza que detecte, y altera la separación de la punta-muestra para restaurar la fuerza a un valor predeterminado. Este modo de funcionamiento es conocido como "de fuerza constante", y normalmente permite obtener una imagen topográfica bastante fiel. Si la realimentación electrónica se apaga, entonces se dice que el microscopio está operando en altura constante o modo de deflexión. Esto es particularmente útil para visualizar muestras relativamente planas a alta definición. A menudo es mejor tener una cantidad pequeña de ganancia de realimentación, para evitar los problemas de fluctuaciones térmicas o la posibilidad de que una muestra áspera dañe la punta y/o el cantiléver. Este modo también se conoce como modo de señal de error. El modo de señal de error puede mostrase aunque la realimentación se encienda; esta imagen quitará las variaciones lentas de la topografía pero resaltará los bordes. [4] 2.2 MODOS DE TRABAJO Varias fuerzas contribuyen típicamente a la desviación de un cantiléver de AFM. La fuerza más comúnmente asociada con la microscopía de fuerza atómica es una fuerza de interacción llamada la fuerza de Van der Waals. La dependencia de la fuerza de Van der Waals entre la distancia entre la punta y la muestra se muestra en la Figura 2.2.

.

Fig. 2.2. Grafica de la fuerza de Van der Waals en función de la separación en donde se señalan las regiones para cada uno de los modos de trabajo en AFM. [3]

65


Dos regiones están señaladas en la figura 2.2: 1) La región de contacto; y 2) la región de nocontacto. En la región de contacto, el cantiléver se mantiene a menos de unos pocos Angstrom de la superficie de la muestra, y la fuerza interatómica entre el cantiléver y la muestra es repulsiva. En la región de no-contacto, el cantiléver se mantiene en el orden de diez a cien Armstrong de la superficie de la muestra, y la fuerza interatómica entre el cantiléver y la muestra es atractiva (grandemente como un resultado de las interacciones de Van der Waals de largo alcance). [3] Existe otro modo que presente ciertas ventajas en el análisis, y ha superado en algunas limitaciones de los modos de contacto y no contacto, es el modo de contacto-intermitente, en donde la punta del cantiléver vibrante se acerca más a la muestra, así que en el fondo de su viaje esta apenas toca, o golpea la muestra. La región de operación intermitente está indicada en la curva de Van der Waals en la Figura 2.2. La amplitud de oscilación del cantiléver cambia en respuesta a la distancia punta-muestra. La imagen que representa la topografía de superficie se obtiene monitoreando estos cambios. [3] 3. CANTILEVER Los cantilevers y las puntas son componentes críticos en un sistema AFM porque determinan la fuerza aplicada a la muestra y en últimas la resolución lateral del sistema

.

Fig. 3.1. Imagen SEM de un cantiléver. (Sampson, 1996) La punta y el ensamblaje del cantiléver puede estar fabricado de Silicio o Nitruro de Silicio usando técnicas de fotolitografía. Más de 1000 puntas y cantilevers son producidas de una oblea de silicio. Los cantilevers en forma V son los más populares, proporcionando baja resistencia a la deflexión vertical, y alta resistencia a la torsión lateral. Los cantilevers usualmente tienen un largo de 100 a 200µm, 10 a 40µm de ancho, y 0.3 a 2µm en espesor y mantienen la constante de resorte. Las puntas de AFM son sondas micromaquinadas, monolíticas de Silicio, que muestran una excelente uniformidad y un agudo radio de punta. El radio de la punta de menos de 10 nm da una buena resolución. Para una información

66


detallada acerca de la forma de la punta que usted esté utilizando, además de su morfología, se recomienda el modulo caracterización de puntas del software SPIP (The Scanning Probe Image Processor) (Nanoscience Instruments, 2003). [2]

.

Fig. 5.2 (izquierda) Imagen SEM de una punta “ultratip”. (Derecha) Imagen SEM de una punta en forma piramidal. (Sampson, 1996). 4. RESOLUCIÓN La resolución lateral de una imagen de AFM se determina por dos factores: El tamaño del paso de la imagen, y el radio mínimo de la punta. Las puntas más agudas disponibles comercialmente tienen radios tan pequeños como 50Å. Debido a que el área de interacción entre la punta y la muestra es una fracción del radio de la punta estas puntas usualmente proporcionan una resolución lateral de 10 a 20Å. De este modo, la resolución de las imágenes de AFM mayores que 1µm por 1µm esta usualmente determinada no solo por la punta sino por el paso de la imagen. La mejor resolución de un AFM, sin embargo, depende sobre cómo se define la resolución. En la comunidad de la microscopia, dos asperezas (picos) se consideran resueltos si la imagen satisface el criterio de Rayleigh. El criterio de Rayleigh requiere que la altura de la imagen se reduzca por lo menos 19% entre las asperezas, como se ilustra a continuación

Fig. 4.1 Definición de la resolución lateral usando el criterio de Rayleigh. [2]

67


La separación mínima entre asperezas resueltas determina la mejor resolución lateral del sistema. Usando esta definición, la resolución lateral de un AFM con las puntas más agudas disponibles comercialmente es de 10 a 20Å. Un STM da la verdadera resolución atómica. Debido a que la dependencia de la corriente de tunelamiento en la separación puntamuestra es exponencial, sólo el átomo más cercano de una buena punta de STM, interacciona con el átomo más cercano en la muestra, como se muestra a continuación. Para AFM, la dependencia de desviación del cantiléver en la separación punta-muestra es más débil. El resultado es que varios átomos en la punta interaccionen simultáneamente con varios átomos en la muestra. [2]

.

Fig. 4.2 Interacción atómica para un STM (izquierda) y un AFM (centro). El sombreado muestra la intensidad de la interacción, imagen de una muestra sometida al AFM (derecha) (spmlab.science, 2004).

CONCLUSIONES El AFM puede visualizar en forma de análisis de rugosidad superficies conductoras y aislantes, a menudo con la misma resolución como el microscopio de efecto túnel. La punta y el ensamblaje del cantiléver puede estar fabricado de Silicio o Nitruro de Silicio usando técnicas de fotolitografía. Los cantilevers usualmente tienen un largo de 100 a 200µm, 10 a 40µm de ancho, y 0.3 a 2µm en espesor. El tamaño del paso de la imagen, y el radio mínimo de la punta son claves en la resolución lateral de un AFM. La principal perspectiva de microscopia de fuerza atómica es la nanotecnología que permitirá la miniaturarización electrónica y la manipulación de polímetros.

68


BIBLIOGRAFÍA

? HOWLAND, Rebecca y BENATAR, Lisa, 1997, “A practical guide to Scanning probe microscopy”, Park Scientific Instruments, pp. 1-13, 57-65, 71-73.

? Nanoscience Instruments, 2003, “The Scanning Probe Image Processor”: http://www.nanoscience.com/products/SPIP_download.htm.

? SAMPSON, Allen R., 1996, “Scanning Electron Microscopy”, Advanced Research Systems: http://www.sem.com/analytic/sem.htm

? The Compton Group, 2001, “Chemistry at the solid-liquid interface, Atomic Force Microscopy”: http://physchem.ox.ac.uk/~rgc/research/afm/afm1.htm. (The Compton Group, 2001). ?

MODELO DE LA GOTA LÍQUIDA CON PEQUEÑAS DEFORMACIONES

HERNÁNDEZ YENNY1 HIGUERA SINDY1 1

Grupo de Física Teórica y Computacional Escuela de Física, Facultad de Ciencias Básicas

RESUMEN Se presenta al núcleo como una gota líquida con una pequeña modificación. En este sentido, principalmente se analizan los efectos sobre las contribuciones de Energía de Coulomb y de Superficie, asumiendo pequeñas deformaciones multipolares y tratando al núcleo con una singularidad elipsoidal, con el fin, de describir la Energía de Ligadura en términos de los nuevos parámetros. Finalmente se realiza una comparación analítica y gráfica en el marco del modelo original y el modelo deformado para así observar las modificaciones que sufre la Energía de Ligadura, asociada a ella también el término de masa nuclear. PALABRAS CLAVES: Núcleo, modelo de gota líquida, deformaciones multipolares.

69


1. INTRODUCCIÓN Con el modelo de la Gota Líquida se puede comprender los comportamientos de la Energía de Ligadura, la cual se obtiene por la suma de otras contribuciones de energía, dentro de las que se encuentra el término de la Energía de Coulomb y la Energía de Superficie. En este modelo, el núcleo es tratado como una esfera homogéneamente cargada, ¿Pero cómo afectaría a la energía de ligadura una pequeña deformación de esta gota? En este artículo se presenta al núcleo como una gota líquida con una pequeña modificación. Uno de los sistemas físicos más complejos en toda su área de estudio es precisamente el núcleo atómico, dadas sus propiedades e interacciones descritas por las fuerzas de corto alcance, y la adecuada descripción de una simetría que manifieste resultados semejantes a los observados experimentalmente. Así pues, se plantea el estudio del bien conocido modelo de la gota líquida, ésta vez, se asocia al mismo, un término de deformación multipolar que asemeja una simetría elipsoidal, con el cual se detalla un acercamiento hacia uno de los modelos más acertados, que toma en cuenta expansiones multipolares: el denominado Modelo de Nilsson. De ésta forma se parte de un sistema sencillo y empírico a la vez, y se modifica, teniendo presente al núcleo no como un mecanismo estático sino que se encuentra sujeto a excitaciones que provocan oscilaciones o vibraciones y por tanto alteran su simetría. 2. REFERENTE TEÓRICO Modelo de la Gota Deformada (1) Los valores de las constantes se obtienen realizando el ajuste de los datos experimentales a una curva, esto produce que los resultados obtenidos tengan un carácter semiempírico. Para núcleos que no asemejan una forma esférica, se presentan correcciones para la Energía de Superficie y la Energía de Coulomb que se manifiestan en términos de pequeñas deformaciones multipolares (tal como el Modelo de Nilsson): (2) En la expresión (2) , representa el término cuadrupolar, y , representa el término hexadecapolar. Una simple ilustración de estas modificaciones, es obtenida para una deformación elipsoidal en donde se toma el eje mayor a y el eje menor b como:

70


. (3) Usando el parámetro de deformación los términos de energía de superficie y de Coulomb se convierten en:

(4) Por tanto la ecuación modificada para la energía de ligadura en términos de la expansión multipolar es: (5) 3. RESULTADOS Empleando la expresión completa para la fórmula de masas o fórmula semiempírica de Bethe-Weizsäcker y haciendo uso de lenguaje de programación en c++ se obtiene la siguiente gráfica que describe la energía de ligadura por nucleón en función de la masa atómica, de los resultados experimentales estudiados en el desarrollo de la física nuclear se obtiene que la curva aumenta proporcionalmente y luego, para una energía de 8 MeV se estabiliza y cae nuevamente. Tal como se puede observar en gráfico 1:

Figura 1. Energía de Ligadura por nucleón en función de masa atómica sin deformación.

71


Ahora, a la fórmula semiempírica de Bethe-Weizsäcker se adiciona, el término de deformación multipolar, que se describió en el formalismo planteado, obteniendo la siguiente gráfica que describe igualmente la curva para la energía de ligadura.

.

Figura 2. Energía de Ligadura por nucleón en función de la masa atómica con deformación. De ésta forma, se observa, que el efecto de la deformación sobre la fórmula de masas produce que el valor para la energía de ligadura por nucleón se estabilice en un valor menor comparado al modelo sin deformación, esto se debe, a que la interacción entre nucleones se reduce levemente, a causa de la misma, y por tanto la energía de ligadura tendrá un valor más pequeño. CONCLUSIONES El comportamiento de la energía de superficie y la energía de Coulomb han sido estudiados como una generalización del modelo de la gota líquida, tomando en cuenta la influencia de pequeñas deformaciones. Se ha analizado, un procedimiento simple para describir la influencia sobre la energía de ligadura nuclear que viene de una deformación multipolar, con la ayuda de un lenguaje de programación (c++) y de ´esta manera dar una descripción más realista del núcleo expresado como un elipsoide en revolución. BIBLIOGRAFÍA

l [1] BURCHMAN, W.E (1974): Física Nuclear. Editorial Reverté. l [2] FERRER, A (3006): Física Nuclear y de Partículas, Universitat de Valencia. l [3] CRISTANCHO, F. Física Nuclear, Universidad Nacional de Colombia l [4] KUCKUK, M (1993): Física Nuclear. Funda¸cao Calouste Gulbenkian. l [5] FRIEDMAN, BATTY E., GILS C.J., REBEL H.J. (1989): Adv.Nuclear Physics

72


PROPIEDADES ESTRUCTURALES Y ELECTRÓNICAS DEL Ti CALCULADAS MEDIANTE LA DFT MARÍA A. PUERTO 1 WILLIAM O. SOSA1 JAIRO A RODRÍGUEZ2 1

Grupo Física de Materiales (GFM). Escuela de Física. Facultad de Ciencias Básicas. Grupo de Estudio de Materiales (GEMA). Departamento de Física. Universidad Nacional de Colombia. Bogotá-Colombia. alexandrapuerto@gmail.com woscydm@hotmail.com 2

RESUMEN Se han realizado cálculos para determinar las propiedades estructurales y electrónicas del Titanio. En el cálculo teórico se empleó el método de Ondas Planas Aumentadas linealizadas dentro del formalismo de la Teoría del Funcional de la Densidad (DFT) implementado en el código WIEN2k. La energía total del Ti se calculó como una función del volumen y así, los datos encontrados se ajustaron a la ecuación de estado de Murnaghan, obteniendo parámetros estructurales tan relevantes como: constantes de red (a=5,5042 bohr; c/a=1,6266), la energía de cohesión (Eo= -0,8628 Ry), y el módulo de volumen (B0= 438 GPa). Además, se realizó un estudio detallado de las propiedades electrónicas, por medio del cálculo de la densidad de estados y la estructura de bandas de energía. PALABRAS CLAVES: Titanio, estructura de bandas, DOS, DFT 1. INTRODUCCIÓN El Titanio es un metal ligero de color gris plata, abundante en la naturaleza. Posee gran firmeza y dureza, es de baja densidad, presenta alta temperatura de fusión y ductibilidad, y muestra muy baja corrosión frente a químicos y al medio ambiente, es un buen conductor del calor y de la electricidad. (Zhen. 2000)

73


Por esto, el interés en su estudio y utilización en el desarrollo de la tecnología aeroespacial, donde el titanio es capaz de soportar las condiciones extremas de frío y calor que se dan en el espacio al igual que en la industria química, medica y automotriz.

.

a)

b)

Fig 1. a) Titanio en forma natural. b) Modelo de la estructura cristalina Debido a la gran importancia que tiene este elemento en la actualidad por sus aplicaciones tecnológicas, se pretende calcular algunas de sus propiedades estructurales y electrónicas. Un sólido está formado por núcleos de átomos localizados y electrones libres dentro de una red periódica. Para analizar las propiedades físicas del sólido es necesario resolver la ecuación de Schrödinger. Esto se convierte en un problema común de muchos cuerpos. La teoría del Funcional Densidad (DFT), es un formalismo para tratar el problema de muchos cuerpos a través de aproximaciones. La metodología asociada a la DFT permite introducir los efectos de intercambio y correlación electrónica. Las bases de esta teoría fueron establecidas por Hohenberg-Kohn en 1964 (Hohenberg. 1964) y por Kohn-Sham en 1965 (Kohn .1965), en ellas se establece un sistema de ecuaciones de uni-partícula no interactuante inmersa en un potencial efectivo para solucionar el problema de muchas partículas interactuantes. La estrategia de la DFT es escribir las propiedades de un sistema mediante funcionales de la densidad. Para definirlo, aparecen propuestas iniciales como La Aproximación de la Densidad Local (LDA) en donde la idea central para definir el funcional es la hipótesis de un gas uniforme de electrones; y la Aproximación de Gradiente Generalizado (GGA), una aproximación más sofisticada que incorpora el gradiente de esta densidad. Por otro lado, la DFT es un método de potencial completo el cual usa como funciones solución ondas planas aumentadas y linealizadas FP-LAPW y el método de orbitales locales. Mediante DFT es posible calcular la energía total del sistema para luego ajustarla a una ecuación de estado conocida como ecuación de estado de Murnaghan, que viene dada por B '0 la expresión: é ù V V) æ BV ö ( æ BV ö 0 0 0 0 0 E(V ) =+ E (V0 ) ç + + 1ú ê ÷ ç ÷ B ' B ' 1 B ' 1ø è 0 ø ê0 ú è 0ë û

74


Donde V es el volumen de la celda primitiva, V0 es el volumen en equilibrio, B0 es el módulo de volumen y B0' es la derivada del módulo de volumen respecto a la presión calculada en V0. 2. DETALLES DEL CÁLCULO El titanio presenta una estructura cristalina hexagonal del tipo P 6(3)/mmc, cuyas posiciones atómicas se muestran en la tabla 1. Tabla No. 1 Posiciones atómicas para el Titanio.

Átomo Ti

x 1/3

y 2/3

z 1/4

En el cálculo se implementó el programa Wien 2K (Blaha. 2001) utilizando la aproximación de gradiente generalizado (GGA) con la parametrización Pedew-Burke-Ernzerhof (Perdew. 1996) para tratar los efectos de correlación e intercambio. Se tomo un valor de energía para separar los estados del core y valencia de -6,0 Ry. Como criterio de convergencia para la energía se uso un valor de 0,0001 Ry. Se utilizó un Gmax=12 Ry1/2, Gmin=8,42 Ry1/2 y Lmáx=10. Se usaron 5000 vectores K en la primera zona de Brillouin. Los valores de energía se ajustaron mediante la ecuación de estado de Murnaghan. Adicionalmente, se realizó un cálculo de estructura de bandas de energía y la densidad de estados en el volumen de equilibrio. 3. RESULTADOS Y DISCUSIÓN El ajuste de la energía vs volumen, a partir de la ecuación de estado de Murnaghan, permitió calcular los valores para los parámetros estructurales del Ti que se muestran en la tabla 2. Tabla No. 2 Parámetros estructurales correspondientes al ajuste de la ecuación de estado de Murnagahan para el Ti.

.

La Figura 2, muestra el ajuste a la ecuación de estado de Murnaghan, para la energía en función del volumen.

75


-0,80

-0,81

. Energía (Ry)

-0,82

-0,83

-0,84

-0,85

-0,86

-0,87 180

200

220

240

260

280

300

320

3

Volumen (a.u )

Fig. 2. Energía total en función del volumen de la celda para el Ti. En la figura 2 se indica el valor para la energía de cohesión y el valor para el volumen que minimiza esta energía. El valor de la energía mínima verifica la estabilidad de la estructura del Ti y el valor del volumen indica el valor del volumen de la celda primitiva del cristal. En lo referente a las características electrónicas, las bandas de energía y la densidad de estados se muestran en la Figura. 3. Aquí, se observa la energía en función del vector de onda k para algunas direcciones de alta simetría. La escala de energía cero corresponde a la energía del nivel de Fermi que dio un valor de EF= 0,56738 Ry

Fig. 3. Estructura de bandas de energía y densidad de estados para el Ti.

76


En esta figura se pueden identificar dos regiones principales: de -9 eV a 0eV la región de valencia y la región de la banda de conducción, ubicada sobre el nivel de Fermi. De esta manera, se evidencia el carácter conductor del Ti debido a la concentración de un gran número de estados alrededor del nivel de Fermi (no existe ningún gap de energía), las cuales también pueden asociarse con la densidad de estados alrededor del mismo valor de energía de Fermi. CONCLUSIONES A través de la DFT y el método FP-LAPW se calcularon las propiedades estructurales del Ti en su fase P 6(3)/mmc, obteniéndose un parámetro de red óptimo con el cual se determinó la densidad de estados y la estructura de bandas de energía. Estas permiten evidenciar el carácter conductor de este elemento. También se demostró el carácter estable de esta estructura, debido a que se obtuvo un valor negativo para la energía de cohesión E0=-0,86 Ry.

BIBLIOGRAFÍA l [1]Luo Guo Zhen and Liu Run Ze. (2000): “Non-aerospace application of Ti materials with a great many social and economic benefits in China”, Materials Science and Engineering Nº A280. P 25–29. l [2]Hohenberg, P and Kohn, W.(1964): “Iinhomogeneous Electron Gas”, Physical Review. Vol 136. P B864B871. l [3]Kohn, W and Sham, L. J. “Self-Consistent Equations Including Exchange and Correlation Effects”. Physical Review. Vol 140. P A1133-A1138. l [4]P. Blaha, K. Schwarz, G. K. H. Madsen, D. Kvasnicka and J. Luitz (2001): WIEN2k An Augmented Plane Wave + Local Orbitals Program for Calculating Crystal Properties. Karlheinz Schwarz, Techn. Universitat Wien, Austria) ISBN 3-9501031-1-2. l [5]J. P. Perdew, K Burke, M. Ernzerhof. (1996) “Generalized Gradient Approximation Made Simple”. Physical Review. Vol 77. P 3865-3868.

77


c


Titulo: De la serie “Rayando la Ruina” Fotrográfia: Elkin Colmenares Dulcey Colectivo: En la Ruina Integrantes: Elkin Colmenares, Manuel Barrera, Wilman Zabala. 2010


.

ESTUDIO A LAS IMAGENES RELIGIOSAS DE SANTA CLARA LA REAL: SAN GABRIEL ELKIN COLMENARES DULCEY Grupo de investigación Creación y Pedagogía. nares15@hotmail.com RESUMEN El presente trabajo es el resultado de un proceso de investigación que tuvo origen en una clase de artes plásticas. Su fin tiene que ver con un ejercicio en el cual se abordaron temas relacionados con la ciudad de Tunja, más específicamente con vinculo a la iglesia Santa Clara la Real. El estudio se enfoco en una pintura del arcángel San Gabriel, dicho objeto fue analizado desde dos visiones o conceptos: el tautológico y de creencia. PALABRAS CLAVES: Santa Clara la Real, Creencia, Tautología, Imágenes, Parodia, Mass Media, Reproductividad.

Para la religión católica los ángeles han sido de gran importancia. Desde una concepción sagrada han sido considerados como aquellos seres más cercanos a Dios. Desde la edad media dichos arcángeles han sido tema de representación, pues la religión busco la manera de sembrar en los devotos a través de las imágenes mayor grado de credibilidad, así la idolatría formo parte de dichos cambios, permitiendo que las imágenes entraran en el campo de la fe e incursionaran en el mundo de la creencia de manera visual. Dichas imágenes son la consecuencia de un pasado ideológico, iconográfico y religioso, que encontró en su tiempo la mejor forma de alusión desde la pintura o la escultura. Entre alguna de esas imágenes sagradas encontramos la del Arcángel San Gabriel, proveniente del seno de una concepción dogmatica (religiosa) en la cual se le ha denominado arcángel mensajero, este posee cualidades en sus representaciones que nos ayudan a su reconocimiento1 e identificación desde un punto de vista iconográfico. 1 “Gabriel es el príncipe del fuego y el espíritu que predomina sobre los truenos y la maduración de la fruta. Es un hábil políglota, que enseñó a José las 70 lenguas que llegaron a hablarse en Babel. En arte se le representa casi siempre portando un lirio, la flor de María en la Anunciación, o la trompeta que sonará para anunciar la segunda venida de Cristo”.

80


La pintura de san Gabriel encierra varias posibilidades de significancia que tienen que ver con el contexto y que solo viven en la medida en que las recordemos. Sucede algo similar con los mitos y las leyendas, ellos solo aparecen y desaparecen mediante su pronunciación, ellos existirán hasta que el hombre deje de contarlos o deje de creer en ellos, pero en este transcurso, su contenido será alterado por la misma reinterpretación que se les dé “-dado que el destino mismo de las leyendas es ser declinadas en versiones que las modifican-”2 (GEORGES DIDI-HUBERMAN. 2004). Ahora bien, dicha pintura de San Gabriel, conforme pasa el tiempo, va perdiendo sus cualidades de significado debido a su intermitencia, (intermitencia: por su poca asequibilidad con el mundo; esto por la condición de Santa Clara la Real y de su relación con el visitante, ya que dicha iglesia sólo abre al público sus puertas de dos maneras, como museo, y como iglesia para eventos especiales, es decir no es de manera constante su ingreso), pues la misma interpretación del mundo se va transformando, haciendo que la imagen vaya quedando en el olvido (un olvido de significados) convirtiéndose en una imagen sin pasado, es decir ella queda huérfana debido a su época ya extinta, viéndose afectada por las corrientes del tiempo. Parafraseando a Walter Benjamín su origen es un remolino en el rio del devenir de las interpretaciones que se hagan del objeto, un rio donde todo puede ser posible, tal vez, la de la imagen y sus posibles significados, o solo sea la del objeto que pierde su contenido por el desgaste que el tiempo le va brindando, reduciéndolo únicamente a un objeto antiquísimo, dañado, sin pigmento, viejo y desgastado. Así notamos que en nuestra actualidad, desde una perspectiva artística y de fe, la pintura de San Gabriel ha variado con relación al tiempo del que data, pues hay una brecha que divide a dos tipos de personas: las de creencia y las de tautología3, la primera, forma parte de aquel imaginario colectivo, pertenece a la tradición arraigada en la fe y a ese gran cuerpo político que era la iglesia. La tautológica por su parte se funda con el hoy, la iglesia sufrió cambios con el mismo pasar del tiempo, las imágenes dejaron de significar y dejaron de representar esa ficción (el declinar de la imagen religiosa se funda en el auge que devino de la ciencia en el renacimiento), ficción de la que también se vale el arte en el museo. Así la 2

GEORGES DIDI-HUBERMAN. ( 2004) Lo que vemos lo que nos mira, Ediciones Manantial.

3

.- GEORGES DIDI-HUBERMAN, Lo que vemos lo que nos mira. pp.127 Creencia: como menciona DidiHuberman, consiste en querer sobrepasar la cuestión, querer trasladarse más allá de la escisión abierta por lo que nos mira en lo que vemos. Consiste en querer superar –imaginariamente- tanto lo que vemos como lo que nos mira. En cuanto al objeto este pierde su características materiales, y pasa a ser un modelo ficticio en el que el todo puede subsistir en un gran sueño despierto. Tautología: en palabras de Huberman equivale a pretender atenerse a lo que se ve, creer- que todo el resto no nos mirará más, significa ante un objeto no ir más allá del volumen como tal; la pantalla de la tautología: una finta en la forma de mal truismo o perogrullada, una victoria maníaca y miserable del lenguaje sobre la mirada, en la afirmación fijada, cerrada como una empalizada, de que no hay allí nada más que un volumen, y que ese volumen no es otra cosa que él mismo; “lo que veo es lo que veo y con eso me basta”.

81


tautología forma parte de ese segundo grupo de personas que entiende que hay en frente suyo: como la pintura de San Gabriel –una simple obra artística de siglo XVII que impacta por su conservación, mas no por lo que dice o representa tradicionalmente; esto nos indica cómo las personas que le rezan a dichas deidades son creyentes fervientes que fueron arrastrados por el rio del tiempo, y que dejaron todo menos su pasado, aquel pasado que aun tiene sus cimientos en la fe. Es así como vemos la variedad de interpretaciones y reinterpretaciones que dan cuenta de un san Gabriel distinto desde su apropiación, pero que puede ser igual en su significado; La historia del arte nos muestra versiones de obras como: El Arcángel Gabriel de Masolino da Panicalede 1420, la pintura Merode Altarpiece de Robert Campin de 1425, las escultura de san Gabriel de Agostino di Duccio de1450. Esta variedad puede comprobarse en las dos pinturas de la Anunciación, una pintada por Leonardo Da Vinci en 1475 (fig. a) y la otra por Sandro Botticelli de 1489 (fig. b), si analizamos las pinturas, ambas difieren en cuanto a sus poses y ambientes, su vínculo es solo dar cuenta de la anunciación de Gabriel a la virgen María sobre el hijo que tendrá. Al observar el uno y el otro, tienen representaciones diferentes, a manera de esbozo se puede decir que la pintura de Leonardo se sitúa afuera de un templo, el arcángel esta arrodillado sobre un jardín frente a María, y en la mano izquierda lleva un lirio, y con la otra indica, expresa o cuenta su encomienda, tiene un paisaje de fondo con varios árboles, María está sentada y tiene una biblia sobre una mesa. En cuanto al de Botticelli, el arcángel también esta arrodillado, en la mano izquierda lleva una rama de lirio de tamaño mayor, en la otra mano, aunque indica también su encomienda, ésta no es igual a la de Leonardo en cuanto a pose, también se puede ver un paisaje de fondo pero sólo desde una puerta, ya que, tanto Gabriel como María permanecen dentro de una habitación, donde ya no hay jardín, aquí María lo observa de pie junto a una biblia, y no sentada como en el cuadro de Leonardo.

.

Fig. a) Leonardo Da Vinci de 1475

82


Fig. b) Sandro Botticelli, Anunciación de 1489 Ahora bien, si analizamos la pintura de San Gabriel que se encuentra en Santa Clara la Real, al mirar minuciosamente se puede ver que está sólo, él es el único punto de referencia, aquí no es ni la anunciación del nacimiento de Jesús o la de Juan el bautista, San Gabriel es el tema principal. La descripción de la pintura como imagen a manera tautológica: Mide 1.58 metros de largo por 1.11 metros de ancho, la técnica empleada es oleo sobre tela y data del siglo XVII. Es una pintura elaborada desde una perspectiva clásica, los colores del fondo son de tonalidad pastel (en una atmosfera de nubes que lo anteceden), por otro lado su vestimenta es de tipo renacentista, los colores de su atuendo varían según su prenda, su capa es de color rojo y tiene flores bordadas y el largo va hasta el suelo, su atuendo consta de una camisa negra, en sus mangas tiene encajes, también esta vestido con un chaleco largo de color ocre y dorado que llega hasta la mitad del muslo, este lleva unos bordados a manera de puntos que crean detalles simétricos, también se puede apreciar una falda de tono café que va hasta más abajo de la rodilla, de frente esta parece tener tres puntas, la del medio se encuentra entre las dos piernas, y las otras dos terminan rodeándole el resto de su cintura , en la parte inferior lleva unas botas a manera de sandalia. Por otra parte su mano derecha esta levantada casi a la altura de su rostro,

83


pareciese que estuviera saludando, su otra mano esta hacia abajo en una posición no rígida que va en dirección de su muslo derecho, y esta sostiene un lirio de color amarillo, su rostro está inclinado, a manera de ademan, como si saludara, pero su mirada tiene una dirección indeterminada que sobrepasa lo que muestra la pintura, y pareciese como si apuntara hacia el altar. Por consiguiente , con lo expuesto antes, y en relación a la imagen dogmatica y la imagen presente acumulada de san Gabriel, encontramos que en nuestra época, provista de contenidos legibles, indescifrables o simplemente contrapuestos, se requiere, o hay que tomar consciencia de las parodias que usa el arte, y se entiende la parodia “como una técnica auto reflexiva que llama la atención hacia el arte como arte, pero también hacia el arte como fenómeno ineludiblemente ligado a su pasado estético e incluso social”4, esta parodia lo que busca no es una amistad del pasado y el presente, “la ruptura de la tradición, que para nosotros es un hecho consumado, abre una época en la que entre lo viejo y lo nuevo ya no hay ningún vinculo posible mas que la acumulación de lo viejo en una especie de archivo monstruoso”5, tampoco pretende dar una nueva creencia del mismo, solo intenta mostrar la forma de representar que se tenía en el siglo XVII, fecha en la que fue elaborada la pintura, el sentido artístico propio de ese tiempo que estaba ligado a la religión y al apropiarnos de su contenido nos hace posicionar ese pasado en nuestro presente, donde la imagen de San Gabriel funciona ahora diferente , ya no con un mayor arraigamiento y relevancia de la imagen con relación a la fe, pues dichas imágenes eran la manera de conectar o hacer un puente entre Dios y el hombre, las imágenes eran las ventanas que conectaban al mundo espiritual con el terrenal, el creer dependía del ver y esto terminaba fortaleciendo la fe, teniendo en cuenta que en ese tiempo las imágenes eran escasas y la mayoría se encontraban en las iglesias y formaban parte de ese espacio y ritual, dichas representaciones eran inherentes a aquella ilusión que la iglesia creaba a través del arte, por lo tanto no existían de manera abominable como lo son los iconos que presentan actualmente los medios de comunicación, la televisión, internet y cine, que en cierta medida se convirtieron en nuestro nuevo creer, nuestro nuevo distractor, son la nueva imagen que se nos ha impuesto y en la que debemos creer. Ya no la sagrada, sino la cambiante, ya no la eterna y divina, sino la convincente, la reproductible. Según Walter Benjamin, en la época de la reproductividad técnica, la obra de arte reproducida se convierte, en medida siempre creciente, en reproducción de una obra artística dispuesta para ser reproducida6. Cita a la cual Linda Hutcheon refutaría diciendo -no a ser 4

- LINDA HUTCHEON. La política de la parodia postmoderna. pp.8 -GEORGIO ABAMBEN. El hombre sin contenido. pp. 174 6 - WALTER BENJAMIN. “Discursos interrumpidos” en la obra de arte en la época de su reproductibilidad técnica. Recuperado de internet en http://www.philosophia.cl/biblioteca/Benjamin/la%20obra%20de%20arte.pdf 5

84


reproducida, sino a ser parodiada- esta forma masiva de reproducción y parodia, impone y altera lo cotidiano, haciendo que el arcángel san Gabriel sea objeto e imagen del pasado, él estará a la espera en un claustro, apolillado, con el tiempo carcomiéndole su color, con los años despigmentando su forma, mientras que las demás imágenes, pertenecientes a los mass media rodaran y volaran en el amanecer de los días, diseminándose y fundiéndose con otras, para ir renovándose, parodiando el pasado, tomando solo lo necesario. Pretender ser lo que está en boga, es un ejemplo de nuestro mundo adepto a las masas, esto trajo consigo la reevaluación de la fe, ya que a través de los nuevos ídolos a seguir, ídolos que son de carne y hueso como artistas, deportistas, modelos etc, que son el estereotipo actual al que se quiere ser o parecer, y en esta búsqueda y afán de ser el otro olvidamos nuestra propia identidad, es decir nuestro valor propio, connatural y cultural.

BIBLIOGRAFÍA

l 1- Microsoft Encarta 2009. 1993-2008 Microsoft Corporation. Reservados todos los derechos l 2- GEORGES DIDI-HUBERMAN. ( 2004) Lo que vemos lo que nos mira, Editorial Manantial. l 3- HUTCHEON LINDA.(1993). La política de la parodia postmoderna. Criterios, La Habana, edición especial de homenaje a Bajtín, pp. 187 l 4- ABAMBEN GEORGIO. ( 2005) El hombre sin contenido. Editorial Altera pp. 174 l 5- WALTER BENJAMIN. “Discursos interrumpidos” en la obra de arte en la época de su reproductibilidad

técnica. Recuperado de internet en http://www.philosophia.cl/biblioteca/Benjamin/la%20obra%20de%20arte.pdf

85


EL ESPACIO EXPOSITIVO, UNA VENTANA ABIERTA AL CONOCIMIENTO JOSÉ PÁEZ Grupo De Investigación Creación Y Pedagogía jpaez1948hotmail.com RESUMEN El presente texto narra una experiencia del semillero del proyecto Investigación VISIÓN PROCESO, el cual en el año 2006 emprende una travesía que tenía como intención hacer dinámico el conocimiento generado en la salas de exposición, acercar los objetos expuestos en un salón de arte al público, formar en él un conciencia critica que le permitiera acercarse de una manera propositiva y creativa a una muestra artística. Palabras claves. Salón artístico, curaduría, formación de públicos, educación. Para acercarnos a este tema antes que nada debemos aclarar que tanto los espacios museísticos como los salones de arte están atravesando un importante proceso de transformación en donde se está despertando un creciente interés por el publico, de las relaciones que éste sostiene con los espacios expositivos, así como de la trascendencia que pueda representar una muestra dentro de la comunidad a la cual va dirigida. Con el pasar de los años se ha venido transformando cada vez más la posición que insiste que los museos son lugares en donde se adquieren, almacenan, conservan y exhiben los vestigios del patrimonio cultural, a una que subraya que este es un espacio educativo que dinamiza la cultura dentro de la sociedad. Poco a poco nos estamos dando cuenta que si bien, es importante conservar nuestro legado cultural, también es una prioridad que esta fuente de conocimiento sea asequible a cualquier tipo de público, “seria en vano el trabajo de coleccionar, investigar, conservar y exhibir los objetos originales si el ser humano no pudiera animar dichos objetos y establecer con ellos un dialogo en el cual no solamente se respondan preguntas sino que igualmente se planteen interrogantes sobre esos mismos objetos.”1 Los espacios expositivos, proponen más que un simple proceso de selección y montaje, estos, más que una serie de objetos organizados en un espacio puesto al alcance de la personas, son 1

Varios autores, La educación en el museo memorias del coloquio nacional, Museo nacional de Colombia, Bogotá 2001

86


territorios de información donde el conocimiento se construye de una manera conjunta, es una cocina en donde los encargados de preparar el banquete son los artistas, los curadores y el publico. La materia prima de este banquete es la muestra, que como se había mencionado, es un entramado de una serie de artefactos u objetos que se entrelazan entre si para producir un discurso; de esto esta encargado el curador, su función es generar una narración y propender para que este banquete lo puedan disfrutar diversos tipos de públicos, su función no se trata en ningún sentido de masticar y digerir el conocimiento que ofrece la muestra, sino de encontrar los utensilios de mesa apropiados para que las personas se integren, compartan y disfruten por si mismos de la cena. Las personas por su parte son un elemento fundamental dentro de este proceso, puesto que son ellas, las que en últimas van a observar, oler, saborear y sobretodo juzgar este festín; sin un público que contemple, disfrute y aprenda, un espacio expositivo no tendría sentido porque no son los objetos, las obras de arte o las reliquias las que constituyen nuestra riqueza cultural, sino el conocimiento que se pueda generar entorno a ellas. Dada la importancia que tiene el espectador dentro de estos eventos, los esfuerzos deben estar dirigidos a prestar herramientas que les permitan formar sus propios juicios de apreciación, generar con ellos una conciencia crítica que les ofrezca la posibilidad de ver, reflexionar y crear en torno al conocimiento propuesto en una exposición. ¿Pero cuales son las dinámicas o herramientas utilizadas para realizar estos objetivos y a partir de cuando se implementan? Desde hace mucho tiempo se está tratando de investigar sobre las relaciones publico-museo, así como de las funciones pedagógicas que este espacio debe prestar 2 dentro de la sociedad. Escribe José Luís Crespán en el libro “museos en el mundo” que los primeros esfuerzos en convertir al museo en una institución al servicio de la sociedad se dan hacia 1880 cuando el Louvre abre sus puertas al publico de una manera permanente, seguido del victoria and Albert Museum de Londres que entre los años 1914 y 1918 realiza ejercicios en donde un publico escolar construye piezas artesanales relacionadas a los objetos del museo, en Estados Unidos dice él, se nota el máximo auge de la experiencia pedagógica a partir de 1920. “En 1960, este país contaba con treinta y cinco museos dedicados estrictamente a los escolares, mientras en el resto del mundo los existentes no superaban la docena,”3 a partir de este momento se han incrementado notablemente las investigaciones en torno al estudio de publico dentro del museo, llevando la creación de nuevas normas y nuevas estrategias que pretenden hacer del museo un lugar mas didáctico y asequible para las personas que lo visitan. 2 3

Varios Autores, los museos en el mundo, ED salvad,1973 Ibíd.

87


En Colombia una de las pioneras en esta materia fue la maestra Beatriz Gonzáles con su proyecto escuela de docentes y talleres infantiles, el cual pretendía capacitar a jóvenes para que irradiaran el conocimiento generado desde el museo a la población escolar, para dicho fin también diseño guías para maestros, juegos didácticos y su famoso museo en una caja con el cual llevaba las muestras a las instituciones que por las distancias u otro tipo de inconvenientes no podían acceder a estos espacios. Actualmente dentro de las dinámicas mas utilizadas por las salas de exposición encontramos: Textos acompañantes. Que son reseñas que los curadores escriben y ubican al comienzo de cada muestra para ofrecer información al público en torno a los artistas, sus obras, así como de la razón que impulsó el desarrollo de la exposición. Las conferencias y charlas temáticas. Son eventos que se realizan paralelos al salón en los que se invitan a especialistas para discutir los temas planteados por él mismo. Las visitas guiadas. Una visita guiada es un proceso de comunicación, un recorrido en que una persona experta conduce a los visitantes a lo largo de una exposición y le enseña parte por parte los conceptos y elementos que la conforman. Es una especie de tamiz interpretativo que fomenta la participación activa del espectador en todos los espacios de la muestra. Las cajas y cartillas didácticas. Que son un proyecto adelantado por el museo de oro, con el que leva a la población estudiantil que no puede desplazarse al museo parte de sus colecciones en un maletín didáctico, que contiene además objetos como fragmentos de cerámica, orfebrería, huesos, fichas técnicas para cada uno de los elementos, una cartilla y una hoja de evaluación, con la que puede el profesor diseñar y mostrar a sus estudiantes un mini museo sin salir del salón de clase.

EL VIAJE ARTÍSTICO (Una experiencia de guías dentro del proyecto visión proceso) “Recorríamos las orillas del río, las gándaras, el bosque, y subíamos al monte Sinaí. Cada viaje de esos era para mi como una ruta del descubrimiento”4. Del cuento La Lengua De Las Mariposas Manuel Rivas.

Uno de los problemas más notorios dentro de las estrategias utilizadas hasta ahora por la mayoría de las salas de exposición, es la falta de elementos prácticos en el momento de acercarse al público infantil, la organización de los objetos en el espacio, los textos, las conferencias y en algunos casos las visitas guiadas no están diseñadas para este tipo de publico. 4

RIVAS Manuel, ?Que me quieres amor? ED suma de letras

88


Cuando un niño entra a una exposición se encuentra en principio con el celador y una alarma que indican no tocar, textos para ellos incomprensibles, objetos ubicados en lugares donde no pueden observar con facilidad, y por último un recorrido con un largo discurso de un guía que en muchos de los casos termina por aburrir. Una visita para un niño debe ser como un viaje donde se pueda observar, tocar, oler, saborear y sobre todo jugar. La sala de exposición debe dejar de ser el lugar donde se mira y se compra arte, debe empezar a ser vista como un espacio donde existe la posibilidad de participar, opinar, discutir y crear. Hay que pensar en estrategias que además de mostrar los contenidos conceptúales y técnicos de una exposición, ofrezcan a los infantes educación y diversión por medio de experiencias 5 perceptivas. “solo a través de los sentidos puede tener lugar el aprendizaje” escribe lowenfeld planteando uno de los problemas más importantes dentro de nuestro sistema escolar en donde definitivamente han pasado a un segundo plano las experiencias sensoriales, “el fútbol se mira, no se juega la música es un jarabe calmante que se escucha en una tienda de comercio 6 cualquiera y no un medio de desarrollo en el cual se interviene o participa” . Desde el momento de su formación una de las preocupaciones del proyecto de Investigación Visión Proceso ha sido generar un vinculo fuerte entre salón de arte y la población estudiantil Tunjana, para lo cual además de implementar las estrategias pedagógicas anteriormente nombradas, ha creado otras como el viaje artístico que es una visita taller en donde el niño puede realizar sus propias creaciones de la mano con los artistas que exponen dentro del salón, su intención es estimular la naturaleza expresiva y sensible del niño por medio de la experimentación con distintos materiales; con esta herramienta, guías, maestros y artistas hacen del salón un verdadero viaje de diversión y conocimiento. El viaje artístico pretende convertirse en una ruta de descubrimiento, aquella que describe “Gorrión” en el cuento La Lengua de Las Mariposas, Un relato donde un niño que siente mucho miedo de entrar a la escuela descubre que su maestro no pega, ni castiga, sino que por el contrario hacía de todas sus clases una interesante expedición hacia mundos desconcertantes y desconocidos. Don Gregorio les enseña sus conocimientos de la naturaleza creando historias con los objetos, insectos y elementos que se encontraban en sus recurrentes salidas al campo, donde por medio de los sentidos los niños iban descubriendo su mundo, “Porque todo lo que tocaba era un cuento atrapante. El cuento podía comenzar con una hoja de papel, después de

5

LOWENFELD Víctor, desarrollo de la capacidad creadora, Buenos Aires, Kapeluz 1980

6

Ibíd.

89


pasar por el Amazonas y el sístole y diástole del corazón. Todo se enhebraba, todo tenía sentido. La hierba, la oveja, la lana, mi frío.”7 Con la estrategia planteada anteriormente y a la luz de este ejemplo podemos encontrar que el salón de arte puede convertirse en un instrumento muy importante para la educación artística, ya que en éste, el niño tiene las obras de arte a la mano para observarlas y comprenderlas por medio de las enseñanzas de sus mismos creadores, además con los talleres se pretende que el niño experimente todo un mundo de experiencias como lo pueden ser recortar, dibujar, componer, armar, pintar, ensamblar, etc. Así es que como en el cuento, con esta herramienta se pretende hacer ver al niño que un espacio expositivo es un lugar donde todo está entrelazado, donde todo tiene un sentido, y sobre todo que en una exposición el conocimiento no aburre.

BIBLIOGRAFÍA

l Varios autores, la educación en el museo, memorias del coloquio nacional, Ministerio de

Cultura, museo nacional de Colombia 2001 l Varios autores, Museos abiertos, Bogotá para los estudiantes, secretaria de educación,

Bogotá, 2000 l TREPEAT Joan, MASEGOSA Joseph, Como visitar un museo, ED Ceac, España 1991 l Varios autores, Los museos en el mundo, ED salvad 1973 l RIVAS Manuel, ¿Que me quieres amor?, ED suma de letras l Varios autores, Memorias de los coloquios nacionales, la arqueología, la etnografía, la historia y el arte en el museo, ministerio de cultura, museo nacional de Colombia

90


¿QUÉ HE APRENDIDO AL PERTENECER A UN SEMILLERO DE INVESTIGACIÓN? DÍAZ DIANA P. Grupo de investigación: GEBIMOL semillero GIGA Escuela de ciencias biológicas, Facultad de ciencias básicas dipadita87@hortmail.com Como estudiantes y futuros investigadores sentimos la necesidad de buscar oportunidades que nos permitan verificar muchos de los conocimientos adquiridos en el aula, aprender algo más y porque no, descubrir otros para establecer nuevas teorías e hipótesis. Un ejemplo de ello es la participación y vinculación en los semilleros de investigación, que a través de sus tutores y líneas investigativas, guían y ayudan al estudiante a afianzar, reforzar y fortalecer sus conocimientos. La presencia de estos grupos en cada universidad es de vital importancia porque nos involucran en el desarrollo y ejecución de los proyectos de investigación, así como en las diferentes actividades propuestas por la institución. Adicionalmente es posible participar como ponentes o desarrollando posters para dar a conocer nuestros proyectos o a su vez asistiendo a los diferentes congresos, seminarios y encuentros. Siempre que surge un problema o idea de investigación hay que saberla plasmar, redactar e interpretar para darla a conocer y así obtener una posible solución. Por ello es importante que nosotros como estudiantes aprendamos a escribir, y saber a qué personas se quiere dirigir el tema, teniendo en cuenta sus intereses. Cuando se asiste a un congreso o seminario se absorbe un poco de la habilidad de expresión y nos enseña cómo es posible dirigirse a varias personas logrando atraer su atención puesto que no basta con conocer del tema sino saber expresarlo de tal manera que pueda mantener la atención de quienes escuchan, durante toda la exposición. Estas experiencias sumadas al entrenamiento lector (haciendo revisiones bibliográficas) nos permite adquirir fluidez para escribir un artículo, un ensayo, una propuesta entre otros; la tarea de escribir no es del todo fácil y si se quiere atrapar la atención del lector se tiene que hacer de manera sugestiva para que al leer la primera línea o el titulo el lector se sienta cautivado y quiera continuar su lectura. Para concluir, me permito invitar a mis compañeros estudiantes a ser participes de las diferentes actividades de la institución vinculándose a los semilleros de investigación y siendo parte activa de ellos, esta es una experiencia que nos abre campos y espacios en el ámbito laboral e intelectual. A demás, es una gran oportunidad para dar a conocer nuestros ideales y proyectos no solo a nivel institucional sino en todo el país y porque no internacionalmente en la red haciendo aportes en pro de la ciencia, la tecnología y la humanidad.

91



Revista Semilleros de Investigacion II