Issuu on Google+

Número

Fundación Universitaria de San Gil UNISANGIL

1 Revista de la Facultad de Ciencias Naturales e Ingeniería Enero-diciembre de 2008

CONTENIDO

Presentación

Faver Adrián Amorocho Sepúlveda

Investigaciones Diseño y construcción de un prototipo pulverizador de panela con la metrología apropiada para el control de las variables físicas que intervienen en el proceso de cristalización Grupo de Investigación y Desarrollo Tecnológico- IDENTUS

Diseño y construcción de un prototipo automatizado para la torrefacción de café Grupo de Investigación y Desarrollo Tecnológico- IDENTUS Desarrollo Tecnológico

Robótica móvil: una aproximación preliminar Milton Javier Muñoz Neira

Sistema de autoevaluación y acreditación a&a: Modalidad Desarrollo Tecnológico para apoyar el proceso de Autoevaluación de UNISANGIL Lyda Fabiola Castro Pinzón

Diseño y construcción de una caja de skinner automatizada Johana Cecilia Gonzáles Melgarejo, Alfonso Rodríguez Suarez y Roosebelt Virgilio Méndez Bueno 1010101010101010101010 010101010101010101010 1010101010101010101010 010101010101010101010 1010101010101010101010 010101010101010101010 1010101010101010101010 010101010101010101010

Diseño y construcción de un sistema multiagente para la generación de aplicaciones empleando la integración de módulos de software sin la intervención de seres humanos José Fabián Díaz Silva

Análisis Pesticidas: salud y ecosistemas Ludwing Mauricio Cogollo Rueda


ECNOLOGICOS

0101010101010101010101010 1010101010101010101010101 0101010101010101010101010 1010101010101010101010101 0101010101010101010101010 Revista de la Facultad de Ciencias Naturales 1 0 e1Ingeniería 0101010101010101010101 Fundación Universitaria de San Gil -UNISANGIL 0101010101010101010101010 Número 1, enero-diciembre de 2008 1010101010101010101010101 46 páginas ISSN 2027-4408 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 CONSEJO EDITORIAL UNISANGIL 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 Lucas Sarmiento Ardila 0101010101010101010101010 Rector José Manuel Camacho Márquez 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 Vicerrector Administrativo y Financiero 0101010101010101010101010 Israel Torres Chacón Vicerrector Académico 1010101010101010101010101 Miguel Arturo Fajardo Rojas 0101010101010101010101010 Director Departamento de Investigaciones 1010101010101010101010101 Beatriz Toloza Suárez Decana Facultad de Ciencias de la Educación y la Salud 0101010101010101010101010 Fabio Enrique Barragán Santos Coordinador de Publicaciones 1010101010101010101010101 COMITÉ EDITORIAL MATICES TECNOLÓGICOS 0101010101010101010101010 Faver Adrián Amorocho Sepúlveda1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 Decano Facultad de Ciencias Naturales e Ingeniería 0101010101010101010101010 William Guerrero Salazar Director Departamento de Investigación 1010101010101010101010101 Wilson Gamboa Contreras Coordinador Centro de Investigaciones de la Facultad de 0101010101010101010101010 Ciencias Naturales e Ingeniería Coordinador de la revista 1010101010101010101010101 COORDINACIÓN EDITORIAL 0101010101010101010101010 Fabio Enrique Barragán Santos 1010101010101010101010101 CORRECCIÓN LINGÜÍSTICA Silvia Alejandra Aparicio Patiño 0101010101010101010101010 DISEÑO, DIAGRAMACIÓN Y FOTOGRAFÍA Punto gráfico, agencia de publicidad 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 Cristóbal Guevara Ramírez 0101010101010101010101010 IMPRESIÓN EDISOCIAL 1010101010101010101010101 **************** 0101010101010101010101010 CORREO ELECTRÓNICO maticestecnológicos@unisangil.edu.co 1010101010101010101010101 Cra. 7 No. 14-34, San Gil Conmutador (7) 7 24 57 57 ext. 116 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 Calle 7 No. 20-63, El Yopal 1010101010101010101010101 0101010101010101010101010


Fundación Universitaria de San Gil UNISANGIL

Revista de la Facultad de Ciencias Naturales e Ingeniería

Presentación Presentación

Faver Adrián Amorocho Sepúlveda Decano Facultad de Ciencias Naturales e Ingeniería

Para la Fundación Universitaria de San Gil - UNISANGIL, y especialmente para la Facultad de Ciencias Naturales e Ingeniería, es muy gratificante poner a disposición de la comunidad académica en el campo de la ingeniería y la tecnología nuestra primera edición de la revista MATICES TECNOLÓGICOS, como espacio formal que invita a la divulgación de resultados, experiencias, reflexiones e intereses investigativos que surgen del trabajo de docentes, estudiantes, egresados y empresarios, quienes nos asociamos tras de cada nueva propuesta de investigación dentro de la Facultad. El crecimiento acelerado con el que hoy día se está produciendo nuevo conocimiento, no solo a nivel científico, sino en cualquier sentido en que el hombre busca dar respuesta a sus interrogantes y vacíos, implica una organización sistematizada de dicha información y una comunicación; en las que se incluyan no solo los aciertos, ni solo los resultados, sino también los errores y los procesos que permiten resultados válidos. De esta manera podremos comunicarnos para adaptar y apropiar convenientemente los conocimientos ajenos, que tendrán que convertirse en propios. Hoy día no se le da tanta importancia a investigar "para ver qué resulta" sino para satisfacer con respuestas los interrogantes que se van planteando, y solucionar los problemas que van surgiendo. Es en este sentido que surge el interés y la necesidad de crear esta nueva revista que busca, para empezar, recopilar anualmente el trabajo de los miembros de la Facultad de Ciencias Naturales e Ingeniería, de las ciudades de San Gil (Santander), El Yopal (Casanare) y Chiquinquirá (Boyacá), y de miembros de otras instituciones que consideren oportuno realizar sus publicaciones desde nuestra revista. La revista se ha planteado como propósito ser un mecanismo de comunicación para socializar las experiencias en investigación, dar elementos para el surgimiento de nuevas ideas y propuestas, generar contextos para la asociación con el sector productivo, dar un espacio para que los futuros investigadores miembros de semilleros de investigación puedan divulgar sus trabajos, y posibilitar que los resultados de las tesis de grado destacadas sean publicadas por sus autores. Con el ánimo de lograr una mayor cobertura en su difusión y de aprovechar los nuevos medios de comunicación, MATICES TECNOLÓGICOS será editada en medio digital, esperando con ello mayor comodidad para nuestros lectores; a la vez se proyecta que próximas ediciones, también se pueda tener acceso a la revista desde el portal de UNISANGIL. ¡Brindamos un cordial saludo de bienvenida a todos nuestros lectores!

3


Fundación Universitaria de San Gil UNISANGIL

Diseño y construcción de un prototipo pulverizador de panela con la metrología apropiada para el control de las variables físicas que intervienen en el proceso de cristalización Ingenieros Wilson Gamboa Contreras, Ana Milena Gómez Gómez, Johana González Melgarejo, Angélica María Luque Peñuela, William Guerrero Salazar, Alonso Retamoso Llamas. Grupo de Investigación y Desarrollo Tecnológico de UNISANGIL, IDENTUS, Universitaria de San Gil UNISANGIL innovacionydesarrollo@unisangil.edu.co

Fundación

Resumen En este artículo se muestran los resultados preliminares del proyecto "Diseño y construcción de un prototipo Pulverizador de panela con la metrología apropiada para el control de las variables físicas que intervienen en el proceso de cristalización", dirigido al mejoramiento y desarrollo tecnológico de las pequeñas y medianas empresas productoras de panela de la región, optimizando la determinación empírica del proceso de pulverización, implementando herramientas tecnológicas como la automatización industrial y el control de proceso. Todo con el ánimo de brindar mayores ventajas competitivas al sector productivo y garantizar la calidad del producto al consumidor final.

Investigaciones

Revista de la Facultad de Ciencias Naturales e Ingeniería

Investigaciones

Palabras clave: Pulverización, cristalización, panela, variables físicas, automatización agroindustrial.

1 Introducción La producción de panela es considerada la segunda agroindustria rural después del café en Colombia. Su origen natural proviene de la caña de azúcar y es un cultivo básico de la economía colombiana. Sólo un pequeño segmento de la producción es desarrollada en forma industrial y el restante se realiza en pequeños establecimientos (trapiches) con capacidad de producción inferior a los 250 Kg. de panela por hora. [1] En Colombia, el departamento de Santander ha incorporado gradualmente soportes tecnológicos en el proceso productivo de la panela, los cuales se han limitado al aumento de eficiencia en la combustión de la

1. Norma ICONTEC N.1311, características de la panela pulverizada para su producción y comercialización.

4


Con las preferencias del ATPDEA para el alcohol carburante, el surgimiento de nuevos mercados, los Tratados de Libre Comercio (TLC) y las nuevas exigencias de los consumidores, la agroindustria panelera está obligada a innovar en sus procesos productivos y en la presentación de sus productos. Por esto debe implementar tecnología apropiada para la transformación de las mieles en panela, de tal forma que fortalezca la competitividad del sector. La panela en el mercado nacional y, aún más, en el internacional, incursiona como un producto de alto valor agregado, en donde se destacan sus bondades nutritivas. a pesar de estas bondades, su principal desventaja se relaciona con la dificultad de manipulación. Por tal razón, el consumo masivo de panela se difundirá masivamente cuando su presentación facilite su uso (pulverizada). En relación con lo anterior, la industria panelera requiere de nuevos equipos que le permitan ser más eficiente en el proceso productivo, disminuyan costos de producción y mejoren y estandaricen la calidad del producto y de su presentación. En la actualidad, estos elementos se constituyen en la principal problemática y limitante de la panela frente al consumidor. La esencia o asunto básico a tratar dentro del desarrollo de la presente investigación orbita en torno a dos elementos vitales para el desarrollo del sector panelero y del bienestar general de un conglomerado social, cuya estructura se ha visto fuertemente golpeada por los precios de la panela en el mercado. El primero de ellos se relaciona con el diseño y construcción de un equipo pulverizador de panela que se base en el comportamiento de las variables físicas que intervienen en el proceso de cristalización, y el segundo, con la incorporación de valor en un producto que llegue más fácil a la mesa de los consumidores, lo que se traduce en mayores ingresos para los productores.

Investigaciones

hornilla y en la utilización de materiales de mejor calidad y que representen mayor facilidad en el momento de la limpieza. sin embargo, aún utilizan la mano de obra familiar para la elaboración de este producto, en la gran mayoría de los casos de forma artesanal, sin la posibilidad de modernizar su producción y expandir su mercado debido a los altos costos que presenta la adaptación e implementación de la nueva tecnología.

En la actualidad, los procesos para la obtención de panela pulverizada presentan características comunes a la fabricarción de la panela tradicional, a saber: es artesanal, empírico y arraigado a las costumbres familiares de las regiones donde se produce. Sólo hasta hace unos pocos años se han realizado algunos esfuerzos aislados para convertir esta actividad en un sistema productivo, mediante la incorporación de tecnología, cambio de infraestructura y búsquedas de nuevos mercados. Dentro de este cambio cultural es fundamental realizar un análisis de las condiciones y variables que intervienen en el proceso de elaboración de panela en cualquiera de sus presentaciones. Así, las variables innatas al proceso pueden ser monitoreadas y controladas. Para ello, se requiere de instrumentos tecnológicos que realicen un sensado* y puedan adquirir, procesar, monitorear y controlar toda la información con el fin de automatizar el proceso. Dado que la de pulverización de la panela en forma manual se traduce en un proceso prolongado, deficiente y costoso, se hace indispensable la utilización de un equipo apropiado para la pulverización de panela en los pequeños y grandes trapiches, con el fin de agilizar las actividades, de homogenizar el producto y disminuir las pérdidas de materia prima. De esta forma, al productor se le brinda la oportunidad de ampliar e incursionar en nuevos mercados, y al consumidor, la posibilidad de adquirir un

*

Por sensado se entiende la operación de un elemento sensor, el cual puede definirse como un agente capaz de reaccionar ante una característica física o química del entorno. De ahí su analogía con los sentidos, propios de las especies animales, y el hecho de que el vocablo se escriba con S.

5


El diseño del prototipo permite la portabilidad, facilidad de lavado, limpieza, acceso y fácil manipulación. Esto permite realizar las diferentes operaciones del proceso de pulverización, solucionando los inconvenientes presentados en el batido de las mieles, homogeneización y clasificación por tamaño del grano , el enfriamiento del producto y su posterior almacenamiento, empaque y comercialización. En este artículo se muestran los resultados preliminares del proyecto "Diseño y construcción de un prototipo Pulverizador de panela con la metrología apropiada para el control de las variables físicas que intervienen en el proceso de cristalización", financiado por COLCIENCIAS, la Fundación Universitaria de 2. Descripción Técnica 2.1. Pulverización de Panela La panela pulverizada inicia su proceso de la misma forma que se elabora panela tradicional, en donde el calentamiento del jugo, en el mejor de los casos, se hace directamente en pailas de acero inoxidable, permitiendo que la temperatura se eleve de 40ºC a 60ºC. En este momento se mide el pH (el cual debe estar entre 5,8 - 6,2) para determinar si las mieles son aptas para la pulverización. Posteriormente se llevan las mieles a una temperatura de 128 ºC, con el fin de deshidratarla. Para obtener el producto final, se desarrollan las siguientes etapas: vertimiento de la miel en la batea, agitación repetida hasta formación del grano, tamizaje y finalmente el secado, el cual puede ser natural o artificial. La temperatura final de punteo depende, en orden de importancia, del Brix de las mieles, de la altura sobre el nivel del mar, del estado y tecnología incorporada en el trapiche y de la pureza de las mieles. [2].

Investigaciones

producto de grandes beneficios nutricionales, fácil de consumir y a costos competitivos con artículos similares o sustitutos (azúcar - mieles).

2.2 Transformación de la panela Para la elaboración de la panela se requiere que la caña pase por las siguientes etapas: Apronte: consiste en la recolección de la caña cortada, su transporte desde el sitio de cultivo hasta el trapiche y su almacenamiento en el depósito del trapiche, previo a la extracción de los jugos en el molino. Extracción de jugos: la caña se somete a compresión en los rodillos o mazas del molino, lo cual propicia la salida del contenido líquido de los tallos. Los productos finales de esta fase son el jugo crudo y el bagazo. El primero es la materia prima que se destina a la producción de panela, mientras el segundo se emplea como material combustible para la hornilla una vez se ha secado. Limpieza de jugos: El paso inicial es retirar las impurezas gruesas de los jugos, ya sea con la ayuda de medios físicos (a través de un prelimpiador) o medios térmicos (calor),para obtener un producto de excelente calidad. Esta etapa consta de tres operaciones: prelimpieza, clarificación y encalado. Evaporación y concentración: La eficiencia térmica de la hornilla, y su efecto sobre los jugos, se cuenta dentro del conjunto de factores que influyen en la calidad de la panela. La evaporación del agua contenida en los jugos por calentamiento a 96°C permite alcanzar la concentración de sólidos apropiada para la consolidación y moldeo de la panela a 120°C. Estas operaciones se llevan a cabo en pailas o fondos dispuestos en línea. Los jugos se desplazan entre estos recipientes por paleo manual y, al finalizar su tránsito, se denominan mieles. Punteo y batido: Esta fase de la fabricación de la panela persigue la obtención del "punto". Mediante paleo manual se incorpora aire a las mieles en presencia de calor, operación que se lleva a cabo en la paila "punteadora", ubicada a continuación de las pailas evaporadoras.

6


En la figura 1 se muestran fotografías del proceso artesanal de obtención de panela pulverizada.

Figura 1. Producción artesanal de panela pulverizada.

2.3 Variables que interactúan en el proceso de pulverización de la panela La Pulverización de la Panela es un proceso que depende básicamente de la altura sobre el nivel del mar, la maduración de la caña, el porcentaje de sólidos solubles, la concentración de azúcares, la temperatura del proceso y la acidez de los jugos. En la figura 2 se relacionan algunas de estas variables.

Investigaciones

Pulverización: Se obtiene mediante el batido y deshidratación de las mieles en el momento de alcanzar el punto (aproximadamente a los 128 grados centígrados). Luego, se vacía la miel en la batea y se deja reposar entre 2 y 3 minutos. Enseguida, se agita repetidamente con la pala de madera hasta que comienza a formarse el grano. [3]

Figura 2. Variables que interactúan en el proceso de pulverización de la panela

pH: El grado de acidez de los jugos es uno de los factores importantes a monitorear en el proceso de elaboración de la panela. Se debe trabajar con un pH que evite el desdoblamiento de la sacarosa, pero que a la vez no destruya los azúcares reductores presentes.

7


Humedad: Esta variable es de gran importancia dentro del proceso. Se entiende como contenido de humedad el valor expresado en porcentaje (en base húmeda), de la masa del agua en relación con su masa total. La masa total es la suma del agua y de los sólidos constituyentes. Según las características de la Panela Pulverizada, el producto final debe tener un grado de humedad entre 0% y 5%., de acuerdo con los requisitos físico-químicos de calidad para panela pulverizada revisados y ajustados por el laboratorio Nacional de Referencia del INVIMA. Ver tabla 1.

Tabla 1. Requisitos físico-químicos de la panela

Investigaciones

Temperatura: La medida de la temperatura es fundamental en el proceso de Pulverización de panela. Normalmente se logra medir a través de un sensor, un termopar o detector de temperatura en contacto con una superficie.

Para obtener una relación de temperatura con la humedad en el proceso Pulverización, se debe tener en cuenta las condiciones ambientales donde se va a trabajar, la medición de temperatura del equipo, la temperatura del material (panela pulverizada) y la humedad. Grados brix. Miden la concentración de sacarosa disuelta en un líquido mediante un refractómetro.

3. RESULTADOS PRELIMINARES 3.1. Características del diseño mecánico del prototipo La plena identificación de las variables que intervienen en el proceso de pulverización de la panela ha permitido realizar un algoritmo y un diseño previo de la distribución de los sistemas del prototipo, como se puede apreciar en la figura 3. Recolección de Mieles: Es la etapa inicial de todo el proceso. Antes de llevar la miel al equipo se realiza la medición de variables fundamentales para el proceso de pulverización tales como grados brix, pH y temperatura, las cuales serán registradas por sensores en puntos específicos del proceso. Batido: El batido está compuesto por un sistema electro-mecánico y dispositivos electrónicos (sensores) encargados de tomar cada una de las variables que intervienen en el proceso de pulverización. La medición de variables es la fase fundamental del sistema de batido, pues permite tener un mayor control en el manejo y comportamiento de la miel. Esto se hace gracias a los sensores de nivel y temperatura. El equipo se encargará de hacer un manejo automático del producto deseado en este sistema (batido) para luego pasarlo al tamizado por medio del transportador.

8


MEDICIÓN DE VARIABLES pH y T

MIEL APTA?

Panela Tradicional

INICIO Proceso de Pulverización

BATIDO Activación Sistema mecánico

Tiempo Aprox: ?

Suspensión del sistema de batido

Tiempo Aprox: ? Activación: Sensor de nivel

Activación Sistema mecánico Desprendimiento por fricción

Activación: Sensor de T

Investigaciones

Transporte al Tamiz: El transporte al tamiz está compuesto por un sistema de bandas acompañado de un sistema de enfriamiento (en estudio), con el fin de bajar la temperatura de la panela pulverizada y, de esta manera, evitar que se formen grumos sólidos de panela. Luego este va al sistema de tamizado.

Salida al sistema de tamizado (Proceso de enfriamiento)

Sistema de Tamizado Pulverizada Selección de tamaño Granulada Producto final Figura 3. Algoritmo propuesto para funcionamiento del prototipo pulverizador.

El prototipo final contará con seis etapas, las cuales se describen a continuación:

Tamizado: Este sistema se complementa con una serie de tamices de diferentes tamaños con el fin de obtener varios tipos, como lo son pulverizada y granulada. Esta selección se hará por medio de la agitación constante produciendo el desprendimiento de los grumos, ayudando a enfriar el producto y así obtener un producto homogéneo. Recolección del Producto Final: Es el proceso final. En este sistema se medirán las variables de temperatura y humedad de la panela pulverizada con el fin de entregar un producto garantizado para su posterior empaque. [4]

9


En la figura 4 se muestran los componentes fundamentales del prototipo pulverizador.

Figura 4. Diseño preliminar del prototipo pulverizador.

Investigaciones

Panel de Control: El panel de control tiene como función monitorear cada una de las variables que se están tomando en tiempo real. También posibilita hacer un adecuado manejo de cada uno de los sistemas en el proceso. El panel de control permite visualizar la operación del sistema e intervenirlo a través de una pantalla táctil, la cual recibe las señales de un PLC (Lógica Programable por Computador) facilitando la operación por parte del operario.

4. RESULTADOS ESPERADOS Teniendo en cuenta los parámetros de entrada y salida del proceso de obtención de panela pulverizada en función de las variables temperatura, humedad, grados brix y pH, se busca alcanzar lo siguiente: ? Un prototipo pulverizador de panela con la metrología apropiada para el control de las variables físicas

que intervienen en el proceso de cristalización, que tenga la capacidad de eliminar el error ocasionado por la toma empírica en la determinación del "PUNTO" de la miel, garantizando el proceso de cristalización y el producto pulverizado, cumpliendo con los estándares y requisitos exigidos por las entidades reguladoras del mismo. ? Un protocolo de control de las variables físicas que intervienen en el proceso de pulverización. ? Tecnología apropiada en el proceso de pulverización de panela, con grandes posibilidades de acceso y

de competitividad en los mercados nacionales e internacionales. ? Desarrollo de nuevo conocimiento que tenga las cualidades suficientes para optar por el registro de

propiedad intelectual del sistema de control de las variables físicas que intervienen en el proceso de pulverización. ? Desarrollo de tecnologías eficientes y amigables con el entorno natural. ? Participar con el desarrollo agroindustrial de la región con la aplicación, adaptación, optimización e

innovación de tecnología a sus procesos productivos. Esto generará una cultura de calidad dentro de los trapiches de la región, los cuáles ofrecerán productos garantizados. ? Alternativa de incorporación de tecnología en el sistema de pulverización de panela, con el fin de

facilitar la incursión de los productores en el mercado con un producto de calidad y con los volúmenes que le son exigidos.

10


5. CONCLUSIONES

El modelo propuesto es totalmente innovador y pionero en el control de las variables físicas que intervienen en el proceso de cristalización de la miel de caña, que hasta el momento han generado las mayores dificultades en el proceso productivo, limitando la incursión de los productores hacia otros segmentos del mercado que en la actualidad no han sido satisfechos plenamente. En este momento, el proyecto se encuentra en la etapa de Diseño y Simulación. Se realizó una completa revisión de artículos, tesis y trabajos desarrollados en la industria panelera, especialmente en términos de pulverización. Lo anterior condujo a establecer una relación de intercambio de información con la Universidad de Ambato, Ecuador, quienes han mostrado algunos adelantos en el tema y están muy interesados en conocer los resultados de esta investigación.

REFERENCIAS BIBLIOGRÁFICAS

[1]

MARTÍNEZ COVALEDA, Héctor J. "La Cadena Agroindustrial De La Panela En Colombia, Una Mirada Global De Su Estructura Y Dinámica, 1991-2005". Bogotá DC, marzo de 2005.

[2]

FONSECA ACOSTA, Edwuar. y D, Néstor. "Consejos técnicos para tener en cuenta durante el proceso de producción de la panela de buena calidad". Ministerio de Agricultura y Desarrollo Rural, Federación Nacional de Producción de Panela-FEDEPANELA

[3]

MEDINA, María. Limpieza Y clarificación del jugo de la caña en la elaboración de panela. En: Avances del cultivo de caña y elaboración de panela. Tercera Edición. Convenio ICA - Holanda de investigación y divulgación para el mejoramiento de la industria panelera en Colombia, CIMPA. Barbosa, 1998. p 174-163

[4]

FONSECA ACOSTA, Edwuar. Producción más limpia en el subsector panelero. FEDEPANELA

Investigaciones

Los estudios y análisis desarrollados hasta el momento permiten predecir el éxito de la pulverización de panela mediante la reacción de la miel en un ambiente controlado, garantizando un producto homogéneo, de excelente calidad, y con rendimientos mayores a 100 Kg/hr.

PALLÁS A. Ramón. Sensores y Acondicionadores de Señal. Alfaomega Grupo Editor, S.A. de C.V. 3ª Edición. Capitulo 2. Sensores Resistivos. México 2000. NORTON, Robert L. Diseño de Maquinaria. McGraw-Hill Interamericana.. Capitulo 9. Trenes de Engranes. México, 2005 SHIGLEY Joseph E., MISCHKE Charles R. Diseño en Ingeniería Mecánica. McGraw-Hill.. Sexta Edición. Parte 3. Diseño de Elementos Mecánicos. México, 2002 INCROPERA, Frank P., DEWITT David P. Fundamentos de Transferencia de Calor. Capitulo 11 Intercambiadores de Calor. Prentice Hall.... México, 1999

11


Fundación Universitaria de San Gil UNISANGIL

Diseño y construcción de un prototipo automatizado para la torrefacción de café Ingenieros: Wilson Gamboa Contreras, Sandra Benítez Muñoz, Fredy Rueda Gualdrón, Néstor Acuña, Enrique Blanco Olarte, Alonso Retamoso, Fredy Rincón Osorio. Grupo de Investigación y Desarrollo Tecnológico de UNISANGIL, IDENTUS, Fundación Universitaria de San Gil UNISANGIL innovacionydesarrollo@unisangil.edu.co

Resumen En este artículo se presentan los resultados obtenidos del proyecto "Diseño y construcción de un prototipo para el control de temperatura y humedad en el proceso de torrefacción del café" que tuvo por objetivo mejorar el proceso empírico de tostado de las pequeñas y medianas empresas tostadoras de la región, adaptando e innovando en tecnología aplicada y optimizar procesos productivos. Con la implementación del sistema de control en la torrefactora construida, se obtuvo un mejoramiento en el proceso pues se logró mayor control de las variables que intervienen en éste, con lo que se garantizó y estandarizó la calidad del producto.

Investigaciones

Revista de la Facultad de Ciencias Naturales e Ingeniería

Investigaciones

Palabras clave: automatización de torrefacción, café tostado, tostador cilíndrico, variables organolépticas. 1.

INTRODUCCIÓN

La torrefacción es una de las etapas más importantes en el proceso industrial del café. Ésta consiste en tostar los granos para que estos puedan desarrollar y liberar sus diferentes aromas en unos cuantos minutos del tostado. En este proceso, uno de los sistemas más comunes es el que se efectúa en un tostador cilíndrico que gira por un tiempo determinado hasta que el grano llega a su punto de tostadura. Cada clase de grano tiene un tipo de tostado óptimo, cuyas variables como el porcentaje de humedad, el tiempo y la temperatura, alteran el sabor final del grano. En Colombia, y especialmente en esta región, la mayoría de las empresas tostadoras cuentan con un proceso de selección del nivel de tostado del café aún empírico. Es decir, estas empresas no poseen un control automático sobre las variables temperatura, humedad y tiempo, fundamentales en la calidad del café tostado. El método usado para determinar el "punto" de tostado es tan rudimentario que necesita directamente de la pericia, cuidado y experiencia de un operario para maniobrar la máquina, tomar múltiples muestras para juzgar el punto ideal y así, concluir el proceso de torrefacción. Esta operación es únicamente sensorial y no implica ningún tipo de ayuda tecnológica para dar tal apreciación.

12


Este proyecto fue financiado por COLCIENCIAS y seis empresas beneficiarias productoras de café tostado de la región: éstas son: Productos Colosal, Industria de Alimentos la Fragancia Ltda., JORDAVILA S.A., Café y Chocolate Flor, FICAS Ltda. y Chocolate San Rafael, en la convocatoria de Proyectos de Investigación, Desarrollo Tecnológico e Innovación, modalidades de Cofinanciación y Crédito año 2004. 2

Investigaciones

Además de lo anterior, el costo de tostadoras semiautomáticas en el mercado internacional es alto. Por tanto, no es viable para pequeñas y medianas empresas la adquisición de equipos de alta tecnología, colocándolas en un puesto competitivamente inferior, respecto a las grandes multinacionales dueñas del 70% del mercado del café tostado y productos derivados de éste. Esta situación es el problema fundamental, el cual se abordó diseñando una máquina automática que reemplace la determinación empírica y subjetiva del nivel de tostado del grado del café, garantizando que se cumpla a cabalidad con los estándares de calidad requeridos y permitidos por las entidades reguladoras como el ICONTEC. Con la implementación del sistema de control en la torrefactora construida, se obtuvo un mejoramiento en el proceso por el mayor control de las variables que intervienen en dicho proceso. Con esto se garantiza y estandariza la calidad del producto.

DESCRIPCIÓN TÉCNICA

A. Antecedentes El café fue tostado por primera vez mediante un proceso que consistía en tostar el grano verde en el sartén sobre brasas de carbón. A final del siglo pasado se inventó un nuevo proceso en el cual los granos eran centrifugados en una cámara de aire caliente. Este sistema perdura hoy día. Por muchos años, el café ha sido el motor de desarrollo cultural, social y económico de Colombia, siendo el primer producto del sector agropecuario y, prácticamente, el primer generador de riqueza y empleo en la zona cafetera, con casi 900 mil hectáreas cultivadas en café, de las cuales el 90% son predios menores de 5 hectáreas que se encuentran en poder de pequeños productores, distribuidos en 600 municipios cafeteros localizados en 15 departamentos de la geografía nacional [1]. Con el descenso en la producción y en los precios del grano (caída del pacto mundial del café), el caficultor colombiano optó por fortalecer su negocio y pasar de la recolección, beneficio, secado y clasificación, al proceso industrial de torrefacción y molienda, procesos que requerían enormes inversiones de dinero en nuevas tecnologías y sólo asequibles para las grandes empresas, imposibilitando a medianas y pequeñas productoras a participar en la oferta de café de alta calidad.

13


La composición química de los granos cambia durante el proceso de tostado: el agua se disipa en el grano y una serie de reacciones químicas convierte los azúcares y almidones en aceites, los cuales otorgan al café gran parte de su aroma y sabor. Al ser tostado, el grano aumenta su tamaño al doble y el acaramelamiento del azúcar cambia el color de verde a marrón. El color y aspecto del grano tostado dependen del tiempo de exposición a altas temperaturas. Mientras más largo sea el tiempo de tostado, más oscuro será el grano. Por lo general, el grano se tuesta durante 10 a 20 minutos, a temperaturas oscilantes entre 180ºC y 250ºC. La variación de estas condiciones influyen en la preparación de una buena taza de café, así como en la determinación de qué características serán realizadas y cuáles serán variadas. Si el tostado es breve, los aceites no saldrán hasta la superficie y el café tendrá un sabor como de nuez y poco cuerpo. Los granos tostados oscuros contienen menos acidez y cafeína que los granos más claros, aunque también menor período de conservación, debido a la cantidad de aceites en la superficie. En los tostados más oscuros predomina el sabor ahumado, penetrante y quemado, ocultando el verdadero sabor del grano. Los granos tostados claros tienen un sabor más intenso, más altos en acidez que los tostados más oscuros, por lo cual las cualidades del grano se mantienen. Los tostados más claros se hacen con granos de más alta calidad, pues en este caso se expone el sabor real del grano. Existen varios niveles de tostado, cada uno con características propias, que responden a diferentes gustos o usos específicos. [2].

Investigaciones

B. Torrefacción En este proceso, uno de los sistemas más comunes es el que se efectúa en un tostador cilíndrico, que rota sin parar para que los granos, en movimiento continuo, sean torrefactos uniformemente. Cada clase de grano tiene un tiempo y tipo de tostado óptimos, cuyas variables como el porcentaje de humedad, el tiempo y la temperatura de tostado alteran el sabor final del grano.

C. Transformación del café La tostadura del café es una fase vital dentro de su cadena de elaboración. Un buen tueste influye más en la calidad de una taza de café, que la bondad de la mezcla escogida. El proceso de tostar los granos del café verde consiste en someterlos a una alta temperatura durante un tiempo limitado. En este intervalo, el café pierde peso en una proporción del 15% al 20%, debido en gran parte a la evaporación de agua y en menor parte a la pirólisis de algunos componentes activos. El grano aumenta de volumen entre 100 y 130% de su grano verde en función del tiempo de tueste. Su color amarillo verdoso se transforma en un marrón, más o menos oscuro en función del grado de tueste escogido. La composición química del grano (azúcares, grasas, proteínas, substancias nitrogenadas no proteicas y ácidos del grano) sufre una importante transformación, de forma cuantitativa y cualitativa, como consecuencia de las altas temperaturas del proceso. Lo anterior se puede observar de manera resumida en la figura 1.

Tiempo 2 a 20 Minutos

* Sabor

TORREFACCIÓN

* Aroma (Amargor, ácido, astringente)

Temperatura 180ºC y 250ºC

* Pérdida de Peso (15 - 22%)

CAFÉ CRUDO

CAFÉ TOSTADO

12 %

1- 5 %

Humedad

- Secado 3 Etapas

- Pirólisis controlada - Enfriamiento

* Color * Aumento de Volumen (Hasta el doble del original)

* Gas Carbónico (2%) * Quebradizo (Fácilmente molible)

Fig. 1. Proceso de torrefacción de café

14


W

L S VERDE

TOSTADO

TORREFACCIÓN

CAFÉ ALMENDRA - Humedad - Composición Química - Tamaño y Forma

CAFÉ TOSTADO W: L: t: S:

Transferencia de calor a la superficie del grano Conducción de calor en el grano Tiempo de resistencia del grano en el tostador Transporte de materia en el grano

Fig. 2. Variables que afectan el proceso de torrefacción

Temperatura. Depende del tipo de máquina de tostar, del tiempo de tueste y de la intensidad del color final requerido. En una primera fase, el café pierde humedad. Esta parte del proceso es la fase que influye menos en el gusto final. En una segunda fase, se origina la expansión del grano de café y empieza la creación de los gases. La tercera fase es la más lenta, pues es la que confiere básicamente el sabor final al producto [4]. Un descuido en la elevación de temperatura del proceso aumenta la velocidad de tostado provocando un cambio en las propiedades organolépticas del grano. De igual manera, al disminuir la temperatura aumenta considerablemente el tiempo de calentamiento del grano, produciendo un efecto de cocción, sin llegar a un grado de tostadura.

Investigaciones

D. Variables básicas del tueste Las variables básicas que afectan el proceso de torrefacción son: temperatura, humedad y tiempo. La figura 2 muestra el comportamiento del grano de café ante variaciones de temperatura. [3]

Humedad. Se entiende como contenido de humedad de un grano el valor expresado en porcentaje (en base húmeda) de la masa del agua en relación con la masa total. La masa total es la suma del agua y de los sólidos constituyentes. Esta variable es la más influyente dentro del proceso. Según las características del café, al ingresar el grano a la tolva de la tostadora, la cantidad de humedad del grano oscila alrededor del 12% y después del proceso de tostado puede variar de acuerdo al tostador entre un 2% y un 5%, según la Norma ICONTEC 3534 donde se dan las recomendaciones físico-químicas para café tostado y tostado molido para la venta [5] [6]. Durante el tostado cada uno de los granos cede su calor al aire que lo rodea. al inicio, la humedad de la superficie del grano se transfiere fácilmente al aire. A medida que transcurre el tostado se inicia una migración de agua desde el interior al exterior para sustituir la humedad perdida en la superficie (difusión). El aumento de la temperatura origina un aumento de la presión de vapor de agua, el cual es eliminado por medio de extractores. 3

RESULTADOS

Teniendo en cuenta los parámetros de entrada y salida del sistema en función de las variables (tiempo, temperatura, humedad) que se manejan durante el proceso de tostado de café, se determinaron los siguientes métodos: continuos, de muestreos y estadísticos (figura 3).

15


Análisis Salida

Tostadora

MÉTODOS

VARIABLES

MÉTODOS

Masa Color Capacitivo Magnético Infrarrojo Coeficiente Térmico

Tiempo Temperatura Humedad Presión Volumen

Masa Color Capacitivo Magnético Infrarrojo Coeficiente Térmico

Fig. 3. Parámetros de entrada y salida del sistema en el proceso de tostado de café.

Se estableció el Método Estadístico teniendo en cuenta los parámetros de entrada (temperatura, humedad, tiempo) para alimentar el sistema de control en el PLC. Este método relaciona el tiempo y el muestreo para determinar la humedad, o el tiempo del catado, con el fin de garantizar una estandarización en cuanto a la precisión y toma de datos. En este proyecto, el análisis y verificación de la humedad final del grano se realizó con los equipos Quantik MH-302 y OHAUS MB45. Los datos arrojados, producto del análisis, alimentaron el algoritmo del sistema de control del prototipo y las recetas implementadas.

Investigaciones

Análisis Entrada

A. Características del diseño mecánico del prototipo El diseño del prototipo involucra las características de un sistema de tambor, teniendo en cuenta las etapas fundamentales del proceso de torrefacción (figura 4), adicionando un control digital, con un cuadro de mando con amplia información del proceso, automático, siguiendo un programa seleccionado (receta) y con la posibilidad de intervención manual.

TEMPERATURA (180 A 250 ºC)

PRECALENTAMIENTO TOSTADORA

CAFÉ PERGAMINO SECO O VERDE

-TRILLADO - SELECCIONADO - CLASIFICADO

INGRESO CAFÉ A LA TOSTADORA

SECADO GRANO

PIRÓLISIS CONTROLADA (TOSTADO)

(12 % Humedad) VERIFICACIÓN GRADO DE TOSTADO

SALIDA CAFÉ DE LA TOSTADORA (1 al 5% Humedad)

CAFÉ TOSTADO ENFRIAMIENTO ( QUENCHING)

ALMACENAMIENTO ADECUADO

Fig. 4. Diagrama de bloques del proceso de torrefacción, sistema tambor.

16


El proceso completo tiene una duración aprox. de 12 a 25 minutos. La cantidad de aire caliente se mantiene constante o varía según las características de la tostadora, escalonando su temperatura durante todo el proceso. Este aire es relativamente seco, con un contenido de agua de los gases de escape de 18 grs/m3 (gramos por metro cúbico). Con este sistema se consigue una gran uniformidad del tueste del grano, tanto en el núcleo como en la superficie, debido al reparto uniforme del aire caliente en toda la masa de café que está girando dentro del tambor. Las características del diseño mecánico de la máquina tostadora de café fueron: Capacidad: 20 Kilos (7 Kilos / Bache) Diámetro del Tambor: 0.38 m Altura: 1.70m (soporte más tambor) Volumen del tambor: 0.05 m 3 Ventilador: Centrífugo de aleta plana inclinada hacia atrás

Investigaciones

El sistema cuenta con una aplicación software para la toma y análisis de muestras de las variables porcentaje de humedad, temperatura y tiempo de tostado del café. De tal forma, brinda datos para registrar reportes de producción, estadísticas y manejo administrativo del proceso desde un computador.

Para el diseño de la máquina tostadora de café se escogió acero inoxidable AISI 304 calibre 18 por ser austenítico. Éste es utilizado especialmente en la industria d e a l i m e n t o s e intercambiadores de calor. En la figura 5 se presenta el diseño mecánico del equipo. Fig. 5. Diseño mecánico de la torrefactora

B. Características del diseño automático del prototipo. Las variables de control del prototipo son temperatura, humedad, tiempo y color, esenciales para encontrar el punto óptimo del tueste. Esto se logró implementando la instrumentación electrónica adecuada para adquisición, tratamiento y procesamiento de las señales del proceso. La señales de control producidas le indican al sistema el tipo de acción a realizar (escalamiento de temperatura, apertura de compuertas para el cargue y descargue de café, manejo del ciclón, terminación del ciclo de tostado, etc.). De esta manera se logra uniformidad en cada tipo de tostado seleccionado. Los elementos fundamentales para la adquisición y procesamiento de las señales para el control de variables en la tostadora de café se muestran en el diagrama de bloques de la figura 6. El Software Step 7 Micro Win constituye el entorno de manejo, desarrollo, edición y programación del PLC Simatic S7-200 CPU224 XP siemens, con el cual se implementó las aplicaciones de control para la máquina de torrefacción.

17


HMI

MANUAL

PLC Control

MODO

AUTOMÁTICO

Investigaciones

INTERFAZ DE VISUALIZACIÓN

SENSORES ANÁLOGOS

PARADA DE EMERGENCIA

ACCIONAMIENTOS

ACCIONAMIENTO MECÁNICO

ACCIONAMIENTO ELÉCTRICO

TARJETA QUEMADOR SECCIÓN BREAKERS ARRANQUES ELÉCTRICOS TOSTADO

SECCIÓN ENFRIAMIENTO

TAMBOR VENTILADOR TAMBOR MOTORREDUCTOR

ENFRIADOR VENTILADOR ENFIRADOR MOTORREDUCTOR

Fig. 6. Diagrama de bloques del prototipo de control

Debido a la disposición física de la máquina y a la necesidad de establecer de manera sencilla una interfase para la comunicación hombre-máquina, se dispuso en la máquina tostadora de café un panel de operador. Panel del Operador (Panel Táctil SIMATIC TP-177 micro) en el cual la parte automática cumple la función de visualización de todas las variables que intervienen en el proceso. En la parte manual, el operario puede maniobrar la máquina con los pulsadores virtuales que se configuraron en la pantalla. En las figuras 7 se muestra el panel de control de la torrefactora (Panel Táctil SIMATIC TP-177 micro) y en la figura 8 aparece la ventana de control con las condiciones iniciales del equipo (selección del café resultante).

SIEMENS

SIMATIC PANEL

UNISANGIL ESTADO: MODO:

Apagado Manual

000 ºC

PARO DE EMERGENCIA:

AUTOMÁTICO

MANUAL

SIMATIC PANEL

CONDICIONES INICIALES

TEMPERATURA TOSTADO

ESTADO

SIEMENS

TIPO CAFÉ CONSUMO SUAVE CONSUMO AMARGO

OTRA TOSTADA

SI

PASILLA SUAVE VERSIÓN

Fig. 7. Panel de control de la torrefactora (Panel Táctil SIMATIC TP-177 micro)

PASILLA AMARGO

INICIO

Fig. 8 Programación de condiciones iniciales del equipo.

18


Software de mando y control

El programa de mando fue diseñado empleando el lenguaje de programación STEP7 Micro/WIN32, propio para la programación de los PLC's S7200 de SIEMEMS. La aplicación desarrollada obedece a la filosofía de la programación estructurada mediante el uso de un bloque principal, subrutinas, rutinas de interrupción temporizadas y una base de datos. Las subrutinas realizan tareas específicas relacionadas con estados operativos de la máquina. Las subrutinas de interrupción temporizadas se utilizan para hacer el muestreo de valores analógicos correspondientes a las temperaturas. La base de datos contiene la información que utiliza el programa de mando y los valores reales de las variables de proceso como temperaturas, tiempos y valores intermedios, producto de operaciones realizadas en los demás bloques de programa. La programación se realizó con base a los diagramas obtenidos en la aplicación de la metodología Gemma y el Grafcet de nivel superior. 4.

CONCLUSIONES

El sistema de control y los componentes electromecánicos implementados en el prototipo construido en este proyecto, son replicables y/o escalables a cualquier torrefactora convencional. En especial, a las que poseen las empresas beneficiarias que son de gran volumen. En ella, están plasmados conocimientos en termodinámica, instrumentación electrónica, automatización, control de proceso y diseño mecánico, buscando como objetivo final un producto altamente competitivo y de excelente calidad. El mayor valor agregado del equipo fue la implementación de una interfase entre la máquina y un computador personal, con el fin de obtener datos de las variables y características generales del proceso como herramienta estadística y administrativa de producción.

Investigaciones

C.

Con la implementación del sistema de control en la torrefactora construida, se obtuvo un mejoramiento en el proceso por el mayor control de las variables que intervienen en dicho proceso. Con esto se garantiza y estandariza la calidad del producto.

REFERENCIAS BIBLIOGRÁFICAS

[1]

FEDERACAFE, Encuesta Nacional Cafetera 1993/1997.Oficina de Estadística y Proyectos Básicos Cafeteros.

[2]

Perfil Cadena Café. Ministerio de Comercio Exterior, Colombia. Dirección de Competitividad. Página Web: Mincomex.gov.co.

[3]

ROLDÁN, L.; GONZÁLES, F.; SALAZAR, S. "La Cadena de Café en Colombia". Ministerio de Agricultura y Desarrollo Rural. Observatorio Agrocadenas Colombia. Bogotá, Colombia. Diciembre 2002, Actualización: Abril 2003.

[4]

Memorias Curso "Organice su Propia Tienda de Café". Federación Nacional de Cafeteros de Colombia, Santafé de Bogotá, D.C. Departamento de Mercado Interno, División de Comercialización. Séptima Versión. Octubre de 2000.

[5]

Norma Técnica Colombiana NTC 3534. Café tostado y molido, pág. 2, Requisitos fisicoquímicos para café tostado y molido. Colombia: ICONTEC, 1998-10-28.

[6]

Norma Técnica Colombiana NTC 2442. Café tostado en grano tostado y molido. Determinación del grado de tostación. Colombia: ICONTEC, 2004-02-25.

[7]

Norma Técnica Colombiana NTC 2558. Café tostado y molido. Determinación del contenido de humedad. Método por determinación de la pérdida en masa a 103ºC (Método de Rutina). Colombia: ICONTEC, 200010-25.

19


Fundación Universitaria de San Gil UNISANGIL

Robótica móvil: una aproximación preliminar Milton Javier Muñoz Neira * Ingeniero electrónico, Especialista en automatización industrial, Director Programa de ingeniería electrónica de UNISANGIL, mmunoz@unisangil.edu.co

Resumen El presente artículo hace una presentación general de uno de los campos de mayor interés actual para la ingeniería: los robots móviles. Se parte de una conceptualización de términos, para luego pasar a una exposición de la estructura básica de los robots móviles y sus posibles campos de aplicación. Palabras clave: Agente, Robot Móvil, Captador, Efector, Localización, Planificación. 1.

Investigaciones

Revista de la Facultad de Ciencias Naturales e Ingeniería

Investigaciones

INTRODUCCIÓN

La robótica es sin duda uno de los campos de mayor desarrollo a nivel científico y tecnológico. A nivel científico es el área de experimentación de los sistemas inteligentes (emuladores o portadores de inteligencia propia) y a nivel tecnológico es el espacio de evolución de la automatización clásica hacia el control inteligente, con el cual se ha logrado que las máquinas puedan tomar decisiones de mediana y alta complejidad (vgr. como las necesarias para realizar con éxito una cirugía) en fracciones de segundo y con precisión milimétrica. Sus avances, en opinión de los Fellow Members de la IEEE (Institute of Electrical and Electronics Engineers) marcarán, junto con la mega computación, la nanotecnología y la ingeniería biomolecular, el progreso tecnológico de las próximas décadas, y, por ende, de la ingeniería. Este interés mundial por el estudio y desarrollo de robots se hace evidente al detallar los trabajos de los centros de investigación más prestigiosos del mundo. En efecto, las mejores Universidades del planeta, catalogadas por el Center for World Class Universities de la Universidad de Shangai Jiao Tong (China), cuentan entre sus centros de investigación con importantes grupos de trabajo en robótica, entre los cuales se destacan: ? Harvard School of Engineering and applied Sciences: Microrobotics

laboratory and Biorobotics laboratory ? University of California - Berkeley/ College of Engineering: Center for intelligent Systems? Stanford University: Robotics Laboratory. ? Columbia University: Columbia University Robotics group ? Oxford University/Engineering Science: Research degree - Robotics and sensor Systems. ? MIT: Robotic and artificial intelligence laboratory.

20


2. DEFINICIÓN Y CLASIFICACIÓN a.

Definición.

Un robot es, en esencia, un agente físico inteligente. Por agente se puede entender todo sistema compuesto por una arquitectura y un programa (Rusell [3]) (Ver figura 1)

Investigaciones

Estos centros elaboran estudios que implican el modelado, simulación y puesta en marcha de robots móviles, manipuladores o robots híbridos. Para clarificar estos términos, y poder profundizar en la estructura de un robot móvil, es necesario intentar establecer una definición.

Figura 1. Esquema Gráfico de un Agente

Desde esta perspectiva, una computadora, por ejemplo, es un agente: el hardware representa su arquitectura y el software alberga su programación. Sin embargo, un software por sí solo puede entenderse también como un agente. su arquitectura estaría representada por el paradigma de programación empleado y el programa del agente lo conformarían las línea de código. El agente descrito deberá referirse entonces como un agente software. Un agente físico, en cambio, como pueden serlo un animal o un robot, requiere de una arquitectura física, tangible, para comunicarse con el entorno o con otros agentes. Un agente software, por su naturaleza, puede comunicarse con otros agentes o con el entorno (red de datos) sin que él mismo posea una representación física. La inteligencia del agente estará dada por la capacidad de aprendizaje, inferencia lógica y raciocinio que le da el programa. Desde luego, éste no podrá funcionar de manera óptima si la arquitectura (sensores efectores) no le brinda una representación idónea del entorno o si no actúa de manera adecuada con el mismo. b.

Clasificación

Una primera clasificación de los robots puede hacerse teniendo en cuenta si su arquitectura está anclada a una plataforma fija (manipulador) o si por el contrario, la arquitectura se relaciona con una plataforma móvil (Robot Móvil). La combinación de ambos tipos de robots formaría un Robot Híbrido, como por ejemplo una prótesis o un humanoide.

21


Una sub clasificación es posible si se atiende el campo de aplicación (GARCIA [1]). La tabla 1 sintetiza este orden: Tabla 1. Clasificación de los robots

Robots Industriales

Investigaciones

ROBOT MANIPULADOR

Robots Para Aplicaciones Médicas Robots Para Aplicaciones en Rehabilitación.

ROBOT MÓVIL

Móviles Terrestres Autónomos. Móviles aéreos Autónomos. Móviles Subacuáticos Autónomos.

HÍBRIDOS

Caminadores (Bípedos Hexápodos) Humanoides

3. ESTRUCTURA DE UN ROBOT MÓVIL. Por su naturaleza, los robots móviles cumplen tareas relacionadas con localización, mapeo, planificación y de manera general navegación en un espacio determinado, por tierra, aire o agua. La navegación eficiente de la plataforma requiere de una representación del entorno y de una actuación sobre el medio eficiente. La lectura del entorno se hace por medio de sensores, y la acción sobre el mismo por medio de efectores. a.

Sensores

Por sensor se entiende el conjunto de elemento sensor, transductor y acondicionador de señal (ver figura 2), que permite captar las características del medio e incorporarlas a un sistema. Este conjunto es denominado técnicamente Captador.

Figura 2. Sensor (Captador)

E N T O R N O

SENSOR (CAPTADOR)

ELEMENTO SENSOR

TRANSDUCTOR

ACONDICIONADOR DE SEÑAL

S I S T E M A

22


Dentro de las características deseables de los sensores se encuentran: ? Precisión. ? Amplio Rango de Medida. ? Inmunidad al Ruido. ? Robustez (Inmunidad a las Vibraciones Mecánicas). ? Bajo consumo de energía.

La clasificación de los mismos puede realizarse a partir de su principio físico de funcionamiento o de las variables físicas que se deben medir. La tabla 2 muestra la clasificación de algunos captadores útiles para las plataformas móviles, teniendo en cuenta si son emisores de energía activos o receptores de energía pasivos. Tabla 2. Clasificación de Sensores para Robots Móviles

TIPO Activo

SENSOR Laser (SICK LMS)

Activo

Ultrasonido (SRF08)

Activos

Infrarrojo (GP2DO2/CNY70)

Activo

GPS

Pasivo

CCD(Cámara)

Pasivos

Giroscopios (ADXRS150) Aceleró-metros (ADXL 202)

Pasivos

Pasivos Pasivos

Micro interruptor Presión (MPX2100)

USO Medir Distancia a Objetos. Representación del Entorno. Medir Distancia a Objetos. Representación del Entorno. Detectar Obstáculos, Odometría (Medir Distancia Recorrida) Ubicación Geográfica del Robot. Representación del Entorno. Posición del Robot.

Investigaciones

La lectura adecuada del entorno incorpora en el robot la información necesaria para realizar una navegación segura (detección de obstáculos), seguir una ruta en el mapa del entorno (planificación), y saber con exactitud su posición en el medio donde se encuentra (localización). Esta información garantiza un aprendizaje rápido y seguro del agente.

Medición de Movimiento, Vibraciones e Inclinación. Detección de Obstáculos Medición Indirecta de Fuerza.

La selección debe fundamentarse en el tipo de aplicación deseada y en el equilibrio entre exactitud en la medida y complejidad en el procesamiento de las señales adquiridas (Figura 3), donde por exactitud se asume la precisión propia del dispositivo, en asocio con las demás características deseables del mismo.

23


Figura 3. Criterio de Selección de Sensores.

EXACTITUD

b.

COMPEJIDAD

Efectores

El efector es el dispositivo físico que permite que las acciones del robot se transfieran al entorno. El efector por excelencia para las plataformas móviles, es un motor eléctrico de D.C (Servomotor o Motor PAP). Para las diversas aplicaciones, es preciso que el motor posea baja inercia, alto torque y bajo consumo de energía. Los efectores garantizan los grados de libertad de la plataforma. Un grado de libertad implica el movimiento en una dirección específica del agente. Si todos los grados de libertad son controlables, se dice que el robot es holonómico. Así, la configuración de una plataforma tipo triciclo (una rueda para dirección y dos para tracción), tendrá dos grados de libertad controlables, si cuenta con dos efectores (uno para dirección y otro para tracción). Sin embargo, los grados de libertad efectivos son tres: la plataforma puede moverse adelante, atrás y girar. En consecuencia, este tipo de robot es no holonómico.

Investigaciones

SENSOR

El control de plataformas holonómicas es más sencillo que el de plataformas no holonómicas. En efecto, para la configuración triciclo, el control sería más natural si las dos ruedas de tracción tuviesen un motor independiente. c.

Tareas de un Robot Móvil

El objetivo principal de la localización en un robot móvil es establecer con precisión dónde se encuentra éste, dentro del entorno por el cual se desplaza. Este objetivo sería facil de alcanzar si los sensores brindaran una información exacta del entorno. Pero los entornos son de manera general, parcialmente observables y dinámicos, lo que ocasiona que la señal que entregan los captadores posea ruido y acumulación de errores de medida. Esta circunstancia hace que el robot sólo pueda realizar una estimación probabilística del medio, y que por ende las variables sensadas deban manejarse como variables aleatorias. La estimación del estado siguiente (nueva localización del robot) puede modelarse a través de una Red Bayesiana (Ver Figura 4). En una red bayesiana, la probabilidad de alcanzar el siguiente estado (X(t+1)), dado que se han realizado unas acciones previas (A(1 a t)) y se ha captado una información del medio (S(t+1)), depende directamente de la probabilidad de que se esté en el instante presente (X(t)), dado que se han realizado unas acciones y unas observaciones previas en y desde el entorno (A(1 a t-1), S(1 a t)).

24


Una Red de Bayes es, en síntesis, un método recursivo para estimar el estado futuro del robot [P(X(t+1)| S(t + 1),A(1 a t)], a partir del conocimiento acumulativo de los estados y las observaciones anteriores y de la lectura presente de los sensores [P(X(t)| S(1 a t),A(1 a t-1)]. Sin embargo, el número de estados anteriores puede ser ilimitado y, en cosecuencia, la implementación computacional de una Red de Bayes podría ser totalmente impráctica, toda vez que los recursos de memoria se incrementarían de manera cuadrática con el número de puntos de referencia previos a la localización actual del robot que se hayan tomado en cuenta para la determinación del estado presente.

Investigaciones

Figura 4. Red de Bayes

En la praxis, las redes de Bayes se implementan por medio de aproximaciones a través de los algoritmos Filtro de Kalman Extendido, Localización de Markov y Monte Carlo. El método de Markov, por ejemplo, parte del supuesto de que la probabilidad del estado actual del robot puede determinarse a partir de un número finito de estados anteriores. De esta forma, el estado del robot es modelado por medio de una distribución gaussiana multimodal, lo cual implica que el robot actualice a cada instante de tiempo la distribución probabilística de sus posibles localizaciones dentro del entorno, de tal suerte que a cada momento el agente posee una creencia sobre su localización. El algoritmo de Markov opera cuando el robot se mueve (modelo del movimiento), como cuando el robot realiza una medida con sus captadores (modelo de percepción). La localización está, de modo innherente, ligada a la generación de mapas. Tarea que conlleva la localización de diversos objetos en el entorno. De aquí que los dos campos se estudien simultáneamente en lo que se conoce como SLAM (simultaneous localization and mapping). Por tanto, el problema de la generación de mapas puede abordarse aplicando el modelo Bayesiano, en particular, los Filtros de Kalman Extendidos, que son aproximaciones a la red de Bayes por medio del uso de una distribución gaussiana multivariada, y que por su naturaleza requiere linealizar el modelo del movimiento y el modelo de percepción. El modo común de llevar a cabo dicha linealización es la expansión de taylor.

25


La Planificación, de manera general, se aborda desde dos perspectivas: la descomposición en celdas y la esqueletización. La primera divide el entorno del robot en un número finito de celdas, continuas unas de las otras (Ver figura 5), lo cual permite generar un campo de potencial como función del entorno, el cual incrementa su valor con la cercanía a un obstáculo, y lo decrementa en espacio libre. La segunda perspectiva modela el entorno del móvil en una repesentación de una sola dimensión (esqueleto) con el ánimo de simplificar el proceso de planificación. Figura 5. Descomposición en Celdas del entorno del Robot.

4.

Investigaciones

Ahora bien, la localización y el mapeo son los componentes fundamentales de la principal tarea de un robot móvil: la navegación. La navegación tiene que ver directamente con la cognición del robot, y con el éxito en el objetivo final que se le haya trazado al mismo. La navegación del agente requiere de dos elementos básicos: Planfificación del Movimiento (estrategia para hacer efectivo el movimiento de un punto a otro) y Evasión de Obstáculos. Estos elementos dictaminan el tipo de orden que se le dará a los efectores (motores) para realizar los movimientos.

CAMPOS DE APLICACIÓN

La localización y la planificación, como tareas del robot, son realizadas para cumplir un objetivo específico, objetivo que define el campo de aplicación del agente. Para el 2007 se estimaba que el sector de la robótica movía alrededor de 11 billones de dólares a nivel mundial (especialmente en aplicaciones industriales), y conforme estimaciones de la Asociación Japonesa de Robótica, en el 2025 esa cifra superaría los 66 billones de dólares, en aplicaciones prioritariamente no industriales (Cherry [6]). En efecto, la Federación Internacional de Robótica calcula un gasto mundial de 5.6 millones de dólares, entre el 2005 y el 2009, en desarrollo de aplicaciones domésticas y de entretenimiento (Cherry [6]).

26


Lo anterior indica que la línea de avance de la robótica, y en consecuencia de los robots móviles, apunta al desarrollo de agentes para proveer servicios.

? Robots Exploradores. ? Robots Domésticos. ? Robots para Seguridad. ? Robots para Construcción. ? Robots para la Agricultura. ? Robots Guías. ? Robots Personales (Entretenimiento).

La aplicación real determinará finalmente la estructura del agente (arquitectura + programa). El desarrollo de una plataforma para movimiento en cultivos de ladera, por ejemplo, entorno que es parcialmente observable, estocástico, secuencial y semidinámico, sería mas idóneo si se diseñara a partir de caminadores (vgr. un hexápodo), lo cual, aunque facilitaría la locomoción, haría mas complejo el diseño mecánico y la planificación e incrementaría el consumo de energía. Con todo, para terrenos abruptos, los móviles caminadores son la primera alternativa de trabajo, existiendo sin embargo desarrollo con ruedas (A. Oida [8]) 4. A MODO DE CONCLUSIÓN

Investigaciones

Así, de la robótica móvil se esperan progresos en el adelanto de:

Un robot móvil es un agente físico cuya arquitectura está compuesta por un conjunto de captadores (sensores), efectores (motores) y controladores de movimiento que para su programación requiere de algoritmos de localización, elaboración de mapas y planificación (Ver figura 6).

Figura 6. Estructura de un Robot Móvil

27


Sin embargo, es la aplicación real la que determinará la programación que es necesaria y viable. Así, por ejemplo, para el desarrollo de plataformas móviles que se desplacen por terrenos abruptos, la navegación podría, dada la complejidad que el análisis probabilístico implica para estos casos, hacer uso combinado de técnicas probabilísticas y técnicas de inteligencia artificial moderna, como redes neuronales, algoritmos genéticos, lógica difusa o control reactivo, que pueden resultar más sencillas en su implementación pero igualmente efectivas, pues es el robot, en el entorno real, quien fija los parámetros de diseño que deberán finalmente tenerse en cuenta.

REFERENCIAS BIBLIOGRÁFICAS

[1]

GARCÍA. E., JIMENEZ M., GONZALES. P., ARMADA., M."The Evolution of Robotic Research", IEEE Robotics and Automation Magazine, Vol. 14, No 1, pp. 90 -103, March 2007.

[2]

SIEGWART R.,, NOURBAKHSH, I., "Introduction to Autonomous Mobile Robots", 1ª Ed. Massachusetts: MIT Press, 2004. 336 p.

[3]

RUSELL S., NORVING, P. "Inteligencia Artificial - Un Enfoque Moderno", Segunda Edición. Madrid: Pearson Education, 2004. 1212 p.

[4]

OLLERO A. "Robótica - Manipuladores y Robots Móviles". Primera Edición. Barcelona: Alfaomega Marcombo, 2007. 447 p.

[5]

LÓPEZ, E., BAREA, R., BERGASA, L.M., ESCUDERO, M.S., "Aplicación del método de Markov a la localización de un robot móvil en entornos interiores" Departamento de Electrónica, Universidad de A l c a l á . [ D i s p o n i b l e o n l i n e ] E n : < h tt p : / / w w w. d e p e c a . u a h . e s / p e r s o n a l / e l e n a /docs_tesis/saaei02.PDF>, 4 p.

[6]

CHERRY S. "Robots, Incorporated microsoft's best and brightest are quietly trying to bring robotics into the mainstream", IEEE Spectrum Magazine, August 2007, pp 18-23.

[7]

Colciencias. "Plan Estratégico Programa Nacional de Electrónica, Telecomunicaciones e Informática 2005 - 2010". Bogotá: Imprenta Nacional de Colombia, 2005. 100 p.

[8]

OIDA, A., SHIMIZU, H., MIYASAKA, J. FUJIMOTO H., IBUKI T. "Study of performance of a Model Electric Off road - vehicle", Agricultural Engineering International, the CIGR Journal, Volumen 4, [Disponible online] En: <http://cigr-ejournal.tamu.edu/submissions/volume4 /PM%2001%20008%20Oida%20final%2030Oct2002.pdf> 8 p.

Investigaciones

La programación del agente puede elaborarse a partir de análisis probabilístico, considerando las variables leídas del entorno como variables aleatorias.

28


Fundación Universitaria de San Gil UNISANGIL

Sistema de autoevaluación y acreditación a&a: Modalidad Desarrollo Tecnológico para apoyar el proceso de Autoevaluación de UNISANGIL Lyda Fabiola Castro Pinzón* * Ingeniera de Sistemas, egresada de UNISANGIL, Directora oficina de egresados y posgrados UNISANGIL lcastro@UNISANGIL.edu.co

Palabras clave: Sistemas autoevaluación, acreditación.

de

Información,

Resumen El sistema de Autoevaluación y acreditación de Unisangil A&A, surge como una necesidad institucional para organizar y agilizar los procesos realizados en la autoevaluación institucional.

Investigaciones

Revista de la Facultad de Ciencias Naturales e Ingeniería

Investigaciones

El Concejo Nacional de Acreditación CNA, es el ente gubernamental encargado de la Alta Calidad en los programas de Educación Superior, por lo tanto invita a las instituciones a trabajar en búsqueda de la Acreditación de sus programas académicos. Es por esto que UNISANGIL partiendo de los lineamientos estipulados por el CNA construye un modelo propio de autoevaluación, el cual incluye una Guía con toda la fundamentación teórica del proceso, una cartilla para la medición de indicadores y cuatro instrumentos de recolección de información. Ante el gran número de programas académicos y la diversidad de criterios de calificación de los indicadores, surge la necesidad de contar con un software que organice y sistematice la información propia del modelo, es por esto que tres estudiantes de ultimo año del programa de ingeniería de sistemas deciden aceptar este reto y construyen el sistema de información de autoevaluación y Acreditación A&A. El sistema cuenta con dos granes módulos que se encargan del correcto funcionamiento del proceso. El A&A fue construido en ambiente web por lo tanto permite que los Centros de Extensión CREX participen de dicho proceso sin dificultades. Debido a que su arquitectura es totalmente dinámica, el A&A permite construir, modificar o eliminar elementos del modelo sin la presencia de un ingeniero.

29


En Colombia, como en la mayoría de los países del mundo, se ha establecido la figura denominada acreditación, la cual se define como la certificación de alta calidad de una institución o programa académico, reconocido por las autoridades y la sociedad1 . En nuestro país se concibe como un proceso de búsqueda de calidad que se desarrolla a través de varias etapas. Una de dichas etapas es la Autoevaluación. La autoevaluación responde a la necesidad de conocer la realidad institucional y plantear procesos de mejora continua como parte de la gestión de calidad. Asimismo, sirve en el aprendizaje institucional al entregar claridad en los procesos. UNISANGIL, consciente de la importancia de brindar calidad en cada uno de sus programas, está encaminada hacia la acreditación.

Para ello ha diseñado un modelo propio que involucra la participación de los diferentes estamentos de la comunidad universitaria, la información resultante de las actividades realizadas por el programa y los recursos con que cuenta. Además, ha establecido una cartilla denominada "Instrumentos de recolección de Información para medición de indicadores", la cual reúne toda la información del programa académico que se está evaluando a través de los parámetros de medición establecidos por el CNA, información proveniente de la participación de los estamentos y la consulta a los archivos del programa.

Investigaciones

LA AUTOEVALUACIÓN

Ante la magnitud de la información y la diversidad de criterios de calificación, surge la necesidad de contar con un recurso eficiente que agilice el proceso en condiciones de fiabilidad, eficiencia e integridad. Es ahí donde aparece para tres graduandos del programa de Ingeniería de Sistemas de UNISANGIL, la alternativa de aplicar los conocimientos de su disciplina en procesos administrativos y nuevas tecnologías en manejo de información. 2

Sistema de Información de Autoevaluación y Acreditación UNISANGIL (A&A)

El sistema de información de autoevaluación y acreditación UNISANGIL (A&A) es la puesta en marcha de un modelo propio de Autoevaluación creado por UNISANGIL, fundamentado en los lineamientos propuestos por el Concejo Nacional de Acreditación CNA, el cual en su proceso de acreditación a instituciones de educación superior exige evaluar 8 Factores, 42 características y 202 aspectos a través de una serie de indicadores que permiten medir el nivel de cumplimiento de los requisitos establecidos a cada programa académico de la institución

1.

CONSEJO NACIONAL DE ACREDITACIÓN (Colombia). Lineamientos para la Acreditación de Programas. Bogotá: CNA, 2003. p 19.

2.

CASTRO PINZÓN, Lyda Fabiola. MARTÍNEZ SANTAMARÍA, Germán Alberto. MONTOYA BAUTISTA, Diego Fernando. Diseño e implantación de un software para sistematizar la calificación y cálculos estadísticos del sistemade autoevaluación de la Fundación universitaria de San Gil, UNISANGIL. Trabajo de grado presentado, como requisito fundamental para optar al título de Ingeniero de Sistemas. San Gil: UNISANGIL, 2006.

30


Esta es la tarea fundamental del sistema de información de autoevaluación y acreditación de UNISANGIL (A&A): crear el medio de interacción que le permita a la institución, a través de unos indicadores establecidos, evaluar los requerimientos exigidos a cada programa y generar la calificación de los mismos. El sistema de información de autoevaluación y acreditación de UNISANGIL (A&A) fue creado en ambiente web, utilizando PHP como lenguaje de programación, y Oracle, como manejador de base de datos. Se utilizó la metodología del Proceso Unificado de Desarrollo (RUP) y para el modelado, el Lenguaje Unificado de Desarrollo (UML). El sistema está integrado por dos grandes módulos específicos, cada uno de ellos con sus respectivos submódulos que desarrollan las cuatro actividades básicas de un sistema de información: entrada, almacenamiento, proceso y salida, conformando un almacén de datos que brinda de una forma ágil y sencilla información oportuna para el proceso de Autoevaluación y el plan de mejoramiento, pasos previos a la acreditación. Los dos módulos son:

Investigaciones

Este nivel de cumplimiento está dado por una valoración cuantitativa y cualitativa, que se obtiene aplicando criterios de calificación a cada uno de los indicadores establecidos por UUNISANGIL para tal fin, los cuales en su interrelación miden el grado de excelencia del programa académico evaluado, expresado en factores, características y aspectos.

Módulo de mantenimiento: dirigido específicamente al administrador del sistema el cual, en forma dinámica, puede crear la estructura del proceso, creando, modificando o eliminando factores, características, aspectos, indicadores, preguntas, formas de respuesta, usuarios, centros de extensión, entre otros. Cada pregunta en el sistema se puede calificar con un criterio diferente; por lo tanto el sistema le permite al usuario administrador elegir el criterio de calificación que se desea aplicar. Una vez creada la estructura, ésta se genera en forma dinámica y automática para los usuarios encargados del proceso en cada programa académico, pues son ellos los encargados de recopilar toda la información referente al programa evaluado. Cuando el director de programa, o la persona encargada, ingresa la información al sistema, el administrador genera la calificación cualitativa y cuantitativa al programa, expresada en un escalamiento tipo likert con cinco niveles de cumplimiento. De igual forma, dependiendo de los resultados obtenidos, el sistema genera una tabla con las debilidades del programa, las cuales son referentes precisos para la elaboración de los planes de mejoramiento. Modulo de Directores de programa: éste está dirigido especialmente para los directores de programa o para la persona encargada de alimentar el sistema con la información referente al programa académico evaluado. Las acciones de este usuario se limitan al ingreso de información. 31


Mediante la identificación y contraseña, y con altos niveles de seguridad, se restringe el acceso y la manipulación de la información. Dependiendo del tipo de usuario que acceda, se realizan las actividades o consultas pertinentes, ofreciendo de esta forma seguridad y confidencialidad en la información.

Investigaciones

Acceso

Cada módulo fue diseñado y desarrollado en ambiente Web, permitiendo incluir, modificar y eliminar la información, la cual debe poseer un soporte escrito debidamente aprobado por el ente correspondiente. La veracidad y puntualidad de la información recaen en los dos grandes usuarios (administrador y director de programa), pues son ellos los responsables de la digitalización de la misma. Actualmente se han llevado a cabo dos procesos de Autoevaluación en la sede principal, ubicada en San Gil, y en el Centro de Extensión El Yopal, con la participación de 25 programas académicos evaluados, en los cuales ha interactúado eficazmente el A&A. Nuevas expectativas Para los próximos procesos de autoevaluación se espera contar con una segunda versión del sistema, en la cual se incorporen nuevos informes, entre los cuales se encuentra la cartilla de Autoevaluación en formato pdf. De igual forma, se espera poder establecer comparativos y seguimiento a los diferentes procesos y planes de mejoramiento en los que participa el programa académico. También se contará con la incorporación del Sistema de participación de Estamentos Universitarios Sipa A&A, el cual automatiza la intervención de profesores, estudiantes, directivos y administrativos en el proceso. 32


Fundación Universitaria de San Gil UNISANGIL

Diseño y construcción de una caja de skinner automatizada Johana Cecilia Gonzáles Melgarejo, Alfonso Rodríguez Suarez y Roosebelt Virgilio Méndez Bueno

Palabras clave: Caja de Skinner, microcontrolador, proceso unificado de desarrollo, lenguaje unificado de modelado, programa de control. Resumen La caja de Skinner es una herramienta de investigación fundamental en el campo conductual de la Psicología, ya que permite analizar el comportamiento animal en los procesos de condicionamiento operante. En la construcción de este equipo se utilizó un microcontrolador Motorola 68HC908GP32 que cuenta con 40 pines para diversas funciones. Para la comunicación entre el hardware y el software se utilizó el integrado MAX232. Éste se conecta entre los pines 12 y 13 del microcontrolador, permitiendo la emisión y recepción de datos. Además, se diseñaron dispositivos como: palancas, leds y bocina con frecuencia variable, utilizando un amplificador operacional OPA541, dos dispensadores de alimento por medio de motores paso a paso controlados por diodos y transistores. Lo anterior se maneja por medio de un software de control residente en el microcontrolador.

Investigaciones

Revista de la Facultad de Ciencias Naturales e Ingeniería

Investigaciones

Para el software se utilizó el proceso unificado de desarrollo (RUP) para planear, diseñar, implementar y evaluar. Con la integración de estos dispositivos se administra los usuarios, se crea cronogramas, se ejecutan las actividades y se obtiene, por medio de un puerto serial, los datos de las respuestas emitidas por el sujeto en el interior del equipo caja de Skinner. Con base en esta información se procesan y generan diferentes tipos de reportes. Con este equipo se logra desarrollar diferentes actividades propias de la investigación en Psicología, brindando a los estudiantes mejores recursos a través de la implementación de tecnología de avanzada y a bajo costo. El equipo permite obtener exactitud en las mediciones y, a partir de ahí, generar análisis que promueven la confirmación empírica de los constructos teóricos. INTRODUCCIÓN La utilización de nuevas tecnologías es un factor importante en los laboratorios de una universidad, ya que brinda al estudiante y al docente una herramienta básica y sólida para el desarrollo de procesos efectivos de aprendizaje, llevando a la práctica el conocimiento adquirido en las aulas.

33


La ejecución del proyecto "Diseño y Construcción de una Caja de Skinner Automatizada" surgió como respuesta a la necesidad de implementar recursos tecnológicos para la investigación en el laboratorio del programa de Psicología de la UNAB extensión UNISANGIL. Para tal fin, se diseñó y construyó un prototipo caja Skinner automatizada como herramienta para los procesos pedagógicos, académicos e investigativos de docentes y estudiantes de este programa, implementando todos los requerimientos de hardware y software necesarios para su construcción. Se favorece también la integración interdisciplinaria en la institución y se asume como un medio para promover la formación de profesionales competitivos y capaces de transformar los recursos disponibles en soluciones efectivas para los requerimientos que la región exige. En términos generales, se construyó una caja de Skinner con un mecanismo de control automatizado regulado por un microcontrolador. Además, esta caja se complementa con un software que lleva los registros históricos, da el direccionamiento a diferentes subrutinas y genera resultados y reportes de cada sesión. Es importante tener en cuenta que la caja de Skinner es un dispositivo de gran relevancia en los estudios de la conducta y ha sido implementado en la investigación y análisis que las escuelas conductistas han desarrollado. Con este equipo se busca optimizar las prácticas e investigaciones de los estudiantes de Psicología en los campos específicos de análisis conductual, en los cuales se asume la experimentación y el estudio empírico como una de las condiciones necesarias para lograr una comprensión precisa de los contenidos teóricos.

Investigaciones

Asimismo, se debe resaltar la importancia de promover la investigación científica como una de las condiciones necesarias en la construcción de nuevos saberes y en el fortalecimiento de una cultura investigativa que permita proponer soluciones innovadoras a las problemáticas que en el contexto educativo se pueden presentar.

Para el diseño y construcción de la caja de Skinner se hizo necesario crear un conjunto de planos de los circuitos de control y de potencia seleccionando los más efectivos y apropiados para obtener los resultados esperados. Por ejemplo, en el caso del circuito de potencia se utilizó el regulador de voltaje LM7508, además de un banco de condensadores necesarios para conservar los niveles de voltaje de 5V, +12V y -12V requeridos para el funcionamiento de los dispositivos de la tarjeta de control de la caja de Skinner automatizada. En primera instancia se realizó un diseño para la adquisición y manejo de datos utilizando como elemento central el microcontrolador Motorola 68HC908GP32. Este mecanismo cumple con las características ideales para el trabajo a realizar. Este implemento permitió dar un buen manejo a cada uno de los dispositivos de la caja. Uno de los requerimientos básicos para el desarrollo del proyecto es la comunicación entre el Hardware y el Software, por medio de un puerto serial. Estando ya establecida la comunicación serial y comprobando su óptimo funcionamiento, se procedió al diseño de los dispositivos a utilizar, tales como palancas en las que se implementaron pulsadores del tipo final de carrera y luces por medio de leds bicolor y de alto brillo. Adicionalmente, se diseñó una bocina con frecuencia variable. Para cumplir con los requerimientos de la caja de Skinner se tuvo la necesidad de generar una serie de estímulos de recompensa y castigo. Los primeros consisten en el suministro de pellets o bolitas de alimento por medio de dispensadores controlados electrónicamente por diodos y transistores que permiten generar la entrega del alimento en los periodos de tiempo y espacio previamente configurados con ayuda del software de control. Los segundos consisten en una descarga eléctrica generada por un relevo de control el cual permite variar los niveles de voltaje y obtener así la descarga adecuada al sujeto (rata).

34


Hasta este punto, se ha mencionado el componente físico del proyecto. Sin embargo, es necesario hacer mención especial de los aspectos metodológicos implementados en el mismo. La metodología que se utilizó para el desarrollo del proyecto es el proceso unificado de desarrollo (RUP), la cual permite llevar a un equipo de desarrollo a la construcción de sistemas para diferentes áreas del conocimiento, complejidad y tamaño, que cumplan con los requerimientos que el mundo actual exige. RUP está dirigido por casos de uso, centrado en la arquitectura y es iterativo e incremental. Ahora bien, un caso de uso en general, es una fracción de funcionalidad que proporciona un resultado a un usuario. Es decir, los casos de uso representan los requisitos funcionales de un sistema y un conjunto de casos de uso conforman el modelo de casos de uso. Un caso de uso debe responder a la pregunta ¿Qué debe hacer el sistema para cada usuario? Cuando se afirma que el proceso unificado de desarrollo está dirigido por casos de uso, se está diciendo que los casos de uso no sólo son útiles para el levantamiento de requisitos, sino que permiten guiar el desarrollo por medio de un conjunto de flujos de trabajo que parten de los casos de uso. La construcción de los siguientes modelos, en el desarrollo, se hace con base en los casos de uso y éstos, a su vez, maduran durante el ciclo de vida del desarrollo.

Investigaciones

La construcción de la caja se complementó con una base de madera con el fin de soportar todo el equipo y proteger la parte electrónica de la caja metálica. El tamaño del equipo está basado en las dimensiones estándares: 21.5 cm de ancho por 28.5 cm de largo y 21.5 cm de alto. El armazón de la caja está hecho en acero inoxidable, con tres caras en acrílico transparente de 5 mm de grueso. También posee una bandeja en acero inoxidable la cual permite recoger los excrementos del sujeto (rata). Una de las ventajas de la caja, y que la diferencia de las demás, es que los dispositivos con los que cuenta son intercambiables de posición; es decir, las dos caras transversales de la caja admiten la posición de todos los dispositivos, permitiéndole al estudiante variar los niveles y desarrollar investigaciones de forma creativa y en diferentes niveles de complejidad.

1

Según Jacobson (1999), uno de los creadores de esta metodología, el proceso unificado de desarrollo está centrado en la arquitectura porque presenta una vista estática y dinámica del sistema antes de la construcción. Además tiene como tarea primordial la comprensibilidad, capacidad de adaptación al cambio y reutilización. La arquitectura va de la mano con los casos de uso y surge de las necesidades de los usuarios. La funcionalidad está a cargo de los casos de uso; y la forma, a cargo de la arquitectura, encajando estos de tal forma que permita su desarrollo presente y futuro. Otro factor que influye en la arquitectura de un sistema software es la plataforma en la que va a funcionar. De esta forma, la arquitectura es la que permite al sistema evolucionar a lo largo del tiempo. Es importante tener en cuenta que el desarrollo de un proyecto de software puede tardar un prolongado periodo de tiempo, para lo cual es recomendado dividir el proyecto en proyectos más pequeños a los que se denominan iteraciones. Éstas deben estar controladas y planeadas con anticipación. Las iteraciones cumplen con los flujos de trabajo necesarios durante el desarrollo y hacen referencia a un grupo de casos de uso. En el momento que se cumpla la iteración se evalúan los objetivos propuestos. En caso de que no se cumplan, se revisan los posibles errores que se cometieron. De no ser posible realizar las correcciones, se pone en marcha un nuevo enfoque, siendo menos costoso pues se detectan las fallas a tiempo. En el momento que se cumpla la iteración se ensambla y se continúa con la siguiente.

1.

JACOBSON Ivar, BOOCH Grady, RUMBAUGH James. Proceso unificado de desarrollo de software. Segunda edición. Madrid: Addison Wesley, 2000

35


El proceso unificado aparte de utilizar UML cuenta con cuatro fases que son: inicio, elaboración, construcción y transición. En cada ciclo que se realice en las fases se lleva a cabo cinco flujos de trabajo fundamentales, los cuales son requisitos, análisis, diseño, implementación y prueba. En el presente documento se muestra al lector el ciclo de desarrollo del proyecto. Éste se organizó por flujos de trabajo para llevar una continuidad en las ideas y hacer que sea fácil la interpretación del sistema. En primer lugar, se presenta la administración del proyecto en el que se describe el contexto del negocio, los objetivos del producto, los antecedentes, el presupuesto y el cronograma de actividades para poder formar una base en la que se pueda dar inicio al los demás flujos de trabajo. Cabe resaltar que cada flujo de trabajo se sometió a las fases establecidas por el proceso unificado de desarrollo, en la medida que se requiere dentro de cada fase. En la toma de requisitos se realizaron reuniones semanales en el primer semestre del 2005 con los docentes encargados del área conductual del programa de Psicología de la UNAB extensión UNISANGIL, quienes explicaron al grupo de desarrollo algunas teorías conductuales y, a su vez, expusieron las necesidades que, en su momento, tenían. Esta información se documentó por medio del modelo de casos de uso, en el que se describen los requisitos funcionales y los diferentes flujos de información, precondiciones, poscondiciones y restricciones de diseño.

Investigaciones

RUP utiliza Lenguaje Unificado de Modelado (UML) para representar todas las posibles vistas de un sistema software. De esta forma UML pasa a ser un factor indispensable para el proceso unificado. Es decir, UML es un lenguaje visual utilizado para visualizar, especificar, construir y documentar artefactos software. Cuenta con nueve tipos de diagramas, dividiéndose estos en dos partes: diagramas estáticos en los que se encuentran los diagramas de clases, objetos, componentes y de despliegue, y diagramas dinámicos en los que están los diagramas de casos de uso, secuencia, colaboración, estados y actividades.

Tomando como punto de partida el modelo de casos de uso, se inicia el análisis y diseño, refinando los casos de uso y esbozando el modelo de la arquitectura del software, en el que se presenta un diagrama general de casos de uso del sistema y los diagramas de colaboración para poder comprender la organización estructural de las clases del análisis. Además se describen los flujos de las diferentes relaciones entre las clases. Después se elaboran los diferentes paquetes del análisis y, con base en esta información, se procede a presentar el diagrama de clases del diseño y el modelo de datos persistentes. En un último apartado, se muestra el modelo de implementación en el que se describe la forma como se relacionan los componentes físicos en los diferentes nodos, junto con sus respectivas interfaces. Hasta aquí, el presente informe da una visión del proceso llevado a cabo y permite analizar no sólo el producto terminado, sino toda la serie de etapas que lo constituyen y los elementos que se han desarrollado para su adecuada finalización. Para finalizar, se puede afirmar que el desarrollo del presente proyecto permitirá implementar nuevos procesos investigativos y académicos para el programa de Psicología, involucrando al estudiante con la experimentación y propiciando la construcción de nuevos conocimientos. Tareas que, sin duda, hacen parte de la formación profesional y que se han de ver enriquecidos por la integración interdisciplinaria y por el uso de nuevas tecnologías y recursos de avanzada, propios de la formación científica.

36


Fundación Universitaria de San Gil UNISANGIL

1010101010101010101010 010101010101010101010 1010101010101010101010 010101010101010101010 1010101010101010101010 010101010101010101010 1010101010101010101010 010101010101010101010 1010101010101010101010 010101010101010101010 1010101010101010101010 010101010101010101010 1010101010101010101010 010101010101010101010 1010101010101010101010 010101010101010101010

Diseño y construcción de un sistema multiagente para la generación de aplicaciones empleando la integración de módulos de software sin la intervención de seres humanos José Fabián Díaz Silva Ingeniero de Sistemas Especialista en Tecnologías Avanzadas para el desarrollo de Software Docente Ingeniería de Sistemas - UNISANGIL e-mail: jdiaz@unisangil.edu.co

Palabras Clave Agentes de software, módulos, algoritmos genéticos, Web Service, inteligencia artificial. RESUMEN El desarrollo de software y sus metodologías de análisis, diseño e implementación, han evolucionado a través de la historia, logrando llegar hasta un punto en el cual los desarrollos se realizan de una forma semiautomatizada, donde el ser humano construye sistemas complejos a partir de pequeñas porciones de código que van desde clases, hasta los llamados módulos. Pero precisamente una de las causas de que el software presente errores y sea propenso a fallas, es la necesidad de contar con un ser humano para que realice las actividades críticas y esté vinculado directamente en la reparación de estos errores. Para mitigar este problema y buscar la optimización de los sistemas se están empleando nuevas tecnologías como lo son los agentes de software, que denotan autonomía; los algoritmos genéticos que permiten evolucionar los códigos y se adaptan de forma adecuada a ambientes cambiantes y por último, los Web Services que habilitan al software para operar en diversas plataformas y en espacios geográficos distribuidos. Todas estas tecnologías juntas prometen crear aplicativos que no requieran una presencia constante de seres humanos, para repararse, mejorarse e incluso crear nuevos aplicativos.

Investigaciones

Revista de la Facultad de Ciencias Naturales e Ingeniería

Investigaciones

1. INTRODUCCIÓN La programación de sitios WEB y el empleo de tecnologías relacionadas con esta, son una tendencia que poco a poco ha estado ingresando en el horizonte de los programadores y demás personas relacionadas con el medio tecnológico; quienes empleando herramientas, metodologías y los llamados "Frameworks",

37


Son muchas las causas que provocan esto, pero dentro de las más importantes podemos encontrar el hecho que las máquinas no tienen la capacidad para diseñar ni inventar, ni realizar búsquedas autónomamente. Esto está cambiando gracias a los trabajos de "John Koza"1 quien propone soluciones creativas empleando lo que denomina programación genética. De igual forma los códigos de un aplicativo se encuentran ligados mutuamente y crean dependencias que provocan en el momento de una falla en cualquiera de sus partes que el sistema completo colapse, hecho que no es posible eliminar empleando metodologías eficientes de desarrollo de software, pues aunque estas se enfocan en ofrecer un producto de calidad2 los fallos se siguen presentando por diversas causas poco controlables (humanas, software, naturales), dejando fuera de línea los aplicativos. Si bien, está claro que uno de los problemas actuales en la producción de software se menciona en el párrafo anterior, no se puede dejar de lado el hecho que en los últimos años, los proyectos orientados al software no se están centrando en el mejoramiento de los sistemas de producción de los mismos y han desviado su atención a dar soluciones a diferentes áreas del conocimiento, logrando reducir las brechas entre países e impulsado el desarrollo de la sociedad, como se puede observar en un articulo de la 3 reconocida revista PCWorld, titulado "The 100 Best Products of 2006" , que subraya y enumera los mejores aplicativos tecnológicos del 2006. Siendo un factor a resaltar que siguen estando fuera de esa lista los aplicativos o desarrollos que soporten el trabajo de los programadores o contribuyan al mejoramiento y mantenimiento de los recursos ya existentes; hecho que no es nuevo en el ámbito de los programadores, donde la mayoría de los aplicativos están dirigidos a facilitar, complementar o automatizar áreas distintas a las de ingeniería de software.

Investigaciones

han logrado suplir en gran medida las necesidad que el ciclo de vida de un sistema de este tipo presenta. Pero aunque la generación de sitios en estos momentos se encuentra "semi- automatizada", no se ha logrado superar el hecho de requerir de un ser humano para realizar la búsqueda de los Scripts o códigos y efectuar el ensamblado de los mismos.

2. FUNDAMENTO DEL PROYECTO Las necesidades actuales de la industria del software y de los consumidores de estas, requieren de sistemas que no dependan de un ser humano para su operatividad y mantenimiento; por ello, este proyecto toma como referencia esa necesidad y asocia tecnologías que han evolucionado por ramas diferentes de la misma ciencia, para producir un resultado único, donde un software se concibe como porciones de código que autónomamente se encarga de juntar y reemplazar sus componentes en caso de un fallo. 3. TECNOLOGÍAS El presente proyecto requiere el manejo adecuado de una serie de tecnologías, las cuales se describirán de forma general a continuación. Agentes de Software El proyecto plantea emplear los agentes de software para administrar las operaciones autónomas que se requieren para su funcionamiento y al mismo tiempo para almacenar el aprendizaje que la experiencia va generando en los sistemas. 1. Koza, John R(1996). Genetic Programming. On the Programming of Computers by Means ofNatural Selection. USA:The MIT Press. 2. Pressman, Roger(2004). Ingeniería del Software un Enfoque Practico,(6th ed). Madrid: McGraw-Hill 3. Pcworld Magazine(2006,mayo 31)The 100 Best Products of 2006[On line]. Disponible http://www.pcworld.com/article/id,125706page,13/article.html

38


6

Pero son Etzoni y Weld quienes han recopilado lo que para muchos son las características que un agente debe tener, para ser considerado como tal. Reactividad: La habilidad de ser selectivo y actuar. Autonomía: Dirigido por objetivos, proactivo y comportamiento auto dirigido. Comportamiento colaborativo: Puede trabajar en acuerdo con otros agentes para alcanzar un objetivo común. Habilidad de Comunicación: Habilidad de comunicación con personas y con otros agentes. Capacidad de Inferencia: Puede actuar en tareas abstractas empleando las especificaciones del conocimiento a priori general, empleando los métodos para alcanzar los objetivos. Continuidad Temporal: Persistente en el tiempo. Personalidad: La capacidad de manifestar los atributos de una "Creencia" como una emoción.

Investigaciones

Un agente es una entidad de código autónoma, capaz de actuar en nombre de un usuario y alterar un entorno acorde a sus objetivos. Nwana los menciona en sus trabajos4 , donde los clasifica, describe y crea una ontología con la cual se puede identificar un agente de software dependiendo de la tarea que 5 desempeña. Shoham resalta su capacidad de operar continuamente y en ambientes específicos.

Adaptabilidad: Tener la capacidad de aprender y de mejorar con la experiencia. Movilidad: Tener la capacidad de migrar por sí mismo e ir de un anfitrión a otro. Algoritmos Genéticos La segunda teoría con la cual se trabaja en esta propuesta son los algoritmos genéticos, área que se desprende de la inteligencia artificial y ha logrado hacer su lugar dentro de los objetos de estudio de gran número de académicos. Se podría definir como la capacidad que tiene un software para resolver problemas sin necesidad de que se le indique de forma explícita como debería hacerlo. Holland acuñó el término en sus numerosas publicaciones y John Koza lo complementó y aclaró en libros como "Genetic Programming. On the Programming of Computers by Means of Natural Selection".7 En esencia, un algoritmo genético busca una representación de las posibles soluciones de un problema dado, comúnmente se emplean cadenas binarias (1, 0), para indicar las características del problema. Estas variantes se les denomina cromosomas y juntas conforman la población que será trabajada.

4. Nwana, H(1996) Software Agents: An Overview Knowledge Engineering Review, Vol. 11, No 3, pp.1-40.U.K:Cambridge University 5. Shoham, Y(1997). An Overview of Agent-oriented Programming. In Software Agents, ed J. M. Bradshaw. Pp.271 - 290 Menlo Park, Calif: AAAI Press. 6. Etzioni, O., and Weld, D. S. 1995. Intelligent Agents on the Internet: Fact, Fiction, and Forecast. IEEE Expert 10(4): 44–49. 7. Koza, John R(1996). Genetic Programming. On the Programming of Computers by Means of Natural Selection. USA:The MIT Press

39


En el momento de seleccionar los individuos que sobreviven a una próxima generación aparecen nuevos términos como lo son cruza, mutación y selección. La mutación es una variante aleatoria que se efectúa a uno o varios cromosomas de un individuo, permitiendo de esta forma la inclusión de nuevo material genético a los individuos de la generación donde ocurre la mutación. Web Service La última teoría empleada como fundamento de este proyecto, gira alrededor de los Servicios Web, una nueva forma de concebir las operaciones que se realizan en los aplicativos convencionales de cualquier empresa. Los servicios Web se emplean para conectar dispositivos empleando Internet, que combinando datos y procesos generan resultados no contemplados anteriormente a ellos. Un servicio Web puede ser entendido como una porción de software que tiene la capacidad de ser ensamblado a otros y realizar 8 operaciones de mayor complejidad. No se puede hablar de los servicios Web como si fueran una nueva tecnología, es solo el aprovechamiento adecuado de las ya existentes como lo son XML,HTML, URI. De igual forma hay que tener presentes algunas infraestructuras que garantizan el correcto funcionamiento de estos servicios Web.

Investigaciones

Se hace necesario definir las denominadas generaciones que no son más que conjuntos de soluciones. La primera generación se produce empleando números aleatorios (cualquier respuesta es igualmente válida cuando no se conoce la ideal). Cuando se necesita pasar a una siguiente generación la selección aleatoria desaparece y da lugar a una selección de los más aptos para sobrevivir a una nueva etapa.

Cuando se menciona el empleo de aplicativos siempre existirán dos perspectivas diferentes, las cuales apuntan al mejoramiento de las comunicaciones; La primera de ellas tiene como fundamento al ser humano y la segunda se centra de forma exclusiva en las aplicaciones retirando las complicaciones de las mismas a los humanos que las operan. En esta última se encuentran los Web Service, que no están contemplados para ser operados por humanos (La complejidad de sus mensajes y la diversidad de protocolos que fundamenta, lo evidencia.), pero sí son óptimos para que dos máquinas separadas geográficamente puedan operar de forma adecuada. Tecnologías Complementarias Las tecnologías mencionadas anteriormente, cumplen un papel importante en los avances que la ciencia de la computación ha tenido en los últimos años. Cada una de ellas se ha convertido en una rama de la ciencia que ha motivado la investigación por parte de entidades y Universidades de todo el mundo, generando proyectos y soluciones de gran diversidad como se evidencia anteriormente en este documento. Pero en los últimos años estas tecnologías se han estado combinando para suplir necesidades que por sí solas no podían cubrir por las mismas limitaciones que se imponen al seguir sus principios básicos. Ejemplo de esto se puede encontrar en "Computacional Web Intelligence" 9, o con el investigador Fuyuki

8. D. Fensel y C. Bussler(2002). The Web Service Modeling Framework WSMF. Electronic Commerce Research.Vol 1. pp. 113-137 9. Zhang Y,Q(2004), Kandel, Computational Web Intelligence,Vol 58. Georgia State University, USA: World Scientific Publishing Company.

40


10

11

Ishikawa que acuñaron nuevos términos o Jaeger y Gero Mulh quienes lograron invocar servicios Web empleando algoritmos genéticos. Existen muchos otros ejemplos y cada uno se aplica a una rama de la ciencia, el límite como siempre lo está colocando la imaginación de los seres humanos.

Para la realización del proyecto se realizará una metodología adaptada al contexto donde las primeras fases se centran en el levantamiento del estado del arte en cada una de las tecnologías que componen el proyecto. Las siguientes son las actividades propuestas en la metodología. Su descripción minuciosa y las actividades relacionadas, salen del alcance de este artículo. 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11.

Diagnóstico del estado actual de la Tecnología: Definición Marco Teórico Complementario Levantamiento de Requerimientos Definición de características de Aplicativos Web Recolección, Selección y Clasificación de Scripts Modelamiento de Agentes de Software Modelamiento Webservice Identificación comportamientos Inteligencia Artificial con algoritmos genéticos. Integración de Tecnologías y propuestas de Arquitectura Diseño de Pruebas Elaboración de Informe Final

Investigaciones

METODOLOGÍA A EMPLEAR

El modelamiento de cada uno de los componentes tecnológicos se realizará con una metodología propia, solo variando los entregables para que sean compatibles con el trabajo paralelo de las tres tecnologías. DISCUSIONES Y AVANCES En la actualidad el proyecto se encuentra en la primera fase de seguimiento de la metodología, recolectando el material y realizando un estado del arte de las tecnologías a emplear. Por la escasez de documentación relacionada con la investigación y por la novedad que esta representa (Principalmente en países de habla hispana), esta fase genera un nuevo resultado no contemplado en primera instancia dentro del proyecto; Este es, la producción de un marco teórico que permita a futuras investigaciones iniciar con mayor comodidad al contar con la información centralizada de referencia para sus trabajos. De la misma forma se están presentando adelantos paralelos desde diversas áreas para lograr la capacitación y preparación de potenciales investigadores en estas ramas de la tecnología; Siendo ejemplo de ello la inclusión de la temática "Web Service" como asignatura electiva del programa de Ingeniería de Sistemas de UNISANGIL, hecho que espera replicarse en los próximos semestres con las temáticas de agentes de software y algoritmos genéticos que hacen parte de la fundamentacion teórica de este proyecto. Otro hecho que contribuye al avance en el desarrollo de este proyecto, es la vinculación de propuestas de trabajos de grado de dos grupos de estudiantes, que con sus investigaciones preliminares se encargarán

10. Ishikawa, Fuyuki(2005),Toward Synthesis of Web Service and Mobile Agents. pp. 167 - 174 Vol.1 .IEEE International Conference on Volume , Issue. 11. Jaeger, Michael(2007), QoS Based Selection of Service, In KiVS 2007 Workshop: Service-Oriented Architectures und ServiceOriented Computing.pp. 359-370

41


de efectuar las demostraciones correspondientes de las tecnologías de forma particular para dar mayor seguridad al proyecto en el momento que inicie la integración de las mismas.

Todo trabajo de investigación debe estar orientado a la facilitación de las tareas de los seres humanos en cualquier campo; las nuevas tecnologías deben ser empleadas con este mismo fin y por ende es necesario combinarlas para que los resultados sean óptimos y las expectativas que estas generan realmente se cumplan a cabalidad. La inteligencia artificial, y el actuar autónomo del software no deben ser considerados un tema alejado del contexto cotidiano de trabajo; con el paso del tiempo estas nuevas tecnologías asumirán muchos de los roles que los seres humanos desempeñamos, siendo necesario que desde ahora se garantice que la interacción de estas se pueda efectuar de forma transparente.

REFERENCIAS BIBLIOGRÁFICAS

Investigaciones

CONCLUSIONES

-Koza, John R(1996). Genetic Programming. On the Programming of Computers by Means of Natural Selection. USA:The MIT Press -Nwana, H(1996) Software Agents: An Overview Knowledge Engineering Review, Vol. 11, No U.K:Cambridge University -Jaeger, Michael(2007), QoS Based Selection of Service, In KiVS 2007 Workshop: Service-Oriented Architectures und ServiceOriented Computing -Shoham, Y(1997). An Overview of Agent-oriented Programming. In Software Agents, ed J. M. Bradshaw. Pp.271 290 Menlo Park, Calif: AAAI Press -Ishikawa, Fuyuki(2005),Toward Synthesis of Web Service and Mobile Agents. pp. 167 - 174 Vol.1 .IEEE International Conference on Volume.

42


Fundación Universitaria de San Gil UNISANGIL

Revista de la Facultad de Ciencias Naturales e Ingeniería

Análisis Pesticidas: salud y ecosistemas

* Ingeniero Sanitario y Ambiental, Esp. En Química Ambiental mcogollo@unisangil.edu.co

Palabras clave: Pesticidas, ecosistemas, Contaminante Orgánico Persistente (COP), bioacumulación, biomagnificación, cadena alimenticia, agricultura, agroecología. Resumen El sistema de producción de alimentos ha variado considerablemente desde la aparición de insumos químicos en la agricultura; si bien es cierto que ha "aumentado" la eficiencia al lograrse una mayor producción en espacios pequeños, también vale la pena considerar los efectos producidos por esta situación pues se ha llegado a contaminar espacios y comunidades vivas en todos los rincones del planeta deteriorando de forma grave y en muchos casos irreversible el funcionamiento de los ecosistemas. El resurgimiento de prácticas tradicionales se postula como una opción saludable al aplicar técnicas de producción agroecológica sin embargo se necesita con urgencia concebir la contaminación como un problema global y de la misma forma su solución pues los esfuerzos aislados de comunidades campesinas no tienen un impacto representativo sobre la promoción de la salud del consumidor ni sobre la conservación del medio ambiente.

Análisis

Ludwing Mauricio Cogollo Rueda

En la actualidad, es común utilizar agentes químicos en los procesos agrícolas como estrategia para garantizar que poblaciones de organismos convertidos en "plagas" no ataquen los cultivos, y de esta forma obtener una mayor productividad. Muchas sustancias químicas procedentes de estos elementos llegan a las fuentes de agua creando graves alteraciones en el entorno natural. En los ecosistemas de agua dulce se observa que las concentraciones de pesticidas órgano-clorados y piretroides sintéticos, que fueron utilizados hace más de 15 años en dosis que no superaban los 0.25 kg/Ha, siguen causando daños sobre la vida acuática. Esto se refleja en los altos niveles de sensibilidad de organismos como insectos, peces y crustáceos a este tipo de compuestos (Van Wijngaarden et al, 2005). Uno de los compuestos órgano-clorados de mayor uso, para prevenir plagas agrícolas y vectores infecciosos ha sido por varias décadas el DDT (p,p´-diclorodifenil tricloroetano). En el año de 1942, durante la Segunda Guerra Mundial, Paul Hermann Müller (laureado con el premio Nóbel en medicina y fisiología en 1948), descubrió en Suiza las propiedades insecticidas de este compuesto sintetizado por primera vez en 1874. Al mismo tiempo, laboratorios alemanes empezaron a producir pesticidas organofosforados. En 1945, se descubrieron los carbamatos en Inglaterra, mientras que las investigaciones en organoclorados derivaban en nuevos y más eficaces productos. A partir de 1950 se da un crecimiento exponencial en el uso de pesticidas, desconociéndose hasta entonces las posibles consecuencias que podría traer la utilización de estas "herramientas de producción" (Carreño, 2005).

43


El problema del DDT

La exposición y bioacumulación de este tipo de agentes puede producir efectos como malformaciones en las extremidades e irregularidades en el tracto digestivo de la descendencia de individuos afectados. Sin embargo el DDT y sus metabolitos no siempre actúan como teratogénicos. Éstos también pueden bloquear la asimilación de calcio y otros nutrientes necesarios para el buen mantenimiento del organismo. En el ambiente acuático, si los tiempos de exposición son cortos, su alta insolubilidad en agua (aprox. 4 ppb) hace que sus dosis letales sean muy altas en comparación con otros COP's (Saka, 2004), dificultando considerablemente su detección, lo cual incrementa el fenómeno de biomagnificación a través de la cadena alimenticia. El DDT, al ser monitoreado, puede ser encontrado en el aire, el suelo, el agua y los seres vivos. Dada su alta estabilidad química, es fácilmente transmisible a diferentes medios. Si se encuentra en el suelo, puede ser arrastrado por lixiviación o por acción del viento, llegando a espacios y organismos muy lejanos del punto de aplicación. Tal es el caso de la Región del Lago Taihu, en China, donde se encontró en la superficie, en el cincuenta por ciento de las pruebas, en concentraciones entre los 0.3 a 5.3 ppm; además de su presencia en plantas, lodos y peces, luego de 20 años de la última fumigación. (Feng et al, 2003).

Análisis

El DDT es considerado como un compuesto C.O.P. (contaminante orgánico persistente), que es altamente soluble en lípidos (compuestos no polares). Esta característica hace que los organismos lo absorban con mucha facilidad, y así almacenen en sus organismos concentraciones mucho mayores que las presentes en el medio. Estas proporciones van aumentando a lo largo de la cadena alimenticia. El DDT presenta un nivel de reactividad muy bajo lo que le permite, en caso de no ser absorbido por organismos, permanecer por grandes períodos de tiempo en el ambiente, de manera casi inalterada (Katsoyiannis y Samara, 2004)

Modelos de dispersión atmosférica utilizados en Norteamérica para el monitoreo de compuestos órganoclorados, determinaron la presencia de trazas de estos en diferentes regiones del país. Especialmente en el sureste de EEUU se encontraron concentraciones importantes de compuestos derivados de clordano (Shen et al, 2005). El clordano y algunos de sus derivados fueron ampliamente utilizados durante la década de los 70's. En la actualidad, no se cuenta con estudios síntoma-patológicos precisos, pero pruebas realizadas in vitro con células humanas mostraron que este compuesto y sus derivados producen afecciones sobre el sistema inmunológico. Además, las células defectuosas no fueron fácilmente eliminadas, lo cual crea una mayor predisposición a desarrollar tumores y a padecer infecciones virales (Reed et al, 2004). Desde su aparición, el uso de pesticidas órgano-clorados causó grandes cambios en la agricultura. Sus efectos sobre el ecosistema y la salud humana tardaron muchos años en aparecer. Países como EEUU, Canadá, China, Japón y los pertenecientes a la Unión Europea suspendieron su uso hace ya varias décadas. Sin embargo, los países en vía de desarrollo, aunque de manera restringida, continúan utilizando el DDT, siendo éste almacenado en compuestos lipídicos. Así, es común encontrarlo en la leche materna. De esta manera entra sin mayor dificultad al organismo de niños lactantes, creando en ellos predisposición a enfermedades como cáncer de páncreas, desequilibrios neuropsicológicos y disfunciones reproductivas. Hoy en día, casi 60 años después de la aparición del DDT, no se ha logrado establecer la totalidad de sus consecuencias y afecciones sobre la salud (Yu et al, 2005). Sin embargo, la leche materna es sólo una de las vías de ingreso del DDT en el organismo humano. Y no necesariamente la primera. Pruebas de laboratorio aplicadas en Hisar, India, mostraron presencia de diferentes COP's en la totalidad de los productos vegetales alimenticios provenientes de 84 granjas en estudio. En el caso puntual del DDT sus concentraciones no excedían los límites permisibles. Pero el hecho de estar presente en todos los productos, hace suponer una toxicidad por efecto de bioacumulación y biomagnificación (Kumari et al, 2004). De hecho, se ha observado que niños que nacen de mujeres

44


Existen básicamente tres rutas de ingestión del DDT: oral, inhalatoria y dérmica. La ingestión por vía oral es la más importante. Una vez en el organismo, este compuesto se almacena en diferentes tipos de células, lo que le permite estar presente en diferentes órganos y concentraciones. Los órganos que almacenan DDT de mayor a menor concentración son: el hígado, las glándulas suprarrenales, el corazón, el páncreas, los riñones, el bazo y la tiroides. A nivel celular, el DDT y sus metabolitos inducen la apoptosis. Aún no se conoce el mecanismo que utiliza el DDT para generar esta reacción, pero se ha demostrado en células sanguíneas humanas que este proceso está precedido por el aumento de especies de oxígeno reactivo (ROS), lo cual a su vez genera estrés oxidativo. (Pérez-Maldonado et al, 2005). La agroecología: opción saludable Puede decirse que la exposición a pesticidas trae consigo diversos riesgos, tanto para la salud humana como para el mantenimiento de los ecosistemas. A raíz de esta situación, ha surgido a nivel mundial un movimiento que impulsa la reconversión de técnicas agrícolas utilizando insumos "sanos", de modo que se preserve la salud del productor, del agricultor, del consumidor y del ambiente en general. Estas técnicas se basan en la aplicación de ciclos y modelos naturales a la producción agrícola. Las metodologías pueden ser aplicadas por los agricultores in situ, pero deben efectuarse controles rigurosos pues se corre el riesgo de contaminar suelos y cultivos con microorganismos patógenos y de esta manera sólo se estaría cambiando de contaminación química a contaminación microbiológica (Sánchez et al, 2004).

Análisis

expuestas a pesticidas órgano-clorados presentan anomalías en sus genitales como criptorquidismo o síndrome de "testículo vacío". En ocasiones, estas enfermedades están acompañadas de hipospadia (malformación en la cual la abertura de la uretra está ubicada al lado y no en la punta del pene). Trazas de estos compuestos fueron encontradas en el organismo de 75 madres de niños que presentaron criptorquidismo, 66 con hipospadias, y 4 con las 2 condiciones (Bhatia et al, 2005).

Por esta razón, para llevar a cabo un proceso de producción agrícola realmente sano y sostenible, es necesario introducir el término "agroecología". La "agroecología" es entendida como la aplicación de ciclos y modelos naturales en la producción agropecuaria utilizando "herramientas vivas" tan variadas que incluyen plantas forrajeras, insectos, animales superiores, microorganismos, biomasa, biocompost, entre otros, evitando la aplicación de agentes que, independiente de su origen o naturaleza, puedan degradar las condiciones del ecosistema. Esta metodología permite a su vez introducir el concepto de "integralidad" que consiste en la elaboración de insumos "in situ", permitiendo al agricultor independizarse de casas agrícolas comerciales y al consumidor disfrutar de productos sanos para su alimentación (Fundación Hogares Juveniles Campesinos). La agroecología es una disciplina científica que define, clasifica y estudia los sistemas agropecuarios desde una perspectiva ecológica y socioeconómica. Esto quiere decir que su accionar siempre tiene en cuenta principios como la biodiversidad, el reciclaje de nutrientes, la interacción entre los diferentes cultivos, animales y suelo, y la regeneración y conservación de los recursos naturales, garantizando un sistema agropecuario perdurable,, integrando saberes indígenas y campesinos con el conocimiento técnico moderno, para obtener métodos de producción que respeten el medio ambiente y la sociedad (Moncaleano R).

45


REFERENCIAS BIBLIOGRAFICAS

VAN WIJINGAARDEN R.,Brock., , Van den Brink P. (2005) Threshold levels for effects of insecticides in freshwater ecosystems: a review. Ecotoxicology 14 (3): 355-80 FUNDACIÓN HOGARES JUVENILES CAMPESINOS. Granja Integral Autosuficiente. Ed. San Pablo. Bogotá, Colombia 2004 KATSOYIANNISA., y SAMARAC. Persistent organic pollutants (POPs) in the sewage treatment plant of Thessaloniki, northern Greece: occurrence and removal. Water Research 38 (11): 2685-98 MONCALEANO R. Manual de Prácticas para una Finca Ecológica "Tierra Viva". Ed. Centrodibujo. Bucaramanga, Colombia, 2004.

Análisis

CARREÑO-R. J. Exposición de hombres jóvenes a compuestos tóxicos persistentes y bioacumulables en el sureste peninsular. Tesis Doctoral Universidad de Granada. España, 2005

SAKA M. (2004) Developmental toxicity of p,p'-dichlorodiphenyltrichloroethane, 2,4,6-trinitrotoluene, their metabolites, and benzo[a]pyrene in Xenopus laevis embryos. Environmental Toxicology Chemical 23 (4): 1065-73 FENG K., YU B., GE D., WONG M., WANG X., CAO Z (2003) Organo-chlorine pesticide (DDT and HCH) residues in the Taihu Lake Region and its movement in soil-water system I. Field survey of DDT and HCH residues in ecosystem of the region. Chemosphere 50 (6): 683-7 SHEN L., WANIA F., LEI Y., TEIXEIRA C., MUIR D., BIDLEMAN TF. (2005) Atmospheric distribution and long-range transport behavior of organochlorine pesticides in North America. Environmental Science and Technology 39 (2): 409-20 REED A., DZON L., LOGANATHAN B., WHALEN M. (2004) Immunomodulation of human natural killer cell cytotoxic function by organochlorine pesticides. Human Exposure Toxicology 23 (10): 463-71 YU H., ZHAO X., ZHANG X., ZHU Z., ZHAO Z. (2005) The investigation on basic contents of organochlorine pesticides in human milk during consecutive periods in Beijing urban areas. Zhonghua Yu Fang Yi Xue Za Zhi 39 (1): 22-5 KUMARI B., MADAN V., SINGH J., SINGH S., KATHPAL T. (2004) Monitoring of pesticidal contamination of farmgate vegetables from Hisar. Environmental Monitoring Assessment 90 (1-3):65-71 BHATIA R., SHIAU R., PETREAS M., WEINTRAUB J., FARHANG L., ESKENAZI B. (2005) Organochlorine pesticides and male genital anomalies in the child health and development studies. Environmental Health Perspective 113 (2): 220-4 PEREZ MALDONADO I., HERRERA C., BATRES L., GONZALES AMARO R., DIAZ BARRIGA F., YANEZ L. (2005) DDT-induced oxidative damage in human blood mononuclear cells. Environmental Research 98 (2): 177-84 SANCHEZ MONEDERO M., MONDINI C., de NOBILI M., LEITA L., ROIG A. (2004) Land application of biosolids. Soil response to different stabilization degree of the treated organic matter. Waste Managemente 24 (4): 325-32

46


Matices tecnologicos