REVISTA UNIMAR No. 52

Page 1


Director Magíster Roberto García Castaño Auxiliar de Publicaciones Mag. Ana Chávez López Comité Editorial Externo Dr. Giovanni Orozco Arveláez Politécnico Jaime Isaza Cadavid, Medellín. Dr. Jhoniers Guerrero Erazo Universidad Tecnológica de Pereira

R e v i s t a No. 52

UNIMAR

Cuarto Trimestre de 2009

Edición a cargo de la Facultad de Ingeniería

“Los contenidos de los artículos son responsabilidad exclusiva de sus autores, y no comprometen en nada a la Universidad Mariana ni al Centro de Investigaciones y Publicaciones”.

Dr. Roberto Ramírez Bravo Universidad de Nariño, Pasto Dr. Miguel Posso Pontificia Universidad Católica del Ecuador, Ibarra, (E) Dr. Diego Villada Osorio Universidad de Caldas Manizales Dr. William Ospina Garcés Universidad Tecnológica de Pereira Comité Editorial Interno Magíster Luís Alfredo Guerrero Vice-rector Académico.

La Revista UNIMAR es una publicación trimestral

Magíster Oscar Valverde Riascos Decano Facultad de Ciencias Humanas y Sociales

Edición 200 ejemplares

Magíster Rafael Caicedo Díaz Facultad de Formación Avanzada

Portada Camilo Benavides Eraso

Especialista Antonio Menza Vallejo Vice-rector Administrativo y Financiero

Traducción al Inglés Ana C. Chaves López

Hermana Marianita Marroquín Yerovi Coordinadora de Investigación Profesoral

Aval de la traducción al Inglés Departamento de Idiomas Diseño y diagramación D.G. Nelly Carmenza Burbano Sánchez Correspondencia Universidad Mariana Centro de Investigaciones y Publicaciones CIP Calle 18 No. 34 - 104 Tel: 7314923 Ext. 185 E-mail: lider502000@yahoo.es Impresión Publicaciones UNIMAR

Comité de Redacción C.S Ricardo Erazo Director del Programa de Comunicación Social y Periodismo Magíster Héctor Rosero Flórez Docente Comunicación social Mag. Ana Chávez López Departamento de Lenguas Modernas



EN EJECUCIÓN DEL PLAN DE ACCIÓN EN BIODIVERSIDAD NARIÑO 2006:2030, Páramos, áreas protegidas, especies promisorias y mercados alternativos CORPONARIÑO

17

CONSTRUCCIÓN DE UN Tubo de Venturi semiautomático

35

DETERMINACIÓN DE LA CALIDAD DEL AGUA DEL RÍO PASTO Mediante la utilización de bioindicadores

45

“EVENT MANAGER” Manejador Informático de Procesos Administrativos En eventos académicos y de formación profesional

57

LA PLANIFICACIÓN DEL RÍO PASTO a partir de una modelación hidrodinámica

77 89

DISEÑO DIGITAL MODERNO BIODEGRADABILIDAD DE FLUJOS DE ALIMENTACIÓN En humedales artificiales piloto para el tratamiento de lixiviados del relleno sanitario “ANTANAS”

97

INGENIERÍA DE SISTEMAS: Retrospectiva y desafios

109

PROTOTIPO DE UN SISTEMA DE MONITOREO INALÁMBRICO en la cuenca del río Pasto para el caso de inundaciones

113

PROTOTIPO SEMIAUTOMÁTICO COMPUTARIZADO de selección de café en estado seco

Contenido

7

UNIMAR

EDITORIAL

R e v i s t a No. 52

5



Por José Javier Villalba Romero1

L

a investigación, en la Facultad de Ingeniería de la Universidad Mariana, es un proceso continuo que se soporta en los lineamientos institucionales y se articula con el Plan Estratégico de Desarrollo 2007 -2012, en el marco del programa de Investigación de Alta Calidad, uno de cuyos resultados ha sido el escalafonamiento en Colciencias de los Grupos de Investigación GISMAR y GIA, correspondientes a los Programas de Ingeniería de Sistemas e Ingeniería Ambiental, respectivamente. La pertinencia académica y social de las investigaciones profesorales, así como la consultoría y el fortalecimiento del espíritu investigativo, han sido los proyectos institucionales que la Facultad ha impulsado en coherencia con el Plan de Desarrollo, los cuales dejan como resultado la solución de problemas concretos de la región y del país, y que además se publican en esta edición como evidencia del quehacer de los investigadores de la universidad. La edición número 52 de la Revista Unimar, con el título “Ingeniería y Sociedad”, refleja retos importantes y compromisos serios sumidos por nuestros investigadores con el entorno, hecho que los ha hecho merecedores de reconocimientos por su calidad investigativa.

Otro de los trabajos que se presenta es “EVENT MANAGER”, Manejador Informático de Procesos Administrativos en Eventos Académicos y de Formación Profesional, en donde se construye un aplicativo que brinda herramientas suficientes para planear, desarrollar y evaluar cada uno de los eventos desarrollados. Además, ofrecer a los asistentes, conferencistas y ponentes manipular y gestionar la información necesaria de los eventos en los que participen. El proyecto “Construcción de un Tubo de Venturi semiautomático” utiliza la automatización de procesos como una alternativa para el desarrollo de prácticas de mecánica de fluidos utilizando Tubo de Venturi; el dispositivo está dotado de sensores electrónicos, tarjeta de adquisición, un acondicionamiento mecánico, y un software de procesamiento de datos que almacena los registros de manera persistente en una base de datos. Sea esta la oportunidad para agradecer al Centro de Investigaciones y Publicaciones, a los directores de Programa, a los coordinadores de investigación, investigadores y coinvestigadores, quienes hicieron posible la producción de este número de la Revista UNIMAR. Igualmente gracias a Camilo Benavides, estudiante del programa de Ingeniería de Sistemas, por el diseño de la carátula, y a todas y cada una de las personas que aportaron con sus ideas.

1

Decano de la Facultad de Ingeniería, Universidad Mariana

Editorial

En esta edición se abordan los temas como la biodegradabilidad de flujos de alimentación en humedales artificiales, en donde se hace referencia al análisis de la biodegradabilidad utilizada como herramienta de interpretación de resultados en la evaluación de la remoción de cargas contaminantes, en términos de DBO5 y DQO, de lixiviados, mediante humedales artificiales piloto como tratamiento terciario del relleno sanitario Antanas. La investigación fue desarrollada por la Universidad Mariana y EMAS S.A. E.S.P (entidad cofinanciadora), empresa delegada para la recolección y la disposición final de los residuos sólidos en el relleno sanitario “Antanas”, y que evidencia la solución a estos problemas reales del país.

Revista

5

unimar



EN EJECUCIÓN DEL PLAN DE ACCIÓN EN BIODIVERSIDAD NARIÑO 2006:2030, Páramos, áreas protegidas, especies promisorias y mercados alternativos CORPONARIÑO ACTION PLAN EXECUTION IN BIODIVERSITY NARIÑO 2006:2030, Moorlands, protected areas, promissory species And alternative markets CORPONARIÑO KEY WORDS Fecha de recepción: 8 de octubre de 2009 Fecha de aprobación: 30 de octubre de 2009

biodiversity, ecosystems, moorlands.

S

egún el Ministerio del Medio Ambiente (2001)1, en Colombia los páramos fueron definidos como ecosistemas estratégicos de alta montaña por su importancia para el desarrollo económico y cultural del país, pues por su gran capacidad de interceptar, almacenar y regular los flujos hídricos, contribuyen al abastecimiento de agua a los centros urbanos y a la producción agrícola e industrial del territorio colombiano. Sin embargo, presentan serias amenazas de tipo antrópico que ponen en riesgo la estabilidad de las condiciones físico-bióticas y por lo tanto su capacidad para mantener la oferta de bienes y servicios ambientales (Universidad de Nariño y Corponariño 2006).

RESUMEN En ejecución del Plan de Acción en Biodiversidad del Departamento de Nariño 2006:2030, CORPONARIÑO ha puesto especial énfasis, durante el periodo 2007-2009, en los ecosistemas de páramo, en el diseño e inicio de implementación del Sistema de Áreas Protegidas y en la identificación de especies medicinales promisorias.

PALABRAS CLAVE biodiversidad, ecosistemas, páramos.

Entre las causas de este deterioro se encuentra: carencia de tierras aptas para la agricultura, ampliación de la frontera agrícola, demanda de bienes y servicios ecosistémicos por encima de su capacidad de resiliencia, ausencia de procesos participativos para la planificación y legislación apropiada para los ecosistemas de páramo, distribución inequitativa de la tierra y los ingresos, manejo

ABSTRACT In execution of the Action Plan In Biodiversity in Nariño Department 2006:2030, Corponariño has put special emphasis, during the period 2007-2009, in the moorlands ecosystems, in the design and beginning of implementation of the Protected Areas System and in the identification of medicinal promissory species.

Citado en Estado del Arte de la Información Biofísica y Socioeconómica de los Páramos de Nariño, 2006 convenio UDENAR-CORPONARIÑO 1

Revista

7

unimar


inadecuado de aguas residuales y residuos sólidos en las zonas de influencia (Corponariño 2009).

periodo 2007-2008 formuló los planes de manejo de los páramos de Paja Blanca, Chiles, Azufral y Ovejas, mediante procesos participativos con los diferentes actores sociales e institucionales presentes en su área de influencia. En la vigencia 2009 se está adelantando el proceso de declaratoria como áreas protegidas del nivel regional e iniciando la ejecución de las acciones prioritarias para la conservación y manejo sostenible que estos planes contemplan (Corponariño 2009).

Como una medida de solución y dada su importancia como proveedores de bienes y servicios ambientales, a nivel nacional, a través del Plan Nacional de Páramos y la resolución 839 de 2003, se establece la necesidad de la formulación y ejecución de los planes de manejo de estas áreas, los cuales están acordes con la política y Plan Nacional de Biodiversidad denominado “Biodiversidad Siglo XXI” y el Convenio de Diversidad Biológica, ratificado por Colombia mediante ley 165 de 1994.

En concreto, como resultado del trabajo realizado durante 2007-2009, se tiene lo siguiente: -

En concordancia con estas disposiciones nacionales e internacionales, a nivel departamental se cuenta como instrumento orientador para el conocimiento, conservación, uso sostenible de la biodiversidad y la distribución justa y equitativa de sus beneficios, con el Plan de Acción en Biodiversidad Nariño 2006:2030. En el marco de su ejecución, la Corporación, en el

Planes de manejo formulados para los páramos de Chiles, Paja Blanca, Azufral y Ovejas, en convenio con WWF e IAvH el primero, y con la Universidad de Nariño los restantes, con la participación de autoridades, comunidades indígenas y campesinas y organizaciones comunitarias presentes en la zona.

Fotos Francisco Nieto, IAvH

-

Fortalecimiento de la participación comunitaria e institucional a través de la conformación de Comités Locales, con representantes de las organizaciones comunitarias e instituciones presentes en la zona.

-

-

Capacitación e intercambio de conocimientos en temas referidos a la conservación de los ecosistemas, realizados dentro del proceso de formulación, con representantes de las organizaciones comunitarias e instituciones presentes en la zona.

Las coberturas de estos 4 ecosistemas están representadas en 14.362.27 hectáreas de páramo, 4.440,42 de subpáramo y otros y, 19.555.89 hectáreas de bosque alto andino, con una población asentada en su área de influencia de 14.278 personas, 4 resguardos indígenas y 14 municipios, como se muestra a continuación:

Revista

unimar

8

Documentación y trámite para la declaratoria como áreas protegidas del nivel regional con la participación de los Comités Comunitarios e Institucionales conformados en los procesos de formulación de los planes de manejo.


En ejecución del Plan de Acción en Biodiversidad Nariño 2006:2030,

Cuadro 1. Población y principales coberturas de los páramos Azufral, Ovejas y Chiles COBERTURA POBLACIÓN

RESGUARDOS INDÍGENAS

8.815,61

6.521

Resguardos de Túquerres, Mallama y Santacruz

2.941,80

3.636,22

1.190

10767.73

17.937,73

4.095

2.798,12

7.969,12

2.472

19.555.89

38.358,68

14.278

PÁRAMO

SUBPARAMO Y OTROS

BOSQUE ANDINO Y ALTO ANDINO

5.144,65

622.62

3.048.34

305,62

388,80

OVEJAS

3.741,00

3.429,00

CHILES

5.171,00

TOTAL

14.362,27

UBICACIÓN

AZUFRAL

PAJA BLANCA

4.440,42

TOTAL

Resguardo de Chiles

MUNICIPIOS Sapuyes, Túquerres, Mallama y Santacruz Iles, Ospina, Sapuyes, Gualmatán, Pupiales, Contadero y Guachucal Pasto, Tangua y Funes Cumbal

Fuente: Plan de Manejo del Área de Conservación del Volcán Azufral, 2008 Plan de Manejo Páramo Paja Blanca, 2007 Plan de Manejo Páramo Las Ovejas El Tauso, 2008 Plan de Manejo Páramo Chiles, 2007

Sistema de Áreas Protegidas del Departamento de Nariño SIAP-Nariño Como un instrumento para contribuir a la conservación de la biodiversidad (incluye principalmente ecosistemas, especies y genes) se encuentra en proceso de consolidación el Sistema de Áreas Protegidas de Nariño SIAP-Nariño, el cual busca, entre otros, su representatividad, articulación de procesos, de actores y de áreas a través de las Mesas Departamental y Subregionales de Áreas Protegidas, con fundamento en lo local. Proceso que requiere divulgar, fortalecer y garantizar su sostenibilidad en el tiempo, para la conservación de la biodiversidad y la oferta de bienes y servicios ecosistémicos. El SIAP es un instrumento clave para reducir o evitar el desequilibrio que existe entre el uso y la conservación de la biodiversidad, ocasionado fundamentalmente por la acción antrópica, ya que el ser humano obra desde una perspectiva individualista y no social.

Fotos Francisco Nieto, IAvH

Revista

9

unimar


En el sistema económico en el que nos encontramos priman los beneficios financieros antes que los sociales y ambientales, lo cual ha llevado a la degradación de los ecosistemas, la pérdida de biodiversidad, la reducción de caudales, el incremento de los problemas mundiales de desertificación y cambio climático, el desequilibrio ecológico y el conflicto por uso de la oferta ecosistémica. Muchas veces estos problemas son relegados a un segundo plano. Entre sus causas se encuentra la escasa representatividad ecosistémica en áreas protegidas, la falta de coherencia intersectorial (políticas, planes, programas y proyectos), la desactualizada y descontextualizada educación impartida, la desarticulación interinstitucional, la demanda de bienes y servicios ecosistémicos por encima de su capacidad de resiliencia y ausencia de procesos participativos para el ordenamiento y la planificación apropiada.

Fotos Francisco Nieto, IAvH

A continuación se muestra la matriz de problemas que el SIAP-Nariño busca contribuir a mejorar (Corponariño 2009). El sistema de áreas protegidas se sustenta en la Ley 99 de 1993, Decreto 2811 de 1974, Código Nacional de Recursos Naturales Renovables y de Protección al Medio Ambiente, Ley 165 de 1994, la Política y el Plan Nacional de Biodiversidad y el Plan de Acción en Biodiversidad Nariño 2006:2030.

Fotos: Francisco Nieto, IAvH

Hacen parte del SIAP Nariño, las áreas protegidas declaradas del nivel Nacional, Departamental y Municipal, las reservas privadas de la sociedad civil y las reservas colectivas; sobre estas últimas aún no se tiene registros para Nariño. El total contabilizado hasta el momento entre declaradas, en proceso, registradas o reconocidas, como se registra en el cuadro 2, son 204.060,64 hectáreas. Es de anotar que para considerar a un área

protegida como tal, se requiere que exista un acto administrativo emitido por la autoridad competente conocido como “declaratoria” o “registro”, que cuente con un plan de manejo y que éste se encuentre en ejecución. Es posible que la cifra del total de hectáreas sea superior, pues sólo se ha tenido en cuenta las que cumplen con los requisitos antes mencionados y sobre las cuales se tiene conocimiento por fuentes escritas.

Revista

unimar

10


En ejecución del Plan de Acción en Biodiversidad Nariño 2006:2030, CUADRO 2. ÁREAS PROTEGIDAS DEPARTAMENTO DE NARIÑO DENOMINACIÓN ÁREA PROTEGIDA

UBICACIÓN

ECOSISTEMAS PRESENTES

PARQUE NATURAL SANQUIANGA

La Tola, El Charco, Olaya Herrera, Mosquera, Iscuandé

Playas arenosas, manglares, bosques pantanosos y bosques encharcados inundables (guandal, naidizal)

SANTUARIO DE FLORA Y FAUNA GALERAS

Pasto, La Florida, Sandoná, Yacuanquer, Tangua, Consacá

bosque alto andino, humedales

SANTUARIO DE FLORA ISLA LA COROTA

Pasto (Laguna de La Cocha)

Bosque alto andino

PARQUE NACIONAL COMPLEJO VOLCÁNICO DOÑA JUANA - CASCABEL

Tablón de Gómez, La Cruz, San Bernardo en el Departamento de Nariño, Santa Rosa y Bolivar en el Departamento del Cauca

Páramo, subpáramo, bosque andino, subandino y basal

ACTO ADMINISTRATIVO

ORDEN

Acuerdo 22 de mayo 2 de 2007 de Inderena, Resolución Ejecutiva 80.000,00 161 de julio del mismo año del Ministerio de Agricultura 7.615,00

NACIONAL

Acuerdo 013 de 1985 del Inderena

Acuerdo 32 del 2 de mayo de 1997 y 7,00 Resolución Ejecutiva 171 de junio de 1977 de Inderena

TOTAL ÁREAS DE CONSERVACIÓN NACIONALES

ÁREA ÚNICA AZUFRAL CHAITAN

SUPERFICIE – ha.

Resolución 485 del 21 de marzo de 2007, del 65.858,93 Ministerio de Ambiente, Vivienda y Desarrollo Territorial 153.480,93

Bosque alto andino

Acuerdo 005 del 23 de enero de 1990, Consejo 1.280,00 Directivo de Corponariño Declarado como Reserva Natural el Azufral

Páramo, subpáramo, bosque alto andino

Adicional en Trámite 7.535,61 Supeditado a la Consulta Previa

Túquerres, Sapuyes, Mallama y Santacruz

PARQUE REGIONAL PÁRAMO PAJA BLANCA

Pupiales, Sapuyes, Ospina, Iles, Guachucal, Contadero y Gualmatán

Páramo, supáramo, bosque alto andino

3.600,00

En trámite - Supeditado a los acuerdos con comunidades y demás actores sociales

PARQUE REGIONAL LAS OVEJAS - EL TAUSO

Pasto, Tangua y Funes

Páramo, supáramo, bosque alto andino

13.565,00

En trámite - Supeditado a los acuerdos con comunidades y demás actores sociales

TOTAL ÁREAS DE CONSERVACIÓN DEPARTAMENTALES

D E P A R T A M E N T A L

25.980,61

EL ESTERO

Pasto - El Encano

Páramo, Páramo Azonal, bosque alto andino

ALTO DALMACIA (Los Pastales y Salsipuedes)

San Lorenzo - Los Pinos

Bosque andino

CERRO LA JACOBA

La Unión - La Jacoba - Chaguaruco, El Bosque andino Diviso - Pradera AyB

Acuerdo 024 de 4 de 10.366,50 junio de 1997 , Concejo Municipal de Pasto Acta 001 de 14 de 86,50 febrero de 1991 DEL INCORA Acuerdo Concejo 4.000,00 Municipal de La Unión, 12 de diciembre de 1995

TOTAL ÁREAS DE CONSERVACIÓN MUNICIPALES

M U N I C I P A L

14.453,00

Revista

11

unimar


Resolución No.114 de mayo de 2002, Ministerio 25,00 del Medio AmbienteUAESPNN Resolución No. 0207 del 22 de Agosto del 2003, 275,00 Ministerio de Ambiente Vivienda y Desarrollo Territorial UAESPN N

Guayacanes del Llano Verde*

Imués, Corregimiento El Pedregal, Vereda Las Ánimas

Bosque andino entre 2.150 –2.300 msnm

Pueblo Viejo

Mallama

Bosque alto andino entre 3.201 y 4.100 msnm

Pullitopamba*

Pasto, corregimiento Genoy, vereda Pullitopamba

Páramo bosque altoandino entre los 2.000 y los 2.450 msnm

Río Ñambí*

Barbacoas, corregimiento Altaquer, vereda El Barro

Bosque subandino, bosques de baja altitud y pie de montaña entre los 1.100 y 1.900 msnm

Resolución Ejecutiva No. 1.250,00 971 de julio 7 de 1992, CORPONARIÑO

La Planada

Ricaurte, Vereda San Isidro

Bosque andino entre los 1.300 y los 2.100 msnm.

Resolución 242 de 1984, Inderena y por Ministerio 3.200,00 de Agricultura como Área de Reserva Forestal Protectora.

Red de Reservas Naturales de La Cocha (57) Redes de reservas naturales de El Galeras: Mapachico 14, Tierra Andina 80, El Silencio 3 y San Felipe 8

Pasto, Corregimiento Páramo, bosque alto El Encano andino, bosque andino

Resolución No 0205 del 23 de agosto de 2003 20,00 Ministerio de Ambiente, Vivienda y Desarrollo Territorial - UAESPNN.

3.000,00

90,00 Sin registro

Charmolán

Buesaco, Vereda Hato Tongosoy

Bosque andino a 1.950 msnm

85,00

Kawarina

Chachagüí

Bosque subxerofítico í ítico

El Higuerón

Bosques de baja altitud y Barbacoas, Vereda el pie de montaña entre los Gualte 620-1700 msnm Barbacoas, Bosques de baja altitud y Corregimiento El pie de montaña Diviso Chachagüí

Los Cedros

Chachagüí

Biotopo

DE LA SOCIEDAD CIVIL

Sin registro

Pasto (Corregimiento de Genio, Vereda Páramo, bosque Alto Mapachico), Andino Yacuanquer, Consacá y Sandoná

El Pangán

R E S E R V A S

1,10 1.000,00 1.200,00 Sin registro Sin registro

Nucanchi Yacuanquer Bosque seco andino TOTAL RESERVAS PRIVADAS DE LA SOCIEDAD CIVIL

Sin registro 10.146,11

TOTAL ÁREAS DE CONSERVACIÓN DEPARTAMENTO DE NARIÑO

204.060,64

Fuente: Plan de Acción en Biodiversidad para el Departamento de Nariño 2006:2030 - actualizado para este documento

Revista

unimar

12


En ejecución del Plan de Acción en Biodiversidad Nariño 2006:2030,

Hasta el momento de la formulación del Plan de Acción en Biodiversidad Nariño 2006-2030, no se contaba con un Sistema de Áreas Protegidas, aunque si se realizaba acciones aisladas por las instituciones u organizaciones con competencia e interés en el tema de la conservación.

− Conformación de grupos comunitarios e institucionales que facilitaron la ejecución de las diferentes acciones previstas en el SIAP, integrados por representantes de las comunidades, autoridades y organizaciones comunitarias e institucionales presentes en las zonas de trabajo. − Implementación de ejercicios piloto de mosaicos de conservación y fortalecimiento de organizaciones comunitarias en el Santuario de Flora y Fauna Galeras, conjuntamente con Parques Nacionales, Patrimonio Natural y AECID. − Participación en la delimitación y formulación del Plan de Manejo de la Zona Amortiguadora del Santuario de Flora y Fauna Galeras con Parques Nacionales.

El SIAP-Nariño inicia su proceso de diseño e implementación, como uno de los proyectos priorizados en el Plan de Biodiversidad; entre las acciones principales que se ha realizado desde entonces se tiene:

Éste es un proceso que requiere fortalecerse de manera permanente para ampliar su campo de acción hacia otros ecosistemas y regiones de Nariño con el fin de buscar una buena representatividad de estos en las áreas protegidas (Corponariño, 2008).

Identificación de especies silvestres medicinales promisorias.

Fotos: Francisco Nieto, IAvH

El Plan de Acción en Biodiversidad del Departamento de Nariño 2006-2030, resalta la importancia de la investigación en los procesos relacionados con la conservación y uso sostenible de la biodiversidad, lo cual coincide con el Plan y Política Nacional en Biodiversidad; por tal motivo Corponariño contempló el proyecto de Estructuración de la Primera Fase de la Línea de Investigación en Biodiversidad Agua y Suelo, con base en éste, en la Vereda La Alegría del Cerro Gualcalá en el Municipio de Mallama, Vereda de Guaisés, municipio de Mallama, Corregimientos de El Espino y Panamal, municipio de Sapuyes y Territorio del Cabildo Indígena de Túquerres, municipio de Túquerres en el Volcán Azufral y Territorio del Pueblo Cofán. Se desarrolló lo siguiente:

− Elaboración del mapa de prioridades de conservación para el Departamento de Nariño, en convenio con el Grupo Arco de la Universidad Javeriana. − Diseño de la Guía Metodológica para el inicio e implementación del Sistema de Áreas Protegidas del Departamento de Nariño, con la asesoría de Parques Nacionales. − Formulación de los planes de manejo y documentos técnicos, soporte para la declaratoria como área protegida de Azufral y Ovejas e inicio del último proceso para Paja Blanca, en convenio con la Universidad de Nariño, participación de las alcaldías municipales, cabildos indígenas y campesinas y otras organizaciones comunitarias. − Conformación de la Mesa Departamental y Mesas Subregionales de Áreas Protegidas del Piedemonte Costero, Mesa Norte, Centro y Sur, en convenio con WWF la primera, Huella Ambiental la segunda y con la participación de los diferentes actores sociales e institucionales presentes en las áreas de trabajo.

− Elaboración de un inventario de 260 especies que la comunidad utiliza con fines medicinales. − Identificación taxonómica de las especies. − Priorización de 5 especies de mayor importancia para La Alegría y Azufral. − Análisis fitoquímico preliminar y cromatografía de gases para las 5 especies priorizadas; para este trabajo se contó con la participación del Departamento de Química de la Universidad de Nariño.

Revista

13

unimar


Con este proceso se pretende, además del fortalecimiento del conocimiento ancestral y tradicional referido a las plantas medicinales y complementado con el conocimiento científico, la identificación de especies y productos que brinden alternativas económicas a las comunidades asentadas en áreas de importancia para la conservación.

que es un tema relativamente nuevo en Colombia y la Corporación no lo había asumido hasta el 2007, fue asumido este proyecto con mucha cautela. Entre las acciones realizadas se encuentra: Inicio del proceso de ecoturismo en el Volcán Azufral, para lo cual se capacitó a tres grupos comunitarios ubicados en la zona de amortiguamiento del área de conservación del volcán Azufral y pertenecientes a los municipios de Túquerres, Sapuyes y Mallama para que presten servicios de guianza ecoturísticos y restaurante a los visitantes. Se elaboró una ayuda audiovisual, se sensibilizó a los operadores turísticos y agencias de viajes que actúan en la zona, se determinó la capacidad de carga2 para los senderos existentes y opciones para mejorar, teniendo en cuenta la mayor fragilidad de algunas zonas. Se considera que es aún muy incipiente el desarrollo logrado y por lo tanto se requiere fortalecerlo y avanzar hacia procesos de certificación. Es la primera experiencia en Nariño que se desarrolla con criterios técnicos, la cual puede servir de réplica para otros procesos y áreas similares, dada la gran riqueza paisajística y de biodiversidad del Departamento.

Entre las lecciones aprendidas de este proyecto se tiene: la importancia del respeto por el conocimiento ancestral y tradicional, valor del trabajo social previo, actual y posterior al proyecto, con las comunidades, relevancia de la concertación y acuerdos con las comunidades, acercamiento entre conocimiento de las comunidades y el conocimiento científico, necesidad de contar con grupos de investigadores al interior de la corporación en articulación con otros de las universidades e institutos de investigación, cuyo fin sea el de generar el conocimiento que la conservación y uso sostenible de la biodiversidad demandan y articular los diferentes esfuerzos que en este sentido están realizado en Nariño diferentes instituciones.

Mercados verdes, Comercio Justo y Biocomercio Vinculación al proyecto de Como una opción que conTurismo Sostenible denomitribuye a la conservación de nado Ruta de los Minerales ecosistemas y a la generación de Iberoamérica y Sostenibilide ingresos de las poblaciones dad RUMYS perteneciente al asentadas en estos o que usan programa Iberoamericano de los bienes y servicios que ellos Ciencia y tecnología para el ofrecen, se encuentran los desarrollo del CYTED. En este mercados alternativos como proyecto intervienen 8 países y los mercados verdes, comer13 proyectos. La Corporación cio justo y biocomercio; simulparticipa en el denominado táneamente, es conveniente Ruta del Oro en el Suroccitener en cuenta a los usuarios dente de Colombia, el cual es que contribuyen a la consercoordinado por la Universidad vación de estos ecosistemas de Nariño, con la participación Fotos: Francisco Nieto, IAvH y y de los bienes y servicios que genede Corponariño y la asesoría de la Freddy Pantoja, UDENAR ran, con el objeto de estimular estos Universidad Politécnica de Cataluña procesos en las dos vías: los usuarios y de la Escuela Politécnica Superior y generadores de bienes y servicios, para que los pride Ecuador. Se espera la vinculación de las alcaldías meros opten por unos usos más sostenibles y a los semunicipales, Oficina de Turismo del Departamento, orgundos, de alguna manera, se les reconozca por el bien ganizaciones comunitarias y demás actores que tengan o servicio que están generando. Con este propósito, la competencia o la voluntad para ello. La Corporación en el 2007, Corponariño inició la implementación del participa en este proyecto con el objeto de generar proyecto Fomento al aprovechamiento Sostenible de ingresos adicionales a las comunidades integrantes de Bienes y Servicios Derivados de la Biodiversidad bajo 2 el Enfoque de Cadena de Valor; en consideración a Estudio realizado en convenio con la Universidad de Nariño

Revista

unimar

14


En ejecución del Plan de Acción en Biodiversidad Nariño 2006:2030,

una zona de alta biodiversidad, ya que la zona minera del Departamento está ubicada en dos ecosistemas de importancia mundial para la conservación, como son el Chocó Biogeográfico y la Cordillera de Los Andes, y la minería ha sido considerada como una de las actividades más contaminantes.

− −

Entre las actividades realizadas se encuentra: − − Tres eventos de socialización con la participación de los coordinadores de la Ruta del Oro de Ecuador, de la Ruta de la Sal y del Mercurio en España. − Visita con expertos de la Red, a los sitios potenciales a promover. − Análisis con los expertos de la Red sobre la conveniencia de integrar, en el proyecto de Nariño, la riqueza paisajística y de biodiversidad que se encuentra en las zonas mineras o aledañas a ésta. − Difusión de la Ruta del Oro en el Suroccidente de Colombia en el libro publicado denominado Rutas de los Minerales de Iberoamérica. − Articulación, a través de un convenio, entre la Universidad Politécnica de Cataluña, la Universidad de Nariño y Corponariño, uno de cuyos objetivos es el de contribuir al desarrollo de la Ruta de los Minerales en Nariño.

Vinculación al programa de Comercio Justo de Oro, el cual busca fundamentalmente el mejoramiento de la calidad de vida, eliminación o reducción de los intermediarios en la comercialización, mejoramiento, eliminación o reducción de los daños ambientales generados por el proceso de producción y, en general, la obtención de un precio justo por el trabajo del productor. Este Programa es promovido por la Asociación por la Minería Responsable ARM y en él participan Colombia, Ecuador, Perú y Bolivia; por Colombia se encuentra el Chocó y Nariño. El proyecto de Nariño es coordinado por la Universidad de Nariño con la participación de Corponariño, organizaciones de mineros y alcaldías municipales.

Línea base, costos de producción, gestión de calidad. Perfil de cada uno de los piloto Participación en tres encuentros de los piloto de los cuatro países Recorrido con la firma certificadora de Comercio Justo FLO, por las minas de los municipios piloto, análisis y evaluación de los resultados. Como resultado de la vista de FLO a los diferentes pilotos de los cuatro países, en Diciembre de 2008, se confirma la alianza FLO-ARM y se espera iniciar el proceso formal de certificación. Durante 2009 se ha avanzado en acuerdos entre los pilotos de los 4 países, ARM y FLO en los requisitos mínimos para acceder a la certificación. Cabe resaltar que este programa es el primero en el ámbito internacional aplicado a procesos de minería de metales preciosos.

El programa de Mercados Verdes, Comercio Fotos: Freddy Pantoja, UDENAR Justo y Biocomercio, es un programa con mucho potencial en Nariño, dada la inmensa riqueza en biodiversidad y, a que estos mercados alternativos para los productos obtenidos a través de procesos que causan menos daño al medio ambiente, ofrecen precios superiores a los de los mercados tradicionales.

Entre las actividades realizadas se encuentra: − Eventos de difusión en Pasto, La Llanada y Cumbitara. − Diligenciamiento, para los pilotos de Comercio Justo de Oro de Nariño (La Llanada y Cumbitara), de las siguientes herramientas establecidas por ARM:

Revista

15

unimar


Entre las lecciones aprendidas por Corponariño en el desarrollo del Plan de Acción en Biodiversidad durante el 2007-2009 se destaca la importancia de: − El trabajo social previo, actual y posterior al proyecto, con las comunidades. − La articulación comunitaria e institucional. − La concertación y acuerdos con las comunidades e instituciones. − La generación de conocimiento para la toma de decisiones. − El respeto por el conocimiento ancestral y tradicional. − El acercamiento entre el conocimiento ancestral y tradicional de las comunidades y el conocimiento científico. − La necesidad de contar con grupos de investigadores al interior de la Corporación en articulación con otros de las universidades e institutos de investigación, cuyo fin sea el de generar el conocimiento que la conservación y uso sostenible de la biodiversidad demandan y articular los diferentes esfuerzos que en este sentido están realizado en Nariño diferentes instituciones.

Revista

unimar

16


CONSTRUCCIÓN DE UN Tubo de Venturi semiautomático Semi-automatic Venturi Tube building Fecha de recepción: 8 de octubre de 2009 Fecha de aprobación: 27 de octubre de 2009

Por AMAL, HOSNI VITERI Estudiante Ingeniería de Sistemas Universidad Mariana Pasto - Colombia amalhosniviteri@hotmail.com

RESUMEN Este proyecto utiliza la automatización de procesos como una alternativa para el desarrollo de prácticas de Mecánica de fluidos, utilizando el Tubo de Venturi, dispositivo dotado de sensores electrónicos, tarjeta de adquisición, un acondicionamiento mecánico y un software de procesamiento de datos que almacena los registros de manera persistente en una base de datos.

AURAMARÍA, LÓPEZ FUENMAYOR Estudiante Ingeniería de Sistemas Universidad Mariana Pasto - Colombia alopz04@hotmail.com

Con esta herramienta tecnológica los estudiantes y docentes de la Universidad Mariana pueden realizar un procesamiento de información adecuado y acorde con los contenidos analíticos de los espacios académicos correspondientes a estas temáticas, permitiendo apreciar que la Ingeniería de Sistemas se integra con otras áreas como la Física y la Electrónica, facilitando la comprobación de principios como la Ecuación de Continuidad y el Teorema de Bernoulli.

YENNIFER ANDREA, REVELO VERA Estudiante Ingeniería de Sistemas Universidad Mariana Pasto - Colombia andreyenni@hotmail.com Asesores: ÁLVARO ALEXANDER, MARTÍNEZ NAVARRO Profesor Tiempo Completo Universidad Mariana Pasto - Colombia amartinez@umariana.edu.co

PALABRAS CLAVE Tubo de Venturi, sensor de presión y de velocidad, adquisición de datos, software, base de datos

JAIME, LÓPEZ Profesor Tiempo Completo Universidad Mariana Pasto - Colombia jaloween@hotmail.com

ABSTRACT This project uses automation process as an alternative for the development of practical fluid mechanics using Venturi tube, the device is equipped with electronic sensors, an acquisition card, mechanical devices and data processing software that stores data records persistently in a database.

Revista

17

unimar


With this technological tool students and teachers from the Mariana University can perform an adequate information process and in according with the academic spaces corresponding to these topics, allowing to appreciate that the Systems Engineering integrated with other areas such as Physics and Electronics, facilitates the verification of principles like the Continuity Equation and Bernoulli’s Theorem.

revisión documental y los conceptos de la Física que serían incluidos en el sistema; a partir de este fundamento, se continuó con la realización de un diagnóstico del proceso de toma de datos en las prácticas del Tubo de Venturi, con el propósito de identificar sus ventajas y desventajas, tomando como población los estudiantes de tercer semestre del programa de Ingeniería de Sistemas, quinto semestre de Ingeniería Ambiental y al laboratorista de Física de la Universidad Mariana, para luego determinar los componentes Hardware y Software necesarios para construir, probar e implantar el sistema semiautomático en el Laboratorio de Física de la misma universidad y, finalmente, determinar su confiabilidad por medio de la construcción y aplicación de una estrategia de validación.

KEY WORDS Venturi tube, pressure and speed sensor, data acquisition, software, database.

INTRODUCCIÓN

1. METODOLOGÍA

on el pasar del tiempo, la automatización de procesos se ha convertido en la forma moderna de utilizar la tecnología de punta para el desarrollo de las ciencias, especialmente las exactas. Una de estas disciplinas es la Física que, desarrollada en el trayecto de la carrera de Ingeniería de Sistemas, necesita interactuar de manera directa utilizando dichas tecnologías. Es por esto que la existencia de elementos discretos de medición (sensores), hacen viable la tarea de realizar esa interacción; de ahí la necesidad de la creación de un tubo de Venturi semiautomático que dé la oportunidad de evidenciar, de manera práctica, algunas teorías como la Ecuación de Continuidad y el Teorema de Bernoulli.

El paradigma de esta investigación es cuanti-cualitativo porque asume la medición y la cuantificación de los datos que se toma en el desarrollo experimental, describiendo su comportamiento y teniendo en cuenta los actores que estudia. Para tal caso, velocidad y presión son medidas dentro del Tubo y analizadas en el software bajo el concepto de la ecuación teórica.

C

El enfoque de esta investigación es Empírico Analítico, ya que se basa en la experiencia adquirida por los estudiantes tomados como población y muestra, en cuanto al desarrollo de prácticas con conceptos teóricos adquiridos y descritos; se ubica en el contexto de las ciencias exactas cuyo principio es la comprobación de hipótesis a través de modelos cuantitativos; además los datos serán analizados para lograr el objetivo de esta investigación.

Por lo tanto, el presente proyecto busca mejorar el nivel de confiabilidad en la toma de datos (presión y velocidad), en las prácticas desarrolladas en el laboratorio de Física de la Universidad Mariana con Tubo de Venturi, mediante la construcción de un sistema semiautomático que utilice dispositivos electrónicos acoplados a sistemas mecánicos y a un programa de adquisición.

La estructura del proceso de investigación seguido para construir el Tubo de Venturi semiautomático se aprecia en la tabla 1, en donde se puede observar que cada uno de los propósitos es desarrollado teniendo como base una fuente de información que se aprovecha mediante una técnica de recolección; de esta manera es posible tener un conjunto de datos que son procesados utilizando una técnica específica según la clase de información que se quiere analizar y así producir los resultados que más adelante en este artículo se describe.

El Tubo de Venturi semiautomático fue construido a partir de una investigación de enfoque empírico analítico y tipo aplicada, cuasi – experimental, en donde se comenzó por indagar de forma teórica, utilizando la

Revista

unimar

18


Construcción de un Tubo de Venturi Semiautomático

Cuadro 1. Estructura del proceso de investigación

OBJETIVO

FUENTE

TÉCNICAS DE RECOLECCIÓN DE DATOS

2. RESULTADOS Y ANÁLISIS

TÉCNICAS DE PROCESAMIENTO DE DATOS

RESULTADO

2.1 REVISIÓN BIBLIOGRÁFICA

De acuerdo con la estructura de proceso de investigación, a continuación se describe cada uno de los resultados de los objetivos propuestos:

En la tabla 2 se observa de forma general la forma en que se hizo la selección de temas para la construcción del Tubo de Venturi semiautomático:

Cuadro 2. Desarrollo del primer objetivo investigativo

OBJETIVO Realizar una revisión bibliográfica de los fundamentos teóricos del Tubo de Venturi, para determinar las temáticas que se aplicará al proyecto.

FUENTE

Libros e Internet

TÉCNICAS DE RECOLECCIÓN DE DATOS

TÉCNICAS DE PROCESAMIENTO DE DATOS

Revisión de documentos

Elaboración de resúmenes, Mapas conceptuales, Cuadros sinópticos

RESULTADO

Listado de temáticas a desarrollar. Mapas.

Después de haber realizado la revisión bibliográfica acerca de las diversas temáticas, se obtuvo el siguiente listado que contribuyó al desarrollo del proyecto:

Teoría general de sistemas

Ingeniería de Sistemas

Mecánica de fluidos

Base de datos

Ecuación de continuidad

Automatización

Teorema de Bernoulli

Electrónica

Tubo de Venturi

El siguiente cuadro sinóptico resume los temas que se incluirá en el desarrollo del Tubo de Venturi semiautomático:

Revista

19

unimar


Revista

unimar

20


Construcci贸n de un Tubo de Venturi Semiautom谩tico

Revista

21

unimar


2.2 DIAGNÓSTICO DEL PROCESO DE TOMA DE DATOS En la tabla 3 se observa de forma general la forma en que se hizo el diagnóstico en el proceso de toma de datos en las prácticas con Tubo de Venturi:

Cuadro 3. Desarrollo del segundo objetivo investigativo

OBJETIVO Realizar un diagnóstico en el proceso de toma de datos en las prácticas del Tubo de Venturi con el propósito de identificar ventajas y desventajas.

FUENTE

Laboratorista Estudiantes Libros e Internet.

TÉCNICAS DE RECOLECCIÓN DE DATOS

Entrevista estructurada, Encuestas estructuradas, Revisión de documentos

TÉCNICAS DE PROCESAMIENTO DE DATOS

RESULTADO

Estadística descriptiva, Matriz

Cuadro de ventajas y desventajas.

el fin de ver el proceso en la toma de datos utilizando el Tubo de Venturi.

Para el cumplimiento del segundo objetivo se realizó una encuesta a estudiantes de los programas de Ingeniería de Sistemas y Ambiental, para determinar el nivel de conocimiento acerca de la temática. De igual forma se realizó una entrevista a los encargados del laboratorio de Física de dos universidades de Pasto, con

El resultado obtenido después de aplicar los instrumentos, se ve reflejado en las siguientes tablas:

Cuadro 4. Ventajas y desventajas del Tubo de Venturi VENTAJAS

Los manómetros pueden ser medidos fácilmente

DESVENTAJAS El Tubo de Venturi que existe actualmente en el laboratorio no presenta una estructura acorde con las necesidades para el desarrollo de la práctica. Los manómetros están elaborados con manguera, lo que ocasiona que el nivel de alcohol con el que se observa la medición se adhiera a la superficie de la misma. La toma de datos se realiza por observación directa y de forma manual, generando que los datos registrados varíen constantemente. No se puede calcular la velocidad del fluido, porque no se cuenta con parámetros para realizar la medición No se puede desarrollar la guía de forma completa, porque faltan parámetros que deben ser medidos, para hacer el análisis estadístico de los mismos.

Revista

unimar

22


Construcción de un Tubo de Venturi Semiautomático

Cuadro 5. Ventajas y Desventajas de la Guía de laboratorio VENTAJAS

DESVENTAJAS

Existe una orientación de cómo realizar el montaje y cómo desarrollar la práctica.

La guía no especifica que debe realizarse un análisis y procesamiento de los datos obtenidos.

Cuadro 6. Ventajas y Desventajas del Informe de Laboratorio VENTAJAS

Permite determinar la aplicabilidad de la temática en situaciones reales.

DESVENTAJAS Los estudiantes sienten inconformismo al momento de desarrollar la práctica, porque la herramienta no es la adecuada. Los estudiantes no cumplen con los puntos requeridos en la guía.

Verifica la asistencia de los estudiantes a la práctica.

Los estudiantes no profundizan sobre el tema que debe ir en el Marco teórico.

Con el informe existe un soporte para el registro de la nota.

Los estudiantes no realizan el análisis y procesamiento de los datos.

La investigación que se realiza acerca de la temática a desarrollar.

Los estudiantes bibliográficas

no

colocan

referencias

2.3 CONSTRUCCIÓN DEL TUBO DE VENTURI SEMIAUTOMÁTICO En la tabla 7 se observa de forma general la forma en que se construyó el Tubo de Venturi semiautomático:

Cuadro 7. Desarrollo del tercer objetivo investigativo

OBJETIVO

FUENTE

Determinar los componentes Hardware y Software para construir, probar e implantar el sistema semiautomático

Laboratorista. Prácticas con tubo de Venturi. Libros e Internet

TÉCNICAS DE RECOLECCIÓN DE DATOS Observación. Revisión de documentos.

Para el cumplimiento del tercer objetivo se realizó pruebas con diferentes tipos de elementos electrónicos, mediante observación directa y revisión de documentos; se descartó algunos de ellos para determinar los más adecuados al funcionamiento del Tubo.

TÉCNICAS DE PROCESAMIENTO DE DATOS

RESULTADO

Matriz

Listado de componentes hardware y software

Para el desarrollo del software, se construyó una aplicación en plataforma. Net para realizar la adquisición de datos y aplicar las fórmulas físicas, con el fin de obtener datos más claros y precisos. Cabe resaltar que durante la construcción del software para el tubo, fue necesario dividir su funcionalidad en dos: la primera abarca la

Revista

23

unimar


toma y adquisición de datos a través del puerto serial y la segunda se encarga de manipular y administrar toda la información del sistema, tanto la adquirida a través de la interfaz electrónica, como la que complementa y apoya los requerimientos necesarios, por ejemplo: usuarios, profesores y prácticas de laboratorio.

cliente y servidor y a los servicios web que encapsulan toda la lógica de la aplicación; además, y con el único fin de proporcionar seguridad a la aplicación en su conjunto, la manipulación de la información en la base de datos se hizo utilizando la técnica de los procedimientos almacenados.

Con el propósito de hacer del sistema un producto eficiente y seguro, se acudió a tecnología web por medio de silverlight que permite mayor rendimiento entre

Teniendo en cuenta los anteriores procedimientos se logró obtener la siguiente tabla:

Cuadro 8. Componentes de software y hardware Clase de componente

Hardware

Software

Fase de desarrollo

Fase de implantación

Procesador 2 GHz RAM 1 G Disco duro 80 G Teclado Mouse Tarjeta de red Cable UTP Puerto serial Tarjeta de adquisición de datos Tarjeta de amplificación con filtro Tarjeta de amplificación Cable convertidor de serial a USB Tubo de Venturi en acrílico Generador de aire

Procesador 300MHz RAM 128 MB Disco Duro 10 M Teclado Mouse Tarjeta de red Cable UTP Puerto serial Tarjeta de adquisición de datos Tarjeta de amplificación con filtro Tarjeta de amplificación Cable convertidor de serial a USB Tubo de Venturi en acrílico Generador de aire

Windows Vista Business Framework 3.5 Visual Studio 2008 Microsoft Expression Blend SQL Server 2005 Express Visio 2007 Mplab Hyper Terminal C- Maps Office 2007 Macromedia Flash 8

XP en adelante Framework 3.5 Cliente: Navegador web Silverligth 1.0 en adelante Servidor: SQL Server 2005 express Internet Information Services 6.0 en adelante

FUNCIONAMIENTO DEL SISTEMA Ventur’s es un sistema electrónico computarizado que sirve para el desarrollo de prácticas de Mecánica de Fluidos que utilizan Tubo de Venturi. Físicamente es una estructura en acrílico con forma estándar de Tubo de Venturi, que permite realizar mediciones de pre-

sión y velocidad de fluido con sensores sensiblemente acondicionados a tarjetas electrónicas que pueden conectarse a una tarjeta de adquisición y establecer comunicación directa con el computador a través del puerto serial.

Revista

unimar

24


Construcción de un Tubo de Venturi Semiautomático

El flujo estacionario es producido por un generador de viento instalado en el extremo más ancho del Tubo; además la estructura tiene 4 orificios, cada uno con su respectivo sensor de posición que se encarga de enviar una señal a la tarjeta de adquisición cada vez que se quiera medir la presión en el punto seleccionado.

Para la medición de la velocidad dentro del Tubo, el sistema cuenta con un sensor a manera de minigenerador eléctrico que va sostenido en una varilla metrizada que se desplaza sobre un sistema mecatrónico que genera un nivel de voltaje directamente proporcional al desplazamiento de la varilla. La figura 1 muestra en su conjunto el tubo construido:

Figura 1. Tubo de Venturi en acrílico

Fuente: Esta investigación

El software permite enlazar la base de datos del sistema, además del componente electrónico a través de una interfaz interactiva que facilita al usuario encontrar toda la información de manera ágil y oportuna y de igual manera le muestra la información de las prácticas que se puede desarrollar, con sus respectivos datos tomados desde el Tubo de Venturi. Esta información se conecta a través de un Servicio Web, que permite en una nueva oportunidad conectar toda la información con diversas aplicaciones que acepten el componente XML dentro de su programación.

El sistema es auto-administrable, ya que puede ser parametrizado en cualquier momento, de acuerdo a las necesidades de los usuarios. Se tomó datos en el interior del tubo de Venturi computarizado, con el fin de establecer el comportamiento de la velocidad de flujo de aire dentro del mismo. Se introdujo el sensor soportado en una varilla metrizada de 1.40 m de longitud (A) por la salida del tubo (B) hasta el primer punto de medición de presión (C). Una vez instalado el sensor en el punto inicial, se encendió el generador de aire y se comenzó a registrar las lecturas de voltaje generadas por el sensor; cada lectura se hizo desplazando la varilla cada 5 cm hacia la salida del flujo de aire.

Para la toma de datos se ha desarrollado un lenguaje de programación que permite conocer de manera clara y confiable los datos tomados desde el Tubo de Venturi. Maneja un nivel de seguridad avanzado, a través de autenticación de usuarios y debido a que fue desarrollado con Silverlight, no existe forma alguna de poder cambiar el código de la aplicación ni de ingresar de forma inadecuada a alguna de las páginas del sitio web.

En la medida en que el sensor se desplazaba hacia la parte más estrecha del tubo (D), se observó que el voltaje se incrementaba, por lo cual la velocidad era mayor; y el voltaje disminuía cuando el sensor se desplazaba hacia una sección de mayor área.

Revista

25

unimar


Figura 3. Tubo de Venturi

Fuente: Esta investigación

A: Varilla metrizada B: Salida del tubo C: Punto de medición D: Sección más estrecha del tubo

En el siguiente cuadro se muestra la toma de 5 lecturas de voltaje generados por el sensor de velocidad que se hacen evidentes en el multímetro digital; estos datos fueron tomados cada 5 cm de distancia graficados frente al promedio de las 5 lecturas.

Cuadro 121. Lecturas de voltaje del sensor dentro del Tubo cm 1 5 10 15 20 25 30 35 40 45 50 55 60 65 70 75 80 85 90 95

Dato 1 0,039 0,077 0,099 0,195 0,249 0,205 0,248 0,162 0,109 0,117 0,059 0,028 0,035 0,024 0,016 0,016 0,009 0,010 0,022 0,023

Dato 2 0,020 0,062 0,082 0,137 0,129 0,214 0,273 0,149 0,093 0,080 0,062 0,026 0,033 0,036 0,027 0,041 0,028 0,026 0,038 0,022

Dato 3

Dato 4

0,037 0,065 0,127 0,181 0,252 0,205 0,252 0,158 0,153 0,099 0,111 0,069 0,052 0,029 0,027 0,011 0,024 0,014 0,021 0,032

0,037 0,062 0,079 0,147 0,208 0,227 0,252 0,286 0,222 0,180 0,140 0,076 0,039 0,033 0,017 0,019 0,015 0,010 0,028 0,016

Fuente: Esta investigación

Revista

unimar

26

Dato 5 0,015 0,035 0,086 0,164 0,205 0,218 0,240 0,250 0,210 0,173 0,125 0,067 0,049 0,041 0,026 0,037 0,012 0,016 0,054 0,014

Promedio (Voltios) 0,030 0,060 0,095 0,165 0,209 0,214 0,253 0,201 0,157 0,130 0,099 0,053 0,042 0,033 0,023 0,025 0,018 0,015 0,033 0,021


Construcción de un Tubo de Venturi Semiautomático

Al analizar los resultados anteriores se observó que el mayor voltaje registrado por el sensor (0.253 V) se obtuvo en la sección de menor área (D) y el compor-

tamiento de las lecturas restantes es inversamente proporcional al área, como se demuestra en la siguiente gráfica.

Gráfica 1. Voltios del sensor - Distancia

Fuente: Esta investigación

2.4 CONFIABILIDAD DEL TUBO SEMIAUTOMÁTICO En la tabla 9 se observa de forma general la forma en que se midió la confiabilidad del Tubo de Venturi semiautomático: Cuadro 9. Desarrollo del cuarto objetivo investigativo

OBJETIVO Determinar la confiabilidad del sistema semiautomático por medio de la construcción y aplicación de una estrategia de validación.

FUENTE

Práctica simultánea con Tubo de Venturi. Libros e Internet

TÉCNICAS DE RECOLECCIÓN DE DATOS

TÉCNICAS DE PROCESAMIENTO DE DATOS

Observación directa. Bitácora de observación. Revisión documental

Matriz. Estadística descriptiva.

RESULTADO

Cuadro comparativo del nivel de confiabilidad del sistema.

Revista

27

unimar


Considerando que la estandarización de los modelos de Tubos de Venturi no existe, es difícil establecer resultados cuantitativos similares comparando uno con otro. Una forma práctica y sencilla recomendada por el laboratorista de Física de la Universidad de Nariño Freddy Santacruz para determinar si el flujo era estacionario, consistió en hacer que el tubo impulsara una bola esférica de icopor; si lograba sostenerla en el aire, el flujo era estacionario, resultado que se consiguió y se observa en la siguiente figura:

Figura 2. Flujo estacionario Fuente: Esta Investigación

Se realizó un proceso estadístico para determinar la linealidad de los sensores de presión y velocidad en los puntos predeterminados del tubo, estableciendo comparaciones y parámetros de calibración con dispositivos electrónicos digitales, obteniendo los siguientes resultados: Tabla 1. Valores de Distancia, milivoltios del sensor y velocidad del anemómetro anemómetro (m/s)

sensor(mV)

cm

1,7

117

10

1,8

273

20

1,9

221

30

2

429

40

2,2

520

50

2,2

442

60

2,3

377

70

2,4

572

80

2,5

624

90

2,5

559

100

2,6

702

110

2,7

754

120

2,7

780

130

728

140

2,9

845

150

3,1

1170

160

3,1

1144

170

3,1

884

180

3,2

988

190

3,3

1222

200

3,3

1092

210

3,4

1404

220

3,4

1183

230

3,5

1313

240

3,7

1547

250

3,7

1196

260

4,5

1612

270

4,5

1599

280

4,7

1651

290

4,7

1508

300

4,8

1781

310

5

1807

320

5,1

1859

330

5,3

1937

340

5,5

2054

350

5,7

2301

360

5,8

2418

370

6,1

2522

380

6,2

2678

390

6,4

2717

400

6,7

2782

410

7,1

2834

420

7,8

2860

430

8,4

2860

440 Fuente: Esta Investigación

Revista

unimar

2,7

28


Construcción de un Tubo de Venturi Semiautomático

Gráfica 2. Distancia – Velocidad anemómetro

Fuente: Esta Investigación

Ecuación de linealidad → y= 1.084 + 0,0012x Coeficiente de correlación → 0.979 Gráfica 3. Distancia – milivoltios del sensor

Fuente: Esta Investigación

Ecuación de linealidad → y= - 22.578 + 6,248x Coeficiente de correlación → 0.98

tamiento lineal (directamente proporcional) con respecto a la distancia medida en los dos dispositivos al mismo tiempo; por lo tanto se establece una relación directamente proporcional entre velocidad de flujo en m/s y voltaje generado por el sensor en mV.

Se comprobó experimentalmente que tanto el anemómetro como el sensor de velocidad tienen un compor-

Revista

29

unimar


La función que establece dicha relación es la siguiente: Y= 1.145 + 0.002X Coeficiente de correlación → 0.98 Gráfica 4. Milivoltios – velocidad anemómetro

Fuente: Esta Investigación

Ecuación de linealidad → y= 1.145 + 0.002x Coeficiente de correlación → 0.98

resultados que demuestran que el sistema facilita la toma de datos y la realización de las prácticas.

CONCLUSIONES •

Identificando los procesos que se realiza en el laboratorio de Física para la toma de datos en prácticas desarrolladas con Tubo de Venturi, se desarrolló un sistema capaz de mejorar el nivel de confiabilidad en los mismos.

Ventur’s comprueba de manera simple los principios de la mecánica de fluidos (ecuación de Bernoulli y ecuación de continuidad) porque permite el tratamiento de datos de manera gráfica y estadística, efectuando un adecuado proceso de análisis.

Estableciendo una comparación entre el Tubo de Venturi que se encuentra en el laboratorio de Física de la Universidad Mariana y el sistema semiautomático Ventur’s, se obtuvo

Revista

unimar

30

Los sensores de la familia MPX son los más apropiados para detectar presiones mínimas, aunque se debe trabajar al máximo la etapa de amplificación y purificación de señal para evitar la fluctuación que se genera en la salida.

La calibración con anemómetro digital Kestrel 1000 Pocket Wind Meter permitió mejorar la confiabilidad del sensor de velocidad construido para este proyecto.

Es mejor medir la velocidad en el tubo de Venturi con un sensor que se desplace internamente centímetro a centímetro en el mismo, para lograr una toma de datos más puntual.


Construcción de un Tubo de Venturi Semiautomático

La medición de la presión en el tubo de Venturi debe ser en puntos definidos, porque si se trata de medirla en todo el trayecto del tubo, cambian las condiciones físicas de la estructura.

En el desarrollo de la investigación se llevó un proceso ordenado de documentación, construcción de software y aplicación, lo que permitió apreciar que la Ingeniería de Sistemas se puede aplicar en otras áreas, como en este caso la Física, permitiendo demostrar que realmente se puede trabajar y desarrollar investigaciones para solucionar diversidad de problemas.

Silverlight es una tecnología asíncrona (no requiere estar conectada todo el tiempo al servidor, ya que la información se obtiene una sola vez y es almacenada en la memoria del cliente, lo que permite volver a cargarse en el momento en que se actualice), que mejora el rendimiento de aplicaciones Web, permitiendo un mejor acceso de los usuarios y el uso de menos recursos del servidor.

La utilización de procedimientos almacenados es importante para generar mayor seguridad dentro de la aplicación, debido a que son rutinas que permiten ejecutar procesos dentro de la base de datos, sin tener interacción directa con funciones SQL.

La implementación de un servicio web permitió conectar las dos aplicaciones desarrolladas, sin necesidad de repetir código, además, de que al conectarse a él a través de clases, se cumple con el paradigma orientado a objetos de esta investigación.

Después del desarrollo de varias pruebas con aplicaciones web, se pudo comprobar que es más eficiente desarrollar una aplicación Windows para este proceso, ya que la primera no permite obtener los datos en tiempo real y genera un mayor consumo de recursos por la interacción cliente – servidor.

El ciclo de vida incremental aplicado dentro de esta investigación permitió comprobar

cada incremento, tanto de software como de hardware, con el fin de solucionar los problemas presentes en el mismo, reduciendo tiempo. •

El generador de aire debe tener buena potencia para que el flujo sea estacionario y estimule adecuadamente a los sensores.

Una buena documentación de riesgos permitió controlar el impacto de los mismos dentro de la investigación y así evitar contratiempos en las pruebas e implementación del sistema.

A través de las matemáticas se puede comprobar ecuaciones y principios físicos necesarios para el desarrollo de una aplicación en un lenguaje de programación. Al culminar el proyecto, las pruebas de linealidad de señal sensorial, la calibración y las ecuaciones obtenidas para cada sensor fueron logradas gracias a regresiones lineales y graficación, donde se evidencia el comportamiento.

Revista

31

unimar


BIBLIOGRAFÍA

CIBERGRAFÍA

• PORTILLA T. y otros, “Sistema semiautomático computarizado para el análisis del movimiento parabólico, semi-parabólico y circular uniforme (SISMOBI)”. Universidad Mariana, Pasto, 2005.

• http://www.daedalus.es/AreasISIngenieria-E.php • http://www.masadelante.com/faq-base-de-datos. htm

• CAICEDO, Yuranny. QUIJANO, Karen. “Sistema semiautomático para el estudio de ondas mecánicas producidas en el agua (KYUBET)” .Universidad Mariana, Pasto, 2007.

• http://www.angelfire.com/scifi/jzavalar/apuntes/ IngSoftware.html • http://es.wikipedia.org/wiki/Ecuaci%C3%B3n_de_ continuidad

• RODRIGUEZ, Mario y otros, “Sistema de control para contrarrestar las heladas en la planta del cultivo de papa en la finca “El Rosa” del corregimiento de Chiles Nariño)”. Universidad Mariana, Pasto, 2007

• Ricardo Santiago Netto • http://www.fisicanet.com.ar/fisica/estatica_fluidos/ ap03_hidroestatica.php

• Avallone, Eugene A. "Manual del Ingeniero Mecánico”. Tomos 1 y 2. Novena Edición. Mc Graw Hill. México, 1996.

de fluidos, Enciclope• Mecánica dia Microsoft® Encarta® Online 2007 http://es.encarta.msn.com © 1997-2007 Microsoft Corporation. Reservados todos los derechos. © 1993-2007 Microsoft Corporation. Reservados todos los derechos.

• Bolinaga, Juan. "Mecánica elemental de los fluidos”. Fundación Polar. “Universidad Católica Andrés”. Caracas, 1992. • Enciclopedia Salbat, Ciencia y Tecnología. Tomos 12 y 14. Salbat Editores, S.A. Primera Edición. Barcelona, 1964.

• irehisa.univalle.edu.co de Bernoulli," Enciclope• Teorema dia Microsoft® Encarta® Online 2007 http://es.encarta.msn.com © 1997-2007 Microsoft Corporation. Reservados todos los derechos. © 1993-2007 Microsoft Corporation. Reservados todos los derechos.

• Mott, Robert. "Mecánica de los Fluidos”. Cuarta edición. Prentice Hall. México, 1996 • SERWAY, RAYMOND A. FÍSICA. James Madison University. Mc Graw Hill. Octubre 1991

• LÓPEZ, Alfredo. 2007 http://www.monografias.com/trabajos/tgralsis/ tgralsis.shtml

• Roger Pressman. Ingeniería de Software, Un enfoque práctico. Sexta edición.1998 • STREETER, V Y OTROS. Mecánica de Fluidos. Novena edición. Mc Graw Hill. Enero 2001

• Hernández Hernández, Domingo dhh@ula.ve http://webdelprofesor.ula.ve/ingenieria/dhh/Intro Tec_IngProgramacion.htm

• Revista Electrónica & Computadores. N° 76. • Revista Facultad de Ingeniería Universidad de Antioquia, Revista No. 26 - Junio de 2002

• Aga S.A Chile http://www.aga.com/International/SouthAmerica/ WEB/sg/HiQGloss.nsf/terms?open&country=Chile &site=Resellers&initial=f

• LARMAN, C. UML y Patrones: Una introducción al análisis y diseño orientado a objetos y al proceso unificado. Segunda edición. Pearson Educación, S.A. Madrid, 2003

Revista

unimar

32


Construcción de un Tubo de Venturi Semiautomático

• Departamento de Sistemas Informáticos y computación Universidad Politecnica de Valencia http://www.aga.com/International/SouthAmerica/ WEB/sg/HiQGloss.nsf/terms?open&country=Chile &site=Resellers&initial=f •

Urbaez Wilder http://www.desarrolloweb.com/articulos/2198. php

Revista

33

unimar


Revista

UNIMAR


DETERMINACIÓN DE LA CALIDAD DEL AGUA DEL RÍO PASTO Mediante la utilización de bioindicadores PASTO RIVER WATER QUALITY DETERMINATION Through bioindicators

Fecha de recepción: 28 de septiembre de 2009 Fecha de aprobación: 9 de octubre de 2009

Por Mery Liliana López Martínez Bióloga, Universidad Nacional de Colombia Especialista en Microbiología, Universidad Católica de Manizales Profesora Asistente. Facultad de Ingeniería, Programa de Ingeniería Ambiental. Universidad Mariana. Coordinadora Sub línea de Recursos Hídricos, Grupo de Investigación Ambiental GIA. mlopez@umariana.edu.co merymoon1970@hotmail.com

RESUMEN

PALABRAS CLAVE

El Río Pasto es una fuente hídrica muy importante porque atraviesa toda la ciudad de su mismo nombre, convirtiéndolo en el receptor de todos los vertimientos de aguas residuales e industriales que se genera en la ciudad. Actualmente se está haciendo diferentes estudios para evaluar su estado y determinar el grado de los impactos generados.

Bioindicadores, Calidad del agua, Algas de perifiton, Macroinvertebrados acuáticos, Índices de Margalef y Simpson, BMWP/Col.

ABSTRACT Pasto River is a very important water source because it crosses the whole city of the same name, turning it into the recipient of all the sewage and industrial waste generated in the city. Nowadays different studies are done to evaluate its condition and to determine the degree of the impacts generated.

Generalmente la evaluación de la calidad del agua se hace por medio de parámetros físico – químicos, los cuales suministran información instantánea de las condiciones del agua. Un método alternativo para evaluar la calidad del agua, con un alto nivel de confiabilidad y que muestra las condiciones presentes y pasadas de un cuerpo de agua es la utilización de bioindicadores. En los ecosistemas lóticos, los principales grupos de organismos que se utiliza como indicadores, son las algas de perifiton y los macroinvertebrados acuáticos.

Generally water quality evaluation is done through physical - chemical parameters, which give instant information of the conditions of the water. An alternative method to evaluate the water quality, with a high level of reliability and that shows the present and past conditions of body water is the using of bioindicators. In the lotic ecosystems, the principal groups of organisms used as indicators, are the periphyton algae and the aquatic macroinvertebrates.

En el caso específico de este estudio se va a determinar la calidad del agua del Río Pasto mediante la utilización de los índices de Margalef y Simpson para algas de perifiton y el método BMWP/Col para macroinvertebrados acuáticos.

Revista

35

unimar


El estudio de la estructura de la comunidad que sobrevive en un medio contaminado no suele proporcionar un conocimiento de la naturaleza exacta del agente perturbador, pero permite sospechar de una u otras fuentes de contaminación en aquellos casos en que las técnicas físico-químicas son inoperantes y en todo caso, son un complemento de las mismas.

In this specific study it is going to determine the Pasto River water quality by Margalef’’s and Simpson’s index for periphyton algae and the method BMWP/Col for aquatic macroinvertebrates.

KEY WORDS water quality, periphyton algae, aquatic macroinvertbrates, Margalef’’s and Simpson’s index, BMWP/Col.

Los bioindicadores informan de la situación momentánea y de la acontecida algún tiempo antes de la toma de muestras; es decir, es como tener información del presente y pasado de lo que está sucediendo en las aguas [2]. Según la literatura disponible los macroinvertebrados acuáticos y las microalgas son los dos grupos que ha menudo se recomienda usar en evaluaciones de calidad de agua. [3]

INTRODUCCIÓN

L

a degradación de los recursos hídricos es motivo constante de preocupación para el hombre, pues existe un creciente interés por conocer y proteger los ecosistemas acuáticos, sobre todo porque, en general, las aguas dulces sirven como vía de evacuación de productos no utilizables, procedentes de la industria, la agricultura y el metabolismo humano y animal [1].

Las algas de perifiton son utilizadas como bioindicadores en ecosistemas lóticos porque son, generalmente, el grupo autotrófico dominante, están presentes a lo largo de todo el río, no presentan complicaciones en su ciclo y ecológicamente son mejor conocidas que otros grupos. Las principales ventajas de utilizar algas como indicadoras de la calidad de las aguas son:

Para evaluar la calidad de agua han sido utilizados, esencialmente, parámetros físico-químicos, que si bien en principio son de una gran precisión, la información que suministran son respecto a las condiciones instantáneas de las aguas y los efectos de los contaminantes son detectados si son dispuestos en el momento. Es decir, los resultados son puntuales en la dimensión cronológica y no revelan mucho de la evolución de una carga contaminante y la capacidad resiliente y amortiguadora de los ecosistemas acuáticos. Todo organismo vivo tiene unas preferencias o exigencias con respecto a los diferentes factores físicoquímicos y bióticos del ambiente. Los diferentes hábitats son colonizados por poblaciones animales y vegetales, cuya estructura responde a un cierto equilibrio, en condiciones normales. Cuando sobreviene una perturbación en el medio, tiene lugar un profundo trastorno en la estructura de las poblaciones, que se manifiesta por un cambio de la dominancia relativa de las diferentes especies, acompañado por sustituciones en la fauna y flora, pudiendo llegar a la desaparición completa de la comunidad, cuando la perturbación es demasiado drástica.

Su carácter cosmopolita.

La sensibilidad de algunas especies de este grupo a los cambios ambientales, frente a la tolerancia de otras.

La facilidad y rapidez de muestrear en grandes cantidades y sobre pequeñas áreas superficiales.

La preservación, re-chequeo y distribución a otros laboratorios del material utilizado para el montaje de las preparaciones.

La escasa probabilidad de daño al ser removidas de los sustratos naturales o artificiales.

El uso de macroinvertebrados para valorar y determinar la calidad del agua tiene cuando menos 100 años de antigüedad [4]. Los macroinvertebrados acuáticos son generalmente abundantes, relativamente fáciles de recolectar y tienen el suficiente tamaño para ser observados sin necesidad del microscopio, o cuando menos, de infraestructura sofisticada. Presentan las siguientes ventajas:

Revista

unimar

36


Determinación de la calidad del agua del río Pasto

Son prácticamente universales.

Son sedentarios.

Son extremadamente sensibles a perturbaciones.

Presentan largos ciclos de vida.

Muestran una respuesta inmediata ante un determinado impacto.

Presentan un patrón de estímulo-respuesta ante alteraciones físico-químicas.

1. METODOLOGÍ METODOLOGÍA 1.1

TOMA DE MUESTRAS

Se hizo un recorrido a lo largo de todo el Río Pasto, donde se determinó los puntos de muestreo, teniendo en cuenta la representatividad ecológica de los mismos. Los sitios determinados para hacer el muestreo son presentados en la tabla 1. El día 4 de marzo de 2009 se tomó las muestras. Tabla1. Puntos de muestreo NO. DE PUNTO

El Río Pasto fue escogido para este estudio por ser una fuente hídrica muy importante, pues atraviesa toda la ciudad de su mismo nombre, convirtiéndose en receptor de todos los vertimientos de aguas residuales e industriales que se genera en ella.

PUNTO 1 PUNTO 2 PUNTO 3 PUNTO 4 PUNTO 5 PUNTO 6 PUNTO 7 PUNTO 8 PUNTO 9 PUNTO 10 PUNTO 11

Su cuenca es uno de los principales afluentes del Río Juanambú, el cual hace parte de la gran cuenca del río Patía que nace en la vertiente occidental del sistema orográfico de los Andes en el Departamento de Nariño, al suroccidente de Colombia. La longitud del cauce principal es de 58.62 Km., medidos desde la unión de las quebradas El Retiro y Las Tiendas, hasta la desembocadura en el Río Juanambú. En general, en la cuenca pueden ser identificados tres grandes sectores denominados: alto, medio y bajo.

NOMBRE Punto Inicial Antes de PTAR La Laguna Después de Bocatoma Centenario Antes de Descarga Quebrada Miraflores Antes de Hospital Infantil Puente Club del Comercio Estación IDEAM Después de Hidroeléctrica Julio Bravo Casabuy Providencia Ensillada

Fuente: esta investigación, San Juan de Pasto, Mayo de 2009.

1.1.1 ALGAS DE PERIFITON El sector alto comprende desde la divisoria sur de la cuenca hasta el sector donde se encuentra ubicada la bocatoma del acueducto Centenario que abastece a la ciudad de Pasto, caracterizado por concentrar ecosistemas protectores. La parte media abarca principalmente la ciudad de Pasto y subcuencas aferentes, su tramo es el ubicado entre la bocatoma Centenario y la estación del IDEAM ubicada en la parte anterior de la Universidad de Nariño. Por su parte el tramo inferior comprende desde la estación IDEAM hasta la desembocadura al Río Juanambú. [5].

Las muestras de algas perifíticas, fueron recolectadas mediante la técnica de raspado de sustrato. Se tomó un área de 9 cm2, y se hizo raspado sobre rocas, troncos, hojas caídas, en zonas de remanso y raudal. Las muestras fueron preservadas con solución Transeau en proporción 1:1 en frascos plásticos de 100 ml. de capacidad. Los recipientes fueron etiquetados, sellados y transportados al laboratorio para realizar la respectiva identificación. Las muestras en el laboratorio fueron observadas en el microscopio, para lo cual se realizó transectos con identificación hasta el nivel de morfo-especie y conteo de número de individuos. Para la identificación de las algas se utilizó las claves de Ling & Tyler (2000), Cox (1996), Bourelly (1966, 1968, 1970), Bicudo & Bicu-

Revista

37

unimar


do (1970), Coesel (1983, 1985, 1987), Comas (1989a, 1989b, 1990, 1992, 1996), González (1995), Krammer & Lange-Bertalot (1986, 1988), Tell & Conforti (1986).

El segundo se calcula mediante la siguiente fórmula [7]:

   pi2

1.1.2 MACRO INVERTEBRADOS ACUÁTICOS Donde: Los macroinvertebrados fueron recolectados mediante el empleo de una malla Surber de 250 µm de diámetro de poro y un área de 400 cm2. Los sitios de colecta incorporaron zonas de raudal y remanso con el fin de abarcar la mayor heterogeneidad de hábitats.

A medida que λ se incrementa, la diversidad decrece. La diversidad puede entonces calcularse como 1- λ o bien 1/ λ.

Las muestras obtenidas en cada uno de los cuadrantes por sitio de muestreo no fueron colectadas independientemente de acuerdo con el tipo de sustrato o hábitat. Éstas fueron integradas en una sola muestra, de tal forma que se estableciera algunos elementos de las condiciones actuales de los ecosistemas acuáticos y su biota asociada.

Para los macroinvertebrados acuáticos se utilizó el método BMWP/Col, que consiste en asignar un valor de bioindicación a cada una de las familias taxonómicas de macroinvertebrados, los cuales, para Colombia, han sido previamente establecidos por Roldán [8].

Los organismos colectados fueron pasados manualmente, mediante el empleo de pinzas y pinceles, a frascos plásticos de 100 ml. Se preservó las muestras con alcohol etílico al 70%. Se etiquetó, selló y transportó los recipientes al laboratorio para su identificación. Los macroinvertebrados fueron identificados utilizando las claves taxonómicas de Merrit y Cumins (1996) y Roldán (1998).

El método sólo requiere llegar hasta nivel de familia, los datos son cualitativos. El puntaje va de 1 a 10 de acuerdo con la tolerancia de los diferentes grupos a la contaminación orgánica. Las familias más sensibles reciben un puntaje de diez; en cambio, las más tolerantes a la contaminación reciben un puntaje de uno. La suma de los puntajes de todas las familias proporciona el puntaje total BMWP.

1. 2. TRATAMIENTO DE LA INFORMACIÓN Se conoce y utiliza generalmente un alto número de índices para evaluar la diversidad, los cuales asumen diferentes aspectos de la misma. En este caso, se utilizó para el análisis de la diversidad de algas de perifiton, el índice de Diversidad de Margalef y el índice de dominancia de Simpson.

El puntaje promedio por taxón conocido como ASPT (Average Score per Taxon), esto es, el puntaje total BMWP dividido entre el número de taxa, es un índice particularmente valioso para la evaluación del sitio. Los valores ASPT van de 0 a 10; un valor bajo de ASPT asociado a un puntaje bajo de BMWP indicará condiciones graves de contaminación. Los valores de puntaje para las familias individuales reflejan su tolerancia a la contaminación. Tabla 2. La interpretación de los resultados se realiza como se presenta en la Tabla 3.

El primero se calcula mediante la siguiente fórmula [6]:

D Mg 

S 1 LnN

Donde: S = Número de especies. N = Número total de individuos.

Revista

unimar

pi = abundancia proporcional de la especie i, es decir, el número de individuos de la especie i dividido entre el número total de individuos de la muestra.

38


Determinación de la calidad del agua del río Pasto

Tabla 2. Puntajes de las familias de macroinvertebrados acuáticos para el índice BMWP/Col. FAMILIAS Anomalopsychidae, Atriplectididae, Blepharoceridae, Calamoceratidae, Ptilodactylidae, Chordodidae, Gomphidae, Hydridae, Lampyridae, Lymnessiidae, Odontoceridae, Oligoneuriidae, Perlidae, Polythoridae, Psephenidae. Ampullaridae, Dytiscicidae, Ephemeridae, Euthyplociidae, Gyniridae, Hydraenidae, Hydrobiosidae, Leptophlebiidae, Philopotamidae, Polycentropodidae, Polymitaryidae, Xiphocentronidae. Gerridae, Hebridae, Helicopsychidae, Hydrobiidae, Leptoceridae, Lestidae, Palaemonidae, Pleidae, Pseudothelpusidae, Saldidae, Simullidae, Veliidae. Baetidae, Caenidae, Calopterygidae, Coenagrionidae, Corixidae, Dixidae, Dryopidae, Glossossomatidae, Hyalellidae, Hydroptilidae, Hydropsychidae, Leptohyphidae, Naucoridae, Notonectidae, Planariidae, Psychodidae, Scirtidae. Aeschnidae, Ancylidae, Corydalidae, Elmidae, Libellulidae, Limnichidae, Lutrochidae, Megapodadagrionidae, Sialidae, Staphylinidae. Belostomatidae, Gelastocoridae, Mesoveliidae, Nepidae, Planorbiidae, Pyralidae, Tabanidae, Thiaridae. Chrysomelidae, Stratiomyidae, Haliplidae, Empididae, Dolichopodidae, Sphaeridae, Lymnaeidae, Hydrometridae, Noteridae.

PUNTAJE 10

9

8 7 6 5

4

Ceratopogonidae, Glossiphoniidae, Cyclobdellidae, Hydrophilidae, Physidae, Tipulidae.

3

Culicidae, Chironomidae, Muscidae, Sciomyzidae, Syrphidae.

2

Tubificidae.

1

Fuente: Bioindicación de la calidad del agua en Colombia. Uso del método BMWP/Col. Universidad de Antioquia.

Tabla 3. Clases de calidad de agua, valores de BMWP/Col, significado y colores para representaciones cartográficas. CLASE I

CALIDAD Buena

BMWP/COL >100

SIGNIFICADO Aguas muy limpias a limpias

II

Aceptable

61-100

III

Dudosa

36-60

IV

Crítica í ítica

16-35

Aguas ligeramente contaminadas Aguas moderadamente contaminadas Aguas muy contaminadas

V

Muy crítica í ítica

< 16

Aguas fuertemente contaminadas.

COLOR Azul Verde Amarillo Naranja Rojo

Fuente: Bioindicación de la calidad del agua en Colombia. Uso del método BMWP/Col. Universidad de Antioquia.

Revista

39

unimar


2. RESULTADOS Y ANÁLISIS 2.1. ALGAS DE PERIFITON En la figura 1 se presenta la distribución de órdenes taxonómicos por número de familias de algas, en donde se aprecia que la familia más rica corresponde a Nostocales, con 10 especies, seguido de Fragilariales y Naviculales, con 8, luego están Chlorococcales con

7, Chroococcales con 6 y Bacillariales, Cymbellales, Microsporales y Ulotrichales con 2 especies cada una. Adicionalmente se presenta 8 familias con una sola especie.

Figura 1.Familias de algas de perifiton encontradas

Fuente: esta investigación, San Juan de Pasto, Mayo de 2009.

Por puntos de muestreo las especies más importantes fueron las siguientes: •

Antes del Hospital Infantil: Mastogloia sp. 1, con 28.6%, Navicula sp. 1, con 16,4%, Stauroneis sp. 1, con 13,6% y Pinnularia sp. 1, con 10%.

Puente Club del Comercio: Navicula sp. 2, con 26%.

Después de Bocatoma Centenario: Stauroneis sp. 1, con 30%, Navicula sp. 1, con 22,5% y Chlorococcum sp. 1, con 10%

Estación IDEAM: Navicula sp. 1, con 19,9%, Navicula sp. 2, con 17,9%, Oscillatoria sp. 1, con 15,2%, Pinnularia sp. 1 con 11,82% y Stauroneis sp. 1 con 11,1%.

Antes de descarga de la Quebrada Miraflores: Navicula sp. 3, con 35,9%, Amphipleura sp. 1, con 26,2% y Stauroneis sp. 1, con 14,6%.

Después de la Hidroeléctrica Julio Bravo: Navicula sp. 2, con 34,3%, Mastogloia sp. 1 con 22,4% y Navicula sp. 1 con 11,4%.

Casabuy: Navicula sp. 1, con 47,5% y Anacystis sp. 1, con 18%.

Punto inicial: Navicula sp. 1, con 15,6%, Navicula sp. 2, con 14,8% y Oscillatoria sp. 1, con 13,6%. Antes de PTAR La Laguna: Mastogloia sp. 1, con 19,5%, Navicula sp. 2, con 17,1% y Cymbella sp. 1, con 14,6%.

Revista

unimar

40


Determinación de la calidad del agua del río Pasto

Providencia: Navicula sp. 3, con 19,2%, Chlorococcum sp. 1, con 14,6%, Mastogloia sp. 1 y Navicula sp. 2, con 13,1% y Pinnularia sp. 1, con 12,3%.

En la tabla cuatro se presenta los resultados de los índices de Margalef y Simpson calculados para cada punto de muestreo.

INDICE

Ensillada: Navicula sp. 3, con 38,1%, Navicula sp. 2, con 13,1% y Anacystis sp. 1, con 11,4%.

Tabla 4. Índices de diversidad calculados para los sitios de muestreo

PUNTOS DE MUESTREO 1

2

3

4

5

6

7

8

9

10

11

Margalef

3,28

2,91

2,74

2,10

2,43

2,13

1,58

2,16

1,70

2,26

1,93

Simpson

0,10

0,11

0,17

0,23

0,15

0,19

0,14

0,19

0,27

0,12

0,19

1-Simpson

0,90

0,89

0,83

0,77

0,85

0,81

0,86

0,81

0,73

0,88

0,81

1/Simpson

10,44

8,81

6,05

4,44

6,86

5,36

7,32

5,15

3,70

8,51

5,14

Fuente: esta investigación, San Juan de Pasto, Mayo de 2009.

En general, se presenta un descenso de la diversidad desde el Punto Inicial hasta el punto en que se ubicó antes de la descarga de la Quebrada Miraflores. A partir del punto antes del Hospital Infantil y hasta estación IDEAM se ha presentado un ascenso inicial, seguido de un descenso paulatino en los valores de diversidad media, después de la Hidroeléctrica Julio Bravo. Para Casabuy se presenta un valor relativamente bajo; en Providencia sube nuevamente y baja ligeramente en la Ensillada. Es probable que este comportamiento se deba a la capacidad de auto recuperación del Río, así como al aumento de la reaireación dada por las pendientes que facilitan el intercambio gaseoso entre el agua y la atmósfera.

de descarga de la Quebrada Miraflores, pésima en el Hospital Infantil, Puente Club del Comercio, estación IDEAM y después de la Hidroeléctrica Julio Bravo y presenta una ligera recuperación en las últimas tres estaciones Casabuy, Providencia y Ensillada. 2.2 MACROINVERTEBRADOS ACUÁTICOS En la tabla 5 se presenta el resumen de las familias de macroinvertebrados encontradas en cada punto de muestreo. El signo + significa que la familia está presente en ese punto. En la tabla 6 se presenta los valores de bioindicación encontrados mediante el método BMWP/Col, el valor del ASPT, la calidad del agua según los valores del BMWP y ASPT y la clave de color que se debe utilizar en una representación cartográfica.

Los valores obtenidos en los índices indican que el Río Pasto presenta una aceptable calidad biótica en el punto inicial y antes de la PTAR de La Laguna, deficiente en el punto después de bocatoma Centenario y antes

Revista

41

unimar


Tabla 5. Familias de macroinvertebrados acuáticos presentes en cada punto de muestreo. FAMILIA Baetidae Blepharoceridae Chironomidae Coenagrionidae Elmidae Glossosomatidae Helicopsychidae Hyalellidae Hydrobiosidae Hydropsychidae Leptoceridae Leptophlebiidae Lymnaeidae Naucoridae Planariidae Ptilodactylidae Scirtidae Simulidae Tipulidae Tricorythidae Tubificidae

PUNTOS DE MUESTREO 1

2

3

4

+ + +

+ + +

+ +

+ + +

+

+ + +

+ +

+

5

6

+

7

+

8

+

9

10

+

+

+

+ +

11

+ + +

+ +

+ +

+

+

+ + + + + +

+ + +

+ + +

+

+

+ +

+ +

+

+

+

Fuente: esta investigación, San Juan de Pasto, Mayo de 2009.

Tabla 6. Valores de Bioindicación. Macroinvertebrados acuáticos PUNTO DE MUESTREO

ASPT

BMWP

CALIDAD

Punto Inicial

7,27

80

Aceptable

Antes de PTAR La Laguna

7,20

72

Aceptable

Después de Bocatoma Centenario

7,00

49

Dudosa

Antes de Descarga Quebrada Miraflores

6,44

58

Dudosa

1,00 1,50 1,50

1 3 3

Muy crítica Muy crítica Muy crítica

2,00

1

Muy crítica

5,00 6,40 8,00

30 32 16

Crítica í ítica Crítica í ítica Crítica í ítica

Antes de Hospital Infantil Puente Club del Comercio Estación IDEAM Después de Hidroeléctrica Julio Bravo Casabuy Providencia Ensillada

Fuente: esta investigación, San Juan de Pasto, Mayo de 2009.

Revista

unimar

42

SIGNIFICADO Aguas ligeramente contaminadas Aguas moderadamente contaminadas

Aguas fuertemente contaminadas Aguas muy contaminadas

CLAVE DE COLOR Verde

amarillo

Rojo

Naranja


Determinación de la calidad del agua del río Pasto

En general, los valores encontrados tanto en algas como en macroinvertebrados indican que la calidad del agua del Río Pasto en su parte alta se puede considerar como buena; al entrar en la ciudad de San Juan de Pasto el río recibe la mayor cantidad de contaminantes haciendo que la calidad del agua sea muy mala y en la parte baja la calidad mejora, pero sigue considerándose agua muy contaminada.

Santiago de Chile. Memorias XVI Congreso Chileno de Ingeniería Hidráulica. Sociedad Chilena de Ingeniería Hidráulica. 2003. 3.

Roldán, G. Fundamentos de limnología neotropical. Medellín. Editorial Universidad de Antioquia, 1992.

4.

Alba – Tercedor, J. Un método rápido y simple para evaluar la calidad biológica de las aguas corrientes, basado en el de Hellawell (1978). Granada, España. Limnética, 4: 51-56. 1988

5.

Grupo de Investigación Ambiental GIA, Sub línea de Recursos Hídricos. Informe final de investigación. Modelación del Río Pasto, una herramienta para la planificación del recurso hídrico. Fase uno. 2008

6.

Margalef, R. Limnología. Barcelona. Editorial Omega. 1983.

7.

Odum, E. Fundamentos de Ecología. México. Editorial Thompson. 2005

8.

Roldán, G. Bioindicación de la calidad del agua en Colombia, uso del método BMWP/ Col. Medellín. Editorial Universidad de Antioquia. 2003.

3. CONCLUSIONES •

Los valores del índice BMWP/Col muestran calidades de agua totalmente diferentes: agua ligeramente contaminada en la parte alta de la cuenca, agua fuertemente contaminada en la parte media de la cuenca y agua muy contaminada en la parte baja de la cuenca, valores que están de acuerdo con las características propias de cada tramo. Los valores obtenidos en los índices para las algas de perifiton indican que el Río Pasto presenta una aceptable calidad biótica en el punto inicial y antes de la PTAR de La Laguna, deficiente en el punto después de Bocatoma Centenario y antes de descarga de la Quebrada Miraflores, pésima en las demás estaciones, aunque se manifiesta una ligera recuperación en Casabuy, Providencia y Ensillada. A medida que el río avanza, se presenta una disminución en la diversidad de especies, debido al aumento de la carga contaminante en el cauce del río; en el tramo final se evidencia una leve recuperación de la calidad del agua, relacionada con el aumento de los procesos de reaireación en el río.

REFERENCIAS 1.

Norris, R. y Hawkins, C. Monitoring river health. Hydrobiología 435: 5-17. 2000.

2.

Toro, J; Schuster, J; Kurosawa, J; Araya, E; Contreras, M. Diagnóstico de la calidad del agua en sistemas lóticos utilizando diatomeas y macroinvertebrados bentónicos como bioindicadores Río Maipo (Santiago: Chile).

Revista

43

unimar


Revista

UNIMAR


“EVENT MANAGER” Manejador Informático de Procesos Administrativos En eventos académicos y de formación profesional “EVENT MANAGER” Computer Based Information Management of Administrative Process Used in academic professional development Fecha de recepción: 8 de octubre de 2009 Fecha de aprobación: 29 de octubre de 2009

Autores: Luisa Fernanda Guerra Albornoz luisitaguerra@hotmail.com Hugo Fernando Sarasty España Nando6799@hotmail.com Juan Carlos Ledesma Alvear Juancarlos_la@hotmail.com Edith Alexandra Luna Acosta luna.alexandra@gmail.com

RESUMEN

ABSTRACT

La complejidad de llevar a cabo eventos académicos y de formación profesional radica en gran parte en la planeación, organización y manejo de la gran cantidad de información sobre todos los aspectos que afectan el desarrollo del mismo. A esto se suma el uso inadecuado de las TIC por parte de los organizadores de eventos o la no explotación de todo el potencial que éstas ofrecen.

The complexity of carrying out academic professional training is largely due to the planning, organization and managing of the great amount of information on all aspects that affect the process of development itself, besides the inadequate use of TIC from the organizers of events or the failure to use all the potential that they can offer. To address this, it was necessary to carry out a research and a subsequent construction of an application that provides enough tools to plan, develop and evaluate each of the events developed, offering speakers and lecturers a management of the necessary information from the events in which they are handling.

Para dar solución a esto, se vio la necesidad de llevar a cabo una investigación y posterior construcción de un aplicativo que brinde herramientas suficientes para planear, desarrollar y evaluar cada uno de los eventos desarrollados. Además, ofrecer a los asistentes, conferencistas y ponentes la manipulación y gestión de la información necesaria de los eventos en los que participen.

KEY WORDS planning, organization, information, events.

PALABRAS CLAVE planeación, organización, información, eventos.

Revista

45

unimar


1. INTRODUCCIÓN.

al momento de hacer eventos de carácter social como matrimonios, cumpleaños, aniversarios, entre otros. A nivel nacional también hay entidades dedicadas a esta labor, como “Gamma Producciones”, la cual organiza el montaje logístico en lanzamientos de productos, fiestas empresariales, congresos, ferias y seminarios.

L

as instituciones educativas generalmente realizan eventos de carácter académico y científico con el objetivo de divulgar avances y desarrollos relacionados con la investigación en las diferentes áreas del conocimiento; asimismo proporcionan espacios de encuentro entre la comunidad académica y la comunidad en general, para intercambiar información, opiniones y experiencias, todo enfocado a fomentar el interés por el conocimiento.

A nivel regional no se ha establecido la existencia de empresas que organicen específicamente eventos académicos y de formación profesional. En la región existen entidades encargadas de realizar contactos requeridos para cumplir las necesidades que presente un cliente, como por ejemplo: contratación de animadores de fiestas, grupos musicales, instalación de audio y video y similares.

Al momento de desarrollar un evento, se lleva a cabo una serie de procesos de carácter administrativo, logístico y publicitario, los cuales demandan considerables inversiones de tiempo y recursos de tipo económico, que pueden variar, dependiendo de la magnitud y categorización de la actividad. Habitualmente la administración de la información relacionada al evento, es desarrollada manualmente, dejando a la vista la necesidad de crear e implementar un sistema integral que realice cada uno de estos procesos en forma oportuna y confiable.

Al indagar acerca de la existencia de entidades que organizan eventos de carácter académico, se estableció que, generalmente, estas empresas administran la parte logística de los eventos, evidenciando que los servicios que prestan no son integrales, pues omiten la administración de la información, tales como inscripción de participantes, creación de horarios para la asignación de conferencias, pagos en línea, generación de escarapelas y certificados.

El proyecto se enfoca a optimizar la gestión de todos los procesos de carácter administrativo que se lleva a cabo en el momento de desarrollar eventos académicos y de formación profesional, para permitir que, tanto las instituciones educativas como los organizadores de los eventos, cuenten con una herramienta tecnológica que dé eficiencia y confiabilidad al tratamiento de la información.

3. FUNDAMENTOS TEÓRICOS. Las teorías utilizadas para el desarrollo de la investigación son las siguientes: Administración de procesos De acuerdo con Voehl1, el propósito de la administración de procesos es asegurar que todos los procesos claves trabajen en armonía para maximizar la efectividad organizacional. La meta es alcanzar una ventaja competitiva a través de una mayor satisfacción del cliente. Las herramientas y técnicas principales usadas en estos procesos son: diagrama de flujo, tormenta de ideas, votación, diagrama de Pareto y gráficas. Si éstas son implementadas eficazmente se obtiene tres resultados principales:

2. ANTECEDENTES. La organización de eventos es un campo muy importante para las instituciones; tanto así que existen programas académicos encargados de preparar a las personas en su planeación, programación, realización, negociación, funcionamiento y evaluación, en diferentes temáticas, contextos y servicios. Sin embargo, no existe una herramienta sistematizada que les ayude a gestionar cada uno de los procesos que se lleva a cabo al momento de la organización.

1.

Hoy en día se puede encontrar diversas empresas relacionadas con la organización de eventos en diferentes campos; un ejemplo de esto es la empresa radicada en España “UNITY eventos”, la cual se encarga de realizar y coordinar todos los aspectos logísticos que se requiere

1 VOEHL, Frank. Guía de instrumentación para pequeñas y medianas empresas

Revista

unimar

Un lenguaje común para documentar y comunicar actividades y decisiones para procesos clave en el mejoramiento de procesos de calidad total.

46


“Event Manager”

2.

3.

Un sistema de indicadores de calidad total encadenados a través de toda la institución educativa.

2. 3. 4. 5.

Ganancias inmediatas y a largo plazo a través de la eliminación de desperdicio, cuellos de botella y trabajo doble.

6.

Un proceso se define como una serie de cambios a través de los cuales algo se desarrolla. Todo trabajo involucra procesos. Cualquier proceso de trabajo, no importando si sea pequeño o grande, complicado o sencillo, involucra tres componentes principales:

Efectividad y eficiencia para evitar errores, fracasos y trabajos dobles Producción en tiempo oportuno. Costos Conocimiento de las necesidades de recursos de los empleados. Cumplimiento con requerimientos regulares.

• Sistema de Realimentación: Mejorar los esfuerzos que se enfoca en expandir la información recibida desde dos sistemas de realimentación:

• Entradas: Recursos del ambiente externo, incluyendo productos o salidas de otros subsistemas.

1.

2. • Procesos de transformación: Las actividades de trabajo que transforman las entradas, agregando valor a ellas y haciendo de las entradas, las salidas del subsistema.

Información del ambiente interno en la efectividad y eficiencia de la fase de diseño. Información desde el ambiente externo, o los clientes, basándose en si el producto cumple con sus especificaciones de calidad.

Implantando Administración de Procesos • Salidas: Los productos y servicios generados por el subsistema, usados por otro sistema en el ambiente externo.

Las entradas apropiadas no son suficientes, mas sí necesarias, para producir salidas apropiadas. El diseño, proceso y salida basados en las necesidades de los beneficiarios, definen entradas apropiadas que maximizan el sistema, mientras las inapropiadas, crean limitaciones en el sistema. Por consiguiente, es más fácil pensar en entradas apropiadas o inapropiadas, que en términos de calidad.

El uso de este modelo ayuda a identificar tres fases principales del mejoramiento de procesos y sus objetivos: • Fase de Diseño: Mejorar el esfuerzo que se enfoca en: 1. 2. 3. 4. 5.

Información acerca de las necesidades del cliente. Pasos de diseño en la transformación de procesos. Especificación de requerimientos de las entradas. Planeación de desarrollo. Información de la capacidad de los proveedores.

Desafortunadamente, el conocimiento de las salidas no nos provee la base para identificar problemas que incurren durante el proceso de desarrollo del producto. Los pasos para llevar a cabo la administración de procesos son: a. b.

Se inicia con un esfuerzo en especificar el propósito de los procesos principales en estudio. La identificación de las necesidades y expectativas del cliente debe involucrar a los clientes como la principal fuente de información. Usualmente es útil desarrollar un diagrama de flujo del proceso que está siendo estudiado. Al examinar el diagrama de flujo, podemos obtener discer-

• Fase de Producción: Mejorar los esfuerzos que se enfoca en las entradas para producir los productos y/o servicios deseados. Esto incluye temas relacionados con: 1.

Identificar los procesos principales. Análisis de Procesos.

Conformidad para diseñar especificaciones.

Revista

47

unimar


nimiento sobre las fuentes de los problemas, como pasos innecesarios y puntos de retraso. Los procedimientos para desarrollar un diagrama de flujo de procesos, incluyen: 1.

2.

3.

4.

c.

d.

queda de las verdaderas causas de los problemas.

Definición de límites: los límites del proceso en estudio deben ser especificados. Recolección de datos: sobre el proceso y las actividades relacionadas. Aquí los esfuerzos deben incluir una participación directa en las actividades, observación directa de los procesos y pedir a otros que describan cómo se lleva a cabo el trabajo. Listado de actividades secuenciales: Los pasos involucrados en el proceso deben ser identificados en el orden en que ocurren, es decir, entrada, proveedor, primeras acciones, salida de la actividad, quién recibe las salidas, etc. Estudio del diagrama de flujo: El dibujar el diagrama de flujo proveerá información sobre datos que faltan, pasos redundantes, retrasos potenciales, etc.

Implementación La planeación de la implementación debe involucrar la elaboración de un plan de contingencia para lidiar con los problemas que se obtiene si algo sale mal. Además un plan debe ser desarrollado para evaluar el éxito o fracaso de la solución propuesta.

f.

Evaluación La evaluación debe involucrar a todos los miembros del equipo. Después de que los resultados son revisados, se debe determinar si es necesario regresar a algún paso previo.

Teoría General de Sistemas: Se caracteriza por su perspectiva holística e integradora, en donde lo importante son las relaciones y los conjuntos que a partir de ellas emergen. En tanto práctica, la TGS ofrece un ambiente adecuado para la interrelación y comunicación fecunda entre especialistas y especialidades.2 Los conceptos y características más importantes que corresponden a la TGS que serán empleados en el proceso de investigación del proyecto son:

Identificar los problemas Esto involucra la utilización de medidas de rendimiento y la recolección de datos del proceso en estudio. Por ejemplo, los datos de admisión de un estudiante deben ser utilizados para estudiar el proceso de admisión y las evaluaciones realizadas sobre la manera de enseñar, deben ser utilizadas, para estudiar los procesos de enseñar – aprender y para identificar problemas en efectividad, eficiencia o para conocer las necesidades y expectativas del cliente. Donde se encuentra una brecha, se establece un problema.

ELEMENTO: Corresponde a las partes o componentes como objetos y procesos que constituyen el sistema. Una vez identificados estos pueden ser organizados en un modelo. SISTEMAS ABIERTOS: El sistema a desarrollar importará y procesará información, con el fin de incrementar su contenido y mejorar su organización interna. REALIMENTACIÓN: El sistema se realimentará mediante la información obtenida de los resultados de un proceso, para ser mejorado y actualizado, de acuerdo a las necesidades del cliente y el usuario final.

Búsqueda de soluciones Cuando surgen dificultades o problemas, por lo general la primera reacción es responsabilizar a otros. Así se gasta los recursos equivocadamente tratando de justificar los errores culpando a otros, en vez de invertir estos recursos en la bús-

Ingeniería Web (IWeb): La información de la ingeniería Web está basada en la sexta edición del libro Ingeniería de software de Roger S. Pressman. 2

http://www.tecnologia.mendoza.edu.ar/sistemas/sis-

temas_tgs.htm

Revista

unimar

e.

48


“Event Manager”

El panorama de los métodos de IWeb abarca un conjunto de labores técnicas que permiten comprender, caracterizar y luego construir una WebApp de alta calidad, que pueden caracterizar de la siguiente manera:

Los sistemas y aplicaciones basados en WebApp ofrecen un complejo arreglo de contenido y funcionalidad a una amplia población de usuarios finales. La ingeniería Web es el proceso con el que se crea WebApp de alta calidad. Esta no es un clon perfecto de la ingeniería del software, pero toma prestados muchos conceptos y principios fundamentales de ella. Además, el proceso IWeb acentúa actividades técnicas y administrativas similares. Existen sutiles diferencias en la manera cómo se dirige dichas actividades, pero el método primordial dicta un enfoque disciplinado para el desarrollo de un sistema basado en la computadora.

Métodos de comunicación: Definen el enfoque con que se facilita la comunicación entre ingenieros web y los demás participantes de la WebApp. Métodos de análisis de requisitos: Proporcionan una base para comprender el contenido que entregará una WebApp. La función que proporcionará al usuario final y los modos de interacción que cada clase de usuario requerirá mientras ocurre la navegación por medio de la WebApp.

En la medida en que se integra cada vez más las WebApp en las estrategias de negocios para pequeñas y grandes empresas, crece en importancia la necesidad de construir sistemas confiables, prácticos y adaptables. Por tanto, es necesario un enfoque disciplinado en cuanto al desarrollo de WebApp.

Métodos de diseño: Abarca una serie de técnicas de diseño que abordan el contenido, la aplicación y la arquitectura de información, así como el diseño de interface y la estructura de navegación de la WebApp.

Al igual que cualquier disciplina de ingeniería, la IWeb aplica un enfoque genérico que suaviza mediante estrategias, técnicas y métodos especializados. El proceso IWeb comienza con la formulación del problema que se resolverá con la WebApp. Se planea el proyecto IWeb y se modela los requisitos y el diseño de la WebApp. El sistema se construye con tecnologías y herramientas especializadas asociadas con la Web. Entonces se entrega a los usuarios finales y se evalúa mediante criterios tanto técnicos como empresariales. Dado que las WebApp evolucionan continuamente, se debe establecer mecanismos para el control de configuraciones, el aseguramiento de la calidad y el soporte continuo.

Métodos de prueba: Incorpora revisiones técnicas y formales tanto del contenido y el modelo de diseño, como de una amplia variedad de técnicas de prueba que abordan conflictos a nivel de componente y arquitectónicos. Es importante señalar que aunque los métodos IWeb adoptan muchos de los mismos conceptos y principios subyacentes a los métodos de ingeniería de software, los mecanismos de análisis, diseño y prueba deben adaptarse para acomodar las características especiales de las WebApp. Para realizar la recopilación de requisitos se fija los siguientes objetivos:

En ocasiones es difícil estar seguro de si el proceso se ha hecho correctamente, hasta que los usuarios finales ejecutan la WebApp. Sin embargo, se aplica prácticas de aseguramiento de calidad del software para valorar la calidad de los modelos IWeb, el contenido y la función global del sistema, la facilidad de uso, el desempeño y la seguridad.

• • •

Identificar requisitos de contenido Identificar requisitos funcionales Definir escenarios de iteración para diferentes clases de usuarios.

Para dar cumplimiento a los objetivos anteriores se sigue los siguientes pasos.

Los modelos de procesos IWeb adoptan la filosofía del desarrollo ágil enfocando éste a un desarrollo riguroso que incorpora rápidos ciclos de desarrollo, pero sin dejar de lado el análisis del problema y el desarrollo de un diseño, la implementación debe proceder en una forma incremental y se debe iniciar un enfoque organizado de prueba.

1. 2.

Pedir a los clientes que definan las categorías de usuario y describan cada categoría Comunicarse con los clientes para definir los requisitos básicos de la WebApp

Revista

49

unimar


3.

4.

Analizar la información recopilada y utilizar la información para realizar un seguimiento con los clientes Definir casos de uso que describan escenarios de interacción para cada clase de usuario.

Pirámide de diseño para la ingeniería Web

El diseño IWeb conduce a un modelo que contiene la mezcla adecuada de estética, contenido y tecnología, la cual varía dependiendo de la naturaleza de la WebApp y, como consecuencia, las actividades de diseño también varían. Las actividades son las siguientes:

4. Resultados. En esta etapa se logrará comprobar la veracidad de la hipótesis, la cual busca determinar si el manejador informático de procesos administrativos en eventos académicos y de formación profesional “EVENT MANAGER”, optimiza el manejo de información de los procesos llevados a cabo en la preparación de eventos académicos y de formación profesional en instituciones de educación superior.

Diseño de la interfaz: Describe la estructura y organización de la interfaz de usuario. Incluye una representación de la plantilla de pantalla, una definición de los modos de interacción y una descripción de los mecanismos de navegación. Diseño estético: También llamado diseño gráfico, describe la apariencia y sentimiento de la WebApp. Incluye esquemas de color, plantilla geométrica, tamaño de texto, fuente y ubicación, uso de gráficos y decisiones estéticas relacionadas.

La comprobación de hipótesis se realizó aplicando encuestas a los integrantes del grupo de coordinadores institucionales de semilleros de investigación, pertenecientes a la Fundación Universitaria San Martín, Universidad Cooperativa de Colombia, Institución Universitaria CESMAG, Universidad Nacional Abierta y a Distancia UNAD, Corporación Universitaria Autónoma de Nariño y Universidad Mariana, instituciones encargadas de desarrollar y administrar anualmente un evento académico para los estudiantes semilleristas de cada una de las instituciones mencionadas anteriormente, en el cual ha sido implementado el proyecto. Las encuestas cuentan con una serie de preguntas, enfocadas a determinar qué diferencias pudieron encontrar los organizadores al momento de administrar la información del evento, haciendo uso de “Event Manager” con relación a la forma tradicional.

Diseño de contenido: Define la plantilla, la estructura y el bosquejo de todo el contenido que se presenta como parte de la WebApp. Establece las relaciones entre los objetos de contenido. Diseño de navegación: Representa el flujo de navegación entre los objetos de contenido y para todas las funciones de la WebApp. Diseño arquitectónico: Identifica la estructura hipermedia global para la WebApp Diseño de componentes: Desarrolla la lógica de procesamiento detallado que se requiere para implementar componentes funcionales.

Encuesta (ver anexo F). A las respuestas obtenidas en cada una de las encuestas aplicadas se les realizó el siguiente análisis:

La siguiente es la pirámide de diseño para la ingeniería Web. Cada nivel representa las actividades de diseño.

Revista

unimar

50


“Event Manager”

Gráfica 54. Tiempo empleado en administrar el evento, haciendo uso de Event Manager

Fuente: Esta investigación

Se puede determinar que el tiempo que se empleó para organizar el Evento Nodal de Semilleros de Investigación, utilizando Event Manager, fue menor a un mes; por lo tanto, considerando que el grupo organizador habitualmente empleaba entre uno y cuatro meses en organizar y administrar un evento de manera tradicional, el tiempo se redujo considerablemente al hacer

uso de Event Manager, debido a que procesos como la verificación, la impresión y los reportes son proporcionados por el sistema de manera automática; además se ha tratado de optimizar las fases empleadas en la planeación y organización, evitando así la redundancia de procesos y por ende la pérdida de tiempo.

Gráfica 55. Cantidad de recursos humanos empleados para organizar el evento.

Fuente: Esta Investigación

Revista

51

unimar


Teniendo en cuenta que el tipo de evento organizado por El Nodo Nariño de Semilleros de Investigación fue un Encuentro, se equiparó con la organización de un congreso en el cual se presentó propuestas y conferencias que ameritaron la asignación de salas, horarios, jurados.

tificadas al inicio de la investigación como equipos de trabajo, capacitaciones, organización de horarios, publicidad y control de asistencia, realizadas en la manera tradicional de organización, ya no fueron empleadas, debido a que en los procesos establecidos por Event Manager para organizar un evento, son agrupadas y fusionadas en fases globales y ejecutadas de manera transparente para el usuario.

A esos eventos asisten por lo general 1000 personas, a los cuales hay que ofrecerles escarapelas, certificados y una inscripción fácil y amena en el evento. Habitualmente, para la planeación, organización y realización del evento se requiere alrededor de 30 personas distribuidas en diferentes comisiones; con la utilización de Event Manager el número de personas encargadas de las inscripciones y de la asignación de salas y demás se reduce notablemente, como se puede ver en la gráfica 54, lo cual permite afirmar que, para estos procesos, basta asignar 2 personas, facilitando así los horarios de reunión de los responsables y disminuyendo las horas de trabajo.

Gráfica 57. Fases que requieren más tiempo y dedicación para ser desarrolladas.

Gráfica 56. Fases empleadas para llevar a cabo la organización del evento Fuente: Esta investigación

Gráfica 58. Optimización de las fases mencionadas en la gráfica 43.

Fuente: Esta investigación

Fuente: Este investigación

En la representación de la gráfica 57 se puede evidenciar que las fases Planeación y Organización, son las que más requieren tiempo y dedicación para ser desarrolladas. En la gráfica 58 se determina que estas fases han sido optimizadas con la implementación de Event Manager. Los resultados de los instrumentos son unilaterales al resumir que el manejador informático permite organizar debidamente la información recolectada por

En la gráfica 56 se puede concluir que con la utilización de Event Manager las fases que más se tuvo en cuenta para la organización del evento fueron planeación, análisis de resultados y desarrollo del evento. Basándose en estos resultados se determinó que, fases iden-

Revista

unimar

52


“Event Manager”

cada evento, facilitando la realización de pronósticos de los costos que se obtendrá al momento de ejecutar el evento y administrar los participantes, ponentes y conferencistas registrados en el congreso.

En la gráfica No. 60 se puede determinar que el medio que más prefieren los asistentes a un evento para realizar los pagos respectivos son los bancos y como segunda opción, la plataforma de pagos proporcionada por Event Manager, aunque algunos de los inscritos manifestaron que sería mejor pagar en la institución organizadora. Con estos datos, se puede evidenciar que las transacciones monetarias siempre serán una cuestión de seguridad y por lo tanto, la mayoría de usuarios prefiere hacerlo en la forma convencional; es muy rescatable observar que se ha empleado la plataforma de Event Manager para cruzar los pagos realizados en los bancos con la información de los inscritos en la plataforma.

Gráfica 59. Medios empleados para buscar y contactar conferencistas

Gráfica 61. Porcentaje de optimización al generar escarapelas y certificados por medio de Event manager, teniendo en cuenta el tiempo, costo y veracidad de los datos. Fuente: Esta investigación

En el gráfico 59, en comparación con los resultados obtenidos en los instrumentos de recolección de información que se aplicó al inicio de esta investigación, se evidencia que el medio que más se empleó para contactar y registrar los conferencistas, fue la plataforma dispensada por Event Manager y como opciones secundarias se utilizó el correo electrónico y el teléfono. Estos datos demuestran que Event Manager cumple con los requerimientos del usuario al facilitar, además de los nombres de los conferencistas, sus datos y hoja de vida.

Fuente: Esta investigación

En el gráfico 61 se puede concluir que la elaboración de las escarapelas y certificados a través de Event Manager, ha obtenido resultados positivos en comparación a los métodos implementados manualmente. Se ha mejorado en un 100% la veracidad de los datos, por lo que cada usuario podría ingresarlos personalmente y editarlos, dependiendo de las necesidades que tenga, para así poder elaborar la escarapela o certificado correspondiente.

Gráfica 60. Medios puestos a disposición a los asistentes al evento para realizar los pagos respectivos.

Los tiempos de elaboración han sido reducidos, obteniendo un 83.3% del resultados de las encuestas. Estos valores son muy importantes en la fase de organización, ya que se optimiza los tiempos de elaboración de escarapelas y certificados, para que así el lapso global en la organización del evento se reduzca considerablemente.

Fuente: Esta investigación

Revista

53

unimar


La variable costos está relacionada con los anteriores puntos analizados. La veracidad de los datos ingresados y la optimización de los tiempos, proporcionalmente se verán reflejadas en la disminución de costos. Esto puede ser comprobado al analizar los resultados obtenidos en la encuesta y determinar que el 66.6% de las respuestas en la variable tiempo obtuvieron resultados positivos.

organizadores de eventos tienen una herramienta que les permite organizar completamente la información recolectada por evento, con el fin de poderla administrar para generar automáticamente los procesos que normalmente son llevados a cabo en forma manual. Con esto queda comprobado que es necesaria la existencia de un manejador informático que recolecte, organice y administre automáticamente la información generada en un evento de formación académica.

Gráfica 62. Calificación asignada al método empleado por Event Manager para el registro de asistentes, ponentes y conferencistas al evento.

5. CONCLUSIONES Mediante el desarrollo, pruebas, puesta en marcha y evaluación de los resultados del presente proyecto, se concluye los siguientes puntos: - La planeación, organización y realización de un evento, llevado a cabo de manera manual, incrementa los costos del mismo y el tiempo en cada una de las fases. - Realizar un análisis minucioso de los procesos efectuados en la preparación de un evento permitió que las fases propuestas de manera tradicional fueran fusionadas y simplificadas en el sistema, reduciendo así el tiempo de planeación usado. - El proceso de modelado y diseño de la aplicación es primordial para poder codificar el software; pero en muchos casos estos diseños cambian al ser codificados y probados, por lo que deben ser corregidos en cada uno de los incrementos del proyecto.

Fuente: Esta investigación

Los resultados obtenidos en la gráfica 62 son favorables al proyecto Event Manager, pues los encuestados consideraron que el método de registro de asistentes, ponentes y conferencistas, fue eficiente, óptimo y sencillo. Esto es muy importante, ya que la interfase está desarrollada con el fin de que sea amigable, amena y sobre todo, eficiente con el usuario.

- Event Manager reduce los tiempos de planeación y organización, debido a que el administrador de cada evento sube la información necesaria al sitio y ya está disponible para que los otros actores puedan interactuar con ella, haciendo que el administrador sólo revise el estado actual del evento y pueda dedicar su tiempo a ingresar los costos al sistema y administrar su evento desde el panel de control.

Por medio del análisis realizado a la información obtenida de los instrumentos de recolección de información aplicado a los integrantes del Nodo Nariño de Semilleros de Investigación, se llega a una conclusión muy favorable y positiva hacia el proyecto: “Event Manager” manejador informático de procesos administrativos en eventos académicos y de formación profesional, ha demostrado las diferencias que existen entre organizar y administrar un evento en forma manual y convencional y el organizarlo y gestionarlo a través de un manejador informático; esto significa que los

- La realización de las escarapelas y certificados desde la aplicación reduce el tiempo que se emplea; además si se las envía por correo electrónico, se anula los costos de papel, impresión y distribución de los mismos. - En la información de los asistentes, ponentes y conferencistas no se presentó errores, debido a que ésta es digitada directamente por cada uno de ellos, anulando

Revista

unimar

54


“Event Manager”

los errores en los nombres, identificación y demás datos.

duarse tener su propia empresa, o una base con la cual empezar su vida profesional como personas independientes; ya que se ha observado que muchas buenas ideas quedan olvidadas y todo el tiempo y esfuerzo dedicado se pierde.

- El diagnóstico previo de una situación problemática permite identificar falencias, dificultades y los objetivos concretos dentro de un proyecto de investigación, optimizando los procesos durante su desarrollo.

- Hacer uso de todas las herramientas que la Ingeniería de Sistemas provee, como la programación orientada a objetos y el Modelo-Vista-Control (MVC), ya que su aplicación hace más eficaz el mantenimiento a la aplicación. Reutilizar al máximo el código y dividir los datos de la interfaz.

- La identificación acertada de las variables de estudio beneficia el desarrollo correcto del proyecto de investigación, ya que éstas permiten determinar la comprobación de la hipótesis planteada a través del seguimiento de las mismas.

BIBLIOGRAFÍA - La utilización de la prueba de la caja negra en el desarrollo de software permitió una revisión minuciosa de la aplicación, identificando debilidades y fortalezas de cada incremento y permitiendo dar solución a los problemas en el instante de ejecutar la acción.

BERTOGLIO. Introducción a la Teoría General de Sistemas. Ed. Limusa. México DF.1982. FERRE GRAU, Xavier – SANCHEZ SEGURA, Isabel. Desarrollo orientado a objetos con UML. Facultad de Informática – UPM. 2007.

6. RECOMENDACIONES - Tener una cuenta de usuario en cualquiera de las plataformas que ofrecen el servicio de pagos y cobros en línea, como son PayPal, AlertPay, Pagos on Line, entre otros, debido a que esto facilita y ayuda a realizar los respectivos cobros y pagos en los eventos.

PRESSMAN, Roger S. Ingeniería de software: Un Enfoque Práctico. Sexta edición, McGraw-Hill, Madrid. 2006 TAMAYO Y TAMAYO, Mario. El proceso de la investigación científica. Noriega Editores. México. 2000.

- Llenar todos los datos en “Tu Perfil”, ubicado en el Panel de Control y subir su Curriculum Vitae en “Tu Curriculum”, ubicado en el panel de control, si es un conferencista o ponente, debido a que ésta es la información que necesitan los organizadores de eventos para poder evaluar y convocar a las personas que harán las conferencias, ponencias, charlas y demás, en sus eventos.

VOEHL, Frank. Guía de instrumentación para pequeñas y medianas empresas. McGraw-Hill. México. 1997.

- Activar la opción Newsletter al momento de registrarse, si es asistente, ya que así podrá recibir nuevas notificaciones acerca de eventos futuros. - Usar Mozilla Firefox con el complemento de Adobe Flash Player, ya que con este navegador se obtiene un mayor rendimiento de la aplicación, la cual fue probada en Microsoft Internet Explorer 8, Mozilla Firefox 3.0.10, Google Chrome 1.0, Netscape 9, Opera 9.6 y Safari 3.2. En todos funciona correctamente. - Orientar los futuros proyectos de grado hacia una idea de negocios, que permita, al momento de gra-

Revista

55

unimar


Revista

UNIMAR


LA PLANIFICACIÓN DEL RÍO PASTO a partir de una modelación hidrodinámica WATER QUALITY SIMULATION Results from management planning of the Pasto River

Fecha de recepción: 8 de octubre de 2009 Fecha de aprobación: 29 de octubre de 2009

RESUMEN Por Gloria Lucía Cárdenas Calvachi Ingeniera Química, Universidad Nacional de Colombia Especialista en Docencia Universitaria y Alta Gerencia, Universidad de Nariño Profesora Asistente. Facultad de Ingeniería. Universidad Mariana glucardenas@umariana.edu.co

El Río Pasto es una fuente hídrica muy importante porque atraviesa la ciudad que lleva su mismo nombre, convirtiéndose en receptor de todas las aguas residuales generadas. En su parte alta abastece la planta de potabilización de la ciudad, lo que hace que todos los inconvenientes de calidad y cantidad aguas arriba de la bocatoma sean temas de gran importancia para los entes gubernamentales y la población en general.

Mery Liliana López Martínez Bióloga, Universidad Nacional de Colombia Especialista en Microbiología, Universidad Católica de Manizales Profesora Asistente. Facultad de Ingeniería. Universidad Mariana mlopez@umariana.edu.co

La modelación del Río Pasto pretende convertirse en una herramienta apropiada para una planificación ordenada y holística del recurso hídrico, gracias a que permite representar alternativas propuestas y simular condiciones reales que podrían ocurrir dentro de toda una gama de posibilidades futuras, involucrando el conocimiento de todos los procesos y ecosistemas de los cuales depende el río en particular, lo cual es fundamental para que los resultados de la modelación sean representativos y puedan ser evaluados de forma adecuada.

Francisco Ricardo Maffla Chamorro Ingeniero Sanitario, Universidad del Valle Magíster en Hidrología, Universidad Nacional de Córdoba, Argentina Profesor Asistente. Facultad de Ingeniería. Universidad Mariana fmafla@umariana.edu.co

PALABRAS CLAVES Calidad de aguas, Simulación, Topología, Prueba de trazadores, Modelo Qual2Kw, Calibración, Escenarios futuros.

ABSTRACT Pasto River is a very important water source because it crosses San Juan de Pasto becoming receiver of all wastewater generated. The upper basin supplies the

Revista

57

unimar


fundamental para que los resultados de la modelación sean representativos y puedan ser evaluados de forma adecuada.

city purification plant, being the main reason of disadvantages of quality and quantity upstream from the intake, very important issues for the governmental entities and population.

Específicamente se ha propuesto evaluar diferentes alternativas o escenarios con el fin de realizar un pronóstico del cumplimiento de los objetivos de calidad del agua en el Río Pasto y de la normatividad vigente, para lo cual, actividades y obras como la construcción de una o más plantas de tratamiento de aguas residuales, el tiempo en el que se debe construir y el nivel y tipo de tratamiento necesarios de acuerdo al crecimiento poblacional e industrial de la región, serán tenidos en cuenta en los escenarios, teniendo como visión fundamental una gestión integrada del recurso hídrico.

Pasto river modeling tries to turn into an adapted tool for a tidy and holistic planning of the water resource, due to the fact that it allows to represent proposed alternatives and to simulate real conditions that might occur inside a range of future possibilities, involving the knowledge of all the processes and ecosystems on which the river especially depends, fundamental reason to evaluate the results of the modeling in a suitable form.

La modelación del Río Pasto se ejecutó en dos fases: en la fase 1 se realizó la selección de la herramienta de modelación escogiéndose el “River and Stream Water Quality Model- Qual2K” versión 2.04. Se llevó a cabo el montaje del modelo con información primaria para la quebrada Chapal y se dejó planteado un esquema topológico y una propuesta metodológica para la modelación del Río Pasto en una segunda etapa. En la Fase 2 se aplicó el modelo a la Cuenca del Río Pasto desde su nacimiento hasta la confluencia con la Quebrada Juanambú, lo que permitió que los resultados de la modelación pudieran ser utilizados para intereses de Empopasto en la zona urbana y de Corponariño en toda la cuenca.

KEY WORDS Water quality, simulation, topology, Tracer testing, Qual2Kw model, calibration, future sceneries.

INTRODUCCIÓN

E

l Río Pasto, aunque no es uno de los ríos más extensos y caudalosos del departamento de Nariño, es uno de los más importantes desde el punto de vista ambiental porque atraviesa el área del municipio en el que se asientan la ciudad de su mismo nombre y otros municipios aledaños que descargan sus aguas residuales en este importante recurso hídrico. Desde el punto de vista sanitario, es la principal fuente de abastecimiento de la planta de potabilización del Municipio de Pasto, que hace que todos los inconvenientes de calidad y cantidad aguas arriba de la bocatoma sean temas que cobran gran importancia para los entes gubernamentales y la población en general.

Esta modelación incluyó la adopción de una topología completa con descargas de aguas residuales, tributarios, quebradas y extracciones; la segmentación de los diferentes tramos; la selección de secciones de canales y de parámetros de entrada y coeficientes; la adopción y medición de los datos de caudales, velocidad, profundidad de flujo y dispersión longitudinal de contaminantes con parámetros como: Oxígeno Disuelto, Sólidos Suspendidos totales, Temperatura, Demanda Bioquímica de Oxigeno, Demanda Química de Oxigeno, Nitrógeno Orgánico Disuelto, NH3 – Nitrógeno Amoniacal, NO3 – Nitrógeno Nitrato, Fósforo Orgánico Disuelto, pH y Coliformes; el estudio de los diversos escenarios para caudales y condiciones de flujo y los correspondientes aportes de contaminación, destacándose las condiciones hidrológicas críticas de sequía y las condiciones normales de flujo. Todo esto tuvo como finalidad, obtener perfiles de calidad para cada escenario propuesto.

La modelación del Río Pasto surge como resultado de esta preocupación, que pretende convertirse en una herramienta apropiada para una planificación ordenada y holística de este recurso hídrico, de manera que se tenga en cuenta todos los aspectos técnicos necesarios para tomar decisiones acertadas y adecuadas a la individualidad del sistema, gracias a que la modelación permite representar alternativas propuestas y simular condiciones reales que podrían ocurrir dentro de toda una gama de posibilidades futuras, involucrando el conocimiento de todos los procesos y ecosistemas de los cuales depende el Río en particular, lo cual es

Revista

unimar

58


La planificación del río Pasto

que permitió el análisis de la capacidad y calidad de su desempeño.

1. METODOLOGÍA Para el desarrollo de la Modelación del Río Pasto se utilizó el modelo “River and Stream Water Quality Model- Qual2K” versión 2.07, desarrollado por la división de investigación en ecosistemas de La Agencia de Protección del Ambiente de los Estados Unidos EPA. Adicionalmente se utilizó la Versión 5.1 del Qual2Kw por la posibilidad de aplicar algoritmos genéticos como metodología para la calibración, lo cual optimizó la diferencia entre las concentraciones observadas y las predichas.

La determinación de los coeficientes hidráulicos relacionaron la velocidad y la profundidad con el caudal, coeficientes necesarios cuando se utilizó la metodología “rating curves”, recomendada para ríos de montaña con geometría irregular y presencia de cantos de gran tamaño como es el caso del Río Pasto. Se realizó Pruebas de trazadores en diferentes secciones del mismo. En el tema hidrológico se tuvo en cuenta los requerimientos de un modelo para la simulación unidimensional y en régimen estacionario de la calidad de agua del Río Pasto, el cual necesitó adoptar diferentes caudales que reflejaran variados escenarios que muestren las diferentes condiciones hidrológicas que regirán las condiciones de calidad de agua. Para tal fin la metodología utilizada consistió en la determinación de una curva regional, basada en las curvas de permanencia de caudales medios diarios, utilizando los años de registro disponibles de las estaciones hidrométricas del IDEAM ubicadas en Centenario, Universidad de Nariño y Providencia, correspondientes al tramo superior, medio e inferior del Río Pasto respectivamente.

En la recopilación y análisis de información se incluyó una revisión bibliográfica y la toma de información secundaria proveniente principalmente de entidades como Alcaldía de Pasto, Empopasto, Corponariño e IDEAM. La topología definitiva de la modelación fue desarrollada mediante visitas de campo en las cuales se definió los puntos críticos de las jornadas de monitoreo y se formuló los siguientes criterios para la selección de sitios de muestreo: -

Las descargas de aguas residuales son tenidas en cuenta si hay representatividad desde el punto de vista de calidad de agua y de caudal.

-

Las descargas que no son monitoreadas, son estimadas con los índices de contaminación por población, obtenida de los estudios históricos que ha realizado Empopasto, sobre sus principales colectores.

-

Las quebradas afluentes a la fuente principal son aforadas y monitoreadas si su caudal medio es mayor a 10 Lps y que desde el punto de vista de calidad tengan un impacto sobre el Río.

-

Las campañas de monitoreo necesitaron de la preparación logística previa que incluía la conformación de diferentes comisiones a las cuales se les asignó un determinado número de puntos de monitoreo de acuerdo a la complejidad de acceso. Las muestras fueron llevadas a los laboratorios escogidos por parámetro donde se realizó los análisis fisicoquímicos de calidad de agua correspondientes a las quebradas, descargas de aguas residuales, abstracciones y puntos de control, con los cuales se procedió a realizar el montaje y correr el modelo QUAL2Kw. Posteriormente se realizó la calibración del modelo, después de la cual se procedió a ajustar las variables correspondientes hasta que la curva calculada por el modelo fuera lo más cercana posible a la realidad.

Las quebradas no aforadas ni monitoreadas son estimadas con curvas de permanencia para el caudal y con las características fisicoquímicas asociadas a una fuente superficial poco contaminada para calidad.

Finalmente, con el modelo calibrado, se llevó a cabo la propuesta de escenarios y el montaje de ellos en el QUAL2Kw. Estos escenarios fueron planteados teniendo en cuenta las recomendaciones dadas en los términos de referencia, el PSMV, el Plan maestro de alcantarillado de Empopasto y criterios de vertimiento

Con el propósito de garantizar la confiabilidad de los datos de laboratorio se realizó una jornada de intercalibración de los laboratorios de la ciudad de Pasto

Revista

59

unimar


dados por Corponariño, desde el punto de vista técnico y económico.

punto de inyección, que determina la variación en la dispersión del contaminante.

2. ANÁLISIS DE LA INFORMACIÓN Y RESULTADOS

Para la buena realización de la prueba es necesario asegurar que:

2.1 TOPOLOGÍA -

El trazador seleccionado sea conservativo y que su concentración pueda ser medida de manera fácil y confiable, por lo que se empleó como trazador la Rodamina WT, medido con el equipo calibrado de medición y análisis de cauces Inirida Deep Flow a través de la empresa Amazonas Technology. El equipo básicamente consta de un equipo de medición de conductividad y un fluorímetro, que consiste de una sonda que emite un haz de luz que permite determinar el nivel de fluorescencia en la muestra de agua, la cual es transformada a valores de concentración de Rodamina WT, en tiempo real. La cantidad de trazador utilizada debe garantizar que la concentración medida esté por encima de la concentración límite de cuantificación, correspondiente al límite de medición de los equipos. Esto se garantizó aplicando en cada punto entre 1 y 3 gramos por m3/s.

-

Los puntos de medición son seleccionados garantizando una longitud mínima para lograr mezcla completa, para lo cual se utilizó la ecuación recomendada por Kilpatrick y Cobb1, la cual permite calcular la distancia mínima a la que debe estar el primer punto de medición, cuando se tiene una descarga instantánea en el centro del canal. La distancia entre el primero y el segundo punto de medición está entre 50 y 100 veces el ancho medio del tramo.

-

No existan efluentes ni afluentes entre los puntos de medición y el punto de inyección en lo posible.

-

Thomann y Mueller (1987) recomiendan que las mediciones de las concentraciones deben ser

La definición de la topología involucra conceptos como convergencia, conectividad y continuidad, donde diferentes nodos se muestran conectados entre sí. En la topología del Río Pasto se identificó los siguientes elementos: punto inicial, cauce principal, afluentes o descargas, abstracciones y punto final. Para obtener una topología que refleje la situación actual del Río fue necesario revisar y analizar principalmente la información existente del material cartográfico de la cuenca, especialmente topografía e hidrografía, el cual fue complementado con información de poblaciones, infraestructura vial, nombres de ríos, quebradas, corregimientos, veredas, identificación de descargas, afluentes y abstracciones con su respectiva geo-referenciación y digitalización. En el Río Pasto se tomó como punto de partida para la topología la desembocadura en el Río Juanambú. En la parte baja de la cuenca fueron creadas secciones de 500 metros debido a que las descargas de aguas residuales, quebradas y abstracciones son muy pocas y dispersas. En la parte media y alta el Río Pasto fue seccionado cada 200 metros para obtener una mayor apreciación en la gran cantidad de descargas de aguas residuales, quebradas y abstracciones que se presenta. El final de la topología corresponde al inicio del Río Pasto en la unión de las quebradas El Flautal, El Retiro y Las Tiendas. 2.2 DETERMINACIÓN DE LOS COEFICIENTES HIDRÁULICOS Por medio de un estudio o prueba de trazadores, se determina las características claves en una corriente, tales como la velocidad, el coeficiente de dispersión y la velocidad de decaimiento del contaminante. La prueba consiste básicamente en la inyección instantánea de una sustancia química, que se denomina trazador, en un punto determinado de la corriente, para posteriormente hacer mediciones periódicas de la concentración del trazador en dos puntos aguas abajo del

1 KILPATRICK, F.A. & COBB, E.D. (1985). Measurement of discharge using tracers. Techniques of water – resources investigations of the United States Geological Survey. Book 3. Chapter A16. Washington D.C. USA.

Revista

unimar

60


La planificación del río Pasto

baja, Estación IDEAM y Hospital Infantil en el perímetro urbano y Flautal-Puente San Agustín en la cuenca alta. El cuadro 1 muestra los resultados obtenidos para todos los puntos y en la Figura 1 se muestra la gráfica obtenida con el equipo de medición para la prueba realizada en la estación IDEAM sobre el Río Pasto.

realizadas hasta que la concentración de la cola de la curva Tiempo-Concentración haya disminuido hasta el 1% de la concentración máxima2 Con las consideraciones anteriores se escogió cuatro puntos sobre el Río Pasto: San Francisco en la cuenca

Cuadro 1. Resumen de resultados de campo obtenidos en la prueba de trazadores Sitio de aplicación del trazador Río Pasto

San Francisco IDEAM Hospital Infantil Flautal

Longitud (m)

Masa (gr)

660 400 500 270

10.0 10.0 8.0 2.0

Velocidad (m/s) 0.754 1.030 1.095 0.528

Caudal corregido (m3/s) 7.308 6.306 5.072 0.713

Figura 1. Representación grafica resultados prueba de trazadores Estación IDEAM

El modelo unidimensional Qual2k representa a la corriente hídrica superficial como una serie de elementos computacionales que transfieren información relacionada con el flujo en forma consecutiva, lo cual es descrito por variables tales como la velocidad y el tirante, entre otros, que definen el comportamiento hidráulico como curvas de relación, las cuales se pueden hallar sobre secciones irregulares y por medio de la selección de sitios representativos para, posteriormente, extrapolar estas condiciones a lo largo de todo el río.

Con los datos de la prueba de trazadores se puede determinar las constantes empíricas (a, b, α y β) que permiten calcular las relaciones Velocidad Media de la Corriente (U) vs Caudal (Q) y Tirante o Profundidad Media (H) vs Caudal (Q) en los elementos computacionales, asumiendo la metodología de curvas de relación debido a las características de cauces irregulares. Las ecuaciones que rigen este comportamiento hidráulico son:

Dentro de las curvas de relación los parámetros a estimar corresponden a los coeficientes y exponentes de las relaciones Profundidad Media vs. Caudal y de Velocidad Media Vs. Caudal. Los valores estimados para los diferentes sitios estudiados son mostrados en el cuadro 2.

H  Q 

U  aQ b

2 HIBBS, D.E.; PARKHILL, K.L.; KENNETH, L. & GULLIVER, J.S. (1998). Sulfur Hexafluoride gas tracer studies in streams. In: Journal of Environmental Engineering. ASCE. Vol 124 No. 8.P 1-9

Revista

61

unimar


En el cuadro 2 se presenta los coeficientes y exponentes empíricas que fueron calculadas para cada tramo del Río . Cuadro 2. Coeficientes Hidráulicos del Río Pasto Sitio

Zona

Río Pasto

IDEAM – Desembocadura Bocatoma Centenario – IDEAM Nacimiento – Bocatoma Centenario Urbana

α 0.197 0.139

H-Q

U-Q

β 0.524 0.518

a 0.456 0.643

b 0.434 0.284

0.21

0.437

0.596

0.462

0.314

0.416

0.608

0.537

2.3 HIDROLOGÍA El análisis hidrológico con miras a la modelación de calidad de agua del Río Pasto está enfocado a la estimación de caudales asociados a diferentes duraciones, los cuales van a regir los fenómenos de transporte de solutos y por ende la capacidad asimilativa y regenerativa de la corriente en estudio. Se basó en la determinación de curvas regionales de permanencia normalizadas, con base en la información de caudales medios diarios, utilizando los años de registro disponibles de las estaciones hidrométricas Centenario, Universidad de Nariño y Providencia, ubicadas en el tramo superior, medio e inferior del Río Pasto, respectivamente.

La curva de duración o curva de permanencia es un procedimiento gráfico para el análisis de la frecuencia de los datos de caudales y representa la frecuencia acumulada de ocurrencia de un caudal determinado. Es una gráfica que tiene el caudal (Q), como ordenada y el número de días del año (en % de tiempo) en que ese caudal es excedido o igualado, como abscisa. En la figura 2 se muestra las curvas de permanencia normalizadas de las estaciones Centenario, Universidad de Nariño y Providencia

Figura 2. Comparación Curvas de permanencia en Estación Centenario, Universidad de Nariño y Providencia.

Revista

unimar

62


La planificación del río Pasto

Posteriormente se extrapola esta curva regional con la relación obtenida entre el caudal medio diario de la cuenca con su correspondiente área de drenaje para las tres estaciones utilizadas, lo cual produjo un aceptable grado de correlación lineal entre dichas variables, obteniendo las diferentes curvas de duración para las distintas micro-cuencas que conforman el área en estudio (Figura 4).

Analizando la gráfica, se puede afirmar que la semejanza en el comportamiento de las curvas de permanencia normales hace que cualquiera de ellas pueda ser utilizada para la determinación de la curva regional; sin embargo, la curva de la estación Centenario es la curva de permanencia normalizada más apropiada según el criterio de área semejante a las cuencas de extrapolación.

Figura 4. Relación Área - Caudal medio en la cuenca del Río Pasto 9 8 y = 0.0178x R2 = 0.9839

7 6

Qmd

5 4 3 2 1 0 0

50

100

150

200

250

300

350

400

450

500

Area(km2)

Relación A-Qmd

Lineal (Relación A-Qmd)

Como la metodología de estimación de caudales con base en una curva de permanencia no se encuentra directamente relacionada con periodos de retorno, que tiene en cuenta la estimación de máximas y mínimas y no a la ocurrencia de eventos comunes, se hizo un análisis de relación entre máximas, mínimas y la permanencia de dichos caudales con base en la curva de duración de caudales medios diarios en la estación Centenario. La metodología empleada fue construir la serie de caudales de máximos y mínimos, ajustando los datos a diferentes distribuciones estadísticas mediante el software Hyfran, encontrando que la distribución probabilística de Gumbel por el método de momento es la que mejor representa dicho comportamiento. Al final se estima los caudales mínimos, que son los que generan condiciones más críticas asociadas a la calidad de agua en la fuente para diferentes tiempos de retorno y se procede a calcular con base en la curva de dura-

ción de caudales medios diarios de la estación Centenario, su correspondiente permanencia. Los resultados son mostrados en el Cuadro 3. Cuadro 3. Caudales Mínimos asociados a diferentes tiempos de retorno y porcentaje de permanencia para la estación Centenario Tiempo de Retorno (Años) 2 3 5 10 20 50

Q Min (m3/s)

Permanencia

0.427 0.377 0.351 0.319 0.295 0.271

3.37 1.5 1.18 0.58 0.4 0.23

Revista

63

unimar


Teniendo en cuenta esta relación y con base en los caudales existentes en los periodos de muestreo, se estima que el periodo de retorno asociado a mínimas es de 2 años.

En la ciudad de Pasto, existe un registro completo de varias jornadas de muestreo adelantado por Empopasto, donde se ha medido algunos parámetros en los principales colectores de la ciudad, lo que permite establecer estadísticamente estos valores, calculándolos por habitante.

En lo referente a la generación de escenarios mediante el modelo de calidad de agua, las permanencias utilizadas para su generación estarán referidas a mínimas y medias principalmente (Rango 5 % -50 %), lo cual se asocia a periodos de retorno entre 2 y 50 años. 2.4

Para ello inicialmente se realizó una sectorización y se determinó la población aferente por cada colector, utilizando el plano de áreas tributarias del Sistema de Información Geográfico de Empopasto y la información obtenida por el DANE en el Censo del 2005, correspondiente a la población de la cabecera municipal de Pasto organizada en un mapa de la ciudad de Pasto clasificado por sectores y subsectores. Para realizar las proyecciones de las poblaciones se utilizó el método de crecimiento Geométrico, con una tasa de crecimiento poblacional de 1.54%. Con esta metodología se pudo establecer la población aferente de cada colector que descarga directamente sobre el Río Pasto (cuadro 4).

CARGAS PERCÁPITA Y PROYECCIÓN DE POBLACIÓN

Las caracterizaciones típicas para aguas residuales domésticas son importantes porque sirven como referencia; sin embargo, la composición de las aguas residuales de cada ciudad es única y en lo posible se debe realizar los estudios pertinentes que permitan establecer su magnitud con precisión, siguiendo los métodos estándar, de manera que los resultados obtenidos sean confiables para ser aplicados.

Cuadro 4. Población aferente a los colectores con descarga directa al Río Pasto Nombre colector Box Circular Pedagógico Pedag gico Juan XXIII Interceptor Lateral Izquierdo Colector Las Américas Colector Mijitayo Colector Panamericano Club de tenis Colector Batallón Colector San Antonio Colector Juanoy Colector Calvario Descargas difusas Río R Pasto

2005 35417 131828 13502 43734 40546 34046 3953 6890 452 2630 10484 8089

Población (número de habitantes)* 2006 2010 2015 35961 38220 41245 133852 142261 153520 13709 14571 15724 44405 47195 50930 41168 43755 47218 34569 36740 39648 4014 4266 4603 6996 7435 8024 459 488 526 2670 2838 3063 10645 11314 12209 8213 8729 9420

2020 44509 165670 16968 54961 50955 42786 4968 8659 568 3305 13175 10166

* Población estimada con censo DANE 2005 y tasa de crecimiento poblacional para el Dpto. de Nariño: 1.54%

Conocida la población y las cargas estimadas en los análisis fisicoquímicos de Empopasto, se divide las cargas promedio para cada año en particular entre el número de habitantes, para obtener finalmente las cargas percápita para cada colector en gr/hab/día. Después de

realizada una depuración de información se encontró una composición típica de las aguas residuales que son vertidas al Río Pasto, las cuales se encuentran en el cuadro 5.

Revista

unimar

64


La planificación del río Pasto

Cuadro 5. Cargas percápita típicas de las ARD en Pasto Parámetro DBO DQO Sol.Susp.Volátiles Sol.Susp.Totales Sólidos Totales Fósforo Nitrógeno total Cr+6 PO-4

gr/hab*d 68.74 114.40 69.37 81.61 181.30 2.10 10.50 0.02 1.71

Parámetro NO3 NO2 NH4 Sol.Susp.Fijos Fósforo particulado Amonio soluble DBO5 soluble DQO soluble Nitrógeno orgánico

Con el dato de la población proyectada de los diferentes municipios, corregimientos y veredas, se puede utilizar los datos del cuadro 5 para estimar las concentraciones en los colectores en la zona urbana de la ciudad de Pasto. Los caudales de aguas residuales vertidas son calculados con la población proyectada para cada escenario, considerando una dotación de 200 l/hab*día.

gr/hab*d 1.37 1.11 6.72 11.74 1.41 7.12 29.86 62.23 6.93

toma, transporte y entrega adecuadas de las muestras en los laboratorios correspondientes. La selección de los parámetros a medir en la campaña de muestreo se concentró en las variables de estado del modelo de calidad del agua. Los parámetros son mostrados en el cuadro 6. Cuadro 6. Parámetros y número de muestras en las campañas de monitoreo en el Río Pasto

2.5 CAMPAÑAS DE MONITOREO

Número de Muestras

Las campañas de monitoreo son realizadas con el objetivo fundamental de obtener los datos de calidad de agua que serán introducidos en el modelo predictivo Qual2K.

PARÁMETROS DBO5 Acidez Alcalinidad SST SSV pH Temperatura Conductividad Fósforo disuelto total Nitratos DQO NTK N Amoniacal Fósforo Total Coliformes Totales Coliformes Fecales Cromo Níquel Cadmio Plomo Mercurio Sulfuros Grasas y Aceites Aforo de caudales

La condición más importante para que las campañas de muestreo pudieran ser realizadas es que se presente época de verano cuando se da las condiciones menos favorables de calidad a causa de los caudales mínimos del Río, lo cual se aseguraba con el requisito de que, para realizar las campañas de aforo y monitoreo no se presentara eventos de precipitación, como mínimo 7 días consecutivos previos a la fecha de ejecución de los muestreos; bajo esta circunstancia se estaría monitoreando el Río para una condición hidrológicamente estable y condiciones de flujo promedio o mínimo. En la topología se identificó 25 puntos, para los cuales se estableció cinco comisiones de trabajo de campo para el Río Pasto. Además, para el día de los muestreos se contó con 2 comisiones de apoyo, en caso de eventualidades. Cada comisión contaba con mínimo 5 y máximo 6 personas dentro de las cuales se contaba con un líder responsable de la parte logística del trabajo de campo, el cumplimiento de la cadena de custodia y la

Río Pasto 22 22 22 22 22 22 22 22

Quebrada Chapal 11 11 11 11 11 11 11 11

22

11

22 22 22 22 22 22 22 4 3 3 3 3 2 2 25

11 11 11 11 11 11 11 12

Revista

65

unimar


Se realizó dos campañas de aforo y monitoreo correspondientes a las jornadas de calibración y verificación de la simulación, utilizando el QUAL2Kw.

El modelo de reaireación adoptado para el desarrollo del proceso de calibración fue el del USGSpools-riffle, el cual fue seleccionado con base en la información secundaria disponible relacionada con reaireación en ríos de montaña colombianos. Las constantes de reacción fueron obtenidas por medio de la realización de iteraciones sucesivas de constantes, partiendo de experiencias documentadas en ríos de montaña (Río Chicamocha, Nepal y Pasto Fase I).

2.6 CALIBRACIÓN Con el propósito de llevar un margen de error mínimo, la diferencia entre los datos simulados por el modelo y los datos medidos en campo, se lleva a cabo la calibración, actividad que se basa en el ajuste de las constantes cinéticas que influyen en los procesos del modelo.

Las constantes de reacción encontradas son presentadas en el cuadro siguiente.

La calibración de modelos predictivos puede hacerse manualmente o basarse en algoritmos de optimización matemática integrados al modelo y a los resultados de sus corridas. Cuadro 8. Constantes de reacción del Río Pasto

Slow CBOD Fast CBOD Organic N Ammonium Nitrate

Organic P Inorganic P Detritus (POM)

Pathogens

Parámetro Hydrolysis rate Temp correction Oxidation rate Temp correction Oxidation rate Temp correction Hydrolysis Temp correction Settling velocity Nitrification Temp correction Denitrification Temp correction Sed denitrification transfer coeff Temp correction Hydrolysis Temp correction Settling velocity Settling velocity Sed P oxygen attenuation half sat constant Dissolution rate Temp correction Settling velocity Decay rate Temp correction Settling velocity Alpha constant for light mortality

pH

Partial pressure of carbon dioxide

Revista

unimar

66

Unidad /d /d /d /d m/d /d /d m/d /d m/d m/d mgO2/L /d m/d /d m/d /d per ly/hr ppm

Q. Chapal 1 1,047 0 1,047 2 1,047 1 1,07 0,24964 0,31 1,07 0,1 1,07 0,05126 1,07 0,03 1,07 0,5 1,16 1,03 3,59 1,07 0,001 1,5 1,07 0,57

Río Pasto 1 1,047 0 1,047 7 1,047 1 1,07 0,24964 0,31 1,07 1,02986 1,07 0,05126 1,07 3,4361 1,07 0,62926 0,01384 1,69154 2,7754 1,07 3,89475 0,8 1,07 1

0,63

1

372

347


La planificación del río Pasto

Con relación a estas constantes de reacción, se pudo establecer el comportamiento a lo largo del Río Pasto, de variables como: caudal, reaireación, temperatura, conductividad, oxígeno disuelto, DBO rápida, nitrógeno amoniacal, fósforo orgánico y pH. Las figuras si-

guientes muestran el comportamiento de las variables más importantes para el Río Pasto respectivamente, así: el caudal en la Figuras 5, el Oxígeno Disuelto en la Figura 6 y la DBO rápida en las Figura 7.

Figura 5. Resultados de Calibración de la Variable Caudal (m3/s) RIO PASTO FASE II (11/03/09) 8,00

1,00

0,00

50

Providencia

Bocatoma Hidroelectrica Julio Bravo

Estacion IDEAM

Antes Hospital Infantil

Antes de descarga Quebrada Miraflores

2,00

Punto Inicial

3,00

Bocatoma Centenario

4,00

Antes de PTAR La Laguna

flow (m^3/s)

5,00

Puente Club del Comercio

6,00

40

Ensillada

Casabuy

7,00

30

20

10

0

distance upstream (Km)

Q, m3/s

Q-data m3/s

5

Antes Hospital Infantil

4

Punto Inicial

dissolved oxygen (mg/L)

6

3 2

Ensillada

Providencia

Casabuy

Estacion IDEAM

7

Puente Club del Comercio

8

Bocatoma Centenario

Antes de PTAR La Laguna

9

Antes de descarga Quebrada Miraflores

RIO PASTO FASE II (11/03/09)

Bocatoma Hidroelectrica Julio Bravo

Figura 6. Resultados de calibración de la Variable Oxigeno Disuelto (mg/l)

1 0

50

40

30

20

10

0

distance upstream (Km) DO(mgO2/L)

DO (mgO2/L) data

DO(mgO2/L) Min

Minimum DO-data

Maximum DO-data

DO sat

DO(mgO2/L) Max

Revista

67

unimar


Figura 7. Resultados de calibración de la Variable DBO rápida (mg/l)

En las gráficas anteriores se observa el comportamiento de algunos parámetros indicadores de calidad para la corriente en estudio. Es el caso del oxígeno disuelto que decrece a medida que la DBO5 o DBO rápida se incrementa, debido a la relación inversa que se presenta entre estos dos parámetros, siendo más notoria la deficiencia de oxígeno en la zona urbana de las dos fuentes hídricas. Este comportamiento se debe a que la calidad del agua es alterada fácilmente ante la llegada de vertimientos, los cuales aportan concentraciones significativas en parámetros fisicoquímicos con el transcurrir de la corriente.

Gestión Ambiental Regional 2002 – 2012, el Plan de inversiones de Empopasto con relación a la construcción de colectores e interceptores de aguas residuales y los decretos y resoluciones establecidos por el Ministerio de Ambiente, Vivienda y Desarrollo Territorial para reglamentar las tasas retributivas por la utilización directa del agua como receptor de los vertimientos puntuales y sobre los Planes de Saneamiento y Manejo de Vertimientos (PSMV). El agua residual doméstica en caudal y concentración fue estimada con las poblaciones proyectadas de los municipios y asentamientos rurales y se considera que la producción industrial no afectará la producción de carga orgánica vertida en la cuenca, dado que su aumento no será significativo.

2.7 GENERACIÓN DE ESCENARIOS La definición de los escenarios se hace teniendo en cuenta una condición de caudal mínimo, momento considerado como crítico en cuanto a calidad de agua se refiere.

Los escenarios planteados para el Río Pasto y sus características son presentadas a continuación:

Fueron planteados escenarios futuros para los años 2013, 2018 y 2023. Se tiene en cuenta la reglamentación dada por el Decreto 1594 de 1984, el Plan de Manejo de Aguas Residuales (PMAR) formulado a partir de los lineamientos contenidos en el documento CONPES 3177 de julio de 2002, las políticas de manejo de aguas residuales formuladas por Corponariño en el Plan de

Dentro del escenario base se toma las condiciones encontradas en el año 2008 y se tiene en cuenta todos los vertimientos identificados y presentados en la topología de este informe. No se tiene en cuenta remociones por efecto de tratamiento de aguas residuales,

Revista

unimar

Escenario base

68


La planificación del río Pasto

a excepción de la PTAR La Laguna en la que se asume una eficiencia del 80%, con una cobertura es del 80%. Se considera que la cobertura en alcantarillado en la zona urbana del municipio es del 84%3. Los caudales de aguas superficiales aportadas por las quebradas al alcantarillado combinado son estimadas utilizando las curvas de permanencia. Los escenarios son evaluados para una permanencia del 90%. No se reporta escenarios referidos a PSMV ni metas de vertimiento de las industrias ya que en la actualidad está en proceso de definición por parte de la Autoridad Ambiental, de los objetivos de Calidad para el Río Pasto. •

Escenario de infraestructura

ejecución

de

obras

Hasta el año 2018 se considera que no hay construcción de la PTAR para la ciudad de Pasto, el vertimiento de lixiviados del relleno sanitario sin tratamiento y que no se ha implementado sistemas de tratamiento de aguas residuales en los otros municipios que vierten sus aguas contaminadas al Río Pasto. •

Escenario optimista Río Pasto año 2018

Hasta el año 2018 se espera la construcción de la PTAR con tratamiento primario. Se incluye el aporte por vertimiento de lixiviados del relleno sanitario previo a un tratamiento, el cual permite una reducción del 40% en carga como DBO5 y 40% en SST. Existen sistemas de tratamiento de aguas residuales en los otros municipios que vierten sus aguas al Río Pasto y que su eficiencia cumple con lo establecido en el Decreto 1594 de 1984.

de

Hasta el año 2013, de acuerdo al Plan de inversiones suministrado por EMPOPASTO, se espera que se haya ejecutado las siguientes obras: construcción del Interceptor Chapal y sus correspondientes estructuras de separación, construcción de la prolongación del colector margen izquierda del Río Pasto, conexión del Colector Chapal y del alcantarillado del sector Aranda al colector margen izquierdo del Río Pasto. Además se considera el aporte por vertimiento de lixiviados del relleno sanitario sin tratamiento, el vertimiento sin tratamiento de los otros municipios y el vertimiento de las industrias en forma igual al encontrado en el escenario Base. •

Escenario pesimista Río Pasto

Escenario optimista Río Pasto año 2023

Hasta el año 2023 se espera la construcción de la PTAR en su segunda etapa que incluye tratamiento secundario y una eficiencia de remoción en DBO del 85% en carga. Se incluye el aporte por vertimiento de lixiviados del relleno sanitario previo a un tratamiento, el cual permite una reducción del 80% en carga como DBO5 y 80% en SST. Se ha implementado sistemas de tratamiento de aguas residuales en los otros municipios que vierten sus aguas al río Pasto y su eficiencia cumple con lo establecido en el Decreto 1594 de 1984. Las industrias cuentan con PTAR y sus vertimientos cumplen con lo establecido en el Decreto 1594 de 1984.

Escenario medio Río Pasto

Hasta el año 2018 se espera la construcción de la primera fase del tratamiento de las aguas residuales de la ciudad de Pasto con tratamiento primario asistido con una remoción de DBO del 40% y de SST del 40% en carga contaminante. La remoción de los otros municipios y de las industrias es la misma que el escenario base.

En las figuras 8 a 11 se muestra los resultados de la Variable Oxígeno disuelto para cada uno de los escenarios futuros comparándolos con el escenario base.

3 Plan de Gestión Ambiental Regional para Nariño (PGAR, 2002 – 2012)

Revista

69

unimar


Figura 8. Simulación de OD con Escenario Base y escenarios futuros con ejecución de obras al año 2013, 2018 y 2028

Figura 9. Simulación de OD con Escenario Base y escenarios futuros con PTAR con tratamiento primario al año 2018 y 2028 (EP5 sin lixiviados y EP6 con lixiviados)

Revista

unimar

70


La planificación del río Pasto

Figura 10. Simulación de OD con Escenario Base y escenarios futuros con PTAR con tratamiento primario y secundario al año 2018 y 2028

Figura 11. Simulación de OD con Escenario Base y escenarios futuros con PTAR con tratamiento primario y secundario y tratamiento en la zona rural y en el sector industrial al año 2028

El OD es uno de los indicadores más utilizados para establecer la calidad del agua de una fuente. De acuerdo a los resultados obtenidos de la simulación el escenario Base representa la situación más desfavorable en tér-

minos de calidad del agua cuando el río atraviesa la zona urbana, con concentraciones de hasta 0.69 mg/L, valor crítico para la conservación de la flora y la fauna del Río Pasto.

Revista

71

unimar


Los escenarios de ejecución de obras presentados en la figura 8 indican un efecto positivo en el tramo urbano que hace que el valor mínimo de OD pase de 0.69 mg/L a 3.37 mg/L; sin embargo, en años posteriores el OD decrece debido al aumento de la población. Situación muy similar se presenta en la figura 9, destacando que al simular la descarga de los lixiviados del relleno sanitario, se puede apreciar que en el punto donde se realiza la descarga el OD decrece de 3.46 mg/L a 3.36 mg/L, indicando el poco impacto que tiene esta descarga en términos de OD. La figura 13 indica una mínima mejoría de la situación de calidad del río al instalar un tratamiento secundario en la PTAR de Pasto, sin llevar a

cabo ninguna acción de depuración en las otras fuentes de contaminación. En la figura 14 que simula un escenario óptimo donde se ha ejecutado sistemas de tratamiento primario y secundario a todas las descargas de aguas residuales domésticas e industriales, se puede apreciar un impacto significativo ya que el OD pasa a registrar valores superiores a 4 mg/L en todo el recorrido del río. En las figuras 12 a 15 se muestra los resultados de la variable DBO para cada uno de los escenarios futuros, comparándolos con el escenario base

Figura 12. Simulación de DBO con Escenario Base y escenarios futuros con ejecución de obras al año 2013, 2018 y 2028

Figura 13. Simulación de DBO con Escenario Base y escenarios futuros con PTAR con tratamiento primario al año 2018 y 2028

Revista

unimar

72


La planificación del río Pasto

Figura 14. Simulación de DBO con Escenario Base y escenarios futuros con PTAR con tratamiento primario y secundario al año 2018 y 2028

Figura 15. Simulación de DBO con Escenario Base y escenarios futuros con PTAR con tratamiento primario y secundario y tratamiento en la zona rural y en el sector industrial al año 2028

Los escenarios de ejecución de obras presentados en la figura 12 indican que la DBO varía entre 20 y 42 mg/L en el tramo urbano para después, aguas abajo, continuar en descenso hasta alcanzar valores menores a 20 mg/L. En la figura 16, se observa que el tratamiento

primario de la planta hace que la DBO baje alrededor del 7%, con respecto al escenario sin tratamiento. La figura 13 indica que no hay mucha diferencia entre el escenario al 2018 y el 2028 cuando se ejecute el tratamiento primario y secundario de las aguas. Sin embar-

Revista

73

unimar


go, si es apreciable la diferencia entre el escenario Base y el futuro evaluado en los años 2018 y 2028, donde la DBO en el kilómetro 40.8 decrece en un 78%. En la figura 15 se puede encontrar las condiciones óptimas donde después de la descarga de las aguas tratadas de la ciudad de Pasto, la DBO desciende un 81% con respecto al escenario Base.

CITAS BIBLIOGRÁFICAS Y REFERENCIAS ALCALDÍA MUNICIPAL DE PASTO y CORPONARIÑO. (2004). Agenda Ambiental del Municipio de Pasto. San Juan de Pasto, Colombia. AMAZONAS TECHNOLOGIES (2008). Informe técnico Prueba de trazadores Río Pasto, Quebrada Chapal.

3. CONCLUSIONES E IMPLICACIONES •

CHAPRA., S. C (1997). Surface Water Quality Modeling. Mc Graw Hill. New York, United State.

El modelo predictivo QUAL2K es un modelo altamente sensible a variables como coeficiente de Reaireacion, Caudal, Temperatura, Oxigeno Disuelto y concentraciones de DBO Rápida (DBO5) de las descargas al río, lo que permite concluir que existe una relación estrecha entre la confiabilidad del modelo y la calidad de los análisis de laboratorio. Esto implica que para eventos de modelación posteriores, la caracterización deberá ser adelantada por laboratorios debidamente normalizados, intercalibrados y acreditados, de conformidad con lo establecido en el Decreto 1600 de 1994, o las normas que lo modifiquen o sustituyan.

CHAPRA, S.C., PELLETIER, G.J. and TAO, H. (2005). QUAL2K: A Modeling Framework for Simulating River and Stream Water Quality, Version 2.04: Documentation and Users Manual. Civil and Environmental Engineering Dept., Tufts University, Medford, MA. CORPONARIÑO. (1986). Plan de Ordenamiento y manejo de la Cuenca superior del Río Pasto. San Juan de Pasto. FERNÁNDEZ N.; RAMÍREZ A. y SOLANO F. (2003). Índices Fisicoquímicos de Calidad del Agua, un Estudio Comparativo. Conferencia Internacional Usos múltiples del agua: Para la Vida y el Desarrollo Sostenible. Memorias del evento Agua 2003. Universidad del Valle y CINARA, IWA. Cartagena. Colombia.

Los resultados predictivos obtenidos con la instalación de diferentes escenarios futuros permite concluir que es indispensable cumplir con las metas establecidas por Empopasto y Corponariño para que se logre un nivel confiable de calidad de agua en el Río Pasto y en la Quebrada Chapal, así como la construcción de una Planta de Tratamiento que trate las aguas residuales domésticas del casco urbano de la ciudad de Pasto.

FISCHER H.,IMBERGER J.,LIST.,KOH E., BROOKS (1979). Mixing in Inland and Coastal Waters. Academic Press, Inc. New York. GARCÍA T., et al. Water Quality Simulation of the Chicamocha River, Colombia — an Application of the QUAL2Kw Model. XVI Congreso Latinoamericano de Hidrología e Hidráulica. Cartagena, 2008.

Para garantizar que se proyecte y realice obras adecuadas y comprobar que las obras construidas dan los resultados esperados en la planificación, se debe establecer la modelación del Río Pasto, como una herramienta de uso periódico y continuo que permita comparar los resultados de escenarios propuestos anteriormente con la realidad y que, de esta manera, se pueda hacer ajustes a tiempo en la planificación.

GOBERNACIÓN DE NARIÑO. Plan de Gestión Ambiental Regional para Nariño: PGAR, 2002 – 2012 GIA, Grupo de Investigación Ambiental; Universidad Mariana, Modelación del Río Pasto Fase I, una Herramienta de Planificación del Recurso Hídrico-, Pasto 2.008. HIBBS, D.E.; PARKHILL, K.L.; KENNETH, L. & GULLIVER, J.S. (1998). Sulfur Hexafluoride gas tracer studies in streams. In: Journal of Environmental Engineering. ASCE. Vol. 124 No. 8.P 1-9

Revista

unimar

74


La planificación del río Pasto

INGESAM (2006). Plan Para el Desarrollo del Modelo Qual2K para la cuenca del Río Chinchiná. Manizales, Colombia. KILPATRICK, F.A. & COBB, E.D. (1985). Measurement of discharge using tracers. Techniques of water – resources investigations of the United States Geological Survey. Book 3. Chapter A16. Washington D.C. USA. KILPATRICK F.A. & WILSON JR. (1982). Measurement of Time Of Travel In Streams By Dye Tracing. USGS, Denver, United State. LOZANO G.,ZAPATA, M.A. y PEÑA, L.E (2003). Selección del Modelo de Simulación de Calidad de Agua en el Proyecto “Modelación de Corrientes hídricas Superficiales en el Departamento del Quindío”. CIDERA Grupo de Investigación, desarrollo y estudio del recurso hídrico y el ambiente. Universidad del Quindío, Armenia, Colombia. PEREIRA R., (2004). Modelos de Qualidade de Água. Instituto de Pesquisas Hidráulicas, Universidade Federal do Rio Grande do Sul-UFRGS, Porto Alegre, Brasil. ROLDÁN G., (1992). Fundamentos de Limnología. Editorial Universidad de Antioquia, Medellín, Colombia. TUCCI C. (1993). Hidrología Ciência e Aplicacao. Universidade Federal do Rio Grande do Sul. UNIVERSIDAD DE NARIÑO (2003). Proyecto Código Periferia Urbana. ARD – Municipio de Pasto en: JURADO, Gustavo y PORTILLO, Viviana. Evaluación del efecto ambiental generado por el manejo inadecuado del suelo de la microcuenca Alta del Río Pasto. Trabajo de grado (Ingeniería Sanitaria y Ambiental), 2007.

Revista

75

unimar


Revista

UNIMAR


DISEÑO DIGITAL MODERNO MODERN DIGITAL DESIGN Por Jaime Orlando Ruiz Pazos Ingeniero Electrónico, Universidad del Cauca MSc. Sistemas Digitales, Instituto Superior Politécnico José Antonio Echeverría, La Habana Profesor Asistente Facultad de Ingeniería, Programa de Ingeniería Electrónica. Universidad de Nariño jaimeruiz@udenar.edu.co

Fecha de recepción: 8 de octubre de 2009 Fecha de aprobación: 21 de octubre de 2009

RESUMEN

ABSTRACT

El impresionante desarrollo de las tecnologías microelectrónicas conduce a extraordinarios niveles de integración. La capacidad de integración en el silicio se duplica cada 18 meses aproximadamente; esto permite a los fabricantes realizar el diseño de sistemas más complejos en un solo chip de silicio y en un área mucho más reducida.

The impressive development of microelectronic technologies leads to extraordinary levels of integration. The capacity of integration in the silicon doubles every 18 months approximately. It allows the manufacturers design the most complex systems in a single silicon chip and in much more limited area. Nevertheless, the capacity of developing these more complex systems in a reasonable period of time diminishes because of the increase of the complexity. The capacity of design in an integrated circuit grows to a reason of 21 % per year whereas the integration capacity does it to 58 % per year.

No obstante, la capacidad de desarrollar estos sistemas más complejos en un período de tiempo razonable, disminuye con el incremento de la complejidad. La capacidad de diseño en un circuito integrado crece a una razón de 21% anual mientras que la capacidad de integración lo hace a 58% anual.

The traditional technologies of digital design don’t take advantage of the current integration technology, as a consequence, the difference between the integration capacity and the productivity of the design seems to increase even tending to diminish the semiconductors industry growth, if it does not resort to innovative design techniques.

Las técnicas tradicionales de diseño digital no son capaces de aprovechar las ventajas de integración actuales y, como consecuencia, la diferencia entre la capacidad de integración y la productividad del diseño parece incrementarse aún más, tendiendo a disminuir el ritmo de crecimiento de la industria de los semiconductores, si no se recurre a técnicas de diseño innovadoras.

KEY WORDS PALABRAS CLAVES Modern digital design, reconfigurable hardware, FPGA.

Diseño digital moderno, Hardware reconfigurable, FPGA.

Revista

77

unimar


1. Lenguajes de descripción de hardware. 2. Dispositivos programables. 3. Sistemas empotrados. 4. Reusabilidad y Módulos de Propiedad Intelectual (IP). 5. Codiseño hardware/software (HW/SW).

INTRODUCCIÓN El diseño lógico tradicional tiene varias alternativas de implementación que, por lo general, presenta los siguientes inconvenientes: •

Gran número de CIS.

Baja fiabilidad

Dificultad de mantenimiento

Elevado consumo de área y potencia

Alto costo (directo e indirecto)

1. LENGUAJES DE DESCRIPCIÓN DE HARDWARE (HDL) En electrónica, un Lenguaje de Descripción de Hardware o HDL es cualquier lenguaje que realice la descripción software de componentes hardware. Puede describir la operación del circuito y su diseño y probarlo para su verificación por medio de la simulación. Estos lenguajes fueron desarrollados originalmente para descripción y simulación y después, para síntesis. Las ventajas que brinda el uso de HDL son:

Además, los métodos tradicionales enfrentan problemas relacionados con la situación actual del diseño digital, como: •

Implementación de sistemas más complejos.

Esfuerzo creciente en el diseño.

Difícil verificación.

Reducido tiempo para la introducción de un producto al mercado.

Ciclos de vida reducidos.

La incapacidad de las técnicas tradicionales de responder a la complejidad creciente de los sistemas digitales, la necesidad de nuevos métodos que elevaran la productividad de los diseñadores y las ventajas ofrecidas por la alta capacidad de alta integración, dieron lugar a la aparición de escenarios modernos de diseño de sistemas digitales.

El diseñador tiene la posibilidad de simular, modelar y probar un componente hardware descrito mediante un HDL antes de ser creado físicamente.

La utilización de los HDL permite un alto grado de abstracción a la hora de describir un elemento hardware. Esto posibilita a los diseñadores concentrarse en la descripción del comportamiento de dicho componente, obviando cómo será su implementación y estructura interna a nivel de compuertas lógicas.

Facilidad de reusabilidad del hardware descrito, debido a que en el proceso de diseño se utiliza tecnologías genéricas, lo que no fija la tecnología a utilizar, hasta pasos posteriores en el proceso.

Los lenguajes HDL son usados en el diseño de dos tipos de sistemas. Primero, son usados para diseñar circuitos integrados dedicados, tales como procesadores u otro tipo de circuito lógico digital. En este caso, el HDL especifica un modelo para el comportamiento esperado del circuito, el cual permite la simulación y puesta a punto del circuito antes de ser diseñado finalmente y construido. El resultado final es un chip de silicio.

Estos nuevos escenarios de diseño digital incluyen un conjunto de técnicas, herramientas y metodologías que, utilizadas de manera combinada y adecuada, permitirán incrementar la productividad de los diseñadores, valiéndose de las ventajas de la creciente capacidad de integración. Dentro de las nuevas técnicas y herramientas para el diseño digital se incluye:

El segundo uso de los HDL involucra la programación de dispositivos lógicos programables, como los PLDs, CPLDs, FPGAs (Field Programable Gate Array), etc. El

Revista

unimar

78


Diseño digital moderno

código HDL es procesado por algún compilador lógico y el fichero de salida es descargado en el dispositivo. La característica fundamental de este proceso y de la lógica programable en general, es que permite alterar el código muchas veces, recompilarlo y cargarlo en el mismo dispositivo para probar.

glos de compuertas programables por campo (FPGA). Lo que ha marcado la pauta en el avance de los PLDs es su unidad básica de programación, la cual muestra una construcción de mayor complejidad y mejores prestaciones funcionales a medida que han ido apareciendo.

Los HDLs más difundidos y con más soporte son:

Dispositivos Lógicos Programables Simple (SPLD).

VHDL (Very high speed integrated circuit HDL), sintaxis similar a ADA.

Verilog, sintaxis similar a C.

Se podría decir que los SPLDs son pequeños Circuitos Integrados de Aplicación Específica (ASIC) configurables por el usuario, capaces de realizar una determinada función lógica. Están conformados por una matriz de compuertas AND seguida de otra matriz de compuertas, OR; una de ellas o ambas, pueden ser programadas para implementar cualquier función lógica como suma de términos productos. En este caso la unidad básica de programación es la matriz de compuertas programable.

Ambos HDLs son estándares IEEE. 2. DISPOSITIVOS PROGRAMABLES Se entiende por dispositivo programable aquel circuito de propósito general que posee una estructura interna que puede ser modificada por el usuario final (o a petición suya por el fabricante) para implementar una amplia gama de aplicaciones. Los PLDs fueron muy populares desde su aparición por las nuevas ventajas que incorporaban al diseño digital. En la actualidad representan a uno de los sectores que más rápido crecimiento experimenta en la industria de los semiconductores.

Dispositivos Lógicos Programables Complejos (CPLD). Un CPLD está formado por varios bloques de PLDs simples, llamados macroceldas con un sistema de interconexión entre los mismos que permite aprovechar mejor los recursos disponibles. Estos dispositivos brindan al diseñador un número mucho mayor de compuertas lógicas, por tanto, mayor cantidad de términos productos que permiten el diseño de sistemas digitales más complejos, tanto combinacionales como secuenciales.

Inicialmente un PLD no tiene una función definida, por lo tanto antes de que se pueda utilizar en un circuito, debe ser programado; es decir, establecer las conexiones internas que determinarán una función lógica deseada.

La unidad básica de programación es la macrocelda y cada una de ellas contiene un biestable, un multiplexor y un buffer de tres estados. El flip-flop almacena el valor de salida de la compuerta, el buffer de tres estados actúa con la estructura de interconexión, la cual está conformada por un conjunto de conmutadores programables, posibilitando que un pin pueda actuar como entrada o como salida en dependencia de lo requerido por el diseñador.

Las características principales de un PLD son: •

Dispositivo con diversos recursos lógicos incorporados.

Configurable por el usuario.

Interconexiones programables.

Requieren herramientas CAD.

Arreglos de Compuertas Programables Por Campo (FPGA).

Los dispositivos lógicos programables (PLD) forman parte de los circuitos de alto nivel de integración de lógica reconfigurable, que incluye entre otros, los PLDs simples (SPLD), los PLDs complejos (CPLD) y los arre-

Los FPGAs contienen bloques lógicos relativamente independientes entre sí, con una complejidad similar a un PLD de tamaño medio, que pueden interconectarse mediante conexiones programables para formar circui-

Revista

79

unimar


• •

tos mayores. Existen FPGAs que utilizan pocos bloques grandes (Pluslogic, Altera y AMD) y otros que utilizan muchos bloques pequeños (Xilinx, AT&T, Plessey, Actel).

Bloques lógicos configurables (CLB). Bloques de entrada/salida configurables (IOB). Matrices de interconexión programable.

A diferencia de los SPLD, no utilizan arquitectura de matriz de compuertas AND seguida de la matriz de compuertas OR; consisten de una matriz bidimensional de bloques configurables que pueden ser conectados mediante recursos generales de interconexión que incluyen segmentos de pista de diferentes longitudes, más unos conmutadores programables para enlazar bloques a pistas o pistas entre sí. En realidad, lo que se programa en un FPGA son los conmutadores que sirven para realizar las conexiones entre los diferentes bloques, más la configuración de los bloques.

La celda lógica básica de un FPGA consiste en una tabla de búsqueda (lookup table, LUT) de varias entradas, un biestable que actúa como almacenador y un multiplexor, como se muestra en la figura 2. Ésta tiene una sola salida, seleccionada mediante el multiplexor y puede ser la salida almacenada o no, de la memoria (LUT). La celda lógica tiene entradas para la LUT y una entrada de reloj. Dado que las señales de reloj son enrutadas normalmente a través de conexiones dedicadas de propósito especial en FPGAs comerciales, éstas son consideradas independientemente de otras señales.

En general la complejidad de un FPGA es muy superior a la de un CPLD. La densidad de compuertas lógicas de un CPLD varía desde el equivalente de varios miles hasta decenas de miles de compuertas lógicas, mientras los FPGAs típicamente varían entre decenas de miles a varios millones.

Figura 2. Celda básica típica de un FPGA.

ENTRADAS

LUT

SALIDA

FF-D

Antes de abordar este tema es conveniente aclarar que, debido a la gran variedad de ofertas existentes en el mercado, es de suponer que parte de sus diferencias radica en su estructura interna, de tal suerte que algunas de las cosas aquí comentadas se refieren a FPGAs de Xilinx.

M U X

Clk

El nivel inmediato superior de las celdas básicas de los FPGAs de Xilinx es el SLICE; generalmente un slice contiene dos celdas básicas como lo muestra la figura 2. Entre los fabricantes de FPGAs e incluso entre las familias de un mismo fabricante, el modelo de los CLBs no es estándar. Pueden variar el número de slices por CLB, la distribución y el número de multiplexores dentro de estos.

Figura 1 Estructura interna de un FPGA.

Los bloques dedicados a la entrada/salida en los FPGAs son denominados IOB (Input/Output Block), soportan una amplia variedad de señalización I/O estándar como PCI, AGP 2X y de entrada/salida diferenciales. Esta característica brinda grandes posibilidades de conexión porque permite incluir una implementación basada en FPGA en muchos tipos de arquitecturas sin hacer cambios sustanciales. El elevado número de pines de entrada/salida de los FPGAs los hace ideales para aplicaciones que requieran el procesamiento de muchas señales digitales. En la figura 1 se muestra la estructura interna básica de un FPGA. La conforman los siguientes elementos:

Revista

unimar

80


Diseño digital moderno

Los FPGAs actuales incluyen otros elementos que están integrados y que pueden ser utilizados en cualquier momento, entre ellos se puede mencionar: •

Bloques de memoria RAM (BRAMs). Son bloques de memoria dedicados que se usan sin sacrificar la memoria RAM distribuida o los recursos lógicos para conformarla. Según el modelo del FPGA se puede tener más, o menos, de estos bloques.

Circuitos manipuladores de reloj. Son elementos muy importantes que permiten eliminar las demoras de propagación de las señales de reloj y disminuir el desfase entre las señales de reloj de salida distribuidas en el dispositivo. Con estos elementos también es posible obtener otras frecuencias, ya que son capaces de multiplicar o dividir la frecuencia del reloj de entrada.

Multiplicadores. Son recursos para realizar operaciones de multiplicación de forma muy rápida y eficiente.

Procesadores. Algunos de los FPGAs más avanzados tienen procesadores empotrados, lo cual los hace unos dispositivos muy potentes.

Se puede utilizar una memoria SRAM o RAM estática, la cual es una memoria volátil que pierde su contenido cuando no está energizada, lo que obliga a reprogramar el dispositivo siempre que éste se energice nuevamente. También se usa con frecuencia las memorias FLASH que no son volátiles; en este caso la reprogramación sería necesaria únicamente cuando haya cambios en la configuración, pero se debe tener en cuenta que éstas pueden ser reprogramadas un número de veces limitado (entre 104 y 106). El tipo más usado en FPGA es el basado en SRAM porque puede ser reprogramado cuantas veces se desee. De hecho, un SRAM FPGA, debe ser programado cada vez que se energiza, porque el chip contiene una memoria RAM volátil donde se guarda la información de la estructura de interconexiones internas y de la función lógica que va a ser implementada. En los diseños en los que se necesite configurar al FPGA inmediatamente cuando se energice el sistema, se utiliza una memoria PROM en serie con la configuración del FPGA almacenada y, cada vez que el sistema es energizado, se descarga la configuración desde la memoria al FPGA. Las principales ventajas del uso de los dispositivos programables en el diseño de sistemas digitales:

Una característica importante de mencionar, es que muchos FPGAs modernos soportan reconfiguración parcial o total in-system. Esto permite modificar los diseños dinámicamente para realizar actualizaciones del sistema o para reconfiguración dinámica como parte normal del funcionamiento del sistema. Algunos FPGAs tienen la capacidad de reconfiguración parcial, lo que permite a una parte del dispositivo ser reprogramada, mientras otras partes continúan su funcionamiento.

Facilidad de diseño: estos dispositivos facilitan el proceso de implementación de un diseño. Una vez descrito por vía esquemática y/o por medio de un HDL, el diseñador usa las herramientas de CAD para sintetizar, optimizar, simular e implementar este diseño. Esto hace que se obtenga, en muy breve tiempo, un prototipo hardware que permite empezar el proceso de verificación funcional del circuito y corrección de errores.

Flexibilidad: los diseñadores cuentan con elementos de alto nivel contenidos en los PLDs como pueden ser sumadores, multiplicadores, memorias y hasta microprocesadores.

Bajos costos de desarrollo: muchos de estos dispositivos son de bajo costo debido principalmente a la facilidad con la que se puede implementar diferentes diseños en un mismo dispositivo. Las herramientas de desarrollo son baratas y en algunos casos de libre distribución.

Programación del FPGA. Como se mencionó anteriormente la programación del FPGA es equivalente a la configuración de la estructura de conexiones mediante la programación de sus conmutadores y la configuración de los bloques para el desempeño de una función lógica determinada; esa programación debe ser almacenada en una memoria.

Revista

81

unimar


Ciclo de diseño más corto: los diseños basados en estos dispositivos reducen el tiempo de introducción al mercado, debido a la facilidad de desarrollo y al mejoramiento de las herramientas de diseño. Elaboración de prototipos: es una de sus aplicaciones ideales debido al bajo costo de implementación y a la rapidez con la que se obtiene los prototipos. Cambios posteriores en el prototipo pueden ser realizados fácilmente y sin apenas costos adicionales.

Integración de 2 ó más macrocomponentes utilizadas previamente como CI independientes.

Necesidad de combinar soporte SW y HW específico en el mismo CI.

Combinación de componentes digitales y analógicos.

Combinación (MEMS).

con

elementos

mecánicos

Debido al desarrollo exponencial que ha experimentado el campo de la microelectrónica, la implementación de sistemas en un circuito integrado (SoCs) se ha vuelto una realidad. Su evolución se ve favorecida por el alto grado de integración que puede alcanzarse y por la disponibilidad de recursos que brindan los dispositivos modernos.

Reconfiguraciones de hardware in-system: constituyen un medio ideal para aquellas aplicaciones que requieren un cambio en la funcionalidad del dispositivo durante su fase de operación. Si se necesita corregir fallos o errores de diseño, los cambios son hechos vía software. El diseño puede ser reprogramado, re-implementado y probado inmediatamente.

Los SoCs son desarrollados sobre circuitos integrados para aplicaciones específicas (ASICs). Como se conoce, la utilización de los ASICs no brinda mucha flexibilidad ni posibilidades de reconfiguración de los sistemas. Dados los recursos disponibles en los FPGAs actuales es posible implementar sistemas completos sobre estos dispositivos, obteniéndose así los denominados SoPC (System on Programable Chip).

3. SISTEMAS EMPOTRADOS Actualmente, los diseñadores integran cada vez más funciones en un solo encapsulado. Los ASICs modernos a menudo incluyen varios elementos de alto nivel como procesadores, bloques de memoria RAM, ROM, EEPROM y Flash, así como otros tipos de módulos para formar lo que se conoce como Sistemas en un Circuito Integrado (System on Chip, SoC).

En el desarrollo de ambos tipos de sistemas la etapa de depuración y simulación con las herramientas CAD es muy común. Incluso en el desarrollo de los SoC, se utiliza dispositivos programables (FPGAs) para comprobar el correcto funcionamiento del sistema, antes de comenzar la fabricación del ASIC final. Esto permite la detección de errores que pueda tener el diseño y, a su vez la corrección antes de comenzar su fabricación, porque este proceso es extremadamente costoso.

Un Sistema en un Circuito Integrado (SoC) es un diseño que contiene dos o más elementos de alto nivel como los mencionados anteriormente, desarrollado en un único circuito integrado. El objetivo de los sistemas empotrados es integrar funcionalidad diversa en un solo chip.

4. REUSABILIDAD Y MÓDULOS DE PROPIEDAD INTELECTUAL (IP)

Los microcontroladores fueron considerados los primeros SoC, porque contenían varios elementos de alto nivel como el procesador, la memoria, los temporizadores, controlador de IT y otros elementos en un solo encapsulado.

Constituyen otro de los elementos que hacen parte de los nuevos escenarios del Diseño Digital. El término reusabilidad aparece como una necesidad para tratar de aliviar la antes mencionada creciente diferencia entre la capacidad de integración (tecnología) y la capacidad de diseño (diseñadores) de los sistemas digitales. Surge por las siguientes razones:

En la actualidad las realizaciones SoC van dirigidas a satisfacer, entre otras, algunas de las siguientes necesidades:

Revista

unimar

82


Diseño digital moderno

No se puede perder tiempo en diseñar componentes ya utilizados y verificados previamente cada vez que se requiera su utilización.

Necesidad de reutilización de componentes.

Necesidad de descripciones SW (usualmente en HDLs) de componentes HW complejas.

Figura 3. Representación de un sistema empotrado utilizando módulos IP

Como el término lo indica, la reusabilidad es la capacidad de que, elementos o componentes desarrollados previamente, puedan ser reutilizados en posteriores diseños. La reusabilidad de un componente está directamente vinculada a su flexibilidad, lo que significa la capacidad de éste de ser insertado en distintos sistemas. Son muchas las ventajas de la utilización de los módulos de propiedad intelectual en el desarrollo de sistemas digitales. Las más importantes son:

Módulos de Propiedad Intelectual (IP) Para llevar a cabo la reusabilidad de los diseños, es preciso disponer de descripciones funcionales muy bien definidas de los diferentes componentes a utilizar. Estas descripciones son conocidas como Módulos de Propiedad Intelectual o Módulos IP. Los módulos IP pueden ser considerados en general como una descripción software (generalmente utilizando HDL) de un componente hardware. Estos son usados por los diseñadores de sistemas (SoC ó SoPC) para lograr un producto final más complejo. También conocidos como IP COREs o Megafunctions, los módulos IP son la base de la reusabilidad, siendo ésta una característica inherente y una de sus principales ventajas. La creciente complejidad de la tecnología de los sistemas empotrados incrementa dramáticamente la carga de diseños y crea la necesidad del empleo de módulos IP previamente verificados para simplificar el diseño de circuitos multifuncionales más complejos. El diseño de sistemas empotrados se ve muy favorecido por el desarrollo de los módulos IP y su posibilidad de reusabilidad. La figura 3 muestra un esquema de la estructura general de un SoPC, en la cual se puede observar los distintos elementos que lo componen.

Capacidad de reutilización. Permite que un componente, una vez diseñado y depurado, pueda ser incluido en cualquier sistema.

Flexibilidad en su utilización. La mayoría de los módulos IP son configurables, lo que supera un inconveniente de los componentes hardware que describen.

Mayor fiabilidad, debido a que no presentan defectos físicos de fabricación y están previamente probados y depurados.

Reducción del ciclo de diseño, lo que representa un menor tiempo para la introducción de productos al mercado.

Con la aparición de los módulos IP y su indiscutible protagonismo en las técnicas avanzadas de diseño digital, éstas han experimentado cambios: •

Se ha presentado un nuevo esquema de diseño basado en módulos IP.

El diseño digital pasa de ser puramente hardware (interconexiones de CI) a mayoritariamente software.

Revista

83

unimar


Posibilidad de desarrollos propios. Los diseñadores pueden diseñar nuevos componentes sin tener que fabricarlos físicamente (hardware).

Requiere potentes herramientas de CAD.

Alternativas tradicionales de diseño de sistemas híbridos. Tradicionalmente, las técnicas de diseño para HW y SW han sido completamente diferentes. Históricamente, estos sistemas han sido diseñados especificando el hardware y subsecuentemente haciendo el software para él.

5. CODISEÑO HARDWARE/SOFTWARE Al explorar el espacio de diseño de un sistema electrónico de cierta complejidad siempre surgen dos alternativas contrapuestas. Por un lado, el empleo de componentes estándares cuya funcionalidad puede ser definida mediante programación. Por otro, la implementación de dicha funcionalidad mediante un circuito microelectrónico, específicamente construido para la aplicación. Es bien conocido que la primera alternativa (alternativa software) proporciona soluciones que presentan una gran flexibilidad a pesar de requerir consumos de área y tiempos de ejecución elevados, mientras que la segunda (alternativa hardware) optimiza los aspectos de tamaño y velocidad de operación, sacrificando la flexibilidad de la solución. A medio camino entre ambas (sistemas híbridos), las técnicas de codiseño hardware/software (HW/SW) pretenden obtener un compromiso adecuado entre las ventajas e inconvenientes de ambas aproximaciones.

Cada tipo de implementación (HW o SW) tiene sus características. Éstas determinan que los diseñadores se inclinen por una u otra estructura para las diferentes tareas del sistema a diseñar. Las realizaciones híbridas HW/SW tienen las siguientes características: •

Particionado de tareas “a priori”. La decisión de qué tareas serán implementadas en hardware y cuáles en software, se hace basándose en la experiencia de los diseñadores. Hardware: tareas poco flexibles que requieran mayor velocidad. Software: tareas que consuman muchos recursos y no requieran de altas velocidades.

Muchos de los sistemas electrónicos modernos constan de componentes de hardware dedicado y software, ejecutándose en plataformas específicas. Los sistemas híbridos no son nuevos, pero han crecido considerablemente en los últimos años debido a las posibilidades de las realizaciones empotradas SoC ó SoPC. Esta tendencia se debe principalmente a la aplicación de técnicas de diseño desde diferentes áreas para desarrollar sistemas digitales mixtos.

Flujos de desarrollo independientes. Una vez determinados los elementos hardware y software que integrarán al sistema, el desarrollo de los mismos se realiza mediante flujos independientes, utilizando herramientas de CAD independientes.

Pueden ser realizaciones mediante CI independientes (µC + FPGA.) o empotradas (SoPC basado en módulos IP).

En la figura 4 se muestra ambos tipos de realizaciones: Figura 4. Implementación de sistemas híbridos HW/SW.

Revista

unimar

84


Diseño digital moderno

Limitaciones de las realizaciones híbridas: •

Imposibilidad de realizar simulaciones de la interacción HW/SW, antes de su integración.

Incapacidad de diseños óptimos debido a que las decisiones de partición HW/SW son tomadas por los propios diseñadores sin emplear herramientas de optimización.

Lentitud en la obtención de realimentación en las métricas de calidad.

Escasez de herramientas automáticas que permitan explorar, en tiempos cortos, las distintas alternativas de diseño.

• • •

Flexibilidad. Fiabilidad y seguridad. Verificación.

Dos de las principales características de la metodología de codiseño HW/SW son, primero: la división de los elementos hardware y software que compondrán el sistema no se realiza al inicio del proceso de diseño. Segundo: el flujo de desarrollo de estos elementos no avanza de manera independiente, pues ambos flujos interactúan a lo largo del proceso de diseño con la ayuda de las herramientas de CAD. Figura 5. Metodología de codiseño HW/SW

Codiseño HW/SW. Como alternativa a las dificultades que presentan los métodos tradicionales de diseño de sistemas híbridos, aparece la metodología de codiseño. Éste se define como la metodología que aborda como un todo, el diseño de partes tanto software como hardware, de un sistema electrónico. Por consiguiente, tal metodología de diseño emplea, tanto técnicas propias del diseño hardware, como de programación, las cuales han sido tradicionalmente consideradas como disciplinas separadas, para producir un diseño flexible y funciones locales eficientes. Además, el codiseño HW/SW debe abordar la conexión de las partes hardware y software, es decir, la generación de interfaces HW/SW. El diseño concurrente de hardware y software ha mostrado ser ventajoso cuando estos son considerados en conjunto, en lugar de entidades independientes; pero a su vez, involucrar ambos en el diseño de sistemas complejos, no es una tarea fácil.

Especificación: en esta fase se describe la funcionalidad del sistema, se plantea las restricciones y los objetivos. Análisis y transformaciones: aquí se distingue dos etapas: la primera es la de análisis, en la cual se realiza la verificación formal o simulación. La segunda es la de transformaciones y refinamiento, donde tiene lugar la conversión a formato intermedio.

El desarrollo de esta técnica requiere de muy potentes herramientas de CAD. La utilización de la metodología de codiseño HW/SW ha introducido objetivos y restricciones más fuertes en los diseños: • • • •

Partición: consiste en determinar qué partes del sistema serán implementadas en hardware y cuáles en software. Tiene como objetivo conseguir el desempeño requerido del sistema dentro de sus restricciones (costo, tamaño, consumo de potencia).

Temporización. Consumo de potencia. Productividad. Integración.

Revista

85

unimar


Síntesis del software: esta fase se complica si se considera restricciones de tiempo real. Se realiza la planificación de tareas de manera que se satisfaga todas las restricciones temporales. Ver figura 6.

Figura 7. Etapas de integración y verificación

Integración HW/SW: consiste en la síntesis de la interfaz HW/SW. Tiene como objetivo minimizar las comunicaciones entre estos componentes.

Figura 6. Etapas de síntesis de los elementos de HW y SW

Se debe aclarar que la técnica de codiseño HW/SW para el diseño y desarrollo de sistemas digitales, aunque es muy útil y sus ventajas son indiscutibles, aún no está madura, debido a la elevada complejidad que requieren las herramientas de CAD que asisten en el desarrollo de los diseños. En la actualidad, estas herramientas están en desarrollo y muchos trabajos son encaminados al perfeccionamiento de las mismas.

Verificación. Existen dos tipos: la formal, que emplea modelos matemáticos y la no formal, que lleva a cabo las simulaciones, utilizando estímulos. La verificación formal sobrepasa los límites de la simulación, al ser independiente de las entradas. La fase de verificación permite el cumplimiento de requisitos y restricciones más fuertes: •

Funcionales: temporales.

No funcionales: área, consumo, número de pines, etc.

Es muy importante mencionar que ninguna de las técnicas, herramientas y metodologías que hacen parte de los nuevos escenarios de Diseño Digital se puede ver ni valorar de forma independiente o aislada de las demás, ya que el desarrollo o utilización de cada técnica involucra a otras de ellas. Por ejemplo, el empleo de los HDLs resultaría absurdo sin la existencia de los dispositivos lógicos programables, así como no se podría desarrollar ninguna técnica sin la utilización de los HDLs y no tendría sentido mencionar el codiseño Hw/ Sw sin tener en cuenta la reusabilidad y los sistemas empotrados.

La figura 7 muestra cómo después de las etapas de integración se verifica los requerimientos iníciales del sistema.

Revista

unimar

86


Diseño digital moderno

También cabe resaltar la importancia de las herramientas de CAD en la aplicación y desarrollo del diseño digital mediante los nuevos métodos de diseño.

[10] Julio A. de Oliveira Filho, de Lima, Paulo Romero Maciel, Juliana Moura, Bruno Celso, “A Fast IP-Core Integration Methodology for SoC Design”, 2003.

La interacción y utilización combinada de las técnicas avanzadas permite:

[11] Codiseño Hardware/Software de Controladores Difusos A. Cabrera, S. Sánchez-Solano, R. Senhadji, A. Barriga, C.J. Jiménez, I. Baturone.

• Descripciones de alto nivel con elevado grado de abstracción.

[12] Sánchez, Pedro Martín, Diseño de sistemas Hardware-Software aplicando técnicas de codiseño, 2003

• Metodologías de diseño estructurado. Diseños jerárquicos. • Desarrollos SoC y SoPC. • Reducción del tiempo de desarrollo. BIBLIOGRAFÍA [1] Vaughn Betz and Jonathan Rose, Effect of the Prefabricated Routing Track Distribution on FPGA AreaEfficiency [2] Coussy, P., Baganne, A., Martin, E. A design methodology for integrating IP into SoC systems, Proceedings IEEE Custom Integrated Circuits Conference, Jan. 2000. [3] Chiang, S., Foundries and the Dawn of an Open IP Era, 2001 [4] Peter J. Ashenden,VHDL Cookbook, 1990 [5] Parnell, K., Mehta, N., Programmable Logic Design Quick Start Hand Book, Segunda edición, 2002 [6] Torres Fernández, Gildo. Análisis y Evaluación de un Módulo de Propiedad Intelectual del Microcontrolador 8051, 2006 [7] Altera Corporation. CPLDs vs. FPGAs Comparing High Capacity Programmable Logic, 1995 [8] FPGA Reuse Methodology Manual, Segunda Edición, Xilinx Inc. [9] A Complete Design Solution for Structured ASICs, Magma Design Automation, Inc, 2005

Revista

87

unimar


Revista

UNIMAR


BIODEGRADABILIDAD DE FLUJOS DE ALIMENTACIÓN En humedales artificiales piloto para el tratamiento de lixiviados del relleno sanitario “ANTANAS”. POWER FLOWS BIODEGRADABILITY In pilot artificial wetlands For the treatment of leachate fill health “ANTANAS”. Por Hernán Darío Zamora Zamora Ingeniero Químico, Universidad Nacional de Colombia Profesor Auxiliar Facultad de Ingeniería, Programa de Ingeniería Ambiental. Universidad Mariana. Sublínea de Tratamientos de Aguas, Grupo de Investigación Ambiental GIA. hzamora@umariana.edu.co

Fecha de recepción: 28 de septiembre de 2009 Fecha de aprobación: 8 de octubre de 2009

Paola Andrea Freire Guerrero Estudiante Décimo Semestre de Ingeniería Ambiental. Universidad Mariana. Proyecto Evaluación de Humedales Artificiales para Lixiviados del Relleno Sanitario Antanas. Korin Samantha Jurado Benavides Estudiante Décimo Semestre de Ingeniería Ambiental. Universidad Mariana. Proyecto Evaluación de Humedales Artificiales para Lixiviados del Relleno Sanitario Antanas.

RESUMEN El presente documento hace referencia al análisis de la biodegradabilidad utilizada como herramienta de interpretación de resultados en la evaluación de la remoción de cargas contaminantes, en términos de DBO5 y DQO de lixiviados, mediante humedales artificiales piloto como tratamiento terciario del Relleno Sanitario Antanas. La investigación fue desarrollada por la Universidad Mariana y EMAS S.A. E.S.P (entidad cofinanciadora), empresa delegada para la recolección y la disposición final de los residuos sólidos en el Relleno.

el lixiviado proveniente de la laguna anaerobia. En esta investigación se obtuvo resultados que hacen referencia a la importancia de evaluar la biodegradabilidad como una propiedad de los flujos para determinar su tipo de tratamiento. El humedal con afluente proveniente de la laguna anaerobia obtuvo mayor remoción, debido a su biodegradabilidad media y mayor cantidad de materia orgánica. La unidad que trabajó con lixiviado viejo, con baja biodegradabilidad, lo caracterizó como lixiviado estabilizado (Ozzane, 1990), lo que se ve reflejado en sus bajas y nulas remociones.

Los humedales artificiales trabajaron en forma paralela bajo las mismas condiciones pero se diferenciaron en el flujo de alimentación. Las dos unidades operaron con la misma especie vegetal (Totora) e igual material de soporte. Uno de los flujos de alimentación fue el lixiviado proveniente del vaso uno clausurado y el otro,

PALABRAS CLAVES Biodegradabilidad, Tratamiento de lixiviados, Remoción carga contaminante, Humedales artificiales.

Revista

89

unimar


ABSTRACT

situaciones: la recolección, el barrido de calles y áreas públicas y la disposición final. (Collazos, 2001).

This document refers to the analysis of the biodegradability used as a tool of results interpretation in the evaluation of loads pollutant removal, in terms of DBO5 and DQO of leachate through wetlands artificial pilot as a tertiary treatment of the Sanitary Landfill “Antanas”. The investigation was developed by Mariana University and EMAS S.A. E.S.P (cofinancier entity), as delegated company for the compilation and the final regulation of the solid residues in “Antanas” Landfill.

En la etapa de disposición final de residuos sólidos, aproximadamente 250 ton/día, en el Relleno Sanitario Antanas se genera los lixiviados, alrededor de 1L/s, los cuales presentan altas cargas contaminantes, representadas con los parámetros DBO5, DQO y SST, que perjudican al ambiente y a la salud humana. En el año 2001 se construyó el Relleno Sanitario Antanas, localizado a 13 km. del municipio de Pasto, en el sector norte, fuera del perímetro urbano de la ciudad, vía panamericana, el cual se ha proyectado para una vida útil de aproximadamente 40 años. En la actualidad se dispone los residuos sólidos del municipio de Pasto y de 20 municipios aledaños, por lo que el relleno se constituye como solución para la disposición final de los residuos sólidos de casi la tercera parte del departamento de Nariño. Por lo tanto, la alta generación de lixiviados y la búsqueda de un tratamiento adecuado para ellos, es una de las problemáticas que se afronta para mejorar la eficiencia en la disminución de su carga contaminante. Antanas cuenta con un tratamiento primario (captación y homogenización) y secundario (tratamiento biológico-proceso aerobio y anaerobio-) de sus lixiviados.

The artificial wetlands were employed in parallel form under the same conditions but they differed in the water flow. The two units operated with the same vegetable species (Totora) and the same material of support. One of the flows of power was the leachate from the first closed glass and the second one, the leachate from the anaerobic lagoon. In this research there were obtained results that refer to the importance of assessing the biodegradability as a property of flows to determine its type of treatment. The wetlands with affluent from the anaerobic lagoon obtained greater removal, due to its average biodegradability and greater amount of organic matter. The unit that worked with old leachate, with low biodegradability, characterized it like stabilized leachate (Ozzane, 1990), which is reflected in their casualties and void removals.

En Colombia la normatividad referida a vertimientos de aguas residuales industriales y domésticas en cuerpos de agua se establece en el decreto 1594 del 26 de Junio de 1984, el cual menciona los parámetros que debe cumplir todo vertimiento líquido a una fuente de agua y define los límites permisibles de contaminación en función de la remoción de los parámetros fisicoquímicos DBO5 y SST. La DQO es de interés para las autoridades ambientales regionales. Dicha eficiencia debe alcanzar el 80% de remoción de los dos parámetros mencionados. Cuando una organización social no alcanza lo exigido por el decreto, debe pagar por su contaminación a través de un instrumento económico establecido en Colombia denominado tasa retributiva, establecida por la ley 99 de 1993.

KEY WORDS biodegradability, leachate treatment, pollutant loads removal, artificial wetlands.

INTRODUCCIÓN

L

os residuos sólidos son subproductos de todas las actividades del hombre. El solo hecho de vivir, genera basura desde el mismo día en que nace hasta su muerte. En un principio el hombre producía sólo desechos biodegradables, básicamente desechos de comida; a medida que se fue “modernizando” fue cambiando su modo de vida y lógicamente sus residuos. La basura se produce continuamente: en el trabajo, en el proceso de elaboración de comida, en la industria, en las actividades deportivas, etc. En relación con el manejo de la basura se presenta tres

1. METODOLOGÍA La ejecución de la investigación se articuló bajo cuatro etapas: se inició con un dimensionamiento a escala piloto de los sistemas de humedales artificiales contemplando un modelo de diseño preestablecido, seguido

Revista

unimar

90


Biodegradabilidad de flujos de alimentación

de la implementación de dichos sistemas, teniendo en cuenta dos configuraciones; luego se ejecutó el proceso de arranque y estabilización y, por último, la evaluación de su funcionamiento individual. Las configuraciones construidas están resumidas en la tabla 1.

2.2. IMPLEMENTACIÓN DE LOS SISTEMAS PILOTO Con base en el diseño se llevó a cabo la construcción, adecuación y pre-arranque de las unidades piloto con sus diferentes configuraciones. Las etapas de construcción y adecuación fueron realizadas entre los meses de febrero y mayo del 2008. Posteriormente se ejecutó la etapa de pre-arranque durante el mes de junio y parte de julio de 2008.

Tabla No. 1. Configuraciones de los humedales Variables Flujo de alimentación Material de soporte Especie vegetal

Humedal H1 Lixiviado viejo

Humedal H2 Efluente de la laguna anaerobia

Grava

Grava

Totora

Totora

En la etapa de construcción, la principal actividad realizada fue la excavación y movimiento de tierra junto con la impermeabilización de las unidades. En la adecuación se llevó a cabo actividades como instalación de tubería y construcción de cámaras para la alimentación y descarga de los sistemas junto con la acertada distribución según el diseño del material de soporte correspondiente a cada unidad. En la etapa de pre-arranque se realizó una inoculación del lecho de soporte de los humedales con parte del efluente de la laguna aerobia, para luego hacer el respectivo trasplante de las especies. Posterior a esto se alimentó las unidades con flujo mezclado por agua cruda y lixiviado proveniente de la laguna anaerobia, con el fin de minimizar el impacto que produce el contacto de lixiviado con las especies vegetales.

2. RESULTADOS Y ANÁLISIS 2.1. DISEÑO DE LOS HUMEDALES ARTIFICIALES El modelo de diseño corresponde al sugerido por Sherwood C. Reed (EPA) en las publicaciones: Design Manual; Constructed Wetlands and Aquatic Plant Systems for Municipal Wastewater Treatment (1988) y Subsurface Flow Constructed Wetlands for Wastewater Treatment; A Technology Assessment (1993). En la tabla 2 se resume las características de diseño y operación de cada una de las configuraciones establecidas.

2.3. EFICIENCIAS INDIVIDUALES DE REMOCIÓN DE CARGA CONTAMINANTE DE LAS DIFERENTES CONFIGURACIONES.

Tabla No. 2. Condiciones de diseño y operación de los humedales artificiales Parámetro Longitud, L Ancho, W Temperatura promedio, T Profundidad del agua, y Área superficial, As Porosidad (material limpio), n Caudal de operación, Q Tiempo de retención, t Diámetro material de soporte Cantidad de plantas Densidad de vegetación

Humedal H1 8m 2,8m 12°C 0,6m 22,4m2

Humedal H2 8m 2,8m 12°C 0,6m 22,4m2

0,529

0,529

20 mL/s 3 días

20 mL/s 3 días

1,27 cm

1,27 cm

21 1/m2

21 1/m2

La evaluación de los sistemas se obtiene a través del cálculo de las remociones de cargas contaminantes basadas en las caracterizaciones de los parámetros DBO5 y DQO y de los respectivos caudales de operación de los humedales artificiales en el Relleno Sanitario Antanas. Para el cálculo de las cargas contaminantes de entrada y salida de cada uno de los parámetros se utiliza la ecuación 1 y para obtener los datos de porcentaje de remoción fue utilizada la ecuación 2.

CC = Q.C

Ecuación 1

donde: Carga Contaminante, kg/día; CC: Q: Caudal de operación, L/día C: Concentración del parámetro kg/L

Revista

91

unimar


Ecuación 2 donde: % de R: Porcentaje de remoción, %; CCen: Carga contaminante de la entrada, kg/día CCsal: Carga contaminante de la salida, kg/día

el caudal a través de aforos volumétricos y su correspondiente alimentación de las unidades sin mezcla de flujos. Posterior a la etapa de pre-arranque de las unidades, se ejecutó la correspondiente al arranque y evaluación. Las muestras que se tomó para las caracterizaciones realizadas en el laboratorio de la Universidad Mariana bajo la metodología que se describe en el libro Standard Method for the Examination of Water and Wastewater, APHA, 19th Edición 1997, son puntuales y fueron realizadas en las cámaras ubicadas en la entrada y salida de cada humedal.

Las jornadas de muestreo con su respectiva caracterización fisicoquímica y eficiencia de remoción en porcentaje (% R) de los parámetros seleccionados indicados en la tabla 3, fueron desarrollados desde la última semana del mes de julio, en la cual se controló

Tabla No. 3. Caracterizaciones de entrada-salida y porcentaje de remoción de los sistemas

Entra

Humedal H1 % R Sale

DQO, mg/L Entra

Sale

720

420

41,7

32550

26250

19,4

55,8

360

370

-3

7840

6440

17,9

3

53,3

720

1080

-50

4048

7618

-88

*14-08

4

53,2

120

180

-50

4375

6300

-44

*21-08

5

55,3

600

720

-20

4333

3827

11,7

8-09

6

42,5

180

300

-66

3220

3360

-4

18-09

7

20,1

300

400

-33

3360

6300

-87

24-10

8

19,5

720

1080

-50

2380

2450

-3

30-10

9

19,7

750

1800

-140

1820

3920

-115

6-11

10

21,8

500

1400

-180

2380

2380

0,0

20-11

11

21,5

-

-

-

-

Fecha 2008

Jornada

Caudal, Q, L/s

DBO5, mg/L Entra

Sale

Entra

Sale

*24-07

1

53,2

2280

1230

46,1

42350

21350

49,6

*31-07

2

55,1

1980

1280

35,4

8260

8400

-2

*8-08

3

55,7

2400

960

60,0

9473

4048

57,3

*14-08

4

53,4

2100

2100

0,0

7000

13125

-88

*21-08

5

50,6

2220

1620

27

7233

5833

19,4

8-09

6

18,8

1260

960

23,8

7000

6160

12

18-09

7

21,9

2280

2160

5,3

10080

4340

56,9

24-10

8

21,5

4800

600

87,5

12950

3600

72,2

30-10

9

18,6

5343

5063

5,2

14175

13300

6,2

6-11

10

20,1

6300

1200

80,9

13020

2380

81,7

20-11

11

21,4

495

4500

9,1

11480

5040

56,1

Fecha 2008

Jornada

Caudal, Q, L/s

*24-07

1

55,6

*31-07

2

*8-08

DBO5, mg/L

Humedal H2 % R

Revista

unimar

92

% R

DQO, mg/L

% R


Biodegradabilidad de flujos de alimentación

De acuerdo con la información recolectada, en la tabla 3 se puede observar que las eficiencias de remoción de DQO y DBO5 para el humedal H1 son, en su mayoría, negativas, lo cual nos indica que la cantidad de materia orgánica presente en el lixiviado viejo es baja o escasa y no existe oxidación por parte de los microorganismos, actividad metabólica mínima (Lara 1999). Según Ozzane (1990) este tipo de lixiviado es caracterizado como lixiviado estabilizado. Además, la baja remoción de DBO5 y DQO puede indicar que existe poca cantidad y diversidad de microorganismos y con esto la escasa disponibilidad de materia orgánica y su respectiva degradación (Kurniawan et al., 2005 y Wiszniowski et al., 2006).

una cantidad significativa de materia orgánica e inorgánica, que permite el albergue de microorganismos, (Ñique 1990), se puede afirmar que las remociones de carga contaminante de los parámetros DBO5 y DQO son debidas a los organismos presentes en los sustratos que contribuyen a la degradación de la materia orgánica, como afirma Lara (1990). 2.4. BIODEGRADABILIDAD DE LOS FLUJOS DE ALIMENTACIÓN. Según Peralta (2003) “la relación entre la DBO y la DQO indica la biodegradabilidad de un flujo. Así, cuando la relación DBO/DQO es inferior a 0.2, el flujo es poco biodegradable; entre 0.2 y 0.4 es biodegradable y con valores superiores a 0.4 indica flujos altamente biodegradables”. La tabla 4 indica la relación de concentraciones de DBO5/DQO para los flujos de alimentación de los humedales (Configuración H1 y H2). Se construyó la gráfica 1 con el fin de visualizar mejor la biodegradabilidad de los flujos de alimentación de los humedales (flujo de lixiviado que proviene de la salida de la laguna anaerobia y el flujo correspondiente al lixiviado viejo).

En el humedal H2 (alimentado por lixiviado proveniente de la laguna anaerobia) existe mayor remoción de DQO y DBO5, ya que en dicho lixiviado hay mayor cantidad de materia orgánica disponible, lo que concuerda con Seoánez (1999). Se podría deducir que tanto la especie vegetal como los microorganismos están aprovechando dicha materia orgánica para el desarrollo de nuevas células y transformación de energía. (Lahora, 2000). Teniendo en cuenta que el alimento del humedal, el lixiviado proveniente de la laguna anaerobia, contiene

Tabla No. 4. Biodegradabilidad del lixiviado proveniente de la laguna anaerobia y del lixiviado viejo. Biodegradabilidad (DBO5/DQO) Fecha 2008

Jornada

Lixiviado viejo

Lixiviado proveniente de la laguna anaerobia

24 DE JULIO 31 DE JULIO

1 2

0,02 0,05

0,05 0,24

8 DE AGOSTO 14 DE AGOSTO 21 DE AGOSTO 8 DE SEPTIEMBRE 18 DE SEPTIEMBRE 24 DE OCTUBRE 30 DE OCTUBRE 6 DE NOVIEMBRE 20 DE NOVIEMBRE

3 4 5 6 7 8 9 10 11

0,18 0,03 0,14 0,06 0,09 0,30 0,47 0,21 -

0,25 0,3 0,31 0,19 0,23 0,37 0,37 0,48 0,43

Revista

93

unimar


La relación DBO/DQO del lixiviado proveniente de la laguna anaerobia arroja, en su mayoría, valores superiores a 0.2, lo que indica que es biodegradable, favoreciendo un mayor consumo de materia orgánica por parte de los humedales H2, H3 y H4. Por el contrario, el lixiviado viejo coincide con lo que mencionan Ehrig (1983) y Ozzane (1990): un lixiviado viejo tiene una biodegradabilidad baja y es clasificado como lixiviado estabilizado, lo cual implica que es difícilmente oxidable.

REFERENCIAS 1. Borrero, J. Depuración de aguas residuales municipales con humedales artificiales. Trabajo final Master en Ingeniería y Gestión Ambiental-. Instituto Catalán de Tecnología. Universidad Politécnica de Cataluña. Barcelona, España. 1999.

Según el Sistema de Información Nacional Ambiental de Colombia (SINA), para el lixiviado viejo se recomienda hacer un tratamiento de tipo fisicoquímico por su baja biodegradabilidad, lo que no le permite realizar una adecuada remoción cuando se utiliza tratamiento de tipo biológico (humedal artificial), a diferencia del lixiviado proveniente de la laguna anaerobia, para el que se recomienda un tratamiento de tipo biológico por su aceptable biodegradabilidad.

2. Collazos, H. Diseño y Operación de Rellenos Sanitarios. Editorial Carrera 7ª. Bogotá, D.C., Colombia. 2001. 3. Duran, A. Bioadsorción de lixiviados viejos clarificados. Instituto de Ingeniería, UNAM Coordinación de Ingeniería Ambiental. México D.F. México. 1999. http://www.bvsde.paho.org/bvsaidis/mexico13/055.pdf.

3. CONCLUSIONES •

Los humedales artificiales, como unidades para el tratamiento del lixiviado proveniente de la laguna anaerobia, reducen la carga contaminante del mencionado flujo de alimentación.

4. EPA (U.S. Environmental Protection Agency). Design Manual, Constructed Wetlands and Aquatic Plant Systems for Municipal Wastewater Treatment. Cincinnati, U.S.A. 1988. http://www.epa.gov/ owow/wetlands/pdf/design.pdf.

La biodegradabilidad es un factor que determina las propiedades y capacidades de un lixiviado para poder ser degradado por sistemas de tratamiento biológico o fisicoquímico.

Revista

unimar

El lixiviado viejo posee baja capacidad de biodegradabilidad, caracterizándolo como un lixiviado estabilizado, con respecto al lixiviado proveniente de la laguna anaerobia, lo cual se ve reflejado en los resultados de remoción de ambas unidades, donde se puede observar una mayor eficiencia en el rendimiento que tiene la unidad dos.

94


Biodegradabilidad de flujos de alimentación

5. EPA (U.S. Environmental Protection Agency). Subsurface flow constructed wetlands for wastewater treatment; A technology assessment. Cincinnati, U.S.A. 1993. http://www.epa.gov/owow/wetlands/ pdf/sub.pdf. 6. Lahora, A. Depuración de aguas residuales mediante humedales artificiales: La Edar de los Gallardos (Almería). Almería, España. 2000. http://dialnet. unirioja.es/servlet/fichero_articulo?codigo=22448 38&orden=78643. 7. Llurba, M. “Parámetros a tener en cuenta en los sustratos”. Revista Horticultura Nº 125 - Diciembre 1997. Madrid, España. http://www.mapa.es/ministerio/pags/biblioteca/revistas/pdf_Hort/Hort_1997_ 125_31_35.pdf. 8. Peralta, F., et al. Diseño de lagunas de estabilización para tratamientos de aguas residuales de la industria procesadora (empacadoras) de Camarón. Trabajo final -Ingeniero Acuicultor. Guayaquil, Ecuador. 1999. http://www.dspace.espol.edu.ec/ bitstream/123456789/4557/1/7078.pdf. 9. Seoánez, G. Aguas residuales: tratamiento por humedales artificiales. Fundamentos científicos. Tecnologías. Diseño. Editorial Ilustrated. Barcelona, España. 1999. 10. Shannon, R. Subsurface flow constructed wetlands performance at a Pennsylvania campground and conference center. Valparaíso, Chile. 2006. http://ucv.altavoz.net/prontus_unidacad/site/artic/20061215/asocfile/20061215115154/sotomayor_cristian.pdf

Revista

95

unimar


Revista

UNIMAR


INGENIERÍA DE SISTEMAS: Retrospectiva y desafios SYSTEMS ENGINEERING: Retrospective and challenges Por Giovanni Albeiro Hernández Pantoja Ingeniero de Sistemas – Universidad de Nariño Especialista en Gerencia Informática – Corporación Remington Docente Universidad Mariana gihernandez@umariana.edu.co Álvaro Alexander Martínez Navarro Ingeniero de Sistemas - Universidad Mariana Especialista en Docencia Universitaria Universidad de Nariño Magíster en Docencia Universitaria Docente - Universidad Mariana amartinez@umariana.edu.co

Fecha de recepción: 28 de septiembre de 2009 Fecha de aprobación: 28 de octubre de 2009

RESUMEN Con el propósito de caracterizar la disciplina de la Ingeniería de Sistemas y establecer qué elementos conforman los perfiles de los Ingenieros de Sistemas en Colombia, se desarrolló un estudio fundamentado en las publicaciones, resultado del trabajo de estudios formales, periódicos y de reconocido prestigio, de instituciones, organizaciones, comités y asociaciones en 3 contextos: regional, nacional e internacional.

ría de Sistemas (2.) Contexto: circunstancias específicas de lugar y tiempo (3.) Antecedentes: para los perfiles del Ingeniero de Sistemas en Colombia el estudio se categorizó en: (a.) Ingeniero de Sistemas en Colombia (b.) Responsabilidades (c.) Parámetros para establecer un perfil. Finalmente se concluye con el estado actual de la profesión, algunas reflexiones y formulación de algunas tendencias.

La falta de unicidad en la definición de la Ingeniería de Sistemas y los avances a nivel de la Ingeniería, Ciencia y Tecnología han generado la necesidad de desarrollar un estado del arte basado en la revisión documental de estudios relacionados directamente con la disciplina de la Ingeniería de Sistemas o con áreas afines que fundamentan la formación de los profesionales, identificando sus orígenes, evolución, tendencias actuales y desafíos y permitiendo redefinir las características que deben conformar a un profesional en el área de Ingeniería de Sistemas.

PALABRAS CLAVE Ingeniería de Sistemas, Contexto, Perfil. ABSTRACT In order to characterize the discipline of Systems Engineering and establish the elements that make up the profiles of System Engineers in Colombia, it was developed a study having as basis the publications resulting from the work of formal studies, newspapers and recognized prestige of institutions, organizations,

Para la definición de la Ingeniería de Sistemas el estudio se categorizó en (1.) Definición: declaración de las propiedades, equivalencia y significado de la Ingenie-

Revista

97

unimar


committees and associations in 3 contexts: regional, national and international.

En el ámbito universitario esta problemática es de sensible interés debido a que el currículo para el programa de Ingeniería de Sistemas debe estar en permanente actualización y es una obligación de la Universidad formar profesionales para los desafíos y tendencias actuales que exige el mercado en sus diferentes contextos.

The lack of uniqueness in the definition of Systems Engineering and the developments in the Engineering, Science and Technology have created a need to develop a state of art based on the literature review of studies that are directly related to the discipline of Systems Engineering or with related areas that support the training of professionals to identify their origins, evolution, current trends and challenges allowing reconfigure the characteristics that must conform a professional in the area of Systems Engineering.

Considerando los requerimientos actuales y el interés de este tema, el estudio que se presenta en este artículo establece como propósito, realizar un estado del arte de la profesión basado en el análisis documental y, sobre esta base, extraer las características de la Ingeniería de Sistemas desde los contextos regional, nacional e internacional e identificar los elementos del perfil del Ingeniero de Sistemas en Colombia.

For the definition of Systems Engineering the study was categorized as (1.) Definition: statement of the properties, equivalence and meaning of the Systems Engineering (2.) Context: specific circumstances of time and place (3.) Background: for Systems Engineer profiles in Colombia the study was categorized into: (a.) Systems Engineer in Colombia (b.) Responsibilities. (c.) Parameters for establishing a profile.

MÉTODO Diseño y procedimiento Como primera etapa se hizo la revisión de las principales fuentes locales, nacionales e internacionales relacionadas con las problematizaciones, obteniéndose documentación oficial a través de la Web.

We conclude with the current state of the profession, some thoughts and some trends. KEY WORDS

El criterio que guió la clasificación inicial de los documentos fue basado en el enunciado que conforma su título de publicación. Realizado este agrupamiento se seleccionó la introducción y/o resumen para identificar temas relacionados con las problemáticas, reagrupar y, posteriormente, realizar una revisión completa del documento. Como resultado de esta etapa fueron creadas las fichas documentales.

Systems Engineering, Context, Profile

INTRODUCCIÓN

L

a Ingeniería de Sistemas es una disciplina en permanente cambio porque se encuentra estrechamente ligada a los avances que se desprenden de su objeto de estudio y actividad. Por este motivo, la investigación periódica de las tendencias actuales permite redefinir las características que debe tener un profesional en el área. A nivel regional, nacional e internacional se ha adelantado estudios por parte de comités, asociaciones, universidades, institutos e instituciones gubernamentales, que han permitido realizar algunas publicaciones relacionadas directamente con la disciplina de la Ingeniería de Sistemas o con áreas afines que fundamentan la formación de sus profesionales; no obstante, no se ha podido identificar de manera clara cuáles son las características de la disciplina, debido a que siempre ha estado regida por los avances que a nivel de la Ingeniería, Ciencia y Tecnología se presenta.

El resultado de este proceso permitió la clasificación de los documentos por categorías y la creación de una base documental para su análisis que admitía estructurar el archivo digital apropiado para comprender la epistemología de la Ingeniería de Sistemas y sus perfiles actuales en Colombia. El propósito final es realizar algunas inferencias que orienten una identificación de elementos comunes que se debe tener en cuenta para orientar la formación del profesional en Ingeniería de Sistemas actualmente y hacia futuro.

Revista

unimar

98


Ingenieria de sistemas: retrospectiva y desafios

Materiales Para conseguir el objetivo de este estudio, la búsqueda de referencias a documentos se realizó en ocho fuentes de reconocido prestigio, que permitieron llevar a cabo esta revisión teórica, a saber: ACIS, ACM,

ACOFI, CONACES, otros referentes nacionales, otros referentes internacionales, referentes universitarios y documentación institucional de la Universidad Mariana.

La tabla 1 muestra la cantidad de documentos considerados de interés para este estudio. Tabla 1. Resumen del material consultado

1 2 3 4 5 6 7 8

FUENTE ACIS ACM ACOFI CONACES OTROS REFERENTES NACIONALES OTROS REFERENTES INTERNACIONALES REFERENTES UNIVERSITARIOS DOCUMENTACIÓN INSTITUCIONAL UNIVERSIDAD MARIANA

La Asociación Colombiana de Ingenieros de Sistemas ACIS es una organización sin ánimo de lucro que agrupa a más de 1500 profesionales en el área de sistemas. ACIS se ha constituido en los últimos años como un gestor de publicaciones de gran reconocimiento que busca cubrir las diferentes áreas tecnológicas de la Ingeniería de Sistemas.

DOCUMENTOS 3 6 2 4 9 6 3 3

nicos, tecnológicos, profesionales universitarios y de postgrados”2 a través de reglamentaciones. En otros referentes nacionales se incluyó documentos gubernamentales, de federaciones y publicaciones de revistas académicas relacionados con políticas de desarrollo para el país en lo concerniente a TIC’s y el sector software y servicios de TI.

La Association for Computing Machinery - ACM es la sociedad científica y educativa en computación más grande del mundo, provee recursos para el desarrollo de la computación como ciencia y como profesión. ACM tiene una biblioteca digital con recursos en el campo de la computación como publicaciones, conferencias y lineamiento para la disciplina.

En otros referentes internacionales fueron incluidos documentos y publicaciones sobre políticas para generar desarrollo en lo concerniente a TIC’s y el sector software y servicios de TI. En referentes universitarios se tomó las publicaciones relacionadas con nuevos enfoques de formación en la Ingeniería de Sistemas y procesos de transformación curricular de universidades acreditadas en alta calidad.

La Asociación Colombiana de Facultades de Ingeniería - ACOFI es la encargada de “propender por el impulso y el mejoramiento de la calidad de las actividades de docencia, investigación y extensión en ingeniería que desarrollan las facultades, escuelas y programas de ingeniería en Colombia.”1

ACOFI. (2009). Asociación Colombiana de Facultades de Ingeniería. Recuperado el 16 de 9 de 2009, de http://www.acofi.edu.co/portal/interior.php?CdP= MISION&CdIdioma=ESP 2 CONACES. (2009). Ministerio de Educación Nacional. Recuperado el 16 de 9 de 2009, de http://www. mineducacion.gov.co/1621/article-85677.html 1

La Comisión Nacional Intersectorial de Aseguramiento de la Calidad – CONACES tiene como propósito “asegurar el cumplimiento de las condiciones mínimas de calidad por parte de los programas que se ofrece en Educación Superior en cualquiera de sus niveles: téc-

Revista

99

unimar


En la documentación institucional de la Universidad Mariana se tuvo en cuenta los documentos donde se plasma el inicio de la Ingeniería de Sistemas en Nariño.

tativas de los temas tratados. La primera cuestión es acerca de la Ingeniería de Sistemas en los contextos regional, nacional e internacional y la segunda es sobre los elementos que definen el perfil del Ingeniero de Sistemas en Colombia. Además se define algunas categorías e indicadores que permiten la valoración de las contribuciones analizadas. La tabla 2 contiene las unidades de análisis, las categorías y las preguntas orientadoras.

Unidades de análisis La revisión global del contenido de los documentos seleccionados sugirió enmarcar el estudio en dos cuestiones claves, suficientemente relevantes y represen-

Tabla 2. Unidades, categorías y preguntas orientadoras para el análisis del contenido. UNIDADES DE ANÁLISIS

CATEGORÍA Definición: declaración de las propiedades, equivalencia y significado de la IS.

La Ingeniería de Sistemas (local, nacional internacional)

Contexto: circunstancias específicas del lugar y tiempo

PREGUNTAS ORIENTADORAS a. b. c. d. e. f.

El perfil del Ingeniero de Sistemas

Antecedentes: caracterización de la IS

g.

Ingeniero de Sistemas en Colombia

a. b. c.

Responsabilidades Parámetros para establecer un perfil

d. e.

¿Qué es la Ingeniería de Sistemas? ¿Cuáles son las áreas de conocimiento de la Ingeniería de Sistemas? ¿Cuáles son los antecedentes de la Ingeniería de Sistemas en Colombia? ¿Cuáles son las necesidades reales de formación del Ingeniero de Sistemas? ¿Cuál es el estado actual de la formación en el área de conocimiento? ¿Cuál es el objeto de estudio de la Ingeniería de Sistemas? ¿Cuál es la visión futura de la profesión de Ingeniería de Sistemas? ¿Qué es perfil? ¿Qué clases de perfil existen? ¿Cuáles son los referentes de perfiles de los Ingenieros de Sistemas? ¿Cuáles son sus habilidades y competencias? ¿Cuáles son las oportunidades potenciales o existentes de desempeño?

RESULTADOS mentos revisados para la definición de la Ingeniería de Sistemas fueron 9, que corresponden al 17.3% del total de documentos revisados. La tabla 3 muestra la distribución de las referencias consultadas en este primer bloque.

La Ingeniería de Sistemas en los contextos local, nacional e internacional: El primer análisis empieza por las categorías para la unidad de análisis de la Ingeniería de Sistemas desde los contextos regional, nacional e internacional. Los docu-

Revista

unimar

100


Ingenieria de sistemas: retrospectiva y desafios

Tabla 3. Resumen de documentos referenciados a la Ingeniería de Sistemas en los contextos regional, nacional e internacional

Categorías

Total documentos

Porcentaje

Definición: declaración de las propiedades, equivalencia y significado de la IS.

9

17.3%

Contexto: circunstancias específicas del lugar y tiempo

14

26.9%

Antecedentes: caracterización de la IS

5

9.6%

En el análisis realizado, enfocado en la definición de la Ingeniería de Sistemas y partiendo del objeto de estudio de la actividad, se encontró que éste se enmarca principalmente en los procesos mecánicos y sistemáticos de la información, que es la base para realizar una acción o tomar decisiones (Tarazona & Toro, 1997).

El área de las Ciencias de la Computación (CC) se enfoca en los fundamentos teóricos y algorítmicos para desarrollos en Robótica, Visión por computador, Sistemas inteligentes, Bioinformática y otras interesantes áreas de la computación. El área de la Ingeniería de Software (SE) se enfoca al desarrollo y mantenimiento de sistemas software de manera confiable y eficiente, que satisfaga los requerimientos que los usuarios han definido. El área de Sistemas de Información (IS) se enfoca a la integración de soluciones de tecnología informática y procesos de negocios para conocer las necesidades de información de los negocios, de las empresas y alcanzar sus objetivos de una manera eficaz y eficiente. Esta disciplina hace énfasis en la información y visualiza la tecnología como un instrumento para generarla, procesarla y distribuirla (The Association for Computing Machinery –ACM-, The Association for Information Systems –AIS-, The Computer Society -IEEE-CS-, 2006).

Además es necesario resaltar que el objeto de estudio de la Ingeniería de Sistemas es reducido por algunos de sus profesionales, al uso y dominio de las herramientas para el proceso de la información; esto es, a las ciencias computacionales; otros, lo enmarcan al uso y dominio de las metodologías utilizadas para el análisis de los procesos de información, derivadas en su mayoría de la Teoría General de Sistemas - TGS, de donde se cree, de manera equivocada, deriva la denominación del título profesional; el estudio de la información, su comportamiento y los procesos en un contexto específico, aplicando metodologías derivadas de la TGS y utilizando de manera eficiente y productiva las herramientas computacionales y de comunicaciones disponibles por el avance tecnológico, es para otros, el objetivo de la profesión (Oramas, 2007).

Mientras en Colombia ACOFI e ICFES definían el objeto de estudio de la Ingeniería de Sistemas, su principal referente ACM terminaba de desarrollar el reporte para currículos en computación, que fue publicado en el año 2006, donde aparece una nueva área de la computación denominada Tecnología de la Información (IT). En un amplio sentido, el término IT hace referencia a todo lo relacionado con computación. Académicamente hace referencia a los programas de pregrado que forman estudiantes en el conocimiento de la infraestructura tecnológica como soporte para las necesidades de las organizaciones. La IT hace más énfasis en la tecnología que en la información y es un área que rápidamente ha crecido como respuesta a las necesidades diarias cambiantes de los negocios y las organizaciones (The Association for Computing Machin-

Uno de los grandes inconvenientes al tratar de definir la carrera de Ingeniería de Sistemas, a nivel nacional e internacional, era la falta de unicidad en la definición del objeto de estudio de la profesión. Actualmente, se puede afirmar que los programas de pregrado en Ingeniería de Sistemas en Colombia están enmarcados dentro de las áreas de las Ciencias de la Computación, Ingeniería de Software y Sistemas de Información (ICFES - ACOFI, 2005). Para definir las áreas que fundamentan a la Ingeniería de Sistemas en cuanto a su objeto de estudio, se tiene como referente internacional principal a ACM.

Revista

101

unimar


ery –ACM-, The Association for Information Systems –AIS-, The Computer Society -IEEE-CS-, 2006). –

for Computing Machinery –ACM-, The Association for Information Systems –AIS-, The Computer Society IEEE-CS-, 2006).

Desde lo académico, el Ingeniero de Sistemas debe ser formado para identificar y solucionar los problemas del contexto desde el objeto de estudio (Departamento de Ingeniería de Sistemas, 2006).

De acuerdo con su naturaleza, se muestra que: SE tiene un significado más amplio que simplemente crear líneas de código; esto involucra crear con alta calidad y de manera confiable, productos software de manera sistemática, controlada y eficiente, haciendo énfasis sobre el análisis y evaluación, especificación, diseño y evolución. En particular SE debe ser vista como una disciplina fuertemente relacionada con el área de CC; debe compartir características comunes con otras disciplinas de la ingeniería, incluyendo medidas cuantitativas, tomar decisiones, hacer uso efectivo de herramientas y reutilizar artefactos; aplicar prácticas y métodos de ingeniería para el desarrollo de software con especial énfasis en el desarrollo de sistemas software de gran escala; integrar los principios de la matemática discreta y CC con las metodologías de ingeniería; utilizar la abstracción y el modelado, administrando los cambios de manera efectiva; incluir conceptos de control de calidad en el diseño de procesos manufacturados; enfatizar en las habilidades de comunicación, habilidades de trabajo en equipo, principios profesionales y mejores prácticas. (The ACM Two-Year College Education Committee and The Joint Task Force on Software Engineering, Association for Computing Machinery, IEEE Computer Society, 2005).

Los requerimientos, capacidades y habilidades que debe tener un Ingeniero de Sistemas a partir del objeto de estudio, puede ser caracterizado de la siguiente manera: (1) Un profesional con énfasis en el área de CC debe ser capaz de desempeñarse en un amplio rango de posibilidades que involucren tareas de trabajo teórico para el desarrollo de software. No hace parte de su quehacer el ayudar a seleccionar productos de computación, construir productos a la medida de las necesidades de las organizaciones o aprender cómo usar estos productos. (2) Un profesional con énfasis en el área de IS debe ser capaz de analizar los requerimientos de información y procesos de negocios y especificar y diseñar sistemas que estén alineados con los objetivos de la organización. Generalmente construye aplicaciones tecnológicas (especialmente bases de datos) de acuerdo con las necesidades de las empresas y desarrolla sistemas que utilizan otros productos software construyendo suites de acuerdo con las necesidades de información de las organizaciones.

Para IS los sistemas de información basados en computador han llegado a ser una parte crítica de los productos, servicios, operaciones y manejo de organizaciones. El efectivo y eficiente uso de la información y tecnologías de comunicaciones son un elemento importante para alcanzar ventajas competitivas en los negocios de las organizaciones y excelencia en el servicio para las organizaciones. (The Association for Computing Machinery –ACM-, The Association for Information Systems –AIS-, The Computer Society -IEEECS-, 2006).

(3) Un profesional con énfasis en IT se desempeña efectivamente planeando, implementando, configurando y manteniendo la infraestructura tecnológica de una organización. Como una nueva área, el profesional en Tecnología de la Información tiene un especial enfoque en satisfacer las necesidades de los clientes que aparecen de la tecnología en computación. (4) Un profesional con énfasis en SE ejecuta y maneja apropiadamente actividades para cada fase del ciclo de vida de sistemas software de gran escala. Como objetivo principal tiene desarrollar modelos sistemáticos y técnicas confiables para producir software de alta calidad en un tiempo y presupuesto determinados. Además también se interesa en el diseño y desarrollo de sistemas de información apropiados a la medida de las necesidades de las organizaciones. (The Association

Una visión global de los objetivos que persigue la IT es desplegar y aplicar apropiadamente tecnologías de la información y emplear metodologías apropiadas para ayudar a un individuo u organización a cumplir sus objetivos, identificar la función del usuario a través de diferentes roles, manejo de los recursos de tecnología de la información; anticipar los cambios de dirección

Revista

unimar

102


Ingenieria de sistemas: retrospectiva y desafios

de las tecnologías de la información, evaluar y comunicar la utilidad de las nuevas tecnologías; comprender y en algunos casos contribuir en lo específico de la matemática y los fundamentos teóricos en los cuales la tecnología de la información se construye; vivir y trabajar como un contribuyente, constructor de desarrollo, como buen miembro de la sociedad (The Association for Computing Machinery –ACM-, The Association for Information Systems ––AIS-, The Computer Society IEEE-CS-, 2006).

(Naciones Unidas, Unión Internacional de Telecomunicaciones –ITU-, 2005). El ejercicio de la Ingeniería de Sistemas en Colombia, dentro de su reglamentación, está regulado por diferentes estamentos encargados de velar por la calidad de la formación de los futuros profesionales en Ingeniería; para ello el Ministerio de Educación Nacional ha considerado reglamentar y establecer políticas que aseguren la calidad de la educación, promulgando las siguientes leyes, acuerdos y decretos en orden cronológico: Decreto 2566 de Septiembre 10 de 2003, por el cual se establece las condiciones mínimas de calidad y demás requisitos para el ofrecimiento y desarrollo de programas académicos de educación superior y se dicta otras disposiciones. Resolución Número 2773 de 2003, Noviembre 13, por la cual se define las características específicas de calidad para los programas de formación profesional de pregrado en Ingeniería. Resolución Número 1036 del 22 de Abril de 2004, por la cual se define las características específicas de calidad para los programas de pregrado y especialización en Educación. Ley No. 1188 del 25 de abril de 2008, por la cual se regula el registro calificado de programas de educación superior y se dicta otras disposiciones. Por otra parte los Exámenes de Calidad de Educación Superior (ECAES) en Colombia pretenden, al igual que la reglamentación jurídica, aportar a la excelencia académica en la formación profesional de los ingenieros de sistemas. La Asociación Colombiana de Facultades de Ingeniería (ACOFI), participa con documentos que permiten a los programas, identificar parámetros muy importantes a tener en cuenta en sus currículos (ICFES - ACOFI, 2005).

Los cambios en la disciplina de CC han propiciado, desde los inicios del nuevo milenio un enorme y fascinante campo de trabajo e investigación. Nuevas tecnologías son introducidas continuamente y las existentes se están convirtiendo en obsoletas con mayor rapidez. La celeridad con que evoluciona la disciplina de Ciencias de la Computación ha requerido cambios en su contenido y pedagogía (The Association for Computing Machinery –ACM-, The Computer Society -IEEE-CS-, 2008). Para la categoría de contexto los documentos revisados fueron 14, que corresponden al 26.9% del total de documentos revisados. Iniciando con el análisis, tenemos que referenciar que a nivel internacional, en este milenio se habla de las sociedades de la información y el conocimiento como soporte fundamental para la nueva sociedad que el mundo necesita, donde se busca construir una Sociedad de la Información centrada en la persona, integradora y orientada al desarrollo, que pueda crear, consultar, utilizar y compartir la información y el conocimiento, para que las comunidades y los pueblos puedan emplear plenamente sus posibilidades en la promoción de su desarrollo sostenible y en la mejora de su calidad de vida (Naciones Unidas, Unión Internacional de Telecomunicaciones –ITU-, 2005).

Teniendo en cuenta los avances vertiginosos que día a día se tiene en la tecnología, la computación actual se enmarca dentro de algunas tendencias relevantes en la evolución de la computación que han llegado a ser evidentes y que incluyen la emergencia de seguridad como el área de mayor preocupación debido a la cantidad de software malicioso que causa una enorme preocupación, ya que se mira como una gran amenaza para la industria. Como segundo aspecto tenemos El relevante crecimiento de la concurrencia debido a los avances en el desarrollo de los procesadores multinúcleo. Para poder explotar esta capacidad completamente el software necesita mostrar un comportamiento concurrente; este tema tiene gran énfasis en los prin-

Existe algo muy importante por resaltar como resultado de la reflexión que podemos tener y es lo referente a la educación o a la nueva educación que requiere el ser humano para poder afrontar los retos que esta nueva era tiene y se expresa claramente cuando se reconoce que la educación, el conocimiento, la información y la comunicación son esenciales para el progreso, la iniciativa y el bienestar de los seres humanos. Es más: las tecnologías de la información y la comunicación (TIC) tienen inmensas repercusiones en, prácticamente, todos los aspectos de nuestras vidas

Revista

103

unimar


cipios, técnicas y tecnologías de la concurrencia. Como tercer aspecto se encuentra el carácter dominante de la computación en red debido al crecimiento del uso de la Web en el siglo 21. Actualmente es de uso dominante y tiene grandes implicaciones en las áreas de programación, Ingeniería de software, manejo de los datos, movilidad, interacción hombre - máquina, seguridad y sistemas inteligentes. La ingeniería Web actualmente ha emergido como una nueva disciplina y está apareciendo la ciencia Web (The Association for Computing Machinery –ACM-, The Computer Society -IEEE-CS-, 2008).

a la gran necesidad de profesionales en el área de tecnología en Colombia en esa época, surgen instituciones que ofrecen capacitación en este campo, por ejemplo: en la Escuela de Minas se ofrece cursos, en la Universidad Nacional maestrías y en la Universidad de los Andes ciencias de la computación, adscrita dentro de la Facultad de Ingeniería, cuyo currículo se basó en el de la Universidad de Pensilvania; es aquí donde se le otorga a la profesión el nombre de Ingeniería de Sistemas, título que adoptarían luego las demás instituciones en el país. Los primeros egresados en el país, aparecen a inicio de los 70´s. En ese entonces, los primeros profesionales de Ingeniería de Sistemas se enfrentaron a las oportunidades de negocio como la de prestación de servicio de tiempo de cómputo, surgimiento de casas de software comercial y en la medida de las redes, a la llegada de Internet a Colombia en 1988 y a la necesidad de la promoción de la industria competitiva a nivel mundial debido a las exigencias de la globalización (ACIS, 2007).

Dentro del sector software y servicios de TI, contexto donde se desempeña y desenvuelve el profesional en Ingeniería de Sistemas, encontramos que la industria del software y servicios asociados –SSA- ha sido una de las industrias determinantes para el desarrollo económico de países como India, Israel, Irlanda y China debido al aprovechamiento de diversas oportunidades que el mercado ha impuesto (Fúquene, Castellanos, & Fonseca, 2007). La industria de software promueve la investigación y la formación de profesionales que puedan encontrar soluciones acordes con las necesidades y los problemas de un mundo globalizado.

Los antecedentes a nivel internacional permiten evidenciar que la computación no es simplemente una disciplina, es un conjunto de disciplinas. Antes de los 90’s los programas en computación estaban relacionados con las disciplinas que empezaron a aparecer en los años 60. Originalmente existieron sólo tres tipos de programas en computación: CC, Ingeniería Eléctrica - EE e IS. Antes de la invención del chip basado en microprocesadores, la Ingeniería en Computación fue una de las áreas de especialización dentro de la Ingeniería Eléctrica.

Los documentos revisados en la categoría de antecedentes fueron 5 que corresponden al 9.6% del total de documentos revisados. Dentro de los antecedentes a nivel regional encontramos que la Universidad Mariana es la primera Institución de Educación Superior que ofrece el programa de Ingeniería de Sistemas en Nariño y lo crea mediante acuerdo No. 221 de Febrero 19 de 1992. La Universidad de Nariño, por acuerdo conjunto del Consejo Superior y del Consejo Académico No. 093 del 29 de junio de 1993, crea el programa de Ingeniería de Sistemas en la Facultad de Ingeniería Civil. En la actualidad hacen presencia en la región con el mismo programa el Centro de Estudios Superiores María Goretti (CESMAG), la Universidad Nacional Abierta y a Distancia (UNAD) y la Fundación Universitaria San Martín. Los primeros profesionales egresan en 1998.

Durante los 90’s se realizó significativos adelantos que cambiaron el panorama de las disciplinas de la computación como la consolidación de la Ingeniería en Computación que emerge de la Ingeniería Eléctrica. Las Ciencias de la Computación crecen rápidamente y llegaron a ser aceptadas dentro de la familia de las disciplinas académicas. La Ingeniería de Software aparece como un área dentro de las Ciencias de la Computación y comenzó a desarrollarse como disciplina en sí misma. Los Sistemas de Información tenían que abordar un ámbito cada vez mayor de desafíos. Los Programas de tecnología de la información comenzaron a surgir a finales de los 90’s.

En los antecedentes a nivel nacional se puede apreciar que la carrera de Ingeniería de Sistemas surge en los 60´s como un proceso de adopción de tecnología de las grandes empresas colombianas y cuyo manejo sólo era reservado para las personas que regresaban al país luego de cursar sus estudios en el extranjero. Debido

Después de los 90’s se refleja un nuevo panorama de los programas de computación donde la informática en su conjunto ha madurado para abordar los problemas

Revista

unimar

104


Ingenieria de sistemas: retrospectiva y desafios

del nuevo milenio. La Ingeniería en Computación se ha solidificado como una disciplina distinta de la Ingeniería Eléctrica. La Ingeniería de Software ha surgido para hacer frente a los importantes desafíos inherentes en la construcción de sistemas de software fiables y asequibles. La Tecnología de la Información, por su parte, ha emergido para llenar un vacío que las demás disciplinas de la computación no abordan adecuadamente (The Association for Computing Machinery (ACM), The Association for Information Systems –AIS-, – The Computer Society -IEEE-CS-, 2006).

tarea asegurar la disponibilidad de los sistemas, el mantenimiento transparente a los usuarios, la visibilidad y ubicación de componentes y las conducentes a facilitar el crecimiento ordenado de los sistemas y el cumplimiento de los estándares y patrones vigentes; los procesos de desarrollo son los encargados de determinar los requerimientos de los usuarios y su solución, establecer el proceso para dejar disponible el sistema, diseñarlo, construirlo, probarlo para su funcionamiento y aceptación, instalarlo y entregarlo para la utilización autónoma de sus usuarios; finalmente las funciones que tienen que ver con procesos de SI son su implantación, integración o administración (Tarazona & Toro, 1997).

El perfil del Ingeniero de Sistemas Otro conjunto que se denota es la unidad de análisis para el perfil del Ingeniero de Sistemas en Colombia. Se referencia un documento encontrado que corresponde al 1.9% del total de documentos revisados.

Las últimas características que se encontró en los Ingenieros de Sistemas de Colombia fueron los deberes e interacciones; los primeros tienen que ver con la entrega de soluciones a satisfacción de los usuarios, ajustadas convenientemente a la tecnología vigente. Tienen que modelar la situación, los requerimientos y la solución de manera correcta, diseñar, construir y probar la misma para dejarla en uso autónomo por parte de los usuarios, manejar la complejidad de su trabajo, cumplir con los parámetros convenidos y ser agentes de cambio; es decir, aprender y evolucionar continuamente. Las personas, entidades, tecnologías, normas y estándares industriales y ambientes de trabajo son los entes con los cuales necesariamente debe interactuar el profesional de la Ingeniería de Sistemas (Tarazona & Toro, 1997).

El papel como profesional a la luz del objeto de estudio de la profesión, que indudablemente gira alrededor de actividades relacionadas con el procesamiento sistemático y mecánico de la información. En lo que tiene que ver con los trabajos que principalmente realiza el Ingeniero de Sistemas, el estudio permite resumirlos en dos categorías, a saber: información y sistemas de información. En la primera se incluye labores de conocimiento, oportunidad, precisión, actualización, seguridad, facilidad de acceso, frecuencia, presentación, alcance, estructuración, recolección, almacenamiento, búsqueda, comparación, presentación, actualización, transformación y transmisión; en la segunda se abarca el desarrollo, entendido como fabricación y/o adaptación y la integración y administración de sistemas y procesos de información (Tarazona & Toro, 1997).

Existe gran dificultad para detallar las características de los perfiles hallados en Colombia debido a la falta de acuerdo en las pautas y en los diferentes puntos de vista; para ello, en algunas ocasiones, la persona que define el perfil generalmente lo hace con base en los requerimientos que necesita satisfacer en el momento, si es usuario, o con base en lo que está haciendo actualmente, si es Ingeniero de Sistemas (Tarazona & Toro, 1997).

La responsabilidad esencial de los profesionales de la Ingeniería de Sistemas en Colombia es satisfacer apropiadamente los requerimientos de los usuarios de su trabajo. Adicionalmente se ha detallado otros compromisos e indicadores de éxito, catalogados en las áreas de información e IS, cuya labor fundamental es administrar y hacer disponible la información apoyada en la dirección de IT; en el área de IS se aprecia cuatro sub – áreas: Sistema, en donde las actividades son implantar, integrar, mantener y soportar uno, varios o todos los componentes de un SI, y la concepción, justificación, determinación y puesta a punto de la estrategia para desarrollarlos e implantarlos; la administración de IS tiene como

Las características que debe tener un perfil permiten definir un marco de referencia para su elaboración, basado en el título que hace referencia a la denominación del perfil; el objeto de la actividad significa el recurso sobre el cual trabaja el profesional; en el caso propio, la información y actualmente también la tecnología en computación. Los servicios prestados corresponden a las funciones que cumple el Ingeniero de sistemas en relación con el objeto de estudio de la profesión.

Revista

105

unimar


Las labores realizadas giran en torno al conocimiento que debe transmitir, a las características de la información, determinación de datos para obtenerla, trabajos para usarla, implantación de procesos de la misma, de acuerdo con su modalidad, integración y administración de los sistemas de información; los requisitos de desempeño son las exigencias en cuanto al saber, hacer y ser del Ingeniero de sistemas para poder desempeñar con mérito la profesión; las interacciones se refieren a las relaciones existentes con los integrantes del entorno donde éste se desenvuelve. (Tarazona & Toro, 1997).

las Tecnologías de la Información y las Comunicaciones y el conocimiento. La Ingeniería de Sistemas es una de las disciplinas que puede contribuir directamente en esta nueva fuerza de trabajo, para lo cual se debe tener en cuenta factores indispensables para la creación de la sociedad de la información, tales como la infraestructura tecnológica y la conectividad. Las soluciones deben estar creadas bajo los principios y conceptos de calidad, contextualizadas a las condiciones locales, regionales, nacionales e internacionales, fácilmente asequibles y, de ser posible, que utilicen tecnologías innovadoras, lo cual puede acelerar el crecimiento social y económico de la región y del país, constituyéndose en uno de los retos más importantes en la sociedad de la información y el conocimiento.

CONCLUSIONES La Ingeniería de Sistemas es una disciplina que por su misma esencia tiene una fundamentación apoyada en las ciencias básicas y su objeto de estudio está basado en las áreas de CC, IS, SE y IT. De manera equivocada se cree que el nombre se deriva de la TGS por hacer uso de metodologías generadas de ella, para el análisis de los procesos de la información.

Debido a los grandes y continuos cambios y al avance de las TIC, el perfil del Ingeniero de sistemas tiene que evolucionar para poder estar en igualdad de condiciones y competitividad, en la medida que evolucionan el mundo y la sociedad.

Una característica importante que debe tener la Ingeniería de Sistemas en su formación, es el aprendizaje basado en la solución de problemas, que consiste esencialmente en enfrentar al estudiante a problemas concretos, basados en la realidad del contexto regional, nacional e internacional, donde los pueda identificar y solucionar, a través de las áreas del objeto de estudio.

Además podemos decir que la Ingeniería de Sistemas y el uso y apropiación de las TIC sirven como apoyo transversal al desarrollo sostenible en los sectores que generan progreso en los diferentes contextos, motivo por el cual se debe definir y poner en marcha estrategias que permitan cerrar la brecha digital existente.

Antes del año 2005, para Colombia, no existía unicidad en cuanto a los requerimientos, capacidades y habilidades; actualmente están definidos por el objeto de estudio de la profesión, fundamentados por las áreas de las ciencias de la computación, la ingeniería de software, sistemas de información. A partir del año 2006 se hizo necesaria su inclusión en el área de la tecnología de la información: el objeto de la actividad está dado por la información y la tecnología en computación y es indispensable para el profesional, estar acorde con los cambios acelerados en la ingeniería y la tecnología.

Las Instituciones de Educación Superior han sido las encargadas del proceso de formación de los profesionales en Ingeniería de Sistemas; para Colombia la denominación del programa está dada por los títulos de Ingeniería de Sistemas y Computación e Ingeniería de Sistemas; el programa tiene una reglamentación precisa y adecuada mediante normas, leyes y decretos que, desde la Constitución, Ministerio de Educación y comités, son promulgados con el propósito de garantizar una formación adecuada y pertinente que propenda por el desarrollo de una región y el país.

La actual sociedad de la información y el conocimiento exige prepararse para los retos que ella presenta a la humanidad. Tanto las TIC, como la educación, son el engranaje fundamental para orientar la sociedad en un mundo globalizado. Son las Instituciones Educativas las llamadas a formar jóvenes como fuerza de trabajo, con las competencias necesarias para afrontar los cambios y construir una sociedad más equitativa, con acceso a

En la actualidad existen tres grandes tendencias en la computación: la primera es la emergencia de seguridad como el área de mayor preocupación en las organizaciones, debido a la gran importancia que ha adquirido la información, como un activo en el mundo. La segunda tiene que ver con el incremento de la concurrencia debido a los avances en el hardware y

Revista

unimar

106


Ingenieria de sistemas: retrospectiva y desafios

las telecomunicaciones. Y la tercera, hace referencia al carácter dominante de la computación en red debido a los grandes avances realizados en la Web, lo cual se ha convertido en una herramienta fundamental para la sociedad de la información.

se hace necesario, por tanto, desde el objeto de estudio, proporcionar una identidad al programa. Existe una vision desdibujada del profesional a través de falsos estereotipos donde no se identifica qué es. Se hace necesario identificar que su principal herramienta no es el computador, sino sus habilidades para entender y abstraer problemas, descomponer y estructurar soluciones, para finalmente construir, acorde con los avances tecnológicos y, transversalmente, poderse comunicar.

Desde las políticas que viene implementando el gobierno colombiano a través del Ministerio de Comercio, Industria y Turismo (MCIT) se tiene como visión ser eje fundamental del desarrollo económico del país, logrando un alto impacto en el crecimiento económico y convirtiéndose en el motor de la transformación productiva. Esta visión se pretende lograr con un plan a largo plazo a través de 3 ejes fundamentales, uno de los cuales es la transformación productiva que plantea la definición y dinamización de sectores nuevos y emergentes de clase mundial donde está como sub-eje, el Sector Software y Servicios de TI, motivo por el cual la industria del software aparece con gran relevancia dentro del desarrollo del país, definiéndose como una empresa de conocimiento que requiere un alto nivel de investigación, desarrollo tecnológico y formación de personas capaces de producir soluciones acordes con las necesidades universales que nacen de la globalización de los mercados que le plantean permanentes desafíos, donde es indiscutible y necesario competir con base en la calidad de los productos.

En el ejercicio de la profesión del Ingeniero de Sistemas de hoy se plantea grandes oportunidades y riesgos, aparece la necesidad de tener una visión de negocio, una visión tecnológica de alto nivel, habilidades gerenciales y de comunicación, manejar distintos niveles de abstracción, alejarse de la máquina como herramienta fundamental para el ejercicio de la profesion, alejarse de la visión formal y abrir espacio a las nuevas necesidades donde desempeña actividades en el área de la Tecnologia de la Informacion como especialista en gobierno TI, analista de procesos, gerente de proyecto; y desde el negocio, como gerente de tecnología, arquitecto empresarial, arquitecto de software, entre otros. BIBLIOGRAFÍA

Para el perfil del Ingeniero de Sistemas en Colombia se identifica tres aspectos relevantes: el primero hace referencia a los requerimientos del usuario, en donde no existe claridad en su determinación y además el vínculo academia – sector productivo no está establecido formalmente o se encuentra mal administrado. El segundo permite identificar que existe dificultad en la definición y precisión del perfil, encontrando confusión entre el papel profesional con el del técnico, tecnólogo y operador, sumándose a esta situación, la ambigüedad del alcance de la responsabilidad de la carrera. El tercer aspecto está relacionado con los parámetros para su establecimiento, que no han sido acordados ni formalizados; por tanto existen varias posturas, pero sin duda, todas ellas deben incluir componentes de gerencia, empresa y comunidad.

ACIS. (2007). Caracterización de la Ingeniería de Sistemas y programas afines en Colombia. ACIS. Departamento de Ingeniería de Sistemas. (2006). TRANSFORMACIÓN CURRICULAR PROGRAMA “INGENIERÍA DE SISTEMAS”. Medellín: Publicaciones Universidad de Antioquia. Fúquene, A. M., Castellanos, O. F., & Fonseca, S. L. (2007). Bases de la implementación de un modelo de inteligencia para fortalecer el desarrollo tecnológico de la industria del software y servicios asociados en Colombia. REVISTA INGENIERÍA E INVESTIGACIÓN VOL. 27 No. 3 , 182-192. ICFES - ACOFI. (2005). MARCO DE FUNDAMENTACIÓN CONCEPTUAL Y ESPECIFICACIONES DE PRUEBA ECAES. Ingeniería de Sistemas. Bogotá: Publicaciones ACOFI.

Finalmente se puede establecer que los desafíos que presenta la Ingeniería de Sistemas en su proceso de formacion deben ir acordes con la celeridad de un mundo globalizado donde se puede inferir que los curriculos viejos y saturados no reflejan las necesidades actuales y

Naciones Unidas, Unión Internacional de Telecomunicaciones (ITU). (2005). Cumbre Mundial so-

Revista

107

unimar


bre la Sociedad de la Información - Documentos Finales. Ginebra 2003 – Túnez 2005: Unión Internacional de Telecomunicaciones. Oramas, J. E.(2007). El Ingeniero de Sistemas bajo la lupa de ACIS. Revista Sistemas. Tarazona, J. E., & Toro, V. M. (1997). Papel y Perfiles del Ingeniero de Sistemas en Colombia. Bogotá: ACIS. The ACM Two-Year College Education Committee and The Joint Task Force on Software Engineering, Association for Computing Machinery, IEEE Computer Society. (2005). Computing Curricula 2005: Guidelines for Associate-Degree Transfer Curriculum in Software Engineering. United States of America: ACM. The Association for Computing Machinery (ACM), The Association for Information Systems (AIS), The Computer Society (IEEE-CS). (2006). Computing Curricula 2005. The Overview Report covering undergraduate degree programs in Computer Engineering, Computer Science, Information Systems, Information Technology and Software Engineering. United States of America: ACM and IEEE. The Association for Computing Machinery (ACM), The Computer Society (IEEE-CS). (2008). Computer Science Curriculum 2008: An Interim Revision of CS 2001. United States of America: ACM and IEEE.

Revista

unimar

108


PROTOTIPO DE UN SISTEMA DE MONITOREO INALÁMBRICO en la cuenca del río Pasto para el caso de inundaciones PROTOTYPE OF A WIRELESS MONITORING SYSTEM In the Pasto river basin for flood events INVESTIGADORES: GUZMÁN DÍAZ, Ana Mercedes. JIMENEZ TOLEDO, Róbinson Andrés

Fecha de recepción: 28 de septiembre de 2009 Fecha de aprobación: 16 de octubre de 2009

RESUMEN Las inundaciones son fenómenos naturales que amenazan a todo el mundo. La importancia de crear sistemas de protección ante fenómenos no controlables por el hombre, demuestra la prioridad de intensificar la investigación en el desarrollo tecnológico en este campo. El fenómeno de las inundaciones, considerado un problema frecuente durante el año, es una gran molestia para las personas que viven a la ribera de los ríos, quienes deben estar alerta ante su llegada, impidiéndoles mejorar su condición de vida.

El Sistema Prototipo Inalámbrico Telemétrico Contra Inundaciones PITIC - GSM envía los datos capturados por el sensor ultrasónico de distancia y luminosidad con la interfaz electrónica y el equipo de transmisión inalámbrica a una central de datos, donde personas encargadas de su monitoreo pueden saber en tiempo real el comportamiento del río.

Las inundaciones fluviales son procesos naturales producidos periódicamente y que han sido la causa de la formación de las llanuras en los valles de los ríos y en tierras fértiles donde tradicionalmente se ha desarrollado la agricultura en vegas y riberas.

Interfaz Electrónica, Inundaciones, Alarmas.

PALABRAS CLAVE

ABSTRACT Floods are a natural phenomena that threaten the whole world. The importance of creating protection systems demonstrates the relevancy of intensifying the investigation in technological development in this field. The flood phenomenon, considered a frequent problem during the year, is a great inconvenience for people who live throughout the river banks, who must be alert before its arrival and which prevent them from improving their life condition.

De aquí parte la idea de crear un sistema que sea capaz de imponerse ante este tipo de fenómenos, con el objetivo de ayudar a alertar a las personas que viven cerca de los ríos, para que tomen las medidas necesarias, antes de que llegue la inundación. En la actualidad los métodos utilizados, además de ser costosos, son muy dispendiosos para operar y necesitan de la constante manipulación y mantenimiento.

Fluvial floods are natural processes produced from time to time and that have been the reason of the plain for-

Revista

109

unimar


mations in the river valleys and fertile lands where the agriculture has been developed traditionally in fertile plains and banks.

The idea of creating a capable system before this type of phenomena comes from here, with the aim of helping alert the people who live near the rivers in order to take the necessary precautions before the flood comes.

MATERIALES Y METODOLOGÍA

The currently used methods, besides being expensive, need a constant manipulation and maintenance.

Nivel delimitador temporal: El tiempo de la investigación fue de 18 meses, iniciando en Mayo de 2007 y culminando en Octubre de 2008.

The Wireless Prototype Telemetric System Against Floods PITIC - GSM sends the captured information by the ultrasonic sensor of distance and luminosity with the electronic interface and the wireless transmission equipment to a central office of information, where people in charge of monitoring this system can know the behavior of the river in a real time.

Nivel delimitador espacial: El desarrollo de la investigación se efectuó en el municipio de San Juan de Pasto. La cuenca del Río Pasto es el espacio donde se trabajó y consecutivamente se implementó el sistema de monitoreo inalámbrico y análisis de las variables nivel del agua y presión hidrostática. Nivel delimitador demográfico: Se realizó entrevistas y se empleó la observación directa a los habitantes que viven a la ribera del Río Pasto y los Organismos de Socorro de la ciudad.

KEY WORDS Electronic interface, floods, alarms.

Paradigma. El paradigma bajo el cual se trabajó el proyecto de investigación es el Cuantitativo, porque trabaja con valores cuantificables, con los cuales se analiza las variables nivel del agua y presión hidrostática, aplicando fórmulas matemáticas que llevan a resultados con los que se puede identificar y conceptualizar soluciones precisas para el problema.

INTRODUCCIÓN Objetivo General: Alertar a la entidad encargada, mediante el desarrollo de un prototipo de un sistema de monitoreo inalámbrico que permita obtener información, de lo que está ocurriendo en la cuenca del Río Pasto por su caudal de agua en una posible inundación.

Enfoque. El proyecto de investigación hace parte del enfoque Empírico Analítico, el cual busca causas y hechos del problema, basados en experiencias vividas, con el fin de describirlas, explicarlas o predecirlas a través de pruebas. Con los datos obtenidos y recopilados se realizó un análisis que permitió determinar el estado actual de lo que pasaba en la cuenca del Río Pasto, en relación con las inundaciones causadas por éste.

Objetivos Específicos •

Analizar las características de la cuenca del Río Pasto para definir las variables que determinan un sobre nivel.

Investigar el medio de transmisión inalámbrico que haga eficiente, óptimo y económico el sistema.

Tipo de Investigación. Para el presente proyecto se abordó el tipo de investigación cuasiexperimental porque toma variables que no pueden ser totalmente controladas.

Identificar las características de las inundaciones en la cuenca del Río Pasto para determinar el punto de monitoreo.

Revista

unimar

Implementar una interfaz electrónica que permita la captura de datos a través de sensores que generen un estado de alerta máxima en caso de sobre nivel con su respectivo software.

110


Prototipo de un sistema de monitoreo inalámbrico

VARIABLES DE LA INVESTIGACIÓN NOMBRE VARIABLE

Nivel de agua

Presión hidrostática

DESCRIPCIÓN

OBJETIVOS

Altura alcanzada por el agua desde el fondo hasta la superficie

Analiza las características de la Cuenca del Río Pasto para definir las variables que determinan un sobre nivel

La fuerza que ejerce el agua sobre el fondo

Analiza las características de la Cuenca del Río Pasto para definir las variables que determinan un sobre nivel

INDICADORES

Altura en metro y centímetro

Con el sistema de monitoreo empleado en el Prototipo de un Sistema de Monitoreo Inalámbrico en la Cuenca del Río Pasto, para el caso de Inundaciones “PITCI - GSM”, se puede determinar el antes, durante y después de las inundaciones, adquiriendo la suficiente información para futuras investigaciones. El Prototipo de un Sistema de Monitoreo Inalámbrico en la Cuenca del Río Pasto, para el caso de inundaciones “PITCI - GSM”, relaciona áreas de investigación como la Electrónica, el Clima y la Ingeniería de Sistemas, las cuales permiten optimizar procesos, como en este caso, tratar de controlar un fenómeno natural por medio de la aplicación de conocimientos. El nivel del agua, la presión y la luminosidad como parámetros físicos importantes en la presencia de una posible inundación, pueden ser monitoreados y analizados para obtener información real del comportamiento de tal fenómeno.

TÉCNICA

PREGUNTAS ORIENTADORAS

Sistema internacional

Medición directa

¿Existe una manera de medir electrónicamente el nivel del agua?

Medición indirecta

¿Se puede determinar la presión hidrostática de un fluido mediante un sensor?

Estática de fluidos

Pascal

RESULTADOS

FUENTE

“PITCI - GSM” sirve para alertar en tiempo real sobre el comportamiento que tiene el Río Pasto para controlar mejor la situación en caso de una posible inundación.

El sistema beneficia a las entidades encargadas en aspectos como agilización del proceso de toma de datos, acción y prevención de inundaciones y aliviana la carga de trabajo de las personas que se encargan de vigilar lo que acontece en el Río Pasto de forma rápida, eficiente y efectiva, permitiéndoles un mejor desempeño en sus labores profesionales.

“PITCI - GSM” es un sistema que ayuda al personal encargado para desempeñarse con una herramienta de apoyo alertando a los habitantes de una manera rápida y efectiva.

Tras el uso y aplicación del ciclo de vida incremental se puede afirmar que es el adecuado para este tipo de proyectos, los cuales necesitan ser realizados de tal forma que se cumpla en su totalidad todos los incrementos planteados.

Revista

111

unimar


Revista

UNIMAR


PROTOTIPO SEMIAUTOMÁTICO COMPUTARIZADO de selección de café en estado seco PROTOTYPE COMPUTERIZED SEMIAUTOMATIC To selection of coffee in dry state Por Andrés Felipe Rengifo Herrera Andrés Fernando Pabon Bolaños Universidad Mariana, Facultad de Ingeniería, Programa Ingeniería de Sistemas San Juan de Pasto, Colombia {rengifoherrera@hotmail.com, andrespabon51@hotmail.com}

Fecha de recepción: 28 de septiembre de 2009 Fecha de aprobación: 21 de octubre de 2009

RESUMEN

PALABRAS CLAVE

En La Finca Cafetera del Tablón de Gómez Nariño se presenta múltiples inconvenientes en el proceso de selección de café en estado seco, debido a que los métodos utilizados actualmente generan un porcentaje de error alto.

calidad, producción, proceso, estado seco, selección.

ABSTRACT On the Coffee Farm Tablón de Gómez Nariño there are multiple disadvantages in the selection of coffee in dry state because the methods currently used generate a high failure rate.

La zaranda metálica y la selección manual son los métodos más utilizados. El primero disminuye notoriamente el tiempo de producción, pero la cantidad de granos defectuosos que se mezcla con los buenos y viceversa, hacen que este procedimiento se caracterice por tener el porcentaje de error más elevado. El método manual es considerado más exacto y apropiado para seleccionar cantidades pequeñas; de lo contrario, si las cantidades son considerables, se presenta síntomas en los empleados, como fatiga visual y cansancio muscular, lo cual afecta su precisión y por consiguiente la calidad resultante.

The metallic sieve and hand sorting are methods used. The first one decreases production time, but the amount of defective beans which are mixed with good ones and vice verse make this procedure stand out for having the highest failure rate. The manual method is considered the most accurate and is suitable for selecting small amounts, otherwise if the amounts are significant, present symptoms employees, such as eyestrain and muscle fatigue, which affect their accuracy and therefore the resulting quality.

Se diseñó un Prototipo Semiautomático Computarizado que es capaz de seleccionar café en estado seco, con una tasa mínima de error.

We designed a Prototype Computerized Semiautomatic which is able to select the dry coffee with a minimum failure rate.

Revista

113

unimar


los granos seleccionados, para observar en tiempo real el verdadero estado del café.

KEY WORDS quality, production, process, dry state, selection.

En el transcurso de la investigación fueron realizadas pruebas al prototipo de selección para determinar su grado de eficiencia. Para la realización de estas pruebas se tuvo en cuenta la información suministrada por administrativos, jefes de finca y obreros de una finca ubicada en el Tablón de Gómez (Nariño).

1. INTRODUCCIÓN

E

l café de Colombia se ha caracterizado por su suavidad y excelente calidad, razón por la cual es considerado como el mejor café del mundo, a diferencia de otros países como Brasil, que centran su atención en la producción masiva del grano, mecanizando la mayoría de los procesos implicados en la cosecha con el objetivo de reducir costos y ser altamente competitivos en el mercado internacional.

2. Pruebas del sistema En el momento de poner en marcha El Clasificador De Granos De Café En Estado Seco PSSC se efectuó una serie de pruebas tanto al software como al hardware para identificar posibles falencias en el sistema:

Colombia se enfoca en competir con un café de suavidad, aroma y sabor especial, que hacen de éste, un café único en el mercado internacional. A pesar de que su costo es más elevado debido a su estricta selección, no ha sido impedimento para convertirse en una fuente muy importante para la economía colombiana.

- Prueba con el fin de observar el comportamiento del clasificador al momento de verter los granos en el recipiente y su posterior análisis con los fotodetectores. Se verificó el correcto funcionamiento de los 3 fotodetectores, el disco recolector y el electroimán.

Considerando lo anterior, es importante tener en cuenta que la productividad de una empresa es siempre dependiente de una buena regla de producción; es decir, entre más rápido, bueno y económico sea el proceso de producción, mayor utilidad para los beneficiarios. Entonces, para lograr este propósito se hace necesario buscar un medio óptimo; es por eso que en la actualidad es muy frecuente la implementación de máquinas computarizadas, las cuales agilizan y optimizan los procesos.

- Se verificó la compatibilidad del software con el hardware en el instante de programar una hora específica para la clasificación. Se introdujo en el software varios intervalos de tiempo para asegurar la transmisión de los datos en tiempo real.

Por medio del trabajo de investigación se identificó las fortalezas y debilidades que presenta la selección manual de café en cuanto al manejo y administración de errores, teniendo en cuenta factores como: agilidad, seguridad, control, tiempo, talento humano, organización y recursos logísticos y darles así, un tratamiento acorde con los requerimientos.

Pruebas comparativas

- Para una mejor recolección del grano, se decidió diseñar el recipiente contenedor de forma similar al disco recolector, con el objetivo de levantar un grano a la vez.

Para comprobar la hipótesis se tomó 1.5 Kilos, aproximadamente 7164 granos de café en estado seco, de los cuales 2388 fueron destinados para el dispositivo PSSC, 2388 para la zaranda metálica y los 2388 restantes a un obrero de 35 años de edad, 18 años de experiencia, de género masculino, el cual representa la edad y experiencia media de los obreros que laboran en la Finca Cafetera El Tablón de Gómez Nariño.

Para ello, se desarrolló un prototipo semiautomático computarizado que permite optimizar el proceso de selección de café en estado seco, manipulado desde un software, convirtiéndolo en una herramienta útil, clara y precisa de selección, ayudando a los usuarios “jefes de finca o administradores” a tener un mejor control del proceso. Así mismo, el prototipo brinda datos, estadísticas, tasas de error y control de calidad de

Teniendo en cuenta que en el momento de la separación hubiese 150 granos defectuosos para cada grupo.

Revista

unimar

114


Prototipo semiautomático computarizado de selección de café en estado seco

Figura 1. Zaranda.

Figura 2. Obrero.

Fuente. Finca cafetera el Tablón de Gómez Fuente. Finca cafetera el Tablón de Gómez

Figura 3. Prototipo PSSC.

Fuente. Finca cafetera el Tablón de Gómez

Para comprobar la hipótesis de esta investigación fueron realizadas las siguientes tablas y gráficos comparativos, donde se presenta los resultados obtenidos en cuanto al porcentaje de error resultante.

Revista

115

unimar


Cuadro 1. DATOS OBTENIDOS EN LA PRUEBA, “PSSC” No. 1 PSSC No. granos

No. granos malos en No. granos buenos en granos buenos granos malos

2388

2

Total

Porcentaje de error

2

0.08%

0 Fuente. Esta Investigación

Cuadro 2. DATOS OBTENIDOS EN LA PRUEBA, “ZARANDA” No. 1 ZARANDA No. granos

No. granos malos en granos buenos

No. granos buenos en granos malos

51

16

2388

Total

Porcentaje de error

67

2.80%

Fuente. Esta Investigación

Cuadro 3. DATOS OBTENIDOS EN LA PRUEBA, “Obrero” No. 1. OBRERO No. granos

No. granos malos No. granos buenos en granos buenos en granos malos

2388

2

1

Total

Porcentaje de error

3

0.13%

Fuente. Esta Investigación

Se puede observar que el porcentaje de error resultante del prototipo PSSC es inferior en 2.72% frente

a la zaranda y en un 0.05% en comparación con el obrero

Cuadro 4. DATOS OBTENIDOS EN LA PRUEBA, “PSSC” No. 2. PSSC No. granos

No. granos malos en granos buenos

No. granos buenos en granos malos

Total

Porcentaje de error

2388

3

0

3

0.13%

Fuente. Esta Investigación

Revista

unimar

116


Prototipo semiautomático computarizado de selección de café en estado seco

Cuadro 5. DATOS OBTENIDOS EN LA PRUEBA, “Zaranda” No. 2. ZARANDA No. granos

No. granos malos en granos buenos

No. granos buenos en granos malos

Total

Porcentaje de error

2388

47

23

70

2.93%

Fuente. Esta Investigación

Cuadro 6. DATOS OBTENIDOS EN LA PRUEBA, “Obrero” No. 2. OBRERO No. granos

No. granos malos en granos buenos

No. granos buenos en granos malos

Total

Porcentaje de error

2388

1

2

3

0.13%

Fuente. Esta Investigación

El porcentaje de error resultante del prototipo PSSC es inferior en 2.80% frente a la zaranda y en 0% en comparación con el obrero.

Cabe destacar que el número de granos buenos encontrados en los malos es de 0, con respecto a la zaranda y el obrero, lo cual se traduce en mayor rendimiento de almendra y por consiguiente en incremento de ingresos.

Cuadro 7. DATOS OBTENIDOS EN LA PRUEBA, “PSSC” No. 3. PSSC No. granos

No. granos malos en granos buenos

No. granos buenos en granos malos

Total

Porcentaje de error

2388

2

0

2

0.08%

Fuente. Esta Investigación

Cuadro 8. DATOS OBTENIDOS EN LA PRUEBA, “Zaranda” No. 3. ZARANDA No. granos

No. granos malos en granos buenos

No. granos buenos en granos malos

Total

Porcentaje de error

2388

45

19

64

2.68%

Fuente. Esta Investigación

Revista

117

unimar


Cuadro 9. DATOS OBTENIDOS EN LA PRUEBA, “Obrero” No. 3. OBRERO No. granos

No. granos malos en granos buenos

No. granos buenos en granos malos

Total

Porcentaje de error

2388

2

2

4

0.17%

Fuente. Esta Investigación

El porcentaje de error resultante del prototipo PSSC es inferior en 2.60% frente a la zaranda y en 0.09% en comparación con el obrero Figura 4. TASA DE ERROR EN LAS 3 PRUEBAS REALIZADAS

Fuente. Esta Investigación

Para comprobar si el cansancio visual y muscular, síntoma de una jornada larga de trabajo, afecta el porcentaje de error en la selección del obrero, se realizó 3 pruebas adicionales.

Para las pruebas se utilizó 10 kilos, aproximadamente 47.760 granos de café en estado seco.

Cuadro 10. DATOS OBTENIDOS EN LA PRUEBA ADICIONAL, “Obrero”. OBRERO No. granos

No. granos malos en granos buenos

No. granos buenos en granos malos

Total

Porcentaje de error

47760

126

98

149

0.47%

Revista

unimar

118


Prototipo semiautomático computarizado de selección de café en estado seco

El incremento del porcentaje de error con respecto a la prueba anterior de 2500 granos, es de 0.34%

Cuadro 11. DATOS OBTENIDOS EN LA PRUEBA ADICIONAL, “Obrero”. OBRERO No. granos

No. granos malos en granos buenos

No. granos buenos en granos malos

Total

Porcentaje de error

47760

229

121

97

0.73%

A medida que se hace más extenso el proceso de selección, el porcentaje de error del obrero sigue incrementando considerablemente Cuadro 12. DATOS OBTENIDOS EN LA PRUEBA ADICIONAL, “Obrero”. OBRERO No. granos 47760

No. granos malos en granos buenos

No. granos buenos en granos malos

Total

Porcentaje de error

216

570

1.19%

354

Efectivamente, el cansancio visual, muscular y una jornada prolongada en un trabajo repetitivo, repercute

notoriamente en el porcentaje de error resultante en la selección de café en estado seco.

Figura 5. TASA DE ERROR EN LAS 3 PRUEBAS ADICIONALES

Fuente. Esta Investigación

Revista

119

unimar


Por lo tanto, con las tablas comparativas descritas anteriormente se comprobó que el Prototipo Semiautomático Computarizado de Selección de Café en Estado Seco si es una alternativa viable para clasificar granos de café. Comprobando la hipótesis del proyecto de investigación.

AGRADECIMIENTOS A Giovanni Hernández por todo el tiempo dedicado, no sólo como asesor, sino como amigo. A Rolando Barahona, el cual hizo posible que la parte electrónica se desarrollara a cabalidad y cumpliera con todos los requerimientos del sistema.

2 CONCLUSIONES • Identificando los diferentes procesos que realizan los obreros para la selección de café seco en la Finca Tablón de Gómez Nariño, se desarrolló un sistema capaz de mejorar el sistema actual en esta actividad.

A Alexandra Luna, por guiarnos en el proceso investigativo y apoyarnos en todo momento, sin esperar nada a cambio. REFERENCIAS

• Al identificar las falencias que se presenta en el proceso de selección, se comprobó que el Prototipo Semiautomático De Selección De Café En Estado Seco – PSSC es una alternativa viable para mejorar el manejo de dicho proceso, minimizando costos e incrementando la calidad.

• GIRALDO, 2004 “Universidad Nacional de Colombia, Sede Manizales, Facultad de Ingeniería y Arquitectura, Departamento de Electricidad, Electrónica y Computación, Manizales, Colombia.” • RAMIREZ V., C. M. Desarrollo y evaluación de un cosechador de café por vibración circular al tallo. Medellín (Colombia), 1999. Ref. Esp. Tesis (Ingeniero Agrícola) Universidad Nacional de Colombia. Facultad de Ciencias Agropecuarias.

• El Prototipo Semiautomático de Selección de Café en Estado Seco – PSSC relaciona áreas de investigación como la Electrónica, la Zootecnia y la Ingeniería de Sistemas, las cuales permiten optimizar procesos, como en este caso, seleccionar café en estado seco teniendo en cuenta el color del grano.

• SEPARADOR HIDRÁULICO DE TOLVA Y TORNILLO SINFÍN. Chinchiná (Caldas), Junio de 2007. Desarrollado en el programa de investigación científica (CENICAFE), elaborado por Oliveros Tascon, Carlos Eugenio (Autor) Sanz-Uribe, Juan R. (Autor).

• Al desarrollar un Prototipo Semiautomático de Selección de Café en Estado Seco – PSSC, se incrementó notablemente la calidad del café y con la intervención del software con sus reportes, permiten llevar un control en el transcurso del tiempo con respecto a la calidad de sus cosechas.

• ARNAUD, Alfredo. SILVEIRA, Fernando. Experiencias en diseño y prueba de foto detectores en circuitos integrados Standard: del fotodiodo a la cámara CMOS. Universidad de la República Oriental del Uruguay. Instituto de Ingeniería Eléctrica.

• El Prototipo Semiautomático de Selección de Café en Estado Seco – PSSC tiene una proyección social de gran impacto que beneficia al sector cafetero, porque con él se puede optimizar el proceso actual, logrando una mejor rentabilidad en la finca cafetera.

• CASTAÑO, Luís F. PRIETO, Flavio. Sistema de Visión Artificial para Clasificación de Granos de Café Basado en FPGA. Universidad Nacional de Colombia, Sede Manizales. Ponencia EITI 2002, Medellín.

• Otra utilidad que se le puede dar al Prototipo Semiautomático de Selección de Café en Estado Seco – PSSC es la de comparar la calidad de diferentes cosechas en el transcurso del tiempo e identificar si ésta tiende a incrementar o disminuir, permitiendo tomar decisiones con respecto al cultivo.

CIBERGRAFÍA • http://www.cafedecolombia.com/ • http://www.cafedecolombia.com/caficultura/despulpado.html

Revista

unimar

120


Prototipo semiautomático computarizado de selección de café en estado seco

•http://es.wikipedia.org/wiki/Fotodiodo •http://es.wikipedia.org/wiki/Caf%C3%A9#_note-7 •http://es.wikipedia.org/wiki/Motor_el%C3%A9ctrico •http://www.donveitia.com/sp/Coffee_process.htm •http://vinculando.org/documentos/cuetzalan/cafe. html •http://www.minag.gob.pe/cafe.shtml#top •http://www.ate.uniovi.es/11856/fotonicos/teoria/ TEMA5.htm •http://www.spitzer.caltech.edu/espanol/edu/learn_ir/ http://www.spitzer.caltech.edu/espanol/edu/learn_ir http://www.spitzer.caltech.edu/espanol/edu/learn_ir/ •http://www.geocities.com/Eureka/1822/el_cafe/ cafe4.htm •http://www.agrotropical.andes.com/coffee/cafe_historia.htm •http://www.vilescor.es/Historia/recoleccion.htm •http://usuarios.arnet.com.ar/facchin/normasoja.htm •http://www.cenicafe.org/ http://www.cenicafe.org http://www.cenicafe.org/ •http://www.centraldecafe.com/seleccioncafe-importadoras-exportacion.asp

Revista

121

unimar


Revista

UNIMAR


GUÍA PARA LA PUBLICACIÓN DE MATERIALES EN LA

REVISTA UNIMAR La Revista UNIMAR fue creada en 1982, con el nombre de ENCUENTRO, el cual fue modificado debido a que existía otra publicación con el mismo nombre en los registros del ICFES. Desde la edición No. 2 de julio – diciembre de 1982, adopta el nombre de Revista UNIMAR, tomado de la razón social de la Universidad Mariana. Responde a las necesidades de difundir y divulgar el quehacer investigativo y la producción intelectual tanto a nivel estudiantil como docente de la Universidad Mariana y, en general, el intercambio intelectual, académico e investigativo tanto institucional como regional y nacional. Esta revista pretende posibilitar el intercambio, el análisis y la discusión de puntos de vista, enfoques, propuestas y realizaciones de carácter investigativo, en un marco de pluralismo ideológico y de respeto a la opinión contraria, pero donde lo fundamental sea la fuerza del mejor argumento. Tiene una periodicidad trimestral. Por su condición de revistas especializada, la REVISTA UNIMAR exige a los autores rigor en la estructuración de sus colaboraciones las cuales deben corresponder, fundamentalmente, a resultados de procesos investigativos. Cobertura.- La Revista UNIMAR está dirigida a profesionales, investigadores, docentes y estudiantes, empresas, líderes y a todas aquellas personas interesadas en profundizar en las diferentes temáticas que aborda la revista. Circula a nivel nacional e internacional mediante canje interbibliotecario y mediante venta directa, con un tiraje de 200 ejemplares. Tipo de artículos o colaboraciones.- Las colaboraciones deben responder a la “Tipología de documentos para revistas indexadas”, definidos por la Base Bibliográfica Nacional – BBN Publindex y por el Índice Bibliográfico Nacional Publindex – IBN Publindex, aunque el Comité Editorial dará prioridad a los artículos o colaboraciones tipo a, b, c y d. a) Artículo de investigación científica y tecnológica. Documento que presenta. De manera detallada, los resultados originales de proyectos terminados de investigación. La estructura generalmente utilizada contiene cuatro apartes importantes: introducción, metodología, resultados y conclusiones. b) Artículo de reflexión. Documento que presenta resultados de investigación terminada desde una perspectiva analítica, interpretativa o crítica del autor, sobre un tema específico, recurriendo a fuentes originales. c) Artículo de revisión. Documento resultado de una investigación terminada donde se analizan, sistematizan e integran los resultados de investigaciones publicadas o no publicadas, sobre un campo en ciencia o tecnología, con el fin de dar cuenta de los avances y las tendencias de desarrollo. Se caracteriza por presentar una cuidadosa revisión bibliográfica de por lo menos 50 referencias. d) Artículo corto. Documento breve que presenta resultados originales preliminares o parciales de una investigación científica o tecnológica, que por lo general requieren de una pronta difusión.

Revista

123

unimar


e) Reporte de caso. Documento que presenta los resultados de un estudio sobre una situación particular con el fin de dar a conocer las experiencias técnicas y metodológicas consideradas en un caso específico. Incluye una revisión sistemática comentada de la literatura sobre casos análogos. f) Revisión de tema. Documento resultado de la revisión crítica de la literatura sobre un tema en particular. g) Cartas al editor. Posiciones críticas, analíticas o interpretativas sobre los documentos publicados en la revista, que a juicio del Comité editorial constituyen un aporte importante a la discusión del tema por parte de la comunidad científica de referencia. h) Editorial .Documento escrito por el editor, un miembro del comité editorial o un investigador invitado sobre orientaciones en el dominio temático de la revista. i) Traducción. Traducciones de textos clásicos o de actualidad o transcripciones de documentos históricos o de interés particular en el dominio de publicación de la revista. j) Documento de reflexión no derivado de investigación. k) Reseña bibliográfica.

1. PRESENTACIÓN DEL DOCUMENTO O COLABORACIÓN - Extensión máxima de 15 páginas, tamaño carta, a espacio y medio y letra arial 12 puntos. - Los márgenes deben ser de 2.5 cm., con excepción de la izquierda de 3 cm. - Utilizar un lenguaje que sea de fácil comprensión para todos los lectores. - Si utiliza símbolos o abreviaturas debe definirlos la primera vez que aparezcan en el artículo. - Enviar una propuesta de título que resulte atractivo y que tenga estrecha relación con el contenido del artículo. Debe ir centrado, en negrilla y mayúsculas sostenidas. - Tanto los títulos principales como los subtítulos hasta de segundo nivel deben estar en la margen izquierda, en negrilla, mayúscula sostenida, y precedidos con números arábigos. Si se trata de un subtítulo de tercer nivel van con mayúscula inicial, pero en lugar de números arábigos se utilizará viñetas. - Todas las figuras y tablas se deben referenciar en el texto. Si se trata de figuras su numeración y descripción, así como la fuente deben colocarse en la parte inferior de la figura, en letra arial 10 puntos, margen izquierdo. Si se trata de tablas, la numeración y la descripción se debe colocar en la parte superior, centrada, mientras que la fuente irá debajo de la tabla, letra arial 10 puntos, margen izquierdo. - Los párrafos no deben ser inferiores a tres (3) renglones ni superiores a diez (10) - No se debe diagramar ni presentar propuesta de diagramación del artículo. - Anexar las fotos en papel o digitalizadas, acompañando cada una con una breve leyenda, en la cual no debe incluirse frases que ya estén en el artículo. Este material debe ser original, contar con la debida autorización del autor o dar el crédito correspondiente. - Incluir sólo las citas bibliográficas que se referencia en el artículo (en lo posible que no pasen de 10). Estas deben ir numeradas y relacionadas al final del artículo, en orden de aparición. Además deben ser citas completas: autor, libro, editorial, fecha y página. - Entregar dos copias de los materiales a publicar, impresos y en medio magnético, adjuntando una hoja en la cual se sugiera dos árbitros expertos en el tema, uno interno y otro externo a la Universidad Mariana, para su evaluación y aprobación. Sobre el árbitro externo informar sobre: nombre completo, entidad donde labora, teléfono y/o celular, e-mail. El editor se reserva el derecho de seleccionar pares distintos a los sugeridos por los autores.

Revista

unimar

124


2. ESTRUCTURA DEL ARTÍCULO O COLABORACIÓN La estructura del artículo o colaboración debe cumplir con el siguiente contenido: a) partes preliminares: título, datos del autor(es), resumen y palabras claves, abstract y key words; b) cuerpo del artículo: introducción, materiales y métodos, resultados y análisis y conclusiones; c) parte final: agradecimientos (opcional), referencias bibliográficas, anexos (opcional). 2.1 PARTES PRELIMINARES - Título: Breve, informativo y atractivo. Centrado, en mayúscula sostenida, en Español e Inglés. - Datos del autor: Centrados. Primero los nombres y luego los apellidos separados por una coma. Si son varios autores, se colocan uno debajo del otro y centrados. Debajo del nombre de cada autor debe aparecer el título profesional, título de postgrado (si lo tiene), cargo que desempeña actualmente, entidad donde labora, ciudad, país y correo electrónico. Todo esto con letra arial 10 puntos. - Resumen: Refleja los elementos del contenido del artículo. Debe ser redactado en tercera persona y no debe superar las 250 palabras. Debe estar escrito en Español e Inglés, y los títulos RESUMEN y ABSTRACT deben estar centrados, con mayúscula sostenida y en negrilla. - Palabras claves. En Español e Inglés y van a la margen izquierda. Los títulos PALABRAS CLAVE y KEY WORDS, van con mayúscula sostenida y en negrilla. 2.2 CUERPO DEL DOCUMENTO - Introducción: Centrado y con mayúscula sostenida y en negrilla. No se numera. Breve panorámica del tema tratado, justificación del trabajo, objetivos claros, referencias muy bien seleccionadas. - Material y métodos o Metodología: Se identifica con números arábigos, centrado, con mayúscula sostenida y en negrilla. Exposición rigurosa de las características de los sujetos de la investigación, ética, lugar, periodo del estudio, descripción del enfoque y el método de investigación, en las investigaciones cuantitativas incluir la información de las variables estudiadas y de los métodos de medición, y metodología estadística. - Resultados y análisis: Se identifica con números arábigos, centrado, con mayúscula sostenida y en negrilla. Exponer los resultados relevantes, descripción ordenada, formato estadístico, apoyarse en tablas y figuras, sin repeticiones. Destacar los resultados más importantes, comparar con otros estudios similares, exponer las limitaciones del estudio, resaltar las aportaciones teóricas o prácticas, conclusiones derivadas de los datos - Conclusiones: Se identifica con números arábigos, centrado, con mayúscula sostenida y en negrilla. Las conclusiones deben ser coherentes con los objetivos o hipótesis planteadas, y no exceder la extensión del artículo.

Revista

125

unimar


2.3 PARTES FINALES - Agradecimientos: Centrado, con mayúscula sostenida, negrilla y sin numeración. Reconocimientos a personas, instituciones, proyectos, fondos, becas de investigación, etc. que apoyaron el desarrollo de la investigación. - Referencias del artículo: Centrado, con mayúscula sostenida, negrilla y sin numeración .En orden alfabético, seleccionadas según su calidad, citas adecuadas al tipo de artículo. Las referencias que se haga dentro del texto deben cumplir con los siguientes requisitos: usar apellido del autor, año de publicación y página, así: (Arbeláez, 2007:280). Para textos tomados de una página Web debe tenerse en cuenta: apellido(s) del autor(es), nombre, (fecha de la última actualización), título, nombre de la página Web de donde se tomó. (URL). Ejemplo: BURBANO APRÁEZ, Pedro Alberto, 2007. Aprendizaje significativo e investigación. Página consultada el 7 de noviembre de 2007. En http://www.icc.ucv. cl/aprendizaje/investigación.doc

Revista

unimar

126


Revista

UNIMAR 127


Revista

UNIMAR



Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.