Issuu on Google+

CONTENIDO Un diálogo para la historia

3

Editorial: 20 años de la Escuela de Informática

4

Breve historia de la informática en la Universidad de Cuenca

6

Métodos para tratar el problema de la ubicación espacial de sitios compactos

16

Nuestra Bala de Plata

22

Interacción gestual

24

Evolución de las bases de datos

28

El modelo conceptual en una arquitectura dirigida por modelos

31

Estudio y selección de una arquitectura orientada a servicios (SOA), para ser implementada en el Programa: Manejo del Agua y el Suelo (PROMAS)

37

Una primera aproximación a la implementación de un clúster para la ejecución de un modelo de predicción climática

42

Diez principios de la gestión de proyectos que pueden ayudarte en tu profesión

49

Informática urbana

52

Medición de distancias a través de visión estereoscópica

55

Seguridad pasiva: El tópico más descuidado de los conductores actuales y potenciales compradores

60

Breves referentes de la historia universitaria

64

Desarrollo, ética y tecnología

67

El cobro de peaje

72

Control PID digital. Algoritmo, diseño e implementación

76

1


UN ESPACIO PARA LOS DOCENTES DE LA FACULTAD Galo Ordóñez, docente y profesional con mística

82

El deslizamiento de La Josefina Tragedia Nacional

87

OTRO MUNDO ES POSIBLE Herramienta metodológica para alcanzar el aprendizaje significativo

100

Los cuatro pilares de la educación

103

Informe sobre posibles acciones tendientes a la acreditación internacional de la Facultad de Ingeniería

111

ESPACIO PARA TRABAJOS DE ESTUDIANTES Incursionando en la investigación

CONSEJO EDITORIAL • • •

Ing. Patricio Guerrero Ing. Rodrigo Sempértegui Ing. Elina Ávila

Portada

Gráficas Hernández

Impresión

Imprenta General Universidad de Cuenca

COORDINACIÓN GENERAL Mst. Rosa Ávila G.

Diseño y Diagramación

Luis Alfredo Muñoz Dep. de Cultura Universidad de Cuenca Yadira Quezada

2

Aniversario de la Escuela de Informática

20 Años Febrero 2013


GALILEO

Un diálogo para la historia

Si hay nombres paradigmáticos en la historia del pensamiento, el de GALILEO GALILEI es, ciertamente, uno de ellos. Con instrumentos que hoy consideraríamos extraordinariamente sencillos, si no toscos, pero que entonces eran profundamente innovadores (telescopios, planos inclinados, péndulos) y el poder incomparable de su imaginación y capacidad deductiva, Galileo logró que la idea que había propuesto en 1543 Copérnico (es la tierra la que se mueve en torno al sol, y no al revés) comenzara a tener sentido.

Aunque la revolución científica del siglo XVII se inicia con Copérnico, hay un acuerdo general en que sólo la generación posterior, la de GALILEO, desarrolló las consecuencias revolucionarias que estaban implícitas en la obra copernicana. Kepler fue quien halló la primera solución satisfactoria al problema del movimiento de los planetas. Descubrió las leyes que rigen dicho movimiento, leyes que Newton integraría posteriormente en su nueva cosmología. Pero las principales dificultades del heliocentrismo copernicano estaban en el campo de la física, y ahí el gran protagonista fue GALILEO que inició la nueva física. Aunque también hizo importantes contribuciones en el campo de la astronomía,

con sus descubrimientos mediante el telescopio. De hecho, Galileo es el único de los grandes protagonistas de la revolución científica que recorre casi entero el camino desde la antigua cosmología a la nueva. Descartes y los demás científicos de su generación ya se instalan cómodamente en el copernicanismo por el que GALILEO tuvo que luchar toda su vida. Pagó un alto precio, pero su derrota personal no impidió una victoria histórica en el campo científico. Después de ser condenado por la Inquisición y encarcelado de por vida, sus obras, prohibidas o no, se tradujeron a los distintos idiomas europeos antes de su muerte, a pesar de la vigilancia estricta de la Iglesia, y sus teorías científicas triunfaron.

3


EDITORIAL 20 AÑOS DE LA ESCUELA DE INFORMÁTICA Ing. Patricio Guerrero V. Msc. Decano Hace 20 años nació en la Facultad de Ingeniería de la Universidad de Cuenca una escuela, la Escuela de Informática, destinada a capacitar a la juventud de nuestra región en las tecnologías de la informática y la computación que en esa época eran muy poco conocidas. Casi sin sentirlo, han transcurrido ya más dos décadas desde ese 6 de Julio de 1992 cuando el Consejo Universitario creó la Escuela y desde aquel Octubre de 1992 en el que se dictaron las primeras clases. Hoy tenemos una Escuela de Informática solvente y madura, con un bien ganado prestigio y reconocimiento y que, en estos 20 años, ha logrado formar un grupo excepcional de graduados, con una sólida formación científica, un infatigable afán por aprender cada día más y con una personalidad segura y decidida que les impulsa a afrontar retos cada vez más exigentes; prueba de ello es el gran número de egresados de la escuela que han conseguido en forma meritoria sus títulos de cuarto nivel en las mejores universidades del mundo, y muchos otros que se encuentran en ese propósito. La Facultad de Ingeniería publica periódicamente, desde hace más de doce años, la revista “Galileo” en la que se han recogido las crónicas escritas sobre la vida de la Facultad. En esta ocasión, como no podía ser de otra manera, hemos querido dedicar la edición a rendir un homenaje a los 20 años de la Escuela de Informática resaltando los logros y el promisorio futuro de esta escuela que ha ocupado durante su vida un lugar destacado, no solo en nuestra Facultad y en nuestra Universidad, sino en el contexto académico y profesional del país. Hace 5 años, con oportunidad de celebrar los 15 años de vida de la Escuela, tuve la oportunidad de escribir un artículo titulado “Breve Historia de la Informática en la Universidad de Cuenca” que se enfoca fundamentalmente hacia los hechos que precedieron a la fundación de la escuela. En esta edición, dicho artículo está siendo reproducido. También hemos podido contar con la contribución de la Ing. Elina Ávila, actual Directora de la Escuela de Informática, con su artículo “Nuestra Bala de Plata”, muy a lugar en esta ocasión pues nos habla sobre la ingeniería de sistemas y su entorno. Igualmente interesantes y con un contenido histórico debo mencionar los artículos: “Breves referentes de la Historia Universitaria”, del Ing. Hernando Merchán y “Galo Ordóñez, docente 4


y profesional con mística”, entrevista realizada por Rosita Ávila, en la que se destaca la figura de uno de nuestros más destacados y apreciados profesores, quien hace pocos meses se retiró de la docencia después de una dilatada y fructífera carrera de más de 40 años en la Facultad de Ingeniería. Y como ha sido costumbre durante todos estos años, contamos con numerosos artículos científicos, escritos por nuestros profesores y/o estudiantes. Por razones de espacio citaré solamente a los profesores que han colaborado en esta edición: Ing. Ángel Espinoza, Ing. Otto Parra, Ing. Olga Zalamea, Ing. Fernanda Granda, Ing. Jaime Veintimilla, Ing. Fabián Romero, Dra. Guillermina Pauta, Ing. Rómulo Peña e Ing. Danny Ochoa; aunque, de hecho, un apreciable número de estudiantes o graduados de la Facultad han realizado su aporte. Me resulta imprescindible en esta fecha rendir homenaje a la Ingeniería de Sistemas, esta hermosa profesión de características únicas, capaz de crear obras de imponderable belleza … pero que desgraciadamente, solo pueden ser apreciadas por unos pocos. Existen en este campo trabajos realizados con increíble talento, con desbordante creatividad, con impecable cuidado del detalle y de la estética, con tanta o más devoción y esmero que el que pone en sus obras el mejor artesano o el mejor poeta y, sin embargo, ¿quién puede apreciar esos logros? El Ingeniero de Sistemas es un artista cuyas creaciones casi nadie puede comprender. Los músicos, los poetas, los pintores, los orfebres son capaces de crear obras bellas, admiradas por muchas personas. Los frutos del trabajo de otras profesiones son obras tangibles, entendidas y apreciadas por quienes las ven. Los trabajos en el campo de la Informática se realizan en lenguajes que pocos pueden comprender y residen únicamente en el computador y en la mente de sus autores. Pero en éste, como en ningún otro campo, la creatividad se desarrolla en un espacio infinito pues no hay límites para la búsqueda de soluciones. Por ello, quiero rendir homenaje a quienes ejercen esta noble y hermosa profesión y están creando todos los días tantas obras bellas … pero incomprendidas. Concluyo expresando mi más calurosa felicitación y agradecimiento a todos los que trabajan o trabajaron en la Escuela de Informática, a los que estudian o estudiaron en sus aulas, a los que contribuyeron a su formación y desarrollo y a los que continuarán la tarea en los años venideros en esta querida escuela que se encamina día a día hacia un futuro lleno de promesas. Un abrazo a todos. Cuenca, Mayo de 2013

5


BREVE HISTORIA DE LA INFORMATICA EN LA UNIVERSIDAD DE CUENCA Ing. Patricio Guerrero V. El presente artículo es reproducción del publicado en mayo de 2007 con ocasión de los 15 años de la Escuela de Informática Se me ha concedido la oportunidad de escribir sobre la historia de la Informática en la Universidad de Cuenca. Por ello, he querido hablarles sobre todos los esfuerzos y sinsabores que tuvieron que pasar muchos hombres universitarios para llegar a conseguir lo que hoy tenemos: una Escuela de Informática en pleno funcionamiento, con un bien ganado prestigio en la ciudad y el país y un uso solvente y desarrollado de las tecnologías informáticas en nuestro medio. Y no es que la Escuela, al cabo de quince años de existencia, se encuentre ya totalmente libre de problemas sino que, por compleja que fuere, la situación actual no puede compararse con el camino plagado de dificultades que se tuvo que recorrer y que, de no ser por la determinación inclaudicable de algunos pioneros, hubiera conducido al fracaso. Siempre he pensado que aquellos hechos que ocurrieron y que forman parte del inicio de la Informática en Cuenca y en nuestra Universidad, deberían ser conocidos por todos, pues resumen la visión, esfuerzo y sacrificio de muchos hombres universitarios y constituyen los primeros pasos (que son los más difíciles) en una actividad que hoy se desarrolla de manera vigorosa en nuestro plantel y nuestra ciudad. El destino me ha permitido presenciar esta evolución desde un lugar privilegiado y ser también protagonista, en cierta medida, de algunos de estos sucesos; por 6

eso, he querido dejar un testimonio escrito de todos esos recuerdos y, al mismo tiempo, rendir un afectuoso homenaje a todos quienes participaron en los hechos que voy a relatar. Me he arriesgado a escribir estas líneas, aunque no he podido contar con el tiempo suficiente para hacer una investigación más minuciosa y poder corroborar con documentos los hechos que voy a relatar; por ello, confiando sólo en mi memoria y a riesgo de caer en alguna imprecisión, quiero compartir con Ustedes esta secuencia de hechos sencillos, pero de gran trascendencia, matizados con una gran dosis de esfuerzo y renunciamiento. En todos los protagonistas encontraremos, como un denominador común, el idealismo, la visión, el afán de aprender y experimentar cosas nuevas y una enorme decisión para salir adelante de los desafíos autoimpuestos. Por naturaleza, el ser humano es opuesto al cambio. Muchas personas consideran que no hay mayor comodidad que dejar las cosas como están, y mantenerse en lo rutinario y lo usual. Por ello, desde épocas muy antiguas, se ha reconocido, que no hay tarea más difícil que promover un cambio. Nicolás Maquiavelo, uno de los mas sagaces personajes de la historia, nos dice en su obra “El Príncipe”: “No hay nada más difícil de llevar adelante, ni más peligroso de manejar, que iniciar un nuevo orden de


cosas. El innovador – dice Maquiavelo - tiene enemigos en todos aquellos que se benefician de la situación actual (o se sienten cómodos en ella) y solamente tibios defensores en aquellos que creen poder beneficiarse de un nuevo orden de cosas....”. De modo que, en la mayoría de los casos, el innovador tiene que luchar sólo. La historia que voy a contar es una historia de cambios que fueron conseguidos a través del trabajo de muchos hombres que no dudaron en renunciar a su comodidad, planteando ideas innovadoras, investigando en áreas desconocidas y enfrentándose a tareas nuevas; venciendo, además, la resistencia y el escepticismo de muchos de los que les rodearon; contando para ello tan sólo con su inteligencia, su voluntad, su trabajo y su inmenso idealismo. Los obstáculos a superar fueron el escepticismo, la excesiva prudencia, la rigidez de las normas reglamentarias y, por supuesto, las limitaciones económicas. Hoy estamos celebrando los quince años de vida de la Escuela de Informática pero, en realidad, la historia comienza bastantes años antes. Veamos los hechos........ En el año 1973, no había computadores en Cuenca. Fue por esa época que nació la idea de adquirir una de estas máquinas para la Universidad de Cuenca, con el fin de dar apoyo a las actividades administrativas del plantel y, desde luego, como un instrumento para modernizar la docencia en las áreas técnicas. Los Ingenieros Hernán Vintimilla y Patricio Cordero fueron de los primeros en promover estas ideas. Sin embargo, una máquina de este tipo era bastante cara y los recursos económicos nunca han sobrado en la Universidad de Cuenca. ¿Cómo adquirir, entonces, el computador sin que represente una carga económica excesiva para el plantel? La respuesta fue muy simple: dando servicios

de cómputo a empresas de la localidad y cobrando por estos servicios. Fue así, bajo estas premisas, que el Consejo Universitario de esa época dio su autorización para la compra. En Noviembre de 1973 llegó el primer computador a la Universidad de Cuenca y a nuestra ciudad. Se trataba de un IBM S/3, con 16 Kb en RAM (si, leyeron bien… 16 Kb, es decir 16384 posiciones de memoria. Eso era todo lo que tenía esta máquina en memoria RAM. Hoy en día, cualquier máquina que se vende no tiene menos de 256 MB, es decir, alrededor de 256’000.000 de bytes), dos discos duros, uno fijo y uno removible, con 1 Mb. de capacidad cada uno. (Parece que, con esas dimensiones no se podría hacer nada ¿no es cierto?) Se adquirieron también dos compiladores, uno de RPG, y otro de Fortran; el primero, para el desarrollo de aplicaciones administrativas y, el segundo, para aplicaciones técnicas y apoyo a la docencia. Este computador funcionaba con tarjetas perforadas por lo que se compraron, además, tres máquinas perforadorasverificadoras. El volumen físico de la máquina era gigantesco, si se lo compara con las actuales, pues ocupaba un volumen de unos 9 mts. cúbicos, aproximadamente; es decir, se requería una sala de regulares dimensiones para alojarla. Pero ¿cómo cumplir con el compromiso de dar servicios a Empresas de la localidad? Tómese en cuenta que en esos momentos no habían analistas, ni ingenieros de sistemas, ni programadores ni nada que se les parezca en esta ciudad y, posiblemente, habían muy pocos en el país. De modo que Hernán Vintimilla y Patricio Cordero emprendieron juntos la peligrosa aventura de desarrollar los sistemas informáticos necesarios para la Universidad de Cuenca, para ETAPA y para la Empresa Eléctrica. Desde antes de la llegada del computador a Cuenca, ellos empezaron a estudiar 7


el lenguaje RPG, y tuvieron que viajar a la ciudad de Guayaquil en donde, durante la noche (que era el único horario en el que se les permitía utilizar un computador que les prestaban) tenían que probar los programas. El inhumano horario de trabajo era de 8:00 p.m. a 6:00 a.m. pero, muchas veces, las horas de toda una noche no fueron suficientes para obtener el resultado anhelado. Así, bajo estas condiciones tuvieron que trabajar para iniciarse en los misterios de la programación. Cuando llegó el computador a Cuenca, ya era un verdadero lujo disponer de una máquina propia, poder trabajar en un horario normal, en esta misma ciudad y poder dormir a las horas que Dios manda (aproximadamente). No obstante, como sabemos ahora, el desarrollo de sistemas es mucho más que programar un computador, por lo que todavía tuvieron que aprender mucho, de manera autodidacta, y luchar por un largo tiempo (creo que fueron al menos unos dos años más), hasta que los sistemas de información se completaron y se optimizaron. Durante un buen tiempo, todavía tuvieron que trabajar horas extras y robar tiempo al sueño y a la vida familiar hasta que, al fin, un día el objetivo se consiguió. Por varios años, la emisión de facturas de Etapa y de la Empresa Eléctrica se hizo en el computador S/3 de la Universidad de Cuenca. Adicionalmente, se elaboraron los sistemas para el cálculo de roles de pago y para llevar la Contabilidad del plantel. De todos estos trabajos, fueron autores Hernán Vintimilla y Patricio Cordero, los primeros en desarrollar sistemas de información en nuestro medio. Todos quienes, alguna vez, hemos trabajado en la creación de aplicaciones informáticas, podemos valorar el enorme sacrificio de estos dos precursores autodidactas que asumieron sobre sus espaldas el reto de crear estos sistemas de información, prác8

ticamente sin ninguna ayuda; extrayendo por si mismos el conocimiento desde los áridos manuales, con sólo su inteligencia y su enorme entrega y sin más recompensa que la satisfacción de superar uno a uno los obstáculos que iban apareciendo. Se propusieron conseguir un computador para la Universidad de Cuenca, sin que éste constituya una carga económica para el plantel, y lo consiguieron. Trabajaron incansablemente para demostrar que el escepticismo de algunas autoridades no tenía razón de ser. Creo que es justo ahora, después de más de 30 años de estos sucesos, reconocer y saludar la labor que cumplieron Hernán Vintimilla y Patricio Cordero, magníficos profesores y hombres universitarios por excelencia, que han dejado gran parte de su vida en las aulas universitarias, por lo cual han merecido el reconocimiento y el respeto de todos quienes los conocemos pero que, además de todo aquello, cuentan con un mérito más en su trayectoria: el de haber sido los pioneros en el desarrollo de la Informática en nuestra ciudad (y nuestra región) y de haber dedicado muchos años de esfuerzo y sacrificio a esta tarea. Pero Ustedes, amables lectores, se estarán preguntando ¿cómo es que el autor de estas palabras sabe estas cosas?¿donde estaba yo en el año 1973? …Por esas épocas yo cursaba el último año de Ingeniería Civil (¿es que acaso no sabían que yo soy Ingeniero Civil?) y me encontraba buscando un tema para mi trabajo de graduación. Se me ocurrió pedirle consejo a Hernán Vintimilla y ¿qué creen que me sugirió? Me dijo que estaba por llegar a la Universidad de Cuenca un computador y que debía aprovechar este recurso para aplicar todo su potencial en la solución del problema que me interesaba (que era el cálculo estructural). Así que me puse a conseguir bibliografía sobre el lenguaje Fortran, Métodos Numéricos y Cálculo de Estructuras y tuve que apren-


der a programar en los libros, sin la ayuda de ningún profesor y sin contar todavía con el tan ansiado computador. Cuando por fin se dió la llegada de la portentosa máquina, pude probar el resultado de mis incipientes esfuerzos de programación y me esperaban varios meses de lucha para poder, más o menos, convencerle al computador para que obedeciera mis instrucciones. Mi tesis se tituló “Cálculo Matricial de Estructuras con Aplicación al Computador IBM S/3” y fue la primera que se desarrolló en Cuenca, con la ayuda de un computador. Mientras desarrollaba y probaba los programas que formaban parte de mi tesis, me tocó compartir largas horas de trabajo en la flamante máquina y presenciar el esfuerzo de Hernán Vintimilla y Patricio Cordero en la creación de sus sistemas. Para mi tesis utilicé el compilador de lenguaje Fortran, que nadie en esta ciudad había usado (ni siquiera Hernán o Patricio) por lo que, muchas veces me encontré desolado, con un programa que se “caía” o generaba resultados extraños y sin nadie que me pudiera guiar. Hoy, más de 30 años después, espero que nadie en todo este tiempo haya sometido mi tesis a un análisis muy severo pues, como pude aprender años después, adolece de muchas deficiencias. Me daría mucha vergüenza que todas estas fallas salgan a flote ahora. Por fortuna, tales deficiencias no fueron detectadas en su momento, lo que explica que tenga en mi casa mi título de Ingeniero Civil. De todas maneras, en aquel momento fui arrastrado por el entusiasmo y la energía de Hernán y por el apasionante mundo de la Informática que recién nacía en nuestra ciudad. Si algún mérito tuvo mi tesis, fue el de haber constituido el primer intento, en nuestro medio, de usar el computador para la solución de un problema de Ingeniería. Las circunstancias que se dieron en torno a mi trabajo de graduación fueron decisivas en mi vida y fueron el inicio de mi relación definitiva

con la Informática aunque, en su momento, fue una decisión arriesgada y que demandó de mí un enorme esfuerzo. Pude haber escogido un tema más conocido y más seguro para graduarme, pero elegí la ruta más difícil y no me arrepiento de ello. Hernán Vintimilla fue el “culpable” y valga la oportunidad para darle mi agradecimiento personal a este eximio maestro y hombre universitario que, como lo ha hecho con tantas generaciones que han pasado por las aulas de la Facultad de Ingeniería, supo brindarme sus enseñanzas y consejos y conducirme hacia este mundo apasionante de la Informática que ha pasado a formar parte de mi vida. El computador IBM S/3 funcionó por algunos años y sirvió para que varias generaciones de estudiantes de la Facultad de Ingeniería aprendieran a programar en el lenguaje Fortran, pues la enseñanza de este lenguaje se incorporó a los programas de estudio de la carrera de Ingeniería Civil (que era la única carrera que se dictaba en la Facultad de Ingeniería en esa época). La parte docente estuvo a cargo de Salvador Monsalve quien, en 1974 viajó a Argentina para estudiar Métodos Numéricos y Computación. (Y fue precisamente esta ausencia de Salvador, la que permitió que yo ingresara como profesor accidental de la Facultad, en su reemplazo, dictando clases de Análisis Matemático). Posteriormente, también yo tuve la oportunidad de enseñar Programación en la Facultad. Estas primeras experiencias docentes se cumplieron con la intención de complementar las carreras de Ingeniería Civil o Eléctrica; es decir, enseñar a usar el computador como un auxiliar para efectuar los cálculos matemáticos propios de la Ingeniería, mas no se pensaba en emprender la enseñanza de la Informática como tal. Para ello, todavía tendrían que pasar varios años. Hay que considerar que estos primeros pasos 9


del desarrollo de la Informática en nuestro plantel estuvieron a cargo de Ingenieros Civiles, pues no existían en nuestro medio Ingenieros de Sistemas ni nada semejante. Por el año 1977, el Ing. David Balarezo viajó a México y permaneció en ese país hasta 1980, estudiando en la Universidad Nacional Autónoma de México (UNAM). El título que obtuvo fue el de Maestro en Ciencias de la Computación. Los estudios realizados por el Ing. Balarezo se hicieron sin el auspicio de la Universidad de Cuenca; sin embargo, a su regreso al país pudimos conseguir, afortunadamente, su incorporación como profesor a la Facultad de Ingeniería, en la cual pasó a ejercer la cátedra, siempre en apoyo de las carreras de Ingeniería Civil e Ingeniería Eléctrica, que eran las que existían en esa época y enseñando a usar el computador como instrumento de ayuda a estas profesiones. Pero él, con la formación recibida en su Maestría, fue el primero en concebir y ejecutar proyectos académicos con el objetivo de enseñar la Informática, como profesión. Con las ideas de David Balarezo, se diseñaron 2 cursos para la formación de Programadores. El primero, entre los años 1981 y 1983 y, el segundo, entre 1984 y 1986. Para esa época el emblemático IBM S/3 ya había sido reemplazado por una nueva máquina: un computador IBM S/34. Desgraciadamente, la demanda de servicios de cómputo ya había crecido mucho y el sistema 34 resultaba insuficiente para atenderla, por lo que algunas materias de los cursos de Programación se dictaron de manera muy precaria debido a la falta de recursos logísticos. Pero, al fin o al cabo, se logró graduar a un buen número de profesionales a nivel intermedio, con el título de Programadores. En estos proyectos académicos, el mayor peso recayó sobre los hombros de David Balarezo quien dictó casi todas las materias y asumió la Direc10

ción Académica de tales cursos. Hay que recalcar que estos proyectos académicos fueron autorizados por el Consejo Universitario, a condición de no generar gastos adicionales al plantel; por ello, no se podían contratar profesores destinados a este proyecto, ni se disponía de equipos o bibliografía para el efecto. (Una vez más se hacían presentes las limitaciones económicas en nuestro plantel). Los cursos no tenían el auspicio académico formal de la Facultad de Ingeniería, aunque los profesores y las aulas pertenecían a esta Facultad. Se carecía de presupuesto y recursos administrativos propios, lo cual hacía que muchas labores se tornaran casi imposibles. Todos estos obstáculos fueron superados con la convicción y la voluntad de David Balarezo, quien dedicó innumerables horas de trabajo al cumplimiento de la meta que se había trazado: enseñar Informática en la Universidad de Cuenca. Fue este hombre el verdadero iniciador de la enseñanza de la Informática en nuestro plantel, mucho antes de que se pensara en la creación de una Escuela como la que hoy conocemos. Hoy, después de transcurridos más de 25 años, es justo que reconozcamos su visión y esfuerzo. Aquí, nuevamente, se vuelve a entrelazar mi vida personal con la historia de la Informática en Cuenca: y David Balarezo cumplió en ello un rol decisivo. Mientras él realizaba sus estudios en la UNAM, me ayudó a hacer contacto con esa Universidad y refrescar mi antiguo interés por la Informática. Producto de ello, estudié en esa universidad entre 1980 y 1983 en donde obtuve también, al igual que David, la Maestría en Ciencias de la Computación. Salvador Monsalve, por su parte, realizó nuevos estudios en Israel, en la rama de la Informática y sus aplicaciones a la Ingeniería.


Por los años 1984 y 85, Salvador Monsalve, David Balarezo, y yo seguíamos ejerciendo la docencia en la Facultad, apoyando las carreras de Ingeniería Civil e Ingeniería Eléctrica y colaborando también en los cursos para “Programadores”. Sin embargo, pronto comprendimos la necesidad de emprender la enseñanza de la Informática a un nivel más profundo. Por aquella época, se había creado en la Universidad de Cuenca un ente denominado “Instituto de Computación e Informática” que fue un intento de darle sustento legal y administrativo a todo lo relacionado con la Informática, incluida la docencia, en la Universidad de Cuenca. (La idea nació de David Balarezo, tratando de trasplantar en Cuenca los institutos de investigación y docencia que funcionan en la UNAM. Sin embargo, las normas reglamentarias de nuestro plantel no se adaptaban a las funciones docentes que se suponía que este organismo debía cumplir). Por el año 1986, fui nombrado Director de este Instituto y, como primera tarea, nos pusimos a diseñar un proyecto académico más ambicioso, destinado a formar “Analistas de Sistemas”. Con enorme entusiasmo, emprendimos la elaboración de nuestro proyecto. Los protagonistas principales fuimos Salvador Monsalve y Patricio Guerrero. (David Balarezo, debido a compromisos particulares de trabajo, ya no podía seguir brindando su aporte en la misma magnitud que lo había venido haciendo hasta entonces). Por fin, en 1987, el Consejo Universitario dio su aprobación para que el proyecto académico de “Análisis y Diseño de Sistemas” arranque en Octubre de ese año. La duración del proyecto se fijó en 3 años. Ese fue el verdadero nacimiento de la Informática como profesión en nuestra ciudad. Como consecuencia de las rígidas normas reglamentarias, de las dudas de las autoridades universitarias y las siempre presentes dificultades económicas, las condicio-

nes bajo las cuales se autorizó la ejecución de este proyecto fueron bastante restrictivas: en primer lugar, la responsabilidad académica no estaba a cargo de ninguna Facultad sino del Instituto de Computación e Informática; por otra parte, el número de alumnos debía estar restringido, lo que impuso, de hecho, la necesidad de organizar un examen de admisión. Además no se autorizaba el dictado de más de un ciclo de la carrera al mismo tiempo y, por último, la autorización del Consejo Universitario permitía la ejecución del proyecto por una sola vez. (Aunque no se negaba de manera expresa la posibilidad de una segunda edición del proyecto, para ello se tendría que tramitar una nueva autorización, una vez que haya concluido la primera.). Todas estas medidas se aplicaron con el fin de reducir al máximo la demanda de recursos humanos, económicos y logísticos del nuevo proyecto. En la práctica, las reglas establecidas se convirtieron en una enorme carga sicológica y de trabajo para profesores y alumnos que decidimos enfrentar el reto. En lo que se refiere a los estudiantes, quien llegaba a perder un ciclo, quedaba automáticamente fuera de la carrera pues, por la modalidad bajo la cual se dictaba el curso, el ciclo perdido no se podía volver a dictar. Por otra parte, el hecho de que no se contaba con el apoyo logístico, administrativo y financiero de una Facultad, hacía imposible la contratación de profesores, la adquisición de equipos, etc. De modo que los cursos de Análisis y Diseño de Sistemas se tenían que organizar con las horas adicionales de profesores que ya laboraban en la Universidad, en las aulas que bondadosamente nos prestaba la Facultad de Ingeniería y usando los equipos del Centro de Cómputo de esta Facultad. Tampoco contábamos con la colaboración de la Secretaría de la Facultad para matrículas o registro de notas. 11


El hecho fue que, entre Salvador Monsalve y yo, tuvimos que dictar, cada uno de nosotros, al menos una materia distinta en cada ciclo, desde el 1º. hasta el 6º. El esfuerzo fue realmente agotador. Con nosotros, colaboraron otros profesores tales como David Balarezo, Ricardo Serrano, Omar Cueva, Carlos Cordero Díaz, Carlos Heredia, así como el Dr. Carlos Ramírez y la Lcda. Catalina Astudillo en la materia de Inglés. Y pido perdón a todos aquellos que deberían estar en esta lista y que mi memoria no los recuerda en este momento. Sólo el indeclinable tesón de quienes estuvimos involucrados en esta tarea nos permitió salir adelante. En especial, vale la pena destacar la extraordinaria dedicación y talento de aquel primer grupo de estudiantes, que llegaron a ser los primeros profesionales de la Informática en nuestro medio. Aún hoy, muchos de ellos ejercen con brillantez su profesión de Analistas de Sistemas. De 120 admitidos en Octubre de 1987, egresaron alrededor de 60. Con la mayoría de ellos nos une, hasta ahora, el afecto y el respeto ganado en incontables horas de trabajo y sacrificio. En 1990, una vez que la primera generación de estudiantes había egresado, obtuvimos la autorización para ejecutar, por segunda vez, el proyecto para “Análisis y Diseño de Sistemas”. Y empezamos, una vez más a cumplir la durísima tarea que ya les he contado, bajo las mismas condiciones de la primera vez. Sin embargo, nuestras fuerzas empezaron a flaquear (me refiero a Salvador Monsalve y al autor de estas líneas) y llegamos concluir que, si la enseñanza de la Informática iba a tener un futuro en la Universidad de Cuenca, era imprescindible que el proyecto fuera acogido por una Facultad y, desde luego, pensamos en la Facultad de Ingeniería. Al mismo tiempo, se consideró necesario elevar 12

el nivel del título a otorgarse, que debería ser el de Ingeniero de Sistemas, en lugar del anterior, de Analista y se empezó a trabajar en el proyecto. Todavía hubieron dificultades. El Consejo Directivo de la Facultad de Ingeniería, en el año 1990, rechazó el pedido de constituir la Escuela de Informática y acoger los proyectos que habían estado a cargo del Instituto de Computación e Informática; pues una de las autoridades de esa época consideró que era necesario presentar estudios adicionales sobre el interés que podían tener los bachilleres en estudiar tal carrera, y sobre las posibilidades de trabajo que tendrían los eventuales egresados. (No fue suficiente prueba del interés de nuestros bachilleres que a cada examen de ingreso se presentaran alrededor de 400 aspirantes, ni fue suficiente prueba de las posibilidades de trabajo en esta rama que todos los egresados de los proyectos realizados hasta la fecha se encontraran trabajando, aún desde antes de haberse graduado). Esta exigencia retrasó por casi dos años la constitución de la Escuela de Informática. Finalmente, en el año 1992, la Escuela se hizo realidad y se cambiaron los programas de estudio para dejar de formar Analistas y pasar a entregar títulos de Ingenieros de Sistemas. Se diseñó también un proyecto especial para que, aquellos que completaron sus estudios de Análisis y Diseño de Sistemas, pudieran seguir un programa complementario que les permita obtener el título de Ingenieros. Muchos estudiantes aprovecharon esta oportunidad que, por desgracia, se ofreció una sola vez. Varios otros, que no pudieron hacerlo, siguieron después estudios en otras Universidades de la ciudad y, probablemente, consiguieron un título en aquellos otros planteles que les dieron esa oportunidad. ¿Ironías de la vida o error de la Universidad de Cuenca? El hecho es que profesionales de extraordi-


naria valía, formados en la Universidad de Cuenca, poseen un título de Ingenieros de Sistemas, conferido por otro plantel, para acreditar su capacidad y sus conocimientos. Lo demás ya es historia reciente y posiblemente es conocida por ustedes...... El Ing. Salvador Monsalve fue nombrado como primer Director de la Escuela de Informática, cargo que ejerció entre los años 1992 y 1996. Con el apoyo de toda la infraestructura de la Facultad de Ingeniería, las condiciones de trabajo pasaron a ser muchísimo mejores pero, de todas maneras, se tuvo que seguir luchando contra las limitaciones de siempre y la rigidez de las normas reglamentarias que no se adaptaban a la realidad y las necesidades de una escuela nueva. No obstante, desde esa posición, Salvador Monsalve desarrolló un trabajo gigantesco y abnegado que terminó por darle madurez a la Escuela y un nivel académico excepcional, reconocido en todo el país. De manera infatigable, se dedicó al estudio y a la investigación y promovió innumerables cambios y mejoras en los planes de estudio. Con la lucidez propia de los visionarios continuó, de manera autodidacta, su formación continua en las áreas más nuevas de la Informática, transfiriendo a sus alumnos lo aprendido, a través de la cátedra y auspiciando y dirigiendo numerosos trabajos de graduación, de extraordinaria calidad técnica. Cuando concluyó su período de Director de la Escuela, como miembro del Consejo Académico, siguió aportando con toda la brillantez de su talento y experiencia, a la toma de decisiones trascendentales. Desgraciadamente, en los actuales momentos, el trabajo de más de 30 años de este hombre brillante, de extraordinaria calidad humana e intelectual, se ha interrumpido. Víctima de rencores e incomprensiones originados

en la Universidad y en la misma Escuela por la que tanto trabajó, prefirió acogerse a la jubilación, privándonos de su invalorable aporte. Y aunque suenen disonantes en el contexto de este artículo, quiero expresar mis palabras de inconformidad por los ataques que sufrió, de la manera más injusta. Ahora, Salvador Monsalve (“Shalva”, como cariñosamente le llamamos sus amigos) ya no está en su escuela, que tanto le debe a él. Él se fue cuando todavía tenía mucho más que aportar. No se fue agotado ni vencido por la edad ni el cansancio; se fue resentido por la incomprensión de quienes no supieron valorar sus cualidades intelectuales y humanas. ¿Qué Shalva Monsalve tuvo muchos defectos? ¿Y quién no los tiene? Para quienes tuvimos la suerte de trabajar a su lado, el balance es ampliamente positivo. Quiero dejar aquí explícitamente sentado mi homenaje a este hombre de dimensión extraordinaria que fue el padre de la Escuela de Informática en nuestra Facultad. Y si seguimos hablando de la historia reciente, es de justicia reconocer los méritos del Ing. Otto Parra, quien ha sido un pilar fundamental en el desarrollo y la madurez de la Escuela de Informática. Estudioso incansable, hombre universitario por excelencia, que ha dedicado su tiempo a la Universidad más allá de horarios y de calendarios; profesor riguroso que ha transmitido sus enseñanzas a varias generaciones de alumnos y que ha contribuido de forma decisiva a configurar un alto nivel académico en la escuela; éstos y otros más son los méritos de Otto Parra quien, aunque pertenece a la nueva generación de profesores, ha dejado ya una huella indeleble en la historia de la Escuela. Hoy en día, él ejerce las funciones de Director de Desarrollo Informático en la Universidad de Cuenca y, como tal, es el responsable de la dotación y soporte de los servicios informáticos en el 13


plantel. (digno sucesor de Hernán Vintimilla y Patricio Cordero, aquellos precursores que en 1973 crearon los primeros sistemas de Recursos Humanos y Contabilidad del plantel).

tantes en muchas ocasiones. Numerosos certámenes y concursos han tenido como triunfadores a nuestros estudiantes y es reconocida la calidad técnica de los profesionales formados en la Escuela.

Al hablar de Otto Parra, no se puede dejar de mencionar que, siendo como es un enamorado decidido de la Informática, eligió como esposa a María Fernanda Granda, la más brillante estudiante que ha pasado por la Escuela, única en haber recibido el Premio Benigno Malo que otorga la Universidad de Cuenca a sus más destacados alumnos y que actualmente ejerce la cátedra y la Dirección de nuestra Escuela. Induce a la reflexión observar cómo el destino y la vida de las personas se entrelaza con la vida de las instituciones y, en este caso, con los avances de la Informática en la Universidad de Cuenca: Otto Parra y María Fernanda Granda, una pareja que se conoció en las aulas de la Escuela y que hoy están unidos por lazos familiares y por su trabajo y esfuerzo común en el desarrollo de la tecnología, tanto en su enseñanza como en su aplicación en el plantel.

Recientemente se ha iniciado ya la docencia a nivel de postgrado en temas de la Informática. Este ya es un síntoma innegable de desarrollo y madurez. También hay precursores en estos nuevos caminos que la Escuela ha empezado a transitar. Pero ya no voy a hablar de ello porque son hechos en los que ya no he participado. (A mi me pidieron que hablara de las cosas viejas y de las experiencias que viví y que llevo en mi alma y mi corazón). De los nuevos esfuerzos, muy valiosos por cierto, deberán hablar, dentro de 30 años, aquellos que hoy están entregando toda su energía y entusiasmo a la consecución de nuevas metas. O, quien sabe, a lo mejor me vuelven a pedir a mi que lo haga, en cuyo caso tendré que agregar a estos recuerdos unas cuantas páginas más.

Hasta ahora, aún con quince años de vida, todavía subsisten en la Escuela algunas dificultades; una de ellas, el no contar con una planta completa de profesores. Varios profesionales de gran nivel técnico han prestado su aporte pero, en muchos casos, la condición de profesores accidentales (y las condiciones concomitantes de inestabilidad y salario reducido), han hecho que su paso sea fugaz. Aunque ya han mejorado mucho las condiciones, pues se han conseguido decisivos logros en la consolidación de la planta docente, aún queda trabajo por hacer. Sin embargo, pese a las condiciones adversas, como resultado del trabajo y talento de profesores y estudiantes de la Escuela, se han conseguido triunfos impor14

Como epílogo, terminaré de contar mi historia: en 1992 dejé el profesorado a tiempo completo, que había ejercido por 18 años y reduje mi participación como docente en la Facultad. En 1994, estuve a punto de abandonar para siempre la docencia, pero fue Salvador Monsalve, mi amigo y colega, quien me convenció que no lo hiciera y que le “ayudara a trabajar” (fueron sus palabras textuales) en esta Escuela en la que tanto amor y esfuerzo habíamos depositado. Tuve oportunidad de ejercer la Dirección de la Escuela entre los años 1996 y 2000, período en el cual pude contar, como siempre con la ayuda y el consejo de Salvador Monsalve, así como con el apoyo y la confianza de Fabián Carrasco quien cumplió, en ese mismo período, las funciones de Decano de la Facultad. Precisamente, fue obra de Fabián Carrasco la


construcción del actual local del Centro de Cómputo de la Facultad. Y eso es todo. Aquí estoy, sintiéndome como un dinosaurio, como el último sobreviviente de una especie en extinción, pues soy uno de los pocos que aún sigue en la Universidad, de aquel grupo de hombres y mujeres que dimos los primeros pasos para desarrollar la Informática en nuestro medio y para crear la Escuela. Y, como es natural, otros han tomado la posta para continuar la labor. La Escuela está cumpliendo 15 años de vida y se enrumba vigorosa hacia el futuro. Al mirar hacia atrás y contemplar estos 34 años de historia, confieso que me invaden sentimientos de nostalgia, pero también de alegría y orgullo, porque este trabajo, en el que el destino me ha permitido participar, ha dado frutos sanos y vigorosos, el mayor de los cuales es la Escuela de Informática, que seguramente seguirá creciendo y fortaleciéndose cada día más. Ojalá que así sea. Me enorgullezco de haber tenido muchos alumnos brillantes, que hoy ejercen su profesión y aplican sus conocimientos de manera brillante en diversas instituciones. Varios de ellos han estudiado en reconocidas Universidades del mundo, cosechando triunfos académicos y dejando la huella de su trabajo y de su esfuerzo, como en su momento lo hicieron en las aulas de nuestra Escuela. Los triunfos de nuestros alumnos son también, un poco, triunfos de quienes les iniciamos en estas labores. Algo de bueno habremos hecho para que tantos talentosos estudiantes, hoy convertidos en brillantes profesionales, cumplan roles destacados en las más grandes y reconocidas instituciones de nuestra ciudad y país. Y yo sigo en la cátedra aunque, cada vez con más fuerza, me pregunto si no es la hora de dejar el paso a los jóvenes que, hace rato, me superaron en conocimientos y cuentan

además, con el vigor y entusiasmo de su juventud. Por ahí he escuchado la frase “pobre de aquel maestro que no es superado por sus discípulos”; obviamente, ese no es mi caso. Todo lo contrario, me siento orgulloso de haber sembrado algunas semillas y de ver como han germinado tantos y tan hermosos frutos. Pero, ya que mencioné una frase, aquí va otra: “más sabe el Diablo por viejo que por Diablo”. Me aferro a ella para seguir en la cátedra pues creo que todavía puedo enseñar a mis alumnos una o dos cosas que no están en los libros y que son fruto de la experiencia, aquel conocimiento que sólo nos llega con los años. Y bien; no quiero aburrirles más. He compartido con ustedes mis recuerdos, en los que estoy seguro que existen muchas omisiones e imprecisiones pero, tal vez es mejor dejarlos así, incompletos e imperfectos y, por eso mismo, cargados de humanidad. Quise destacar los hechos más trascendentales y he tenido que batallar mucho con el idioma, con mi memoria y con las naturales limitaciones de tiempo y espacio; así que, finalmente, me he visto obligado, voluntaria o involuntariamente, a dejar de mencionar a muchos hombres y mujeres que forman parte de esta historia. A todos ellos les pido perdón. Ojalá que estas palabras sirvan de motivación para aquellos jóvenes, hombres y mujeres universitarios, que se impongan retos en sus estudios, en su carrera, en la docencia, en la investigación. Tendrán que enfrentar dificultades para conseguir sus metas pero, al pasar el tiempo, podrán sonreir con la satisfacción de, simplemente, haberlo logrado.

Cuenca, Mayo de 2007. 15


MÉTODOS PARA TRATAR EL PROBLEMA DE LA UBICACIÓN ESPACIAL DE SITIOS COMPACTOS Ing. Pablo Vanegas P. PhD Subdecano

RESUMEN El presente artículo realiza un breve estudio sobre el concepto de compactibilidad y revisa los métodos aplicados para tratar este problema en aplicaciones para la ubicación espacial de sitios compactos. Se definen los métodos utilizados en propuestas de diferentes autores y se analizan los resultados obtenidos. Se coloca particular atención en el análisis de métodos exactos y heurísticos, así como se establecen criterios que permitan definir cuando utilizar una u otra técnica. Introducción La toma de decisiones en base a información espacial ha tomado relevancia en los últimos años, situación que se produce quizá por la disponibilidad de computadores de altas prestaciones que han facilitado la investigación y desarrollo científico en el tratamiento de la información espacial. Un aspecto es particularmente importante en este contexto: las relaciones espaciales. Egenhofer [1989] define tres clases de relaciones espaciales: métricas, de orden y topológicas. La relación topológica es un concepto matemático que tiene su origen en los principios de adyacencia y conectividad [Van-Orshoven, 2007], la cual describe 16

la relación entre un objeto y sus vecinos [Rahman and Pilouk, 2008]. Las relaciones topológicas son invariantes bajo los efectos de transformaciones geométricas tales como traslación, rotación y escala [Egenhofer, 1989]. Adicionalmente, las relaciones topológicas pueden ser definidas a través de 3 componentes de un objeto: su interior, sus límites y su exterior [Pullar y Egenhofer, 1988]. La adyacencia es un tipo de relación topológica la cual es útil para determinar la compactibilidad (compactness), fragmentación y agrupamiento (clustering) de unidades espaciales. La compactibilidad es difícil de describir y usualmente es entendida como una propiedad espacial que poseen un conjunto de objetos cercanamente agrupados. Esta idea un tanto ambigua, nos lleva a diferenciar grupos de objetos fragmentados de grupos compactos. Un ejemplo simple se muestra en la figura 1. Mientras las 9 celdas negras en la figura 1a forman un área fragmentada, las celdas negras en la figura 1b son compactas. La fragmentación es una propiedad espacial que puede definirse por la ausencia de continuidad. Un sitio es continuo, si es posible caminar de una unidad espacial (ej. celda) a otra sin salir del sitio [Xiao, 2006]. De todas formas, la continuidad no es suficiente par garantizar compactibilidad, pues los sitios continuos aún pueden contener orificios. Un orificio


es un conjunto de objetos espaciales totalmente conectados que no están incluidos en, pero sí completamente rodeados por el sitio [Shirabe, 2004]. La figura 1c muestra un sitio perforado con un orificio. En consecuencia, la compactibilidad puede entenderse como una propiedad espacial definida por la presencia de continuidad y la ausencia de perforación. Un concepto más general de compactibilidad es aún elusivo.

a

b

c

Figura 1. Sitios fragmentados, compactos y perforados

La figura 2 muestra dos configuraciones espaciales donde cada celda en negro está asociada con el número de sus celdas adyacentes. Una región es más compacta cuando las celdas negras comparten más bordes en común con otras celdas negras. La compactibilidad es una propiedad que puede tener diferentes grados y sujeta a ser maximizada al incrementar la adyacencia entre los objetos espaciales. De esta forma, si el área de una región se mantuviese constante, un mayor nivel de adyacencia entre sus celdas conduciría a un perímetro menor. Haciendo uso de esta idea, los primeros intentos de desarrollar un índice para medir la compactibilidad hacen uso de la relación entre el perímetro y el área [Maceachren, 1985].

2

2

2

2

1

3

1

1

Figura 2. Compatibilidad y su relación con adyacencia

La compactibilidad pertenece al Problema de la Zonificación Automática, definida por Openshaw [1996] como un problema duro de optimización (hard optimizaction problem), donde N bloques son agrupados en M zonas; de tal forma que, alguna función (o funciones) en los datos de las M zonas es (son) optimizadas sujeta (s) a varias restricciones en la topología de las M zonas y en la naturaleza de sus datos. La compactibilidad es un aspecto que ha estado usualmente presente en el problema de la localización o ubicación de sitios geográficos, el cual a su vez pertenece al área de Análisis de Optimización Espacial. Diversas técnicas analíticas y computacionales han sido aplicadas para identificar áreas compactas óptimas o cerca lo óptimo. 2. Técnicas aplicadas para ubicar sitios compactos 2.1 Métodos Heurísticos Una heurística es un forma específica de alcanzar una solución a un problema. Tomando en cuenta que el peor caso en algunos algoritmos necesitan tiempo exponencial para encontrar una solución óptima, los métodos aproximados, usualmente llamados heurísticas, obtienen soluciones cerca de lo óptimo en tiempo computacional relativamente bajo. Estos métodos no pueden garantizar que la solución llegue a un óptimo global [Dorigo and Stutzle, 2004]. Cuando las heurísticas son métodos de propósito general que pueden guiar la búsqueda de soluciones de diferentes problemas, éstas son llamadas meta-heurísticas, definidas [Glover and Kochenberger, 2003] como métodos de solución que orquestan la interacción entre procedimientos de optimización local y estrategias de alto nivel para crear procesos que permitan escapar de óptimos locales y realizar búsquedas 17


robustas en todo el espacio de solución. Ejemplos de meta-heurísticas se pueden encontrar en algoritmos genéticos, simulado recocido (simulated annealing), sistemas multi-agente y búsquedas locales guiadas. 2.1.1 Simulado Recocido (Simulated Annealing) La analogía entre optimización combinatoria y el proceso físico de cristalización es aplicado [Kirkpatrick et al., 1983] para introducir el concepto de recocido en optimización. El proceso de cristalización inspiró a Metropolis, et al., [1953] para proponer un proceso de optimización numérica el cual inicia con una solución con energía en nivel f(0). Una pequeña perturbación a esta solución inicial mueve el sistema a un nuevo nivel de energía f(1). Si f(1) es más pequeño que f(0), entonces se acepta la nueva solución obtenida a través de la perturbación (estado de cambio). Si f(1) es mayor que f(0), la nueva solución es aceptada, si la probabilidad de aceptación dada por el criterio de Metropolis [Aerts and Heuvelink, 2002] (f(0) – f(1) / S0) es mayor que un número aleatorio tomado desde una distribución uniforme [0,1]. Luego, el parámetro de enfriamiento (S0) se disminuye ligeramente y se realiza una nueva perturbación. Este proceso se repite hasta que un se alcanza un número predeterminado de iteraciones o hasta que las ocurrencias de cambio sean poco frecuentes. La disminución del parámetro de enfriamiento se realiza usualmente una vez cada L iteraciones utilizando un factor de multiplicación constante: Si+1 = r * Si, con 0 < r < 1. 2.1.2 Algoritmos Genéticos (AG) Los AG tienen su fuente de inspiración en evolución biológica, donde las características deseables de la descendencia son determinadas al nivel genético por la 18

combinación de los cromosomas de los padres [Reeves, 2003]. Para buscar en un espacio de soluciones (o espacio de hipótesis), los AG definen tres elementos: cromosomas/genotipo (soluciones individuales a un problema), población (conjunto de cromosomas) y generaciones (iteraciones que permiten evolucionar a la población). Usualmente el algoritmo inicia con una población generada aleatoriamente a partir de μ cromosomas. Luego se calcula el estado o aptitud de cada cromosoma y se crea una nueva generación con operadores de búsqueda aplicados a los cromosomas de la población actual para generar descendientes. Los individuos de la descendencia más los μ padres son considerados para crear una nueva población. En este proceso es también posible considerar únicamente los individuos de la descendencia. Los operadores de búsqueda son clasificados en 2 categorías: mientras los de mutación modifican un individuo para formar otro, los operadores de mezcla generan uno o más descendientes a partir de la combinación de 2 padres [Dréo et al., 2006].

2.1.3 Métodos Exactos Los métodos exactos incluyen enumeración y programación matemática, así como una serie de algoritmos que han sido desarrollados para problemas particulares de optimización [Williams and ReVelle, 1997]. Programación Matemática La programación lineal y entera (LP/IP) pertenecen a los métodos de programación matemática que son capaces de encontrar soluciones óptimas (exactas). La programación lineal es definida [Winston, 1994] como un problema de optimización el cual: 1) intenta maximizar (o minimizar) una función lineal compuesta por varia-


bles de decisión (función objetivo); 2) los valores de las variables de decisión deben satisfacer un conjunto de restricciones y cada restricción debe ser una ecuación o inecuación lineal; y 3) una restricción en los signos es asociada con cada variable, para cualquier variable xi, la restricción del signo específica que xi debe ser no-negativa (xi ³ 0) o sin restricción en signo (urs). Mientras en la programación lineal entera pura todas las variables son enteras, en programación entera mixta, solamente algunas variables son enteras. La optimización espacial es uno de los campos donde LP/IP ha sido exitosamente aplicada (e.j. Fischer and Church [2003], Williams [2002]). Métodos de Enumeración Los métodos de enumeración evalúan todas las soluciones candidatas (enumeración explícita – fuerza bruta), o selecciona un conjunto de soluciones eficientes (enumeración implícita) y selecciona una que optimiza un criterio específico. A partir del costo computacional de este tipo de búsqueda es proporcional al número de soluciones candidatas, estas soluciones son típicamente aplicadas a problemas de tamaño limitado (número reducido de soluciones candidatas). 3. Revisión de Trabajos para Tratar el Problema de la Ubicación de Sitios Compactos Optimización Espacial basada en programación matemática es una área activa de investigación, donde muchos modelos han sido desarrollados tomando en cuenta relaciones topológicas. Especial atención se ha entregado a modelos para solucionar el problema de la compactibilidad y propuestas teóricas se han propuesto para otros aspectos como perforación [Shirabe, 2004]. Formulaciones matemáticas destinadas a

la ubicación de sitios contiguos y compactos han sido propuestas a problemas con tamaños en el rango entre 100 y 4900 unidades, con un tiempo de cálculo que varía entre pocos segundos hasta horas. A pesar de que el número de unidades es pequeño, algunos métodos han sido exitosamente aplicados para tratar información vector a nivel regional. Esto implica que los métodos de programación lineal pueden aplicarse, incluso a nivel regional, cuando éstas regiones son representadas con un número adecuado de unidades espaciales. La tabla 1 lista heurísticas, meta-heurísticas y métodos matemáticos aplicados al problema de la compactibilidad. Esta tabla hace uso de un tamaño referencial como un indicador del número total de las unidades objeto de análisis. La tabla 1 muestra que el tamaño referencial de los modelos matemáticos es pequeño con respecto de las soluciones heurísticas y meta-heurísticas. Tomando en cuenta que los modelos matemáticos son capaces de alcanzar soluciones exactas, estos métodos pueden servir como referencia para evaluar soluciones no exactas, y adicionalmente en problemas que no requieren tiempos reducidos para alcanzar una solución. A partir de que los problemas de compactibilidad requieren una cantidad muy alta de recursos computacionales para alcanzar una solución, el desarrollo de la computación paralela así como la generación nuevos modelos matemáticos contribuirán sustancialmente a mejorar la eficiencia de modelos de optimización espacial. Estas alternativas aún tienen complejidades, razón por la cual muchos autores sugieren explorar otros métodos capaces de balancear precisión y eficiencia. Estos autores sugieren el estudio de métodos aproximados (heurísticas) como un medio para encontrar soluciones factibles y cerca del óptimo global. 19


El uso de áreas semilla de inicio, es una de las principales características de las heurísticas aplicadas en la ubicación de sitios compactos (compactibilidad). Es particularmente remarcable es el tamaño referencial del trabajo de Church et al. [2003] (tabla 1) y los trabajos de Brookes [2001b] y Xiao [2006], estos últimos aplicados a los pro-

blemas con la mayor cantidad de datos (372890 y 250000 celdas respectivamente). La potencialidad de estos trabajos está basada en la pre-construcción de áreas semilla en el caso de Brookes [2001b] y en la capacidad de generar automáticamente estas semillas en el caso de Xiao [2006].

T amaño T amaño referenc ial unidades Heurís ticas Mehrotra and J ohns on [1998] B rookes [2001] C hurch et al [2003] Meta-heurís ticas B rookes [1997] B rookes [2001] Xiao et al [2002] Aerts and Heuvelink [2002] McDonnell et al [2002] G reedy S imulated Anealing Li and Y eh [2004] V enema [2004] S tewart et al [2005] Xiao [2006] P rogramación Matemática Hof and B evers [2000] Dimopoulou and G iannoikos [2001] F is cher and C hurch [2003] Williams [2003] S hirabe [2004] Métodos de E numeración Hof and B evers [2000]

Utiliza s emillas

T iempo

Unidad de tiempo

46 300 23000

condados celdas celdas

N S S

5 -

minutos -

6400 372890 16384 2500 2160

celdas celdas celdas celdas celdas

S S N N N

36 few

horas horas

22500 162 1600 250000

celdas parcelas celdas celdas

S N N N

1 96 4 -13.6 15-18 2268

segundos segundos horas minutos segundos

1689 160 776 1024 100

celdas celdas parcelas celdas celdas

N N N S N

1.5 7s – 98 h 220 0.19 – 87882

minutos Seg-horas minutos Comp. reloj

900

celdas

N

16.8

segundos

Tabla 1. Resumen de trabajos realizados para la ubicación espacial de sitios compactos

20


Referencias J. Aerts and G. Heuvelink. Using simulated annealing for resource allocation. Geographical Information Science , 16:571–587, 2002. C.J. Brookes. A genetic algorithm for designing optimal patch configurations in gis. Geographical Information Science , 15:539–559, 2001b. R. Church, R. Gerrard, M. Gilpin, and P. Stine. Constructing cell-based hábitat patches useful in conservation planning. Annals of the Association of American Geographers , 93:814–827, 2003. M. Dorigo and T. Stutzle. Ant Colony Optimization . The MIT Press, 2004. J. Dréo, A. Petrowski, P. Siarry, and E. Taillard. Metaheuristics for Hard Optimization, Methods and Case Studies . Springer-Verlag Berlin Heidelberg, 2006. M.J. Egenhofer. A final definition of binary topological relationships. Lecture Notes in Computer Science, 367:457–472, 1989. D.T. Fischer and R.L. Church. Clustering and compactness in reserve site selection: An extension of the biodiversity management area selection model. Forest Science , 49:555–565, 2003. F. Glover and G.A. Kochenberger. Handbook of Metaheuristics . Kluwer Academic Plublishers, 2003. S. Kirkpatrick, C.D. Gelatt, and M.P. Vecchi. Optimisation by simulated annealing. Science , 220:671–680, 1983. A.M. Maceachren. Compactness of geographic shape: Comparison and evaluation of measures. Geografiska Annaler , 67:53– 67, 1985. N. Metropolis, A. Rosenbluth, M. Rosenbluth, A. Teller, and E. Teller. Equation

of state calculations by fast computing machines. Journal of Chemical Physics, 21:1087–1092, 1953. S. Openshaw. Developing GIS-relevant zone-based spatial analysis methods , chapter 4, pages 55–74. Wiley, 1996. A. Pullar and M. Egenhofer. Towards formal definitions of topological relations among spatial objects. Third International Symposium on Spatial Data Handling, Sydney, Australia , pages 225–242, 1988. B. Rahman and M. Pilouk. Spatial Data Modelling for 3D GIS . Springer, 2008. C. Reeves. Handbook of Metaheuristics , chapter Genetic Algorithms, pages 55–82. Kluwer Academic Plublishers, 2003. T. Shirabe. Modeling topological properties of a raster region for spatial optimization. In Proceedings of the 11th International Symposium on Spatial Data Handling , 2004. J. Van-Orshoven. Introduction to spatial data modelling and functionality of geospatial technology. Department of Earth and Environmental Sciences. K.U.Leuven , 2007. J.C. Williams and C.S. ReVelle. Applying mathematical programming to reservesite selection. Environmental and Modeling Assessment , 2:167–175, 1997. J.C. Williams. A zero-one programming model for contiguous land acquisition. Geographical Analysis , 34:330–349, 2002. W. L. Winston. Operations Research, Applications and Algorithms . International Thomson Publishing, 1994. N. Xiao. An evolutionary algorithm for site search problems. Geographical Analysis , 38:227–247, 2006.

21


Nuestra “Bala de Plata” Ing. Elina Ávila Ordóñez Msc. Directora de Escuela de Informática

Hace algunos años, tuve la fortuna de leer un artículo que lo firmara Frederick Brooks titulado “No silver bullet”, que significa, “No existe una bala de plata”. Este artículo, por medio de una conocida historia popular, define por medio de una analogía, la complejidad del software, elemento que mucho tiene que ver con el quehacer de la Escuela de Informática y que hoy se engalana al alcanzar sus dos primeras décadas. El artículo mencionado nos acerca al concepto de software como una entidad intangible, sin embargo, complejamente interesante, capaz de acoplarse a las necesidades de su entorno, en franca lucha por facilitar los procesos que mantienen operativas a las más diversas aplicaciones. Además, mutable, presto al cambio, no solo de sus estructuras y condiciones: muta, crece, avanza en la tecnología empleada para su creación. El software, materia prima -algo etérea-, pero con ella enseñamos a proponer soluciones en las cátedras de la Escuela de Informática, trabajo laborioso, ya que se constituye en una encrucijada en la que la salida se vislumbra al encuadrar en un proyecto a cientos de restricciones, requerimientos, deseos. Los Ingenieros de Sistemas trabajamos con un insumo cuya mejor característica es ser dinámico, lo menos que podemos hacer es convertirnos en profesionales dinámicos, con expectativas de aprender y de seguir aprendiendo y de ayudar a cambiar la forma de vida de nuestra sociedad por medio de la inserción de la tecnología. La Escuela de Informática frente a esta circunstancia y por su esencia 22

académica, se encuentra en un proceso de transformación, cuyo objetivo primordial es dotar a nuestros estudiantes de conocimientos de las nuevas tecnologías, pero sobretodo enseñarles a trabajar con el software y con su complejidad, hacer de la capacitación continua parte de su vida, a usar el ingenio para encontrar nuevas y mejores soluciones y a aplicar de manera formal sus destrezas, sin descuidar, de ninguna manera, una formación en valores y respeto. Los pasos que se están dando se basan en la construcción de una nueva malla curricular, que nos permite acercarnos al concepto de la Ciencias de la Computación con una nueva visión: una visión moderna y científica, y parafraseando lo que reza el Estatuto Universitario, declarar a la Escuela de Informática no solo de docencia sino también de investigación. No podríamos actualizar nuestra malla curricular, ni enfocarnos a la investigación sin el concurso de autoridades que persigan los mismos ideales y de una planta docente proactiva, vale decir, que la Escuela de Informática tiene, en su haber, un alto número de docentes con doctorado o preparándose para ello, cuestión que aviva nuestras esperanzas de hacer de la investigación una actividad cotidiana de nuestra Escuela. La malla curricular reside en un papel, su ideología, sin embargo, nació y está en las mentes de quienes con orgullo formamos parte de esta institución, que con su valioso aporte nos permite crear no solo una nueva malla, una nueva manera de concebir a la Ingeniería de Sistemas, un cambio de mentalidad, de expectativas, un cambio


de SER. Para todos ellos, un sincero agradecimiento, todo su trabajo se verá recompensado en los resultados, que con certeza, llegarán más temprano que tarde. La historia que Brooks evocó fue: El Hombre Lobo, recordemos a este temible personaje que acarreaba consigo una estela de males y dolor. Para destruirlo eran necesarias dos cosas: una bala de plata y un valiente que le disparara para conseguir eliminar todo lo malo que este engendro traía. Para Brooks, el software no tiene una bala de plata, es

intrínsecamente complejo, no hay nada ni nadie que lo evite. Lo que sí tiene es una bala de plata, que es la manera de abordar esa complejidad, la bala de plata es: el ser dinámicos. Al conmemorarse 20 años de la creación de la Escuela de Informática, felicito su espíritu dinámico y hago votos para que la Escuela constantemente se transforme, siempre en beneficio de sus estudiantes y de la región a la cual sirve.

LOS INGENIEROS Y LAS TORRES DE MARFIL “Título del libro de Hardy Cross”

El intelectual del siglo XXI, y el articular el técnico contemporáneo, está perdiendo gradualmente su capacidad de contemplación; no se interesa por la naturaleza, no la admira, no hace esfuerzo por comprenderla, y se pierde las lecciones que a diario, a cada instante, nos da si sabemos tomarlas. Enseñanza no solo sobre la belleza suprema de la aurora y el crepúsculo, las flores, los pájaros, insectos o paisajes, sino todo género de temas técnicos y no técnicos. Quien contempla un árbol, y medita cómo es capaz de resistir la fuerza del viento, la erosión y la perenne acción de la gravedad, tiene a su alcance doctrinas sin límites sin límite sobre diseño y comportamiento estructural; ese árbol, tan débil y flexible en sus hojas, aumenta en resistencia a medida que sus partes se acercan al tronco, se arraiga en la tierra, y al mismo tiempo que se extiende en ella para nutrirse, obtiene la estabilidad adecuada. Las universidades necesitan orientar a sus estudiantes –a sus estudiantes de ingeniería- para que busquen más en la naturaleza y menos en las fórmulas, más en los fenómenos, y menos en el salón de clases y laboratorio, la sabiduría que ha caracterizado a aquellos pocos ingenieros que han descollado en forma real y efectiva como proyectistas, planificadores, constructores, innovadores o visionarios.

23


INTERACCIÓN GESTUAL Ing. Otto Parra González Docente de la Facultad

INTRODUCCIÓN La tendencia actual de tener acceso, desde cualquier lugar geográfico, a servicios disponibles en la red (redes sociales, banca, turismo, etc.) va incrementándose cada vez más debido al desarrollo tecnológico de los dispositivos móviles, de las telecomunicaciones y de las herramientas de desarrollo de software. Un dispositivo móvil cada vez trae mejores características de hardware (memoria, procesador, pantalla táctil, acceso a la red, etc.) que permite considerarlo un computador de tamaño reducido, y además móvil, lo que permite a los usuarios emplearlo en sus actividades diarias sin importar donde se encuentren. Las telecomunicaciones, sobre todo las inalámbricas, se van desarrollando cada vez más en cuanto a la velocidad de acceso. Hoy en día se tiene el IEEE 802.11n que permite que las conexiones inalámbricas con 802.11 b/g de 54 Mbps ahora puedan llegar hasta los 600 Mbps otorgando mayor velocidad de acceso.

El software, que desde hace algunos años ha migrado al Web, y ahora ha empezado 24

a irse hacia la nube (ver ilustración 1), se lo considera como un conjunto de servicios Web, y los elementos destino en su mayoría son los dispositivos móviles. El software se debe construir considerando que el usuario puede utilizar una aplicación en su computador de escritorio, en un computador portátil o en su dispositivo móvil, sin importar donde se encuentre: en su oficina, en el auto, en el avión, en su casa. Otro aspecto que ha evolucionado en los últimos años es la interacción hombre – computador, cada vez se va utilizando menos el teclado y el ratón. En los últimos años se ha desarrollado una nueva forma de interacción, se trata del gesto, el cual puede ser táctil o no táctil. El gesto empieza a ser muy usado en dispositivos móviles para el ingreso de información por parte del usuario. EL GESTO COMO ELEMENTO DE INTERACCIÓN Un gesto se considera como una forma de comunicación no verbal que se realiza con alguna parte del cuerpo, y que es producida por el movimiento de las articulaciones y músculos de brazos, manos y cabeza de una persona.


Un gesto puede ser en 2D o en 3D, dependiendo del dispositivo sobre el cual se aplique. Si se trata de un dispositivo móvil con una pantalla sensible al tacto (ver ilustración 2), requerirá un gesto en dos dimensiones, si se trata de un sistema equipado con cámaras y sensores se podrá realizar un gesto en tres dimensiones, o se puede tener un sistema de reconocimiento de voz donde el dispositivo recibe órdenes por medio de la voz del usuario.

Un dispositivo móvil con una pantalla sensible al tacto recibe órdenes del usuario a través de gestos realizados con sus dedos, o con su mano, dependiendo del tamaño de la pantalla. Estas órdenes permiten activar elementos (botones, campos de texto,

imágenes, etc.) y realizar acciones sobre ellos. Se puede definir formas de gestos de acuerdo a la aplicación que se está utilizando, por ejemplo, ampliar o reducir una imagen requiere de un gesto que consiste en presionar con un dedo de la mano dos veces seguidas la pantalla del dispositivo (es decir, un doble tap), se puede definir un gesto a través de realizar el trazo de la letra “S” con un dedo de la mano (ver ilustración 3), para indicarle a la aplicación que grabe los datos de un formulario, se puede realizar un gesto similar a pasar una hoja de un libro para avanzar o retroceder páginas de un libro digital, etc. El gesto en 3D es aplicable a través de elementos extras, puede utilizarse WiiMote o Microsoft Kinect como elementos que capturan los gestos realizados por el usuario. Estos elementos disponen de cámaras y detectores de profundidad para recibir el gesto que realiza el usuario. Cuando a mediados de la década del 50 del siglo anterior se inventó el control remoto para manejar un televisor se consideró un gran desarrollo, pues el usuario ya podía encender el televisor, o cambiar de canal sin moverse de su sillón. Ahora es posible, sin usar el control remoto al cual uno está muy acostumbrado, dar órdenes para encender o apagar el televisor, para subir o bajar el volumen, cambiar de canal, etc., sólo se requiere realizar ciertos gestos para ello, puede encender el televisor con un gesto, o cambiar de canal con otro. También es posible controlar otros elementos a través de sensores y gestos, con lo cual se puede realizar ciertas tareas en una habitación: incrementar o reducir el nivel de iluminación de una habitación, abrir o cerrar persianas, etc. Esto da lugar a lo que se denomina Inteligencia Ambiental o Computación Ubicua.

25


COMPUTACION UBICUA A fines de 1987, miembros del Laboratorio de Electrónica e Imágenes de PARC de Xerox propusieron la fabricación de pantallas de computador del tipo flat-panel de tamaño de una pared, a partir de hojas de gran área de silicón amorfo. Se pensaba que servirían como dispositivos de entrada para lápices electrónicos y para el escaneo de imágenes. La visión de  investigación de estas “paredes de computadores”, era muy diferente del paradigma vigente “un computador de sobremesa – una persona” y dio a los investigadores de PARC la idea de difundir los computadores en todas partes, pero en forma invisible al ambiente. Producto de esta actividad surgió el programa “Computación Ubicua” en el Laboratorio de Ciencias de la Computación a inicios de 1988. El programa se presentaba como una respuesta radical a los aspectos errados del computador personal: muy complejo y difícil de utilizar para un usuario común, muy demandante de atención, muy aislado del resto de otras personas y actividades. El objetivo era poner al computador en su lugar, en un segundo plano ambiental, y concentrarse más en los interfaces humano – humano y menos en los interfaces humano – computador. CONCLUSIONES El desarrollo de los interfaces gestuales requiere de una estandarización de manera que se tenga disponible un catálogo de gestos que pueden utilizarse en distintas aplicaciones ubicuas y donde cada gesto tenga un significado ya establecido. La computación ubicua creó un nuevo campo de las ciencias de la computación, uno que especula con un mundo físico rico e invisible, lleno de sensores, adaptadores, pantallas y elementos computacionales, 26

embebidos en muchos objetos, conectados en una red continua y que se emplean a diario. Si bien, la computación ubicua trajo más preguntas que respuestas, al ver la infraestructura funcionando se puede ver al vasto potencial de este sistema, sobre todo para mejorar la comunicación humano – humano. Se plantean interrogantes sobre aspectos relacionados con la seguridad y la invisibilidad, al pensar en que si el sistema es invisible y extensivo, llega a ser difícil conocer que está controlando qué, que está conectado a qué, dónde fluye la información, cómo está siendo usada, entre otros aspectos. Mantener la simplicidad y el control en forma simultánea es uno de los principales retos en la investigación de la computación ubicua. REFERENCIAS BIBLIOGRÁFICAS [1] Cáceres, R., Friday, A., “UBICOMP SYSTEMS AT 20: PROGRESS, OPPORTUNITIES AND CHALLENGES”, IEEE Pervasive Computing, 2012. [2] Weiser, M., Gold, R., Brown, J. S., “THE ORIGINS OF UBIQUITOUS COMPUTING RESEARCH AT PARC IN THE LATE 1980s”, IBM SYSTEMS JOURNAL, VOL 38, No. 4, 1999. [3] Fundación de la Innovación Bankinter, “THE INTERNET OF THINGS. IN A CONNECTED WORLD OF SMART OBJECTS”, 2011. [4] W3C, “TOUCH EVENTS”, W3C Candidate Recommendation 2011, version 1. PERFIL PROFESIONAL DEL AUTOR

Ingeniero Eléctrico (1992 – Universidad de Cuenca). Ingeniero de Sistemas (1996 – Universidad de Cuenca). Máster en Educación y Multimedia (2003 – Universidad Autónoma de Barcelona, España)


Diplomado en Formulación y Evaluación de Proyectos de Investigación (2004 – Universidad de Cuenca) Máster en Telemática (2007 – Universidad de Cuenca). Actualmente cursando estudios de Doctorado en Informática en el Departamento de Servicios Informáticos y Computación (DSIC) de la Universidad Politécnica de Valencia, España, con una beca del SENESCYT.

Profesor principal a tiempo completo de la Escuela de Informática desde 1994 y continúa. Miembro del Consejo Académico de la Escuela de Informática desde 2004 – 2011 Director del Departamento de Desarrollo Informático de la Universidad de Cuenca (2001 – 2007) Director de la Escuela de Ingeniería en Electrónica y Telecomunicaciones de la Facultad de Ingeniería de la Universidad de Cuenca (2009 -2011).

LA EDUCACIÓN DE UN INGENIERO

“ … En nuestro mundo no puede haber verdades absolutas ni conocimientos perfectos. Los pensadores auténticos rechazan de antemano elevar cualquier doctrina a institución, no porque pueda ser falsa o interesada, sino por el hecho de que obstaculiza la reflexión y la inventiva, limita la visión y coarta la libertad. Así Konrad Lorenz ha dicho: “La única ideología es no tener ninguna”. Recordemos que Galileo fue obligado a abjurar de sus descubrimientos porque se dictaminó que eran contrarios a la “doctrinas” de las Sagradas Escrituras; que los libros de Darwin fueron combatidos por una causa semejante, y que el régimen nefasto de la Alemania Nazi se estableció y fortaleció por su imposición doctrinaria de aparentes y falsos ideales sobre la superioridad racial. Los científicos llaman a sus descubrimientos, en forma modesta y sin pretensiones, “teorías”; los grandes pensadores se limitan, con humildad y sencillez, a exponer sus ideas, explicar posibles soluciones y, si acaso, dar interpretaciones sobre fases aisladas y acaso especiales del universo y sus relaciones…”

27


EVOLUCIÓN DE LAS BASES DE DATOS Ing. Olga Zalamea

Docente de la Facultad RESUMEN Desde que se crearon las Bases de Datos los modelos usados para su implementación han ido cambiando paulatinamente. Inicialmente se dio un cambio rápido de los modelos originales (jerárquico y de red) al modelo relacional que ha sido el que predomina en el mercado. En la actualidad, surgen nuevas tendencias no solo en cuanto modelo, sino también por sus propósitos. Este artículo describe la evolución que han sufrido las bases de datos, revisa los gestores usados a nivel local y explica las tendencias de los trabajos futuros en esta área de la informática. PALABRAS CLAVES Bases de datos, data warehouse, modelo relacional, base de datos orientada a objetos, base de datos en la nube, Big Data, manejo de datos en memoria.

digital que acelerara los registros de hechos o eventos que hasta ese entonces se hacían de manera física y manual. EL PASADO DE LAS BASES DE DATOS. A través del tiempo la forma en que las personas organizan sus datos ha ido cambiando. El primer tipo de organización fue por medio de archivos de acceso secuencial. El inconveniente con este tipo de almacenamiento es que se debe recorrer línea por línea hasta encontrar la información necesaria. Las bases de datos usan estructuras de organización que permiten un acceso directo. En los años 60 aparecieron las primeras bases de datos usando modelos jerárquicos y de red. Estos modelos usan registros formados por campos.

Una base de datos consiste en una colección de datos que pertenecen a un contexto. Partiendo de esta definición tan simple podemos considerar una base de datos a los libros que guardan las ventas en un negocio, los libros de una biblioteca, etc. Sin embargo, en este artículo hacemos referencia a las bases digitales usadas por los sistemas informáticos o usuarios en general.

El modelo jerárquico almacena los datos por niveles. Tiene un nodo padre o raíz que se enlaza con varios hijos. Las relaciones son unidereccionales de hijos a padres. Por ejemplo: si tenemos departamentos y empleados dentro de una empresa, existe una relación de empleados hacia el departamento en el que trabajan pero no viceversa. Quizá el mayor inconveniente de este modelo, es que las relaciones de muchos a muchos y bidireccionales no se pueden representar.

El propósito de su creación fue el proveer de un método de almacenamiento de datos

El modelo de red es parecido al jerárquico, pero en lugar de tener un padre se pueden tener varios. De esta manera, se pue-

INTRODUCCIÓN

28


den representar las relaciones de muchos a muchos. Pero exige que se mantengan dos relaciones físicas: la de los empleados hacia los departamentos y la de los departamentos hacia los empleados. En los años 70 Edgar Codd propuso el concepto de bases de datos relacionales donde el principal elemento de almacenamiento son estructuras denominadas tablas. Este nuevo modelo permite representar relaciones de muchos a muchos sin tener que duplicar la relación. También podemos relacionar una tabla consigo misma y representar relaciones entre más de dos tablas.

EL PRESENTE DE LAS BASES DE DATOS. El tipo de datos e información con la que se trabaja hoy en día es más que simples campos de texto. Las imágenes, música, videos, documentos, mapas, etc. Son elementos predominantes en los sistemas actuales. Estos nuevos formatos de información exigen la creación de bases de datos de propósitos específicos como las documentales, multimedia, etc. La tendencia de la programación orientada a objetos también se hizo presente introduciendo el concepto de ORM (Object Relational Mapping). ORM es una técnica de programación que permite hacer un mapeo directo entre las entidades a nivel de negocios y las tablas en la base de datos relacional. Posteriormente, a principios de los 90’s se empezaron a crear bases de datos de Orientadas a Objetos, en las que el elemento de almacenamiento ya no es una tabla sino un objeto.

tos sino pueden ser analizados y brindar información relevante para la toma de decisiones?. Se empiezan entonces a trabajar con Almacenes de Datos (data warehouse), que permiten trabajar con diferentes estados de una base a través del tiempo y brinden reportes útiles para la decisiones que se toman a nivel gerencial. GESTORES DE BASES DE DATOS NIVEL LOCAL Es importante también conocer la realidad del ámbito en el que nos desenvolvemos. En el mes de septiembre del presente año se encuestó a 15 empresas, entre ellas: ETAPA, Empresa Eléctrica, Municipio, EMAC, SRI, entidades bancarias y empresas de desarrollo de software. De la encuesta realizada se obtuvieron los siguientes resultados: • El 100% de las empresas usan Base de Datos Relacionales. • Ninguna empresa usa Base de Datos Orientadas a Objetos. • El 50% usa ORM para comunicarse con sus bases de datos. • El 60% usa o ha usado alguna herramienta de análisis de datos para Data Warehouse. • La distribución de los gestores de base de datos relacionales usados por las empresas es el siguiente:

Hoy en día, las bases de datos no pueden ser simples repositorios. Que son los da29


UNA MIRADA AL FUTURO El IDC (International Data Corporation) es una empresa dedicada a la investigación y el análisis de la información; especializada en tecnologías de la información y telecomunicaciones. El IDC, en su reporte de pronósticos de tendencias en base de datos indica: “Este es un momento emocionante para el mundo de las bases de datos, con nuevas iniciativas emergentes en apoyo de la computación en nube, Big Data, y gestión de datos en memoria.” La computación en la nube maneja el concepto de ofrecer las bases de datos como servicios. En lugar de perder tiempo configurando y dando mantenimiento a una base de datos y el servidor, se contrata el servicio de una base de datos en la nube. El proveedor del servicio como podría ser Microsoft (SQLAzure) configura la base de acuerdo a los requerimientos del cliente y ofrece acceso por medio de un explorador web. Entonces, el proveedor del servicio es el encargado del mantenimiento, configuración tanto de la base como del servidor, garantizando a su vez una alta disponibilidad para que el usuario puede dedicarse a trabajar directamente con la base. Big Data hace referencia al manejo de grandes volúmenes de datos. En este campo se estudian las formas de acelerar consultas, algoritmos de compresión, etc. Y se pretende obtener reportes que toman un tiempo significativo en generarse en menor tiempo para que sean útiles para la toma de decisiones, A su vez, se busca la forma de almacenar los datos con el mayor ahorro de espacio sin afectar el rendimiento. El manejo de datos en memoria hace referencia a base de datos que se manejan primariamente en memoria RAM. Aprove30

chando así la velocidad de ejecución que ofrece la memoria principal, en unión con algún método que garantice la persistencia de la información.

CONCLUSIONES Luego de revisar la evolución y tendencias en bases de datos podemos destacar los siguientes puntos: • El modelo relacional es un modelo fuerte, que domina el mercado y que se mantendrá estable por más tiempo. • Pese que a nivel internacional existen nuevas tendencias en cuanto a los tipos de base de datos, esta nueva tecnología esta lejos de ser aplicada a nivel local. • No existe una sola tendencia a futuro sino mas bien varias ramas de estudio que están siendo exploradas.

REFERENCIAS

http://es.wikipedia.org/wiki/Base_de_datos http://www.lcc.uma.es/~galvez/ftp/bdst/Tema2.pdf http://histinf.blogs.upv.es/2011/01/04/historia-delas-bases-de-datos/ http://blogs.technet.com/b/latinoamerica/archive/2011/03/04/bases-de-datos-en-la-nube191-azure-tables-243-sql-azure.aspx

“Es mucho mejor conocer algo acerca de todo, que acerca de una sola cosa. Lo universal es siempre mejor”. Pascal


EL MODELADO CONCEPTUAL EN UNA ARQUITECTURA DIRIGIDA POR MODELOS Ing. María Fernanda Granda Juca Docente de la Facultad

Resumen El objetivo de este artículo es explicar brevemente la importancia que tiene el modelado conceptual como actividad en el proceso de desarrollo de un sistema de información, más aún si se lo hace desde un enfoque de una Arquitectura Dirigida por Modelos (Model Driven Architecture - MDA). Este trabajo describe cómo ha surgido el concepto de Modelado Conceptual a través de una síntesis histórica de su aporte en el ámbito del desarrollo de los sistemas de información. Además, se comentan los principios básicos en que se sustenta MDA, sus niveles de especificación, las tecnologías que le dan soporte y cómo ha generado un cambio paradigmático en la producción de software, donde el ente de valor ya no es el código sino el modelo en el cual está basado la generación del código, esta generación se puede realizar para varias plataformas, es decir se requiere modelar una vez y se puede generar el código varias veces e incluso hacia diferentes plataformas, de manera que el modelo llega a convertirse en código del software y cualquier cambio se debe realizar a este nivel de abstracción, al nivel de modelado conceptual. ¿Qué es Modelado Conceptual? En el área del desarrollo del software, se utiliza el término modelado conceptual

para definir la tarea de elicitar y describir los requisitos que un determinado sistema de información debe cumplir, tarea que es una parte importante en la Ingeniería de Requisitos, la cual es la primera fase del ciclo de desarrollo de un software. La especificación de este conocimiento es llamada ontología del dominio [1]. El primer trabajo en Modelado Conceptual ha sido registrado en 1958 [2], y trata sobre la formulación abstracta de los problemas de procesamiento de datos desarrollado por Young and Kent. Bubenko en su artículo [2] resume la evolución de la investigación y práctica en esta área durante un poco más de cuatro décadas. Este trabajo cubre los temas de investigación de los años 60s, donde surgieron ideas y conceptos pioneros tales como “los problemas de procesamiento de datos expresados formalmente de una manera independiente de la máquina”, el desarrollo del reporte del grupo CODASYL “un Algebra de Información” en 1962, continúa con la introducción del método infológico y mensajes elementales de Langefors en 1965. Más tarde, la década de los 70s, se caracterizó por la introducción de nuevos modelos así como el refinamiento y extensión de una serie de lenguajes de modelamiento de la información como los modelos binarios, relacionales, modelos de datos semánticos, lenguaje lógico, modelamiento rol-objeto, entre otros. En los 80s, 31


la búsqueda estuvo centrada en encontrar un marco de trabajo común para mejorar la comprensión y optimizar los métodos y herramientas existentes, en este tiempo también se investigó como mejorar la fase de captura y validación de requerimientos del ciclo de vida de los sistemas, también se dieron las bases de los datos multitemporales, así como de los lenguajes orientados a objetos. Más tarde en los 90s el desarrollo y aplicación de métodos y técnicas más avanzadas de modelamiento conceptual continuaron extendiendo la discusión de los principios y problemas de investigación relacionados a los sistemas interoperables, heterogeneidad semántica, requerimientos no funcionales, modelos de negocio y modelos ontológicos. En este punto el modelamiento conceptual en el desarrollo de los sistemas de información es visto como un enfoque para capturar descripciones informales e inexactas de las necesidades de los usuarios, y luego de alguna manera transformarlas en algo completo, formal y consistente a través de las especificaciones conceptuales. Por lo tanto llega a ser necesario dar soporte a la participación de las partes interesadas y usuarios del sistema, y realizar el análisis y especificación de los requerimientos del negocio.

tamiento y funcionalidad del negocio de la aplicación, este modelo se conoce como Esquema Conceptual, y es construido usando un lenguaje de modelado basado en MOF (Meta Object Facility) de OMG, el más conocido es UML (Lenguaje Unificado Modelado). Las herramientas de desarrollo de MDA, convierten el PIM primero a un modelo de Plataforma Específica (Platform Specific Model - PSM) y luego a una aplicación de código en prácticamente cualquier plataforma middleware (Servicios Web, XML/SOAP, EJB, C#/.Net, CORBA de OMG, entre otras) [4] (Ver figura 1). De esta manera se cumple con los cuatro objetivos de MDA que son portabilidad, interoperabilidad, mantenibilidad y reusabilidad a través de la separación arquitectónica de modelos [5].

El aporte del Modelado Conceptual en MDA

Figura 1. Niveles de especificación de servicios en la infraestructura MDA de la OMG.

A inicios de este siglo, la investigación en el área del modelado conceptual se centró en dar los primeros pasos para estandarizar los esfuerzos, así como también en el desarrollo de lenguajes y modelos ontológicos para dominios específicos. En el 2001, MDA surgió como las normas de la arquitectura base de OMG (Object Management Group) [3]. El software basado en MDA comienza con un modelo independiente de la plataforma (Platform Independent Model - PIM) que refleja el compor-

En MDA, el modelado conceptual está fuertemente relacionado con la calidad final del producto del software, ya que los requisitos proveen las directrices para el diseño de la arquitectura del software, definen los objetivos del software y establecen las bases para medir la calidad del producto final [5].

32

Usos de los modelos del Software La promesa de MDA es la de ordenar y facilitar el desarrollo del software en base a


reglas consistentes, auxiliada por un diseño visual, integrado, que es capaz de convertirse en código, permitiendo flexibilidad a largo plazo del proceso de desarrollo del software, para esto soporta cada fase del proceso de desarrollo, de la siguiente manera: • Requisitos: especifica la estructura y comportamiento del sistema. Si el software ya existe, el hacer una reingeniería para obtener el modelo en el cual está basado el sistema, ayuda a comprender como está hecho. • Implementación automática: genera automáticamente el código libre de errores, basado en la consistencia de los objetos integrados y permitiendo realizar un seguimiento hasta su implementación. • Pruebas y simulación: facilita la detección de errores en las primeras fase del proceso de desarrollo del software, a nivel del diseño, minimizando costes y recursos. El tener modelos permiten construir un prototipo y simular el comportamiento para inferir, demostrar y validar propiedades a priori, conocer que tan fácil o difícil va a ser evolucionarlo o mantenerlo antes de crearlo, la validación se hace frente a los requisitos y se puede probar contra diversas infraestructuras. • Mantenimiento: suministra facilidad, ya que al disponer del diseño en una forma legible por la máquina, cualquier cambio se debe hacer al nivel de modelo, esto permite mantener consistente lo que se modela con lo que se implementa. • Integración: facilita la automatización de la producción de puentes de integración de datos y la conexión con las infraestructuras existentes (sistemas legados, sistemas de terceros). En todas estas fases se facilita la comprensión del sistema a desarrollar, el control de

cambios, el control de versiones con una documentación coherente y actualizada, el análisis de impacto, la utilización de nombres y definiciones únicas y coherentes, la rapidez de entrega de código, aumenta la calidad, la disminución de duración de los ciclos de desarrollo, por tanto mejora la productividad del proceso de desarrollo del software, facilita el reuso, la mantenibilidad y la reimplementación en otras tecnologías. En este marco, MDA puede usarse sin dificultades en un método ágil, dejando a salvo por supuesto el hecho de que no se tocará el código fuente, como se hace normalmente en un enfoque ágil, donde se usa un generador automático de código como Oracle, Genexus, o algún otro; sino que se trabaja a nivel de un modelo de alto nivel, abstracto, donde los cambios son a nivel conceptual.  Tecnologías que dan soporte a MDA El desarrollo y la implantación de herramientas que den soporte a los elementos de un entorno MDA (editor visual, repositorio de modelos, transformador modelo a modelo, transformador modelo a texto), son el requisito fundamental para que el Desarrollo de Software Dirigido por Modelos (DSDM/MDD) tenga éxito y se considere una realidad. MDA es la infraestructura para DSDM. En este contexto IBM, Borland y Microsoft están liderando la construcción de herramientas avanzadas para facilitar la implantación y el desarrollo del DSDM, entre ellas se tienen: IBM Rational Software Architect, Borland Together y Sparx Systems Enterprise Architect; otras conocidas son: ArcStyler, Acceleo, WebRatio, Mendix e Integranova. Adicionalmente, existen herramientas que dan soporte por separado a cada uno de los elementos de un entorno MDA (ver figura 2): 33


Dificultades de usar MDA Existen muchas concepciones equivocadas acerca de lo que realmente es MDA, cómo y cuándo usarla, lo que genera dificultades al momento de querer optar por ella, algunas de estas dificultades se detallan a continuación:

Figura 2. Elementos de un entorno MDA

Editor Visual de Modelos, para realizar el diseño e implementación de editores visuales que permitan gestionar los modelos: EMF, GEF+Draw 2D, GMF, herramientas DSL (Model Designer), DSL textuales (xText, oAW), METAEDIT+, entre las más conocidas. Transformador Modelo a Modelo, para ejecutar la transformación de modelo a modelo: MTF, ATL, QVT, xTend - oAW, VIATRA2, AGG, entre las más divulgadas. Repositorio de Modelos: para definir lenguajes de modelado y repositorio de modelos: MOF, “Profiles” de UML, EMF (eCore), Kermeta, ATLAS MegaModel Management (AM3), herramientas DSL (Domain Model Editor), XMI, entre las principales. Transformador de Modelos a Texto, para generar el código fuente: programación manual, JET, XSLT, Lenguajes de Plantillas (FreeMarker, Velocity, DSL Tools, MOF2Text, MOFScript, xPand-oAW), entre las principales. Se puede optar por uno de los tres modelos de negocios en cuanto a la adquisición de las herramientas: código abierto, adquisición de la licencia o pagar por el uso del generador del código de la aplicación.

34

• No se puede modelar cualquier tipo de aplicación, hay ciertas restricciones debido a la falta de madurez de las herramientas actuales. • Modelar el software no es una solución inmediata a todos los problemas de desarrollo en una empresa, en realidad el desarrollo de software debe estar soportado por un proceso de desarrollo donde MDA puede estar integrada como marco de trabajo. • No se puede generar 100% el código de la aplicación, ya que depende del tipo de aplicación. Algunas aplicaciones tipo CRUD (create, read, update and delete) se puede generar completamente, en otras se requiere algo de programación manual, esto depende de las capacidades de la herramienta y en esos casos hay que ser cuidadosos en marcar las zonas modificadas, ya que en una regeneración de código pueden perderse. • Los desarrolladores de software basados en este nuevo paradigma, requieren formación y experiencia para poder centrar sus esfuerzos en todo lo que conlleva MDA, esta preparación tiene una curva de aprendizaje alta; además, MDA implica nuevos roles, tareas y dependencias en el equipo de desarrollo, y al principio esto afectará en la disminución de su productividad. • No es suficiente comprar una buena herramienta MDA, sin considerar las características en cuanto al uso final de la misma: usabilidad, control de versiones, gestión de modelos, flexibilidad de la herramienta, capacitación del personal que la va a usar, etc.


Conclusiones La mejor estrategia para desarrollar un software depende de muchos factores, entre ellos el tipo de aplicación que se va a desarrollar, los conocimientos del grupo de desarrolladores, el grado del cambio que se quiera dar, no hay ninguna receta mágica, sólo hay consejos que pueden ayudar a decidir. El concepto de una herramienta L-CASE (Lower Case) generadora de código que hasta ahora se había conocido y usado para las fases de construcción e implantación de código, ahora es reemplazado por la iniciativa MDA de OMG. MDA parte de un diseño visual en UML, que es un modelo conceptual, abstracto, que luego es aplicado a una plataforma específica, al ser transformado de un modelo a otro, para finalmente a través de otra transformación obtener la generación del código ejecutable, de esta manera MDA da soporte al proceso de desarrollo del software, cubriendo todo o casi todo el ciclo de vida del producto, desde los requerimientos, el diseño conceptual, hasta la generación del código y el empaquetado para su despliegue. MDA puede integrarse a cualquier tipo de proceso de desarrollo de software, por ejemplo, en un proceso de tipo ágil se denomina Agile MDA. El uso de MDA se justifica por la productividad que se alcanza en el desarrollo del software, especialmente en las factorías de software y también por la protección de la inversión frente a los continuos cambios en las tecnologías, ya que desde el modelo se puede evolucionar a una plataforma más actual; sin embargo, hay que tener presentes las dificultades que se tienen al usarla.

MDA es un área que ha despertado el interés de muchos investigadores de la comunidad del software, como el grupo MDA de la OMG, así como grupos de investigación de universidades, quienes están aportando con nuevas formas de automatizar la derivación de esquemas conceptuales en base a los requisitos de los interesados y usuarios del sistema, desarrollando herramientas y metodologías para compilar, optimizar y validar las transformaciones de los modelos a los diferentes niveles de abstracción, buscando formas de integrar modelos, generando pruebas de software basadas en modelos; es decir, investigando soluciones tecnológicas cada vez más potentes y maduras para hacer efectivo el Desarrollo de Software dirigido por Modelos; de manera que la visión de MDA “sólo es necesario y suficiente definir el esquema conceptual para desarrollar un Sistema de Información” se haga realidad. Referencias Bibliográficas [1] A. Olivé, Conceptual Modeling of Information Systems, New York: Springer, 2007. [2] J. Bubenko, From Information Algebra to Enterprise Modelling and Ontologies – a Historical Perspective on Modelling for Information Systems, Sweden: Springer, 2007. [3] J. M. J. Miller, «MDA Guide Version 1.0,» OMG, 1 05 2003. [En línea]. Available: http://www.omg. org/mda/mda_files/MDA_Guide_Version1-0.pdf. [Último acceso: 10 09 2012]. [4] OMG, «MDA Specifications,» 12 06 2003. [En línea]. Available: http://www.omg.org/cgi-bin/ doc?omg/03-06-01. [Último acceso: 20 09 2012]. [5] O. M. J. Pasto r, Model-Driven Architecture in Practice. A Software Production Environment Based on Conceptual Modeling, New York: Springer, 2007.

35


María Fernanda Granda Juca, Ingeniera de Sistemas(1999, Universidad de Cuenca), Máster en Gerencia de Sistemas de Información (2009, Universidad de Cuenca), Profesora Principal tiempo completo de la Facultad de Ingeniería de la Universidad de Cuenca (1999-), Coordinadora del Centro de Capacitación en TICs de la Universidad de Cuenca (1999-2009), Directora de Escuela de la Escuela de Informática de la Universidad de Cuenca(2005-2008), Directora de la Maestría en Gerencia de Sistemas de Información de la Universidad de Cuenca (2010-2011), Becaria del Senescyt

“ Hardy Cross…

de la convocatoria 2011. Actualmente es investigadora del Centro de Investigación en Métodos de Producción de Software de la Universidad Politécnica de Valencia (2011-), donde está desarrollando su tesis de PHD en Informática en la área de Ingeniería del Software, los temas de interés en su investigación son Calidad & Pruebas del Software, Modelamiento Conceptual, Arquitectura Dirigida por Modelos e Ingeniería de Requisitos. Email: fernanda.granda@ucuenca.edu.ec / fgranda@pros.upv. es. Valencia, España.

ha puesto el dedo en la lla-

ga: como la obligación del ingeniero es dar servicio a la humanidad y la del político también, es muy frecuente que el mérito de las obras se lo arrebaten los políticos, sobre todo cuando interviene la politiquería, estos llevan las de ganar. Pero el ingeniero no debe acobardarse ante esta situación que no es ni nueva ni especial; su objetivo debe ser siempre la obra misma y el fruto que ella rinde, en tanto que la gloria, por legítima que sea, inevitablemente debe estar subordinada. Más aún, al desarrollarse cada vez más el trabajo en equipo, la fama individual tiende a desaparecer, y la celebridad queda reservada a los pocos mortales que, por la naturaleza misma del trabajo que realizan, pueden sobresalir en aquello que indefectiblemente está ligado a la persona y a la personalidad de quien lo desempeña “.

36


Estudio y selección de una arquitectura orientada a servicios (SOA), para ser implementada en el Programa: Manejo del Agua y el Suelo (PROMAS) Ing. Jaime Veintimilla Docente de la Facultad

INTRODUCCIÓN El programa para el Manejo del Agua y el Suelo (PROMAS), fue creado en el año 1993 como centro de investigación de Ingeniería. A partir de su creación el PROMAS, se ha interesado en participar en varias áreas de la ingeniería, por lo cual ha ido concentrando fuerzas de trabajo interdisciplinarias, desde la Ingeniería Civil hasta el desarrollo de herramientas informáticas orientadas a optimizar la utilización de los recursos. Desde su creación hasta el presente, se han desarrollado diferentes sistemas informáticos dedicados a solucionar problemas puntuales relacionados con los proyectos que se ejecutan en el Programa. El gran inconveniente es que la mayor parte de éstos sistemas informáticos han sido concebidos cada uno de una manera independiente, es decir, la arquitectura que disponen actualmente no permite la comunicación directa entre cada uno, haciendo imposible la comunicación o interacción de los mismos y más aún con terceros.

La concepción de sistemas informáticos orientados a resolver problemas puntuales de un departamento u organización no se adapta a los modelos organizacionales actuales independientemente de si cumplen con los requerimientos iniciales, ya que la tendencia es desarrollar sistemas informáticos que se basen en arquitecturas compartidas y que puedan crecer sin ningún problema. Hay que tener presente que la gran mayoría de organizaciones cuentan actualmente con sistemas que han sido legados a lo largo del tiempo ya que modelos de diseño de aplicaciones anteriores se concentraban en el desarrollo de aplicaciones para solucionar ciertos problemas puntuales, y esto ha creado problemas cuando se presentan cambios en los procesos. Una solución a todos estos problemas existentes con los sistemas legados es el de construir un ambiente de cooperación entre todos estos sistemas con el fin de mantener el uso de los mismos ya que el desarrollo de una nueva aplicación incluye

Sistemas informáticos que ha quedado anticuados pero continúan siendo utilizados por el usuario (típicamente una organización o empresa) y no se quiere o no se puede reemplazar o actualizar de forma sencilla. 37


muchos costos tanto de tiempo como de dinero (Santiago Comella-Dorda, 2008). Distintos métodos se han utilizado para resolver este problema, entre los cuales se pueden mencionar los siguientes: a. b. c.

Sustitución completa de los sistemas Reescritura automática de código Métodos de reingeniería de software

Existen muchos ejemplos de casos resueltos bajo estas perspectivas. Sin embargo, la mayoría de estos trabajos y estudios se centran en la necesidad de conseguir la interoperabilidad de cada uno de estos sistemas mediante la adecuación o sustitución de los sistemas para poder llegar a proveer esta capacidad; pero la forma de cómo llegar a obtener esta interoperabilidad y la metodología que se debe aplicar tanto para el desarrollo como para la gestión de los sistemas así construidos no han sido identificados. En lo referente a la interoperabilidad entre sistemas legados, se pueden distinguir tres aspectos: • La adecuación de los sistemas legados para darles la capacidad de intercambiar mensajes entre aplicaciones. (Interoperabilidad). • La articulación de un conjunto de servicios (mediante intercambio de mensajes) de acuerdo a las reglas del negocio. • Las metodologías de trabajo necesarias para poder determinar cuáles serán los sistemas legados que deben ser adaptados. El objetivo principal es el estudio de las técnicas existentes para la integración de sistemas legados, técnicas de exposición de servicios y el desarrollo de una metodología que permita establecer una platafor38

ma basada en servicios, de forma que se pueda exportar todas las funcionalidades sin que sea modificada la lógica de la aplicación. Metodología La etapa inicial del proyecto tiene por objeto realizar un estudio sobre las diferentes técnicas de integración de sistemas informáticos legados. En segundo lugar se procederá a realizar un análisis y selección de la técnica más adecuada para la correcta migración de los sistemas informáticos legados hacia una plataforma orientada a servicios. El siguiente paso es tomar como entradas a cada uno de los sistemas legados que dispone el PROMAS, todos estos sistemas serán analizados en detalle para poder obtener cada una de las funcionalidades más importantes. Una vez que se hayan definido todas estas entradas, se procede a la agrupación de sistemas en grupos, esto en base a la utilización de alguna de las metodologías que actualmente existen dentro de la literatura. Una vez identificadas las familias de estos sistemas se procederá a la selección, creación y exposición de los servicios web, para esto se analizarán las principales técnicas existentes actualmente. Hay que tener presente que en este punto será posible establecer una arquitectura orientada a servicios que se considere la base para los sistemas informáticos que se desarrollen en un futuro. En la figura 1 se ha incluido de una manera gráfica cada una de las fases que tiene la metodología a emplearse en el desarrollo del presente proyecto.


riales (EIA por sus siglas en Ingles o Enterprise Application Integration). b. Integración en base a una arquitectura orientada a servicios (SOA por siglas en inglés o Services Oriented Architecture). c. Planificación de recursos empresariales (ERP por sus siglas en inglés o Enterprise Resource Planning). 2. Técnicas de migración de sistemas legados: Una vez identificada la técnica que se utilizará para realizar la integración de los sistemas, es necesario definir las técnicas que se utilizarán para la correcta migración de los servicios de cada uno de los sistemas legados, para esto se han identificado las siguientes técnicas: a. Empaquetamiento o wrapper b. Redesarrollo o reingeniería c. Migración Figura 1 Gráfico de resumen del proyecto Como proceso final se incluye el desarrollo de un caso de uso con el fin de validar todo el proceso mencionado y el resultado de esto es la exposición de varios servicios web que permitan hacer mucha más rápida y sencilla la manera en la que se utilizan los sistemas en el PROMAS. 1. Técnicas de Integración de servicios: Son un conjunto de técnicas que permiten hacer que los sistemas informáticos legados puedan ser integrados en una sola plataforma orientada a servicios. Una vez que todos estos sistemas estén integrados es mucho más fácil el incorporar nuevos componentes o agregar nuevas funcionalidades. Las principales técnicas a tratar en este proyecto de tesis son: a.

Integración de sistemas empresa-

3. Entradas: Se consideran entradas a cada uno de los sistemas informáticos que se encuentran actualmente en funcionamiento en el PROMAS. Todos estos sistemas son los que se pretende llevarlos hacia una arquitectura orientada a servicios. Se realizará un análisis en detalle de las funcionalidades que posee cada uno de los sistemas informáticos con el fin de determinar aquellos que puedan ser migrados a una arquitectura basada en servicios. 4. Clasificación en base a grupos de sistemas: En base a los sistemas informáticos identificados anteriormente, se emplearán metodologías para poder llegar a obtener las clasificaciones de los sistemas que dispongan características comunes. 5. Servicios WEB: Teniendo como fase previa la agrupación de sistemas en familias, se tendrá claramente definidas cada una de las características que deberá tener cada una de estas familias de sistemas, 39


con esto, se procederá a la selección y creación de los servicios web que ofrecerán estas funcionalidades pero de una manera diferente. 6. Caso de Uso: Con el fin de validar el presente proyecto, se ha procedido a la implementación de un caso de uso para la migración de algunos sistemas legados hacia una nueva arquitectura orientada a servicios. Conclusiones Se han analizado los principales mecanismos de integración de sistemas legados, de entre los cuales se mencionó: • Integración de varios sistemas empresariales (EIA) • Arquitecturas orientadas a servicios (SOA) • ERP o integración de especialistas La utilización de la integración EIA, se ve como no factible dado, que el PROMAS no dispone de una arquitectura robusta y madura que soporte la utilización de un bus empresarial que permita el intercambio de información entre las diferentes aplicaciones. La utilización de ERPs, tampoco se ve factible, ya que el manejo de este tipo de sistemas requiere una gran inversión, por una parte es necesario invertir en licencias de un sistema informático completamente nuevo y por otra el costo y sobre todo el riesgo que implica dejar de lado la utilización de los sistemas actuales que están en funcionamiento. Adicionalmente a esto, se requiere la inversión económica en el entrenamiento de personal que vaya a estar a cargo de la nueva aplicación. Sobre la utilización de una arquitectura orientada a servicios, se identificó como 40

la solución más factible de aplicar en una organización como el PROMAS, ya que no incurre en gastos muy elevados, se podrán seguir utilizando las aplicaciones existentes y se permitirá el establecimiento de una base robusta para el desarrollo de futuros sistemas informáticos. Esta metodología toma como base los sistemas legados, de los cuales se identifica los servicios que pueden ser expuestos y se los migra hacia una arquitectura orientada a servicios (SOA) mediante las diferentes técnicas analizadas, que para el caso del PROMAS se reducen a: migración y empaquetado. De la agrupación de sistemas informáticos, se han podido identificar los siguientes servicios: • Servicio para el intercambio de información del catálogo de metadatos. • WMS, Servicio para el intercambio de información cartográfica, este servicio únicamente puede realizar la visualización de la información. • WFS, Servicio que permite la edición de la información cartográfica que se encuentra en el servidor. • WCS, Servicio que permite el intercambio de información relacionada con las coberturas cartográficas. La utilización de una técnica hibrida de modernización permite reducir las desventajas de las técnicas estudiadas y al mismo tiempo aprovechar sus fortalezas. Se ha optado por esta solución puesto que de manera independiente, no existe una técnica que pueda solucionar completamente el problema de la integración de sistemas legados. Se ha podido establecer una estrategia metodológica para la correcta exposición


de servicios de los sistemas legados que posee el PROMAS. Adicionalmente y en base a esta agrupación la metodología permite exponer cada uno de los servicios de los sistemas legados. Esta metodología está basada en la utilización de: i) estrategias de integración de sistemas, ii) técnicas de migración de sistemas legados hacia una arquitectura basada en servicios. Además, sus principales

fortalezas son: 1. Se pueden crear sistemas informáticos que se pueden exponer en una plataforma orientada a servicios. 2. Se puede ejecutar cada uno de los pasos en un orden secuencial. 3. Se puede aplicar a cualquier tipo de sistema.

“EL INGENIERO: FE, ESPERANZA Y CARIDAD” “ Es importante que los demás hombres sepan que los ingenieros no construyen solamente con concreto y acero, o con fórmulas y diagramas, sino más bien con fe, esperanza y caridad: fe en sus métodos, en su entrenamiento, en los nombres con quienes trabajan, fe en la humanidad y en el hecho de que la vida vale la pena vivirse; esperanza de poder encontrar el personal, el dinero, los materiales y los métodos para sus realizaciones, no deseos ciegos sino esperanzas juiciosas; caridad que involucra una comprensión bondadosa del elemento humano y disposición para trabajar las debilidades humanas y para tolerarlas”.

41


Una primera aproximación a la implementación de un clúster para la ejecución de un modelo de predicción climática Ronald Marcelo Gualán, Angel Oswaldo Vázquez, Oswaldo Francisco Vega

Ing. Ronald Gualán Coordinador

Grupo de Ciencias de la Tierra y del Ambiente, Universidad de Cuenca

Resumen

Introducción

Se explora de forma global una de las tecnologías más trascendentes en el campo de la computación a gran escala, los clústeres de computadores. Se parte de una descripción breve de la clasificación existente, dando especial énfasis al tipo Beowulf, que es el de mayor impacto y utilización en el campo de la investigación. Se muestra la necesidad de potencia de cálculo en varias áreas de la ciencia, modelamiento numérico específicamente. Además, se abordan aspectos básicos y necesarios para la implementación de un clúster, tales como la arquitectura de red, el diseño de software y algunas herramientas de administración. Todo esto enfocado hacia la implementación que se está realizando en el Grupo de Ciencias de la Tierra y el Ambiente, con la finalidad de ejecutar un modelo numérico de predicción de clima, WRF.

Un clúster puede ser visto como un conjunto de computadores que se comportan como uno solo para el usuario final. En tal virtud, existe una serie de retos que se debe afrontar para conseguir tal comportamiento, siendo los más complicados aquellos relacionados con la diversidad de equipos de hardware, puesto que el objetivo es la utilización de cualquier equipo de cómputo como recurso o nodo. Esta es la idea fundamental de un clúster y una de las razones por la que este tipo de sistema, es una de las opciones más económicas, especialmente en contraste con equipos individuales de la misma gama: servidores, workstation, mainframes, supercomputadores. En varias ramas de la ciencia, como modelamiento 2 climatológico por ejemplo, se necesita una capacidad de cálculo numérico intensivo. La solución que presenta un clúster es el empleo de dos o muchas máquinas pequeñas (aunque no necesa-

Palabras clave: Clúster1, alto rendimiento, Grid, beowulf, computación paralela, MPI. 1 El término clúster viene del inglés cluster, cuya traducción al español es conglomerado o conjunto. Se utilizará en el resto del artículo para hacer referencia a ese conjunto o agrupamiento de computadores, ya que el término ha sido acogido, como es común en informática, en el idioma español.

42

2 El campo de estudio relacionado a la construcción de modelos matemáticos se lo ha catalogado como Computación Científica [1].


riamente) o nodos para que, interconectados mediante una red (Red Rápida de Área Local por ejemplo), puedan servir como un solo sistema que sea capaz de manejar gran cantidad de operaciones con un bajo costo [2], [3], mediante un orquestador de tales nodos llamado Cluster Middleware [4]. Esta tendencia actual para suplir la capacidad computacional requerida constituye la construcción de sistemas más baratos y de propósito general (o al menos un grupo considerable de aplicaciones) en base a componentes fácilmente accesibles localmente (commodities), como son los PCs, de procesador único o múltiple. Además, se pretende que el sistema sea fácilmente expandido, incrementando el número de nodos o la capacidad de los nodos individuales existentes añadiendo memoria y/o procesadores, o mejorando la calidad de la red de interconexión. Sobre la clasificación de los clústeres, existen básicamente 3 tipos [5]: • De alto rendimiento (HPC, High Performance Clusters) • De alta disponibilidad (HAC, High Availability Clusters) • De alta eficiencia (HTC, High Throughput Clusters) De estos tres tipos, el clúster a implementar pertenece a los de alto rendimiento. Los clústeres de alto rendimiento, son aquellos en los que se ejecutan tareas que requieren de gran capacidad computacional, grandes cantidades de memoria, o ambos a la vez. El llevar a cabo estas tareas puede comprometer los recursos del clúster por largos periodos de tiempo.

de un clúster Beowulf, que se ha vuelto muy popular por su relación precio-desempeño, flexibilidad de configuración y actualización, y escalabilidad para proveer un sistema muy robusto [6]. Consiste en la utilización de computadores comúnmente personales, no diseñados precisamente con el fin de utilizarlos para nodos en un sistema paralelo de altas prestaciones, para construir un sistema de cómputo paralelo conectado por una red estándar y que utiliza por lo general software libre u open source . El rápido avance de los microprocesadores, las redes de alta velocidad, y otras tecnologías de componentes han facilitado muchas implementaciones exitosas de este tipo de agrupación [8]. Entre los beneficios que un clúster Beowulf presenta, tenemos los siguientes [9]: Rentable: se construyen a partir de componentes de productos relativamente baratos, que están ampliamente disponibles. Al día con las tecnologías: puesto que se utilizan componentes del mercado de masas, es fácil de emplear las últimas tecnologías tanto es software como hardware. Configuración flexible: se puede adaptar una configuración y asignar el presupuesto de manera óptima para cumplir con los requisitos de rendimiento de las aplicaciones. Escalabilidad: cuando aumenta el requerimiento de potencia de procesamiento, el rendimiento y el tamaño puede ser fácilmente ampliado añadiendo más nodos de computación. Alta disponibilidad: cada nodo de cálculo es una máquina individual. El fallo de un nodo de cálculo no afecta a otros

Uno de los enfoques más utilizados es el 3 En uno de sus ensayos [7], Richard Stallman explica exactamente cuáles son las grandes diferencia entre estos dos conceptos.

43


nodos o la disponibilidad de todo el clúster. Compatibilidad y portabilidad: gracias a la estandarización y la amplia disponibilidad de la interfaces de paso de mensajes, como MPI3 y PVM4 , la mayoría de las aplicaciones paralelas utilizan estos middlewares estándar. Como un ejemplo práctico, una aplicación paralela con MPI puede ser fácilmente portada de IBM RS/6000 SP2 o Cray T3E a un clúster Beowulf. Pila de Software para sistemas de computación de alto rendimiento En un esquema simplificado para manejar un sistema de computación de alto rendimiento, se tienen principalmente tres componentes esenciales que permiten eliminar la complejidad de administración, mientras se provee el software necesario para la ejecución de las aplicaciones, generalmente complejas. Se tienen como base de esta pila, el sistema operativo (S.O.), cuya elección depende de la aplicación a correr6 , generalmente GNU/Linux7 ; el sistema de administración del clúster, cuyo objetivo es la interacción con el usuario y el manejo de computadores físicos independientes y conexiones de red de alta velocidad, permitiendo que los computadores funcionen como un sólo sistema de computación integrado; y las herramientas de programación que consisten de compiladores, librerías y software especial para el desarrollo y prueba de las aplicaciones [10]. Administración del Clúster La administración correcta de los recursos hardware y software es uno de los aspectos 4 http://www.mcs.anl.gov/research/projects/mpi/ 5 http://www.csm.ornl.gov/pvm/ 6 Se ha tenido una primera aproximación a la instalación de WRF sobre el S.O. Scientific Linux, mostrándose como la primera opción a escoger. 7 http://www.gnu.org/gnu/linux-and-gnu.es.html

44

esenciales a la hora de poner en producción un ambiente de computación paralela. Dos elementos cruciales son la calendarización (scheduling) de trabajos (Jobs) y el monitoreo [11], [12]. En cuanto a la calendarización, el estándar MPI [13], por citar el ejemplo más usual, trabaja en el manejo de procesos en varios nodos, sin embargo, se ve limitado a solamente un programa. Se utilizan sistemas de calendarización de procesos como OpenPBS8 , Condor9 , Lava10 y Torque11 . Con el fin de tener información de la disponibilidad y operación de los componentes hardware y software, el monitoreo se realiza con algunos sistemas como Cluemon12 , Nagios13 , PARMON14 , Supermon[14] y Ganglia15 . Desarrollo de Software Una vez implementado un sistema de computación paralela, se debe tener claro cómo sacar provecho de ello, cómo escribir programas y qué librerías se necesitan. Para esto se tienen diferentes estándares cuyo objetivo es el diseño e implementación de software que pueda ser ejecutado sobre una plataforma de computación paralela [15]. Entre algunos estándares desarrollados se mencionan PVM y MPI. PVM (Máquina Virtual Paralela) es una interfaz de paso de mensajes portable que puede ser usado en programas escritos en C, C++ o Fortran y permite que un conjunto de máquinas heterogéneas funcionen como un clúster. MPI es otro estándar que está siendo usado ampliamente para la programación de 8 http://www.mcs.anl.gov/research/projects/openpbs/ 9 http://research.cs.wisc.edu/condor/ 10 http://lava-scheduler.readthedocs.org/en/latest/ 11 http://www.adaptivecomputing.com/products/open-source/ torque/ 12 https://github.com/cluenet/cluemon 13 http://www.nagios.org/ 14 http://www.buyya.com/parmon/ 15 http://ganglia.sourceforge.net/


código cuya ejecución se hace paralelo. Existen algunas implementaciones como OpenMPI, MPICH y LAM/MPI que pueden ser utilizadas desde lenguajes de programación como C, C++ o Fortran Metodología La metodología empleada para la implementación de un clúster Beowulf para la ejecución del modelo de predicción de clima, WRF , se resume a continuación: Análisis de requisitos: entre otras cosas, arroja la necesidad de una herramienta computacional con alta capacidad de procesamiento. Ésto para conseguir que el el tiempo de ejecución del modelo de predicción climática WRF16 disminuya en lo sumo de lo posible. Se busca conseguir lo anterior tratando de emplear varios computadores personales que están disponibles, y de ser posible cualquier computador de la red, que pueda ser utilizado cuando su usuario no lo esté empleando. Alternativa seleccionada: un sistema tipo clúster de alto rendimiento, Beowulf. Implementación: uno de los aspecto más importantes para ésto es la selección, entre una gran variedad, de los componentes de software que se van a emplear. Una opción es usar paquetes o suits que integran todo o gran parte del software requerido en una solución. Para este caso, se selecciona una suit de administración de software para clústeres de alto rendimiento llamada Warewulf [9]. Warewulf es un sistema libre que ofrece escalabilidad, configuración, administración, provisión,

instalación y monitoreo que integra varias soluciones libres. Diseño e implementación de la red: los componentes del diseño son: un nodo maestro, que será el front-end del sistema, y será básicamente un PC completo; nodos de cómputo, que constituyen la fuerza computacional del clúster y se refiere a todos los CPUs (no PCs completos) de los que se dispone; y una red local de alta velocidad que permitirá ínter conectar el nodo maestro y los nodos de cómputo. Instalación de las soluciones de solución adoptada, la mayoría de configuraciones e instalaciones se llevan a cabo en el nodo máster una sola vez. Instalación del modelo de predicción climática WRF junto con las librerías paralelas, en donde se destaca MPI. Pruebas: esto se realiza una vez que se ha desplegado, instalado y configurado el sistema, y las aplicaciones a ser empleadas. Para esto se utiliza herramientas de benchmarking que permiten evaluar la capacidad del sistema. Ejecución de WRF y se evaluación del desempeño del clúster, contrastándolo con una ejecución en serie. Topología La topología a utilizar se muestra en la fig.1. El nodo maestro utiliza dos tarjetas de red GigaEthernet, la primera para conectarse a Internet, satisfaciendo la necesidad de descargar paquetes u otras herramientas; la segunda para conectarse a nuestra LAN que enlaza los nodos de cómputo.

16 http://www.wrf-model.org/

45


software: dadas las características de la Fig. 1: Topología del clúster

Arquitectura La Fig. 2 indica la Arquitectura del clúster: La Capa de aplicación contiene aplicaciones secuenciales y aplicaciones paralelas (desarrolladas para ejecutarse en el clúster). La capa del middleware contiene lo necesario para ejecutar una aplicación; Librerías GNU y MPI, que permitirán enlazar el entorno de programación paralela de la capa superior con compiladores paralelos MPI, PVM, GNU, JAVA, etc; software y herramientas de administración, que facilitan la gestión de archivos, calendario, ba-

46

lanceo de nodos, etc; imagen del sistema operativo, que ofrece a los usuarios el acceso unificado a los recursos del sistema. El nodo maestro es el encargado de compartirlo a través de la red a cada uno de los nodos de computo. Dentro de cada nodo enlazado a la red, se tiene una interfaz de red (GigaEthernet) y el software necesario para iniciar, mantener y finalizar la comunicación con el nodo Maestro. La comunicación entre nodos, se realiza a través de una red de alta velocidad GigaEthernet con ayuda de un Switch.


Fig. 2: Arquitectura del clúster

Conclusiones Gracias a la robustez, capacidad de cálculo intensivo y bajo costo de implementación (motivado por la evolución del software y su libre accesibilidad), los clústeres se han convertido en una solución ampliamente utilizada por una basta cantidad de aplicaciones dentro del campo científico. Por otro lado, la alta difusión de este tipo de sistemas ha sido impulsado por el amplio desarrollo de aplicaciones paralelas, que a su vez se ha visto simplificado gracias a las estandarización de tecnologías y crecimiento en el desarrollo de software libre. Para el caso específico del Grupo de Ciencias de la Tierra y del Ambiente, este acercamiento hacia la implementación de un sistema de computación en paralelo, se ha dado para poder aprovechar la capacidad que equipos, quizá no tan potentes, en conjunto (clúster), puedan brindar; además de la experiencia que esto proporciona para que, en el caso de tener a la mano recursos computacionales de mayor capacidad,

se pueda implementar un sistema de mayor gama. Esta primera implementación del clúster dentro del Grupo CTA, busca fomentar la investigación científica en áreas que requieren alta capacidad computacional, optimizando la utilización de los recursos de hardware disponibles, para contar con una herramienta potente y capaz de solventar, en lo sumo de lo posible, esas necesidades. Según las primeras pruebas realizadas hasta el momento, el rendimiento presentado por el clúster de prueba para la ejecución de algoritmos programados para su ejecución en paralelo, es casi proporcional al número de núcleos de los nodos de cómputo que se han empleado. Resulta además sencillo incorporar nuevos nodos de cómputo al clúster, ya que basta con conectarlos a la red y habilitar su arranque en red. Agradecimientos Este estudio está siendo posible gracias al desarrollo de los proyectos. 47


SENESCYT PIC-11-728 y SENESCYT PIC-11-715 dentro del Grupo de Ciencias de la Tierra y del Ambiente de la Dirección de Investigación (DIUC) de la Universidad de Cuenca. Los autores agradecen al apoyo logístico que se está brindando para la conclusión del proyecto. Bibliografía [1] G. Em Karniadakis and R. M. Kirby Ii, Parallel Scientific Computing in C++ and MPI. Cambridge University Press, 2003. [2] A. Lazalde, “Historia de la Tecnología: Clúster Beowulf, la supercomputadora de los pobres,” ALT1040. 09-Nov-2011. [3] “COMPUTACION CON CLUSTERS DE COMPUTADORES PERSONALES,” 15-Oct-2012. [Online]. Available: http://clusterfie.epn.edu.ec/clusters/. [Accessed: 15-Oct-2012]. [4] clusterbuilder.org, “Cluster Middleware,” LinuxHPC.org/Cluster Builder 1.3. [Online]. Available: http://www.clusterbuilder.org/software/clustermiddleware.php. [Accessed: 14-Oct-2012]. [5] S. Taherian, “Open Source Real-Time OS (RTEMS) on SCI based Compute Clusters,” University of Dublin, Dublin, 2003. [6] T. Sterling, Beowulf Cluster Computing with Linux. MIT Press, 2001. [7] R. M. Stallman, “Why Open Source Misses the Point of Free Software,” in Free Software, Free Society: Selected Essays of Richard M. Stallman, 2nd ed., vol. 1, 1 vols., Boston, MA 02110-1335: Free Software Foundation, 2010, pp. 83–89.

[8] J. Hsieh, “High-Performance Computing with Beowulf Clusters | Dell,” High-Performance Computing with Beowulf Clusters, 02-Oct2012. [Online]. Available: http://www.dell.com/ content/topics/global.aspx/power/en/ps2q00_ beowulf?c=us&l=en&cs=555. [Accessed: 02-Oct2012]. [9] Warewulf Project, “Warewulf web page,” Warewulf, 27-Sep-2012. [Online]. Available: http:// warewulf.lbl.gov/trac. [Accessed: 27-Sep-2012]. [10] Appro, “Software Suite for Easy HPC Cluster Management | Appro,” APPRO Supercomputer Solutions. [Online]. Available: http://www.appro. com/products/software/hpc_software_stack/. [Accessed: 14-Oct-2012]. [11] Escuela Politécnica Nacional, “Clusters :: Administración del Cluster.” [Online]. Available: http://clusterfie.epn.edu.ec/clusters/Definiciones/ definiciones4.html. [Accessed: 15-Oct-2012]. [12] IBM, “High performance Linux clustering, Part 2: Build a working cluster,” IBM, 27-Oct-2005. [Online]. Available: http://www.ibm.com/developerworks/linux/library/l-cluster2/. [Accessed: 15Oct-2012]. [13] B. Barney, “Message Passing Interface (MPI).” Lawrence Livermore National Laboratory. [14] M. J. Sottile and R. G. Minnich, “Supermon: A High-Speed Cluster Monitoring System,” In Proc. of IEEE Intl. Conference on Cluster Computing, pp. 39–46, 2002. [15] J. Greenseid, “Linux Clustering Software,” free code, 01-Jun-2002. [Online]. Available: http:// freecode.com/articles/linux-clustering-software. [Accessed: 15-Oct-2012].

“Nuestra recompensa se encuentra en el esfuerzo y no en el resultado. Un esfuerzo total es una victoria completa”. Gandhi

48


DIEZ PRINCIPIOS DE LA GESTIÓN DE PROYECTOS QUE PUEDEN AYUDARTE EN TU PROFESIÓN Ing. Xavier Mejia Articulista Invitado

En el mundo actual, lo que buscan los empleadores puede sorprenderte. Ellos asumen que tienes conocimientos y experiencia en la industria de Tecnología de información. Una vez que cuentas con el conocimiento básico y algo de experiencia, ellos quieren saber que tú puedes desarrollar, alcanzar resultados e interactuar muy bien con otros en el área. De acuerdo a encuestas internacionales enfocadas a identificar los perfiles que buscan los empleadores de las más grandes empresas, los empleadores califican a las habilidades de comunicación, honestidad e integridad en el nivel más alto de las características que buscan en sus empleados potenciales. A continuación en el listado de evaluación están: las relaciones interpersonales, motivación o iniciativa, profunda ética profesional y capacidad de trabajo en equipo. Al leer estas características se puede identificar algo muy claramente, todas ellas forman parte inherente de las características necesarias para la Gestión de Proyectos, y no hace sino aseverar una realidad. “La Gestión de Proyectos es un acelerador profesional”. A continuación se presenta: ¿Cómo la Gestión de Proyectos puede poner a tu profesión en los niveles más altos?

1: MOSTRAR RESULTADOS La Gestión de Proyectos es el arte y la ciencia de logar realizar las cosas bien. Cuando mejoras tus habilidades en Gestión de Proyectos, conoces como hacer las cosas de manera ágil, e incluso más importante, aprendes a documentar los resultados. En nuestras profesiones, nosotros somos tan buenos como nuestro ultimo trabajo exitoso. Por lo tanto necesitamos estar mostrando resultados exitosos continuamente. 2: SER EFICIENTE Cuando aplicas los principios de la Gestión de Proyectos a tu trabajo o estilo de vida, dejas de reinventar la rueda. La Gestión de Proyectos te enseña como hacer un uso más eficiente de los recursos para generar los mejores resultados y con la menor cantidad de tiempo. Al final de cada proyecto, tú capturas las mejores prácticas y lecciones aprendidas, creando una invaluable documentación de los éxitos y fracasos. ¿Suena muy bien para ser verdad? Los buenos Gerentes de Proyectos, hacen esto en cada proyecto, y tú puedes hacerlo también. 3: CREAR UN DIÁLOGO EN CURSO Un error que se puede ver bastante en la Gestión de Proyectos y en los equipos de 49


trabajo es la suposición de que existe una sola reunión y que al irse todos los participantes, se acaba la comunicación, y que de alguna forma todo se va a realizar por arte de magia. Tus habilidades de comunicación no tienen que ver con tu vocabulario. Tienen que ver en el como manejas tu comunicación. ¿Te estas comunicando lo suficientemente frecuente y con claridad? ¿Estas comunicando lo que realmente es relevante? ¿Estas comunicando tus éxitos? 4: TRABAJAR BIEN CON OTROS Las personas escuchan el término “Equipo de Trabajo” y aseveran que ellos por su cargo son integrantes del equipo. Por lo tanto es importante traer a la luz en nuestra mente las siguientes inquietudes. ¿Realmente trabajas bien con otros? ¿Las personas quieren estar en tu equipo de trabajo? ¿Eres respetado? ¿Escuchas activamente lo que otros tienen que decir? Los buenos Gerentes de Proyectos conocen cuando liderar y cuando hacerse a un lado y dar paso. Cuando un empleador te esta entrevistando, conoces que es lo que esa persona esta pensando: ¿Puedo trabajar con el/ella? ¿Mi equipo puede trabajar con el/ella? 5: DEJA QUE TU CONFIANZA BRILLE Cuando alguien muestra confianza, todos en el lugar lo sienten también. Algo que se escucha frecuentemente de las personas respecto a la Gestión de Proyectos es que la mayor retribución de la capacitación en Gestión de Proyectos o en la certificación PMP, es la confianza que se llega a obtener. Ellos retornan a sus trabajos con unos solidos fundamentos en Gestión de Proyectos, que los hace sentir más competentes y capaces de proyectar más confianza a su equipo y a su jefe. 50

6: MANTENER TUS COMPROMISOS Las metas no alcanzadas y los proyectos que fracasan son asesinos de profesiones. Las habilidades en Gestión de Proyectos se enfoca en las líneas de tiempo y resultados, las mismas que construyen tu reputación y da a los miembros de tu equipo una razón para confiar en ti. “Sé que siempre puedo contar con el/ella para realizar el trabajo de manera exitosa”. 7: TRANQUILÍZATE Los buenos Gerentes de Proyectos no tienen que desesperarse. Ellos pueden permanecer en calma y controlarse porque tienen un Acuerdo del Proyecto el cual tiene toda la información crítica del proyecto en el mismo. Ellos conocen a ciencia cierta cuando se cumplen los límites de tiempo, quien es el responsable de que y cuando de la actividad, y además documentan los cambios. Todos quieren tener a alguien en el equipo quien permanezca en calma cuando las cosas se ponen complicadas y brindan estabilidad al caos. 8: ADAPTARSE AL CAMBIO NO ignorar el cambio. Las compañías cambian. Los límites de tiempo cambian. Las personas vienen y van. Los buenos Gerentes de Proyecto saben que frecuentemente deben adaptar sus planes y documentos que han sido modificados y como estos cambios impactan en todo el proyecto. 9: CONOCER LO QUE NO CONOCES ¿Cuales son tus fortalezas y debilidades? ¿Qué habilidades necesitas para moverte de tu status quo hacia el siguiente nivel? Una vez que tienes fundamentos solidos de habilidades de Gerencia de Proyectos, se debe seguir construyendo esos funda-


mentos. No hay que estancarse. Se debe estar continuamente aprendiendo, la sed de conocimiento es siempre atractivo para los empleadores, así como para los miembros del equipo. 10: LIDERA CON DETERMINACION Y PASION Las personas siguen a las personas que conocen lo que están haciendo y saben como generar resultados. La Gerencia de Proyectos es una poderosa herramienta de liderazgo, ya que no solo muestra como concentrarse en el objetivo y propósito, sino también acerca de la pasión para alcanzar la meta y triunfar. Nada se siente mejor que alcanzar un logro.

Acerca del Autor Ing. Xavier Mejia, profesional graduado en la carrera de Ingeniería de Sistemas de la Universidad de Cuenca. Curso una Maestría en Gerencia de Sistemas de Información esta misma Universidad. Es un profesional acreditado con el certificado internacional PMP (Project Managment Profesional) otorgado por el PMI, siendo uno de los primeros en obtener esta certificación en la ciudad de Cuenca. Dese el 2006 realiza consultoría en el área de Calidad de Software y Gestión de Proyectos tanto para la empresa pública y privada. Forma parte del grupo de Consultores de TI de ESTRATEGO.

“Estamos hechos para resistir. Así es como descubrimos lo que somos”. Wolf “ Debemos asegurarnos de que estamos en el frente de la onda de cambio, no detrás de ella”. Burke. “ Puesto que soy imperfecto y necesito la tolerancia y la bondad de los demás, también he de tolerar los defectos del mundo hasta que pueda encontrar el secreto que me permita ponerles remedio”. Gandhi.

51


INFORMÁTICA URBANA Ing. Angel Espinoza Veintimilla Docente de la Facultad angel.espinozav@ucuenca.edu.ec

Una de las temáticas de mayor auge y crecimiento en los últimos meses es la INFORMATICA URBANA, la misma que tiene cómo propósito analizar e interpretar los datos con que se cuenta en la Ciudades donde el uso de las tecnologías de información y comunicación son claves para la generación de patrones de vida o estilos de vida; para ello se pueden usar insumos de entrada como las redes sociales y/o aplicaciones que puedan servir de sensores en el momento de capturar información. En éste sentido, la Facultad de Ingeniería de la Universidad de Cuenca, llevó a cabo el desarrollo de dos aplicaciones; una en ambiente WEB con componente geográfico (mapas digitales) y la otra para dispositivos móviles (Android).

Aplicación web 52

Aplicación móvil Esto permite que los usuarios puedan, a través de su dispositivo móvil (con sistema operativo Android), localizar gráficamente un lugar al cual desea llegar (vía GPS), además se realizan los cálculos respectivos de distancia y tiempo hacia el lugar requerido, ofreciendo al usuario diferentes alternativas de rutas, teniendo en cuenta el sentido de las calles y su respectiva señalización, al igual que distinguir si la persona que vaya a usar el dispositivo va a ir a pie o en vehículo, ya que de esto dependerá si se hace caso a la señalización de las calles. Entonces, para ello, el sistema en un inicio nos da la ubicación en la posición exacta de donde nos encontremos en ese momento.


El sistema es de gran utilidad ya que se puede saber donde se encuentra determinada persona que cuente con un dispositivo y que esté visible para las demás personas, así como nos avisará si algún local comercial está cerca de donde nos encontramos en ese momento. Se tiene tambien la capacidad de agregar algún punto (restaurante, hotel, etc.) de importancia que no se encuentre ingresado hasta el momento, de tal manera que el mapa callejero se incremente y se alimente con datos nuevos.

sociales, etc.; transito y trasporte; riesgos naturales y antrópicos; medio ambiente, entre otros. Uno de los principales recursos usados en la aplicación es el mapa callejero, el mismo que esta en OSM – OpenStreetMap y es de acceso universal. El desarrollo WEB es usando software libre y el desarrollo móvil con Android. La aplicación dispone tambien de un módulo para realizar levantamiento de información en el campo, es decir mediante el uso de telefonos celulares que tengan sistema operativo android y plan de datos pueden ser usados para levantar fichas censales en el campo y de forma inmediata son enviadas al servidor, permitiendo realizar análisis en linea, por otro lado se puede monitorear donde se encuentra el encuestador levantando la ficha.

Encontrar mejor ruta

Al momento la aplicación está funcionando desde un servidor WEB la misma que cuenta con una IP pública, lo que permite que los dispositivos móviles envien los datos mediante un plan de datos o WiFi en tiempo real. El dispositivo móvil envía tambien su ubicación cada 3 minutos lo que permite establecer y determinar la ruta de ese usuario, así cómo la velocidad a la que se moviliza. Los reportes pueden ser adaptados a un sinmúmero de requerimientos, entre ellos tenemos: lugares turisticos, comerciales,

Con la temática anterior, el sistema fue probado para levantar informacion sobre riesgos naturales, en la misma se pide levantar información de la amenaza y la vuelnerabilidad calculando de forma automática el riesgo natural o antrópico.

De igual manera fue usada en Asunción del

Riesgos naturales / antrópicos 53


Paraguay para levantar información con respecto al estado de los pozos de agua, en éste caso se levantaron con el dispositivo móvil 21 indicadores los mismos que al finalizar la encuenta calificaban de forma automática es estado del mismo.

Levantamiento de datos sobre pozos de agua De forma académica se usa la plataforma en procesos de capacitación que tengan relación sobre todo con los sistemas de información geográficos, dispositivos móviles o programación WEB. La aplicación permite cambiar entre diferentes tipos de presentaciones, es decir se puede mostrar el mapa callejero del OSM – OpenStreetMap, Google Earth, Google Relieve, entre otros.

Formas de presentación en ambiente WEB 54

Vista a futuro Al momento nos encontramos en otras temáticas tales como la toma de imágenes con dispositivos aéreos no tripulados que permiten capturar imágenes desde los 10 cm. por pixel llegando a escalas pequeñas para la planificación sobre todo territorial y desde luego ayudan al tema de planificación urbana. Conclusiones • Estamos incursionando en temas nuevos donde se aplican tecnologías no solo de punta sino que apropiadas. • El desarrollo de temas de investigación cada vez están llevadas hacia obtener información en línea, actualizada y a buena escala. • La Universidad cómo tal debe liderar todos éstos espacios y abrir nuevas espectativas en base a las necesidades, intereses y aspiraciones de las empresas y organizaciones locales. Recomendaciones • El uso de éstas tecnologías no son del todo económicas, eso conlleva a que se deba trabajar con lo que se dispone o se cuenta a mano, se debería realizar una inversión en base a las espectativas esperadas. • Difundir los trabajos desarrollados ya que en la actualidad es un trabajo interno y son iniciativas más que corporativas individuales.


MEDICIÓN DE DISTANCIAS A TRAVÉS DE VISIÓN ESTEREOSCÓPICA

Ing. Fabián Romero Córdova.

Docente de la Facultad Docente de la Facultad de Ingeniería

(El presente artículo ha omitido algunos pasos de la temática, con el objetivo de incentivar al lector a realizar, implementar y conseguir su funcionamiento en base a la investigación). RESUMEN Un sistema que remplace el sentido de la vista es algo que muchos ingenieros pueden necesitar en la industria, con el fin de dar soluciones a procesos complejos. Presentamos un caso particular: un sistema basado en cámaras web para hacer la medición de distancias, el mismo que puede ser de gran utilidad para predecir movimientos de objetos en proceso de producción. Palabras clave: Visión Artificial, Pixel, Intersección ABASTRACT A system that replaces the sense of sight is something that many engineers may need in industry for purposes of providing solutions to complex processes. As a particular case present a webcam-based system for measurement of distances which can be useful to predict movements of objects in the production process. INTRODUCCIÓN La mejora absoluta que presentan los microprocesadores de última tecnología es ya un hecho. La implementación de sistemas inteligentes que resuelvan problemas que hasta hace un par

de décadas, eran actividades exclusivas para el ser humano, es ya una realidad Si tomamos un escenario donde una banda transportadora lleve en sí diferentes elementos en proceso de elaboración, resulta de vital importancia implementar un sistema capaz de apoyar en el control del proceso, contabilizar la producción y, en el transcurso, hacer un análisis de fallas de los elementos producidos. Se pueden utilizar varios sistemas entre computadores, sensores y cableado para lograr cumplir el objetivo; entre los cuales la Visión Artificial es un buen candidato, no sólo por la flexibilidad en la solución del problema, sino también por el fácil mantenimiento y futuros escalamientos en el proceso. Un ejemplo interesante para ingresar al campo de la Visión Artificial es hacer un algoritmo que permita la medición de distancias, mediante el uso de cámaras de video conectadas a un procesador casero o PC. Entonces, la pregunta clave que se plantea un ingeniero en el primer intento de hacer un proceso de Visión Artificial ¿Cómo enseñarle a la máquina (PC) a distinguir las formas de las imágenes en el mundo real a través, únicamente, de palabras de instrucción?

55


Índice de Términos— Algoritmo, Pixel, Visión Artificial, Triangulación. FORMACIÓN DE UNA IMAGEN Una imagen no es más que la organización de niveles de luz en un plano de coordenadas X, Y. De este concepto, deducimos que una imagen digital es un arreglo de elementos, cada uno de ellos llamado PIXEL, el cual se encarga de indicar el nivel de luz o color, según su ubicación en la imagen. Si se hace referencia a una imagen que maneja únicamente escala de gris, el nivel 0 es el color negro y el nivel 255 es el color blanco; de allí que, los niveles intermedios sean tonos entre blanco y negro.

Figura 1.1. Área de trabajo de una cámara.

Si queremos lograr una medición de distancia, debemos tener conciencia que se necesitan, al menos, dos puntos de vista; para lo cual, debemos colocar una segunda cámara de forma paralela a la primera y así obtendremos la siguiente área de trabajo. Figura 1.2.

Ubicación y valor de un pixel en una imagen digital

I.- AREA DE TRABAJO Cuando encendemos una cámara de video haciendo una vista superior, ésta nos ofrece un área de trabajo en forma de triángulo. Esta área de trabajo de la cámara es un segmento de espacio frente a la cámara, en donde se deben ubicar los objetos para captar su imagen figura 1.1. Figura 1.2. Intersección de las áreas de trabajo de dos cámaras.

Se puede apreciar fácilmente que las cámaras intersectan su área de trabajo, permitiéndonos captar una misma imagen desde las dos cámaras, siempre que el objeto se encuentre dentro 56


de la intersección de las áreas de trabajo. Cuando colocamos un objeto particular, dentro de las zonas de intersección podemos apreciar, fácilmente, que formamos un triángulo entre las cámaras y el objeto. Figura 1.3a y figura 1.3b.

Figura 1.4. La posición del objeto puede ser convertido a un ángulo con respecto a la imagen.

Figura 1.3a. Triangulo formado entre las cámaras y el objeto.

Dentro del sistema, la distancia entre las dos cámaras para la medición de distancia se encuentra ya asignada desde el sistema mismo, pero la distancia desde las cámaras al objeto no es tan fácil de obtener, por lo que el ángulo del objeto con respecto a la horizontal de la cámara es clave en el proceso. Luego de obtener el ángulo de los objetos con respecto a las cámaras, es fácil calcular la distancia desde el objeto hasta éstas, utilizando la Ley de los Senos. Figura 1.5.

Figura 1.3b. Imagen común para las dos cámaras.

Desde la computadora, se pueden apreciar dos imágenes: una imagen por cada cámara, en donde se encuentra la imagen del mismo objeto, al que queremos realizar la medición de la distancia. La imagen del objeto posee una posición X, Y dentro de la pantalla. Esta posición debe ser convertida en número de los pixeles a un ángulo, con respecto a la cámara para que los datos sean de utilidad. Figura 1.4.

Figura 1.5. Ley de los senos en un triángulo.

57


Luego, la altura h del triángulo, la podemos calcular mediante el teorema de Pitágoras. II.

MONTAJE DE LAS CÁMARAS

razón por la cual, para la facilidad de la implementación del proyecto se utilizó un objeto que se diferencie de forma contundente del fondo; para luego, desde el computador, ubicarlo en el plano de la imagen. Figura 2.3.

Para el proyecto, se utilizaron dos cámaras web de bajo presupuesto, como pueden observarse y, obviamente, de la misma resolución. Estas cámaras fueron colocadas sobre una base de metal a una distancia fija de 10cm., con la posibilidad de corregir su ángulo en dirección del objeto figura 2.1. Figura 2.3. Imágenes procesadas por el computador para la ubicación del objeto y posterior cálculo de la distancia.

Figura 2.1. Vista del sistema para medición de distancias.

A continuación, se pueden apreciar las imágenes captadas por las dos cámaras de forma simultánea. Figura 2.2.

Si contabilizando la posición de los pixeles obscuros dentro del arreglo de la imagen con fondo blanco, podemos convertirlos en un ángulo del objeto con respecto a la horizontal de la cámara, y así completar los datos para poderlos utilizar dentro del cálculo de la distancia. En cuanto al aspecto físico, el sistema resultó bastante pequeño, pero bastante efectivo para la medición de la distancia. Figura 2.4.

Figura 2.2. Imágenes captadas por las dos cámaras. Figura 2.4. Vista panorámica del sistema hacienda una medición de distancia.

Una vez captada la imagen del objeto por las dos cámaras, se pueden utilizar múltiples técnicas para el reconocimiento de objetos. Mientras más complejo es el objeto más difícil será para el computador distinguirlo, desde el fondo;

58


III. RECONOCIMIENTO DEL OBJETO Y CÁLCULO DE LA DISTANCIA. Para un software de última generación es fundamental incorporar librerías para el procesamiento de imágenes; razón por la cual, únicamente mostramos el resultado del reconocimiento y medición de la distancia, desde el sistema hasta el objeto figura 3.1.

Figura 3.1. Resultado final hacienda la medición de distancia.

“Necesitamos comprender la filosofía del constructor, magistralmente interpretada por Ruskin, cuando en su conocida idea, afirma:” “ Toda acción humana resulta honrada, agraciada y verdaderamente magnífica cuando no se hace considerando las cosas que están por venir … En consecuencia, cuando construyamos, hagámoslo pensando que será para siempre. No edifiquemos para el provecho y el uso actual solamente. Hagamos tales obras que nuestros descendientes nos lo agradezcan y consideremos, a medida que ponemos piedra sobre piedra, que día llegará en que esas piedras serán sagradas porque nuestras manos las tocaron, y que la posteridad pueda decir con orgullo, al ver nuestra labor y la esencia que en ella forjamos: “Mirad aquí el legado de los que nos precedieron”.

59


SEGURIDAD PASIVA:

El tópico más descuidado de los conductores actuales y potenciales compradores Ing. Xavier González R. Articulista Invitado Docente de la Universidad Politécnica Salesiana UPS Introducción Existen muchos sistemas inteligentes que alertan al conductor ante situaciones peligrosas. Estos pueden actuar en los frenos, dirección y otros componentes que permanentemente se encuentran monitoreando el entorno donde el automóvil se desplaza. Sin embargo, con todo ese despliegue de tecnología, no significa que no estemos expuestos ante una situación desafortunada. No todo accidente es evitable. Por esta razón, es estrictamente necesario emplear otros recursos en el automóvil para disminuir en gran medida las heridas producidas por un impacto inminente y mantener a los pasajeros indemnes.

Fig.1 y 2. A la izquierda se ilustran componentes principales en la Seguridad Pasiva de un vehículo. Derecha: Accidente automovilístico. Imagen tomada de la página web: http://www.coches20.com/choques-terribles-hemos-visto/

Todo componente destinado a proveer protección en un accidente forma parte de la seguridad pasiva, que es rama de la ingeniería automotriz, que se dedica diseñar mecanismos de alta tecnología para que reduzcan al máximo las heridas de los ocupantes, peatones y ciclistas. Los impactos más habituales son los frontales, laterales, posteriores, vuelcos y atropellos a peatones. 60

La seguridad pasiva siempre ha sido un tema de investigación tanto para los fabricantes como para las instituciones gubernamentales y privados, debido a que no se puede considerar como una materia completa, sin nada más que innovar. Siempre se necesitan mejoras para minimizar los efectos en colisiones vehiculares.

Fig. 3. Pruebas de Impacto. Imagen tomada de la página: http://motor-show.com.ar/2008/05/21/seguros-autosargentina/

Breve Historia de la Seguridad Pasiva: Cuando la industria del automóvil estaba en su etapa naciente, poca gente (sobre todo los compradores) era consciente de si su vehículo era seguro en situaciones de alto riesgo, y los fabricantes tampoco pusieron énfasis en desarrollar autos que protejan a los ocupantes. Fue una época de prueba y error para la máquina propulsora de cuatro ruedas y por tanto, se suscitaron varios inconvenientes.


Con el pasar de los años, las compañías automotrices muy poco hicieron al respecto, o sus esfuerzos no fueron los suficientes para ofrecer un producto que pueda disfrutarse durante la conducción, demostrando seguridad, en el caso de una colisión. Existían vehículos que poseían éstos sistemas, pero como accesorio opcional. Activistas y varios grupos presionaban a sus respectivos gobiernos para que se adoptaran reglamentaciones donde exigían a los fabricantes seguridad en los vehículos. La primera mejora sustancial fue introducida en 1959 por el fabricante sueco Volvo: el cinturón de seguridad de tres puntos. Es un mecanismo simple e ingenioso porque tiene la capacidad de sostener al conductor y sus pasajeros en sus asientos evitando de esta manera que los mismos impacten con el parabrisas o con el volante de dirección. En la figura podemos observar que con el uso del cinturón se reducen las lesiones en varias partes del cuerpo.

técnicos. Es un complemento casi perfecto del cinturón de seguridad de tres puntos porque en ciertas condiciones, éste no es un elemento suficiente para proveer seguridad a los pasajeros: persistían las heridas y golpes de cabeza debido a las altas desaceleraciones. Entonces, se debía crear algún dispositivo de seguridad que se encuentre entre el ocupante y el tablero o volante. El uso combinado del cinturón de seguridad y el airbag, en caso de colisión, evitaría que 75 de cada 100 personas sufrieran lesiones graves en la cabeza y 66 de cada 100, en el pecho.

Fig. 5. Airbag en funcionamiento. Imagen tomada de la página: http://mecanicayautomocion.blogspot.com/2009/03/sistemasde-seguridad-en-el-automovil.html

Los vidrios laminados fueron otro avance para la seguridad pasiva, éstos tienen la capacidad de quebrarse, manteniéndose los pedazos en su sitio y no salir despedidos como proyectiles al ambiente. Las carrocerías deformables programadas junto con la rigidez de la célula de supervivenFig. 4. Porcentajes aproximados de las lesionas evita- cia también aportaron en la seguridad, la das con el uso del cinturón de seguridad de tres puntos. estructura del vehículo debía ser dotada Imagen tomada de la página: http://www.dgt.es/revista/ con materiales y diseños mecánicos que num150/pages/seguridadpasiva.html absorban el impacto en ciertos lugares de El Air Bag moderno (Bolsa de Aire) fue intro- manera que los ocupantes se encuentren ducido por Mercedes Benz en 1981 después aislados justo en el instante del percance. de varios años de pruebas sorteando problemas 61


Fig. 6. Imagen de una célula de supervivencia reforzada. Imagen tomada de la web http://www.todomecanica.com/ seguridad-pasiva-componentes-basicos.html

En muchos siniestros, el conductor sufre fuertes golpes por causa del volante de dirección, incluso, en una colisión frontal la columna de dirección le impactaría directamente. Por esta razón, se han creado anclajes de la columna que al menor síntoma de ruptura, se deforman evitando lesiones fuertes en la cabeza y cara del conductor. Pruebas de Impacto, su estandarización. Organizaciones como la Insurance Institute for Highway Safety (IIHS) y la EuroNCAP han invertido millones de dólares para buscar alternativas viables con la realización de normas que deben ser cumplidas por la industria automovilística con el objetivo de garantizar vehículos con protección. La única forma de asegurar si un automóvil cumple las normas es haciendo una prueba de impacto (crash test en inglés).

Existe esa falsa creencia, muy difundida, entre la gente manifestando que mientras un automóvil es más rígido, es más seguro. Al mismo tiempo se comenta que los vehículos antiguos ofrecían más confianza en comparación con los actuales en lo que a protección estructural se refiere. Supongamos una colisión entre dos automóviles a 50 km/h, el uno un modelo actual y el otro con tecnología de 50 años atrás, en cada uno de ellos colocamos maniquíes dotados de sensores para recopilar información importante como la aceleración, fuerza del impacto y el grado de las lesiones causadas.

Fig. 8 y 9. En la prueba de impacto frontal se colisionan dos vehículos. Uno antiguo y uno actual. En las imágenes se ilustra la prueba antes y durante la colisión. Imagen tomada de la web: Imagen tomada de la web: http:// javieruruautocar.blogspot.com/2011_05_01_archive.html

Fig. 7. Maniquíes usados para las pruebas de impacto. Imagen tomada de la web http://motor-show.com. ar/2008/05/21/seguros-autos-argentina/

62

A simple vista observamos que la carrocería del vehículo moderno se encuentra destrozada e irreconocible al igual que el antiguo, contrariamente a lo que se pensaba. Pero un análisis más detallado niega


rotundamente la aseveración antes mencionada. Los maniquíes del modelo actual reportaron heridas leves, sin embargo los del vehículo antiguo no corrieron con la misma suerte, presentaron lesiones graves y con pocas oportunidades de sobrevivir. La explicación de este experimento se puede simplificar: la estructura del automóvil actual absorbió la mayor parte de la energía de impacto, deformándose en puntos estratégicos impidiendo la distribución de la misma hacia el habitáculo sin comprometer el espacio vital de los ocupantes. Cosa que no sucede con el vehículo antiguo, gracias a la información recopilada por los maniquíes, éstos sufrieron heridas severas a consecuencia de recibir directamente la energía.

Fig. 10 y 11. Después de la colisión, a la izquierda el vehículo antiguo y a la derecha el vehículo nuevo. Imagen tomada de la web: http://javieruruautocar.blogspot. com/2011_05_01_archive.html

Muchas personas hoy en día no toman en cuenta estas consideraciones cuando adquieren su automóvil. Los altos impuestos incluidos en la compra son causantes de que los concesionarios comercialicen sus vehículos reduciendo la calidad y los accesorios de seguridad con el afán de ser competitivos en el mercado manteniendo los mismos precios de las unidades. Por ejemplo, en los países industrializados es obligatorio como mínimo siete airbags, mientras que en países como el nuestro solo los vehículos de alta gama poseen aquellos elementos. Por esta razón, un mismo modelo vendido en nuestras fronteras no se parece al comercializado en un país del primer mundo en lo que a materias de seguridad y tecnología de refiere. Cada vez nuevos materiales y nuevos diseños de carrocería aparecen en escena, donde la tendencia es ahorrar peso y reducir el consumo de combustible. Sin embargo, el común denominador de los potenciales compradores cree que la liviandad del vehículo lo hace menos seguro en situaciones extremas. Espero que con ésta información se despeje cualquier mito relacionado con los prototipos y el nuevo rumbo que toma la industria automovilística sea bienvenida por la gente porque todos los esfuerzos realizados y todo el dinero invertido tienen como objetivo reducir las muertes en nuestras carreteras.

“Las grandes obras son hechas no con la fuerza, sino con la perseverancia” Samuel Johnson 63


BREVES REFERENTES DE LA HISTORIA UNIVERSITARIA Ing. Hernando Merchán Docente de la Facultad Los orígenes de la institución llamada Universidad se remontan a la época de la Baja Edad Media. La universidad nació en Europa hace más de ocho siglos con la aparición de las comunidades para la enseñanza, el aprendizaje y el cultivo de las ideas -universitas magistrorum et scholarium-1 . A finales del siglo XI se conformó en Italia la institución más antigua de Europa, la Universidad de Bolonia, donde se impartían las asignaturas de gramática, retórica y lógica, marcando así el comienzo de lo que llamamos educación superior y que hoy tiene su amplia expresión y su reconocido espacio en los innumerables centros universitarios instaurados a nivel planetario.

saberes en las yachayhuasi o casas de la enseñanza, centros para las expresiones del pensamiento, la cultura y las artes guerreras del incario.

En nuestra geografía, la historia de la educación y la cultura se remonta a siglos anteriores a la colonia y república. En la región andina, anota el historiador,2 existía ya en el período incaico, y particularmente en la época del Inca Roca, una forma de educación sistemática en los ámbitos administrativos, religiosos y militares, exclusiva para los jóvenes pertenecientes a las castas de gobernantes. Los amautas que eran sabios y filósofos; los haravicos, poetas; los quipucamayos, registradores y utilizadores de los quipus; impartían sus

En el largo período colonial, el interés educativo de la Corona Española en América Central y en la geografía de lo que fue el Tahuantinsuyo, se manifiesta en el conjunto de instituciones educativas, tanto colegios como universidades que, con la orientación y la disciplina de las órdenes religiosas llegadas a América, fueron implantadas en las tierras conquistadas. “Fueron unas treinta las universidades fundadas por los españoles en tierras hispanoamericanas, desde 1538 hasta 1812, lo que representa una cifra muy alta para aquellos siglos. Todavía no habían nacido algunas universidades europeas, de las más famosas, cuando ya llevaban seria andadura las universidades de ultramar, como en Lima y Méjico”3 . Los principales centros de educación superior fueron: la Universidad Santo Tomás de Aquino en República Dominicana, 1538; la de San Marcos en Lima, fundada en 1551 y luego como Real y Pontificia Universidad de San Marcos en 1574; la Universidad de Santo Tomás en Bogotá, 1580; la Universidad de Córdova, creada por los Jesuitas, 1621; la

1 Hugo Ordóñez Espinosa, “Crónicas sobre la Universidad”, Universidad de Cuenca, 2004

3 Bernabé Bartolomé Martínez, “Historia de la educación en España y América: La educación en España”, Ediciones SM, Ma-

2 Iván Rodríguez Chávez, “Pensadores y forjadores de la Universidad en el Perú”, Asamblea Nacional de Rectores del Perú, Lima, 2009

64

drid, 1993


Universidad de Guadalajara, 1791; la de Mérida en Venezuela, 1806; la de León en Nicaragua, en 1812.4 La tarea educativa de España, en la época colonial de la actual República del Ecuador, se revela desde el establecimiento en Quito del Colegio San Andrés, fundado por los religiosos franciscanos en 1551; el Colegio San Nicolás de Tolentino, por los agustinos en 1581 y el Colegio de San Luis, por la Compañía de Jesús en 1586. Estos colegios dieron cimiento académico al surgimiento de las primeras universidades en el Ecuador. Los agustinos fundaron la Universidad de San Fulgencio en 1603, primera institución superior de la Audiencia de Quito. Los jesuitas inauguraron la Universidad San Gregorio Magno en 1622 y, años más tarde, en 1688, abre las puertas la Universidad Santo Tomás de Aquino regentada por los padres dominicos (hoy Universidad Central del Ecuador)5 . Un hecho histórico acaecido en 1767, fue la expulsión de los jesuitas de todas las colonias españolas en América, lo que marcó también el cierre de la Universidad San Gregorio Magno y toda la obra educativa de la Compañía de Jesús. Luego de la gesta libertaria del 24 de mayo de 1822 y constituida la Gran Colombia, el Congreso de Cundinamarca dictó una ley en favor de la educación superior pública, en cuyo capítulo VII se dispone: “Art. 42.- En las capitales de los

4 Universidad de los Hemisferios, Guía de la Ceremonia de Graduación, Quito, 2009 5 Jorge Salvador Lara, “Breve historia contemporánea del Ecuador”, 3º edición, FCE, Bogotá, 2009

departamentos de Cundinamarca, Venezuela y Quito, se establecerán universidades centrales que abracen con más extensión, la enseñanza de ciencias y artes”. Así surgió la Universidad Central del Ecuador, sobre las antiguas estructuras educativas coloniales de jesuitas y dominicos y fortalecida con las ideas de la modernidad y los principios de libertad, democracia y autonomía. Iniciada la etapa republicana del Ecuador y avanzado el siglo XIX, en el espacio entre los dos período de gobierno garciano, el Presidente Jerónimo Carrión, con fecha 18 de octubre de 1867, puso el “ejecútese” en el decreto del Congreso Nacional mediante el cual “Se establece en cada una de las capitales de las provincias del Azuay y Guayaquil una junta o corporación compuesta de los superiores y catedráticos de los respectivos colegios seminario y nacional…”. El acto de inauguración de la Corporación Universitaria del Azuay tuvo lugar el 1 de enero de 1968 bajo la presidencia de su primer rector, el doctor Benigno Malo Valdivieso. Cuatro fueron las Facultades con las que comienza la vida institucional y académica de nuestra Universidad: Jurisprudencia, Teología, Filosofía y Literatura y Medicina y Farmacia. En octubre de 1890, se creó la Facultad de Ciencias. Luego de casi tres décadas, el decreto legislativo del 30 de junio de 1897 cambia su estructura institucional y le confiere el nombre definitivo de Universidad de Cuenca.

6 María Cristina Cárdenas, Manuel Carrasco, Leonardo Espinoza, Claudio Malo; Instituto de Investigaciones de la Universidad de Cuenca; “Historia de la Universidad de Cuenca, 1867-1997” U Ediciones, Cuenca, 2001, pág. 53

65


En la cronología de la institucionalidad universitaria en el Ecuador, es preciso mencionar el establecimiento del primer instituto universitario de ciencias de la ingeniería dado en el primer año del segundo período de gobierno del Presidente Gabriel García Moreno quien dispuso la creación del Escuela Politécnica Nacional, según decreto legislativo del 27 de agosto de 1869 pero, por motivos de orden político, fue cerrada en 1876 y no es sino hasta 1935 que el Presidente José María Velasco Ibarra decretó su reapertura definitiva. En una nueva etapa de la vida universitaria de Cuenca y el Azuay, el 27 de octubre de 1898, el Congreso Nacional designó al Dr. Honorato Vázquez, Rector de la Universidad de Cuenca, quien asumió en julio de 1900 y en el transcurso de su mandato se creó el Blasón y Escudo de la Universidad de Cuenca, cuyos significados y representaciones explicó el mismo Rector con el siguiente texto: “El escudo en los colores azul y rojo agrupa las ideas de virtud y de amor a la ciencia. La cruz griega simboliza la fe. Al centro un árbol, un libro abierto y un manantial representan un apartamiento para el estudio y la fecundidad y de este expresado en el tema “Fons vitae eruditio possidentis (“Tiene una fuente de vida en la instrucción quien la posee”)… Orlan el escudo a la derecha ramos de violetas, símbolo de la modestia como predecesora de la gloria, representada a la izquierda por una palma de laureles. Al término, hacia abajo, penden tres borlas correspondientes a las Facultades que funcionan en la Universidad. El Pabellón Universitario se compone de los tres colores del Nacional en fajas que, divergentes desde el asta, hacia los extremos laterales, terminan a la mitad del Pabellón cuyo fondo es blanco en una faja y amarillo en la otra” 7

66

La Universidad de Cuenca, sustentada en los principios, valores y virtudes que forman parte de su blasón y escudo, impulsó su crecimiento e institucionalización a lo largo del siglo XX, creando progresivamente nuevas Facultades y Escuelas en respuesta oportuna y pertinente a los requerimientos de desarrollo de la región y el país y a las demandas de los sectores sociales, productivos y culturales de cada época. De igual manera, nuestra Alma Mater, ha mantenido permanentemente su participación en los ámbitos más relevantes de la vida académica y científica del sistema nacional de educación superior; ha desempeñado un rol orientador en los espacios de debate político y social de la ciudad y el país; ha contribuido de manera efectiva en la búsqueda y fortalecimiento de nuestra identidad cultural y ha mantenido su nombradía y prestigio en los sitiales de mayor trascendencia en la historia republicana del Ecuador.

CIMIENTOS FIRMES PARA LAS TORRES “Ingeniería es el arte de planificar el aprovechamiento de la tierra, el aire y el uso y control del agua; así como de proyectar, construir y operar los sistemas y las máquinas necesarias para llevar el plan a su término”. El objeto de la ingeniería es dar servicio a la humanidad.

7 Antonio Lloret Bastidas, “Crónicas de Cuenca, La Cultura”, tomo V; Universidad de Cuenca, 2006 Antonio Lloret Bastidas, “Crónicas de Cuenca, La Cultura”, tomo V; Universidad de Cuenca, 2006


DESARROLLO, ÉTICA Y TECNOLOGÍA Dra. Guillermina Pauta Docente de la Facultad

INTRODUCCION Las fuertes modificaciones del clima observadas últimamente, los períodos de invierno prácticamente continuos, los prolongados estiajes, la disminución de la calidad del agua de las fuentes de abastecimiento superficiales y subterráneas y otros extraños fenómenos, revelan la preocupante situación a la que ha llegado nuestro planeta desde el punto de vista ambiental, y pone de relieve el modelo económico que ha imperado en el mundo, en el corto tiempo que ha necesitado para alcanzar este nivel de deterioro. Aunque los países establezcan con plena libertad las directrices para su desarrollo y formulen sus planes y programas que les permitan conseguir sus metas propuestas, cualquiera que sea la línea política que sigan, el objetivo primordial casi siempre es el mismo, “crecer económicamente”. Este indicador es sinónimo de desarrollo y bienestar para sus habitantes, pero esto no siempre es cierto. Son muy pocos los países en donde los mayores índices de crecimiento económico se traducen en aspectos como, disminución de desempleo, mayor educación, mejores servicios, calidad ambiental y en general mejor nivel de vida para todos. Alberto Acosta (1) en uno de sus artículos menciona, que los países ricos en recursos naturales no son precisamente los más acomodados; la riqueza obtenida de la explotación se reparte en pocas manos y lo que siempre si alcanza para todos es

el daño ambiental. Anota “ ... no se aborda estructuralmente las causas de la pobreza y la marginalidad, se redistribuyen parte de los excedentes petroleros o mineros pero no se dan procesos profundos de redistribución del ingreso y los activos; de la misma manera los impactos ambientales y sociales significativos, propios de las actividades extractivistas a gran escala, se distribuyen inequitativamente, aumentan la ingobernabilidad, le llama la maldición de los países pobres, ricos en recursos naturales”. Dentro de esta problemática está también inmerso nuestro país, con más de 40 años de explotación petrolera no ha mejorado su situación, hemos adquirido una deuda externa de la que pocos se han beneficiado, y no hemos establecido las estructuras que nos permita una independencia económica. Los países que han crecido, en cambio, se han beneficiado de los recursos naturales y de la mano de obra de los países pobres, porque son los dueños de la tecnología que convierte materias primas en productos, y porque establecen mecanismos económicos y políticos que permiten mantener esta dependencia. Pero el momento de reflexionar nos ha llegado a todos: explotadores y explotados comparten una “misma casa”, ya afectada, poco apta para la vida humana; hemos sido capaces de romper el equilibrio que la tierra ha tardado miles de años en alcanzarla, y hemos puesto en riesgo nuestra propia sobrevivencia. 67


1.- Desarrollo Sostenible ¿Cuál es el modelo de desarrollo que debemos impulsar entonces? Las drásticas modificaciones del comportamiento de la naturaleza se hacen presentes. Es como si ella misma reclamara de sus habitantes: acciones distintas, solidarias, mesuradas, en suma, estilos de vida diferentes, donde el bien más preciado sea el hombre con todos sus componentes, el Desarrollo Sostenible. Esta frase desgastada, manipulada demagógicamente y sólo escrita para ser leída en las grandes cumbres ambientales. El Desarrollo Sostenible entendido en un sentido técnico es el que predomina en documentos oficiales de gobiernos y organismos internacionales, tan manipulado ha sido su uso que se ha ido vaciando de contenido hasta convertirse en una mera técnica medio-ambiental, utilitaria, así como son hoy en día son los “estudios de impacto ambiental”: simples trámites administrativos, muchos de los cuales se ejecutan cuando los proyectos ya están en marcha. Sin embargo, ya no hay tiempo para deprimirnos dice el documental HOME, “todos tenemos una cita con el planeta”, todo se acelera, se ha roto el vínculo, la conexión entre factores ambientales: aire, agua, suelo, y así la permanencia del hombre en la tierra depende ya de las acciones emergentes a tomar ahora. 2.- Bases del Desarrollo Sostenible 2.1.- La ética hoy más que nunca es requerida entonces, este valor difícil de asumirlo, porque cada región en el mundo, cada país en un mismo continente, y cada ciudad en un mismo país, luchan por su sobrevivencia. El libre acceso a los recursos naturales comunes como agua, aire, suelo, vegetación, paisaje, etc., es un problema en un mundo cada vez más poblado; un mundo finito como el nuestro solamente 68

puede sostener a una población finita, y en esta lucha por el derecho a los recursos, surge la necesidad de ser “competitivos” sin importar lo que le pasa al otro; los conflictos por el agua por ejemplo, la disputa por las vertientes entre las comunidades se hace más evidente, y la ética va perdiendo su fundamento, desde actuaciones individuales, hasta decisiones de alto nivel que favorecen o perjudican a grandes conglomerados. ¡Es hora de cambiar!, a pesar de que las soluciones para los problemas ambientales globales, como el calentamiento del planeta por ejemplo, pasan por acuerdos de alto nivel, no debemos olvidarnos que hay que “pensar colectivamente pero actuar individualmente”, porque sólo las actuaciones humanas con ética, son de largo alcance, eficientes, preventivas y auténticamente solidarias. La ética es importante para tomar acciones solidarias en el tiempo y en el espacio; en el tiempo con las generaciones futuras, consumiendo ahora los recursos necesarios y dejando reservas, para mantener este equilibrio de distribución entre las actuales y futuras generaciones; y, en el espacio, ahora, entre los habitantes de todo el mundo, sin distinción de los provenientes de las regiones más desarrolladas o menos desarrolladas. La ética es necesaria para entender al planeta como un eco-sistema, y esto significa que está formado por la suma de varios factores ambientales conectados, interrelacionados y, por lo tanto dependientes entre sí. Es decir, la contaminación no conoce límites ni fronteras. No conocemos profundamente el funcionamiento de este sistema; hay especialistas en cada uno de los factores en forma aislada, pero no tanto de los procesos existentes entre ellos; esta falta de conocimiento obliga a respetar al medio, y no a modificarlo sustancialmente.


Así la ética irrumpe con fuerza en nuestros actos y decisiones, y permite entender a la morada humana como el espacio de la naturaleza que reservamos, organizamos y cuidamos para convertirlo en nuestro hábitat. “Necesitamos un ethos planetario”, se dice en la “Carta de la Tierra”, documento internacional asumida por la UNESCO en el año 2000. El desarrollo sustentable asegura la sustentabilidad de la vida, de la sociedad y de la humanidad. La ética de la sustentabilidad ubica la vida por encima del interés económico, político o práctico-instrumental. La ética de la sustentabilidad es una ética para la renovación permanente de la vida. En el desarrollo solidario lo ambiental y lo biológico son ejes transversales, pero dentro de un conjunto más amplio relacionado con lo social, lo político, lo económico, lo cultural, y lo personal; todos los aspectos de la vida están entrelazados y de ahí la necesidad de esta visión de conjunto, amplia y solidaria de la ecología y la sostenibilidad. Todos somos uno. La necesidad de producir alimentos en cantidad suficiente agrava el problema ambiental. Se acelera el ritmo de producción, se modifican los ciclos de reproducción de animales y vegetales y se obtienen alimentos cuya composición química y su real efecto sobre la salud humana, quizá nunca lo sabremos. La ética en la producción alimentaria, que va desde la selección de materias primas, procesamiento, distribución y consumo, es indispensable, para concebir esta actividad como un requerimiento para la vida del ser humano. El establecimiento de Normativas en todos los campos: para la protección del aire, del agua, del suelo, para agua de consumo, para calidad de vertidos al mar, para alimentos, etc., totalmente discriminatoria, de clases, para países desarrollados, y para países en vías de desarrollo, son acciones nada compatibles con el reconocimiento de todos los hombres como los “ciudadanos del mundo”.

2.2.- La tecnología ha solucionado muchos problemas y ha dado bienestar al ser humano, pero ha sido selectiva y manipulada. Los dueños de las tecnologías han transferido no lo que necesitamos, sino lo que ellos han considerado; la dependencia tecnológica (sin ética), que permite sostener un modelo de desarrollo capitalista y de acumulación, es causa de pobreza y, por lo tanto, de presión ambiental. La tecnología global o tecno globalización forma parte de las estrategias de las grandes corporaciones y en una misma región, y en un mismo país genera desarrollo desigual; por lo tanto, su objetivo, en sí mismo es económico y no puede ser parte del desarrollo sustentable. (3) El desarrollo económico en los últimos 40 años, ha mostrado que los mercados nacionales combinan regiones superdesarrolladas con regiones subdesarrolladas, fenómeno observado con mayor profundidad en una nación dependiente, y en menor grado en los países desarrollados. Así países como EE.UU, Italia y otros desarrollados presentan regiones subdesarrolladas, y esta es una característica de la actual economía del mundo. La tecnología solamente llega hacia quienes la pueden acceder, y derrumba la tesis del desarrollo armónico, base del desarrollo sustentable. La tecnología será buena, siempre que solucione problemas y brinde seguridad local, pero con una nueva estructura social, bajo un esquema en el que la ciudadanía participe y decida cómo quiere lo local. El problema de gobernabilidad requiere una redefinición que va más allá de cumplir con servicios, se trata de una nueva forma de gobierno, de la creación de un sujeto colectivo, y de considerar a la naturaleza como sujeto de derechos (2); la tecnología responsable, debe procurar conservar el sustrato físico-químico y ecológico del entorno. Toda tecnología tiene efectos colaterales; no solo las grandes tecnologías como reactores nucleares y agricultura muestran 69


proclividad a los efectos colaterales, sino también las pequeñas y cotidianas. Los efectos de las tecnologías ordinarias pueden ser pequeñas individualmente, pero significativos en conjunto. Los refrigeradores, por ejemplo, han tenido una repercusión favorable en la conservación y distribución de alimentos; sin embargo en muchos de estos aparatos hay una discreta fuga de gas que se utiliza en su sistema de enfriamiento, puede tener consecuencias adversas sustanciales en la atmósfera de la tierra.

nuestra, genera y perenniza el subdesarrollo, entonces; la solución sería dejar de explotar los recursos naturales? No. La maldición de los recursos naturales no es una fatalidad del destino, sino una elección; el reto radica en encontrar una estrategia que permita construir el Buen Vivir, aprovechando los recursos naturales no renovables, transformándolos en una bendición, dice Acosta en su artículo “El buen vivir, una utopía por re (construir)”. (4) La tarea es construir otra forma de desarrollo, con otras estrategias, que conduzcan a un modelo de economía no extrac3. - Hacia el desarrollo sostenible tivista y que no surgirá de inmediato, pero Tradicionalmente se ha considerado al me- es necesario ya dar inicio a una etapa de dio ambiente como una fuente de recursos transición, con un decrecimiento planificanaturales, el soporte de las actividades fí- do de las actividades mineras, forestales y sicas, y el receptor de residuos. Esta con- petroleras, en suma una nueva forma de cepción nos ha conducido al “desarrollis- organizar la economía, diversificando el mo” que, en última instancia, ha cambiado aparato productivo, que permitan sosteninuestro entorno. Establecer límites a estas miento interno, con actividades como el funciones del medio ambiente permite sen- turismo, la agricultura, las manufacturas, y tar las bases para alcanzar el desarrollo que según los entendidos, si son aplicasostenible. Efectivamente es una fuente de bles y potenciadoras de riqueza en nuestro recursos naturales, pero debemos respe- país. Sin embargo, el éxito en esta nueva tar la capacidad de renovación del medio; forma de concebir la economía, dependerá también, es el soporte de las actividades fí- mucho del pensamiento crítico de la poblasicas, pero determinando la mejor relación ción, del papel de las universidades como proyecto-entorno, es decir instalar la activi- organismos orientadores, y del grado de dad donde el impacto sea el menor posible concientización sobre el agotamiento de y máxima la capacidad de acogida del me- los recursos, como el agua por ejemplo. dio, es una cuestión de “vocacionalidad del Es necesario preservar la integridad de los entorno” para esa actividad; y, finalmente, procesos naturales que garantizan los fluel medio ambiente es un receptor de resi- jos de energía y de materiales en el más duos pero con una limitada capacidad para grande ecosistema: la biósfera, lo que sigautodepurarlos, son las tres condiciones si nifica sostener la biodiversidad en el plano suficientes pero necesarias para hacer neta. La iniciativa Yasuni-ITT en Ecuador, del desarrollo una actividad sustentable. es un ejemplo que ayuda a entender que (5) (6). el capital económico no puede reemplazar El desarrollismo, depende de la generosi- íntegramente al capital natural. dad de la naturaleza, margina los esfuerzos de innovación productiva y nos man- 4.- Discusión tiene subordinados al poder transnacional. Es hora de reflexionar sobre la situación Si la economía de los países basada en ambiental de nuestro país, y cómo las dela exportación de materias primas como la cisiones gubernamentales pueden incidir 70


en nuestra calidad de vida, entendida ésta no sólo como la satisfacción de un ingreso económico y condiciones de vida y trabajo, sino con un componente adicional importante: la “calidad ambiental” dada por factores como: el diseño de la urbe, la disponibilidad de espacios verdes, dotación de agua potable en calidad y cantidad suficientes, conservación de los ecosistemas, la protección de las fuentes de agua, la racionalización del uso y consumo del agua, la pureza del aire, etc. Para preservar y exigir esta calidad ambiental es necesario involucrarnos en el diseño de las estructuras de desarrollo a todo nivel: local, provincial y nacional, y pensar que sólo una presión social colectiva puede obligar a los altos mandos a tomar decisiones de solidaridad, en busca de una integridad ecológica que nos pertenece. Es necesario disponer de información que dé cuenta del verdadero estado de nuestros ecosistemas y del mérito de su conservación, que pongan de manifiesto su vulnerabilidad frente a acciones agresivas como la minera a gran escala, la deforestación, el crecimiento de la frontera agrícola, la urbanización, la agricultura y ganadería intensiva, etc.; sólo una información técnicocientífica real del medio o “estado preoperacional”, permite definir con claridad el

verdadero efecto de estas actividades; sin embargo ante la falta de este conocimiento, hay que proceder con precaución, porque en estas circunstancias, evitar dañar es el método de protección ambiental más seguro. Finalmente, hay que considerar que el uso de las “tecnologías de punta”, en la explotación de los recursos naturales no es una garantía para preservar el medio. El uso de la tecnología tiene consecuencias, que pueden incluir costos, beneficios y riesgos inesperados, por lo tanto anticipar los efectos de la tecnología es tan importante como prever sus potencialidades. 5.- Referencias Bibliográficas:

(1) Acosta Alberto. 2009. En la trampa de la maldición de la abundancia. (2) Gudynas Eduardo. 2009. “El Mandato Ecológico. Derechos de la Naturaleza y Políticas ambientales en la nueva Constitución”. Abya-Yala: Quito. (3) Molina Ivan. “Nueva Regionalización Mundial y Desarrollo Local Ingobernable”. http://redem.buap. mx/Sem_Molina.htm (4) Acosta Alberto. 2010. “El Buen Vivir, una utopía por (re)construir”. Revista Casa de las Américas n°. 257, La Habana. (5) Villarino Teresa. 2008. “Evaluación de Impacto Ambiental”. Cepade. Universidad Politécnica de Madrid (6) Gómez Orea Domingo. 2009 “Auditoría Ambiental”. Cepade. Universidad Politécnica de Madrid

“No estoy de acuerdo con lo que dices, pero defenderé con mi vida tu derecho a expresarlo” Voltaire.

71


EL COBRO DEL PEAJE Ing. Rómulo Peña Toral Docente de la Facultad

INTRODUCCIÓN Las concesiones en general, han sido sistemas administrativos utilizados desde mucho tiempo atrás, para las prestaciones de muchos servicios como de telefonía, energía eléctrica, servicios en carreteras, etc., y que actualmente han tenido un mayor apogeo en lo relacionado con la vialidad a través del peaje, por lo que es necesario tener algunos criterios al respecto para que los usuarios comprendan de mejor forma la incidencia en su aplicación. CONCEPTO De manera resumida se podría decir que: “El cobro del peaje es la recaudación de la tasa de mantenimiento en las carreteras que permitan un adecuado nivel de servicio”. Es necesario que este concepto sintético sea ampliado en sus respectivas partes, de tal manera que, se obtenga un mejor criterio de su contenido, así: 1.- TASA El valor fijado por el pago de los servicios entregados, para que el usuario pueda utilizar y aprovechar de las ventajas del mismo y tenga presente que los fondos recaudados de este canon, servirán exclusivamente para brindar y mejorar los servicios que se prestan, sin considerar que este impuesto pueda ser cobrado como una imposición ni que sea empleado para diferente objetivo. 72

Para su comprensión daremos un ejemplo: la tasa de los servicios de la energía eléctrica, sirve para proveer al usuario de la misma, quien la utiliza para producir luz, funcionar las máquinas de su industria, operar diferentes equipos, etc., etc... , entonces, se aprovecha y se paga de este servicio; y, su recaudación sirve para producir la energía eléctrica, pensando siempre en mejorar el servicio y no utilizarla en otras actividades. 2.- MANTENIMIENTO DE LAS CARRETERAS Hace referencia a la preservación de los servicios y facilidades de las carreteras, para proporcionar un transporte en forma rápida, cómoda, segura y económica, para lo cual se tienen diferentes tipos de mantenimiento, que se resumen en los siguientes: a) Mantenimiento rutinario: trabajos menores para conservar las carreteras en buenas condiciones, los mismos que se realizan en forma continua, tales como: bacheos, limpieza de drenajes, roce de vegetación, etc. b) Mantenimiento periódico: trabajos de mayor consideración, para reponer las características que tenía la carretera y que desaparecieron por varias causas. Son labores requeridas en forma cíclica: sellos, reposición de material, pintada de puentes, etc. c) Mantenimiento de mejoramiento: trabajos de mayor importancia, resultado de


estudios especiales para agregar características y procurar mejoras sucesivas como colocación de nuevos pavimentos, ensanchamiento de vías, reemplazo de puentes, rectificación de características geométricas, etc. d) Atención a emergencias: trabajos a ser desarrollados en forma inmediata, para solucionar problemas presentados por causas ambientales o circunstanciales, para corregir peligros y permitir un tráfico normal como limpieza de derrumbes, reposición de rellenos, incrementos de vía, construcción de desvíos, atención a accidentes de tráfico, etc. e) Actividades complementarias: trabajos que apoyan al mantenimiento vial y que sin ser específicamente de mantenimiento, forman parte de él, cuando son considerados globalmente: supervisión de campo, entrenamiento, producción de materiales, actividades administrativas, operación y funcionamiento de sistemas, prestación de otros servicios a más de conservación, etc. Existen otros tipos de mantenimiento como los de rehabilitación y de reconstrucción, que no se les incluye, por cuanto se considera que con la buena ejecución de los mantenimientos descritos y ejecutados de manera oportuna, disminuye en gran manera su necesidad. 3.- NIVEL DE SERVICIO Se refiere a la atención que se dará al mantenimiento vial, para que las carreteras presenten condiciones adecuadas y se logre, lo que se indicó anteriormente, que las vías sean seguras, rápidas y cómodas; claro está, que la determinación de los niveles de servicio, implica una decisión de alta responsabilidad, que dependerá, de criterios de tipo económico, técnico y político, ya que de esta decisión dependerán los recursos necesarios.

Un adecuado nivel de servicio permitirá

que las carreteras estén en buenas condiciones, lo que representa una disminución de los costos de operación vehicular; esto es, disminución del consumo de los combustibles, lubricantes, filtros, neumáticos, etc., así como de las reparaciones y de los gastos de repuestos, especialmente de los sistemas de suspensión, amortiguación, propulsión, dirección, etc. Por otra parte, disminuirá los accidentes de tránsito, que representan disminución de pérdidas de vidas humanas, lesiones permanentes y temporales en las personas, daños materiales, etc. En consecuencia, un buen nivel de servicio permite disminuir los costos del transporte y evitar accidentes que en muchos casos son valores incalculables y de consecuencias catastróficas. El nivel de servicio se mide de acuerdo al estado de las carreteras, de cómo se hallan sus partes constitutivas y sus servicios que brindan, más no por el trabajo que en sí desarrollan, para lo cual deberán cumplir normas y parámetros establecidos. Así por ejemplo, el rubro de bacheo en las carreras asfaltadas, no se mide por cuantos metros cúbicos de bacheos se han realizado, sino su valor está en la ausencia de baches. 4.- VIABILIDAD DE LAS CARRETERAS La determinación de la tasa del peaje debe estar regida por la comparación de la ecuación ingresos versus egresos, de manera cuantitativa y con resultados de cifras similares, para lo que se deberá considerar lo siguiente: a).- INGRESOS Son los valores recaudados y que tiene relación con el número de vehículos, medido generalmente por el parámetro de tráfico promedio diario anual (T.P.D.A.), que no es más que el número de vehículos que pasa 73


en un año por la sección de control, dividido para 365. Es un dato variable, que por lo general se va incrementando con el tiempo y que para la fijación de las tasa de peaje habrá que determinarse a base del tráfico proyectado. Por otra parte, los ingresos dependerán del tipo de vehículos, ya que la tasa se diferencia de acuerdo a la incidencia de las cargas de los ejes que transmiten al pavimento, según sean vehículos livianos, buses, camiones de 2, 3 o 4 ejes, y del tipo de tracto semiremolque o remolque, para lo cual habrá que hacer estudios de clasificación vehicular y su proyección. b).- EGRESOS Corresponden a todos los valores requeridos para obtener el nivel de servicio establecido; es decir, son las inversiones para ejecutar los trabajos de mantenimiento indicados anteriormente, en los cuales se incluye los gastos administrativos, y que están constituidos por los costos directos y los costos indirectos (gastos generales, imprevistos y utilidades en caso de las empresas privadas). Cuando se comparan los valores de los ingresos con los egresos y en el caso de que los ingresos sean sustancialmente inferiores a los egresos y para que haya un equilibrio, tendría que subirse enormemente las tasas del peaje, lo que no sería justo para los usuarios, por lo que en este caso no es viable el mantenimiento con este sistema, a no ser que la diferencia subvencione el Estado. En cambio cuando los ingresos son similares a los egresos, las tasas del peaje están definidas con valores que pueda sufragar el usuario, siendo el caso viable. Esto quiere decir que no todas las carreteras pueden entrar a un sistema de cobro de peaje.

74

5.- FIJACIÓN DE LA TASA DE PEAJE En el caso de las carretas viables, que son aquellas en las que el mantenimiento del camino pueda realizarse con la recaudación de la tasa de peaje. Este debe ser fijado como resultado de la comparación de los ingresos y de los egresos, cuyos montos deben ser similares, con lo que se establecería el valor a pagarse; de tal manera que, al usuario pueda retribuírsele este servicio, en condiciones ventajosas y que, además, se mantenga una buena relación entre los valores a recibir y valores a gastar. Resulta ventajoso para el usuario de las carreteras, el pago de una tasa de peaje, a sabiendas que con esta obligación consigue un servicio, que representará una disminución en sus costos de operación, tiempo de viaje y de accidentalidad, etc., con la posibilidad de que esta reducción de costos sea mayor al que paga por el peaje. 6.- CONCLUSIONES Y RECOMENDACIONES El sistema de concesión de carreteras para el mantenimiento de las mismas a base del cobro de las tasas de peaje, es un procedimiento utilizado en el Ecuador y en muchos países del mundo, desde tiempos atrás. El pago del peaje debe ser considerado como una retribución a un servicio prestado, tal como se paga la energía eléctrica, telefonía, limpieza de las calles, cuerpo de bomberos, etc., y que sirve para dar y mejorar esta asistencia. Este pago permite un mantenimiento oportuno y evita el deterioro de las vías, sin que se tenga que realizar cuantiosos gastos innecesarios por falta de mantenimiento, preservando el importante patrimonio nacional de las carreteras. De esta manera, el transporte de las personas y mercancías


pueden realizarse de una manera cómoda y segura, por presentar un adecuado nivel de servicio. Se evita el deterioro de las vías con un adecuado y oportuno mantenimiento vial, con menores costos de inversión, sin destrucción de sus partes y, de esta manera, no se permite el ciclo letal de las carreteras de construir y reconstruir. De esta forma, cuando se paga la tasa de peaje se puede

obtener disminución en los costos de transporte e innumerables beneficios, siendo mayor el costo que el usuario ahorra que lo que paga. Se debe propugnar el sistema del cobro del peaje para los servicios de las carreteras, cuando sean viables, permitiendo la obtención de fondos para tal fin y no disminuyendo rentas para las innumerables necesidades del país.

CIMIENTOS FIRMES PARA LAS TORRES “Ingeniería es el arte de planificar el aprovechamiento de la tierra, el aire y el uso y control del agua; así como de proyectar, construir y operar los sistemas y las máquinas necesarias para llevar el plan a su término”. El objeto de la ingeniería es dar servicio a la humanidad.

75


CONTROL PID DIGITAL

Algoritmo, diseño e implementación Ing. Danny Ochoa Correa

Docente de la Facultad de Ingeniería

RESUMEN Este artículo ofrece una guía procedimental de diseño e implementación de un controlador PID digital, dirigido a estudiantes que estén o hayan cursado las asignaturas Teoría de Control y Microprocesadores. Se plantea una metodología general, de tal manera que, pueda ser implementado en cualquier sistema microprocesado y lenguaje de programación, dando la libertad al alumno de mejorarlo y ejecutarlo de acuerdo a sus conveniencias técnicas y económicas. En la parte final se presenta una alternativa de implementación mediante la utilización de un computador personal y un microcontrolador. INTRODUCCIÓN Hoy en día, los sistemas de control cumplen un rol muy importante en el desarrollo y avance de la tecnología y por ende de la civilización moderna, ya que prácticamente cada aspecto de las actividades de nuestra vida diaria está afectado por algún sistema de control. En los últimos años el uso de controladores digitales en sistemas de control ha ido en aumento, dado que permiten alcanzar una máxima productividad con un excelente desempeño a bajo costo y con el mínimo consumo de energía. 76

Las razones por las que actualmente se tiende a controlar los sistemas dinámicos en forma digital en lugar de analógica, es la disponibilidad de computadoras digitales de bajo costo y las ventajas de trabajar con señales digitales en lugar de las señales en tiempo continuo. Los sistemas en tiempo continuo se pueden describir mediante ecuaciones diferenciales, del mismo modo, los sistemas en tiempo discreto se pueden representar mediante ecuaciones en diferencias, después de la apropiada discretización de las señales en tiempo continuo. La mayoría de ingenieros deben tener un buen conocimiento de los avances en la teoría y práctica del control automático, dado que proporciona los medios para conseguir un óptimo comportamiento de los sistemas dinámicos, mejorar la productividad al simplificar el trabajo de muchas operaciones manuales entre otras actividades. ESTRUCTURA DEL CONTROL DIGITAL Un sistema de control digital (o discreto) se introduce en un lazo de control con el único propósito de reemplazar al controlador, por tanto, en la mayoría de los casos,


el proceso físico continúa siendo continuo (analógico). La señal de salida del proceso de control se muestrea cada cierto intervalo de tiempo (llamado período de muestreo) y es discretizada mediante un convertidor analógico-digital (ADC). Esta información es procesada por el controlador digital y convertida nuevamente en analógica mediante un convertidor digital-analógico (DAC). Por lo tanto, internamente el controlador digital se independiza del tipo de señal con que está trabajando y ve todas las magnitudes como una serie de valores discretos. Por esta razón, resulta mucho más cómodo trabajar con ecuaciones en diferencia en lugar de ecuaciones diferenciales. La estructura típica de un sistema de control digital en lazo cerrado se muestra a continuación:

plemente reprogramando el algoritmo, mientras que, en los analógicos implica un cambio de componentes o, en el peor de los casos, un cambio del controlador completo. • Los sistemas digitales presentan menor sensibilidad al ruido electromagnético. • Si el controlador digital es implementado en un computador, este puede ser utilizado simultáneamente para otros fines, tales como: adquisición de datos, alarmas, administración, etc. Al mismo tiempo presenta una excelente interface con el operador del equipo. • El costo es el principal argumento para utilizar un sistema de control digital en lugar de un analógico. El costo de un sistema analógico se incrementa en función del número de lazos, no así con el digital. DISEÑO CONTROL PID PARALELO DIGITAL

Figura 1. Estructura de un sistema de control digital en lazo cerrado

Características del control digital Como características básicas del control digital se pueden mencionar las siguientes: • El algoritmo puede ser implementado sin límite de complejidad. Los sistemas analógicos si presentan esta dificultad. • La facilidad de ajuste y cambio que presentan los controladores digitales los hace muy flexibles. Esto implica que, los controladores digitales son modificados sim-

El controlador PID (Proporcional-IntegralDerivativo) es un mecanismo de control realimentado ampliamente utilizado en sistemas de control industriales. Un controlador PID corrige el error entre un valor medido (realimentación) y el valor que se quiere obtener (referencia), calculándolo y luego sacando una acción correctiva que es ajustada al proceso que se desea controlar. La acción del controlador PID es llevada a cabo por tres componentes: el proporcional, el integral, y el derivativo. La ecuación integro-diferencial que representa un controlador PID paralelo en tiempo continuo es:

(1)

77


donde: Ki=Kp/Ti y Kd=KpTd, siendo Kp, Ki y Kd las constantes proporcional, integral y derivativa, respectivamente, y e(t) el error en estado estacionario en función del tiempo. Para implementar el bloque PID digital es necesario convertir la ecuación (1) de una representación continua a una discreta. Existen varios métodos para llevarlo a cabo. Uno de ellos es utilizar las definiciones estudiadas en Cálculo para aproximar las operaciones involucradas. Por tanto, para la integral se utilizará la aproximación trapezoidal, y para la derivada la aproximación por diferencias finitas:

(2)

(3) donde: Intervalo de muestreo (segundos) Por tanto la ecuación (1) se transforma en:

(4)

La ecuación (4), es adecuada para implementar un sistema de control digital. Esta forma de controlador PID es a menudo conocida como controlador PID posicional. Nótese que la nueva acción de control es implementada cada intervalo de muestreo Δt. Efecto wind-up en la integración discreta En aplicaciones prácticas, todas las acciones involucradas en un proceso de control están limitadas físicamente. Como consecuencia, la señal de error no vuelve a cero y el término integral sigue sumándose 78

continuamente (Ec. 2). Este efecto se llama wind-up (o saturación integral), y como resultado, pueden ocurrir largos periodos de sobresalto (overshoot) en la respuesta de la planta. Un ejemplo sencillo de lo que sucede es el siguiente. Se desea controlar la velocidad de un motor y se produce un cambio grande en la referencia (set-point), por tanto el error también es grande. El controlador tratará de reducir el error entre la referencia y la salida. El término integral crecerá por la suma de las señales de error en cada muestra y una acción de control grande será aplicada al motor. Si se cambia el punto de referencia a otro valor, el término integral sigue siendo grande y no responde de inmediato a la referencia requerida. En consecuencia, el sistema tendrá una respuesta deficiente al momento de salir de esta condición. El problema de wind-up en la integración afecta a los controladores PID posicionales, por tanto se han desarrollado muchas técnicas para eliminarlo. Algunas de las más comunes son las siguientes: • Detener la suma integral cuando se produce la saturación. Esto también se llama integración condicional. La idea es establecer la entrada del integrador a cero si la salida del controlador está saturada. • Fijar los límites del término integral entre un mínimo y un máximo. • Reducir la entrada al integrador por alguna constante si la salida del controlador se satura. ALGORITMO CONTROLADOR PID DIGITAL En primera instancia, asignamos nombres a las variables a utilizar:


VARIABLE

DESCRIPCIÓN

ref(tk)→ referencia

Cualquiera que sea la variable física a controlar (velocidad en RPM, temperatura en °C, nivel de líquido en cm), la señal de referencia, generalmente, es de naturaleza eléctrica expresada en voltios y representa el valor al cual debe converger el controlador.

rea(tk)→ realimentación

Es la señal eléctrica que representa el estado de alguna magnitud física. Se la obtiene en los terminales del sensor, o elemento de medición, que es un dispositivo que convierte la variable de la salida en otra manejable por el controlador, como un voltaje, que pueda usarse para comparar la salida con la señal de entrada de referencia.

e(tk)→error_actual

Es la diferencia existente entre las señales de referencia y realimentación en un instante de tiempo tk.

e(tk-1)→ error_previo

Es la diferencia existente entre las señales de referencia y realimentación en un instante de tiempo tk-1. Al contar con sistemas digitales, es posible ir almacenando estos datos en memoria.

∆t → delta_t

El intervalo de muestreo es la acción periódica (en segundos) en la cual se realizan las acciones de control y la adquisición de datos. Su dimensionamiento depende de la naturaleza de la planta a controlar.

u(tk)→ salida

Señal eléctrica que representa las acciones tomadas por el controlador para alcanzar el punto de referencia. Es de naturaleza digital y, mediante un DAC, puede ser convertida en analógica para alimentar una planta controlada.

Algoritmo simple:

• Es importante mencionar que, en cada iteración la variable realimentación se carga con el dato de lectura del ADC (sensor), y la variable salida, debe ser colocada en los terminales del DAC para que las acciones de control se transfieran a los componentes analógicos (Fig. 2).

seen un número finito de bits (ej. 8 bits), con un rango de variación de tensión analógica de 0 a 5V. Por tanto, es importante mejorar el algoritmo anterior para que las señales digitales que maneja, no excedan la escala de los convertidores (0d-255d). Esto se logra fácilmente, al colocar una protección anti-windup, tanto en la parte integral como en la salida del controlador digital, de la siguiente manera:

Algoritmo anti-windup integral y en la salida En sistemas de control digital prácticos, se utilizan convertidores ADC y DAC que po-

Con esto se asegura que el valor de la variable integral no aumente exageradamen79


te, y el valor de salida no desborde la escala de conversión del DAC de 8 bits para este ejemplo. IMPLEMENTACIÓN DE CONTROL PID DIGITAL A continuación se presenta una alternativa de implementación del controlador PID, cuya parte digital consiste en un computador personal y un microcontrolador.

Figura 2. Configuración para la implementación del sistema de control digital

Computador (PC): Sistema micro-procesado en el cual está implementado el algoritmo de control digital PID. En éste se especifican los parámetros del controlador tales como: referencia, constante proporcional Kp, constante integral Ki, constante derivativa Kd y tiempo de muestreo. Recibe del ADC una señal codificada que representa la señal eléctrica del sensor de realimentación para las acciones correctivas. Además presenta una interfaz gráfica para el usuario. MAX-232: Etapa necesaria para comunicar de forma serial el PIC con el computador (PC), dado que amplifica los niveles de tensión de la salida del PIC a los establecidos por el estándar RS-232 para que sea interpretado correctamente por el PC. El circuito eléctrico y electrónico a utilizar corresponde al sugerido por el fabricante del dispositivo en su hoja de especificaciones.

80

Microcontrolador PIC 16F876A: El PIC (Peripheral Interface Controller) cumple tres funciones principales en la estructura de control digital propuesta: realizar internamente la conversión analógica-digital, ser la interface de comunicación serial RS232 entre el PIC y el computador (PC), y por último, enviar el valor digital de salida del controlador PID por uno de sus puertos de forma paralela hacia el convertidor digital-analógico externo. Convertidor analógico digital (ADC): La mayoría de Microcontroladores PIC incluyen un conjunto de ADCs dentro de su encapsulado, por tanto, pueden ser utilizados en esta estructura para ahorrar espacio físico e inversión en componentes electrónicos. Convertidor digital analógico (DAC): Puede ser implementado mediante una red de resistencias en escalera R2R o el circuito integrado DAC-0808. Debe estar conectado paralelamente a unos de los puertos de salida del PIC. Acondicionador de señal: Etapa necesaria si la entrada del Amplificador de Potencia maneja niveles de energía diferentes a la salida del DAC. Amplificador de potencia: El nivel de voltaje-corriente de la señal de salida del bloque controlador analógico muchas veces es inferior a la que requiere el actuador (planta controlada), por tanto es necesario amplificarla. Planta controlada: La planta controlada constituye el medio en donde están montados físicamente los elementos: actuador y el sensor de realimentación. Es el proceso físico a controlar. Actuador: El actuador permite, mediante la aplicación de una señal eléctrica, modi-


ficar las condiciones de una variable física (velocidad, temperatura, nivel de líquido, etc.).

La figura 3 muestra el panel de un controlador PID digital implementado en Microsoft Visual Basic.

Figura 3. Interface del controlador digital mediante Visual Basic 2010.

BIBLIOGRAFÍA • CREUS SOLÉ, Antonio. Instrumentación Industrial, ALFAOMEGA GRUPO EDITOR S.A. Sexta edición. España, 1998. • DOGAN, Ibrahim. Microcontroller Based Applied Digital Control. John Wiley & Sons Ltd, Sin edición, Inglaterra. 2006. • KUO, Benjamín. Sistemas de control automático. Prentice Hall, Séptima edición, México, 1996. • OCHOA CORREA, Danny. Modelación, Simulación e Implementación de equipos

de laboratorio para la realización de prácticas de las asignaturas Teoría de Control e Instrumentación. Tesis previa a la obtención del título de Ingeniero Eléctrico, Universidad de Cuenca, Ecuador, 2011. • OGATA, Katsuhiko. Ingeniería de Control Moderno. Ed. McGraw Hill, Cuarta edición, México, 2005. • SHAW, John A. The PID Control Algorithm: How it works, how to tune it, and how to use it. Process Control Solutions, Segunda Edición. 2003.

“El éxito no es otra cosa que el logro consecutivo y ordenado de propósitos planificados”.

Loret.

81


TRAS LAS HUELLAS DEL DOCENTE ... La Facultad de Ingeniería rinde homenaje en este espacio académico, a todos y cada uno de quienes conformaron la familia de INGENIERÍA. En esta edición hemos comenzado con la entrevista al ING. GALO ORDÓÑEZ

“Quien enfrenta las dificultades con humor ha descubierto sin querer la fuente de la eterna juventud”. Loret

GALO ORDÓÑEZ

DOCENTE Y PROFESIONAL CON MÍSTICA Entrevista realizada por Rosita Ávila, docente de Humanística de la Facultad

82


Con la mirada fija evoca la casona universitaria: calle Luis Cordero y Sucre (esquina), 1959: entonces y allí funcionaba la Universidad de Cuenca con sus primeras facultades: Odontología, Ciencias y Derecho, cuyo rector era el Dr. Carlos Cueva Tamariz. Galito Ordóñez, evoca el inicio y el término de sus estudios universitarios (1957- 1963) en la Facultad de Ciencias Matemáticas y Físicas, con su Escuela de Ingeniería Civil, posteriormente Arquitectura, Topografía e Ingeniería Eléctrica, todas conformarían las escuelas de la Facultad de las Ciencias. Se fueron independizando una a una y quedó la Facultad de Ingeniería con la Escuela de Ingeniería Civil. En ese entonces, la situación era diferente, nos comenta el entrevistado, según el Reglamento, una vez egresado, había que realizar la tesis, la misma que la trabajé con mi compañero Julio Torrachy, y como el examen era oral había que presentarse ante un tribunal en el Aula Magna de la Universidad, ¡en sesión solemne pública!, hace hincapié. El examen era oral, nada fácil y el tribunal decidía, en ese momento, sobre cualquiera de las asignaturas de la carrera. Recuerdo que mi tribunal estaba presidido por el Ingeniero Ulises Sotomayor muchos de mis compañeros no se graduaron, debido al temor que producía esta modalidad. Era la época de la regla de cálculo, las tablas de logaritmos, el tribunal y el examen oral. ¡Vaya tiempos! Sonríe y, sin duda, evoca las malas noches y los temores también, por qué no? Comenta GALITO que, en sus inicios, la Facultad de Ingeniería funcionaba con un año de preparatoria y seis años de carrera. Para ingresar al año de preparatoria había que rendir un examen de ingreso. Más tarde, se implantaron los semestres o ciclos. Se daba diez ciclos de materias de Ingeniería. El décimo primer ciclo, era un ciclo de opción, el alumno podía elegir:

vías, estructuras, sanitaria, hidráulica, y en el doceavo se desarrollaba el trabajo de tesis. Desde 1962, se daba Ingeniería Sanitaria, esto es, sistemas de abastecimiento de agua y de alcantarillado. Posteriormente, se complementa con Ecología (conocimientos del medio ambiente), ampliándose, de esta manera, el campo de la Ingeniería Sanitaria, y tomando una nueva denominación, Ingeniería Ambiental, cuyo pensum contenía, asignaturas, tales como: topografía, geología, mecánica de suelos, hidráulica, estructuras, hormigón, así se mejoró la aplicación de la Ingeniería a los problemas de salud pública. No sólo se solucionaba los problemas de infraestructura sanitaria de agua y alcantarilla, sino también se protegía las corrientes de aguas de los ríos, la contaminación atmosférica y de los residuos sólidos (basura). Su voz lenta y entrecortada, y la nostalgia no oculta, se reflejan en la tierna mirada del docente, cuando evoca la época de Profesor de Laboratorio de Ingeniería Sanitaria. Se alegra cuando nombra a Patricio Cordero, juntos –dice- fundamos el laboratorio de Hidráulica; en ese entonces, era Decano el Ingeniero Hernán Vintimilla, época en la que se incorpora la enseñanza de Ingeniería Sanitaria e Hidráulica de acuerdo a los conceptos modernos. Expreso, el Ingeniero, que las materias de medio ambiente deben formar parte del pensum desde el inicio de la vida académica; que los estudiantes deben tener conocimientos sobre la química del agua, la microbiología, que aparentemente parecen ajenas a su profesión, tradicionalmente estaban orientadas hacia vías y estructuras; de esta forma se respondería a la formación de un Ingeniero Integral: vías, estructuras, infraestructura, evacuaciones de aguas de lluvia, transporte, tratamiento de residuos sólidos alcantarillado, potabiliza83


ción del agua, depuración de aguas residuales, evacuación de aguas lluvia. Es decir, toda una serie de materias que deben dar servicio eficiente a la ciudad, utilizando tecnologías que se acercan a nuestra condiciones socio económicas. Insiste en la idea de un Ingeniero General quien debe poseer estos saberes para solucionar los problemas ambientales y así incrementar el nivel de vida. Pues la infraestructura sanitaria tanto urbana como rural, a nivel de edificación, no podría desarrollarse si no hay este conjunto multidisciplinario para cumplir una de las finalidades: dar vivienda, ambientalmente compatible, con una alta calidad de vida. Comenta GALO ORDÓÑEZ que 1967, es el año de iniciación de los Cursos de Graduación. Los primeros estudiantes en realizar el Curso de Graduación fueron: el Ingeniero Vicente Salgado, el Ingeniero Alejandro Serrano Aguilar, el Ingeniero Arturo Córdova Malo, con ellos se implementan los cursos de graduación, y quedaba para los recuerdos el temido grado oral ¡en sesión solemne!. Desde, entonces, se cuenta con las siguientes modalidades: trabajo de investigación como sustento para las tesis; tesis de servicio a la comunidad; o el Curso de Graduación. A criterio de Galo Ordóñez, los Cursos de Graduación incrementan la cultura profesional, pues se les dicta un conjunto de materias que permiten, al estudiante, cumplir satisfactoriamente con su profesión y así enfrentar a la competencia que es cada vez mayor. Expresa, el maestro que se debería retomar la modalidad de las opciones, las mismas que en la época del Ingeniero Hernán Vintimilla se vivió su época de oro en el aspecto académico. Los profesionales egresados de esta Facultad fueron cotizados y codiciados en todo el país. Tuvieron fama porque su especialización significó algo más que un diplomado por la calidad de sus conocimientos especializados. En84

tre otros menciona al Ing. José Pérez Carrión, Director del Instituto Ecuatoriano de Obras Sanitarias, Investigador Principal de un Organismo de la CEPIS y de la OMS, sede en Lima, Honduras, Brasil; Ingeniero Raúl Carrasco, Ministro de Obras Públicas, Ingeniero Juan Neira Carrasco, Gerente de EMAP, Empresa de Agua Potable y Alcantarillado del Distrito Metropolitano de Quito, tantos son los profesionales de la Ingeniería que en la capital ecuatoriana se ha formado una Institución de los ingenieros cuencanos, un karaoke por el “cantadito” de nuestros profesionales, comenta Galito. GALO ORDÓÑEZ ESPINOZA, profesor universitario desde Octubre de 1967 hasta el 2012, año en el que dejó de asistir a las salas de clases, pero se resistió abandonar el alma mater. Su mística de profesor y profesional de la Ingeniería Civil , por más de 40 años –toda una vida dedicada a la docencia , a la investigación y a la profesión- le impidieron abandonar su segundo hogar. Aquí le esperamos y le recordamos: estudiantes, profesores, autoridades de esta su Facultad. Docente e investigador, además de escritor aficionado. “No soy un escritor, pero si un investigador”, nos dice. Ha publicado: “Apuntes de la química del agua 2001”. “De la bacinilla a la alcantarilla”, 2003; esta última trata sobre la Historia del Agua y Saneamiento en la Ciudad de Cuenca. No está publicada la obra sobre conceptos modernos para el Diseño de Sistemas de Alcantarillado, pero ha entregado todo este bagaje a sus estudiantes. GALO ORDÓÑEZ se encuentra escribiendo una Historia académica de la Facultad … estamos en su espera. Fue Subdecano por dos ocasiones: 1975 y en el 2005. Miembro del Consejo Directivo, durante muchos años. Director del laboratorio de Ingeniería Sanitaria, representante de la universidad del Comité Técnico de la Cuenca del río Machangara.


Actualmente forma parte del equipo investigador de Historia de la Ciencia y la Tecnología, bajo la dirección de la investigadora Cristina Cárdenas; se trata de una recopilación importante de la Historia de la Ciudad de Cuenca. Consultor privado, asesor durante muchos años contratado por ETAPA. Trabajó en los planes maestros: 1970, 1984, 1996, 2000, 2004 En la Academia Universitaria impulsó el desarrollo de nueve cursos internacionales con figuras destacadas: profesores extranjeros, o instructores de la OMS y del CEPIS. Estas actividades académicas deberían ser más continuas, sugiere. Precisión en las fechas, en las escenas y nombres de protagonistas se activan en vívidas imágenes, cuando nuestro ENTREVISTADO nos relata con un sosegado entusiasmo, algunas de sus vivencias y experiencias: nos relata cómo el Gobierno del Ecuador y la Organización Mundial de la Salud convocó a los Ingenieros para que se especializaran y capacitaran sobre el Sistema de Agua Potable y Alcantarillado, esto en 1968. En este mismo año, el Ingeniero José Pérez Carrión, profesor de Ingeniería, llama a los alumnos tesistas para que trabajaran en la empresa que entonces se fundaba – ETAPA-, y sus primeros funcionarios técnicos fueron: Ingeniero José Pérez, Director Técnico; Ingeniero Junior Toracchi, Jefe de construcciones y el Ingeniero Galo Ordóñez, Primer Director de Planificación de ETAPA, en 1968. Aprovecho este momento, para solicitarle a nuestro entrevistado comparta a la comunidad universitaria sus méritos académicos, profesionales y personales… Con la modestia que caracteriza a los profesionales de valía, GALITO, comparte una a una sus principales actividades: en 1969, realiza un Curso de Especialización en Tratamiento de Agua en la Universidad de Río

en Brasil. En 1970, ganó un Concurso de becas con la OMS y viajó a la Universidad de México: UNAM. En 1973, obtuvo el título de Maestro en Ingeniería Sanitaria, en la Universidad Autónoma de México. Hasta el año de 1978 permanece en ETAPA. De 1970 a 1983, ejerce el Cargo de Asesor General de los Planes Maestros de Agua Potable y Alcantarillado para la ciudad de Cuenca. Permanece como profesor de Ingeniería. Asume el cargo de Consultor Privado. Como anécdota, nos comparte nuestro compañero que en el año de 1968, en nuestra ciudad, Cuenca, se formó un cuerpo de técnicos para solucionar problemas de tratamiento del agua. Entonces, había una sola planta de agua de 200 litros que se tuvo que ampliar a mil litros por segundo. Esta obra se lo hizo en ETAPA con pocas personas: Ingeniero José Pérez, Ingeniero Julio Toracchi, Ingeniero Patricio Cordero, Ingeniero Agustín Rengel y el Ingeniero Galo Ordóñez. Se solucionaron grandes problemas en torno al agua y mejora del medio ambiente, con la ayuda de las nuevas innovaciones tecnológicas: En 1968, Cuenca vivió un crecimiento demográfico y urbanístico muy grande. La Facultad tuvo que colaborar tanto en la concepción y diseño de sistemas de agua y alcantarillado para una ciudad que se expandía enormemente. Nuestra Institución Académica –nos dice- se convirtió en el soporte técnico de este proyecto: realizó los planes maestros, la caracterización de las aguas residuales, los estudios de los ríos de la ciudad, la prevención de la contaminación. Además, del diseño de este proyecto, se llevaron a cabo mingas de construcción; se construyeron numerosos sistemas de agua en varios de los cantones: Palmas, Gualaceo, Paute, Jadán. También se ejecutó la planificación de planes de construcciones: Gaspar Sangurima, programas de vivienda de Pérez Pata, entre otras. 85


Nuestros alumnos tesistas se beneficiaron de esta mística de trabajo y recibían orientación para la solución de problemas de agua y disposición de excretas en el medio rural: cantones, caseríos y parroquias, principalmente de Azuay y Cañar. Actividad intensa con los estudiantes se vivió, los profesores de tiempo completo, estaban obligados a trabajar en los proyectos. Resultado, los estudiantes se mentalizaron en lo que se llama la Ingeniería del Medio Ambiente y en el control de la contaminación y en la protección de los curso del agua.

El laboratorio cobra una tarifa módica que involucra los gastos de los insumos.

En 1975, en la Facultad de Ingeniería se fundó el Laboratorio de Sanitaria y desde 1983, la Dra. Guillermina Pauta está a cargo de las prácticas de Ingeniería Sanitaria. Se continúa con la atención al público y, de manera particular, se presta servicio a las comunidades. Se cuenta con numerosos clientes, tanto de consultoría privada como de todos se sectores rurales que se acercan con muestras de agua y aguas residuales. Nuestra labor es receptar muestras para hacer análisis de agua, además les damos instrucciones y asesoramiento.

Adicional a su vida docente y profesional, GALO ORDÓÑEZ, es un entusiasta coleccionador de equipos e instrumentos que simbolizan la Historia de la Técnica, desde reglas de cálculo, logarítmicas calculadora manuales; los teodolitos e instrumentos topográficos que culminan con las actuales técnicas y equipos computacionales. Sugiere a las autoridades que la Universidad debería tener un museo de ciencia y tecnología en donde permanezca testimonios, no sólo de la Técnica Moderna.

86

De 1990 a 1993, se colaboró con la OMS en lo que respecta a la prevención cólera, con el programa: la producción del cloro y en la llamada desinfección casera del agua. Se les enseñó a desinfectar el agua y además se dictaron numerosos cursos a médicos y a las personas involucradas. Trabajamos en todos los suburbios de Guayaquil, Los Ríos, Manabí, el norte de Perú.


EL DESLIZAMIENTO DE LA JOSEFINA “TRAGEDIA NACIONAL” (1)

Rodrigo Zeas Domínguez (1)

Profesor de la Facultad de Ingeniería

La noche del 29 de marzo de 1993, un deslizamiento de más de 200 millones de metros cúbicos de tierra del cerro Tamuga, sector de La Josefina en la provincia del Azuay, transformó la geografía de este lugar del país.

Seminario Internacional sobre aludes torrenciales. Venezuela, diciembre de 1999

vividas en la crisis. Se presenta una evaluación de los resultados en función del monitoreo realizado y la información obtenida, para en base a estos criterios, poner en consideración las conclusiones. 1.- DESCRIPCION DEL DESASTRE

RESUMEN: En el presente artículo hace una descripción sucinta de la emergencia vivida en la zona Austral y concretamente en las Provincias de Azuay y Cañar, durante el mes de marzo, abril y mayo de 1993, a consecuencia del deslizamiento ocurrido en el sector de la Josefina. Se narra el rol que jugó la Universidad en la Tragedia y su participación en diferentes facetas

El día lunes 29 de marzo de 1993, aproximadamente a las 21H00 en el cauce del río Cuenca, en la unión con el río Jadán cerca del cañón del Tahual, en el sector de La Josefina perteneciente a la Parroquia San Cristóbal del Cantón Paute, se produce un violento aluvión que forma un dique de grandes proporciones, el cual tapona a los ríos mencionados originándose el embalsamiento de sus aguas. El Cerro denominado Tamuga, sufre un fuerte sacudón a consecuencia del deslizamiento de gran parte del mismo, que por la evidencia observada parece producirse en dos instancias, en la primera desciende una gran masa del cerro que tapona a los ríos Cuenca y Jadán y en un segundo momento el deslizamiento cubre una parte del primero y todo el material removido se apoya en el cerro del frente denominado Tubón, que alcanzó la cota 2375 m.s.n.m (Fig.1). Este evento provocó la muerte y desaparición de cerca de 150 personas y un saldo de 7.000 personas damnificadas. 87


formado tiene una longitud aproximada de 900 mts. y un ancho del orden de los 300 mts. La ubicación geográfica de la zona del siniestro, está en las coordenadas 2º 9’ latitud Sur y 79º 9’ longitud oeste a 22 Km. de la ciudad de Cuenca, en la vía que conduce a los Cantones de Paute y Gualaceo y a la región Oriental.

Fig. 1. La Josefina – Modelo Digital del Derrumbe El deslizamiento aparentemente de tipo rotacional comprende el movimiento de una masa de material pétreo de un volumen aproximado de 27 millones de metros cúbicos compuesto por material fisurado, alterado y presenta una mezcla heterogénea con suelo de variada granulometría que van desde limos arcillosos plásticos a gravas y bloques angulares, este material corresponde aun cuerpo rocoso de origen volcánico que se nomina Tonalita. Las probables causas para el desarrollo de este fenómeno catastrófico puede deberse a la fuerte estación invernal que soportó en sus dos últimos meses la zona Austral y las lluvias prolongadas de gran intensidad, que en forma localizada se ocasionaron en el sector de la Josefina en los días anteriores al deslave, lo que podría haber provocado un aumento de las fuerzas desestabilizadoras en el estado de tensiones internas del macizo; además se debe anotar que en el sector existían algunas canteras en las cuales se explotaba el material y que podría adicionarse como causa desestabilizadora. Se presume que se formó una superficie de deslizamiento que se desarrolló por debajo del cause del río Cuenca. El dique 88

Durante los 33 días que duró la crisis originada por el deslizamiento, se formaron dos lagos a consecuencia del embalsamiento de los ríos Cuenca y Jadán, los mismos que en los últimos días se unieron, llegando a almacenar alrededor de 200 millones de metros cúbicos de agua, anegándose aproximadamente 1000 Ha de tierra fértiles y zonas habitadas (fig. 2). Se debe mencionar que el área de inundación corresponde al sistema hidrográfico de los ríos Cuenca, Deleg, Burgay y Jadán, que se encuentran en las provincias de Azuay y Cañar, por lo que estas dos Provincias Australes sufrieron los estragos del embate de la naturaleza; los sectores afectados por la inundación son, en la Provincia del Azuay: el Cañón del Tahual, el Descanso, Huangarcucho y un gran sector de Challuabamba y adicionalmente la cuenca del río Jadán; en la Provincia del Cañar: La Victoria, Deleg, Shullín y una parte de Chuquipata (Javier Loyola). La inundación dejó sumergidos varios puentes en los que se puede contar los siguiente: Puente de el Descanso, Huangarcucho y Challuabamba en la provincia del Azuay y el puente de Shullín en la provincia del Cañar; además, gran parte de la vía panamericana Norte a partir del Km. 12 al 18 aproximadamente. La cota de espejo de agua llegó a la 2362.5 m.s.n.m.


Fig. 2. Embalsamiento de los ríos Cuenca y Jadán

A la semana siguiente de haberse producido el deslave y mientras las aguas embalsadas continuaban inexorablemente su ascenso en los niveles, se iniciaron los trabajos en el sector la Josefina; la empresa privada de Construcciones hace llegar sus máquinas para colaborar con los trabajos que se habían planificado en el sector y es así, que a cargo del Cuerpo de Ingenieros del Ejército, comienza un movimiento de tierras con el único objetivo de construir un canal que sirva para evacuar el agua que se estaba almacenando, se establece como horizonte de trabajo el conseguir disminuir de la cota 2375 a la 2353. Inicialmente se plantea un movimiento de alrededor de 300 mil metros cúbicos de material, lo que significa una afluencia de maquinaria más de las que se disponían; en ese contexto y debido a que el número de máquinas es insuficiente, se replanifica y se disminuye a 220 mil metros cúbicos, con lo que continúan los trabajos. Se debe anotar que l número de máquinas llegó en su mejor momento a 23 de las cuales 19 eran entre D7, D8 y D9. Entre los días 8, 9 y 10 de abril, se produce un gran aumento de los niveles de los lagos formados, debido a las precipitaciones pluviales de gran magnitud que se presentaron en las cuencas altas, lo que hace que se modifique lo planificado y se aceleren los trabajos reduciendo el volumen de movimiento de tierras a 160

mil metros cúbicos, lo que significa que los taludes sean mas pronunciados. De ésta manera se consigue terminar el canal, llegándose a la cota 2357 m.s.n.m con un ancho de 6 m. en la base y taludes de 70º en la margen izquierda (fig. 3). Este canal tenía una contrapendiente de aproximadamente el 2% y una pendiente positiva de mas o menos el 1%, ubicándose la cota más elevada (2357) a unos 80 m. de la entrada al canal. Los trabajos del canal en la Josefina se terminaron el día 15 de abril, debiendo salir las máquinas por el riego que corrían con la inestabilidad de los taludes construidos; posteriormente continuaron trabajando en la limpieza del canal 2 tractores pertenecientes al Cuerpo de Ingenieros del Ejército.

Fig. 3. Canal construido en La Josefina

El día sábado 1 de mayo, en sus primeras horas, se da la voz de alarma en lo que constituye el desagüe final. El proceso se había iniciado el día anterior aproximadamente a las 18H00 y el incremento del caudal fue notable a partir de la media noche del viernes, de modo que las 6H00 del día sábado, se tenía caudales sobre los 300 m3/s y a las 7H00 sobre los 500 m3/s, para luego registrar incrementos sobre los 1000 m3/s cada 30 minutos, aumentando en 8400 m3/s (fig. 4). Se calcula que durante el día sábado se 89


evacuó cerca de 170 millones de metros cúbicos, volumen que transitó por el cauce del río Cuenca y Paute arrasando con todo lo que encontró a su paso. En el sector de la Josefina hacia aguas abajo, el cauce se elevó a 40 mts. de altura, y se formó una pendiente uniforme que alcanza al cauce antiguo en el sector en donde se emplazaba el puente de Chicticay (aproximadamente 3 Km.). La erosión alcanzó su máximo efecto, cuando el canal anteriormente construido descendió su solera a 40 mts, quedando su ancho en la entrada del lago fue 30 mts. y a lo que fue la salida a 70 mts; en definitiva, la cota del espejo de agua descendió de la 2362.5 a la 2323 m.s.n.m.

la maquinaria de generación hidroeléctrica, asolvamiento del embalse por los sólidos acarreados, etc.; y, el desembalse dejo como era de esperarse hacia aguas arriba en la zona inundada un panorama mustio y sombrio y la evidencia de un daño ecológico muy fuerte que difícilmente se recuperará en su totalidad, a esto hay que adicionar el daño ya causado por la inundación. El estado de la zona de la Josefina en donde se produjo el deslizamiento es todavía inestable, ya que el gran desagüe arrastró consigo gran parte del material suelto del deslave lo que fue depositando a lo largo del río, produciendo una pendiente mas o menos uniforme del orden del 13 por mil que se desarrolla hasta el sector del Chicticay como ya se anotó anteriormente (fig. 5) .

Fig. 4. Deslave de la Josefina. Hidrograma de Salida

El embate de las aguas originados por el desenlace del 1º de mayo, dejaron como saldo la destrucción total de todos los puentes hacia aguas debajo de la Josefina hasta el proyecto hidroeléctrico, destrucción de gran parte de las vías que conducen a las ciudades de Paute y Gualaceo, la destrucción total y parcial de fincas y haciendas ubicadas en las riberas de los ríos Cuenca y Paute, destrucción de plantaciones, destrucción de toda la infraestructura para la explotación de materiales pétreos en el río, destrucción total de la ciudadela Don Bosco en Paute, destrucción parcial de barrios ubicados en la parte baja del cantón Paute, aislamiento del Proyecto Hidroeléctrico, daños parciales en 90

Fig. 5. Perfil longitudinal en el deslizamiento de La Josefina.

2.- ROL DE LA UNIVERSIDAD La Universidad de Cuenca a través del Instituto de Investigación de Ciencias Técnicas y de la Facultad de Ingeniería, dispuso que el personal del Departamento de Audiovisuales, del Proyecto de Investigación “Protección de Márgenes y Control de Inundaciones de los ríos que Atraviesan la Ciudad de Cuenca” y el grupo de Hidráulica de la Facultad de Ingeniería se trasladen al sector del siniestro para


realizar una evaluación de las reales proporciones; al mismo tiempo, se estimó la necesidad de que se trabaje durante el tiempo que dure la emergencia, con el fin de aportar en la superación de la crisis. Pare este fin se dio todas las facilidades y la asistencia logística necesaria para que se pueda desarrollar los trabajos. Una vez constatado la magnitud del dique natural formado en los cauces del río Cuenca y Jadán en el sector de La Josefina, conjuntamente con el personal Técnico de la Facultad de Ingeniería de nuestra Universidad, se formó una oficina técnica en donde se realizaron trabajos de tipo topográfico, hidrológico, hidráulico y de evaluación de riesgo geológico, además, que ésta oficina pasó a formar parte de la Comisión Técnica del Comité de Crisis. Simultáneamente los integrantes del Departamento de Audiovisuales desde el primer día realizaron un trabajo gráfico que consistió en tomas de vídeo y material fotográfico. El Instituto de Investigación de Ciencias Técnicas, a través de estas dos gestiones tuvo una participación muy activa ya que los que conforman las dos áreas, trabajaron incansablemente durante los 33 días que duró la emergencia en las provincias de Azuay y Cañar y en el día del desagüe final, en la Provincia de Morona Santiago. Los logros alcanzados a través de la participación del IICT son los siguientes: a) Departamento de Audiovisuales El trabajo realizado se ha plasmado en un seguimiento día a día de las áreas de inundación de las dos provincias, y luego el desenlace que se produjo el primero de mayo hasta concluir con los efectos originados por el mismo

en el valle del Paute. Este trabajo resume aproximadamente unas 350 fotografías a color, blanco y negro y transparencias (slydes) y una filmación de vídeo que supera las 7 horas. El objetivo fundamental fue realizar un documento gráfico tanto desde el punto de vista fotográfico como también desde el punto de vista de video, con esta finalidad se realizó la edición cuyo guión y producción fue elaborado en el propio Instituto, con el propósito que este documento sirva tanto como material informativo y también como material didáctico. b) Proyecto de Investigaciones “Protección de Márgenes y Control de inundaciones de los Ríos que Atraviesan la Ciudad de Cuenca” Todo el personal técnico del Proyecto se unió al grupo de la Universidad, liderado por la Facultad de Ingeniería y posteriormente con los grupos Técnicos de misiones extranjeras que estuvieron presentes como son: los de Italia, Estados Unidos, Chile, Naciones Unidas, Suiza, etc., y posteriormente con los técnicos de Instituciones Nacionales como son: INAMHI, INECEL, EERCS, INERHI, etc., y una especial participación de un grupo de técnicos del CICA, que representaron al Colegio de Ingenieros Civiles del Ecuador y de la Fundación del Agua. La actividad del personal técnico del proyecto y del IICT fue la colaboración directa con los técnicos extranjeros en la modelización matemática, esto es con los técnicos Italianos en el modelo de Erosión y con uno de los técnicos estadounidenses en el modelo de Rotura de Presas y Propagación de la Onda Creciente (DAMBREAK), 91


los resultados obtenidos permitieron que se asesore al Comandante de la III Zona Militar, acantonado en la ciudad de Cuenca, para que realice un programa de salvamento de los pobladores del valle de Paute y el hecho de no haberse producido ni una sola perdida de vida humana declarada, justifica el esfuerzo de los mismos (fig. 6). Además, se realizaron experiencias de diversos escenarios y se consiguió predecir con errores muy pequeños las cotas de inundación hacia aguas abajo del dique de La Josefina y a lo largo del río Paute, especialmente en áreas pobladas como son los cantones Paute y Gualaceo. Durante todo el tiempo que duró la emergencia este grupo técnico que luego se denominó Subcomité Técnico, estuvo proporcionando información a través de monitoreo diario sobre caudales de entrada a la laguna formada, niveles de la cola de los embalses y la predicción en función del tiempo del volumen almacenado de agua.

Adicionalmente, La Universidad de Cuenca, a través del IICT y la Facultad de Ingeniería de la Universidad de Cuenca y el CICA realizó una propuesta al Presidente de la República, Arq. Sixto Durán Ballén, la misma que cubre lo referente al trabajo técnico e incluye una estimación de los recursos tanto físicos como humanos necesarios para un buen desarrollo de los trabajos. Esta propuesta incluye la acción y coordinación de la programación de actividades en los diferentes grupos de trabajo, el control de su ejecución y la introducción de los correctivos que sean necesarios a fin de lograr los objetivos planteados, los mismo que son: Apoyo para el Tránsito de caudales, prevención de riesgo geológico, prevención de riesgo sanitario y estudios de soluciones posttránsito de avenidas. En conclusión, el rol que jugó la Universidad en la Tragedia de la Josefina fue protagónico y su gestión a través de su personal fue reconocido a nivel Nacional, quedando comprometida a través de sus autoridades (Rector y Vicerrector) en dar su contingente para superar la crisis luego del desenlace y en el futuro para la pronta reconstrucción de la zona austral afectada por este evento catastrófico. 3.- ANALISIS DE LA INFORMACION OBTENIDA

Fig. 6.

92

Para entender mejor la problemática del análisis de la información disponible, es menester hacer una separación de situaciones; esto se refiere, concretamente a las instancias antes y después del desenlace vivido el 1º de mayo y que produjo la circunstancia descrita anteriormente con el desagüe final por el dique de la Josefina. En consecuencia, a continuación se tratará


el tema del análisis de la información en dos partes como sigue: a) Antes del 1º de mayo Mientras la inundación avanzaba hacia las provincias del Azuay y Cañar a consecuencia del embalsamiento del río Cuenca en la Josefina y a su vez continuaba los trabajos en la construcción del Canal para la evacuación de las aguas, en algunas instituciones se estudiaba las posibilidades de una u otra alternativa de los que sucedería en el momento en que las aguas comiencen a desbordar a través del canal . De esta manera y bajo ciertos criterios especulativos, se daban a conocer a través de la prensa hablada y escrita los resultados que se obtenían y que se resume a continuación. Algunos técnicos de INECEL (Instituto Ecuatoriano de Electrificación) asumían a base de los estudios realizados por Costa en 1985, quién recopiló información sobre roturas de presas que se habían formado por deslizamiento de tierras y generó un gráfico en escala doble logarítmica que se ajusta a una recta en donde, en las abscisas se coloca en factor correspondiente al producto de la altura del dique o presa por el volumen de agua embalsado y en las ordenadas el Caudal pico que se generó al producirse la falla de la presa. De este modo considerando en forma aproximada la altura de la presa en la Josefina de 100 m y el volumen almacenado de cerca de 200 millones de m3 de agua, el gráfico genera un caudal pico aproximado de 10000 m3/s (fig. 7)

Fig. 7. Caudal Pico de Descarga vs Altura x Volumen Almacenado Un equipo de técnicos de alto nivel de la EPN (Escuela Politécnica Nacional) y de INECEL, trabajaron con modelos físicos y matemáticos sobre el problema del caudal pico que se produciría una vez que las aguas comiencen a verter sobre el canal. Los resultados obtenidos en un modelo Físico a una escala 1:200, asumiéndose hipótesis en dos tipos de escenarios en los cuales consideraban el caso optimista y el caso pesimista, se obtuvieron valores de 8000 m3/s y 16000 m3/s respectivamente y de no conseguir disminuir la cota de la 2375 m.s.n.m., es decir si no se construía el canal, el caudal pico generado podría alcanzar los 30000 m3/s. El CEDEGE (Comisión de Desarrollo de la Cuenca del Guayas) con el apoyo de la Compañía Oderbrech, construyó un modelo Físico a una escala 1:150 en el local del campamento de El Chongón; para la representación del dique, consideraron un diámetro medio equivalente a 15 cmts. en un 15% de finos plásticos, lo que les llevó a preparar un material compuesto por arena de un d50=1.0 mm y una combinación finos. Para que la representación del modelo fuese lo más cercano a la realidad, vertieron la 93


arena a manera de un deslave a base de la topografía de la Josefina. El modelo tenía dos objetivos: el primero era la determinación de Hidrograma de caudales de salida (cuantitativamente) y el segundo, la observación del proceso de erosión regresiva (cualitativamente). Se realizaron dos experiencias y en ellas se obtuvieron caudales picos de 8300 m3/s y 6500 m3/s estabilizándose el embalse en la última experiencia en la cota 2329 m.s.n.m. Cabe mencionar que los técnicos de CEDEGE consideraron los modelos matemáticos como inaplicables en este caso. La Universidad de Cuenca, a través de la Facultad de Ingeniería y el Instituto de Investigación de Ciencias Técnicas, conjuntamente con los técnicos de las misiones Italiana y Americana, trabajaron fundamentalmente en dos modelos matemáticos: el de Erosión y en el DAMBREAK; a continuación una breve descripción de estos: • El modelo de Erosión, dirigido por el profesor Luigi Natale, Director del Departamento de Ingeniería Hidráulica y Ambiental de la Universidad de Pavía, se construyó en la Universidad de Cuenca, en el mismo que se realizaron muchas pruebas de sensibilidad de los parámetros involucrados. El modelo considera el fenómeno del vaciado del lago, al descenso de la cresta por erosión y fue específicamente construido para describir el comportamiento del dique formado en los ríos Cuenca y Jadán. La ecuación de erosión de la cresta de la presa es descrita por la ecuación de ENGELUND-HANSEN. En este modelo se considera que el dique está formado por dos capas; los primeros 25 mts. de espesor con 94

un d50=10 cmts. y 10% de porosidad y la segunda capa tiene un d50=70 cmts. y 50% de espacios vacíos que se mantiene constante hasta el fondo; el ancho inicial del canal es de 8 mts. y la longitud de la cresta de 230 m; el caudal de entrada al lago es de 100 m3/s y el desborde comienza en la cota 2358 m.s.n.m. El resultado fue un caudal pico de 2698 m3/s, y la cota final de la cresta es la 2311 m.s.n.m. • DAMBREAK: Este software simula el rompimiento de una presa, generando un caudal pico, el mismo que es transitado hacia aguas abajo. La preparación de los datos para el modelo estuvo a cargo del Ingeniero Hidráulico Maurice James del Cuerpo de Ingenieros del Ejército de los Estados Unidos. Este técnico puso en operación al modelo y en lo que constituye la información topográfica (secciones transversales) se obtuvieron de la cartografía en escala 1:5000, proporcionado por el INECEL; en total se analizaron 34 secciones transversales, con intervalos de aproximadamente 1 Km. en las zonas pobladas (20 Km.) y en intervalos de cada 5 Km. hacia aguas abajo del puente de Chicti. Para obtener los resultados, se planteó dos escenarios, los que consideraban la rotura de la presa en 72 y 15 horas; en cada caso el vertido comienza en la cota 2360 m.s.n.m. lo cual dio caudales picos de aproximadamente 2000 y 5700 m3/s respectivamente. Por considerarse como más probable el caudal obtenido con el modelo de erosión, se hizo transitar el caudal de 2698 m3/s, conjuntamente con el caudal de 5700m3/s a lo largo del cauce del Paute, obteniéndose en


diversos puntos considerados claves los niveles de inundación. Además con fines de obtener los niveles considerados como catastróficos, se generó un caudal equivalente a 18000 m3/s y se transitó en el cauce, obteniéndose las cotas de inundación hasta la central Hidroeléctrica. Estos datos fueron utilizados para la elaboración del mapa de “Amenazas de Inundación” en sus niveles de máximo, alto y bajo riesgo, con los que se operó para la fase de salvamento de las personas hacia aguas abajo de la Josefina (fig. 6) En este período, es decir antes del desenlace del 1º de mayo, el periodismo sensacionalista jugo un papel importante, ya que en función de la información que se daba a conocer al público, se creó un estado de incertidumbre en la población, sobre todo en las personas que estaban siendo afectadas por el proceso de inundación hacia aguas arriba de la Josefina y los pobladores del Valle de Paute que esperaban con real preocupación los efectos del desenlace final. Prueba de esto son los siguientes hechos. • Confusión en lo que constituye las cotas del deslizamiento, las del canal construido, las del lago en el río Cuenca, las del puente de Challuabamba, etc. • Una precipitación en la declaratoria de alerta roja, originado por la noticia del caudal de 30000 m3/s o más lo que conllevó a que como no ocurría el desenlace final, lo pobladores especialmente del Cantón Paute y de aguas abajo de la Josefina que estaban instalados en campamentos comiencen a desmotivarse produciendo situaciones de indisciplina que podría haber sido fatal.

• Una falsa información en el sentido que había sido utilizado misiles para romper la masa pétrea que impedía el desarrollo de la erosión regresiva y el consecuente desenlace. En este sentido se creo muchos cuestionamientos en las razones de porque no se utilizó estos medios desde que se inició la crisis y nunca se dijo que eso no era posible y que no se utilizó misiles, sino una carga explosiva hueca denominada “low” (antitanque) que no produce onda expansiva, etc. b) Después del 1º de mayo Una vez ocurrido el desagüe final, la especulación llegó a sus máximos límites y se hablaron de caudales que tenían rangos entre los 5000 a los 20000 m3/s pero casi nadie sustentaba sus valores en bases firmes, por lo que todo constituía suposiciones y especulaciones. La Escuela Politécnica Nacional (EPN) con las bases ya expuestas y de la observación realizada en el desagüe final estimó un caudal pico de 14000 m3/s; a su vez, INECEL cuantificó un caudal de 11000 m3/s a la entrada del embalse de Amaluza con un paso por los vertederos y el desagüe de fondo de 5000 m3/s, lo que significa una laminación en el embalse al 45% del caudal de entrada al mismo, es decir el 220% del caudal pasado por la represa. De todas maneras cada una creía tener la razón y en adelante se trata de exponer algunos considerandos cuantitativos que pueden conducir a un conocimiento cabal y completo de lo que realmente ocurrió. El grupo técnico de la Universidad, continuó monitoreando los niveles del lago y los caudales de entrada al embalse; durante el día 1º de mayo se realizaron mediciones desde la 7H00 cada 5 minutos hasta las 12H40 y se disponía de la información cada 95


hora de la estación Tomebamba en Monay del día anterior, esto permitió a través de la correlación conocer el caudal de entrada al embalse y mediante el balance hídrico en el lago poder determinar los caudales evacuados por el canal de vertido. Durante el descenso del nivel de agua en el embalse, se produjeron fluctuaciones debido a la formación de oleaje, lo que dificultó la estimación correcta de niveles, por esa razón se obtuvo un hidrograma de desembalse con muchas oscilaciones. Pese a esta dificultad, se estimó una posible envolvente como se muestra en la (fig. 4) estimándose el caudal pico de 8400 m3/s, que se produjo a las 9H30. Para corroborar o desmentir la aseveración descrita anteriormente, se propuso un levantamiento Hidráulico de la huella de inundación y se eligió un sitio que reúne las características adecuadas desde el punto de vista hidráulico y que consiste en un cañón más o menos uniforme de material rocoso homogéneo y que no presenta muchas sinuosidades ni playas; el sitio se ubicó hacia aguas abajo en donde se emplazaba el puente de Chicti. El equipo topográfico trabajó en algunas secciones transversales, levantando Las mismas hasta la huella de inundación. En cuanto al coeficiente de rugosidad de Manning, se estimó el valor más probable para este tipo de material de 0.045. A continuación se describe los datos de las secciones más representativas: Longitud del tramo

810.71m

Cambio de elevación de la superficie de agua

4.28 m

Coeficiente de Rugosidad

0.045 m

Area de la sección aguas arriba

1443.06 m2

Perímetro de la sección aguas arriba

58.08 m

Area de la sección, aguas abajo

1168.70 m2

Perímetro de la sección aguas abajo:

123.53 m

Utilizando la ecuación de Manning y por un 96

proceso de prueba-error, se obtuvieron los siguientes resultados: Velocidad en la sección aguas arriba:

5.465 m/s

Velocidad en la sección aguas abajo:

6.748 m/s

Pendiente de la línea de energía:

0.0038222

Caudal:

7886.124 m3/s

Además, se probó con otros coeficientes de rugosidad como es el caso de 0.040 que dio un Caudal de 8900m3/s y con 0.050 que generó un caudal de 7100 m3/s. De los resultados obtenidos y con las consideraciones señaladas se concluyo que el caudal aproximado de 7900 m3/s, era el más real con un margen de error del orden del 10% y en consecuencia corrobora en alguna manera a la posible envolvente del hidrograma de desembalse que señala 8400 m3/s como el caudal pico de la creciente. Se corrió el modelo DAMBREAK para transitar un hidrograma con un pico de 8500 m3/s que es equivalente al hidrograma de desembalse con un 5% de error en exceso; el resultado de esta experiencia fue una atenuación del pico a 8160m3/s en Chicti y 8100m3/s en Chalacay (cerca del embalse Amaluza), el valor obtenido en Chicti corrobora el levantamiento hidráulico realizado en ese sector. En cuanto al estado en que quedó el deslizamiento, luego de la evacuación de las aguas, a más de lo ya descrito en la última parte del numeral 1, se puede indicar que sus perfiles longitudinales sufrieron cambios radicales como muestra la (fig. 5), con lo que se puede indicar que el descenso total sumada la construcción del canal y la erosión producida en la solera del mismo es de 55 mts. y todo el material que arrastró el desagüe en el deslave (que fueron algunos cientos de


miles de m3), asolvó el cauce hasta más allá de Chicticay y depositó ese material rocoso de diversos diámetros a lo largo del río Cuenca y Paute en algunas decenas de Km. El dique remanente es de 40 m. de alto, con un volumen embalsado de alrededor de 25 millones de m3 de agua conforme lo muestra la esquematización de la fig. 8.

Fig. 8. Deslizamiento de la Josefina.

4.- CONCLUSIONES De acuerdo a lo expuesto en base a los criterios señalados , se puede concluir lo siguiente: • Por la diversidad de criterios expuestos en el transcurso de la emergencia, muestra que no existe los suficientes conocimientos para poder predecir lo que sucedería en el desenlace de un evento de esta naturaleza, por lo que es necesario continuar investigando a base de la información obtenida en este siniestro. • La experiencia vivida exigió un esfuerzo grande en la obtención de la información necesaria (hidrológica, hidrometereológica, cartográfica, geológica, topográfica, etc.),

muchos de los cuales no existen, por disponer de una infraestructura de medición muy precaria y por el celo de algunas instituciones en entregar la información disponible; esto conlleva, a la necesidad de conformar un banco de datos a nivel regional para que todas las instituciones alimenten dicho banco para disponer de la información en cualquier momento y mas todavía en situaciones de emergencia como el sucedido. El pico del caudal en el hidrograma de la creciente generada por el desagüe final de la Josefina fue inferir a los 10000 m3/s. Los modelos tanto físicos como matemáticos si están bien calibrados, son herramientas idóneas para el manejo científico de situaciones como esta. Los equipos técnicos bien concebidos, son el soporte adecuado para el asesoramiento en la toma de decisiones y en consecuencia son indispensables. Es necesario realizar un estudio de riesgo geológico a nivel de un plan general de infraestructura para una determinada región, especialmente donde existen asentamientos humanos considerable, lo que puede ocasionar molestias, ya que en la zona interandina por su formación geológica reciente de por si es inestable, pero es necesario conocer las zonas de riesgo para evitarlas o afrontarlas con planteamientos técnicos que garanticen la estabilidad de las estructuras. En el lago remanente es necesario realizar un estudio en los niveles de inundación fluctuante, pues de la experiencia post-desembalse 97


se ha observado que cuando se producen crecientes a causa de las precipitaciones en las cuencas altas, la respuesta inmediata es la elevación de los niveles del lago de hasta 3 mts. lo que hace pensar que el futuro cuando estemos en la estación invernal el problema se agudizará y será más crítico. BIBLIOGRAFIA CADIER E, Aspectos Técnicos de la Catástrofe de la Josefina (documento provisional) ORSTON, Junio /93. CISNEROS F, Informe sobre acciones tomadas por la Universidad de Cuenca en relación al Deslizamiento de la Josefina, Abril/3. CISNEROS, DE BIEVRE, Informe del grupo de la Universidad de Cuenca sobre el Caudal pico ocurrido en el desfogue de la Josefina, Junio /93.

98

GALARZA L, Propuesta para la organización de los grupos de apoyo y alcance de las actividades a realizar, Abril /93. GRUPO HIDRAULICA, Facultad de Ingeniería: documentos, planos, hidrogramas, 1993. JARAMILLO H, Informe de Evaluación Geológica General del embalse y Dique del Represamiento del Sector La Josefina, Abril /93. JAMES M, Emergencia de la presa de Deslizamiento, Cuenca – Ecuador S.A., Abril /93. JAMES Y OTROS, Informe de resultados de Modelos Matemáticos: Dambreak, Abril /93. NATALIL, Simulación de erosión en la presa del sector La Josefina – Río Paute, Abril /93. ZEAS R, El Instituto de Investigaciones de Ciencias Técnicas de la Universidad de Cuenca en el Deslizamiento de La Josefina, Mayo /93.


OTRO MUNDO ES POSIBLE...

99


HERRAMIENTA METODOLÓGICA PARA ALCANZAR EL APRENDIZAJE SIGNIFICATIVO Prácticas de Laboratorio en Ingeniería Ing. Danny Ochoa Correa Docente de la Facultad

.

ABSTRACT This article presents a brief discussion about the importance of engineering laboratory practice, and how these contribute to the achievement of meaningful learning by students. It also makes recommendations for the development of practice guidelines and the role it should play both students and teachers to achieve the desired goals. Palabras clave: Prácticas de laboratorio, aprendizaje significativo. En la actualidad, la educación impartida en las aulas universitarias se enfrenta a varios problemas. El más importante radica en el hecho de que, aún se viene impartiendo, una enseñanza memorística o mecánica, ya que no se emplea una metodología adecuada para alcanzar un verdadero aprendizaje por parte de los alumnos. Diferentes autores, relacionados con la pedagogía, han realizado fuertes críticas al respecto. En particular, se cuestiona la manera en que se enseñan aprendizajes abstractos y fuera de contexto, conocimientos inertes, de poca utilidad y cuya motivación hacia el alumno es muy reducida. En este tipo de enseñanza, se trata al conocimiento como si fuera autosuficiente, neutral e independiente de las situaciones de la vida real. Esto se traduce en aprendizajes carentes de significado y aplicabilidad, y en la incapacidad de parte de los alumnos por asimilar, transferir y generalizar lo que aprenden [1]. Partiendo de los principios del aprendizaje significativo, en ingeniería, la mayoría de los contenidos curriculares se presentan en forma teórica; lo cual, vuelve cada más compleja la situación, repercutiendo, por supuesto, en la falta de motivación por parte de los estudiantes. Dicha complejidad se profundiza más todavía, cuando no existen herramientas que posibiliten a los estudiantes a ir relacionando paralelamente la teoría con la práctica y, sobre todo, que les coloquen en situaciones reales o simulaciones auténticas, vinculadas a la aplicación en su ejercicio profesional.

100


Desde esta perspectiva, se desprende la necesidad de aplicar estrategias de aprendizaje significativo basadas en una enseñanza situada en donde se aplique la noción de aprender y hacer como acciones complementarias e inseparables que faciliten la comprensión de los conceptos científicos formales. Una de estas estrategias metodológicas es la ejecución de prácticas de laboratorio con el propósito de vincular la teoría con la práctica. En este sentido, la práctica de laboratorio constituye el ambiente de aprendizaje que ofrece al estudiante una variedad de herramientas y equipos para la práctica de sus habilidades y destrezas, necesarias para el entendimiento de conceptos teóricos y para experimentar los procesos relativos a la ingeniería. Con la implementación de la práctica de laboratorio se deja de lado el paradigma de la educación tradicional para dar paso a una visión centrada en el estudiante, que parte de los conocimientos previos, que prioriza la experiencia y posibilita situaciones que lo acercan a la realidad de su desempeño futuro.

Los estudiantes de Ingeniería deben tener cierto contacto con situaciones similares a las que encontrarán en su vida profesional, sustentándose en la teoría revisada en clases, para alcanzar un aprendizaje altamente significativo.

Tengo la fortuna de impartir asignaturas teóricas con su respectiva práctica de laboratorio y he comprobado que, la segunda, es una herramienta metodológica eficaz, para fomentar en los estudiantes aprendizajes altamente significativos, además de potenciar el trabajo grupal y cooperativo, ayudándolos a ir mejorando de manera continua, tanto académica como profesionalmente. Resulta importante aclarar que, si bien las prácticas de laboratorio en Ingeniería pueden conducir al logro de aprendizajes significativos por parte de los estudiantes, estos se deben encontrar suficientemente motivados, además sentir interés y gusto por la asignatura que se está reforzando mediante la práctica. La clave del éxito de las prácticas de laboratorio radica en la elaboración minuciosa de una guía, cuyo alcance y contenido debe ser compatible con el nivel intelectual del alumno; de tal manera que, las temáticas a tratarse durante este proceso puedan ser asimiladas y razonadas en función de los conocimientos previos que éste posee, y que además estén orientadas a enfrentarlos adecuadamente a problemáticas similares a las que encontrarán en su vida profesional. 101


El papel del docente de la práctica es muy importante, dado que, cumple la función de guía e inspector del proceso; por lo que, debe manejar con eficacia los conceptos teóricos ligados a las correspondientes temáticas y tener cierto grado de experiencia práctica; de tal manera que, sea capaz de interactuar dinámicamente con los estudiantes, haciendo activo el proceso de aprendizaje [2]. Además debe ser un líder que cumpla con las expectativas, no sólo de saber lo que enseña, sino también cómo y para qué lo enseña. Para que el docente alcance los objetivos de la práctica como espacio de aprendizaje, debe realizar una adecuada planificación, ejecución y sistematización de la actividad [3]. BIBLIOGRAFÍA Y REFERECIAS Artículo tomado de: OCHOA CORREA, Danny. Modelación, Simulación e Implementación de equipos de laboratorio para la realización de prácticas de las asignaturas Teoría de Control e Instrumentación. Tesis previa a la obtención del título de Ingeniero Eléctrico, Universidad de Cuenca, Ecuador, 2011. [1] DÍAZ BARRIGA, F. y HERNÁNDEZ, G. Estrategias docentes para un aprendizaje significativo. Una interpretación constructivista. McGraw Hill, Segunda Edición, México, 2002. [2] HERNÁNDEZ, Arcelio. Los niveles de asimilación del contenido: una pauta para la organización de las prácticas de laboratorio. En: Revista Actas Pedagógicas, año 5 - No.5. Centro de estudios de Didáctica y Pedagogía, CEDIP. Ibagué, Junio de 2001. [3] MONTES, Ferney. Prácticas de Laboratorio en ingeniería: Una estrategia efectiva de aprendizaje. Revista Notas Universitarias, ISSN: 1794-1997. En: Escritos para la docencia # 4, CEDIP No 11, Ibagué, Diciembre de 2004. ---------------------Yo, Danny Vinicio Ochoa Correa, DECLARO que: el contenido del presente artículo es de mi autoría; además que he consultado las referencias bibliográficas que se incluyen en el mismo.

“Unirse es un comienzo; seguir unidos es progresar; trabajar unidos es tener éxito”. Henry Ford

102


LOS CUATRO PILARES DE LA EDUCACIÓN Informe para la Unesco sobre Educación Superior Jaques Delors (Ex presidente de la Unión Europea)

El siglo XXI, que ofrecerá recursos sin precedentes tanto a la circulación y al almacenamiento de informaciones como a la comunicación, planteará a la educación una doble exigencia que, a primera vista, puede parecer casi contradictoria: la educación deberá transmitir, masiva y eficazmente, un volumen cada vez mayor de conocimientos teóricos y técnicos evolutivos, adaptados a la civilización cognoscitiva, porque son las bases de las competencias del futuro. Simultáneamente, deberá hallar y definir orientaciones que permitan no dejarse sumergir por la corriente de informaciones más o menos efímeras que invaden los espacios públicos y privados y conservar el rumbo en proyectos de desarrollo individuales y colectivos. En cierto sentido, la educación se ve obligada a proporcionar las cartas náuticas de un mundo complejo y en perpetua agitación y, al mismo tiempo, la brújula para poder navegar por él. Con esas perspectivas se ha vuelto imposible, y hasta inadecuado, responder de manera puramente cuantitativa a la insaciable demanda de educación, que entraña un bagaje escolar cada vez más voluminoso. Es que ya no basta con que cada individuo acumule al comienzo de su vida una reserva de conocimientos a la que podrá recurrir después sin límites. Sobre todo, debe estar en condiciones de aprovechar y utilizar durante toda la vida cada oportunidad que se le presente de actualizar, profundizar y enriquecer ese primer saber y de adaptarse a un mundo en permanente cambio.

Para cumplir el conjunto de las misiones que les son propias, la educación debe estructurar-

se en torno a cuatro aprendizajes fundamentales que en el transcurso de la vida serán para cada persona, en cierto sentido, los pilares del conocimiento: aprender a conocer, es decir, adquirir los instrumentos de la comprensión; aprender a hacer, para poder influir sobre el propio entorno; aprender a vivir juntos, para participar y cooperar con los demás en todas las actividades humanas; por último, aprender a ser, un proceso fundamental que recoge elementos de los tres anteriores. Por supuesto, estas cuatro vías del saber convergen en una sola, ya que hay entre ellas múltiples puntos de contacto, coincidencia e intercambio.

Mas, en general, la enseñanza escolar se orienta esencialmente, por no decir que de manera exclusiva, hacia el aprender a conocer y, en menor medida, el aprender a hacer. Las otras dos formas de aprendizajes dependen las más de las veces de circunstancias aleatorias, cuando no se les considera una mera prolongación, de alguna manera natural, de las dos primeras. Pues bien, la comisión estima que, en cualquier sistema de enseñanza estructurado, cada uno de esos cuatro “pilares del conocimiento” debe recibir una atención equivalente a fin de que la educación sea para el ser humano, en su calidad de persona y de miembro de la sociedad, una experiencia global y que dure toda la vida en los planos cognoscitivos y práctico.

Desde el comienzo de su actuación, los miembros de la Comisión fueron conscientes de que, para hacer frente a los retos del siglo XXI, se-

103


ría indispensable asignar nuevos objetivos a la educación y, por consiguiente, modificar la idea que nos hacemos de su utilidad. Una nueva concepción más amplia de la educación debería llevar a cada persona a descubrir, despertar e incrementar sus posibilidades creativas, actualizando así el tesoro escondido en cada uno de nosotros, lo cual supone trascender una visión puramente instrumental de la educación, percibida como la vía obligada para obtener determinados resultados (experiencia práctica, adquisición de capacidades diversas, fines de carácter económico), para considerar su función en toda su plenitud, a saber, la realización de la persona que, toda ella, aprender a ser. 1 Aprender a conocer Este tipo de aprendizaje, que tiende menos a la adquisición de conocimientos clasificados y codificados que al dominio de los instrumentos mismos del saber, puede considerarse a la vez medio y finalidad de la vida humana. En cuanto a medio, consiste para cada persona en aprender a comprender el mundo que la rodea, al menos suficientemente para vivir con dignidad, desarrollar sus capacidades profesionales y comunicarse con los demás. Como fin, su justificación es el placer de comprender, conocer, de descubrir. Aunque el estudio sin aplicación inmediata este cediendo terreno frente al predomino actual de los conocimientos útiles, la tendencia a prolongar la escolaridad e incrementar el tiempo libre debería permitir a un número cada vez mayor de adultos apreciar las bondades del conocimiento y de la investigación individual. El incremento del saber, que permite comprender mejor las múltiples facetas del propio entorno, favorece el despertar de la curiosidad intelectual, estimula el sentido crítico y permite descifrar la realidad, adquiriendo al mismo tiempo una autonomía de juicio. Desde esa perspectiva, insistimos en ello, es fundamental que cada niño, donde quiera que este, pueda acceder de manera adecuada al razonamiento científico y convertirse para toda la vida en un “amigo de la ciencia” en los niveles de enseñanza secundaria y superior, la formación inicial de proporcionar a todos los alumnos los instrumentos,

104

conceptos y modos de referencia resultantes del progreso científico y de los paradigmas del época. Sin embargo, puesto que el conocimiento es múltiple e infinitamente evolutivo, resulta cada vez más utópico pretender conocerlo todo; por ello más allá de la enseñanza básica, la idea de un saber omnisciente es ilusoria. Al mismo tiempo, la especialización ⎯incluso en el caso de futuros investigadores⎯ no debe excluir una cultura general. “En nuestros días una mente verdaderamente formada necesita una amplia cultura general y tener la facilidad de estudiar a fondo un pequeño número de materias. De un extremo a otro de la enseñanza, debemos favorecer la simultaneidad de ambas tendencias” pues la cultura general, apertura a otros lenguajes y conocimientos, permite ante todo comunicar. Encerrado en su propia ciencia, el especialista corre un riego de desinteresarse de lo que hacen los demás. En cualesquiera circunstancias, le resultara difícil cooperar. Por otra parte, argamasa de las sociedades en el tiempo y en el tiempo y en el espacio, la formación cultural entraña a una apertura a otros campos del saber, lo que contribuye a fecundas sinergia entre disciplinas diversas. En el ámbito de la investigación, en particular, el progreso de los conocimientos se produce a veces en el punto en el que confluyen disciplinas diversas. Aprender para conocer supone, en primer término, aprender a aprender, ejercitando la atención, la memoria y el pensamiento. Desde la infancia, sobre todo en las sociedades dominadas por la imagen televisiva, el joven debe aprender a concentrar su atención a las cosas y a las personas. La vertiginosa sucesión de informaciones en los medios de comunicación y el frecuente cambio del canal de televisión, atenta contra el proceso de descubrimiento, que requiere una permanencia y una profundización de la información captada. Este aprendizaje de la atención puede adoptar formas diversas y sacar provecho de múltiples ocasiones de la vida (juegos, visitas a empresas, viajes, trabajos prácticos, asignaturas científicas, etc.).


El ejercicio de la memoria, por otra parte, es un antídoto necesario contra la invasión de las informaciones instantáneas que difunden los medios de comunicación masiva. Sería peligroso imaginar que la memoria ha perdido su utilidad debido a la formidable capacidad de almacenamiento y difusión de datos de que disponemos en la actualidad. Desde luego, hay que ser selectivos, en la elección de los datos que aprenderemos “de memoria”, pero debe cultivarse con esmero la facultad intrínsecamente humana de memorización asociativa, irreductible a un automatismo. Todos los especialistas coinciden en afirmar la necesidad de entrenar la memoria desde la infancia y estiman inadecuado suprimir de la práctica escolar algunos ejercicios tradicionales considerados tediosos. Por último, el ejercicio del pensamiento, en el que el niño es iniciado primero por sus padres y más tarde por sus maestros, debe entrañar una articulación entre lo concreto y lo abstracto. Asimismo, convendría combinar tanto en la enseñanza como en la investigación los dos métodos, el deductivo y el inductivo, a menudo presentados como opuestos. Según las disciplinas que se enseñen, uno resultará más pertinente que el otro, pero en la mayoría de los casos la concatenación del pensamiento requiere combinar ambos. El proceso de adquisición del conocimiento no concluye nunca y puede nutrirse de todo tipo de experiencias. En ese sentido, se entrelaza de manera creciente con la experiencia del trabajo, a medida que éste pierde su aspecto rutinario. Puede considerarse que la enseñanza básica tiene éxito si aporta el impulso y las bases que permitirán seguir aprendiendo durante toda la vida, no sólo en el empleo sino también al margen de él.

2 Aprender a hacer Aprender a conocer y aprender a hacer son, en gran medida, indisociables. Pero lo segundo está más estrechamente vinculado a la cuestión de la forma profesional: ¿cómo enseñar al alumno a poner en práctica sus conocimientos y, al mismo tiempo, como adaptar la enseñan-

za al futuro mercado del trabajo, cuya evolución no es totalmente previsible? La comisión procurara responder en particular a esta última interrogante. Al respecto, corresponde establecer una diferencia entre las economías industriales, en las que predomina el trabajo asalariado, y las demás, en las que subsiste todavía de manera generalizada el trabajo independiente o ajeno al sector estructurado de la economía. En las sociedades basadas en el salario que se han desarrollado a lo largo del siglo XX conforme al modelo industrial, la sustitución del trabajo humano por maquinas convierte a aquel en algo cada vez más inmaterial y acentúa el carácter conflictivo de las tareas, incluso la industria, así como la importancia de los servicios en la actividad económica. Por lo demás, el futuro de esas economías está suspendido a su capacidad de transformar el progreso de los conocimientos e innovaciones generadoras de nuevos empleos y empresas. Así pues, ya no puede darse a la expresión “aprender a hacer” el significado simple que tenía cuando se trataba de preparar a alguien para una tarea material bien definida, para que participase en la fabricación de algo. Los aprendizajes deben, así pues, evolucionar y ya no pueden considerarse mera transmisión de prácticas más o menos rutinarias, aunque estos conserven un valor formativo que no debemos desestimar.

• De la noción de calificación a la de competencia El dominio de las dimensiones cognoscitiva e informativa en los sistemas de producción industrial vuelve algo caduca la noción de calificación profesional, entre otros en el caso de los operarios y los técnicos, y tienden a privilegiar la de competencia personal. En efecto, el progreso técnico modifica de manera ineluctable las calificaciones que requieren los nuevos procesos de producción. A las tareas puramente físicas suceden tareas de producción más intelectuales, más cerebrales ⎯como el mando de maquinas, su mantenimiento y supervisión⎯ y tareas de diseño, estudio y organización, a medida que las propias maquinas se vuelven

105


más “inteligentes” y que el trabajo se “desmaterializa”. Este incremento general de los niveles de calificación exigidos tiene varios orígenes. Con respecto a los operarios, la yuxtaposición de las tareas obligadas y del trabajo fragmentado sede ante una organización “colectivos de trabajo” o “grupos de proyecto”, siguiendo las practicas de las empresas japonesas: una especie de taylorismo al revés; los desempleados dejan de ser intercambiables y las tareas se personalizan. Cada vez con más frecuencia, los empleadores ya no exigen una calificación determinada, que consideran demasiado unida todavía a la idea de pericia material, y piden, en cambio, un conjunto de competencias especificas a cada persona, que combina la calificación propiamente dicha, adquirida mediante la formación técnica y profesional, el comportamiento social, la aptitud para trabajar en equipo, la capacidad de iniciativa y la de asumir riesgos. Si a estas nuevas exigencias añadimos la de un empeño personal del trabajador, considerando como agente del cambio, resulta claro que ciertas cualidades muy subjetivas, innatas o adquiridas ⎯que los empresarios denominan a menudo “saber ser”⎯ se combinan con los conocimientos teóricos y prácticos para componer las competencias solicitadas; esta situación ilustra de manera elocuente, como ha destacado la comisión, él vinculo que la educación debe mantener entre los diversos aspectos del aprendizaje entre estas cualidades, cobra cada vez mayor importancia la capacidad de comunicarse y de trabajar con los demás, de afrontar y solucionar conflictos. El desarrollo de las actividades de servicios tiende a acentuar esta tendencia.

• La “desmaterialización” del trabajo y las actividades de servicios en el sector asalariado. Las repercusiones de la “desmaterialización “de las economías avanzadas en el aprendizaje se ponen en manifiesto inmediatamente al

106

observar la evolución cuantitativa y cualitativa de los servicios, categoría muy diversificada que se define sobre todo por exclusión, como aquella que agrupa actividades que no son ni industriales ni agrícolas y que, a pesar de su diversidad, tienen en común el hecho de no producir ningún bien material. Muchos servicios se definen principalmente en función de la relación interpersonal que generan. Podemos citar ejemplos tanto en el sector comercial (peritajes de todo tipo, servicios de supervisión o de asesoramiento tecnológico, servicios financieros, contables o administrativos) que proliferan nutriéndose de la creciente complejidad de las economías, como la del sector no comercial más tradicional (servicios sociales, de enseñanza, de sanidad, etc.). En ambos casos, es primordial la actividad de información y de comunicación; se pone al acento en el acopio y la elaboración personalizada de informaciones especificas, destinadas a un proyecto preciso. En ese tipo de servicios, la calidad de la relación entre el prestatario y el usuario dependen también en gran medida del segundo. Resulta entonces comprensible que la tarea de la que se trate ya no pueda prepararse de la misma manera que si se fuera a trabajar la tierra o a fabricar una chapa metálica. La relación con la materia y la técnica debe ser complementada por una aptitud para las relaciones interpersonales. El desarrollo de los servicios obliga, pues, a cultivar cualidades humanas que las formaciones tradicionales no siempre inculcan y que corresponden a la capacidad de establecer relaciones estables y eficaces entre las personas. Por último, es concebible que en las sociedades ultra tecnificadas del futuro la deficiente interacción entre los individuos puede provocar graves disfunciones, cuyas superación exijan nuevas calificaciones, basadas mas en el comportamiento que en el bagaje intelectual, lo que quizá ofrezca posibilidades a las personas con pocos o sin estudios escolares, pues la institución, el discernimiento, la capacidad de prever el futuro y de crear un espíritu de equipo no son cualidades reservadas forzosamente a los mas diplomados. ¿Cómo y dónde enseñar es-


tas cualidades, innatas? No es tan fácil deducir cuales deben ser los contenidos de una formación que permita adquirir las capacidades o aptitudes necesarias. El problema se plantea también a propósito de la formación profesional en los piases en desarrollo.

• El trabajo en la economía no estructurada En las economías en desarrollo donde la actividad asalariada no predomina, el trabajo es de naturaleza muy distinta. Hay mucho países de África subsahariana y algunos de América latina y Asia solo un pequeño segmento de la población trabaja el régimen asalariado y la inmensa mayoría participa en la economía tradicional de subsistencia. Hablando con propiedad, no existen ninguna función referencial laboral; los conocimientos técnicos suelen ser de tipo tradicional. Además, la función del aprendizaje no se limita al trabajo, sino que debe satisfacer el objetivo más amplio de una participación y de desarrollo dentro de los sectores estructurado o no estructurado de la economía. A menudo, se trata de adquirir a la vez una calificación social y una formación profesional.

3 Aprender a vivir juntos, aprender a vivir con los demás Sin duda, este aprendizaje constituye una de las principales empresas de la educación contemporánea. Demasiado a menudo, la violencia que impera en el mundo contradice la esperanza que algunos habían depositado en el progreso de la humanidad. La historia humana siempre ha sido conflictiva, pero hay elementos nuevos que acentúan el riesgo, en particular el extraordinario potencial de autodestrucción que la humanidad misma ha creado durante el siglo XX. A través de los medios de comunicación masiva, la opinión pública se convierte en observadora impotente, y hasta en rehén, de quienes generan o mantienen vivos los conflictos. Hasta el momento, la educación no ha podido hacer mucho para modificar esta situación. ¿Sería posible concebir una educación que permitiera evitar los conflictos o solucionarlos de manera pacífica, fomentando el conocimiento de los demás, de sus culturas y espiritualidad?

En ambos casos, de los numerosos estudios realizados en países en desarrollo se desprende que estos consideran que su futuro estará estrechamente vinculado a la adquisición de la cultura científica que les permitirá acceder a la tecnología moderna, sin descuidar por ello las capacidades concretas de innovación y creación inherentes al contexto local.

La idea de enseñar la no-violencia en la escuela es loable, aunque solo sea un instrumento entre varios para combatir los prejuicios que llevan al enfrentamiento. Es una tarea ardua, ya que, como es natural, los seres humanos tienden a valorar en exceso sus cualidades y las del grupo al que pertenecen y a alimentar prejuicios desfavorables hacia los demás. La actual atmósfera competitiva imperante en la actividad económica de cada nación y, sobre todo a nivel internacional, tiende además a privilegiar el espíritu de competencia y el éxito individual. De hacho, esa competencia da lugar a una guerra económica despiadada y provoca tensiones entre los poseedores y los desposeídos que fracturan las naciones y el mundo y exacerban las rivalidades históricas. Es de lamentar que, a veces, a la educación contribuya a mantener ese clima al interpretar de manera errónea la idea de emulación.

Se plantea entonces una pregunta común a los países, desarrollados y en desarrollo: ¿Cómo aprender a comportarse eficazmente en una situación de incertidumbre, como participar en la creación del futuro?

¿Cómo mejorar esta situación? La experiencia demuestra que, para disminuir ese riesgo, no basta con organizar el contacto y la comunicación entre miembros de grupos diferentes (por ejemplo, en escuelas a las que concurran niños

En otros países en desarrollo hay, además de la agricultura y de un reducido sector estructurado, un sector económico al mismo tiempo moderno y no estructurado, a veces bastante dinámico, formado por actividades artesanales, comerciales y financieras, que indican que existen posibilidades empresariales perfectamente adaptadas a las condiciones locales.

107


de varias etnias o religiones). Por el contrario, si esos grupos compiten unos con otros o no están en una situación equitativa en el espacio común, este tipo de contacto puede agravar las tensiones latentes y degenerar en conflictos. En cambio, si la relación se establece en un contexto de igualdad y se formulan objetivos y proyectos comunes, los prejuicios y la hostilidad subyacente pueden dar lugar a una cooperación más serena e, incluso, a la amistad. Parecería entonces adecuado dar a la educación dos orientaciones complementarias. En el primer nivel, el descubrimiento gradual del otro. En el segundo, y durante toda la vida, la participación en proyectos comunes, un método quizá eficaz para evitar o resolver los conflictos latentes.

• El descubrimiento del otro La educación tiene una doble misión: enseñar la diversidad de la especie humana y contribuir a una toma de coincidencia de las semejanzas y la interdependencia entre todos los seres humanos. Desde la primera infancia, la escuela debe, pues, aprovechar todas las oportunidades que se presenten para esa doble enseñanza. Algunas disciplinas se prestan particularmente a hacerlo, como la geografía humana desde la enseñanza primaria y, más tarde, los idiomas extranjeros. El descubrimiento del otro pasa forzosamente por el descubrimiento de uno mismo; por consiguiente, para desarrollar en el niño y el adolescente una visión cabal del mundo la educación, tanto si la imparte la familia como si la imparte la comunidad o la escuela, primero debe hacerle descubrir quién es. Solo entonces podrá realmente ponerse en el lugar de los demás y comprender sus reacciones. El fomento de esta actitud de empatía en la escuela era fecundo para los comportamientos sociales a lo largo de la vida. Así, por ejemplo si se enseña a los jóvenes adoptar el punto de vista de otros grupos étnicos o religiosos, se pueden editar incomprensiones generadoras del odio y violencia en los adultos. Así pues, la enseñanza de la historia de las religiones o de los usos y

108

costumbre puede servir de útil referencia para futuros comportamientos3 por último, la forma misma de la enseñanza no debe oponerse a este reconocimiento del otro. Los profesores que, a fuerza de dogmatismo, destruyen la curiosidad o el espíritu crítico en lugar de despertarlos en sus alumnos, pueden ser más perjudiciales que benéficos. Al olvidar que son modelos para los jóvenes, su actitud puede atentar de manera permanente contra la capacidad de sus alumnos de aceptar la alteridad y hacer frente a las inevitables tensiones entres seres humanos, grupos y naciones. El enfrentamiento, mediante el dialogo y el intercambio de argumentos, será unos de los instrumento necesarios de la educación del siglo XXI. • Tender hacia objetivos comunes Cuando se trabaja mancomunadamente en proyectos motivadores que permiten escapar a la rutina, disminuyen y a veces hasta desaparecen las diferencias ⎯e incluso los conflictos⎯ entre los individuos. Esos proyectos que permiten superar los hábitos individuales y valoran los puntos de convergencia por encima de los aspectos que se paran, dan origen a un nuevo modo de identificación. Por ejemplo, gracias a la práctica del deporte, ¡cuántas tensiones entre clases sociales o nacionalidades han acabado por transformarse en solidaridad, a través de la pugna y la felicidad del esfuerzo común¡. Así mismo, en el trabajo, ¿cuántas realizaciones podrían no haberse concretado si los conflictos habituales de las organizaciones jerarquizadas no hubieran sido superados por un proyecto de todos? En consecuencia, en sus programas la educación escolar debe reservar tiempo y ocasiones suficientes para iniciar desde muy temprano a los jóvenes en proyectos cooperativos, en el marco de actividades deportivas y culturales y mediante su participación en actividades sociales: renovación de barrios, ayuda a los más desfavorecidos, acción humanitaria servicio de solidaridad entre las generaciones, etcétera. Las demás organizaciones educativas y las asociaciones deben tomar el relevo de la escuela en estas actividades. Además, en la práctica escolar cotidiana, la participación de los profesores y alumnos en proyectos comunes pueden engendrar el aprendizaje de


un método de solución de conflictos y ser una referencia para la vida futura de los jóvenes, enriqueciendo al mismo tiempo la relación entre educadores y educandos. 4 Aprender a ser Desde su primera reunión, la comisión ha reafirmado enérgicamente un principio fundamental: la educación debe contribuir al desarrollo global de cada persona: cuerpo y mente, inteligencia, sensibilidad, sentido estético, responsabilidad individual, espiritualidad. Todos los seres humanos deben estar en condiciones, en particular gracias a la educación recibida en su juventud, de dotarse de un pensamiento autónomo y crítico y de elaborar un juicio propio, para determinar por sí mismos qué deben hacer en las diferentes circunstancias de la vida. El informe “Aprende a Ser” (1972) manifestaba en su preámbulo el temor a una deshumanización del mundo vinculada a la evolución tecnológica. La evolución general de las sociedades desde entonces y, entre otras cosas, el formidable poder adquirido por los medios de comunicación masiva, ha agudizado ese temor y dado más legitimidad a la advertencia que suscitó. Posiblemente, en el siglo XXI amplificará estos fenómenos, pero el problema ya no será tanto preparar a los niños para vivir en una sociedad determinada sino, mas bien, dotar a cada cual de fuerzas y puntos de referencia intelectuales permanentes que le permitan comprender el mundo que le rodea y comportarse como un elemento responsable y justo. Más que nunca, la función esencial de la educación es conferir a todos los seres humanos la libertad de pensamiento, de juicio, de sentimientos y de imaginación que necesitan para que sus talentos alcancen la plenitud y seguir siendo artífices, en la medida de lo posible, de su destino. Este imperativo no es solo de naturaleza individualista: la experiencia reciente demuestra que lo que pudiera parecer únicamente un modo de defensa del ser humano frente a un sistema alienante o percibido como hostil es también, a veces, la mejor oportunidad de progreso para las sociedades. La diversidad de personalidades, la autonomía y el espíritu de iniciativa, in-

cluso el gusto por la provocación son garantes de la creatividad y la innovación. Para disminuir la violencia o luchar contra los distintos flagelos que afectan a la sociedad, métodos inéditos derivados de experiencias sobre el terreno, han dado prueba de su eficacia. En un mundo en permanente cambio uno de cuyos motores principales parece ser la innovación tanto social como económica, hay que conceder un lugar especial a la imaginación y a la creatividad; manifestaciones por excelencia de la libertad humana, pueden verse amenazadas por cierta normalización de la conducta individual. El siglo XXI necesitará muy diversos talentos y personalidades, además de individuos excepcionales, también esenciales en toda civilización. Por ello, habrá que ofrecer a niños y jóvenes todas las oportunidades posibles de descubrimiento y experimentación ⎯estética, artística, deportiva, científica, cultural y social⎯ que completaran la presentación atractiva de lo que en esos ámbitos hayan creado las generaciones anteriores o sus contemporáneos. En la escuela, el arte y la poesía deberían recuperar un lugar más importante que el que les concede, en muchos países, una enseñanza interesada en lo utilitario más que en lo cultural. El afán de fomentar la imaginación y la creatividad debería también llevar a revalorar la cultura oral y los conocimientos extraídos de la experiencia del niño o del adulto. Así pues, la Comisión hace plenamente suyo el postulado del informe Aprender a Ser “… El desarrollo tiene por objeto el despliegue completo del hombre en toda su riqueza y en la complejidad de sus expresiones y de sus compromisos; individuo, miembro de una familia y de su colectividad, ciudadano y productor, inventor de técnicas y creador de sueños”. Este desarrollo del ser humano, que va del nacimiento al fin de la vida, es un proceso dialéctico que comienza por el conocimiento de sí mismo y se abre después a las relaciones con los demás. En este sentido, la educación es ante todo un viaje interior cuyas etapas corresponden a las de la maduración, constante de la personalidad. En el caso de una experiencia profesional positiva, la educación, como medio para alcanzar esa realización, es, pues, a la vez un proceso ex-

109


tremadamente individualizado y una estructuración social interactiva. Huelga decir que los cuatro pilares de la educación que acabamos de describir no pueden limitarse a una etapa de la vida o a un solo lugar. Como veremos en el capitulo siguiente, es necesario replantear los tiempos y los ámbitos de la educación, y que se complementen e imbriquen entre si, a fin de que cada persona, durante toda su vida, pueda aprovechar al máximo un contexto educativo e constante enriquecimiento. Pistas y recomendaciones La educación a lo largo de la vida se basa en cuatro pilares: aprender a conocer, aprender a hacer, aprender a vivir juntos, aprender a ser. Aprender a conocer, combinando una cultura general suficientemente amplia con la posibilidad de profundizar los conocimientos en un pequeño número de materias. Lo que supone además: aprender a aprender para poder aprovechar las posibilidades que ofrece la educación a lo largo de la vida. Aprender a hacer a fin de adquirir no sólo una calificación profesional, más generalmente una competencia que capacite al individuo para hacer frente a gran número de situaciones y a trabajar en equipo. Pero, también, aprender a hacer en el marco de las distintas experiencias

sociales o de trabajo que se ofrecen a los jóvenes y adolescentes bien espontáneamente a causa del contexto social o nacional, bien formalmente gracias al desarrollo de la enseñanza por alternancia. Aprender a vivir juntos desarrollando la comprensión del otro y la percepción de las formas de interdependencia realizar proyectos comunes y prepararse para tratar los conflictos respetando los valores de pluralismo, comprensión mutua y paz. Aprender hacer para que florezca mejor la propia personalidad y se esté en condiciones de obrar con creciente capacidad de autonomía, de juicio y de responsabilidad personal. Con tal fin, no menos preciar en la educación ninguna de las posibilidades de cada individuo: memoria, razonamiento, sentido estético, capacidades físicas, aptitudes para comunicar… Mientras los sistemas educativos formales propenden a dar prioridad a la adquisición de conocimientos, en detrimento de otras formas de aprendizaje, importa concebir la educación como un todo. En esa concepción deben buscar inspiración y orientación las reformas educativas, en la elaboración de los programas y en la definición de nuevas políticas pedagógicas.

“Para que un hombre sea feliz, es menester que esté contento de sí mismo”

110


INFORME SOBRE POSIBLES ACCIONES TENDIENTES A LA ACREDITACIÓN INTERNACIONAL DE LA FACULTAD DE INGENIERÍA Dr. Frank Butler Invitado

Ing. Patricio Guerrero (Decano de la Facultad de Ingeniería), Dr. Laurence Peterson, Frank Butler y Msc. Ana Loja (Traductora)

Introducción: Durante la semana de julio de 2012, los Drs. Lawrence Peterson y Frank Butler, profesores de Kennesaw State University, visitaron la Universidad de Cuenca. Aunque la visita estuvo enfocada hacia las posibilidades de que la Universidad de Cuenca busque una acreditación internacional con SACS, también se analizaron otros temas de posible colaboración. También se analizó el posible interés de la Facultad de Ingeniería para su acreditación con ABET. Después de la visita realizada a la Universidad de Cuenca, el Dr. Butler visitó a uno de los Vice Presidentes de SACS para discutir el asunto relacionado a la acreditación de la Universidad de Cuenca.

Las sugerencias que se presentan a continuación son dadas por el Dr. Butler en forma de consejos y de ninguna manera tienen la intención de caracterizar, juzgar o evaluar los programas y operaciones existentes de la Universidad de Cuenca. Aquí se usa el término “sugerencias” en lugar de “recomendaciones” debido a que el segundo tiene connotaciones de carácter directivo. Sugerencias: 1. Si la Universidad de Cuenca decide buscar su acreditación con SACS, será importante que se contacte al presidente de SACS, Dr. Belle Wheelan, y hacerle una invitación a ella o a la persona que designe para 111


que realice una visita introductoria al campus. A este respecto, sería bueno recordar que SACS acredita instituciones por separado y no sistemas provinciales o nacionales. Sin embargo, si otras instituciones en Ecuador están considerando la acreditación de SACS, resultaría económico realizar una coordinación de visitas. 2. Una acreditación inicial por parte de SACS es un proceso comprehensivo que toma cierto tiempo_ medido en años, no en meses. Parece que la Universidad de Cuenca se está encaminando de manera efectiva hacia la completación de muchos de los pasos preliminares para lograr una acreditación. Ya sea que la Universidad de Cuenca escoja a SACS o cualquier otra agencia de acreditación internacional, estos pasos resultarán ser muy útiles por lo que deben continuarse y acelerarse. 3. Sin importar el camino, a medida que transcurre el tiempo, será esencial contar con mayor personal. Si bien la formación de equipos es crucial, el liderazgo es crítico. Para SACS y para otras agencias de este tipo, debo indicar que llegará un momento del proceso en el que se necesite de por lo menos dos profesionales a tiempo completo- uno para el proceso de auto-estudio y uno para la evaluación de la efectividad institucional. No hay la intención de ser prescriptivo en este documento, pero menciono esto para dar idea de la magnitud del trabajo que se requiere para el proceso. Además, habrá una cantidad substancial de tareas que pueden ser ejecutadas por empleados, y en el caso de claridad del idioma, habrá la necesidad 112

de servicios de traducción del español al inglés. 4. Debido a que hay una escasez de recursos a nivel de todo el mundo, se sugiere que el costo de la acreditación sea determinado con anticipación de manera que haya el financiamiento adecuado a medida que se desarrolla el proceso. El visitante designado por SACS sin duda dará información sobre este aspecto. 5. Claramente, muchas de las personas que estaban familiarizados con el sitio web de SACS. SACS tiene diferentes niveles y acredita diferentes tipos de instituciones, pero la Comisión de Universidades (COC) es más relevante para los intereses de la U. de Cuenca. 6. La Universidad de Monterrey en México tiene una larga trayectoria de relación con SACS. Si la Universidad de Cuenca no ha contactado a esta Universidad, aunque probablemente ya lo han hecho, uno de nosotros puede ayudar con ese contacto. 7. Si la UC desea buscar la acreditación con ABET para su Facultad de Ingeniería, también podemos ayudar con esto. 8. Sería bueno fortalecer la iniciativa, que actualmente está en camino, de contratar a más profesores con títulos de Ph.D o enviar a profesores al exterior para que completen sus programas de doctorado. El tener una planta docente con títulos de doctorado es lo más importante si la institución amplía la base de sus programa de doctorado. También se sugiere que la credibilidad de la institución donde los profesores ob-


tienen sus doctorados sea cuidadosamente evaluada tomando como referencia bases de datos internacionales disponibles en línea.

school teachers with B.S. degrees in Biology Education and Mathematics Education as well as through a Chemistry Education track in the B.S. program in Chemistry.

9. El porcentaje de profesores a tiempo parcial en la Universidad de Cuenca será cuidadosamente revisada en casi cualquier acción de acreditación regional (ej. SACS) o en acreditación especializada (ej. ABET). Cualquiera que sea el camino que tome la UC, es importante mirar cuidadosamente a los criterios relacionados con la planta docente. Si bien muchos de los profesores que conocimos estaban impresionantemente involucrados en otros sectores (ej. Industria) relacionados con la disciplina, es muy probable que todas las agencias de acreditación querrán estar seguros de que se cuenta con docentes suficientes para realizar el trabajo que se necesita ser realizado y además considerarán que la carga horaria sea manejable. Todos los contactos e información esencial para la acreditación puede ser encontrada en www.sacscoc.com

He has a BS degree in Chemistry from Duke University and his PhD in Chemistry from Yale University as well as extensive industry experience with the Dow Chemical Company (Research Scientist, Laboratory Director, 1963-1973), Rohm & Haas (Research Director, 1973-1978), BASF (V.P. of R&D, 1978-1981) and Celanese Corporation (V.P. – Research, 1981-1983), President & Founder of Vista Business Systems (Computer Company),1984-1985 and President of The Venture Group, Ltd., 1986-1993.

LAURENCE PETERSON BIO LAURENCE (LARRY) I. PETERSON is currently Professor of Chemistry in the Department of Chemistry & Biochemistry and was Dean of the College of Science & Mathematics from 1997 - 2012 at Kennesaw State University. The College has eight B.S. degree programs in Biology, Biochemistry, Biotechnology, Chemistry, Computer Science, Information Security, Information Systems and Mathematics along with three M.S. degree programs in Applied Computer Science, Information Systems, and Statistics. The College also prepares secondary

Prior to coming to KSU as Dean in 1997, he was Department Chair of Chemistry & Biochemistry at South Dakota State University from 1994-1997. His primary scholarly interests are the development and use of highly interactive digital text materials for tablet PCs to enhance the teaching of chemistry, innovative science and mathematics curriculum development, high school computer science education, green chemistry and secondary school science and mathematics teacher preparation. He was the principal investigator on a $1 million National Science Foundation grant to introduce under-represented high school students to careers in the computing sciences, prepare them to succeed when they enter college and enhance the preparation of their teachers. He is also co-author of ChemCases.com a website designed to educate students in the field of chemistry using case studies. This website developed with major funding from the NSF was selected by Scientific American as one of the Top 50 Science and Technology websites in 2004. Updated July 28, 2012

113


De los Estudiantes

INCURSIONANDO EN LA INVESTIGACIÓN...

Los presente artículos se publican bajo la responsabilidad de los Docentes de la Facultad de Ingeniería: Ing. Esteban Pacheco Ing. Agustín Rengel Ing. Ciro Larco


CALIDAD DEL AGUA Y CONTAMINANTES EN EL RIO TARQUI Alberto Beltrán Paúl Mendieta Juan Vanegas Estudiantes Escuela de Ingeniería Civil

•RESUMEN:

•ABSTRACT:

Este estudio nos muestra específicamente los contaminantes en el río Tarqui a las afueras de la ciudad de Cuenca. Los parámetros utilizados para determinar la calidad del agua del río fueron: DBO5, coliformes fecales, calidad de agua (Físico-Quimico) y el índice biótico; las muestras se tomaron en ocho estaciones (una en el río Portete, una en el río Irquis, cinco estaciones en el río Tarqui, y una estación en el río Cumbe). En lo que se refiere a DBO5, se concluyo que está dentro del rango de agua limpia, con los coliformes fecales se obtuvieron resultados negativos debido en general a la ganadería intensiva del sector; el índice de calidad presenta que las aguas a lo largo del río en general tiene una clasificación buena; por último el índice biótico indica que la condición de salud del río presenta un estado regular. Estos datos reflejan una estabilidad en la salud del río Tarqui menos en el sector del río Cumbe donde se muestran picos altos de contaminación.

This research shows us specifically the contaminants in the Tarqui River located on the outskirts of Cuenca city. The parameters used to determine the water quality of the river were: DBO5 , fecal coliforms, water quality (Physical-Chemical), and the biotic index. The samples were taken at 8 different stations (1 station at the Portete River, 1 station at the Irquis River, 5 stations at the Tarqui River, and 1 station at the Cumbe River). What refers to DBO5 the samples are into the range of clean water; about the fecal coliforms were obtained bad results because of the intensive livestock in the area; the quality index that represents the condition throughout the river has label of “good”; finally the biotic index indicates that the river’s health has a regular condition. These data reflects stability in the Tarqui River’s health except in the Cumbe River’s area where peaks of contamination appear. KEYS WORDS: Tarqui River, Irquis River, Cumbe river, water quality, Physical-Chemical, biotic index, DBO, fecal coliformes, stations, contamination, aquatic invertebrates.

PALABRAS CLAVE: río Tarqui, río Irquis, rio Cumbe, índices de calidad, índices bióticos, DBO, coliformes fecales, físico- químico, estaciones de monitoreo, contaminación, invertebrados acuáticos.

115


1.INTRODUCCIÒN El Río Tarqui es un río de Ecuador. Corre a lo largo del sur de la ciudad de Cuenca y es uno de los cuatro ríos que la atraviesan. El río nace en los páramos de Cumbe y de la parte alta de la Victoria del Portete. Los ríos que conforman esta sub-cuenca son: Portete, Irquis, San Agustín, Cumbe y Zhucay. Esta sub-cuenca casi en su totalidad está destinada a la ganadería, en especial en la parroquia de Tarqui. Las partes altas se encuentran cubiertas con pequeños bosques y matorrales nativos, incluyendo el bosque Sunsun Yanasacha, declarado como bosque protector. Esta Subcuenca es la más baja de las cuencas de los cuatro ríos que atraviesan Cuenca, tiene elevaciones moderadas, pero es la más extensa. El río desemboca en el río Yanuncay, el cual es afluente del río Tomebamba, y más tarde, cuando éste se une con el río Machángara se convierte en el río Cuenca, afluente del río Paute. Las principales fuentes de contaminación identificadas en el Rio Tarqui en la área rural de la ciudad de Cuenca son provocadas por actividades como: ganadería, vivienda rural dispersa, piscícolas, servicios de restaurantes, camales clandestinos, pesca deportiva, actividades turísticas, industrias. Los parámetros que más se relacionan con este tipo de contaminación son la demanda bioquímica de oxigeno DBO5 y los coliformes fecales, por lo tanto el análisis se centrará en estos dos parámetros. Como complemento al estudio de calidad de agua se utilizan los índices biológicos que reflejan de manera global el estado de salud del río. 2.OBJETIVOS • Realizar una investigación sobre la calidad del agua del Río Tarqui y sus afluentes en los últimos años.

116

• Determinar cuales son los contaminantes principales del Rio Tarqui y sus afluentes. • Establecer conclusiones sobre la calidad y el estado en que se encuentra el río. 3.MARCO TEÒRICO • Demanda Bioquímica de Oxigeno DBO5: Es un parámetro que mide la cantidad de materia susceptible de ser consumida u oxidada por medios biológicos que contiene una muestra líquida, disuelta o en suspensión. Se utiliza para medir el grado de contaminación, normalmente se mide transcurridos cinco días de reacción (DBO5), y se expresa en miligramos de oxígeno diatómico por litro (mgO2/l) (Wikipedia, 2012). • Coliformes Fecales: Los coliformes fecales son microorganismos con una estructura parecida a la de una bacteria común que se llama Escherichia coli y se transmiten por medio de los excrementos. La Escherichia es una bacteria que se encuentra normalmente en el intestino del hombre y en el de otros animales. Hay diversos tipos de Escherichia; algunos no causan daño en condiciones normales y otros pueden incluso ocasionar la muerte (Semarnat, 2012). • Índice de Calidad de Agua: Son indicadores de gran utilidad en los programas de vigilancia de la calidad del agua y una herramienta de valor incuestionable para los administradores del recurso hídrico. El índice utilizado es el desarrollado por The National Sanitation Fundation (NSF). • Índices bióticos: Suelen ser específicos para un tipo de contaminación y/o región geográfica, y se basan en el concepto de organismo indicador. Permiten la valoración del estado eco-


lógico de un ecosistema acuático afectado por un proceso de contaminación. Para ello a los grupos de invertebrados de una muestra se les asigna un valor numérico en función de su tolerancia a un tipo de contaminación, los más tolerantes reciben un valor numérico menor y los más sensibles un valor numérico mayor, la suma de todos estos valores nos indica la calidad de ese ecosistema (Miliarium) 4.DESARROLLO

sobre una captación de agua para consumo humano, sino que es utilizado para riego y abrevadero de animales. 4.1Estaciones de Monitoreo Para el monitoreo físico-químico en esta cuenca se utilizan 8 estaciones: una en el río Portete (Ta90), una en el río Irquis (Ta80), cinco estaciones en el río Tarqui (Ta70, Ta60, Ta20, Ta10 y Ta09) y una estación en el río Cumbe (Ta30).

• Zona de Estudio. El valle de Tarqui se encuentra localizado El cuadro 1 presenta información de las esal suroccidente de la ciudad de Cuenca, es taciones y sus códigos, y la Figura 1 ilustra una llanura de topografía regular, rodeada la ubicación de las estaciones. de pequeñas elevaciones. El uso del sueCODIGO COORDENAlo en la zona es eminentemente agrícola ESTACION DAS y ganadero, existen numerosas haciendas R. Portete A.J. río Ta90 7 1 1 0 3 6 , lecheras, con grandes extensiones de poIrquis 9657053 treros para el mantenimiento del ganado Río Irquis A.J. río Ta80 7 1 5 9 4 0 , vacuno. El río Tarqui se forma de la unión Tarqui 9661624 de los ríos Portete e Irquis. Estos dos ríos Río Tarqui después Ta60 7 1 6 4 9 3 , nacen sobre los 3000 m. de altura. de la PTAR de Vic9663530 toria de Portete

En épocas lluviosas, el río Tarqui se desborda e inunda extensas áreas de la llanura. Es un río cuya característica principal es la velocidad baja y un curso formado por meandros. Estos meandros, en un tramo de al menos diez kilómetros, fueron modificados utilizando máquinas excavadoras. En casi toda su longitud atraviesa zonas ganaderas y en las cercanías a la ciudad se lo emplea para descargar aguas residuales de los asentamientos que existen en la zona, a la altura de la parroquia Victoria del Portete recibe el efluente de un pequeña planta de tratamiento de aguas residuales (PTAR) y al adentrarse en la ciudad, recibe las aguas residuales de la población asentada en el límite del área urbana y de la Quebrada del Salado. El tramo monitoreado en este río no está

Río Cumbe A.J. río Ta30 Tarqui

7 1 7 8 4 8 , 9663362

Río Tarqui antes de Ta20 la PTAR de Tarqui

7 1 8 2 9 0 , 9666724

Río Tarqui después Ta10 de la PTAR de Tarqui

7 1 7 9 4 1 , 9668427

Río Tarqui A.J. río Ta9 Zhucay

7 1 7 2 2 2 , 9670392

CUADRO Nº 1. Ubicación de las Estaciones

4.2Tipos, Frecuencia y Período de Monitoreo: El monitoreo de los parámetros físicos, químicos y bacteriológicos en las estaciones Ta90, Ta30 y Ta10, se realiza a partir del año 2009, en las estaciones Ta80, Ta70, Ta60 y Ta20 a partir del año 2010. La estación Ta9 se empieza a monitorear desde Julio del año 2011. 117


Los parámetros de calidad analizados de manera trimestral son: oxígeno disuelto, temperatura, pH, DBO5, turbiedad, coliformes, nitratos, fósforo total, sólidos totales y conductividad. Debido a que la salud del ecosistema del río no es adecuadamente evaluada usando solamente parámetros físico-químicos, desde el año 2011 se realiza un monitoreo biológico una vez al año en todas las estaciones.

FIGURA Nº1. Ubicación de las estaciones de monitoreo en la cuenca del río Tarqui.

5.RESULTADOS • Demanda bioquímica de oxígeno (DBO5): Las estaciones Ta90 y Ta80 ubicadas en los ríos Portete e Irquis, respectivamente, presentan una DBO5 baja en su promedio y valores máximos inferiores a 1 mg/l, correspondientes a aguas muy limpias. En las estaciones ubicadas antes y después de la Planta de Tratamiento de Aguas Residuales (PTAR) de Victoria de Portete, no se observa mayor variación en los promedios, lo que refleja el buen funcionamiento de la Planta. 118

La estación Ta09 en el río Tarqui presenta valores de DBO5 máximo y promedio inferiores a los 2 mg/l lo que clasifica al agua como limpia. El río Cumbe antes de su unión con el Tarqui (estación Ta30), presenta un valor promedio de 3.50 mg/l de DBO5 y un valor máximo de 4.70 mg/l, correspondientes a aguas de condición dudosa en donde se evidencia algún grado de contaminación. Aunque los valores de DBO5 en la cuenca del Tarqui corresponden a aguas limpias, su valores promedios son más elevados que los valores registrados en otras cuencas de la región: en la cuenca del Tomebamba, el promedio de DBO5 en las diferentes estaciones oscila entre 0.6 y 1.2 mg/l; en la cuenca del Yanuncay el promedio de DBO5 en las diferentes estaciones va de 0.5 y 1 mg/l. Esto es el resultado de las acciones de conservación en estas cuencas debido a que son fuentes de agua para la ciudad; mientras tanto, el río Tarqui es utilizado para riego y abrevadero, y no tiene el mismo nivel de protección de los recursos naturales. C O N D I C I O N DBO5 mg/l DEL RIO

Aspecto estético

Muy limpio

1

Bueno

Limpio

2

Bueno

Relativamente 3 limpio

Bueno

Dudoso

5

Turbio

Pobre

7.5

Turbio

Malo

10

Malo

Pésimo

20

Malo

Cuadro Nº 2. Condición del río según los criterios de “Royal Comission Sewage” del Reino Unido

Coliformes Fecales:

En la estación Ta90 en el río Portete, el valor promedio de coliformes fecales


970 NMP/100ml es superior a los 600 NMP/100ml establecido por la norma para aguas destinadas a consumo humano con tratamiento convencional, pudiendo deberse a la presencia ganado, casas y una escuela aguas arriba de la estación. La estación Ta09 en el río Tarqui, después de la quebrada sin nombre, presenta un valor promedio de coliformes fecales de 20000 NMP/100ml. Al igual que el río Cumbe antes de su unión con el Tarqui (estación Ta30), presenta un valor elevado de coliformes, incompatible para cualquier uso del agua, con un promedio de 72000 y un máximo de 540000 NMP/100ml. Mientras que en la estación Ta80 ubicada en el río Irquis, presenta un valor promedio de coliformes fecales inferior a 600 NMP/100ml establecido por la norma para aguas destinadas a consumo humano. En las estaciones ubicadas antes y después de la Planta de Tratamiento de Aguas Residuales (PTAR) de Victoria de Portete, Ta70 y Ta60, no se observa mayor variación en los promedios, similar condición se evidencia entre las estaciones Ta20 y Ta10, ubicadas antes y después de la PTAR de Tarqui. Ta90

Ta80

Ta70

Ta60

Máximo

3500

240

54000

24000

Mínimo

240

49

4900

4900

Media

974

102

10708

11042

Ta30

Ta20

Ta10

Ta9

Máximo

540000

17000

49000

24000

Mínimo

16000

5400

7900

16000

Media

72055

9854

23471

19596

Cuadro Nº 3. Coliformes Fecales en el año 2011 (valores en NMP/100 ml).

Índice de Calidad de Agua:

El índice utilizado es el desarrollado por la NSF. El índice se basa en 9 parámetros

(oxígeno disuelto, coliformes fecales, pH, DBO5, nitratos, fosfatos, temperatura, turbiedad y sólidos totales), basado en la técnica Delphi. El cuadro 3 presenta los valores del índice de calidad del agua promedio del 2011 en las diferentes estaciones. Como se puede observar en el cuadro 3 la calidad del agua en las estaciones del río Tarqui es Buena o están en el límite de esta categoría, mientras que la estación Ta30 del río Cumbe presenta una calidad media evidenciando la fuerte contaminación que tiene este curso de agua. AÑO 2011 MAX MIN PR0M

Ta 90 88

Ta 80 85

Ta 70 79

Ta 60 76

Ta 20 76

Ta 10 76

Ta Ta 9 30 72 66

74 81

80 83

63 73

58 69

52 69

54 69

72 71

51 60

Cuadro N° 4. Índices de Calidad de Agua del Rio Tarqui .

La clasificación de la calidad de agua se realiza de acuerdo a los siguientes rangos numéricos: Indice de Calidad 91-100 71-90 51-70 26-50 0-25

Clasificación Exelente Buena Media Mala Muy mala

Cuadro N° 5. Clasificación de la calidad de agua

• Evaluación de la calidad biótica del río Tarqui usando invertebrados acuáticos: El monitoreo biológico usa a los invertebrados acuáticos como indicadores de la calidad de los ríos. El monitoreo biológico ha sido usado ampliamente a nivel mundial, debido al bajo costo y a la gran fiabilidad de las comunidades de invertebrados para 119


responder no solo a la contaminación orgánica o química, sino también a los cambios en el hábitat del río. Esta evaluación implica la toma de muestras de invertebrados acuáticos en cada estación en el río, usando una red de patada. El área final de muestreo es de dos metros cuadrados para cada estación. El contenido de las redes se coloca en bandejas de color claro y se colectan todos los organismos de la muestra. Los organismos se depositan en alcohol al 90 %, para luego enviar las muestras al laboratorio. •

Valor >120 101-120

61-100

16-35

120

Aguas fuerte- Rojo mente contaminadas

Cuadro N° 5. Clasificación de Aguas

Trichoptera / puntaje = 10

Plecoptera /puntaje = 10

Forma de Evaluación:

Para evaluar la calidad del agua a través de estos bíoindicadores, se utilizó el índice BMWP/Col. A las familias sensibles como Perlidae y Oligoneuridae se les asigna puntajes de 10 mientras que a las familias más tolerantes como Oligochaetae, se les da puntajes de 1. La suma de todos los puntajes de todas las familias proporciona el puntaje final del BMWP, teniendo valores que van de 0 desde aguas sumamente contaminadas a puntaje de 120, es decir aguas en un excelente estado.

36-60

<15

Significado Aguas muy limpias Aguas no contaminadas sensiblemente Son evidentes algunos efectos de contaminacion Aguas contaminadas Aguas muy contaminadas

Color

Azul

Verde

Amarillo Naranja

Oligochateae /puntaje = 1 FIGURA N° 2. Perlidae, Oligoneuridae y Oligochaetae

Los resultados del monitoreo biológico en el río Tarqui indican que la condición de “salud” del río presenta un estado regular, con algunas excepciones, en su parte alta donde presentan un estado bueno, debido a razones que analizaremos posteriormente. La estación Ta90 (río Portete antes de la junta con el río Irquis) se ubica dentro de la clase III (son evidentes algunos efectos de contaminación) con 80 puntos, reflejando el impacto del ganado, de la vía Cuenca – Girón – Pasaje, y especialmente el impacto producido por varias casas y una escuela aguas arriba de la estación. La estación Ta80 (río Irquis antes de la junta con el Tarqui) se ubica dentro de la clase II (Aguas Limpias) con 112 puntos, evidenciándose una buena salud en el río, donde el único y leve impacto es una ganadería moderada. Las estaciones Ta70 y Ta60, ubicadas, res-


pectivamente, antes y después de la Planta de Tratamiento de Aguas Residuales de Victoria de El Portete, se clasifican dentro de la clase V (aguas muy contaminadas) con 33 y 20 puntos respectivamente. La estación Ta10 (río Tarqui después de la planta de Tratamiento de Aguas Residuales de Tarqui), se ubica dentro de la clase IV (aguas contaminadas), con 46 puntos, que está compuesto principalmente por piedras, bloques y cantos. La estación Ta9 (río Tarqui), se ubica dentro de la clase V (aguas muy contaminadas) con 31 puntos, una salud regular dada principalmente por el sustrato del río y la transformación de sus orillas de bosques de ribera a potreros. 6. CONCLUSIONES

que sobrepasan lo estipulado por la normativa nacional para cualquier uso del agua.

7. BIBLIOGRAFIA • Subgerencia de Gestión Ambiental ETAPA Ing. Sandra Barros P. Ing. MSc. Javier Fernández de Córdova Biol. Hari González M. Cuenca – 2012 • The National Sanitation Fundation. (s.f.). Obtenido de http://www.nsf.org/ • Miliarium. (s.f.). Obtenido de http://www. miliarium.com/prontuario/Indices/IndicesCalidadAgua.htm • Semarnat. (2012). Obtenido de http://app1. semarnat.gob.mx/playas/nuevo/analisis_tecnico02. shtml • Wikipedia. (2012). Obtenido de http:// es.wikipedia.org/wiki/Demanda_biologica_de_oxigeno

• Es importante recuperar las riberas de todos los ríos como áreas intangibles y zonas valiosas para conservar la integridad de los ríos y por lo tanto el agua en cantidad y calidad. • En la cuenca del Tarqui, el río Portete e Irquis presentan una buena calidad del agua. Los ríos Tarqui y Cumbe, al atravesar áreas ganaderas y poblados se contaminan considerablemente, presentando altos valores de bacterias coliformes, cifras

“Si quieres cambiar el mundo., cámbiate a ti mismo”. Mahatma Gandi.

121


USO DE DESARENADORES EN ABASTECIMIENTO DE AGUA POTABLE Cristóbal Albuja Cristian Pinos John Samaniego Estudiantes Escuela de Ingeniería CivÍl ABSTRACT. The grit chamber are structures located below a water catchment and allow sand to remove particles such as clay, fine gravel and organic material of any size contained in the water entering a surface source, is an almost obligatory and the main objective is protect the pipeline, equipment and accessories installed downstream of the recruitment, avoiding problems of erosion and / or accumulation of materials that can cause wear on the system. Sedimentation of suspended particles is due to the action of gravity and is facilitated by decreasing the horizontal velocity in the grit chamber. Keys words: Grit chamber, sedimentation, particles, sand, average daily flow, removal, turbidity. RESUMEN. Los desarenadores son estructuras ubicadas a continuación de una captación de agua y que permiten remover partículas como arenas arcillas, gravas finas y material orgánico de cierto tamaño contenidas en el agua que ingresa de una fuente su122

perficial, es una estructura casi obligada y el objetivo principal es proteger la línea de conducción, equipos y accesorios instalados aguas debajo de la captación, evitando problemas de erosión y/o acumulación de materiales que pueden producir desgastes en el sistema. La sedimentación de las partículas en suspensión es debida a la acción de la gravedad y se facilita por la disminución de la velocidad horizontal en el tanque desarenador. Palabras clave: Desarenador, sedimentación, partículas, arenas, caudal medio diario, remoción, turbiedad.

INTRODUCCIÓN Dentro de los requerimientos para el normal desarrollo de las actividades humanas, tanto a nivel individual como colectivo, el abastecimiento de agua potable ocupa un papel importante, por lo que es indispensable obtenerla. Debido a la alta degradación de las aguas naturales ha sido necesario desarrollar mecanismos para retirar las sustancias presentes en ella que son perjudiciales para la salud humana, haciendo necesario la construcción y operación de sistemas de tratamiento que permitan la obtención y distribución dicho producto. Para la obtención de agua apta para el consumo humano se han desarrollado varias


técnicas que en esencia se funfamentan en los mismos principios teóricos, los cuales se resumen en una secuencia de procesos, siendo cada uno dependiente de los anteriores a él. Los procesos mencionados son en su orden: captación, desarenado, coagulación-floculación, filtración, desinfección, almacenamiento y distribución.

agua pasa a las turbinas desgastándolas tanto más rápidamente cuanto mayor es la velocidad. Esto significa una disminución del rendimiento y a veces exige reposiciones frecuentes y costosas.

En general, los desarenadores tienen la importante misión de eliminar arenas y sólidos que se encuentran en suspensión en el agua y posteriormente, mediante una adecuada operación, arrojarlas al cauce del cual se capta el agua.

- En función de su operación: -Desarenadores de lavado continuo, es aquel en el que la sedimentación y evacuación son dos operaciones simultáneas. -Desarenadores de lavado discontinuos (intermitente), que almacena y luego expulsa los sedimentos en movimiento separados.

Definición.

Clases de desarenadores.

- En función de la velocidad de escurrimiento: -De baja velocidad v<1 m/s (0.20- 0.60 m/s) -De alta velocidad v>1 m/s (1.00- 1.50 m/s) - Por la disposición de los Desarenadores: -En serie, formado por dos o más depósitos construidos uno a continuación del otro. -En paralelo, formado por dos o más depósitos distribuidos paralelamente y diseñados para una fracción del caudal derivado.

Desarenador tipo detritus Los desarenadores son obras hidráulicas que sirven para separar (decantar) y remover (evacuar) después, el material sólido que lleva el agua de un canal.

El material sólido que se transporta ocasiona perjuicios a las obras: • Una gran parte del material sólido va depositándose en el fondo de los canales disminuyendo su sección. Esto aumenta el costo anual de mantenimiento y produce molestas interrupciones en el servicio de canal. • Si los canales sirven a plantas hidroeléctricas, la arena arrastrada por el

- Tipo Detritus (son los más conocidos y utilizados) • Convencional: Es de flujo horizontal, el más utilizado en nuestro medio. Las partículas se sedimentan al reducirse la velocidad con que son transportadas por el agua. Son generalmente de forma rectangular y alargada, dependiendo en gran parte de la disponibilidad de espacio y de las características geográficas. La parte esencial de estos es el volumen útil donde ocurre la sedimentación. • Desarenadores de flujo vertical: El flujo se efectúa desde la parte inferior ha123


cia arriba. Las partículas se sedimentan mientras el agua sube. Pueden ser de formas muy diferentes: circulares, cuadrados o rectangulares. Se construyen cuando existen inconvenientes de tipo locativo o de espacio. Su costo generalmente es más elevado. Son muy utilizados en las plantas de tratamiento de aguas residuales. • Desarenadores de alta rata(velocidad): Consisten básicamente en un conjunto de tubos circulares, cuadrados o hexagonales o simplemente láminas planas paralelas, que se disponen con un ángulo de inclinación, con el fin de que el agua ascienda con flujo laminar. Este tipo de desarenador permite cargas superficiales mayores que las generalmente usadas para desarenadores convencionales y, por tanto, éste es más funcional, ocupa menos espacio, es más económico y más eficiente. - Tipo Vórtice: se basan en la formación de un vórtice (remolino) inducido mecánicamente, que captura los sólidos en la tolva central de un tanque circular. Los sistemas de desarenador por vórtice incluyen dos diseños básicos: cámaras con fondo plano con abertura pequeña para recoger la arena y cámaras con un fondo inclinado y una abertura grande que lleva a la tolva. A medida que el vórtice dirige los sólidos hacia el centro, unas paletas rotativas aumentan la velocidad, lo suficiente, para levantar el material orgánico más liviano y de ese modo retornarlo al flujo que pasa a través de la cámara de arena.

124

Ubicación. Siempre que sea necesario debe instalarse un desarenador en el primer tramo de la conducción, lo más cerca posible a la captación del agua. Preferiblemente debe existir un desarenador con dos módulos que operen de forma independiente, cada uno de ellos dimensionado para el caudal medio diario (Qmd) más perdidas, ante la posibilidad de que uno de los dos quede fuera de servicio. Para la selección del sitio donde se ubicará el desarenador deben tenerse en cuenta los siguientes aspectos: 1. El área de la localización debe ser suficientemente grande para permitir la ampliación de las unidades durante el período de diseño del sistema, siguiendo lo recomendado por el estudio de costo mínimo. 2. El sitio escogido debe proporcionar suficiente seguridad a la estructura y no debe presentar riesgo de inundaciones en los periodos de invierno. 3. La ubicación del desarenador debe garantizar que el sistema de limpieza pueda hacerse por gravedad y que la longitud de desagüe de la tubería no sea excesiva. 4. Los desarenadores deben ubicarse lo más cerca posible del sitio de la captación. 5. El fondo de la estructura debe estar preferiblemente por encima del nivel freá-


tico. En caso contrario deben tomarse las medidas estructurales correspondientes considerando flotación y sub-presión. Proceso de cálculo de las dimensiones del tanque. El proceso de cálculo se puede realizar de la siguiente manera: Asumiendo una profundidad (por ejemplo h = 1.50 m) y aplicando la teoría de simple sedimentación: El proceso de cálculo se puede realizar de la siguiente manera: Asumiendo una profundidad (por ejemplo h = 1.50 m) y aplicando la teoría de simple sedimentación - Calcular la longitud con la ecuación: hv L= w - Calcular el ancho de desarenador con la ecuación: Q b= hv - Calcular el tiempo de sedimentación con la ecuación: h t= w - Calcular el volumen de agua conducido en ese tiempo con la ecuación: V=Q.t - Verificar la capacidad del tanque con la ecuación: V=b.h.L

Considerando los efectos recordatorios de la turbulencia: - Calcularα, según Bastelli 0.132 α= √h - Calcular w´, según Levin: w’=α.v - Calcular w´, según Levin: w’=α.v - Calcular w´, según Eghiazaroff: v w’= 5.7+2.3h - Calcular la longitud L utilizando la ecuación: hv L= w-w’ para valores de w’obtenidos de las ecuaciones de Bestelli y Eghiazaroff - Calcular L, corregida según la ecuación: hv L=K w - De los valores de L obtenidos, elegir uno de ellos. - Definido h, b, L se tienen las dimensiones del tanque desarenador. - Para facilidad del lavado, al fondo del desarenador se le dará una pendiente del 2%. Operación y mantenimiento. Un adecuado mantenimiento de las unidades de desarenado se hace necesario para asegurar que estas unidades trabajen en forma efectiva y eficiente; si se descuidara este aspecto las unidades podrían no remover las materias suspendidas en 125


el agua, ocasionando una obstrucción en el sistema de filtro o de distribución. Los sedimentos interfieren con el proceso de sedimentación incrementando la velocidad del agua en el tanque. Además, la acumulación de estos sedimentos puede causar descomposición y causar sabores y olores en el agua. Operación. La operación de los desarenadores es muy sencilla, básicamente es llevar una vigilancia de la eficiencia de éste para proceder a la evacuación de los sedimentos acumulados en el fondo de la unidad. Esta vigilancia está relacionada con el control del caudal que ingresa a la unidad y el control de la calidad de agua efluente. Para la operación de un desarenador debemos tomar en cuenta las siguientes actividades: • Medición y control de caudal. - Verificar el nivel de agua en el dispositivo de aforo de cada unidad. -Ajustar la válvula de entrada hasta alcanzar el caudal de operación. • Medición de turbiedad. - Medir la turbiedad del agua a la entrada de la unidad. - Medir la turbiedad del agua a la salida de la unidad. • Evacuación de lodos y/o sedimentos. - Disponer la evacuación de sedimentos del fondo de la unidad, cuando la diferencia entre la turbiedad del agua efluente y el afluente sea baja. • Registro de información. - Anotar en el libro de registro diario los valores de turbiedad en el ingreso y salida de la unidad. - Cambios en el caudal de la fuente durante el día. - Fecha de lavado de la unidad. 126

Mantenimiento. El mantenimiento de los desarenadores incluye actividades periódicas que consisten principalmente en el drenaje y evacuación de sedimentos acumulados en el fondo de la unidad. La evacuación de los sedimentos que se depositan en el fondo de la unidad será cada 6 u 8 semanas dependiendo de la calidad del agua cruda y del volumen del tanque. Si el agua es muy turbia la remoción de sedimentos se debe realizar con mayor frecuencia. En los sistemas que incluyan estructuras paralelas, el mantenimiento se lo realiza de unidad en unidad con el fin de no cortar el suministro de agua, y en caso de disponerse unidades en serie, no se debe realizar los cortes de suministro en horas de demanda máxima. CONCLUSIONES En el abastecimiento de agua para una población se vuelve cada vez más necesaria el tratamiento de estas, debido a la gran contaminación que existe en las fuentes, en su proceso, el desarenado después de la captación de las aguas juega un papel muy importante, ya que por un fallo en este proceso podría provocar daños a estructuras posteriores a este, como puede ser la obstrucción y desgaste en las tuberías, taponamiento de filtros, disminución de la capacidad del tanque, etc. El desarenador es una obra hidráulica que sirve para sedimentar partículas de material sólido suspendidas en el agua, en el interior de la conducción. El propósito del desarenador consiste en eliminar partículas de material sólido suspendidas en el agua de la conducción, debido a la velocidad del agua, para que ellas se decanten se disminuye su velocidad; en consecuencia, para cumplir con su propósito el desarenador dispone de una mayor área (sección).


Su construcción demanda tener una longitud y ancho adecuado para que los sedimentos se depositen, sin ser demasiado voluminosos o caros. Deben permitir una fácil eliminación de los depósitos. Tener la capacidad suficiente para permitir la acumulación de sedimentos. BIBLIOGRAFIA.

- “INGENIERÍA FLUVIAL”, Juan Pedro Martín Vide, editorial UPC, Barcelona, España - “INGENIERIA AMBIENTAL” J.Glynn Henry y Gary W. Heinke, Segunda Edición, México 1999. - “GUÍA DE PROCEDIMIENTOS PARA LA OPERACIÓN Y MANTENIMIENTO DE DESARENADORES Y SEDIMENTADORES” Organización Panamericana de la Salud, Lima 2005. - “DESARENADORES” Disponible en web: http://aguasresidualespoe100prelove.blogspot. com/2010/06/desarenadores.html - Apuntes de Clase.

- “ACUEDUCTOS: TEORÍA Y DISEÑO”, Freddy Hernán Corcho Romero, José Ignacio Duque Serna, Editorial Universidad de Medellin, Medellin, Colombia

ÉXITO IMPERECEDERO “Alcanza el éxito aquel que vive con plenitud, ríe con frecuencia y ama intensamente; quien se gana el respeto de personas inteligentes y el cariño de los niños, llena su nicho y cumple con su cometido; que al abandonar el mundo terrenal, deja huella de haberlo mejorado … quien siempre sabe apreciar la belleza del universo, y la puede expresar; logra descubrir los bueno de sus semejantes y ha dado lo mejor de sí mismo; cuya vida ha sido una inspiración, cuyo recuerdo es una bendición” Bessie A. Stenley

127


ARSÉNICO EN EL AGUA María Alexandra Cabrera David Pinos María Fernanda Pulla Estudiantes Escuela de Ingeniería Civil

Abstract Arsenic (As) is a metalloid found naturally in air, soil and water. Have toxicological importance due to its environmental impact even in little concentrations.  It is released by human activities and naturally by the earth’s crust. People can be exposed to arsenic mainly through food and water, especially in certain areas where groundwater comes into contact with arsenic containing minerals Keys word: Arsenic, toxicological importance, environmental impact, concentration, soil minerals. Resumen El arsénico (As) es un metaloide que se encuentra naturalmente en el aire, suelo y agua. Tiene importancia toxicológica debido a su impacto ambiental, incluso en concentraciones pequeñas. Es liberado por las actividades humanas y de forma natural por la corteza terrestre. Las personas pueden estar expuestas al arsénico, principalmente a través de alimentos y de agua, especialmente en ciertas áreas donde el agua subterránea entra en contacto con minerales del suelo que contienen arsénico. Palabras clave: Arsénico, importancia toxicológica, impacto ambiental, concentración, minerales del suelo.

1.- INTRODUCCIÓN El arsénico es un elemento químico que tanto en su estado elemental como sus compuestos son extremadamente tóxicos, especialmente el arsénico inorgánico, que resulta de la combinación del arsénico con 128

el oxígeno, cloro y azufre. Está en la naturaleza en distintas formas (en la tierra y en las rocas); muy pocas veces se lo encuentra en forma sólida. Se puede dispersar en el medio ambiente a través de acción volcánica, erosión de rocas y a través de actividades humanas como la minería o fundición de minerales que contengan arsénico o el desecho de pesticidas. En las aguas destinadas para el consumo humano, el arsénico generalmente proviene de pozos profundos donde existe pirita o arsenopirita (combinación de hierro, azufre y arsénico). La norma de la Organización Mundial de la Salud (OMS) permite una concentración máxima de arsénico en aguas destinadas para el consumo humano de 10 µg/L. En varios países de América del Sur entre ellos: Argentina, Chile, México, El Salvador; por lo menos cuatro millones de personas beben agua con niveles de arsénico en forma permanente, que ponen en riesgo su salud. Las concentraciones de arsénico en el agua, sobre todo en el agua subterránea, presentan niveles que llegan en algunos casos hasta 1000 µg/L. En otras regiones del mundo como India, China y Taiwán el problema es aún mayor. De acuerdo a la información obtenida, en India existen alrededor de 6 millones de personas expuestas, de las cuales más de 2 millones son niños. En Estados Unidos más de 350 000 personas beben agua cuyo contenido es mayor que 500 µg/L de arsénico, y más


de 2,5 millones de personas están siendo abastecidas con agua con tenores de arsénico mayores a 25 µg/L. En el Ecuador la contaminación con arsénico fue detectada recientemente en aguas geotermales, aguas subterráneas y superficiales y sedimentos. En la Laguna de Papallacta cuando se encontraba en proceso de remediación debido a la contaminación con petróleo crudo por una rotura del Oleoducto Transecuatoriano SOTE ocurrida en el 2003. Un estudio dio como resultado que en las cercanías de la Laguna, en ríos y aguas termales, las concentraciones de arsénico eran de entre 39 a 105,60 µg/L. Y en ese mismo estudio, se determinó que las concentraciones de arsénico en la Laguna de Papallacta eran de 390 y 670 µg/L. Técnicos ambientales y expertos manifestaron que las posibles causas de la alta concentración de arsénico en la Laguna de Papallacta fueron la remoción de sedimentos de la Laguna durante el proceso de remediación. 2.- DESARROLLO

El arsénico, (As) es muy común en la atmósfera, en rocas y suelos, en la hidrosfera y la biosfera. Es llevado al medio ambiente a través de una combinación de procesos como: • Naturales como la meteorización, actividad biológica, emisiones volcánicas. • Antropogénicos como la actividad minera, uso de combustibles fósiles, uso de pesticidas, herbicidas, desecantes, conservadores de la madera, etc. El arsénico es extremadamente tóxico para el organismo humano; no solo en concentraciones altas, donde la exposición causa efectos agudos que pueden llegar a ser letales, sino también en concentraciones relativamente bajas en la exposición durante un largo período de arsénico, por ejemplo, por ingestión de agua, esta tiene efectos negativos crónicos para la salud. Por eso, el arsénico en las aguas superficiales (ríos, lagos, embalses) y subterráneas (acuíferos) susceptibles a ser utilizadas

para consumo, constituye una gran amenaza para la salud. Tanto así, que ha llevado a organismos como la OMS, la Unión Europea (Directiva 98/83) o la Agencia de Protección Ambiental estadounidense (USEPA) a establecer la reducción del límite del contenido de arsénico permitido en agua de consumo de 50 a 10 µg/L (WHO, 1993) 2.1 DISTRIBUCIÓN DE ARSÉNICO EN AGUAS SUPERFICIALES Y SUBTERRÁNEAS En aguas naturales, el arsénico se encuentra en forma de solución acuosa. En forma orgánica suele aparecer en concentraciones menores que las especies inorgánicas, aunque pueden incrementar su proporción como resultado de reacciones de metilación catalizadas por actividad microbiana. 2.1.1 AGUAS SUPERFICIALES: • RÍOS Los valores medios de contenido de arsénico en ríos son relativamente bajos, en general, inferiores a 0,8 µg/L, aunque pueden variar dependiendo de factores como: • Recarga superficial y subterránea. • Litología de la cuenca. • Drenaje de zonas mineralizadas. • Clima. • Actividad minera y • Vertidos urbanos o industriales. Por ejemplo, en áreas de clima árido, el aumento de la concentración de arsénico en las aguas superficiales se ve favorecido por procesos de evaporación, que además provocan un aumento en la salinidad y pH de las aguas. Las corrientes fluviales de zonas mineras o con mineralizaciones muestran contenidos altos de arsénico, generalmente en el rango de 200-400 µg/L, estas no siempre han de tener un origen exclusivamente antropogénico. En el 2007 los ríos de las zonas costeras del Ecuador como Rio Gala, Rio Tenguel, Rio Siete, Rio Chico están contaminados de metales como mercurio, cromo, cobre, plomo, arsénico, este ultimo 15 veces más alto de lo permitido, debido a las operaciones mineras realizadas en la provincia del Azuay en el sector de Ponce Enríquez.

129


El agua de estos ríos es utilizada para lavado de vestimenta, limpieza corporal a falta de agua potable, lo que incrementa la frecuencia de exposición por contacto con la piel. En cambio en la parte norte del país las aguas superficiales de los ríos El Ángel, San Pedro y Pichán y las quebradas Cachiyacu e Ilalo de las provincias de Carchi, Imbabura, Pichincha, Cotopaxi y Tungurahua que reciben aguas termales provenientes de las fuentes y aguas termales residuales de los balnearios localizados en esta región, contienen arsénico en el rango de 2 a 171 µg/L. • LAGOS Los valores medios de contenido de arsénico en aguas lacustres no difieren mucho de los observados en ríos, ya que están controlados por los mismos factores, excepto en lo que se refiere a la dinámica del agua. La circulación restringida de agua en los lagos tiene comoconsecuencia que determinados procesos geoquímicos sean facilitados. Como ejemplo, los procesos de evaporación en lagos de climas áridos, o la propia estratificación de algunos lagos en términos redox, con la existencia de un ambiente relativamente oxigenado. 2.1.2 AGUAS SUBTERRÁNEAS. En general, los valores de concentración de arsénico en aguas subterráneas son, para la mayoría de los casos, inferiores a 10 µg/L. Sin embargo, los valores para aguas en condiciones naturales definen un rango muy amplio entre < 0,5 y 5.000 µg/L. Las concentraciones altas no se restringen a determinadas condiciones, apareciendo en • Acuíferos en condiciones oxidantes y de pH alto. • Acuíferos en condiciones reductoras. • Acuíferos con circulación geotermal. • Acuíferos afectados por procesos ligados a las actividades mineras o relacionadas con depósitos minerales. • Acuíferos ligados a otros procesos antropogénicos (actividad industrial, asentamientos urbanos, actividad agropecuaria, etc.). Sin embargo, la mayor parte de los acuíferos con contenidos altos de arsénico tienen un origen ligado a procesos geoquímicos naturales. A diferencia de la contaminación antropogénica, están relacionados con ambientes ge-

130

ológicos muy diferentes: metasedimentos con filones mineralizados, formaciones volcánicas, formaciones vulcano-sedimentarias, distritos mineros, sistemas hidrotermales actuales, cuencas aluviales terciarias y cuaternarias. Se han identificado un gran número de áreas con aguas subterráneas que presentan contenidos de arsénico superiores a 50 µg/L en distintos lugares del planeta. Los problemas más importantes se sitúan en Argentina, Bangladesh, Nepal, Chile, China, Hungría, India (Bengala Oeste), México, Rumania, Taiwán, Vietnam y EE.UU., siendo en este último país y en Bangladesh donde han sido objeto de es tudios más profundos. Además se encuentran otras áreas, directamente relacionadas con procesos hidrotermales en Argentina, Chile, Japón, Nueva Zelanda, EE.UU., Islandia, Francia. Áreas con problemas de arsénico en relación a depósitos minerales y minería han sido reconocidas en numerosas partes del mundo, siendo los casos más sobresalientes los de Ghana, Grecia, Tailandia, Chile y EE.UU.

2.2 TOXICIDAD DEL ARSÉNICO EN LOS SERES HUMANOS Las consecuencias en la salud de una exposición al arsénico dependen del modo y la duración de la exposición así como de la fuente y el tipo de arsénico. De acuerdo a algunas investigaciones y análisis realizados en laboratorios se conoce que la dosis letal de arsénico en adultos es de 1-4 mg As/kg y para los demás compuestos (AsH3, As2O3, As2O5) la dosis varía entre 1,5mg/kg y 500mg/kg de la masa de cuerpo. La principal vía de exposición al arsénico es por la ingesta y la inhalación. Así, el tóxico llega al organismo y entra en contacto con las superficies epiteliales del tracto digestivo, del aparato respiratorio o de la piel, donde se absorbe. Al atravesar estas membranas alcanza el torrente sanguíneo, considerándose que el tóxico ha penetrado al organismo. A continuación es transportado por la sangre a los distintos órganos, donde puede llegar a causar un daño permanente.


En 24 horas puede ser encontrado en el hígado, en el riñón, los pulmones, en el bazo y en la piel. La acumulación en la piel es debido a su facilidad de reaccionar con las proteínas. El arsénico inorgánico también es absorbido por los tejidos, es transformado mediante la metilación y eliminado en la orina a través del riñón. Cuando la ingestión es mayor que la excreción, se tiende a acumular en el cabello y en las uñas. El nivel normal de arsénico en la orina es 5-40 µg/ día, en el cabello de 80-250 µg/día y en las uñas de 430-1080 µg/día. Los efectos tóxicos del As en los seres humanos varían de acuerdo a la genética, al metabolismo, a la dieta, al estado de la salud, a la nutrición, al sexo, entre otros. Aquellos con mayor riesgo son los que tienen una baja habilidad en la metilación del arsénico y como consecuencia lo retienen. Los más afectados son los niños que no metabolizan el As como un adulto debido a que su organismo realiza mayor división celular por encontrarse en desarrollo; y las personas desnutridas por la carencia de vitamina A y C. El As también altera la genética de los cromosomas, quitándole la mitad de su información. Afecta también al crecimiento y la reproducción. De acuerdo a estudios realizados, grupos de alimentos como hortalizas, frutas, lácteos y carnes poseen concentraciones de arsénico, siendo las más altas aquellas encontradas en los pescados y mariscos. La orina es el mejor biomarcador para la medición de arsénico inorgánico absorbido, se pueden medir hasta el décimo día después de la exposición. En el cabello o uñas se pueden medir entre los seis a doce meses de la exposición.

2.2.1 INTOXICACIÓN La intoxicación por arsénico y sus síntomas de acuerdo al tiempo de exposición y la concentración ingerida, pueden ser: a) Intoxicación Aguda El arsénico en grandes cantidades afecta la vía digestiva, presentándose como un cuadro gastrointestinal con dolores abdominales, vómitos, diarreas y deshidratación. La pérdida de sensibilidad en el sistema nervioso periférico es el efecto neurológico más frecuente; aparece una a dos semanas después de grandes exposiciones. Los síntomas de la intoxicación aguda pueden aparecer en minutos o bien muchas horas después de la ingestión de entre 100 y 300 mg de As, aunque también es posible la inhalación de polvo de As o la absorción cutánea. b) Intoxicación crónica La ingestión de As durante un tiempo prolongado y dosis repetitivas, acarrea varios síntomas como: fatiga, gastroenteritis, leucopenia, anemia, hipertensión, alteraciones cutáneas. En la mayoría de los casos los síntomas ´presentados por intoxicación crónica por arsénico se relacionan a la sintomatología general de algunas enferme dades comunes, debido a esto es necesario realizar un seguimiento del origen de la fuente de contaminada por arsénico y una serie de análisis médicos que cuantifiquen la concentración de este en el organismo. Luego de extensos estudios, en Bangladesh se utilizó el siguiente modelo epidemiológico:

131


FASES Preclínica

Clínica

Complicaciones

Malignidad

MANIFESTACIONES No hay síntomas. El As se encuentra en muestras de orina y en los tejidos Afecta a la piel Melanosis en las palmas de las manos, manchas oscuras en el pecho, espalda, miembros y encías Keratosis o endurecimiento de la piel. Callosidades en las palmas de las manos y en las plantas de los pies. Según WHO 5-10 años de exposición Síntomas clínicos más pronunciados Efectos en los órganos internos como: • Riñón • Hígado • Bazo Se asocia también: • Conjuntivitis • Bronquitis • Diabetes

Fig 1. Enfermedad de Pie Negro

Fig 2. Habitante de Bangladesh

Tumores o cáncer de piel y otros órganos. Gangrena, cáncer del pulmón o vejiga. Fig 3. HACRE (Lesiones extra cutáneas)

Las enfermedades más comunes causadas por la intoxicación por arsénico se enumeran a continuación: • Cáncer pulmón, vejiga, riñón, próstata • Líneas de Mees • Abortos espontáneos • Malformaciones congénitas • Hidroarsenismo Crónico Regional Endémico HACRE.

132

2.3 TRATAMIENTOS PARA LA REMOCIÓN DE ARSÉNICO Cuando se desea remover elementos químicos del agua, como el arsénico, es necesario recurrir a métodos más complejos que los habitualmente utilizados en la potabilización de agua, como:


TRATAMIENTO Coagulación/Filtración

DESCRIPCÓN Consiste en que las cargas eléctricas de las sustancias coloidales disueltas o suspendidas son neutralizadas con la adición de sustancias insolubles en el agua, lo que permite la formación de partículas de mayor tamaño o aglomerados que pueden ser eliminadas por sedimentación y filtración. La eficiencia de este proceso depende que a dosis mayores de 20 mg/l de cloruro férrico o 40 mg/l de sulfato de aluminio se alcanza una remoción de Arsenato de más del 90%. Alúmina activada Consiste en un intercambio iónico, donde los iones presentes en el agua son absorbidas por la superficie oxidada de la alúmina activada. Es altamente selectiva para remover el Arsenato y efectiva para tratar agua con alto contenido de sólidos disueltos totales. Ósmosis inversa Consiste en eliminar las sustancias disueltas presentes en el agua por una membrana semipermeable bajo una presión superior a la osmótica. Tiene una eficiencia de más del 95% de remoción de arsénico disuelto. Este método es efectivo para remover arsénico de aguas subterráneas. El rendimiento del proceso con osmosis inversa es afectado principalmente por la turbiedad, hierro, manganeso y sílice. Intercambio ióni- Los iones de una especie dada son desplazados de un material co insoluble de intercambio (resina) por otros iones que se encuentran en solución. Remueve efectivamente el arsénico en el rango de pH entre 8 y 9. No obstante, el selenio, fluoruro, nitrato y sólidos disueltos totales compiten con el arsénico y afectan la duración del proceso. Nanofiltración Es un proceso de separación liquida mediante membranas operadas bajo presión que permite el paso de solventes y sales monovalentes, iones metálicos y pequeñas moléculas orgánicas de peso molecular en el rango de 200 y 1000. Con este método se alcanza hasta una remoción del 90% de arsénico disuelto en aguas subterráneas. A b l a n d a m i e n t o Consiste en adicionar cal al agua. Este método es efectivo para con cal remover arsenito o arsenato y la eficiencia de la remoción esta en función del pH. Este método tiene un alto rendimiento para remover concentraciones de arsénico de 50 µg/L; sin embargo para reducir a 1 µg/L se necesita de un tratamiento secundario. La remoción de As+5 es mayor al 90% a un pH de 10,5. Por debajo del rango del pH óptimo la remoción disminuye a menos del 20%. En el sistema de ablandamiento con cal se produce una considerable cantidad de lodo.

133


3.- CONCLUSIONES

4.- REFERENCIAS

El arsénico (As), es un elemento químico, cuyo peligro se conoce desde tiempos remotos, considerando la magnitud del daño que es capaz de causar, tanto en su forma orgánica como en la inorgánica; las normas establecidas para límites máximos permitidos del mismo, se han reducido en los últimos años, tras haberse realizado estudios de la máxima cantidad que un ser humano puede ingerir sin causar daños irreversibles. Actualmente se han realizado muchos avances en lo que se refiere al tratamiento de aguas contaminadas con As, aunque la solución más adecuada sería mitigar la contaminación, lo cual aun no se ha logrado de forma eficaz.

http://www.ada.gba.gov.ar/novedades/Informe2.pdf http://www.espe.edu.ec/portal/files/libros/CIENCIA/ RCiencia9-3.pdf http://repositorio.espe.edu.ec/ bitstream/21000/993/1/T-ESPE-023926.pdf http://www.bvsde.paho.org/texcom/cd045364/distribucionars.pdf http://cospl.coalliance.org/fez/eserv/co:1750/ he194302ar720032internet.pdf http://biblioteca.espe.edu.ec/upload/Art_04_remocion_arsenico.pdf http://www.bvsde.paho.org/acrobat/percca02.pdf http://repositorio.espe.edu.ec/ bitstream/21000/2323/1/T-ESPE-018646.pdf http://www.miliarium.com/bibliografia/monografias/ Arsenico/MetodosReduccionArsenico.asp SCHOEN Ari, BECK Barbara, Arsenic toxicity at low doses: epidemiological and mode of action considerations, Gradient Corporation, Cambridge, March 2004 Agency for toxic substances and diseases regitry, División of Toxicology, Toxicolological profile for arsenic for arsenic(update). Atlanta, GA. U.S. www.estrucplan. com.ar

“¿Para qué vivimos, si no es para facilitarnos la vida mutuamente?” Elliot

“Un hombre libre es aquel que teniendo la fuerza y talento para hacer una cosa, no encuentra trabas a su voluntad”. Thomas Hobbes.

134


ENFOQUE BÁSICO DEL SANEAMIENTO AMBIENTAL Freddy Pacheco Amón David Once Sarmiento Jessica Verdugo Gallegos Estudiantes Ingeniería Civil

Resumen: Hoy en día, el tema de la calidad del medio ambiente y la salud de los seres humanos está en riesgo debido a la contaminación del medio ambiente, y a la falta de saneamiento ambiental, que existe más en los países subdesarrollados, los problemas existentes son causados por la falta de tratamiento saludable en el agua, residuos sólidos y excretos. Esto sucede a menudo debido a la falta de conocimiento de la gente, cómo tratar los residuos, por lo que en este documento se mostrará de qué manera se trata la salud del medio ambiente, para que los ciudadanos tengan un entendimiento sobre este tema y tengan en cuenta que estos problemas se pueden resolver y podemos prevenir las epidemias y el daño importante en la humanidad. Palabras Clave: • • • •

Saneamiento Salud Pública Medio ambiente Contaminación atmosférica

Abstract: Today, the theme of environmental quality and health of human beings is at risk due to environmental pollution, and lack of sanitation, it exists more in underdeveloped countries, existing problems caused by unhealthy lack of treatment in water, solid

waste and excreta. This often happens due to lack of knowledge of people, how to treat the waste, so that this document will show what it’s about environmental health, so that citizens have an understanding on this issue and we note that these problems can be solved and we can prevent epidemics and major damage to humanity. Keys Words: • • • •

Wastewater Public Health Environment Atmospheric pollution

INTRODUCCIÓN: El saneamiento ambiental ha sido tradicionalmente considerado como la rama de Salud Pública que se encarga de los factores del medio ambiente físico que tienen influencia sobre la salud del hombre, en 1920, Winslow definió la Salud Pública como “La ciencia y el arte de prevenir las enfermedades, prolongar la vida y fomentar la salud y la eficiencia física mediante esfuerzos organizados de la comunidad para sanear el medio ambiente, controlar las infecciones de la comunidad y educar al individuo en cuanto a los principios de higiene personal; a los servicios médicos y de enfermería para el diagnóstico precoz y el tratamiento preventivo de las enfermedades, así como desarrollar la maquinaria social que le asegure a cada individuo de la comuni135


dad de nivel de vida adecuado para el mantenimiento de la salud”

PROMOCIÓN DE LA SALUD Y VIDA URBANA.

En 1990 Milton Terris propone una adaptación de esta definición, acerca de la Salud Pública como “La ciencia y el arte de prevenir las dolencias y las discapacidades, prolongar la vida y fomentar la salud y la eficiencia física y mental, mediante esfuerzos organizados de la comunidad para sanear el medio ambiente, controlar las enfermedades infecciosas y no infecciosas, así como las lesiones; educar al individuo en los principios de higiene personal, organizar los servicios para el diagnóstico y tratamiento de las enfermedades y para la rehabilitación, así como para desarrollar la maquinaria social que le asegura a cada miembro de la comunidad un nivel de vida adecuado para el mantenimiento de la salud”. En el transcurrir del tiempo, la definición de saneamiento del ambiente no perdió protagonismo. Sin embargo, la importancia asignada al Saneamiento Ambiental ha ido variando sustancialmente. Sin embargo, a comienzos del Siglo XXI, la preocupación de los organismos internacionales y la de los expertos en salud centrada en las repercusiones que tiene y tendrá en la salud humana, el cambio climático que sufre el planeta ha sido constante. Este suceso desconocido por la humanidad, el cambio climático que sufre el planeta plantea un reto importante a todos los hombres en general, y a los científicos en particular ya que nos es un hecho simple y aislado, sino la resultante de las múltiples actividades realizadas por el hombre en la faz de la tierra. En ámbitos académicos, la clásica división de la salud pública en dos grandes ramas, atención médica y saneamiento ambiental, ha perdido vigencia en la actualidad, abriéndose nuevas tendencias en salud pública.

La promoción de la salud tiene dos categorías centrales: Los estilos de vida y las condiciones de vida, y sobre ella se concentran las principales acciones. El estilo de vida es la opción que tanto individuos como comunidades, eligen para abordar su vida. El estilo de vida se construye teniendo en cuenta la estrategia del pensamiento, la forma de relacionarse con el entorno y los hábitos personales y/o grupales específicos. Se manifiesta en los comportamientos individuales y colectivos. Las condiciones de vida están determinadas por el modo como el hombre se apropia de la naturaleza en un tiempo y espacio dado, y en consecuencia el grado de desarrollo logrado por esa comunidad. Las condiciones de vida tienen, por lo tanto, un sustrato físico natural, modificado por poderosos determinantes sociales, económicos y tecnológicos. Ellas son la manifestación de la interacción de todos estos elementos.

136

CIUDADES SALUDABLES En 1984 surge en Toronto, Canadá, el movimiento de ciudades saludables promovido por la OMS como expresión de la necesidad de aplicar los principios de promoción de la salud en el nivel local. Este proyecto tenía como finalidad fomentar la salud de las ciudades, de su medio ambiente y sus habitantes, contando con recursos fundamentales la creatividad de los gobiernos locales y la participación de la comunidad, propiciando una acción multisectorial en la salud. ¿Qué es una ciudad saludable? Tevorhancock (Lisboa, 1986) la define como aquella que crea y/o mejora continuamente sus ambientes, social y físico, y despliega los recursos comunitarios necesarios para ayudar a los ciudadanos a de-


sarrollar, a través de la asistencia mutua, todas la funciones de la vida hasta su potencial máximo. Una ciudad saludable es aquella que da una alta prioridad a la salud en todas sus actuaciones. Cualquier ciudad puede ser saludable, si hay un compromiso para trabajar por ella y comienza un proceso para conseguir más salud. La salud es algo más que la ausencia de la enfermedad o la actividad curativa de los servicios sanitarios: puede crearse si el entorno donde vivimos nos facilita estilos de vida más sanos. POLITICAS PÚBLICAS SALUDABLES Las políticas públicas saludables se refieren a las decisiones políticas de cualquier sector del gobierno y a cualquier nivel con interés explícito por la salud y la equidad, y que tengan en cuenta su impacto potencial en ese campo. En 1988, en la Conferencia de Adelaida, Australia, se plantea que la principal meta de una política pública saludable es crear ambientes que permitan llevar una vida sana y donde las opciones saludables sean posibles y fáciles. La meta planteada pretende lograrse a partir de la disminución de la distancia que separa a los distintos grupos sociales mejorando la calidad de vida de los grupos menos favorecidos; ampliando la oferta de bienes y servicios saludables; la creación de ambientes que favorezcan la salud humana, protegiéndola contra los riesgos físicos, químicos y biológicos, y estableciendo las condiciones sociales adecuadas para mejorar la calidad de vida. Esta meta supera ampliamente aquellas planteadas en la política sanitaria tradicional, que era sectorial y centrada en la atención de la enfermedad y no en la promoción de la salud.

ACCIONES DE SANEAMIENTO AMBIENTAL El saneamiento ambiental es un conjunto de acciones técnicas y socioeconómicas de salud pública que tienen por objetivo alcanzar niveles crecientes de salubridad ambiental. Tienen por finalidad la promoción y el mejoramiento de condiciones de vida urbana y rural. (OPS) El uso del término “saneamiento” por parte de los ingenieros sanitarios varía entre diferentes países. Por ejemplo, en el cono sur, en Bolivia y en el Perú el significado es amplio, como en la definición mencionada anteriormente. En otros países de América Latina el uso a veces es más restringido y cubre el alcantarillado sanitario y el tratamiento de aguas negras, sin incluir el abastecimiento de agua potable. En México, el uso técnico es el más restringido y es limitado al tratamiento de aguas negras sin incluir el alcantarillado sanitario. El manejo de residuos sólidos y el comportamiento higiénico a veces son incluidos en el término y a veces no, dependiendo del contexto. El saneamiento ambiental comprende el manejo Sanitario del agua potable, las aguas residuales y excretas, los residuos sólidos y el comportamiento higiénico que reduce los riesgos para la salud y previene la contaminación. Es decir que las acciones de saneamiento ambiental se refieren a las medidas destinadas a preservar y recuperar la salubridad ambiental. Luis Lepera, en medicina sanitaria (Sonis y cols.), enuncian las siguientes acciones: • El abastecimiento de agua potable a la población, garantizando su pureza y cantidad. • El control de la eliminación de materiales excrementarías y residuales, para evitar que se constituyan en factor de contaminación del agua y el suelo. • La recolección y disposición final de basuras. 137


• El control de la contaminación atmosférica y del medio ambiente en general, para eliminar todo riesgo para la comunidad, la comunicación acústica y la visual en las ciudades, y el control de las radiaciones • La lucha contra artrópodos y roedores, ambos vectores y/o reservorios de enfermedades que pueden ser transmitidas al hombre. • El control higiénico de los alimentos, asegurando su inocuidad para evitar que se conviertan en causa de enfermedades • El control higiénico y sanitario de la vivienda, a fin de evitar la producción de enfermedades y accidentes de sus ocupaciones. • La higiene y la seguridad en el trabajo, controlando fábricas, talleres y lugares de trabajo en general, a fin de proteger la salud de los trabajadores (Salud ocupacional) SANEAMIENTO BÁSICO Comprende aquellas acciones que no pueden faltar en una comunidad para asegurar las condiciones sanitarias básicas para el desarrollo de la vida son las siguientes: Servicio de provisión de agua potable, Recolección y eliminación de excretas, Recolección y disposición final de residuos. A nivel de las comunidades, adquieren fundamental importancia para el cuidado de la salud de la población. Ante las propuestas de promoción de la salud, estas actividades se pueden considerar limitadas ya que no hacen referencia al concepto ampliado de medio ambiente, que considera también el ambiente social y cultural del hombre. No tienen en cuenta la creación de condiciones favorables para la promoción de la salud y el desarrollo de la 138

comunidad, como aquellas propuestas en el concepto de ciudades saludables. Es importante destacar que el saneamiento ambiental es una actividad esencialmente local, a pesar de que muchas de sus acciones están centralizadas aún hoy, a nivel nacional o provincial. REDES SANITARIAS Toda actividad que tenga por objetivo la Promoción de la Salud debe tener incorporada acciones específicas de saneamiento ambiental a fin de eliminar o reducir la influencia de los factores negativos del medio ambiente en la ruptura del equilibrio necesario para vivir en salud. La estrecha relación entre los problemas medio ambientales y la salud se ve reflejada en los indicadores de desarrollo humano que presentan los países con distintos niveles de desarrollo socioeconómico. Un ejemplo de ello es la siguiente ecuación. A mayor PIB per cápita, mayor esperanza de vida, mejor tasa de alfabetización, y menor morbilidad por enfermedades infectocontagiosas. La aparición del cólera en América Latina pone al descubierto el estado de indefensión que presentan los países de la región a su infraestructura sanitaria: déficit en la provisión de agua potable, en los servicios de evacuación de líquidos cloacales y en el correspondiente tratamiento antes de su volcado final. Para conocer la situación de la infraestructura sanitaria de un país, se utilizan indicadores que miden el porcentaje de población que tienen acceso a los servicios de agua potable y de cloacas. Requisitos necesarios para el desarrollo de las acciones de SANEAMIENTO AMBIENTAL. Para el desarrollo de las acciones de saneamiento en cualquier comunidad son necesarios:


1. Recursos humanos 2. Legislación 3. Educación y participación de la comunidad 4. Recursos Financieros. 1) Recursos humanos Para afrontar los complejos problemas de saneamiento del medio, es necesario contar con recursos humanos idóneos. La diversidad y la complejidad de la problemática ambiental requieren de un trabajo multidisciplinario, en el cual participen y se comprometan ingenieros, médicos químicos, biólogos veterinarios, nutricionistas, educadores, arquitectos, sociólogos antropólogos, economistas, entre otros profesionales, todos ellos con especialización en salud pública, o salud ambiental. En el centro de la escena se ubica la comunidad, sin cuya participación es sumamente difícil consolidar estos proyectos. Cuando se trata de desarrollo de la infraestructura sanitaria, se jerarquiza el rol que debe cumplir el ingeniero especialista en salud pública o ingeniero sanitario, especializado en el planeamiento, diseño, construcción y operación de obras relacionadas con el saneamiento general 2) Legislación Contar con normas específicas para el control de los factores dañinos para la salud humana se está convirtiendo en una necesidad imperiosa en la actualidad, visto la producción excesiva de contaminantes ambientales, resultado del proceso de desarrollo y del consumismo extremo por parte de un sector importante de la población mundial. Los altos niveles de pobreza existentes en algunas regiones se convierten en un nuevo peligro para la salud ambiental. 3) Educación y participación de la comunidad Las tendencias actuales en los sistemas sanitarios del mundo están caracterizadas

por la búsqueda de la equidad, la salud y el desarrollo, la descentralización administrativa y financiera y la participación en todo nivel local de la comunidad. Todo el programa de salud debe contar, para el logro de sus objetivos, con el compromiso y la participación de la comunidad. La participación comunitaria trata básicamente de facilitar los medios para que la población pueda analizar sus propias necesidades y formular maneras de satisfacerlas, creando lazos de solidaridad y fomentando el intercambio de conocimientos y experiencias. La participación social tiene el propósito fundamental de desarrollar y fortalecer la solidaridad entre los miembros de la comunidad, la ciudadanía y la democracia (Cerqueria, M. Promoción de la salud. 1996) 4) Recursos Financieros En general, los recursos financieros provienen del presupuesto normal asignado por el estado nacional, provincial o municipal, de partidas especiales, de la ayuda internacional o de la propia comunidad. Lo más común es encontrar una combinación de dos o más de ellas. El costo de la instalación de la infraestructura necesaria para la provisión de los servicios de saneamiento básico es elevado y en los países en desarrollo generalmente el presupuesto asignado a estas actividades es insuficiente para suplir las carencias existentes. Es por eso que deben recurrir a los préstamos que otorgan organismos internacionales para estas actividades. Las inversiones necesarias para el diseño y construcción de las redes sanitarias, de espacios verdes y de recreación, de mejoramiento de viviendas, se denominan costos de capital, y las de financiamiento, conservación, mejoramiento y ampliación de las mismas, costos de operación. En la década del 80, ante el acelerado crecimiento de las ciudades y la baja inversión 139


del estado en la extensión de las redes sanitarias fueron frecuentes las inversiones realizadas por los usuarios de los futuros servicios para su instalación, En nuestros días las tendencias hacia la descentralización y la privatización de los servicios llevo al estado nacional derivara en manos de las provincias y municipios la producción de agua potable y el servicio de cloacas. Conclusiones y comentarios Después de realizar este trabajo de investigación podemos llegar a la conclusión de que actualmente nuestro ambiente está muy contaminado. El gobierno nacional y por supuesto todos nosotros estamos gravemente obligado a defender exitosamente el hábitat, respondiendo a las exigencias de nuestras necesidades. Fundamental; por eso, ha creado y crean los organismos competentes que intervengan técnica y

científicamente por mantener, en las mejores condiciones, todos los recursos naturales que integran y conforman el paisaje nacional. Podríamos ayudar con campañas publicitarias y comerciales para realizar saneamientos ambientales dentro del país. La contaminación está en un punto tan grave que, si sigue progresando a este ritmo, pronto nos quedaremos sin nuestra Capa de Ozono, nos quedaremos sin unos océanos mares ríos y lagos limpios, sin una flora y fauna completa y agradable que conviva con nuestra especie pacíficamente. Bibliografía • ACOSTA RAQUEL SUSANA, Saneamiento ambiental e higiene de los alimentos, 1ra edición, Ed. Brujas, Argentina, 2008. • CAMPOS GÓMEZ IRENE, Saneamiento ambiental, 1ra edición, Ed. Asoingraf, Costa Rica, 2003.

“Las ideas te harán fuerte; los ideales, invencible”.

“Ellos pueden, porque piensan que pueden”.

Cornejo

Virgilio

“Un pensador muere en un día, un soñador vive eternamente. “ Cornejo

140


SISTEMAS DE AGUA POTABLE Y AGUAS RESIDUALES DE LA CIUDAD DE CUENCA ABSTRACT

PALABRAS CLAVE PLANTAS DE POTABILIZACIÓN, TRATAMIENTO DE AGUAS RESIDUALES,

también de preservación de la salud de la población, para lo que se ha construido alrededor de 70 Km. de interceptores en las márgenes de los cuatro ríos de Cuenca y de dos quebradas que atraviesan la ciudad, así como también la Planta de Tratamiento de Aguas Residuales, la misma que actualmente se encuentrafuncionando desde 1999.Las Plantas de Potabilización de agua cuentan con la más alta tecnología y los más rigurosos procedimientos de control de calidad.Existen Plantas de Potabilización tanto para el sector urbano como para el rural y daremos a conocer sus principales características.

1 INTRODUCCION

2

La ciudad de Cuenca, capital de la provincia del Azuay, es una ciudad interandina situada al sur del Ecuador sobre una planicie a 2.550 m.s.n.m., con una temperatura media anual de 15°C, ciudad de tradición colonial y republicana, es un centro cultural y artesanal de importancia en el país, la misma que fue declarada por la UNESCO como “Patrimonio Cultural de la Humanidad” en el año de 1999.

2.1 PLANTA DE TRATAMIENTO DE AGUA POTABLE EL CEBOLLAR

This paper deals with the purification system that has the city of Cuenca and its surroundings, processes that have been described and shown the reliability and quality that are made. There is also an explanation of their treatment of wastewater from the city of Cuenca, a brief description of the various devices and machines that handle the process.

La ciudad se ha convertido en uno de los principales destinos turísticos y de retiro a nivel mundial, donde es posible vivir en armonía, con la planificación y desarrollo sostenidos.Desde 1983 se ha realizado una serie de actividades inclinadas a la recuperación de la calidad de las aguas de los ríos que atraviesan la ciudad,así como

PLANTAS DE POTABILIZACIÓN

La zona Tomebamba-Machángara es abastecida actualmente por la Planta de Tratamiento de Agua Potable (PTAP) El Cebo141


llar, la misma que provee de 2`100.000 m de agua potable a la ciudad de Cuenca por mes, beneficiando a 200.000 personasdel servicio de Agua Potable. La planta se encuentra situada en la zona noroeste a 2 639 msnm.

clarápida se realiza adicionando Sulfato de Aluminio, tipo B seco, con dosificaciones acordes a la calidad de agua cruda, se utiliza un promedio de 35 mg/l, paralo cual se dispone de dos dosificadores gravimétricos que trabajan alternadamente.

La Planta potabiliza desde el año 1949, con el transcurso del tiempo ha llegado a triplicar la capacidad inicial de procesamiento, en la actualidad llega a una capacidad máxima de 1000 l/s.La PTAP El Cebollar posee un sistema de tratamiento de tipo convencional, compuesto de fases descritas a continuación:

• FLOCULACION. Los floculadores son de tipo hidráulico de flujo horizontal y están compuestos por cinco unidades, en donde tiene lugar el fenómeno de la floculación previo a la dosificación de químicos. Con la finalidad de favorecer el trabajo de las unidades, se procede a colocar adicionalmente un polímero catiónico en dosificaciones de 0,7 mg/l.

• CAPTACION. La principal fuente de abastecimiento es el río Tomebamba, cuya captación se la realiza 300 m aguas abajo de la confluencia con el río Mazán, en la cota 2 736 msnm.Actualmente, funciona satisfactoriamente con una capacidad de captación de alrededor de 1 000 l/s. Existe otra captación secundaria cercana a la población de Buenos Aires que aporta, aproximadamente, el 30% del caudal total. • CONDUCCION. El actual sistema de conducción de agua cruda para la PTAP El Cebollar está conformado por las conducciones Paquitranca, Sayausí Bajo y Tomebamba, que llevan el agua desde las captaciones ubicadas en los ríos Culebrillas y Tomebamba hasta los Tanques Presedimentadores, ubicados en Sayausí; y, por la conducción El Cebollar, la misma que se desarrolla desde los tanques presedimentadores hasta la PTAP El Cebollar. Posee 7256 m. de longitud, en su mayor parte en canal agravedad, embaulado y enterrado que atraviesa por terrenos particulares de una zonade alto desarrollourbano. • MEZCLA RAPIDA. Con la finalidad de facilitar la formación de flocs, la mez142

• SEDIMENTACION. La unidad de sedimentación consiste en tres tanquesde flujo ascendente, poseedores de un total de 640 m, que representan una tasa superficial de 120 m /m /día, mediantemódulos de sedimentación de ABS. Es en este lugar, los flóculos sedimentan, arrastrando consigo patógenos y partículas contaminantes del agua. •FILTRACION. Se dispone de un área de filtración total de 375 m2, que consta de doce filtrosrápidos, ocho antiguos y cuatro de construcción reciente de tasa declinante. El lecho está formado por grava, arena y antracita con una altura promedio de 1,6 m. Las carreras entre lavados son de 24 a 30 horas. •DESINFECCION. Con el propósito de distribuir agua en condiciones adecuadaspara consumo humano, se procede con la desinfección, la cual se realiza con cloro gas las 24 horas del día, en los 365 días del año. La dosificación en el agua es de 1mg/l. Para tener un abastecimiento continuo, la planta de El Cebollar dispone de cinco tanques de reservainternos poseedores de una capacidad conjunta de 9 500


m3 y además de cincos tanques externos: Turi (1 500 m3), Cruz Verde (6 000 m3), Cristo Rey (1 000 m3) Cebollar Alto (R1, 1000 m3) y Cebollar bajo (R2,1500 m).

2.2 PLANTA DE TRATAMIENTO DE AGUA POTABLE DE TIXÁN La Planta de tratamiento de TIXAN está situada cercana a la población de TIXAN en la parroquia Chiquintad del Cantón Cuenca, su ubicación está en la margen izquierda del canal de riego Machángara en la cota 2.690 m.s.n.m. La fuente de abastecimiento para la Planta de Tratamiento de TIXAN es el río Machángara, el cual nace en la cordillera del mismo nombre, tiene una Cuenca de aporte con un área de 208 Km2 La primera etapa de construcción de la planta se realizó desde enero de 1.994 hasta Abril de 1.997, poseyendo una capacidad inicial de tratamiento es de 8401/s.La captación es del tipo derivación lateral convencional; desde su captación el agua es transportada por el canal abierto de riego Machángara por un tramo de 5 Km, hasta el sitio de la toma construida en el cauce del mismo; de esta toma, el agua es derivada hacia la planta potabilizadora.Tixán es una planta del tipo convencional integrada por los procesos de coagulación, sedimentación, filtración, rápida y desinfección que se proceden a describir.

•COAGULACIÓN Y SEDIMENTACIÓN.El agua que ingresa a la planta de tratamiento inmediatamente sufre el adicionamiento de químicos llamados coagulantes y ayudantes de coagulación. En el caso de los coagulantes se usa un fino polvo llamado sulfato de aluminio o alumbre. En el agua el sulfato de aluminio forma diminutasesferas llamadas flóculos, en este proceso bacterias, lodo y otras impurezas son atrapados por los mismos. Luego el agua circula por un sedimentador, donde los flóculos caen al fondo. La coagulación y sedimentación remueven la mayor parte de impurezas. En la planta de Tixán, se dispone de ocho sedimentadores de placas paralelas de flujo ascendente con una tasa superficial de diseño de 130 m3/m2/día.Las unidades de floculación son mixtas, compuestas de dos cámaras de floculación mecánicas seguidas de un floculador hidráulico de flujo vertical. • FILTRACIÓN A continuación el agua pasa a través de un filtro. El filtro posee una capa de arena y otra de carbón (antracita); es aquí en donde todas las partículas que no se sedimentaron son retenidas por el filtro.El Sistema de filtración está conformado por ocho unidades, intercomunicadas en la salida como en la entrada. Cada filtro posee 32m2 de área filtrante, con lechos dobles de arena y antracita. El drenaje de los filtros es de placas de concreto con boquillas de plástico tipo EIMCO para aplicar aire o agua. • DESINFECCIÓN Es donde se produce la muerte de todas las bacterias que sobrevivieron a los procesos anteriores. En la planta se utiliza al igual que en la de El Cebollar cloro gas para desinfectar el agua. El sistema de desinfección está compuesto de dos dosificadores de cloro gas que tienen una capacidad máxima de 10 Kg/h.

143


• MONITOREOS Los monitoreos son de suma importancia para poder dar un tratamiento adecuado al agua que va a ser potabilizada.En las diferentes estaciones se realiza monitoreos con una frecuencia que varía mensual o trimestral. Las variables físicas, químicas y bacteriológicas estudiadas son: temperatura, pH, DBO5, turbiedad, coliformes, nitratos, fósforo total, sólidos totales y conductividad. Estas variables son utilizadas para el cálculo de las cantidades necesarias de sustancias que se adicionan en el proceso de potabilización. El control de elemento de operación y registro de datos está gobernado por autómatas de lógica programables.El centro de control se encuentra dotado de dos ordenadores, uno de visualización de operaciones, alarmas, introducción de órdenes y visualización del comportamiento de válvulas, compuertas y otros elementos. El segundo con visualización y registro de reservas externas: niveles caudales de ingreso y salida.Se puede notar a simple vista la similitud de tratamiento que recibe el agua que luego es distribuida a la ciudadanía, garantizando de esta forma una alta e igual calidad de agua para toda la ciudad de Cuenca.

144

2.3 PLANTA DE TRATAMIENTO DE AGUA POTABLE DE CULEBRILLAS El rio Culebrillas conocido también como Sayausí es el principal afluente del rio Tomebamba y durante los años 1949 hasta 1970 era la fuente de abastecimiento de la ciudad de Cuenca.La planta de tratamiento Culebrillas alimenta al sistema del mismo nombre, posee una capacidad para ocuparse con un caudal de 150 I/s. La planta sirve a las zonas del Noroccidente de la ciudad de Cuenca que se encuentran a un nivel superior al de la planta de El Cebollar. El agua que es tratada tiene una turbiedad muy baja, un color aparente entre medio y bajo y una alcalinidad moderadamente baja pero suficiente para que se produzcan las reacciones de coagulación. Para estas características de las aguas se emplea una tecnología de filtración directa durante un transcurso del 50 % del tiempo aproximadamente, mientras que para el resto del tiempo se requiere el empleo del tratamiento completo, de manera que la planta de potabilización permite estas doslíneas de tratamiento. El proceso de tratamiento consta de: • MEZCLA RÁPIDAEl ingreso del agua es por medio de una tubería de acero de 12” de diámetro que cuenta con un medidor electromagnético y una válvula de mariposa, que se encuentran en un cajón de hormigón armado con medidas de 2,30 m de largo, 1,85 m de ancho y 2,00 m de altura.Al momento de producirse la mezcla rápida se cumple con un gradiente de velocidad elevado para que se pueda trabajar con coagulación por adsorción neutralización, que es apropiada para Ia filtración directa, y que permite la utilización de coagulación por barrido, consiguiendo así un tratamiento completo.Para la mezcla rápida del coagulante existe un canal inclinado


de 2,00 m de longitud y 1,00 m de desnivel seguido por un canal de fondo horizontal. • FLOCULADORES Se tiene tres floculadores hidráulicos de flujo vertical, los cuales son útiles para un caudal de 50 l/s. Cada floculador está formado por un tanque de 5,70 m de ancho, 5,09 m de largo y una altura variable entre 4,24 m y 4,07 m, que posee un tirante de agua de 3,70 m, en el cual se puede encontrar 7 canales de 0,643 m de ancho. El ancho del tanque se debe para exista una concordancia con los niveles de los sedimentadores. • SEDIMENTADORES Se mantiene tres sedimentadores de flujo laminar poseedores de una capacidad de 50 I/s cada uno. Cada sedimentador cuenta con dos zonas de sedimentación separadas por un canal central a dos niveles, siendo el canal superior el que se encarga de la recolección del agua sedimentada, y, el inferior un múltiple distribuidor de agua. La zona de sedimentación se ha diseñado para trabajar con una taza de 120 m3/ m2/d, para lo que se usa placas de ABS de 1,5 mm de espesor y 1,20 m de ancho, con una separación de 5,0 cm entre las mismas, y teniendo una inclinación de 60°, las mismas que son parte de módulos de sedimentación de 1,20 m de largo, 1,00 m de anche y 1,04 m de alto. El ancho de cadazona de sedimentación es 2,40 m. • FILTRACIÓN La planta de tratamiento cuenta con 6 filtros de antracita y arena, tasa declinante y lavado mutuo. Cada filtro se ha diseñado con un canal lateral de recolección de agua de lavado de 0,60m de ancho, separado del área filtrante por una pared de 0,15 m de espesor; de manera que, haciendo concordar el ancho total do los filtros con el ancho total de las unidades de sedimentación queda un an-

cho del área filtrante de 1,95 m por filtro. Como los bloques requieren de 0,30 m de ancho por hilera para su instalación, se mantiene una longitud de 4,50m por filtro, de manera que el área filtrante es 8,775 m2 y la tasa media de filtración 246,15 m3/ m2/d.Los procesos de potabilización que se realizan en esta planta son exactamente iguales a los que se efectúan en las plantas de Tixán y El Cebollar, por lo que no se han mencionado con más detalle los tratamientos que se llevan a cabo por estar descritos en las plantas de tratamiento antes mencionada. 2.4 PLANTA DE TRATAMIENTO DE AGUA POTABLE DE SUSTAG El crecimiento poblacional obligo a que se construyera un moderno y grande sistema de agua potable, que se ubica en el sector de Sustag a 2.920 metros de altura, el cual se estima que proveerá delíquido vital a la ciudad hasta el 2030. Se trata de la planta más moderna de la provincia que beneficia a las zonas de Baños, Barabón, corredor del Yanuncay, Medio Ejido, Misicata,Narancay, Huizhil, San Miguel de Putushi, SanJoaquín, entre otros. El líquido que ingresa es de color amarillento, trae turbiedad y una alta carga bacteriológica, pero sale limpio y apto para el consumo humano debido a un proceso de potabilización que al igual que en las plantas potabilizadoras antes mencionadas consta de cinco pasos: recepción del agua cruda (río Yanuncay), floculación, sedimentación, filtración y desinfección (procesos ya mencionados). La planta cuenta con un reservorio de 5.000 metros cúbicos. A pesar de que la planta cuenta con el mismo sistema de potabilización que las de Tixán y El Cebollar, se la puede catalogar como la más moderna de la provincia por 145


poseer una central inteligente que cuenta con el programa informático Escada, el cual controla todos los procesos, desde que el agua cruda entra a depuración, hasta que queda lista para el consumo humano, logrando de esta forma una casi nula intervención manual. También la planta se encarga de tratar sus propios lodos, logrando que no sea devuelto al río un solo gramo del material sobrante del proceso de potabilización; otra ventaja del sistema es la de poder maniobrar los equipos a distancia mediante un dispositivo de control remoto. • TRATAMIENTO DE LODOS Nos centraremos en el tratamiento de lodos por ser el rasgo más sobresaliente que posee la planta, el mismo que consiste en un proceso de espesamiento, acondicionamiento, deshidratación y transporte del lodo deshidratado, pues los lodos, proceden de cada uno de los procesos de lavado de las unidades de tratamiento: floculación, sedimentación, filtración y edificio de químicos. Luego los lodos son conducidos a través de sistemas de tuberías a un espesador que consiste en una estructura circular en la cual los lodos son retenidos por un tiempo determinado, produciéndose un proceso de sedimentación hasta alcanzar una concentración de alrededor del 2%, subsiguientemente son bombeados en forma continua hasta un sistema de secado.El lodo espesado y floculado, es vertido en la parte superior del Filtro Banda, el cual mediante un sistema de telas filtrantes comprimen el lodo

146

(exprimen), reducir el contenido de agua en el mismo. Al concluir este proceso el lodo en estado sólido es descargado por el Filtro Banda en una cinta transportadora, la cual se encarga de llevarlo hasta el lugar de disposición final, de donde es evacuado al relleno sanitario. El volumen promedio de lodos tratados en la Planta de Sustag es de 15 m3 por mes. 2.5 SECTOR RURAL En el Cantón Cuenca existe una diversificación de Sistemas de Abastecimiento de Agua con diferentes tipos de tratamiento, las más importantes son Plantas de tipo Convencional o Filtración Múltiple Etapas. Los sistemas para poblaciones y caudales pequeños tienen un tratamiento de Desinfección. En el cantón se tiene registrado 174 proyectos de abastecimiento de Agua distribuidos en las 21 parroquias Rurales de los cuales 19 sistemas tienen más de 500 usuarios; 9 entre 250 a 500 usuarios, 83 sistemas entre 50 y 250 usuarios; y 63 sistemas menores a 50 usuarios. A continuación se describen:


2.5.5 BAÑOS • Número de conexiones actuales = 1680 • Construcción, ETAPA con la mano de obra de la comunidad • Administración, Operación y Mantenimiento del Sistema: Junta de Agua. • Recaudación: Junta de agua.

2.5.1 SIDCAY • Caudal promedio de ingreso a la planta = 9 l/s • Caudal necesarios 12.97 l/s. • Número de conexiones actuales = 1150 • Recaudación: Junta de Agua. 2.5.2 SININCAY • Caudal promedio de ingreso a la planta =22 l/s • Caudal necesarios = 14.4 l/s. • Número de conexiones actuales = 1277 • Recaudación = ETAPA y Junta de Agua. 2.5.3 SAYAUSÍ • Caudal promedio de ingreso a la planta = 11 l/s • Caudal necesario actual 5.28 l/s. • Número de conexiones actuales = 468 • Construcción, ETAPA. 2.5.4 SAN JOAQUÍN • Caudal promedio de ingreso a la planta =16 l/s • Caudal necesarios 12.21 l/s. • Número de conexiones actuales = 1082 • Recaudación: ETAPA.

2.5.6 EL VALLE CENTRO PARROQUIAL • Caudal promedio de Bombeo =16 l/s • Caudal necesarios 16 l/s. • Número de conexiones actuales = 1354 • Recaudación: ETAPA. 2.5.7 CHECA • Caudal promedio de ingreso a la planta =19 l/s • • 750 •

Caudal necesarios 8.5 l/s. Número de conexiones actuales = Recaudación: Comités barriales

3 TRATAMIENTOS DE AGUAS RESIDUALES La Planta de Tratamiento de Aguas Residuales (PTAR) de Ucubamba esla principal instalación de tratamiento en la ciudad de Cuenca, la cual fue concebida en el marco de la Primera Fase de los Planes Maestros 147


de Agua Potable y Alcantarillado de laciudad y puesta en servicio en noviembre de 1999. La Planta de Tratamiento de Aguas Residuales, se encuentra ubicada en la República del Ecuador-Provincia del AzuayCantón Cuenca, al noreste de la Ciudad de Cuenca, en el sector de Ucubamba, en el Km. 8,5 de la Autopista Cuenca – Azogues.El objetivo de la PTAR Ucubamba es interceptar y conducir las aguas residuales que anteriormente eran descargadas en los ríos hacia la PTAR para su posterior depuración, con la finalidad de evitar que se conviertan en fuentes de proliferación de enfermedades que pudieran afectar a la salud de la población de la ciudad y poblaciones aledañas localizadas aguas abajo del lugar en donde son devueltas al medio ambiente. La planta dispone de un proceso dedepuración compuesto por estructuras de tratamientopreliminar y un sistema de lagunas de estabilización en dos líneas, formado por lagunas aeradas primarias, lagunas facultativas secundarias y lagunas de maduración terciarias. El proceso de depuración implica la transformación de sustancias y la acumulación de sólidos existentes en las aguas residuales, en el fondo de las lagunas aeradas y facultativas, lo que ocasiona una pérdida de volumen útil de tratamiento y como resultado una reducción de la eficiencia del sistema. Se estima que la PTRA Ucubamba ampliará su vida útil hasta el año 2030, por lo que se ha previsto la instalación de equipamiento adicional para la inyección de oxígeno en las primeras unidades de tratamiento biológico, lo cual permitirá absorber la carga adicional a ser transportada por los nuevos sistemas de alcantarillado que se construirán en el corto plazo.

148

3.1 CARACTERÍSTICAS DE LA PLANTA 3.1.1 ESTRUCTURAS DE TRATAMIENTO PRELIMINAR

Dentro de las estructuras de tratamiento preliminar están: • Cajón de Llegada - bypass - compuerta de admisión; • Cribas mecánicas autolimpiantes; • Desarenadores Cuadrados de Flujo Horizontal. 3.1.2 CAJÓN DE LLEGADA - BYPASS – COMPUERTA DE ADMISIÓN

La función principal de la estructura de llegada es romper la presión al final del emisario principal y permitir que las aguas residuales rebosenpor el bypass, mediante su cierre total o parcial en épocas de lluvia, períodos de limpieza o mantenimiento; para ello el cajón de llegada, así como el bypass han sido dimensionados para captar y evacuar respectivamente el máximo caudal en tiempo húmedo para el final del período de diseño. Por otra parte, el cajón de llegada tiene una pantalla tranquilizadora la cual disipa la energía con la que llegan las aguas residuales por el Emisario Final.

El cajón de diseño tiene una longitud de 11.6 m, ancho de 5 m, altura de 2.5 m y un espesor de pared de 0.3 m, así como un


caudal de diseño de 3.64 m³/s, el cual es el caudal máximo de diseño del Emisario Final. El caudal máximo horario de aguas residuales en tiempo seco se lo ha podido estimar como 2.27 m³/s, siendo este el máximo admitido para el tratamiento. Para el diseño de las obras de pre- tratamiento se tiene un caudal máximo de 2.50 m³/s. El Vertedero de Bypass tiene por longitud 10 m, de altura = 1.1 m, de ancho del Canal 1.5 m y por diámetro de la Tubería de Descarga = 1000 mm. En el cajón de llegada, se dispone de la compuerta general de admisión que posee una altura y un ancho de 1.30 que garantiza que no ingrese un caudal mayor al de diseño. 3.1.3 CRIBAS MECÁNICAS AUTO LIMPIANTES

El principal objetivo es retener y evacuar desechos sólidos con tamaños mayores a los 20 milímetros, es decir se encarga de evitar que los desechos sólidos muy grandes interfieran con losprocesos biológicos de tratamiento en el sistema de lagunas, para lo cual, tres cribas han sido instaladas yse encuentran en funcionamiento con una capacidad de remoción de 680 l/s cada una, que operan de manera automática/ manual.

3.1.4 DEFLECTORES DE CAUDAL – DESARENADORES – TRANSPORTADOR DE ARENA

Los desarenadores están situados aguas bajo de las cribas, estando conectadas a estasdos unidades mediante canales de conducción, derivación y transición. Retienen y evacuan materiales o partículas de arena con diámetros iguales omayores a 0.2 milímetros de un peso específico igual o mayor a 2.65 convelocidades desedimentación superiores a las de los sólidos orgánicosputrescibles que se encuentran en las aguas residuales. Los desarenadores han sido concebidos para operar con todo el caudal de diseñoaplicado enuna sola unidad de las dos existentes (caso extremo). Cumplen además la función de proteger a los aereadores de la abrasión y del excesivo desgaste, también reducen la formación de depósitos de material inerte en las lagunas disminuyendo la frecuencia de limpieza.

Los deflectores de caudal tienen por objeto reducir la velocidad de ingreso de las aguas residuales a los desarenadores, así como de orientar el sentido de flujo. El desarenador tiene un ancho y un largo de 10 m, una profundidad de 1.45 m y su operación se la realiza de manera automática/ local con la ayuda de un tablero de control. El trasportador de arena tiene un diámetro 149


de 200 mm, una longitud de 10 m, remueve diariamente 10 m³/día de arena (cubierta con cal para evitar olores) 3.1.5 LAGUNAS AERADAS Una vez concluido el tratamiento preliminar, las aguas residuales son transportadas hacia las lagunas aeradas, que constituyen las primeras unidades de tratamiento biológico y se encargan de asimilar materia orgánica soluble en un período de retención relativamente corto, pero a la vez suficiente para evitar la sobrecarga de la siguiente unidad, manteniendo condiciones aeróbicas, para la asimilación del material soluble en biomasa, dando lugar de esta manera a la separación de sólidos y reducción de la carga orgánica hasta los niveles previstos y reduciendo el conteo bacteriano en la medida de su capacidad. Las lagunas poseen un área de 6 Ha, con una profundidad de 4.5 m y un volumen de 135.000 m³ para cada una de las lagunas, siendo estas dos en paralelo. Existe un total de 10 aereadores en cada laguna, con una potencia de 75 Hp y una velocidad de rotación de 1750 rpm, que son controlados por un sistema de controles eléctricos y de un tablero.

Los taludes de las lagunas tienen una inclinación de 2:1, están recubiertos con hormigón lanzado con armadura metálica, con mezcla asfáltica en las juntas de las losetas para evitar infiltraciones y el crecimien150

to de vegetación. El fondo de las lagunas se encuentra impermeabilizado con arcilla compactada. Los anclajes utilizados para los aereadores están empotrados en los diques.El ingreso de las aguas residuales hacia las lagunas se lo realiza por unatubería de 1 m de diámetro la misma que se encuentra sumergida, y, su posterior salida se realiza por unvertedero rectangular de 10 m de longitud, que tiene unacompuerta giratoria para la variación de niveles, compuesta de una galeríarecolectora y un cajón de carga para la conducciónmediante tubería hacia lasiguiente unidad de tratamiento. 3.1.6 LAGUNAS FACULTATIVAS Las lagunas facultativas almacenan y asimilan los desechos biológicamente tratados en las aeradas manteniendo un límite adecuado de carga orgánica y balance de oxígeno, que permita sustentar una biomasa de algas unicelularesen la parte superior de la laguna, provocando condiciones adecuadas de mortalidad bacteriana y asegurando así unaremoción eficaz de nematodos intestinales. La forma de construcción de las lagunas, su recubrimiento, impermeabilización, control, censores de oxígeno, entrada, salida y estructura son idénticas a las de las lagunas aeradas, diferenciándose únicamente en poseer 13 Ha de área, 2 m de profundidad y 260.000 m³ cada laguna


3.1.7 LAGUNAS DE MADURACIÓN Estas unidades se encuentran en tercer lugar en la serie, a estas unidades no llegansólidos biológicos distintos de algas unicelulares por lo que usualmente no acumulanlodos. En las lagunas de maduración se presentan las condiciones adecuadas de balance de oxígeno, permitiéndose la sustentación de una biomasa adecuada de algas unicelulares en la parte superior de la laguna, lo cual presenta las condiciones adecuadas para la mortalidad bacteriana, y, asegurando la definitiva y adecuada remoción de nematodos intestinales. En definitiva, se elimina la contaminación remanente de los procesos anteriores.La estructura de los taludes en su forma y modo de construcción es idéntica a las lagunas anteriores, a diferencia de las medidas, pues poseen un área de 7.4 Ha la superior y 5.6 Ha la inferior, un volumen 148000 m³ la superior y de 112000 m³ la inferior y una profundidad de 2 m ambas lagunas. El ingreso de las aguas residuales hacia las lagunas se lo realiza por medio de una tubería de 0.90 m.La estructura de salida de las aguas residuales está constituida por unvertedero rectangular de 10 m de longitud, disponiéndose además de una compuerta giratoria para la variación de niveles, así como de una galería recolectora y un cajón de carga para la conducción de las aguas residuales tratadas hacia el río Cuenca. Los lodos restantes son sometidos a un proceso para su correcto tratamiento y eliminación de bacterias que se quedan en los mismos, para su posterior desecho, de manera que no contaminen el medio. 4 CONCLUSIONES El sistema actual de tratamiento de aguas residuales y potabilización del agua de la ciudad de Cuenca se encuentra al día con

los procesos mundiales de purificación y distribución del agua, pues garantiza a los consumidores el hecho de poder beber un agua que no afectará su salud, sino que contribuirá a mejorarla, así mismo al devolver el agua ocupada por la población hacia la naturaleza, se cumple con la conciencia ambiental que debe imperar en todo ser humano al tratar de regresar un agua purificada en la medida de lo posible, la misma que una vez reinstaurada al medio no lo dañe total, sino que contribuya a continuar con el ciclo natural del ecosistema. Lamentablemente el agua de Cuenca no tiene mucha aceptación entre los cuencanos, debido a que no es consumida en la medida con que se la debería utilizar para beberla, es muy triste observar que se prefiere tomar agua embotellada a consumir el “agua de la llave”, aun cuando el “agua de la llave” ha pasado por un proceso de purificación más exhaustivo y es considerada de mejor calidad que la embotellada. La ciudadanía debería tomar consciencia de la calidad de agua que tenemos en nuestras manos, y usarla de la manera adecuada, sin desperdiciarla y prefiriéndola sobre todo otro tipo de agua, el agua de Cuenca ostenta el título de ser la mejor de Latinoamérica, y superar la calidad de agua de muchos países de Europa. 5 REFERENCIAS [1] PLANES MAESTROS DE AGUA POTABLE Y SANEAMIENTO PARA CUENCA [2] EMPRESA PÚBLICA MUNICIPAL DE TELECOMUNICACIONES, AGUA POTABLE, ALCANTARILLADO Y SANEAMIENTO DE CUENCA [3] INGENIERÍA DE AGUAS RESIDUALES; VOL. 1; 3RA EDICIÓN; ÁNGEL CAJIGAS [4] http://www.tlaxcala.gob.mx/plan/72.html

151


CONTAMINACIÓN DIFUSA PRODUCIDA POR ACTIVIDADES AGRÍCOLAS Juan Pablo Ávila Paola Reinoso Sandra Zambrano

Estudiantes de Ingeniería Civil RESUMEN Podemos notar que hoy en día con la creciente población mundial las necesidades del ser humano se incrementan a gran escala, entre dichas necesidades existe una de vital importancia para el desarrollo de la población como lo es la alimentación. Esta gran demanda de alimentos ha llevado a desarrollar técnicas y tecnologías que permitan mejorar en cantidad y calidad la producción alimenticia. Sin embargo, el desarrollo de estas nuevas técnicas y tecnologías no solo ha generado grandes beneficios al hombre sino que también ha causado un gran incremento en el problema de la contaminación generando una degradación en el medio ambiente y en la salud pública. En la agricultura, para aumentar y acelerar la producción se han introducido productos químicos como plaguicidas y fertilizantes, muchos de ellos con grandes repercusiones a las fuentes de agua modificando los ecosistemas y deteriorando la calidad del agua de uso humano. En algunos países ya existe una normativa de control, sin embargo en la mayoría de países no existe ningún tipo de normativas que controlen los límites de descarga, y cabe recalcar que la agricultura es una de las pocas actividades donde se descargan deliberadamente en el medio ambiente productos químicos para acabar con algunas formas de vida.

152

PALABRAS CLAVE: producción alimenticia, desarrollo de técnicas, desarrollo de tecnologías, degradación del medio ambiente, degradación de la salud pública, plaguicidas, fertilizantes. ABSTRACT: We can realize that today with the world’s growing population, human needs increase on a large scale, among these needs there is one very important for the development of the population such as feeding. This huge demand for food has led to develop techniques and technologies to improve the quality and quantity of the food production. However, the development of these new techniques and technologies has not only generated great benefits to mankind but has also caused a great increase in the pollution problem, causing degradation in the environment and in the public health. In agriculture, to increase and accelerate the production, have been made chemicals such as pesticides and fertilizers, many of these with great implications for water supplies that deteriorate ecosystems and change the water quality for human use. In some countries there is a control law, though in most countries there are not any regulations that make a control of the discharge limits, and it should be noted that agriculture is one of the few activities in which chemicals are deliberately discharged into the environment to destroying many form of life.


KEYS WORDS: food production, techniques’ development, technologies’ development, degradation in the environment, degradation in the public health, pesticides, fertilizers. INTRODUCCIÓN Cada día la población mundial crece, aumentando las necesidades alimentarias y para atender las mismas se ha generado una agricultura intensiva, que ha alcanzado muchos logros socioeconómicos, pero como contrapartida han creado un importante impacto ambiental como la contaminación de carácter difuso que es un tipo de contaminación muy compleja de tratar. Las actividades agrícolas incluyen normalmente la utilización de fertilizantes y plaguicidas, el mal uso y el exceso de los mismos han originado que sus componentes como el nitrógeno, potasio, fósforo, etc. se queden en los suelos en altas concentraciones y con la ayuda de las precipitaciones atmosféricas y riego, se infiltren hasta alcanzar las aguas superficiales y subterráneas, modificando la calidad de las mismas. Esta alteración de la calidad aguas se convierte en un importante problema ya que estas se utilizan como fuentes para consumo humano, y al ser ingeridas atentan contra la salud de la población. Otro problema es la alteración de los cuerpos acuáticos provocando cambios en la flora y fauna existente en los mismos. Por lo general, el principal centro de atención en relación a la contaminación del agua era la directa o puntual; sin embargo, actualmente existe una creciente preocupación por la contaminación difusa, causada por la actividad agrícola intensiva. La contaminación difusa puede ser definida como la introducción de contaminantes a un curso de agua superficial o sistema de agua subterráneo, a través de vías indi-

rectas, como el lavado de contaminantes a través del suelo, o desde fuentes que no es posible establecer con exactitud en un lugar o sitio específico. La contaminación por fuente difusa es difícil de controlar porque los causantes de ella no pueden ser controlados. La contaminación difusa puede ser continua o intermitente, siendo esta última la más común debido a que está relacionada con actividades estacionales propias de la agricultura, como la época de fertilización o de aplicación de pesticidas. La contaminación difusa resulta de un efecto acumulativo que es producto de pequeños aportes individuales realizados desde sitios diversos, que terminan afectando los cuerpos de agua de una cuenca hidrográfica y las aguas subterráneas. En los cuerpos de agua, el exceso de nutrientes, como el nitrógeno y el fósforo, conduce a una degradación de la calidad del agua conocida como eutrofización, que se acompaña de un aumento de biomasa, provocando una mayor turbiedad y escasez de oxígeno. Los principales cambios provocados en las fuentes de agua están relacionados con: (I) un incremento significativo en la concentración de nutrientes (especialmente nitrógeno y fósforo), que aceleran el proceso de eutrofización. (II) presencia de residuos de plaguicidas adheridos a partículas sólidas. (III) Aumento significativo de la carga de sólidos en suspensión, que aumenta la turbidez del agua; y, (IV) reducción significativa del oxígeno disuelto. 1) INSUMOS CONTAMINANTES: se considera a los pesticidas, fertilizantes y 153


herbicidas como principales insumos con potencial de alteración del ambiente. 2) CARACTERIZACIÓN DE LA AGRICULTURA: el área potencialmente afectada por estos insumos dependerá del porcentaje de área agrícola que se ubica en cada una de las cuencas. 3) MOVILIDAD DE CONTAMINANTES: el transporte de los contaminantes en las áreas agrícolas dependerá de la pendiente (a mayor pendiente hay más posibilidad de escorrentía), la textura del suelo (más gruesa puede provocar mayor movilidad) y precipitación (mayor precipitación implica más probabilidad de lavado de suelos). CONTAMINACIÓN POR PLAGUICIDAS Los plaguicidas son todos los productos químicos utilizados para destruir las plagas o controlarlas. En la agricultura, se utilizan herbicidas, insecticidas, fungicidas, nematocidas y rodenticidas. Los plaguicidas son sustancias muy útiles para la lucha contra plagas especialmente en lugares donde se practica el monocultivo intensivo; sin embargo, al ser sustancias químicas les acompaña también una serie de perjuicios, incluso tan graves que se consideran una amenaza a largo plazo de importante ecosistemas que conducen a la pérdida de biodiversidad y que tienen consecuencias importantes en la salud humana. Como la carga ambiental de productos químicos tóxicos está formada por compuestos tanto agrícolas como no agrícolas, es difícil separar los efectos ecológicos y sanitarios de los plaguicidas y los debidos a compuestos industriales que se liberan en el medio ambiente. Sin embargo, existen pruebas abrumadoras de que el uso agrícola de los plaguicidas tiene importantes 154

efectos en la calidad del agua y provoca serias consecuencias ambientales. Los efectos de los plaguicidas en la calidad del agua están asociados a los siguientes factores: • Ingrediente activo en la formulación de los plaguicidas. • Contaminantes que existen como impurezas en el ingrediente activo. • Aditivos que se mezclan con el ingrediente activo (humectantes, diluyentes o solventes, aprestos, adhesivos, soluciones reguladoras, conservantes y emulsionantes). • Producto degradado que se forma durante la degradación química, microbiana o fotoquímica del ingrediente activo. Los plaguicidas se utilizan también abundantemente en la silvicultura. Como por ejemplo, los insecticidas se aplican con frecuencia en grandes superficies mediante pulverizaciones aéreas. La agricultura de regadío, especialmente, en medios tropicales y subtropicales, requiere normalmente la modificación del régimen hidrológico, lo que a su vez crea un hábitat que favorable para la reproducción de insectos, como los mosquitos, causantes de una gran variedad de enfermedades. Además de los plaguicidas utilizados en dicha actividad, para la lucha contra las enfermedades trasmitidas por mosquitos puede ser necesaria la aplicación adicional de insecticidas, como el DDT, que tienen graves y varias consecuencias ecológicas. El desarrollo de los plaguicidas va desde plaguicidas altamente tóxicos, persistentes y bio-acumulativos, como el DDT, hasta plaguicidas que se degradan rápidamente en el medio ambiente y son menos tóxicos para los organismos a quienes no están destinados. Lo que ha provocado que diversos países desarrollados prohíban mu-


chos de los plaguicidas antiguos debido a sus efectos tóxicos potenciales sobre el ser humano y sus impactos negativos sobre los ecosistemas y han aprobado el uso de plaguicidas modernos que no sean tan dañinos al ecosistema y a la salud pública. En cambio, en los países en desarrollo, algunos de los plaguicidas más antiguos continúan siendo los más baratos de producir y, continúan siendo muy eficaces, por ejemplo, el DDT para la lucha contra la malaria; por razones de costo y eficacia, no pueden prohibir algunos de los plaguicidas antiguos. Lo que crea un dilema de alcance mundial entre costo/eficacia e impactos ecológicos y el acceso a las formulaciones de plaguicidas modernos con bajo costo. Como consecuencia del trasporte atmosférico, además de los efectos en los países de aplicación, existen consecuencias a larga distancia en lugares muy alejados. Como por ejemplo, plaguicidas prohibidos en países desarrollados (como el DDt, toxafeno,etc) han sido encontrados en la zona ártica. Debido a esta situación y al deterioro ambiental que causan muchos países han solicitado la aprobación de una convención mundial sobre los contaminantes orgánicos persistentes (COP), que son en su mayor parte compuestos clorados con altos niveles de toxicidad, muy persistentes y bioacumulativos. FACTORES QUE INFLUYEN EN LA TOXICIDAD DE LOS PLAGUICIDAS EN LOS SISTEMAS ACUÁTICOS Los efectos ecológicos de los plaguicidas en el agua están determinados por los siguientes criterios: • Toxicidad: La respuesta tóxica (efecto) puede ser aguda (muerte) o crónica (efecto que quizá no provoque la muerte durante el período de prueba pero cause en el organismo sometido a prueba efectos

observables, como cánceres y tumores, deficiencias reproductivas, inhibición del crecimiento, efectos teratogénicos, etc.). • Persistencia: es el tiempo que permanece el plaguicida en el suelo manteniendo su actividad biológica. Las consecuencias de la persistencia puede ser muy importantes, dependiendo de la toxicidad del plaguicida y de su biodisponibilidad. • Productos degradados: El proceso de degradación puede llevar a la formación de “productos degradados”, cuya toxicidad puede ser mayor, igual o menor que la del compuesto original. Por ejemplo, el DDT se degrada en DDD y DDE. • Destino (ambiental): comprende la determinación de los siguientes aspectos: coeficiente de absorción del suelo, solubilidad, entre otros. Estos parámetros son bien conocidos en el caso de los plaguicidas y se utilizan para prever su evolución ambiental. Efectos de los plaguicidas en la salud humana Se vincula los efectos de los plaguicidas al “nivel de morbilidad oncológica (cáncer), pulmonar y hematológica, así como a las deformidades congénitas y deficiencias del sistema inmunitario”. Los efectos en la salud humana son provocados por los siguientes medios: • Contacto a través de la piel: manipulación de productos plaguicidas • Inhalación: respiración de polvo o pulverizaciones • Ingestión plaguicidas consumidos como contaminantes en los alimentos o en el agua. Efectos ecológicos de los plaguicidas Los plaguicidas se incluyen en una gran variedad de micro-contaminantes orgáni155


cos que tienen efectos ecológicos. Aunque los plaguicidas tienen, sin duda, efectos en la superficie terrestre, el principal medio de daños ecológicos es el agua contaminada por la escorrentía de los plaguicidas. Los dos mecanismos más importantes son: la bioconcentración y la bioampliación.

Según estudios realizados en Suecia, la aplicación de plaguicidas es uno de los factores que más influyen en la biodiversidad. Además afectan a la fertilidad de los suelos. En esos estudios se indica también que los plaguicidas intervienen negativamente en la estructura del suelo.

Bioconcentración: Algunos plaguicidas, como el DDT, son solubles y se acumulan en el tejido graso, como el tejido comestible de los peces y el tejido graso humano. Otros plaguicidas, como el glifosato, se metabolizan y eliminan a través de las excreciones.

Degradación de los plaguicidas en el suelo: Muchos plaguicidas se disipan rápidamente en los suelos. Algunos productos químicos se descomponen muy rápidamente en el suelo, mientras que otros resisten durante más tiempo.

Bioampliación: En la medida en que los organismos pequeños son devorados por los mayores, la concentración de plaguicidas y otros productos químicos se amplía de forma considerable en el tejido y en otros órganos. Por lo que se observa concentraciones muy elevadas en los depredadores que se encuentran en el cúspide de la cadena alimenticia, incluido el ser humano. Se debe considerar que los efectos producidos en los organismos y en el medio ambiente son una advertencia de las posibles consecuencias en la salud humana. Muchos de estos efectos son crónicos (no letales), pasan con frecuencia desapercibidos al observador superficial y, sin embargo, tienen consecuencia en toda la cadena trófica. Esos efectos son los siguientes: • Muerte del organismo. • Cánceres, tumores y lesiones en peces y animales. • Inhibición o fracaso reproductivo. • Supresión del sistema inmunitario. • Perturbación del sistema endocrino (hormonal). • Daños celulares y en el ADN. • Efectos teratogénicos (deformidades físicas, como las que se observan en el pico de algunas aves).

Proceso de metabolismo: El metabolismo de los plaguicidas en los animales es un mecanismo importante. En el organismo, el producto químico se transforma en una forma menos tóxica y o bien se elimina mediante las excreciones o se almacena en el organismo. Pueden verse afectados en este proceso diferentes órganos, en especial el hígado, según cuál sea el producto químico.

156

CONTAMINACION POR FERTILIZANTES Las plantas toman sus alimentos a partir de elementos químicos. Existen 60 elementos químicos que constituyen las plantas, entre los cuales 16 son esenciales, los cuales a su vez se pueden clasificar de acuerdo al cuadro siguiente:


Los macronutrientes secundarios existen en la naturaleza en cantidades suficientes para los requerimientos habituales de las plantas y, por lo general, no se presentan deficiencias de éstos. Los macronutrientes primarios vienen contenidos en los fertilizantes, cada uno por separado o mezclados. De esto se deriva una situación que genera problemas ya que el uso excesivo de dichos nutrientes pasa a ser un contaminante del suelo, en lugar de cumplir una función beneficiosa, la de aumentar el rendimiento de las cosechas. A continuación se describe cada uno de los macronutrientes primarios: •

Nitrógeno

El nitrógeno es un elemento fundamental para el crecimiento de las plantas, ya que es un nutriente esencial que debe encontrarse en el suelo en determinadas cantidades para obtener un desarrollo óptimo de los cultivos, Es absorbido por las raíces generalmente bajo las formas de nitrato (NO3-) y amonio (NH4+). El contenido de nitrógeno en los suelos varía en un amplio rango, pero valores normales para la capa arable son del 2 al 7%. Estos porcentajes tienden a disminuir con la profundidad y tiende a incrementarse al disminuir la temperatura de los suelos, al aumentar las precipitaciones atmosféricas y aumento del riego. La mayor parte del nitrógeno en el suelo está en la materia orgánica que está producida por residuos de animales, por la descomposición de residuos de los cultivos, raíces, por microorganismos y fauna del suelo. Sin embargo, el exceso de fertilizantes nitrogenados ha elevado los niveles de nitratos en los suelos. El peligro de estos elevados niveles de nitratos en el suelo radica en su elevada solubilidad, ya que por lixiviación pueden incorporarse a

las aguas subterráneas o bien ser arrastradas hacia los causes y reservorios superficiales. Una vez incorporado los nitratos a los ríos, lagos, estuarios, embalses, etc. actúan de fertilizantes de la vegetación acuática, de tal manera que, si se concentran, puede originarse la eutrofización del medio. En un medio eutrofizado, se produce la proliferación de especies como algas y otras plantas verdes que cubren la superficie. Esto trae como consecuencia un elevado consumo de oxígeno y su reducción en el medio acuático, así mismo dificulta la incidencia de la radiación solar por debajo de la superficie. Estos dos fenómenos producen una disminución de la capacidad auto depuradora del medio y una disminución en la capacidad fotosintética de los organismos acuáticos, causando que el agua tenga olor, color, sabor, de esta forma, si ésta agua está destinada como fuente para consumo humano requerirá de sistemas de tratamiento muy sofisticados. De forma similar, los nitratos que se incorporan a los acuíferos subterráneos, crean graves problemas de salud, ya que si se consume agua rica en nitratos, debido a su transformación en nitritos por participación de unas bacterias existentes en el estómago y vejiga urinaria, se transforman en ciertos compuestos cancerígenos, que afectan al estómago e hígado. En la población infantil puede causar problemas de salud como el Síndrome del niño azul, al dificultar el transporte de oxígeno a la sangre. •

Fósforo

El fósforo es el segundo elemento químico más importante para el crecimiento de las plantas, después del nitrógeno. La falta de este elemento puede causar que otros elementos no sean absorbidos. El uso de abonos fosfatados produce efectos secundarios, tales como: 157


• Aporte de nutrientes además del fósforo, tales como calcio, magnesio, manganeso y también sustancias inútiles para la actividad agrícola, como lo son el sodio y la sílice. • Variación del PH del suelo. • Aporte de sustancias que mejoran la estructura del suelo como la cal y el yeso. Impacto ambiental producido por los abonos fosfatados: El problema ambiental que presentan los fosfatos es el mismo que presentan los nitratos, la eutrofización del agua. Además, los fosfatos son la mayor fuente de contaminación de los lagos y las corrientes superficiales, generando con sus altos niveles, el crecimiento de algas y maleza. La contaminación por fosfatos también esta presente en los fertilizantes para césped y jardín. Debido al desconocimiento que existe entre nosotros acerca de este tipo de contaminación, generado por los fosfatos, ciertas personas contribuyen con dicha contaminación. Pero de acuerdo a ciertas investigaciones, se afirma que los fertilizantes que poseen fosfatos no contaminan siempre y cuando se los use de manera adecuada. •

Potasio

Tomando en cuenta la disponibilidad de potasio en los suelos, se lo puede clasificar en dos grupos: • Potasio cambiable o asimilable: Este puede ser absorbido rápidamente por las raíces de las plantas. • Potasio no cambiable: Esta presente de manera fija en el interior de las arcillas, en forma no cambiable, y que se libera cuando el potasio cambiable se agota. Los efectos secundarios, producidos por 158

los excesos de fertilizantes potásicos, pueden ser: • Impurezas en forma de aniones • Impurezas en forma de cationes • Efecto salinizante, generalmente los cloruros. Contaminación por Fertilizantes Azufrados, Cálcicos y de Magnesio (Macronutrientes Secundarios): •

El magnesio

Los efectos secundarios de los abonos magnésicos, son de poca importancia. Se debe especialmente evitar que se apliquen grandes cantidades de éste a las plantas sensibles al cloro. •

El calcio

Se utiliza para enmiendas para mejorar la estructura del suelo, más que como fertilizante y para elevar el pH. •

El azufre

Tiene varios efectos: • Efecto tóxico del SO2 sobre las plantas. • Efecto acidificante del SO2 en la lluvia ácida. Con lo que se acidifica el suelo. • Efectos sobre los suelos que son normalmente deficientes en S. Contaminación por guano de animales •

Materia orgánica

La materia orgánica es el principal elemento de la contaminación fecal, por lo que su presencia o ausencia es uno de los mejores indicadores de la existencia de dicha contaminación. Es fácilmente detectable y cuantificable en un laboratorio.


Amonio

Es el principal indicador químico de contaminación fecal, pues el cuerpo los expulsa en esta forma, lo que supone que indica una contaminación reciente. •

Nitritos

Son indicadores de contaminación fecal a medio y corto plazo, ya que desde que se produce la contaminación hasta que aparecen los nitritos debe pasar un tiempo relativamente corto. •

Nitratos

Se consideran como indicadores de contaminación fecal a largo plazo, debido a que es el estado más oxidado del amonio, y por ello se piensa que un agua con nitratos es un agua que fue contaminada hace algún tiempo y que no se ha repetido la contaminación. CONCLUSIÓN: En el planeta el problema medioambiental no solamente es causado por liberación de gases provocados por industrias o vehículos, sino que también existe un gran deterioro del medio debido a la agricultura.

La contaminación causada por la actividad agrícola crea una gran preocupación en el mundo, debido a la falta de normativa en algunos países. El debate se genera en torno al transporte atmosférico, dado que los efectos que causan los plaguicidas y fertilizantes no solo se dan en el país de aplicación, sino también en lugares muy alejados. La discusión abarca también el gran inconveniente de la contaminación de fuentes de agua superficial y subterránea, debido a la infiltración de componentes químicos a los suelos. Ya que la mayor parte de dichas fuentes son utilizadas para consumo humano provocando deterioro en la salud humana, como problemas cancerígenos y malformaciones hasta alcanzar incluso la muerte. BIBLIOGRAFÍA Internet: • http://www2.ine.gob.mx/publicaciones/libros/639/contaminacion.pdf • http://edafologia.ugr.es/conta/tema14/potasio.htm • http://fgonzalesh.blogspot.com/2011/01/ contaminacion-por-fertilizantes-un.html • http://www.miliarium.com/Proyectos/SuelosContaminados/Manuales/Contaminacionfertilizantes.asp#4 Potasio • h t t p : / / w w w. f a o . o r g / d o c r e p / W 2 5 9 8 S / W2598S00.htm

159


RELLENO SANITARIO DE PICHACAY Paúl Galarza Byron Parra Pablo Vásquez

Estudiantes Ingeniería Civil

RESUMEN Desde sus inicios hasta en la actualidad, la mayoría de la gente desconoce qué es lo que sucede con los desechos sólidos que se generan en cada uno de sus hogares, llegando a tener un concepto erróneo a tal punto de confundir un relleno sanitario con un botadero de basura. En este documento tratamos de poner en manifiesto todas las actividades y procesos que están ligados al tratamiento de estos desechos, dando a conocer desde cómo se realiza la construcción de un relleno sanitario hasta el tratamiento de los lixiviados, desde un punto de vista técnico tanto en los campos de la ingeniería civil como en las ramas vinculadas a la protección del medio ambiente. Palabras Clave: relleno sanitario, lixiviados, desechos sólidos, compactación de desechos, drenajes, chimeneas, biogás. ABSTRACT From the beginning until now, people do not know what happens to solid waste generated in each of their homes, having a misconception to the point of confusing a landfill with a dumpster. With the present document we try to explain all activities and processes that are linked to these waste treatments, explaining about the construction of a landfill to the treatment of garba160

ge leachate, from a technical point of view both the fields of civil engineering and in the fields related to environmental protection. Keywords: landfill leachate, solid waste, waste compaction, drainage, fireplaces, biogas 1. INTRODUCCIÓN En la ciudad de Cuenca a 21km del casco urbano en la parroquia Santa Ana, se encuentra desde el año 2001 el Complejo de Desarrollo Humano y Ambiental de Cuenca, que tiene alrededor de 123 hectáreas, donde en la actualidad, aproximadamente 430 toneladas de desechos sólidos son procesados diariamente y con una vida útil de 20 años[1]. El tipo de basura que llega hasta este complejo consta de un 65% de desechos domésticos, un 15-20% de desechos industriales y el resto es proveniente de otros sectores. El correcto manejo de los desechos sólidos es un aspecto muy importante que se debe tomar en cuenta para un buen desarrollo de una ciudad, ya que detrás de esto se encuentran un sinnúmero de actividades y procesos técnicos que involucran diversas áreas de conocimiento, entre ellas la ingeniería civil, ya que un relleno sanitario es la construcción de una obra civil, donde existen aspectos técnicos tales como: la hi-


dráulica, la ingeniería sanitaria, el manejo de lixiviados es decir la construcción misma de la obra.

a) El relleno sanitario debe ubicarse a una distancia no menor de 13 Km. de los límites de un aeropuerto o pista de aterrizaje.

2. DESARROLLO

b) No debe ubicarse en zonas donde se ocasione daños a los recursos hídricos (aguas superficiales y subterráneas, fuentes termales o medicinales), a la flora, fauna, zonas agrícolas ni a otros elementos del paisaje natural. Tampoco se deben escoger áreas donde se afecten bienes culturales (monumentos históricos, ruinas arqueológicas, etc.).

2.1. CONSTRUCCIÓN DEL RELLENO SANITARIO

El relleno sanitario es una técnica para la disposición de los desechos sólidos en el suelo sin causar perjuicio al medio ambiente y sin causar molestia o peligro para la salud y seguridad pública. Este método utiliza principios de ingeniería para confinar los desechos sólidos en un área la menor posible, reduciendo su volumen al mínimo aplicable, y luego cubriendo los desechos sólidos depositados con una capa de tierra con la frecuencia necesaria, por lo menos al fin de cada jornada. Desde Punto de vista estructural, se deben tomar en cuenta aspectos como el estudio del suelo donde se va a cimentar el relleno sanitario, las condiciones de drenaje, estabilidades de taludes, compactación del terreno, régimen hidrológico, topografía, entre otros. Desde el punto de vista social, hay que tratar de llegar a un acuerdo con la población local, de manera de tener su apoyo para sí obtener un beneficio mutuo. 2.2.

LA PARTE ESTRUCTURAL

2.2.1. UBICACIÓN

En lo que se refiere al área técnica para la ubicación del relleno sanitario se deben tomar en cuenta ciertas características geográficas del lugar donde se pretenda instalar la obra. Según el Texto Unificado de Legislación Ambiental Secundaria (TULAS), en lo que concierne a la ubicación de un relleno sanitario se deben cumplir con varios parámetros entre estos:

c) El relleno sanitario deberá estar ubicado a una distancia mínima de 200 m de la fuente superficial más próxima. d) Para la ubicación del relleno no deben escogerse zonas que presenten fallas geológicas, lugares inestables, cauces de quebradas, zonas propensas a deslaves, a agrietamientos, desprendimientos, inundaciones, etc., que pongan en riesgo la seguridad del personal o la operación del relleno. f) El relleno sanitario debe estar cerca de vías de fácil acceso para las unidades de recolección y transporte de los desechos sólidos. g) El lugar seleccionado para el relleno sanitario debe contar con suficiente material de cobertura, de fácil extracción. i) Se deberá estimar un tiempo de vida útil del relleno sanitario de por lo menos 10 años. [2] Respecto a la topografía, podemos decir que es un factor muy importante, ya que de esto depende la cantidad de tierra disponible para cubrir a los desechos, así como facilitar el drenaje de los lixiviados aprovechando el gradiente del terreno. 161


Por ejemplo, en las regiones planas, el movimiento de tierras es muy limitado debido a que se deben realizar excavaciones muy profundas para obtener pendientes adecuadas para el drenaje de los lixiviados, además del costo adicional que implica el sistema de bombeo de estos líquidos. Sin embargo, en el relleno sanitario de Cuenca se aprovecha la morfología de la zona, colocando las piscinas de los lixiviados en la parte más baja del terreno, para que estos salgan por acción de la gravedad. Con respecto a la hidrología del sector, cabe recalcar que la localización del sitio para la implementación de esta obra, debe ser un lugar en donde no exista un registro de precipitaciones alto, debido a que el agua lluvia genera mayor cantidad de lixiviados.

2.2.3. DRENAJES

2.2.2. IMPERMEABILIZACION DEL SUELO

La permeabilidad de los suelos deberá ser igual o menor que 1 x 10-7 cm/seg; si es mayor se deberá usar otras alternativas impermeabilizantes. [2] En el caso del relleno de Pichacay se emplea un sistema de impermeabilización mixta, que consta de dos partes: • Una capa de arcilla de 20cm de espesor compactada (mínimo 90% de prueba Proctor estándar). • Una geomembrana de polietileno de alta densidad de 1mm de espesor que posee una elongación de hasta el 200%. Estas membranas son unidas mediante un proceso de termo sellado, de manera que cubre toda la capa del suelo. Cabe recalcar que después de la compactación de la arcilla, el suelo ya cumple con la impermeabilidad requerida según la normativa, sin embargo como un factor de protección adicional se usa la geomembrana, ayudando a que los lixiviados no ingresen al suelo. 162

Figura1 y 2. Construcción de los drenajes del relleno sanitario de Pichacay

Los drenajes cumplen una función indispensable en el proceso de conducción de los lixiviados, estos recogen los fluidos a través de una serie de drenes en forma de espina de pez, es decir un dren central principal en el cual desembocan los drenes transversales secundarios que se construyen con su pendiente respectiva para que estos fluidos sean transportados a las piscinas de almacenamiento.


Figura 3. Representación Gráfica de un Drenaje Central de Lixiviados

Los drenes de lixiviados son estructuras rectangulares construidas con piedra redondeada que cubren a una tubería perforada de 160mm de diámetro y encima de todo esto se coloca una capa de geotextil no tejido de 0.25mm con una permeabilidad de 45x10-2cm/seg, la cual funciona como un filtro, permitiendo únicamente el paso de los líquidos y evitando así posibles obstrucciones. [3]

chimeneas, que no son más que ductos para la salida del biogás constituidos por una estructura de madera, malla, y piedra de río que en su interior contienen un tubo de polietileno de 200mm de diámetro, por las cuales se expulsa el gas producto de la descomposición de la basura. [4]

La tubería utilizada es de PVC, la cual tiene 1MPa de resistencia para soportar así las grandes presiones producto del peso tanto de los desechos como de la maquinaria. Deben además ser resistentes a las altas temperaturas del interior así como a las características corrosivas de los lixiviados. El volumen de almacenamiento promedio de los lixiviados es de 120m³/día, teniendo en verano alrededor de 20 m³/día y en invierno 150m³/día, los cuales se almacenan en piscinas de ferrocemento para después ser transportados en tanqueros de3500 galones hacia las lagunas de oxigenación de ETAPA EP para su tratamiento. 2.2.4. CHIMENEAS Desde el inicio de la compactación del suelo base se empiezan a colocar las 163


biogás, el cual tiene un potencial energético de 1.5 a 2 MWts, suficiente para dotar de electricidad a las familias aledañas, recibiendo además una retribución económica por evitar la contaminación con este gas tan nocivo para el ambiente, debido al tratado de Kioto. 2.3.

Figura 4 y 5. Construcción de chimeneas.

El biogás está compuesto esencialmente de gas metano (CH4), dióxido de carbono (CO2) y aproximadamente un 1% de sulfuro de hidrógeno (H2S) el cual por su alto contenido de CH4 es 21 veces más perjudicial para el efecto invernadero que el CO2, razón por la cual es incinerado.

Figura 6. Incineración de biogás CH4+2O2→ CO2+2H2 O

Con esta reacción química se explica el proceso de combustión del gas metano para producir el CO2 y el vapor de agua logrando así que el efecto contaminante se reduzca considerablemente. Se está planificando la implementación de un sistema para el aprovechamiento del 164

COMPACTACION DE DESECHOS

El relleno sanitario de Pichacay está concebido en tres etapas, actualmente se encuentra en la etapa 2, su estructuración es de la siguiente forma: fases, terrazas y celdas. (GRAFICO) Las celdas son de aproximadamente 15x20x1.5m, con un peso específico de 1 tonelada/m³, siendo esto importante debido a que en sus inicios se tenía un peso específico de 0,75 toneladas/m³, lo que representa un ahorro del 25% en el espacio y por ende la vida útil del relleno. Además de la optimización del espacio, la compactación es un factor muy importante a considerar ya que de esta depende la estabilidad del relleno, la permeabilidad de cada uno de los estratos conformados en las celdas, cabe mencionar que el tipo de compactación depende de las características de los desechos, ya que no es lo mismo emplear un método desarrollado para una zona donde la mayor cantidad de basura es inorgánica (países industrializados) en contraste a zonas donde la mayor cantidad de desechos son de tipo orgánico, como es el caso de nuestra ciudad. La compactación es realizada en capas de 60cm de espesor y su grado de compactación depende de la energía de compactación de las máquinas. Actualmente se cuenta con el siguiente equipo: • Tractor Komatsu d65 190hp, 2007 • Excavadora Caterpillar 320cu 138hp, 2005 • Rodillo compactador Caterpillar


para relleno sanitario 816f2 232hp, 2010 Después de colocar y compactar los desechos, se coloca una capa de tierra de 20cm de espesor en la superficie, para evitar los malos olores el impacto visual en el paisaje, la misma que a su vez sirve como vía de acceso de la maquinaria que se utiliza. Debido a que el conjunto de celdas conforman las terrazas, esta capa de tierra es removida casi en su totalidad cuando se concluye una terraza inferior y se pasa a la siguiente, esto se hace con el propósito de no impedir el paso de los lixiviados hacia los drenajes de la estructura. Finalmente, el conjunto de terrazas conforman una fase del relleno sanitario. 3. ASPECTOS PAISAJE

SOCIALES

Y

DE

Toda obra de ingeniería trae consigo impactos de orden social en el lugar donde se encuentra, mucho más una obra de este tipo. El impacto más grande es la ocupación del suelo, el impacto visual que tiene ver una montaña de basura y sobre todo los olores que esto genera. Para mitigar estos problemas, los procesos que se llevan a cabo son los siguientes: • Al finalizar una fase, esta es cubierta con una capa de tierra y se siembra plantas nativas, de manera de mejorar el paisaje. • Se cuida el bosque protector que rodea al relleno sanitario con el fin de filtrar el aire, al igual que el uso de carbón activado para disminuir el olor de los lixiviados. Desarrollo humano, el relleno sanitario constituye un importante factor de apoyo para el mejoramiento de calidad de vida y para el desarrollo humano de los habitantes de Santa Ana, mediante la entrega del 5% de sus ingresos anuales a la junta Parroquial. El relleno sanitario también ha significado una fuente de ingresos económicos para las familias aledañas al sector ya que la

mano de obra que labora en las instalaciones son personas de la misma comunidad, así como existen asociaciones que se dedican al reciclaje gracias al sistema diferenciado de recolección (se recicla 160 toneladas semanales) o en la elaboración de abonos orgánicos. La administración del relleno sanitario tiene una política de puertas abiertas para proporcionar la participación activa de la comunidad de Santa Ana y de toda la ciudadanía, en el control y supervisión de nuestras operaciones. Certificaciones, luego de las auditorías externas realizadas por parte del Instituto Colombiano de Normas Técnicas y Certificación (ICONTEC), el relleno sanitario de Pichacay cuenta con las siguientes certificaciones internacionales.

Figura 7. Certificaciones de las normas ISO y OHSAS

ISO 14001(2004): Sistema de Gestión Ambiental. OHSAS 18001(2007): Sistema de Gestión de Seguridad y Salud Ocupacional. ISO 9001(2008): Sistema de Gestión de Calidad. 4.

MONITOREO AMBIENTAL

En forma permanente se realiza el monitoreo ambiental de: • Calidad del agua superficial, en 5 puntos del río Quingeo y un punto en la quebrada Capelo. 165


• Calidad de agua subterránea, donde existen cuatro puntos de monitoreo. • Ruido Ambiental, tanto en el frente de trabajo como en las viviendas más cercanas al relleno y en la comunidad el Chorro y Playa de Los Ángeles. • Emisiones gaseosas (biogás y aire ambiental). En lo que se refiere a la instrumentación utilizada para este monitoreo: • El relleno sanitario cuenta con una estación meteorológica para registrar permanentemente las condiciones climáticas del sector. • Para monitorear la estabilidad de las terrazas conformada con los desechos sólidos dispuestos, se cuenta con una red de piezómetros e inclinómetros que permiten determinar las presiones internas en la masa de basura y su posible desplazamiento en el tiempo.

5. CONCLUSIONES La conclusión más importante a la que podemos llegar con el presente trabajo es que el relleno sanitario no es simplemente un “botadero” de basura, sino que es una obra civil que involucra varios aspectos técnicos, ambientales y sociales. La ciudad de Cuenca al contar con el relleno se encuentra preocupada en el bienestar y salud pública de todos los ciudadanos ya que sin este la situación fuese muy diferente. 6. BIBLIOGRAFÍA [1] EMAC (2010, ) Un Relleno con la receta para preservar el medio ambiente, Mundo de Calidad: 8-9. [2] Presidencia de la Republica (Ecuador). Libro VI Anexo 6: Normas de Calidad Ambiental para el manejo y disposición final de desechos sólidos no peligrosos. Quito : 2003 [3] Galo Vázquez (2012) Encargado del Relleno Sanitario de Pichacay [Entrevista]. [4] EMAC (2005, ) Gestión Integral de Residuos Sólidos [Online]. http://www.globalmethane.org/ documents/events_land_20061129_cuenca.pdf

“El logro es, ante todo, el producto de la constante elevación de nuestras aspiraciones y expectativas”

166


SISTEMA DE TRATAMIENTO DE AGUAS RESIDUALES DE UCUBAMBA Fabián Ganzhi Fajardo. Cristian Muñoz Gárate. Daniel Rodríguez Pacheco. Estudiantes Ingeniería Civil

Abstract

Resumen

The wastewater treatment plant in Cuenca is located in the northeast of the city, in the area called Ucubamba. The main objectives aimed by the treatment plant can be summarized in the following ones: intercepting and conducting the water which formerly flowed to the rivers that run through the city and returning clean water to the environment.

La planta de tratamiento de aguas residuales de la ciudad de cuenca está ubicada al Noreste de la ciudad en el sector de la Ucubamba, los principales objetivos perseguidos con la planta de tratamiento de aguas residuales en la ciudad de cuenca se pueden resumir en los siguientes puntos, interceptar y conducir las aguas que anteriormente eran descargadas en los ríos que atraviesan la ciudad, devolver al medio ambiente aguas libres de contaminación. La planta de tratamiento de aguas residuales de Etapa está constituida por una estructura de tratamiento preliminar que consta de: cajón de llegada, bypass, compuertas de admisión, cribas mecánicas, y desarenadores. Luego del tratamiento preliminar las aguas residuales entran a la etapa de tratamiento biológico que consta de tres fases: Lagunas aereadas, lagunas facultativas y lagunas de maduración. El agua ya en condiciones aptas de regresar al medio es trasladada por una estructura de desfogue que descarga las aguas residuales tratadas al Rio Cuenca, esta agua puede ser reutilizada de manera segura en la agricultura, generación hidroeléctrica, recreación, etc.

The ETAPA wastewater treatment plant is constituted by a preliminary treatment structure consisting of: settling tank, bypass, floodgates, mechanical screens, and grit chambers. After preliminary treatment of wastewater, the biological treatment stage starts, and it consists of three phases: aerated lagoons, facultative lagoons, and maturation lagoons. After the water is in suitable condition, it is moved by an unblock system which takes treated wastewater to the Cuenca River; this water can be safely reused in agriculture, hydropower, recreation, etc. Keys word: Wastewater, Treatment Plant

167


Introducción La mayoría de veces los cuerpos receptores de estos desechos líquidos son incapaces de absorber y neutralizar la carga contaminante. Por este motivo, las aguas residuales antes de su descarga a los cursos y cuerpos receptores, deben recibir un tratamiento adecuado que modifique sus condiciones iniciales. Así mismo, las diversas actividades agrícolas, ganaderas, industriales y recreacionales del ser humano han traído como consecuencia la contaminación de las aguas superficiales con sustancias químicas y microbiológicas, además del deterioro de sus características estéticas. Para hacer frente a este problema, es necesario someter el agua a una serie de operaciones o procesos unitarios, a fin de purificarla o potabilizarla para que pueda ser consumida por los seres humanos. [1] La Planta de Tratamiento de Aguas Residuales (PTAR) de Ucubamba es la principal instalación de tratamiento en la ciudad de Cuenca. La planta dispone de un proceso de depuración compuesto por estructuras de tratamiento preliminar y un sistema de lagunas de estabilización en dos líneas, constituido por lagunas aeradas primarias, lagunas facultativas secundarias y lagunas de maduración terciarias. DESCRIPCIÓN DEL SISTEMA DE TRATAMIENTO DE AGUAS RESIDUALES La Planta de Tratamiento de Aguas Residuales (PTAR) de Ucubamba está constituida por Estructuras de Tratamiento Preliminar y dos módulos de tratamiento independientes compuestos por Lagunas de Estabilización. ESTRUCTURAS DE TRATAMIENTO PRELIMINAR Dentro de la estructuras pre-tratamiento o tratamiento preliminar tenemos:

168

− Cajón de llegada - By-Pass – Compuerta de Admisión. − Cribas mecánicas autolimpiantes. − Deflectores de caudal – Desarenadores – Transportador de arena. Cajón de llegada - By-Pass – Compuerta de Admisión El cajón de llegada y el by-pass están dimensionados para recibir y evacuar, respectivamente, el máximo caudal, en tiempo húmedo para el final del período de diseño. (figura 1.) En el cajón de llegada se tiene construida una pantalla tranquilizadora, con la finalidad de disipar la energía con la que llegan las aguas residuales por el Emisario Final. El caudal de diseño del cajón de llegada es de 3.64 m³/s, el mismo que corresponde al caudal máximo de diseño del Emisario Final. El caudal máximo horario de aguas residuales en tiempo seco ha sido determinado como 2.27 m³/s. Este caudal es por consiguiente el máximo que se admitirá para el tratamiento. Para el diseño de las obras de Pre-tratamiento se ha considerado un 10% de caudal adicional, o sea un máximo de 2.50 m³/s. En el cajón de llegada, se dispone de la compuerta general de admisión, con la cual se garantiza que no ingrese un caudal mayor al de diseño [2]. Entre los objetivos principales tenemos: − La función principal de la estructura de llegada es actuar de cajón rompe presión al final del Emisario principal y permitir un rebose de las aguas residuales por el by-pass, mediante su cierre total o parcial en épocas de lluvia o en períodos de limpieza ó mantenimiento. − Asegurar que en condiciones de lluvia no entre a la PTAR un caudal mayor al de diseño, correspondiente al máximo horario en tiempo seco.


Figura 1. Cajón de llegada, By-pass y Compuerta de admisión; Sistema de rieles para la extracción automática de lodos.

Cribas Mecánicas Autolimpiantes Las cribas mecánicas autolimpiantes se encuentran ubicadas aguas abajo del cajón de llegada. Antes del ingreso a las cribas, las aguas residuales son conducidas por un canal de transición y las mismas se dividen en tres partes iguales. (Figura 2.) [2] Entre los principales objetivos tenemos: • Retener y evacuar desechos sólidos cuyo tamaño sea mayor a 20 milímetros. • Evitar que desechos sólidos por sus características y tamaño interfieran con los procesos biológicos de tratamiento en el sistema de lagunas. • Puesto que durante la época de pluviosidad ingresa a la Planta un caudal horario mayor, desde el inicio de operación las tres cribas han sido instaladas y se encuentran en funcionamiento.

 

Figura 2. Cribas mecánicas autolimpiantes

Deflectores de caudal – Desarenadores – Transportador de arena Los desarenadores se localizan aguas bajo de las cribas, estando conectadas estas dos unidades mediante canales de conducción, derivación y transición. Entre los principales objetivos tenemos: − Retener y evacuar materiales o partículas de arena, cuyo diámetro sea igual o mayor a 0.2 milímetros, cuyo peso específico sea igual o mayor a 2.65 o con velocidades de sedimentación superiores a las de los sólidos orgánicos putrescibles, contenidos en las aguas residuales. − Proteger a los aereadores de la abrasión y del excesivo desgaste. 169


− Reducir la formación de depósitos de material inerte en las lagunas y de esta forma disminuir la frecuencia de limpieza. − Los deflectores de caudal tienen por objeto reducir la velocidad de ingreso de las aguas residuales a los desarenadores, así como de orientar el sentido de flujo. [2]

 

Figura 3. Desarenador

pactada y la utilización de una geomembrana. Los anclajes utilizados para los aereadores están empotrados en los diques con hormigón, disponiéndose en el centro de las lagunas de un pasador. Los cables de alimentación son para cada dos aereadores. La operación de los aereadores puede ser manual (a través de tableros instalados junto a las lagunas) o automática (desde el computador del cuarto de control). Las funciones básicas son: − Asimilar la materia orgánica soluble en un período de retención relativamente corto, pero suficiente para evitar la sobrecarga de la siguiente unidad. − Mantener condiciones aeróbicas, para la asimilación del material soluble en biomasa, permitiendo así la separación de sólidos y reducción de la carga orgánica hasta los niveles previstos.

LAGUNAS DE ESTABILIZACION Luego de pasar por el tratamiento preliminar, las aguas residuales pasan a las lagunas de estabilización. Dentro de estas tenemos: − Lagunas Aeradas − Lagunas Facultativas − Lagunas de Maduración LAGUNAS AERADAS Después del tratamiento preliminar, las aguas residuales son conducidas hacia las lagunas aeradas, las mismas que constituyen las primeras unidades de tratamiento biológico.(Figura 4.) Los taludes de las lagunas están recubiertos con hormigón lanzado con armadura metálica, con mezcla asfáltica en las juntas de las locetas, para así evitar posibles infiltraciones, así como el crecimiento de vegetación. La impermeabilización del fondo de las lagunas se lo realizó en base a arcilla com170

 

 


Figura 4. Lagunas aeradas; motor nuevo para aeración.

El propósito fundamental de las lagunas facultativas es: − Almacenar y asimilar los sólidos biológicos producidos en las lagunas aeradas. − Presentar las condiciones adecuadas de carga orgánica y balance de oxígeno, de modo que se pueda sustentar una adecuada biomasa de algas unicelulares en la parte superior de la laguna. − Presentar las condiciones adecuadas de mortalidad bacteriana. − Asegurar una adecuada remoción de nemátodos intestinales.

LAGUNAS FACULTATIVAS. El desecho biológicamente tratado en las lagunas aeradas, es descargado en las lagunas facultativas. Los taludes de las lagunas están recubiertos con hormigón lanzado con armadura metálica, con mezcla asfáltica en las juntas de las locetas para así evitar posibles infiltraciones, así como el crecimiento de vegetación. La impermeabilización del fondo de las lagunas se lo realizó en base a arcilla compactada y a la utilización de una geomembrana. El ingreso de las aguas residuales hacia las lagunas se lo realiza por una tubería de 0.90 m. de diámetro, la misma que se encuentra sumergida, disponiéndose además de una estructura para disipación de energía de 5.3 * 5.3 metros, localizada en el fondo de la laguna y así evitar la erosión de la capa de impermeabilización. La estructura de salida de las aguas residuales está constituida por un vertedero rectangular de 10 m de longitud, disponiéndose además de una compuerta giratoria para la variación de niveles, así como de una galería recolectora y un cajón de carga para la conducción mediante tubería hacia la siguiente unidad de tratamiento [2].

 

Figura 5. Lagunas Facultativas

LAGUNAS DE MADURACIÓN Estas unidades están en el tercer lugar de la serie y a estas unidades no llegan sólidos biológicos que no sean algas unicelulares y prácticamente no acumulan lodos. Los taludes de las lagunas están recubiertos con hormigón lanzado con armadura metálica, con mezcla asfáltica en las juntas de las locetas, para así evitar posibles infiltraciones, así como el crecimiento de vegetación. La impermeabilización del fondo de las lagunas, se lo realizó en base a arcilla compactada y la utilización de una geomembrana. El ingreso de las aguas residuales hacia las lagunas se lo realiza por una tubería de 171


0.90 m. de diámetro, la misma que se encuentra sumergida, disponiéndose además de una estructura para disipación de energía de 5.3 * 5.3 metros, localizada en el fondo de la laguna y así evitar la erosión de la capa de impermeabilización. La estructura de salida de las aguas residuales está constituida por un vertedero rectangular de 10 m de longitud, disponiéndose además de una compuerta giratoria para la variación de niveles, así como de una galería recolectora y un cajón de carga para la conducción de las aguas residuales tratadas hacia el río Cuenca [2]. El propósito de estas unidades es: − Presentar las condiciones adecuadas de balance de oxígeno, de modo que se pueda sustentar una adecuada biomasa de algas unicelulares en la parte superior de la laguna. − Presentar las condiciones adecuadas de mortalidad bacteriana. − Asegurar una adecuada remoción de nemátodos intestinales. − Eliminar la contaminación remanente de los procesos anteriores.

Tratamiento de Lodos En la actualidad la planta de tratamiento de aguas residuales (figuras 7y8), se encuentra en un proceso de ampliación para la extracción y deshidratación de lodos, la cual se encuentra constituida por [3]: − Extracción y bombeo inicial de lodos sedimentados mediante un sistema de dragas. − Recolección y transporte de lodos mediante un sistema de tuberías situadas en la periferia de las lagunas. − Bombeo de lodos recolectados desde estaciones de bombeo auxiliar y principal. − Tamizado de lodos en canales de cribado. − Espesamiento de lodos en dos espesadores de gravedad. − Bombeo de lodos espesados. − Acondicionamiento del lodo mediante dosificación de polielectrolito. − Deshidratación en filtros de banda. − Bombeo de lodos deshidratados a silo. − Almacenamiento de lodos deshidratados en silo. − Sistemas auxiliares de bombeo de agua, redes de aire comprimido, pesaje de camiones. Sistemas de mando, monitoreo, control y fuerza.

 

Figura 6. Lagunas de Maduración

172


Figura 7. Equipo moderno para la extracción de lodos.

Figura 8. Infraestructura montada para el tratamiento de lodos.

Conclusiones. Con este proyecto implementado en la ciudad de Cuenca se alcanzó un gran beneficio para el ecosistema y un aporte valioso para el desarrollo de la población por la importancia que tiene la depuración de las aguas residuales domésticas El sistema de tratamiento de aguas residuales ubicado en el sector de Ucubamba consta únicamente de procesos físicos, ya que en todas sus etapas no se adiciona ningún tipo de químico para la depuración de las aguas. El efluente final de la planta de tratamiento de aguas residuales alcanza hasta un 90% de depuración de la misma, permitiendo, de esta manera, evacuar a sus efluentes sin riesgo a que el medio sea alterado. Esta agua puede ser reutilizada de manera segura en la agricultura, generación hidroeléctrica, recreación, etc.

Referencias [1] Recursos Terramor. Actualizada: Diciembre 2005. [Fecha de consulta: 07 junio 2012]. Disponible en: http://www.tierramor.org/Articulos/ tratagua.htm [2] ECUADOR.Empresa Pública Municipal de Telecomunicaciones, Agua Potable, Alcantarillado y Saneamiento de Cuenca. Planta de tratamiento de aguas residuales. [Cuenca]: La Municipalidad. 47 p. [3] Planta de Tratamiento de Aguas Residuales. Actualizada: 20 Enero 2011. [Fecha de consulta: 07 junio 2012]. Disponible en:http:// ucubamba.blogspot.com/2011/01/planta-detratammiento-de-aguas.html

173


HUELLA HÍDRICA (‘Water Footprint’) Ronnie Araneda, Juan Alvarez, Geovanny Argudo

Estudiantes Ingeniería Civil RESUMEN: Huella hídrica es el volumen total de agua dulce necesaria para la producción de bienes y servicios consumidos por un individuo, país o grupo determinado; para el cálculo de la huella hídrica total se debe considerar el agua virtual de cada producto y los diferentes componentes de la huella hídrica como: huella hídrica azul, verde, gris, sin embargo no existe una formula general para el cálculo de la huella hídrica sino depende de varios factores propios de cada región; el concepto de huella hídrica se introdujo para una mejor gestión y utilización del agua dulce disponible en el planeta. PALABRAS CLAVE: Huella hídrica, agua virtual, huella hídrica azul, huella hídrica verde, huella hídrica gris, volumen total de agua. ABSTRACT: The term “Water Footprint”, makes reference to the total volume of freshwater required in the production of different goods and services that a human being, a society or a country consume. When is about calculating the water footprint is necessary to considerate the several components of it such as blue, green and gray water footprint, as well as regard the virtual water of each product. However, a general method 174

to calculate the water footprint has not been established, it is be because of the different characteristics and factors that are unique in each region. The meaning of water footprint was introduced in order to manage in a better way the freshwater resource on earth. KEYS WORDS: Water footprint, virtual water, blue water footprint, green water footprint, gray water footprint, total volume of water. INTRODUCCIÓN: El interés por la huella hídrica se origina en el reconocimiento de que los impactos humanos en los sistemas hídricos pueden estar relacionados, en última instancia, al consumo humano y que temas como la escasez o contaminación del agua pueden ser mejor entendidos y gestionados , considerando la producción y cadenas de distribución en su totalidad, así lo señala el catedrático Arjen Y. Hoekstra, creador del concepto de la huella hídrica, experto del instituto UNESCO - IHE y director científico de la “Red de la Huella Hídrica” (Chapagain, 20004). Los problemas hídricos están a menudo íntimamente relacionados con la estructura de la economía mundial; muchos países han externalizado significativamente su huella hídrica al importar bi-


enes de otros lugares donde requieren un alto contenido de agua para su producción. Este hecho genera una importante presión en los recursos hídricos en las regiones exportadoras, donde muy a menudo existe una carencia de mecanismos para una buena gobernabilidad y conservación de los recursos hídricos. No solo los gobiernos, sino también los consumidores, comercios y la sociedad, en general, pueden jugar un papel importante para alcanzar una mejor gestión de los recursos hídricos (Network, Water footprint, 2012). 1.1 CONCEPTOS: Según el creador del concepto la huella hídrica o hidrológica, lo define como: “El volumen total de agua dulce necesaria para la producción de bienes y servicios consumidos por un individuo, comunidad, país, industria o cualquier otro de interés.” (lareserva.com). El concepto de huella hídrica fue introducido con el fin de proporcionar información sobre el uso del agua en relación con el consumo, complementando así a los indicadores tradicionales de uso de agua por los diferentes sectores. Como indicador agregado, muestra los requerimientos totales de agua de un país o grupo de interés, y es una medida del impacto del consumo humano sobre los recursos hídricos. Junto a este concepto, puesto que el agua que gastamos no es solamente la que ocupamos para ducharnos, preparar los alimentos o beber directamente, nace otro concepto que va de la mano para mejorar la gestión del agua, se la conoce como agua virtual; que no es más que el agua que se requiere para la producción de todo lo que consumimos como son bienes, productos y servicios.

Esta huella hídrica puede ser interna, cuando se tiene en cuenta el agua procedente de los recursos nacionales de un país, o externa, cuando se toma en consideración la cantidad de agua necesaria para desarrollar los productos o servicios consumidos en un país, cuando éstos han sido producidos en el exterior. El uso de recursos hídricos suelen referirse, esencialmente, a usos agrícolas, industriales y domésticos. Existe también conceptos importantes como la huella hídrica directa, que es la cantidad de agua que ocupamos todos en forma personal ese momento, es decir al momento de bañarnos, lavar el auto, o tomarla simplemente, etc. Y huella hídrica indirecta, que es la cantidad de agua que se usó para producir, elaborar y movilizar un producto o bien que consumimos, como por ejemplo el arroz, la carne que compramos en los supermercados. 1.2. COMPONENTES Y FACTORES DE LA HUELLA HÍDRICA: Existen tres componentes fundamentales a la hora de cuantificar la huella hídrica, que son: Huella hídrica azul: Es el volumen de agua dulce evaporada de los recursos globales de agua superficial y subterránea para producir los bienes y servicios consumidos por el individuo o la comunidad. Huella hídrica verde: Es el volumen de agua evaporada de los recursos globales de agua verde (agua de lluvia almacenada en el suelo). Huella hídrica gris: Es el volumen de agua contaminada, que puede ser cuantificada como el volumen de agua requerida para diluir los contaminantes hasta el punto en que la calidad del agua esté sobre los estándares aceptables. 175


Hasta que no surgió el concepto de huella hídrica como indicador, se ha venido calculando el gasto de agua que conlleva la manufactura de un producto teniendo en cuenta solamente la huella azul. La innovación que incluye la huella hídrica respecto a otros instrumentos para contabilizar el agua es la medida de la misma a lo largo de la cadena de producción y la introducción del cálculo del agua gris y verde. (Torresblanca, 2012)

ciada a los productos introducidos al país o huella hídrica externa. 1.4 TABLAS, CIFRAS Y EJEMPLOS: Actualidad:

1.3 CÁLCULO: Si bien la huella hídrica no tiene forma de cálculo exacta por la variabilidad de recursos en las diferentes partes del mundo y por la importación y exportación de agua virtual en los diferentes bienes y productos, esta podría estimarse de dos maneras: • Un enfoque es considerar el conjunto de todos los bienes y servicios consumidos y multiplicarlos por su contenido de agua virtual. Por ejemplo, una persona consume 2 panes al día y para cada pan se necesitan 40 litros de agua, la huella hídrica que deja es de 80 litros, esto se conoce como huella hídrica per cápita. Los principales factores que determinan la huella hídrica per cápita de un país son: 1.) El consumo de agua promedio per cápita, generalmente relacionado con el ingreso nacional bruto. 2.) Los hábitos de consumo de sus habitantes (ejemplo, cantidad de carne consumida) 3.) El clima, en particular la demanda evaporativa (condiciones de cultivo). 4.) Las prácticas agrícolas (eficiencia en el uso del agua). • Otra opción es calcularla sumando el uso de agua total de la huella hídrica interna y la importación de agua virtual aso176

(Chapagain, 20004)

(Chapagain, 20004)

(Network, Water footprint, 2012)


Esta distribución no uniforme es igual a la distribución de recursos naturales, oportunidades y economías. (Torresblanca, 2012) - El volumen total de flujos de agua virtual relacionada con el comercio internacional de productos es de 1600km3 al año, del 80% se relaciona con productos agrícolas y el resto con productos industriales. (Portal UNESCO del agua, 2008). - A nivel global se ahorra agua al exportar productos agrícolas de regiones con alta productibilidad de agua hacia regiones con baja productividad de agua, si los países ‘importantes’ producirían esto en casa se utilizarían 1600km2 de agua al año, mientras que los países exportadores usan solo 1200km3 al año, existiendo un ahorro anual mundial de 400km3. (Portal UNESCO del agua, 2008).

(Chapagain, 20004)

- La huella hídrica mundial en el periodo 1996 – 2005 fue de 9087Gm3 por año (74% huella hídrica verde, 11% azul y 15 % gris). (M.M. Mekonnen, May 2011). - Alrededor de la quinta parte de la huella hídrica global se relaciona con la producción para exportación. (M.M. Mekonnen, May 2011) - El promedio de un ciudadano en Estados Unidos es una huella hídrica de 2842m3 por año, mientras el promedio de un ciudadano en China e India tienen huellas hídricas de 1071m3 y 1089m3 por año respectivamente. (M.M. Mekonnen, May 2011) - La huella hídrica per cápita suele ser mayor en países ricos debido al mayor consumo de productos altamente demandantes de agua en su proceso de producción, tales como: vehículos, carne y ropas.

Dependiendo de la dieta de una persona, el consumo per cápita de agua virtual varía: en una dieta de supervivencia se utiliza 1m3 por día, en una vegetariana 2.6m3 y en una dieta carnívora más de 5m3 como una persona promedio en EEUU. (Portal UNESCO del agua, 2008) El volumen, patrón de consumo y la huella hídrica por tonelada de producto de los productos que se consumen son los factores principales que determinan la huella hídrica de un consumidor. (M.M. Mekonnen, May 2011) Los países con mayor huella hídrica son: EEUU, Canadá, Italia, Francia, España y Grecia. (lareserva.com) 1.5 REDUCCIÓN DE LA HUELLA HÍDRICA: Para reducir la huella hídrica directa lo que se hace es optimizar el uso de agua en casa y/o en el trabajo, es decir es de carácter personal y se reduce a la colaboración y 177


toma de conciencia de grupos pequeños de personas. Para reducir la huella hídrica indirecta hay básicamente tres opciones: 1.) Cambiar el modelo de consumo sustituyendo los productos con grandes huellas hídricas por otro tipo de producto cuya huella hídrica sea menor. Por ejemplo, comer menos carne o volverse vegetariano, beber solo agua o té en lugar de café o vestir menos prendas de algodón y más de fibra sintética (por cada taza de café que nos tomemos estamos consumiendo 140 litros de agua y por cada taza de té negro 27 litros). 2.) Seleccionar el producto que tenga menor huella hídrica o que su huella se de en un área donde no haya una gran escasez de agua. Esto requiere que los consumidores dispongan de la información adecuada al respecto. 3.) El reciclaje y la reutilización del agua pueden ser un instrumento para la reducción de la huella hídrica gris de los usos del agua. (Fabiola, 2008) CONCLUSIONES: La huella hídrica vista primero como un indicador mundial de consumo de agua (desde un nivel individual, hasta los más altos colectivos), es una herramienta que nos ayuda a tomar conciencia y entender más claramente lo que cuesta la producción de bienes y servicios, desde el punto de vista de explotación de recursos y consumo que existe en todo el mundo; y segundo como una herramienta que nos muestra e indica de manera cuantitativa el movimiento de recursos hídricos (agua) que se da en el planeta, de manera que exista un mejor cuidado y gestión en los recursos naturales del planeta, especialmente los hídricos 178

que es el objetivo al que está directamente dirigido este indicador. BIBLIOGRAFÍA: Portal UNESCO del agua. (20 de febrero de 2008). Obtenido de http://www.rel-uita.org/agricultura/ambiente/agua/sabias_que_16.htm Alonso, J. A. (22 de Febrero de 2008). Miod. Recuperado el 5 de Junio de 2012, de Miod: h t t p : / / w w w. m a d r i m a s d . o r g / b l o g s / r e m t a v a res/2008/02/22/85126 Chapagain, A. a. (20004). Water footprints of nations . Netherlands: UNESCO-IHE. Fabiola. (5 de Abril de 2008). Ecosofia.org. Recuperado el 5 de Junio de 2012, de Ecosofia.org: http://ecosofia.org/2008/04/huella_hidrica_cuanta_ agua_gastamos.html Fundación, B. (s.f.). Obtenido de http://www.fundacionbonanza.org/huellahidrica.php lareserva.com. (s.f.). Obtenido de http://www.lareserva.com/home/huella_hidrica_el_agua_virtual M.M. Mekonnen, A. H. ( May 2011). National water footprint accounts. The Netherlands: UNESCO-IHE Institute for Water Education. Network, W. f. (2012). Water footprint. Recuperado el 3 de Junio de 2012, de Water footprint: http://www. waterfootprint.org/?page=files/YourWaterFootprint Network, W. f. (2012). Water footprint. Recuperado el 3 de 06 de 2012, de Water footprint: http://www. waterfootprint.org/?page=files/WaterStat Torresblanca, E. (22 de March de 2012). UnitedExplanations. Obtenido de http://www.unitedexplanations.org/2012/03/22/la-huella-hidrica-130-litros-deagua-para-una-taza-de-cafe/


CALIDAD DEL AGUA EN LOS RÍOS DE CUENCA Diego Xavier Álvarez, Tania Cabrera, José Luis Loja. Estudiantes Ingeniería Civil

ABSTRACT. This article describes how to measure water quality and its application to quantify water quality of rivers of Cuenca, studies of master plans, results and measures to achieve better water quality to get the current state. KEYS WORDS. Master plans, Water quality. RESUMEN. En este artículo se describe cómo medir la calidad del agua y su aplicación para cuantificar la calidad del agua de los ríos de Cuenca, los estudios de los planes maestros, los resultados y las medidas para alcanzar una mejor calidad del agua hasta obtener el estado actual. PALABRAS CLAVE. Planes maestros, Calidad del agua. I. INTRODUCCIÓN La calidad del agua de los ríos depende del grado de contaminación, siendo este un indicador para su uso. La contaminación de las aguas de los ríos puede darse por dos motivos: naturales o antrópicos, cuyos factores deben ser cuidadosamente examina-

dos y cumplir con los parámetros de control de las autoridades competentes. Para determinar el grado de calidad de las aguas, se obtienen indicadores, en base a muestras que permiten obtener una serie de índices, estos índices son: • •

Biológicos Fisicoquímicos.

Siendo los dos indispensables para determinar su calidad. Índices Biológicos. Estos índices nos dan un valor numérico que significa el estado de los organismos afectados por la contaminación, lo cual se ve reflejado en su ausencia o abundancia de alguna familia o especie por lo que se tomará como indicador de calidad pero sin identificar los contaminantes que se ven afectados y se identifican con los índices fisicoquímicos. Los índices biológicos son de dos tipos: Los bióticos que se basa en el concepto de organismo indicador, en función de su tolerancia a un proceso de contaminación. A los tipos más tolerantes se les da valores 179


numéricos menor, mientras que a los menos tolerantes se les da un valor numérico mayor; el más utilizado en nuestro medio es el Biological Monitoring Working Party (BMWP). Los índices de biodiversidad, miden la abundancia y la biodiversidad de las especies en un sitio, a mayor abundancia mayor puntación, no es necesaria la identificación de especies, ni es necesaria la información a cerca de su tolerancia al contaminante. Esta evaluación implica la toma de muestras de invertebrados acuáticos en un área de dos metros cuadrados por Esta evaluación implica la toma de muestras de invertebrados acuáticos en un área de dos metros cuadrados por estación en los diferentes ríos del estudio. Las muestras son llevadas al laboratorio donde son analizadas para ser tabuladas e ingresadas a una base de datos, para calcular los diferentes índices biológicos.

Imagen 1. Invertebrados acuáticos. Fuente: Planes Maestros II etapa, TYPSA, 2004

A las familias sensibles como Perlidae y Oligoneuriidae se les asigna puntajes de 10, mientras que a las familias más tolerantes como Oligochaetae, se les da puntajes de 1. La suma de todos los puntajes de todas las familias proporciona el puntaje final del BMWP, teniendo valores que van de 0, desde aguas sumamente contaminadas a puntaje de 120, es decir, aguas en un excelente estado.

180

Índices Fisicoquímicos Las variables físicas, químicas y bacteriológicas estudiadas son: oxígeno disuelto, temperatura, pH, DBO5, turbiedad, coliformes, nitratos, fósforo total, sólidos totales y conductividad. Las nueve variables que encabezan la lista son utilizadas para el cálculo del índice de calidad de agua WQI. Los rangos de clasificación de calidad del agua, según los índices fisicoquímicos, son los siguientes: 91 a 100 Excelente 71 a 90 Buena 51 a 70 Media 26 a 50 Mala 0 a 2 Muy mala Tabla 1. Calidad de agua según índices fisicoquímicos La DBO es un indicador de la contaminación por materia orgánica, que consume oxígeno para estabilizarse, y tiene influencia directa en la salud del ecosistema del río, los doliformes son un indicador que puede restringir el uso del agua por los seres humanos. Valores bajos de DBO reflejan un cuerpo de agua de calidad ecológica muy limpia, de baja turbiedad y color, oxígeno disuelto próximo a la saturación, con un contenido de sólidos volátiles y nutrientes bajos que permiten la existencia de fauna acuática de gran riqueza y diversidad, en tanto que, valores altos de DBO reflejan un cuerpo de agua muy contaminado, en donde solo viven los organismos más resistentes a la contaminación, tornándose el agua de un aspecto séptico con alta turbiedad, color y olor II. DESARROLLO En el año de 1984, en Cuenca, se realizó los estudios del plan maestro de control de la contaminación con una cobertura de alrededor de 6000Ha, inclusive antes de que


entre en vigencia el Reglamento de Prevención y Control de la Contaminación del Recurso Hídrico, siendo pionera a nivel de

país y tomada como modelo para el resto de ciudades del Ecuador.

LA EDUCACIÓN DE UN INGENIERO VIVIR UNA VIDA PLENA EN UN ANCHUROSO MUNDO Se acostumbra considerar a la ingeniería como parte de una trilogía: ciencia pura, ciencia aplicada e ingeniería. Necesita hacerse énfasis en que esta trilogía es solamente una de un conjunto de tres trilogías en las que encaja la ingeniería. La primera es la ya apuntada; la segunda es teoría económica, finanzas e ingeniería; la tercera es relaciones sociales, industriales, ingeniería. Muchos problemas de ingeniería están más ligados a los de carácter social que a la ciencia pura. Las limitaciones de las clasificaciones académicas son notorias. En el mundo del trabajo diario no corresponden a la realidad las llamadas ramas del conocimiento que se acostumbran clasificar por los sistemas académicos. Es el hombre completo el que trabaja, la comunidad entera la que vive, y es en función de la universidad ver por encima y más allá de las clasificaciones que son un tanto estériles. La mecánica, por ejemplo, es un diamante de muchas facetas que cintilan con diferentes colores para un matemático, un estudiante de ciencia pura, un estudiante de física cósmica o para un ingeniero. En la naturaleza es, sin duda alguna, la misma mecánica, pero parece inútil tratar de pensar en ésta como una unidad cuando se analiza intelectualmente, tal como lo abordan los diferentes investigadores. H.M. Westergaard escribió: “Debe hacerse notar que la teoría de la elasticidad es, en esencia, ciencia física, dirigida a comprender el comportamiento de la materia. El desarrollo del proceso fundamental de la teoría, a lo largo de los últimos cien años, ha sido el trabajo combinado de físicos, matemáticos en ingenieros. Las aplicaciones a la teoría molecular y a la del sonido se han presentado por sí mismas. Al mismo tiempo, las aplicaciones al análisis estructural han sido la causa de un contacto continuo con la ingeniería. Estas aplicaciones prácticas a la ingeniería han salido al frente durante los últimos años”. A.rdy CE.H. Love explica: “La historia de la teoría matemática de la elasticidad nos muestra con claridad que la evolución de esta teoría no se ha guiado, en forma exclusiva, por consideraciones de su utilidad para la mecánica técnica. La mayor parte de los hombres, gracia a cuyas investigaciones ha sido posible fundamentar y darle forma a la teorías, se interesaban más bien en filosofía natural que en el progreso material, e intentaban comprender al mundo en vez de tratar de hacerlo más cómodo … Aún en los problemas más técnicos como en el de la transmisión de fuerzas y el de resistencia de barras y placas, la atención se dirigió, en su mayor parte, más bien a los aspectos teóricos que a los prácticos de estos asuntos … Tiene bastante importancia el hecho de que mucho progreso material es el resultado indirecto del trabajo ejecutado sobre esta base”. (Tomado del libro “Ingenieros y las torres de marfil” de Hardy Cross )

181


ESTUDIO DEL CONCEPTO DEL PARÁMETRO DE ESTABILIDAD DE SHIELDS COMO UN MÉTODO PARA EL DISEÑO DE CANALES EROSIONABLES Mario Andrés Córdova Mora Carolina Elizabeth Vallejo Llerena Estudiantes Ingeniería Civil

RESUMEN En el presente trabajo se expone y analiza, el concepto del parámetro de estabilidad de Shields para establecer las expresiones que permitan el diseño de canales erosionables. En la exposición conceptual de estos procesos se ha incluido un análisis de nuevas relaciones matemáticas para la curva de movimiento incipiente y para determinación del parámetro de estabilidad. El trabajo expuesto constituye un aporte para la difusión de conocimiento y permite disponer de una guía útil para la aplicación del método, en el contexto del curso de Diseño Hidráulico de la Carrera de Ingeniería Civil de la Universidad de Cuenca. Palabras clave: Parámetro de estabilidad, Diagrama de Shields, Umbral de movimiento. ABASTRACT This study discusses and analyzes the concept of the stability parameter in order to set the calculation expressions that allow the design of erodible channels. With the conceptual exposure of these processes, we have included an analysis of new mathematical relationships for the incipient motion curve and for determining the stability parameter. This paper is a contribution to the dissemination of knowledge and indicates a guide to the application of the 182

method in the context of the course in Hydraulic Design which is taught at the Career of Civil Engineering, Faculty of Engineering of the University of Cuenca. Keywords: Stability parameter, Shields´s diagram, Threshold of motion. INTRODUCCIÓN El término umbral de movimiento de sedimentos describe las condiciones de flujo y las condiciones de frontera para las cuales el transporte de sedimentos empieza a ocurrir. El umbral de movimiento de sedimentos no puede definirse con una precisión exacta, sin embargo, la gran mayoría de las observaciones experimentales, han arrojado resultados razonablemente consistentes y de gran potencial en la aplicación al momento de analizar procesos de flujo en obras hidráulicas y manejo de cauces naturales. Los parámetros relevantes para el análisis del umbral de transporte de sedimentos establecidos en la literatura [1] son: El esfuerzo cortante del lecho τo •

• • • • •

La densidad del sedimento La densidad del fluido El diámetro del grano La aceleración de la gravedad La viscosidad del fluido

ρs ρ ds g

ѵ

(1)


En términos adimensionales, se obtiene: (2)

Al introducirse el concepto de velocidad de corte V* definida como: (3) La expresión 2 puede transformarse como: (4) Se identifica el primer término como una forma del número de Froude. El segundo es la densidad relativa. El último término es el número de Reynolds definido en términos del tamaño del sedimento y la velocidad de corte Re* conocido como número de Reynolds de corte o número de Reynolds de la partícula. Adicionalmente, el número de Reynolds de corte tiene relación con la distribución de velocidades en flujos turbulentos. Con los parámetros considerados en el análisis precedente, se establece un parámetro adimensional conocido como parámetros de estabilidad definido como: (5)

Considerando que en flujo en canales abiertos [2] para flujo uniforme de equilibrio, la velocidad de corte es igual a:

Donde DH es el diámetro hidráulico y θ es la pendiente del lecho. El esfuerzo cortante medio de frontera resulta igual a: (7) Pudiendo, entonces, escribirse el parámetro de estabilidad como: (8) Observaciones experimentales diversas han corroborado la identificación de un valor crítico del parámetro de estabilidad, en el umbral de movimiento del lecho donde se cumple que τ * = ( τ *)c. Shields (1936) demostró que ( τ *)c es, ante todo, una función del número de Reynolds de corte V* ds/ ѵ. Para esta condición, el movimiento de la carga del lecho ocurrirá entonces para: (9) En resumen: el inicio del transporte de la carga del lecho, ocurre cuando el esfuerzo cortante de lecho τo es mayor que un valor crítico: (10) El concepto introducido por Shields) para el parámetro de estabilidad tiene una amplia aplicación para modelos numéricos, lo cual ha hecho necesario buscar expresiones que representen los datos experimentales [3], donde se indica la ecuación de Guo [4] para el parámetro de estabilidad de Shields la siguiente: (11)

(6) 183


Para el presente trabajo, la ecuación anterior ha sido desarrollada y contrastada con los gráficos disponibles en la literatura obteniéndose el siguiente diagrama:

donde s es el ángulo de reposo y d* es el parámetro de partícula definido como: (14) Para analizar el estado de equilibrio en canales y cauces con pendiente empinadas, se debe considerar una corrección para el parámetro de estabilidad, así como para la velocidad de corte en el estado crítico. La corrección dada para canales empinados [5] define al parámetro de estabilidad como:

Figura 1: Diagrama del parámetro de estabilidad de Shields según Guo, 2002. Adaptado de (Pacheco, 2004)

El número de Reynolds de la partícula refleja la relación entre las fuerzas de inercia y las fuerzas por efectos de viscosidad en el entorno de un grano; es decir, el grado de turbulencia. Se nota que a mayor valor de Re*, se tiene mayor turbulencia alrededor de la partícula teniéndose la tendencia horizontal de la curva del diagrama. Se indica que para Re*>400, el flujo corresponde a turbulento rugoso, dado que el valor del diámetro d es mayor que el espesor de la capa límite laminar ( S ). Para valores Re* < 5 el movimiento corresponde a turbulento liso; mientras que, para valores comprendidos entre 5 y 400, el movimiento es turbulento intermedio. Se desprende que para flujo en estado turbulento rugoso, el esfuerzo requerido para iniciar el movimiento, solamente dependerá del valor crítico aproximado en 0,056. Julien (1995) [6], indica para el parámetro crítico de Shields, las expresiones siguientes: (12) (13)

184

(15) donde s es el ángulo de reposo del material, y es la pendiente del lecho. Para la velocidad crítica de corte, se indica la corrección para movimiento en pendientes empinadas propuesta por Chiew y Parker (1994) [7]. (16) CONCLUSIONES Un canal artificial no revestido o un canal natural en el cual se tiene el flujo de una corriente, estará sujeto a riesgos de erosión o desprendimiento de las partículas que lo conforman, debido a un desbalance de las fuerzas estabilizadoras en contraposición con las fuerzas de arrastre. El movimiento de partículas ocurrirá cuando los momentos de fuerzas desestabilizantes (es decir, arrastre, sustentación, flotación) con respecto al punto de contacto, superen al momento estabilizante de la fuerza del peso. El entendimiento del umbral de movimiento o condición crítica de movimiento de arrastre de fondo es un problema de actualidad en investigación, relacionada a la hidráulica fluvial con relevancia práctica en el establecimiento de criterios de diseño en canales.


El método pone a consideración un procedimiento más elaborado y desarrollado con mayores fundamentos que otros métodos, como por ejemplo: el de la velocidad límite. El conocimiento disponible, hasta el momento, es el resultado de experimentación en laboratorio, en arenas uniformes que se plasma en el diagrama de Shields. No se dispone de información suficiente que corrobore los resultados en cauces naturales de montaña. El método considera exclusivamente los efectos directos por la circulación del agua, se identifica como relevante realizar experimentación hidráulica en laboratorio, para el análisis de condiciones particulares en términos de la influencia adicional de: la granulometría, peso específico, efectos coloidales, pendiente, turbulencia, morfología, etc. Adicionalmente se debe señalar que, el umbral de movimiento corresponde a una franja con una dispersión correspondiente a los factores no considerados en la deducción

AGRADECIMIENTO Damos nuestro especial reconocimiento al Ing. Esteban Pacheco T, quien a través de la cátedra de Diseño Hidráulico ha incentivado nuestra participación en la revista “Galileo”, órgano de difusión de la Facultad de Ingeniería y, además, nos ha dirigido en la ejecución y desarrollo del tema planteado. REFERENCIAS BIBLIOGRÁFICAS [1] CHANSON H. (2002). The hydraulics of open channel flow. Arnold. New York, USA [2] STREETER, V. L., WYLIE, E. B. (1988). Mecánica de los Fluidos, McGraw-Hill [3] PACHECO, Esteban (2004) Equilibrio del proceso de transporte de sedimentos en cárcavas y torrentes intervenidos en la cuenca hidrográfica del río Paute. Trabajo investigativo para obtención del grado de Magíster en manejo y conservación de los recursos Agua y Suelo MSc. Universidad de Cuenca, Cuenca [4] GUO J. (2002) Hunter Rouse and Shields diagram. Proceedings of the 13th IAHR-APD Congress. Singapore (1096-1098) [5] RIJN L. C. VAN (1993) Principles of Sediment Transport in rivers, estuaries and coastal seas. (Aqua: Amsterdam, The Netherlands) p.41 [6] JULIEN P. Y. (1995) Erosion and Sedimentation. Cambridge University Press. Cambridge-UK [7] CHIEW Y. M. – PARKER G. (1994) Incipient sediment motion on non horizontal slopes. Journal of Hydraulic Research: 32, 649-660

185


CONTROL PID APLICADO SOBRE UN VARIADOR DE VELOCIDAD Juan Pablo Fárez, René Chumbi

Escuela de Ingeniería Eléctrica

Abstract— This document is an automatic control project focused on the use of programmable logic controllers. The project is a speed control on a closed loop induction motor having as motor driver interface. The control system is dominated by logic programmed into the PLC the same turn interacts with the operator through an HMI. For purposes of study from the HMI commands the generation of different set point signal: sine wave, square wave with amplitude and frequency parameters configurable.

al motor. Adicionalmente el variador calcula la velocidad del motor y la envía como una señal analógica de retorno al PLC. Las consignas y respuestas estarán siempre visualizándose en un HMI y para el caso de las consignas, este permitirá su selección y modificación de amplitud y frecuencia.

I. INTRODUCCIÓN

II. DESCRIPCIÓN

En control automático este proyecto es una aplicación para el uso de controladores lógicos programables (CPU s7-1200). En el proyecto se realiza un control de lazo cerrado, para controlar la velocidad de un motor de inducción trifásico de 1Hp, el mismo que se encuentra conectado al DRIVER Micromaster 420 y estos dos equipos conformarían la planta a la que el PLC controla. Para efectos de estudio, se generan diferentes señales de consigna (set-point), onda senoidal, y onda cuadrada con sus parámetros de amplitud y frecuencia configurables. El PLC actúa con una señal analógica por medio de la signal board AQ, sobre el variador y este responde variando la frecuencia de alimentación suministrada

La CPU S7-1200 y el software programador TIA PORTAL V11 de Siemens permiten trabajar un lazo de sintonización PID con función Autotuning. El valor de salida se calcula automáticamente o de forma manual con la siguiente fórmula.

186

Objetivos: Desarrollar una interfaz para el HMI amigable con los operadores del sistema. Generar las ondas de consigna con incrementos de tiempo, los más pequeños posibles. Obtener una buena respuesta por parte del control PID.

Símbolo Descripción Y Valor de salida kp Ganancia proporcional s Operador Laplaciano b Ponderación de la acción P w Consigna x Valor real


TI a TD c

Tiempo de integración Coeficiente para el retardo de la acción derivativa Tiempo derivativo Ponderación de la acción D

Dado que el sistema regulado necesita cierto tiempo para responder a un cambio del valor de salida, no es razonable calcular este valor en cada ciclo. La llamada al bloque PID debe hacerse en períodos constantes del tiempo de ciclo del OB invocante. El PLC con su módulo signal board 1232 actúa sobre el motor a través del panel SDP que controla al DRIVER Micromaster 420. La señal de retroalimentación para realizar el control está disponible en el mismo panel SDP como salida analógica 0V a +10V, luego de registrar en el variador parámetros básicos del motor. El acondicionamiento de señales de entrada y salida se lo realiza por medio de los bloques de NORM_X y SCALE_X. Y todo el control será supervisado con el HMI KTP 600 PN.

III.

DESARROLLO DEL SOFTWARE

TIA PORTAL V11. Permite programar de manera integral el software, tanto para el PLC como para el HMI. A.

Software para el PLC CPU S7-1200

1) Iniciamos con la construcción de las señales consigna de velocidad: Modo manual, a través de esta subrutina se pretende disponer de un set point constante previo al ingreso del valor de la velocidad en rev/min. En la fig.1 se muestra la programación en lenguaje KOP en donde la comparación es verdadera cuando se selecciona este modo. Entonces, el valor de consigna interviene en el control con el funcionamiento del motor.

Figura 2. Generación de la consigna constante.

Modo automático generador de ondas, seleccionada la función y dada la amplitud y frecuencia se genera automáticamente una onda senoide o cuadrada. Onda senoidal: esta dada por la ecuación y(t) = A*sen(w*t) con w=2*pi*f, con la amplitud (A en rev/min) y frecuencia (f en ciclos/s) regulables desde el HMI. En la fig.2 la subrutina se encuentra dentro de un bloque de función llamado “senoide” y genera una onda senoidal discretizada aproximadamente en pasos de 10ms.

Figura 1. Funcionamiento básico con panel SDP

187


2)

Figura 3. Función que genera la onda seno.

El variador de velocidad luego de invertir el giro, no genera ninguna señal de velocidad, es por este motivo que en el ciclo negativo no se puede tener un control PID. Entonces, a continuación se presenta la lógica que permite considerar solo el semiciclo positivo.

Figura 4. Recorte del semiciclo negativo de la función seno.

Onda cuadrada: la onda esta dada por las ecuaciones: y(t)= A para 0<=t<T/2 y(t)= 0 para T/2<=t<=T con la amplitud (A) y la frecuencia(f) regulables desde el HMI. En la fig.3 la subrutina genera una onda cuadrada basándose en el cruce por cero de la onda senoidal antes descrita.

Control PID

Donde la información de entrada está direccionada a la variable velocidad previamente acondicionada y también al canal analógico de entrada (%iw64), la señal de consigna es tomada de la variable Consigna_PID que es generada por cualquiera de las subrutinas anteriores (onda seno y cuadrada además la del modo manual) y la señal de salida está direccionadas a la signal board (%qw80). La llamada al bloque PID se hace en períodos constantes del tiempo de ciclo del OB cíclico de interrupción por la razón antes mencionada.

Figura 6. Bloque de control PID.

Los resultados del autotunning para la calibración del PID son:

Figura 5. Subrutina generadora de la onda cuadrada. Figura 7. Resultados de la optimización automática.

188


3) dad

Tratamiento de la señal de veloci-

La señal de retroalimentación es analógica 0V a +10V y los valores que entrega el canal analógico a la CPU tienen que ser acondicionados; es así que, se desarrolla una subrutina dentro de un bloque de función “tratamiento_velocidad”, el mismo que en su salida entrega los valores de la velocidad del motor en rev/min.

Figura 8. Subrutina que acondiciona la velocidad.

A continuación se muestra el programa completo, donde se puede observar cómo se ha alcanzado la coordinación de todas estas funciones y subrutinas:

Figura 9. Programa principal completo.

B.

Programación HMI KTP 600 PN

Todas las instrucciones del modo de generación de señal de referencia son comandadas desde el HMI, y además este visualiza las señales de consigna elegidas y la respuesta que brinda el PID. Se dispone de tres ventanas una de menú principal y las otras dos para los modos generación de consigna automática y modo manual.

189


Figura 10. Elementos programados para el HMI.

Cada uno de los botones están direccionados a las variables del PLC, de modo que actúen sobre los contactos; mientras que, los textbox se encargan de ingresar valores reales en las variables del PLC y también de visualizar los datos de amplitud (en rev/min) y frecuencia (en ciclos/s). IV. IMPLEMENTACIÓN

Figura 13. Montaje, planta y sistema de control.

En la fig.10, se muestra el esquema de conexiones entre el PLC S7-1200 y el DRIVER Micromaster 420 y la integración del HMI KTP 600 PN, es mediante un cable ethernet con el PLC como se ilustra en la fig.11.

Figura 14. Sistema funcionando.

V. CONCLUSIONES

Figura 11. Esquema del circuito de control.

Figura 12. Comunicación ethernet.

A continuación el banco de trabajo operativo:

La onda de consigna generada, en cuanto a la discretización se encuentra en pasos de 10ms, aproximadamente, pudiendo reducirla, pero debido a que la velocidad de respuesta del driver y, a su vez, este, sobre el motor, es lenta comparativamente; entonces, se justifica. La visualización de las ondas: seno (semiciclo positivo) y rampa, en el HMI da a entender, pasos grandes de discretización; no obstante, si utilizamos un PC como HMI se muestra una curva continua; por lo tanto, necesitamos un HMI con mayor velocidad de procesamiento. El concepto del proyecto tiene varias aplicaciones a nivel industrial y de investigaciones colaborando con la simulación de procesos, como la simulación de una creciente hidrológica.

190


La calibración de los parámetros PID pueden obtenerse rápidamente con la ejecución del autotunning, herramienta que se debe ejecutar cuando el sistema planta pueda responder a la señal de actuación, puesto que el proceso consiste en variar la magnitud actuante, hasta los límites, verificar su respuesta y así determinar las cantidades PID.

VI. REFERENCIAS Manuales SIMATIC Guide: [1] www.siemens.com/simatic-docu

“ …El Instituto de Ingenieros Civiles de la Gran Bretaña se organizó hace casi más de un siglo… Se le solicitó a Tomás Tredgold, afamado practicante de ingeniería y conocido escritor sobre tópicos de este tema, que redactase una definición de “ingeniero civil”; hoy en día se incluye en todas las publicaciones del Instituto “El arte de dirigir los grandes recursos de energía de la naturaleza para uso y conveniencia del hombre” Todavía es una buena definición para todas las ramas de la Ingeniería”.

191


DISEÑO Y CONSTRUCCIÓN DE UN DIMMER INTELIGENTE PARA CONTROL A DISTANCIA DE CUATRO LÁMPARAS Juan Pablo Fárez, Rene Chumbi

Estudiantes Ingeniería Eléctrica Abstract— This paper describes the development process to design and build a dimmer can control four separate incandescent lamps by remote control, capable of maintaining the brightness of an environment automatically and store different brightness settings, in addition to rhythmic lights feature. It covers the conception and implementation of this equipment, without further detail in the description of the technical aspects. I. INTRODUCCIÓN Un dimmer es un dispositivo que permite regular la intensidad luminosa de una lámpara incandescente. Este tipo de dispositivo es de los más comunes dentro de la domótica. Previo al uso de electrónica digital, los dimmers se basaban en resistencias variables, lo que conlleva un desperdicio de energía. Actualmente, se puede realizar un control preciso de la potencia suministrada con dispositivos microprocesados. Una forma de controlar la luminosidad en una lámpara incandescente es recortar la onda de corriente alterna que la alimenta. Este es el principio utilizado en este proyecto. Los objetivos de este proyecto son los siguientes: 192

• Diseñar y construir un equipo de control que brinde mayor comodidad y automatice el sistema de iluminacion en ambientes de hogar. • Incorporar receptor de infrarojos capaz de interpretar los datos del protocolo SIRC de la firma Sony. • Capacidad de responder a los modos: Dimmer, Control automatico, Luces rÍtmicas. • Realizar control de luminosidad en lazo cerrado • Almacenamiento de cinco configuraciones de luminosidad. • Obtener un diseño compacto que permita ser montado sobre un cajetÍn empotrado, remplazando un interruptor. II.

DESCRIPCIÓN DEL PROYECTO

El equipo permitirá el control de luminosidad de cuatro lámparas incandescentes, mediante un control remoto Sony común. Para permitir la recepción de la señal de infrarrojo proveniente del control remoto, se ha elegido el circuito integrado TSOP1740 y es usado comúnmente en sistemas de control. Este es capaz de realizar el proceso de demodulación de la señal de infrarrojo, entregando en su salida una señal digital lista para ingresar a un microcontrolador.


Se usará un microcontrolador maestro, encargado de realizar una interfaz entre el usuario y el sistema, desplegando mensajes en una pantalla LCD y decodificando las señales provenientes del sensor infrarrojo. Actualmente, existen muchos protocolos de comunicación usados en mandos a distancia. Sin embargo, para este proyecto usamos el estándar de Sony SIRC (Sony Infra Red Control), debido principalmente a su sencillez. Trabajando paralelamente con el micro maestro se encuentra un segundo microcontrolador actuador, el mismo que se apoya en un circuito de potencia constituido principalmente por triacs, para manejar el nivel de luminosidad en las lámparas. La comunicación entre estos dos micros es Serial y el modo de transmisión de datos Half dúplex. Respecto al control remoto, este puede ser cualquiera que maneje el protocolo SIRC de Sony, y tenga la función de VCR que corresponde a los descontinuados VHS y no presenta inconvenientes, pues su utilización no intervendrá con otros equipos como decodificadores de cable o TV. III. DESARROLLO El proyecto se lo desarrolló en dos etapas principales, la primera involucra la concepción de la interfaz visual: modo en el que operaran los PIC, tipo de comunicación entre los micros, capacidades de potencia que se va a manejar con el circuito de potencia, y la programación de los dos microcontroladores. La segunda etapa comprende el armado de la tarjeta, así como la concepción y diseño de la carcasa o chaís que contendrá al circuito. A continuación se detallan los aspectos relevantes de ambas etapas:

A. Programación. La programación de los PIC se desarrolló en PROTON IDE V2, el sistema consta de dos programas: uno que hace de interfaz con el usuario correspondiéndole a un PIC 16F628A y, el otro, para un micro 16F819 que trabaja como actuador Estos microcontroladores se eligieron por ser los mas económicos que satisfacían los requerimientos del proyecto, ver fig. 2. La comunicación entre estos dos micros tiene que ser inmediata al configurarse un nuevo nivel o modo de funcionamiento del circuito con el control remoto. Además, esto no debe interrumpir la recepción de nuevas instrucciones desde el control remoto ni debe producir parpadeos en las luces por los retrasos en la comunicación, principalmente por la demora en la transmisión de datos en la comunicación Serial. Esto se solucionó colocando una línea adicional a la comunicación serial (3 líneas requeridas) para optimizar la transmisión de datos. B. Construcción El circuito se compone de tres partes, alimentación, control y potencia, en la figura 1 se puede apreciar el circuito armado en Isis de Proteus, las partes de control y potencia, a continuación se describe cada una de ellas. La alimentación consiste en un rectificador que suministra 5v DC a 500mA, al resto del circuito (no consta en el esquema de Proteus), que se conecta directamente a la red de 120VAC que llega al circuito. El bloque de control es el más complejo, está compuesto por dos microcontroladores PIC, sincronizados para trabajar de manera coordinada. El primero es un 16f628A, es el encargado de realizar la interfaz con el usuario, sus funciones son: • Controlar el Display LCD de 16x2 para mostrar los mensajes al usuario. • Recibir y decodificar los datos en193


viados por el Control remoto a través del receptor infrarrojoEnviar los datos decodificados de luminosidad de cada foco y el modo en que debe trabajar el segundo PIC encargado de sincronizar los disparos de los Triacs. • Encender los LEDs indicadores de activo e inactivo. Operar el encendido y apagado del display. • Encender y apagar el sistema mediante el pulsante que permite operar manualmente. El segundo PIC es un 16f819 está encargado de operar el circuito de potencia, las tareas que realiza son: • Recibir y asignar los valores de luminosidad de cada foco así como el modo de operación • Detectar el cruce por cero a través del optoacoplador pc817 y sincronizar los disparos de los triacs, a través de los opto-

194

triacs moc3010 en función de la luminosidad configurada de cada foco. • Detectar la luminosidad del ambiente, mediante un LDR y mantenerla a través de control proporcional modificando el ángulo de disparo de los Triacs cuando está en modo automático • Detectar y filtrar las señales de audio, para disparar los Triacs según el ritmo de la música cuando está en modo luces rítmicas La parte de potencia está compuesta por cuatro circuitos como el mostrado en la figura 3, el optoacoplador MOC-3010 transmite los pulsos desde los pines del microcontrolador actuador a la compuerta del triac BT137 que permitirá el recorte de la onda de corriente que pasa hacia la lámpara.


Fig. 2 PIC 16f628A y 16f819 utilizados

Montaje. Los circuitos de control y potencia se montaron por separado y, así como el LCD, se comunican a través de buses de datos. En la siguiente figura 6 se visualizan las placas armadas. Un segundo modelo se lo hizo colocando todas las etapas en una misma tarjeta, figura 5.

Este bloque contiene seis borneras que permiten conectar conductores de calibre 14 AWG de los cuales 2 provendrán de la alimentación a 120 AC y los 4 restantes se dirigirán a las luminarias.

Fig. 5 Montaje del circuito en una sola placa

El montaje se lo hizo de modo que resultó fácil ubicarlo, en lugar de la placa de un interruptor, sobre un cajetin empotrado.El primer equipo se ubicó en un chasis de madera. Figura 6. Fig. 3 Esquema y elementos del circuito de potencia

Otro parte de este bloque es el circuito para la detección del cruce por cero de la onda de CA compuesto por una resistencia de 10k a 5w, un diodo de potencia y un optoacoplador PC817 el esquema se muestra en la figura 4.

Fig. 6 Montaje de placas separadas en chasis de madera

En tanto que el segundo se lo hizo en plástico, el equipo funcionando con su aspecto final se aprecia en la figura 8. Fig. 4 Circuito para la detección de cruce por cero C.

195


IV. FUNCIONAMIENTO CIÓN

Y

OPERA-

Para controlar el equipo se debe usar un control remoto Sony en modo VCR (VHS), el equipo se enciende y se apaga con el botón POWER del control remoto o con el pulsante incorporado en el chasis. En estado inactivo el LED indicador de actividad estará en rojo en tanto que al activarse se pondrá en verde y se cargará la última configuración de luminosidad usada al apagarse. Los valores de luminosidad se configuran con el teclado numérico o con los botones CHANEL. Para moverse entre focos o entre todos los focos a la vez, se usan los botones de desplazamiento lateral. El grabado de una configuración se lo hace pulsando el botón de STOP y eligiendo con el teclado numérico un valor de memoria entre 1 y 5.

el botón RETROCESO RÁPIDO. La señal de audio debe suministrarse con un conector de audio TRS de 3,5 mm en la entrada que se encuentra en la parte inferior de la carcasa. En la figura 9 se muestra el control remoto utilizado en el proyecto.

Fig. 8 Equipo funcionando en modo dimmer

V.

Fig. 7 Montaje de placa única en chasis de plástico.

Así mismo para leer una memoria se pulsa el botón PLAY y se elige una memoria para leer. Al modo automático se entra y se sale con el botón AVANCE RÁPIDO, en tanto que al modo luces rítmicas se lo hace con 196

DATOS TÉCNICOS

En función de las características de los elementos usados y mediciones realizadas, se han establecido los siguientes parámetros técnicos para el dispositivo: • Alimentación: 120V, 60Hz • Consumo: 250 mA • Número de Luminarias independientes: 4 • Corriente máxima por luminaria: 1.5 A • Angulo de cobertura de sensor remoto: 360° con línea de vista • Alcance del control remoto: 10m • Calibre máximo de conductor en borneras: 14 AWG.


Fig. 9 Control remoto utilizado

VI. CONCLUSIONES Tras pruebas realizadas a lo largo de dos semanas con perÍodos de funcionamiento de 12 horas se ha llegado a las siguientes conclusiones: • Los circuitos operan como se esperaba y de manera estable con lo que se logró el control remoto adecuado de las luminarias independientes • La retención en memoria se diferentes configuraciones de luminosidad se ha logrado sin mayores inconvenientes y no

es afectada por ausencia del suministro de energía. • El control automático responde de manera adecuada a los cambios de luminosidad del ambiente manteniéndola estable, presenta pequeñas oscilaciones ante cambios bruscos y por retroalimentación excesiva como se esperaba por la naturaleza del control proporcional. • El modo rítmico opera adecuadamente, pero cabe mencionar que este presenta saturación del canal analógico para potencias altas de la señal de audio, problema que se espera resolver en versiones futuras del software. • El apto acoplamiento tanto en la detección de cruce por cero como en los disparos de los triacs aísla el circuito de control de fallos en la red, como sobretensiones, esto es muy importante debido a que esta es la parte más delicada y cara del equipo. • Poner en tarjetas diferentes en cada parte del equipo permite detectar fallas más rápido y realizar reparaciones más fácilmente • Aunque el equipo no es tan compacto como se lo deseaba, puede ser montado adecuadamente sobre un cajetín eléctrico empotrado, remplazando a una placa de interruptor común.

197


Proyecto Club de Robótica de la Universidad de Cuenca CRUC

clubrobotucuenca@hotmail.com Facultad de Ingeniería – Escuela de Electrónica y Telecomunicaciones Cuenca – Ecuador ANTECEDENTES

JUSTIFICACIÓN

El Club de Robótica de la Universidad de Cuenca “CRUC” nace de la iniciativa de parte de docentes y estudiantes de la Facultad de Ingeniería, concretamente de la escuela de Electrónica y Telecomunicaciones. El mencionado Club intenta ser un proyecto de integración de la tecnología, las áreas de estudio de la electrónica y la robótica, con el fin de obtener proyectos productivos a mediano y largo plazo. El CRUC tiene como VISIÓN: ser un foco institucional para el desarrollo de la ciencia, la tecnología y la investigación como parte integral del fortalecimiento educativo. El estudiante dedicará su tiempo libre a profundizar su interés por la electrónica y la robótica. Tiene como principal logro desarrollar un ambiente responsable y adecuado para la planificación de proyectos, desarrollo de la investigación y, por supuesto, promocionar la carrera y ubicarnos dentro de los estándares de calidad que la educación actual persigue como objetivo prioritario.

El Club de Robótica de la Universidad de Cuenca “CRUC” nace como un espacio para el desarrollo de proyectos, investigación y actividades afines a la robótica. El CRUC se propone llevar a la práctica los conocimientos adquiridos a lo largo de la carrera, con la participación y motivación de todos sus integrantes, como un verdadero trabajo cooperativo, buscando de esta manera enlazar la creatividad, integración, responsabilidad y acción, con el fin de obtener proyectos útiles y funcionales en tiempos concretos.

198

El Club de Robótica pretende que todos quienes estén interesados en la Electrónica y Robótica se inicien desde ya en estas áreas de conocimiento. De esta manera, se busca despertar el interés creativo e investigativo. El Club se comprometerá en la formación de su miembros, tanto en lo cognitivo (conocimiento), procedimental (destrezas intelectuales), actitudinal (afectividad). Buscará la manera de vincularlos con diferentes actividades; de esta manera apoyarán al perfeccionamiento de sus ca-


pacidades y participación dentro las actividades académicas. Objetivos Generales: • Apoyar a los estudiantes, miembros del Club de Robótica, un espacio efectivo y afectivo para el desarrollo de proyectos e investigaciones dentro del campo de la ingeniería, facilitándoles las herramientas adecuadas y necesarias. • Complementar la enseñanza teórica con la práctica, plasmando los contenidos curriculares en proyectos que impliquen diseño, creatividad y construcción, para que los estudiantes comprendan e interioricen las bases teóricas, incentivando su interés por la investigación científica en temas de la electrónica y robótica así como sus diversas aplicaciones. Objetivos Específicos: • Dar la oportunidad a los estudiantes de poner en práctica todos los conocimientos adquiridos. • Permitir a los estudiantes de los primeros años relacionarse con estudiantes de los últimos años de la carrera para trabajar en proyectos conjuntos, con el fin ampliar sus conocimientos, interés y motivación, en el campo de la electrónica y la robótica. • Compartir los recursos físicos, económicos y humanos que conforman el Club, con el fin de apoyar proyectos de investigación de mayor nivel. • Incentivar a los estudiantes en la construcción de robots (Robótica) y su participación en eventos afines. • Capacitar a los estudiantes en el campo de la Electrónica y la Robótica con

el propósito de tener miembros con mayores conocimientos, así estaremos contribuyendo a su desarrollo intelectual e investigativo. METODOLOGÍA DE TRABAJO El presente proyecto trata de apoyar a los estudiantes en el desarrollo de investigaciones dentro del campo de la ingeniería, cumpliendo con los objetivos planteados. La metodología de trabajo adoptada por el club ejecutará, a largo y mediano plazo, proyectos propuestos por los miembros que participen de estos, una vez que el tema del proyecto sea aprobado. Los miembros del Club pueden desarrollar sus actividades en las instalaciones del CRUC, en los horarios convenidos por la directiva del club. Los ejecutores de cada proyecto serán quienes decidan cómo desarrollar cada proyecto, el tiempo que les tomará y las metas que se perseguirán. El avance de los proyectos será presentado periódicamente al club para de esta manera conocer el estado actual de estos. También se organizarán charlas y cursos ofrecidos por los miembros del club y por los profesores que actúan como tutores de este, a fin de transmitir los temas de interés que les sirvan de apoyo a los estudiantes; de esta manera ampliarán la base de sus conocimientos y, además, contarán con más herramientas al momento de desarrollar determinado proyecto. LINEAS DE TRABAJO: • Diseño y Construcción de Robots Manipuladores para aplicaciones Industriales.

Sistemas de control remoto para ro199


bots, orientado hacia aplicaciones de exploración de entornos. • Participación en eventos provinciales y nacionales: robots seguidores de línea, sumos, batalla, exploradores, etc. LINEAS DE INVESTIGACIÓN: • Trabajo colaborativo en el campo de la robótica y electrónica.

COMPOSICIÓN Y ESTRUCTURA El CRUC está conformado actualmente por un total de veinte miembros, una parte de ellos compone la directiva oficial del club y nos representan ante las autoridades. Además, son los responsables de impulsar su desarrollo, tomar decisiones favorables en beneficio del CRUC, para así fortalecer la presencia y participación de todos sus integrantes.

• res

Sistemas de Control para actuado-

La directiva actual fue elegida por los estudiantes participantes del proyecto y está conformada por alumnos de la escuela de Electrónica y Telecomunicaciones, quienes ostentan los siguientes cargos:

Modelación Matemática de un robot.

Presidente: Jonathan Chacón

• Funcionamiento componentes electrónicos. • Estudio de la Cinemática y Dinámica de un robot.

Vicepresidente: Cristian Ramiro Villa Arias. Secretario: Cristian Fernando Montenegro Salinas. Tesorero: Christian Andrés Clavijo Zhindón.

• Materiales para el diseño de robots: cables musculares, fibra de carbono. • Interacción de sistemas robóticos – humano. • Plataformas de software de programación para la industria robótica

200

Entre las actividades realizadas actualmente se encuentran: • La gestión de un espacio provisional en donde los estudiantes puedan reunirse y realizar actividades como: proyectos, reuniones, investigaciones, charlas, cursos, debates, etc. Además, se cuenta con mobiliarios para brindar comodidad y seguridad a todos sus miembros.


• Se ofrece herramientas de uso común para el desarrollo de las aplicaciones de ingeniería, incentivando la participación de los estudiantes. El club cuenta, también, con una tienda electrónica para facilitar los materiales básicos para la realización de proyectos a precios cómodos.

• El equipo que conforma el CRUC se encuentra a disposición de estudiantes que estén interesados en el desarrollo de proyectos, investigación y actividades afines a la robótica. El Club funciona actualmente en el edifico de PROMAS, cuarto piso.

201


BENEFICIARIOS

CONCLUSIONES

El presente proyecto está dirigido a los estudiantes de la Universidad de Cuenca que tienen el deseo y el entusiasmo de trabajar en el desarrollo de proyectos en el campo de la electrónica y robótica. Cuentan con los espacios y las herramientas que el CRUC ofrece a todos sus miembros que son los beneficiarios directos. Para su conocimiento, los mejores proyectos tendrán la oportunidad de representar a la Universidad en los concursos de robótica a nivel provincial y nacional.

El CRUC está creciendo gracias al apoyo y dedicación de sus integrantes, puesto que sus primeros esfuerzos estuvieron enfocados a la organización y fortalecimiento del Club, asentando bases bien definidas, con el fin de que su desarrollo sea exitoso.

El Club de Robótica permite a los estudiantes de los primeros años relacionarse con estudiantes más avanzados y trabajar en proyectos motivadores, pues los estudiantes que recién ingresan a la Facultad, a la vez que poseen gran capacidad, demuestran voluntad creatividad. En el Club, siempre encontrarán, grupos de estudiantes desarrollando proyectos, quienes les incentivarán y les demostrarán que estudiar ingeniería no tiene por qué ser una tarea difícil. .

202

Los proyectos propuestos se realizan, a paso lento, debido a la falta de conexión de los mismos con las materias cursadas, lo que no representa un impedimento, ya que el CRUC trabaja por brindar el máximo apoyo, para que los proyectos se ejecuten de la mejor manera. La acogida que tiene el CRUC está por debajo de los niveles esperados, pero se tiene la confianza de aumentar su aceptabilidad a futuro; para ello trabajamos arduamente, con el fin de promocionarle, planificando la participación en eventos próximos a desarrollarse y así demostrar lo que sus integrantes son capaces de ofrecer en el campo de la Robótica, sin descuidar de cultivar en nuestros compañeros/as las ganas de trabajar para que el CLUB se convierta en un referente académico.


Sesión Solemne por los 20 años de la Escuela de Informática

Mesa directiva de la sesión solemne en conmemoración a los 20 Años de la Escuela de Informática, integrada por: Ing. Elina Ávila, Directora de la Escuela de Informática; Ing. Esteban Pacheco, Director de la Escuela de Ingeniería Civil; Ing. Mauricio Espinoza, Director de la Escuela de Telecomunicaciones; Ing. Felipe Cisneros, Director del PROMAS; Ing. Patricio Guerrero, Decano de la Facultad de Ingeniería; Ing. Silvana Larriva, Vicerrectora de la Universidad de Cuenca; Ing. Pablo Vanegas, Sub-decano de la Facultad de Ingeniería; Ing. Rodrigo Sempértegui, Director de la Escuela de Ing. Eléctrica.

Ing. Marcelo Cabrera, Ing. Hernán Vintimilla, Ing. Vladimiro Cordero, ex - decanos de la Facultad de Ingeniería; Ing. Salvado Monsalve ex - director de la Escuela de Informática, quienes tuvieron destacada labor académica en la creación de la Escuela de Informática.

Intervención del Ing. Patricio Guerrero, Decano de la Facultad de Ingeniería, durante la sesión solemne.

203


La flamante Directora de la Escuela de Informática, Ing. Elina Ávila, junto al Decano de la Facultad de Ingeniería, Patricio Guerrero.

Ing. Silvana Larriva, Vicerrectora de la Universidad de Cuenca, durante la sesión solemne por los 20 años de la Escuela de Informática.

Ing. Marcelo Cabrera, Ing. Hernán Vintimillla, Ing. Vladimiro Cordero, Ing. Salvador Monsalve, con la placa de reconocimiento por su valioso aporte en la creación de la Escuela de Informática.

204


Ing. Salvador Monsalve, Ing. Vladimiro Cordero, Ing. Hernán Vintimilla durante el brindis por los 20 Años de la Escuela de Informática.

Ing. Joselo Guerrero, Ing. Ricardo Beltrán, Ing. Juan Mejía, Ing. Andrés de Los Reyes, profesionales graduados en la Escuela de Informática junto a la Ing. Silvana Larriva, Vicerrectora de la Universidad de Cuenca.

La nueva generación de profesionales de la Escuela de Informática, junto a las autoridades de la Facultad de Ingeniería.

205



Galileo