Page 1

7º Coloquio de Posgrado.

Avances de Jóvenes Investigadores DIPFI-UAQ 2013

Fi Universidad Autónoma de Querétaro Facultad de Ingeniería Editorial Universitaria colección acadEmia 1


7潞 Coloquio de Posgrado.

Avances de J贸venes Investigadores DIPFI-UAQ 2013

Fi


Dr. Gilberto Herrera Ruiz RECTOR Dr. César García Ramírez SECRETARIO ACADÉMICO Q.B. Magali E. Aguilar Ortiz SECRETARÍA DE EXTENSIÓN UNIVERSITARIA Dra. Ma. Teresa García Besné DIRECTORA DE DIFUSIÓN CULTURAL Dr. Aurelio Domínguez González DIRECTOR DE LA FACULTAD DE INGENIERÍA Tec. Prof. Ricardo Saavedra Chávez COORDINADOR DE PUBLICACIONES

DR© Universidad Autónoma de Querétaro Centro Universitario, Cerro de las Campanas s/n, Código Postal 76010, Querétaro, Qro. , México ISBN: 978-607-513-086-6 Primera edición, noviembre de 2013. Hecho en México. Made in Mexico


PRESENTACION Este libro recopila los mejores artículos presentados en el 7º Coloquio de Posgrado de la Facultad de Ingeniería de la Universidad Autónoma de Querétaro. Este coloquio es un espacio que permite a los alumnos de posgrado mostrar sus avances en la elaboración de sus tesis, así como la oportunidad de mostrar sus conocimientos técnicos, probar sus habilidades de redacción y su capacidad para comunicar. Cada artículo fue objeto de una estricta revisión por tres evaluadores distintos procedentes del posgrado y de otras instituciones nacionales, quienes participaron desinteresadamente en este ejercicio académico en aras de apoyar la formación profesional y científica de los alumnos. Los evaluadores fueron seleccionados por su experiencia académica y su reconocido prestigio en los temas abordados en los manuscritos. Fueron evaluados 61 trabajos procedentes de los diecinueve programas académicos de la División de Estudios de Posgrado e Investigación (DIPIFI) correspondientes a Especialidades, Maestrías y Doctorados. Solo se incluyen 29 artículos en este libro, los cuales pasaron la rigurosa evaluación. El contenido se distribuye en cinco trabajos de Ingeniería de Biosistemas, diez de Ingeniería Civil, tres de Matemáticas, siete de Instrumentación y cuatro de Ingeniería de Materiales. Los trabajos fueron agrupados por temáticas a fin de proporcionar una mejor lectura. Los temas abordados por los estudiantes son muy diversos: proyectos relacionados con la enseñanza de la ingeniería y las matemáticas, investigaciones enfocadas a la solución de problemas técnicos en la práctica de la ingeniería; propuestas de desarrollo científico y tecnológico; así como proyectos de impacto social. Las ideas vertidas en cada uno de los trabajos son responsabilidad única y exclusivamente de los autores a quienes se les dio libertad de expresar su pensamiento y apreciación sobre los temas tratados. El Comité Editorial desea expresar su agradecimiento a todos los investigadores de la UAQ, CINVESTAV, UNAM, ITQ, CENAM, CIDESI, CIATQ, CIDETEQ, ITZ e Instituto Mexicano del Transporte, que nos proporcionaron su apoyo como evaluadores ya que sin su colaboración esta publicación no hubiera sido posible. Asimismo se expresa nuestro agradecimiento al CONCYTEQ por el apoyo brindado para la realización del 7º Coloquio de Posgrado. Esperamos que el contenido de los artículos de este libro, resultado de un trabajo conjunto y gratificante, sirva como referente para toda la comunidad académica, así como para los lectores en general. El Comité Editorial Dra. María de la Luz Pérez Rea Dra. Rosalía Ocampo Velázquez Ing. Yanet Antonio Zárate

Dr. José Luis Reyes Araiza Dr. Miguel Ángel Pérez-Lara y Hernández Ing. David Rosales Hurtado


PRÓLOGO La tarea del joven investigador en nuestro país no es sencilla, pues se encuentra inmersa en un contexto global en el que compite en escenarios internacionales donde se ubican países que están apostando a dar viabilidad a sus economías con base en el desarrollo científico-tecnológico. En este sentido, se vislumbran dos enfoques; el primero, apostar por el desarrollo a partir de la ciencia básica y conocimientos de frontera como lo hizo Corea, o el segundo, la investigación aplicada en donde se empleen conocimientos, se adapten metodologías y sistemas tecnológicos para el desarrollo regional (caso Brasil). En cualquiera de las dos vertientes antes mencionadas, el ingeniero requiere una alta especialización, la búsqueda constante de innovación y un compromiso sólido con el medio ambiente. Y es precisamente motivados por estas tres premisas, que jóvenes investigadores de la División de Investigación y Posgrado de la Facultad de Ingeniería de la Universidad Autónoma de Querétaro, presentan en esta obra los avances, limitaciones, aciertos, problemas y perspectivas en cada una de sus respectivas áreas de investigación. Desde un enfoque de investigación aplicada, los autores tocan temas sustanciales para el desarrollo regional pensado desde un panorama global, tal es el caso de temas biotecnológicos que se incluyen al inicio de la obra, siguiendo con ingeniería civil e infraestructura urbana, sistemas de control y microelectrónica, didáctica de las matemáticas e ingeniería matemática, para cerrar con avances de investigación en materiales. La invitación está abierta para el lector, con quien quiero compartir una reflexión y esperando que la presente obra pueda ser tan gratificante como para un servidor. La reflexión gira en torno al entendimiento de una trayectoria científico-tecnológica que se va creando con cada paso que damos, y si bien, la mayoría de nosotros cuando caminamos, pensamos que lo hacemos sobre piso firme, ésto no es posible cuando estamos rodeados de jóvenes y menos aún, con jóvenes investigadores quienes proponen, cuestionan, debaten, descubren y nos motivan a seguir buscando juntos respuestas a las problemáticas que la sociedad demanda, problemáticas que nadie va a venir a resolverlas por nosotros, y son estos jóvenes nuestros principales aliados.

Dr. Manuel Toledano Ayala Jefe de la División de Estudios de Posgrado e Investigación. FI-UAQ


ÍNDICE BIOSISTEMAS 1.

Comparación de los parámetros de crecimiento entre la tilapia Oreochromis niloticus y la mojarra nativa Herichthys cyanoguttatus. G.A. Peña-Herrejón, G.M. Soto-Zarazúa, J.F. García-Trejo, E. Rico-García

9

2.

Evaluación de temperatura, pH y CE de diferentes sustratos orgánicos durante el proceso de compostaje. O. Layseca-Lopez, I. Torres-Pacheco, R. Guevara-González, E. Rico-García, L. Ávila-Juárez, L. Contreras-Medina, R. Ocampo-Velázquez.

17

3.

Comparación del crecimiento de Moringa oleifera en dos condiciones de cultivo protegido. A. Rico-Somohano, R. Ocampo-Velázquez, R. Guevara-González, E. RicoGarcía, F. García-Trejo, A. Mercado-Luna.

23

4.

El efecto de la aplicación de sonidos ultrasónicos sobre la mosquita blanca “Bemisia tabaci”. I. Macías-Bobadilla, A. Mercado-Luna, E. Rico-García.

27

5.

Evaluación de diferentes fertilizantes orgánicos en la producción de compuestos fenólicos en tomate (Solamun lycopersicum) cultivado bajo condiciones de invernadero. J. Olvera-Hernández, I. Torres-Pacheco, R. Guevara-González, R. Ocampo Velázquez, A. Feregrino Pérez, M. Hernández-Zul.

33

6.

Análisis dinámico por viento de un edificio de geometría irregular bajo un modelo acoplado fluido-estructura. J. P. Lara-López, J. Horta-Rangel.

37

7.

Técnica de cocientes espectrales: Obtención de funciones de transferencia empírica (FTE) mediante el registro de vibración ambiental. M. González-Martínez, A. Clemente-Chávez.

47

8.

Espectro de diseño deducido de sismos sintéticos para la ciudad de Querétaro. J. F. Santos-Aguilar, G. M. Arroyo-Contreras, F. R. Zúñiga Dávila-Madrid, J. A. Romero-Navarrete.

57

9.

Factores y niveles de confianza de edificios de cinco, diez y quince niveles sujetos a movimientos sísmicos de banda angosta. T. E. González-Robles, M. A. Montiel-Ortega, S. E. Ruiz-Gómez.

66

CIVIL


10. Método para evaluar la fatiga en puentes de concreto presforzado ante carga de vehículos pesados. J. L. Medina-García, G. M. Arroyo-Contreras, C. S. López-Cajún, E. BetanzoQuezada, M. A. Pérez-Lara y Hernández.

76

11. Análisis de la posibilidad de formación de emulsiones en las cercanías de pozos petroleros. A. Quevedo-Tiznado, C. Fuentes-Ruiz.

86

12. Comportamiento del aislamiento térmico de una vivienda y diseño de elementos estructurados para las envolventes. J. M. González-Cartañeda, J. Horta-Rangel

95

13. Revisión del impacto de la infraestructura en el desarrollo de los países J. E. Veloz-García, J. L. Reyes-Araiza, Y. Galindo-Montiel, J. E. RodríguezMuñoz, R. Ramírez-Jiménez.

101

14. Modelación de áreas de afectación por desbordamiento de ríos en zonas de transición fluvial. Caso del río La Antigua, Veracruz. C. Hernández-Galeno

109

INSTRUMENTACIÓN 15. Sintonización de un controlador por retroalimentación de estados basado en lógica difusa aplicado a un péndulo de Furuta. S. Ortiz-Santos, J. N. Guerrero-Tavares.

117

16. Análisis del perfil aerodinámico de un álabe de un aerogenerador de eje vertical de velocidad variable. O. Mendoza-Herbert, M. Toledano-Ayala.

126

17. Atenuación de Oscilaciones en una Grúa Viajera usando impulsos de fuerza sobre el cable. A. Sibilla-Andrade, M. T. Angulo, J. C. Jáuregui-Correa.

133

18. Diseño de tarjetas electrónicas para dispositivos FPGA. J. A. Licón-Gutiérrez, O. A. Zamudio-Ramírez, J. C. Tapia-Cisneros, D. A. Licón Gutiérrez.

140

19. Implementación de Sensores no-invasivos para estimación de fotosíntesis basado en un FPGA. C. Castañeda-Miranda, L. Contreras-Medina, A. Espinosa-Calderón.

150

20. Caracterización del convertidor analógico a digital de la tarjeta de adquisición de datos NI-PCI6110. M. A. González-Durán, J. C. Jáuregui-Correa, G. Silva-Pineda.

158


21. Implementación de un control en modos deslizantes para un motor de CD. S. M. Delfín-Prieto, F. Mendoza-Mondragón, J. M. Gutiérrez-Villalobos. MATEMÁTICAS 22. La ecuación de Hill y sus aplicaciones. E. Ortiz-Caballero, K. Khmelnytskaya. 23. El pensamiento reflexivo como marco para aprender geometría euclidiana. A. Avilés-Flores. 24. Ejemplos didácticos de las matemáticas en el área de la Química. M. González-Leal, O. Cornejo-Pérez.

163

169

176

182

MATERIALES 25. Síntesis y caracterización de óxidos metálicos mixtos: soportes para catalizadores de oro. A. Moreno-Martell, R. Nava-Mendoza.

192

26. Efecto de la ceniza de bagazo de caña sobre las propiedades mecánicas en morteros de cemento. J. L. Rodríguez-Bucio.

198

27. Geosintéticos y su uso en la ingeniería mexicana. D. Rosales-Hurtado, T. López-Lara

203

28. Biocompuestos arcillosos estabilizados a partir de cenizas de paja de cereal. C. Cobreros-Rodríguez, J. L. Reyes-Araiza

211


Comparación de los parámetros de crecimiento entre la tilapia Oreochromis niloticus y la mojarra nativa Herichthys cyanoguttatus Comparison between the growth factors of the tilapia Oreochromis niloticus and the native cichlid Herichthys cyanoguttatus

G. A. Peña-Herrejón, División de Estudios de Posgrado, Facultad de Ingeniería, Universidad Autónoma de Querétaro, C. U. Cerro de las Campanas S/N. C.P. 76010, Queretaro, Qro., México. G. M. Soto-Zarazúa, C.A. Sistemas Embebidos y Aplicaciones, Facultad de Ingeniería, Universidad Autónoma de Querétaro, C. U. Cerro de las Campanas S/N. C.P. 76010, Queretaro, Qro., México. J. F. García-Trejo, División de Estudios de Posgrado, Facultad de Ingeniería, Universidad Autónoma de Querétaro, C. U. Cerro de las Campanas S/N. C.P. 76010, Queretaro, Qro., México. E. Rico-García, C.A. Biosistemas, Facultad de Ingeniería, Universidad Autónoma de Querétaro, C. U. Cerro de las Campanas S/N. C.P. 76010, Queretaro, Qro., México. RESUMEN. El uso de especies exóticas en la acuicultura es un riesgo para la biodiversidad, una opción son las especies nativas. Se investigó la capacidad de crecimiento de la mojarra nativa Herichthys cyanoguttatus comparándola con la tilapia Oreochromis niloticus. Se colocaron 27 individuos con un peso húmedo promedio de 0.54±0.07 g en tinas de 100 L dentro de un invernadero de polietileno de 504m2 por triplicado por especie. Cada semana se obtuvo el peso húmedo y mensualmente se midió la longitud parcial de todos los individuos. Ambas especies tuvieron una alta supervivencia. Se encontró una diferencia significativa en el crecimiento desde la segunda semana con una tasa específica de crecimiento de 2.28±0.074 %/d para la tilapia y 1.35±0.025 %/d para la mojarra, alcanzando la tilapia una ganancia total en peso de más del doble que la mojarra nativa (31.26±0.957 g; 83.70±4.542 g). La eficiencia de conversión de alimento fue mayor en H. cyanoguttatus con 3.37±0.052 mientras que la tilapia presento un valor de 2.04±0.064. Ambas especies presentaron un crecimiento isométrico con una b al término de 2.974±0.155 para la mojarra y 2.874±0.207 para la tilapia. El factor de condición de ambas especies fue mayor a 1 por lo que se considera que se encontraban en buena condición, con una tendencia a que los organismos de mayor talla mejoraran su factor de condición. La alta eficiencia de conversión de alimento de H. cyanoguttatus, así como el parentesco del crecimiento isométricas y factor de condición de ambas especies, sugieren que H. cyanoguttatus tiene la capacidad de ser cultivada en acuicultura, aunque aún falta determinar el tiempo requerido para alcanzar tallas deseables para el consumo humano. Palabras clave: Mojarra nativa, factor de condición, relación longitud-peso, rendimiento de producción. ABSTRACT. The use of exotic species in aquaculture is a risk to biodiversity, an option are the native species. The growth capacity of the native cichlid Herichthys cyanoguttatus was investigated in comparison to the tilapia Oreochromis niloticus. 27 fish with an average wet weight of 0.54±0.07 g were placed in 100 L tanks inside a polyethylene greenhouse of 504m2 in triplicate by species. Wet weight was obtained each week and monthly standard length was measured for all individuals. Both species had a high survival. We found a significant difference in growth since the second week, with a specific growth rate of 2.28±0.074%/d for the tilapia and 1.35±0.025%/d for the cichlid, the tilapia reached a total weight gain of more than doubled of the native cichlid (31.26±0.957 g; 83.70±4.542 g). The food conversion rate was higher in H. cyanoguttatus with 3.37±0.052 while the tilapia presented a value of 2.04±0.064. Both species showed an isometric growth with a b at the end of 2.974±0.155 for the cichlid and 2.874±0.207 for the tilapia. The condition factor of both species was greater than 1 so it is considered that they were in good condition, with a tendency to improve the condition factor of larger sized organisms. The high efficiency of feed conversion of H. cyanoguttatus, as well as the relationship of the isometric growth and the condition factor of both species, suggests that H. cyanoguttatus has the ability to be grown in aquaculture, but still needs to be determined the time required to reach a desirable size for human consumption. Key words: Native cichlid, condition factor, length-weight relationship, performance growth

1.

INTRODUCCIÓN

A nivel mundial las carpas y las tilapias se encuentran entre las especies de agua dulce más cultivadas (FAO

9


2012). En México la especie más cultivada, después del camarón, es la tilapia (CONAPESCA 2010), especie exótica a la región con un potencial de daño a la biodiversidad muy amplio (Mifsut, Jiménez et al. 2007). Estas especies son utilizadas tanto en cultivo extensivos como intensivos, pero en su gran mayoría son cultivadas utilizando tecnologías muy básicas en producciones de carácter familiar, por lo que su control no está bien regulado (INEGI 2009, Segovia-Quintero 2011). La implementación del cultivo de especies nativas es una opción para disminuir el uso de especies introducidas, pero solo muy pocas especies se han estudiado con un enfoque de producción acuícola (Jiménez-Martínez, Álvarez-González et al. 2009). En el estado de Querétaro la existencia de tilapias en diferentes acuíferos pone en riesgo la biodiversidad de la región (Gutiérrez-Yurrita y Morales-Ortiz 2004). Actualmente no se posee suficiente información para la introducción a la acuicultura de alguna especie del área geográfica de Querétaro, aunque en estudios previos se ha identificado a la mojarra nativa del rio Pánuco (Herichtys cyanoguttatus) como un ejemplar con la capacidad de adaptarse a la producción acuícola (GarcíaTrejo 2007). Este cíclido es comúnmente comercializado en acuarios de ornato bajo el nombre de “Cíclido de Texas”, siendo apreciado por su colorido, por lo que los estudios que se han realizado para la producción de esta especie se encuentran enfocados a mejorar características apreciadas en la acuariofilia (Montajami, Nekoubin et al. 2012; Montajami, Vajargah et al. 2012). En los estudios realizados por García-Trejo (2007) se observó que los alevines de esta especie tienen la capacidad de adaptarse rápidamente a condiciones de cautiverio. Estos pueden tolerar cambios ambientales considerables, fácilmente aceptan el alimento comercial de tilapia y soportan densidades de carga de hasta 375 individuos/m3, con temperaturas optimas de 26 y 28°C, todas estas cualidades muy similares a las observadas en diversos estudios en la tilapia O. niloticus (El-Sayed 2006). A pesar de que se observan características deseables para la acuicultura en H. cyanoguttatus, aún se desconoce la forma como esta especie responderá a la producción acuícola. El presente estudio pretende identificar la forma como esta mojarra se comporta bajo las condiciones de cultivo en invernadero más comunes en la zona del semidesierto de Querétaro. Se determinó la productividad general de la mojarra, la relación longitud-peso y el factor de condición, comparándola con la especie de tilapia Oreochromis niloticus para determinar la viabilidad de que la mojarra del Pánuco pueda competir frente a las especies introducidas empleando la tecnología que actualmente se utiliza.

10

2.

METODOLOGÍA

1.

Organismos de prueba

Los alevines de tilapia (Oreochromis niloticus) fueron obtenidos a partir de la unidad acuícola del Campus Amazcala de la Universidad Autónoma de Querétaro, ubicada en la delegación del Marqués, Querétaro. Los alevines de la mojarra del Pánuco (Herichtys cyanoguttatus) se obtuvieron de los manantiales de Taxhidó ubicada pocos kilómetros río arriba del embalse de la presa Zimapán en el municipio de Cadereyta, Querétaro, localizado en 20° 35’ 18’’ LN 99° 40’ 47’’ LW. La cercanía a los manantiales propicia la obtención de tallas menores, capturando organismos de 10 a 30 mm de longitud. El agua de los manantiales de Taxhidó presenta un pH de 8.2 con temperaturas de 27 °C en el rio y 31.2 °C en el manantial y O2 disuelto de 6.8 mg L-1 en el rio y 7.0 mg L-1 en el manantial (García-Trejo 2007). La captura se realizó en el mes de Abril utilizando el arte de pesca de chinchorro. Los organismos se trasladaron vivos al laboratorio mediante tinas de plástico de 50 L con aireadores. Al momento de su llegada al laboratorio se mantuvieron en tinas de 50 L durante una semana a 27-28 °C simulando las condiciones del área de captura. Desde el primer día de llegada se proporcionó la formula alimenticia Api-Tilapia 1, maltaCleyton® con 50% de proteínas, 12% de lípidos, 13% de cenizas, 3% de fibra, 12% humedad, para acostumbrar su alimentación a pellets. Las tinas dentro del laboratorio se mantuvieron con aireación continua y se les realizó un recambio del 30% del agua cada dos días mediante un sifón para eliminar excesos de desperdicios. Posterior a una a climatización de una semana se seleccionaron por triplicado 27 peces con un peso húmedo promedio de 0.54±.07 g. De igual forma se seleccionaron tilapias que cumplieran con esta característica. Se midió la longitud patrón de cada pez. 2.

Recintos experimentales

Los organismos seleccionados fueron trasladados a tinas de 100 L localizadas dentro de un invernadero de polietileno de 504 m2 de área (18 m x 28 m) en Amazcala Querétaro, México. Se realizaron recambios del 30% del agua mediante sifón cada tercer día. Una vez a la semana, al momento de la captura para las mediciones experimentales, se realizó un recambio del 80% del agua en la tina. De igual forma se monitoreó cada tercer día la temperatura del agua y el oxígeno disuelto mediante el medidor multiparamétrico HQ40D de la marca HACH, USA con el sensor LDO101-03 (°C y Oxigeno disuelto), y el Ph mediante el medidor wáter proof pH tester 10, marca Brand EUTECH, USA Instruments .Una vez cada 15 días se realizaron análisis del contenido amoniacal en el agua mediante técnicas espectrofotométricas utilizando


el espectrofotómetro DR/6000 (HACH) utilizando el método 380N de Hach. Los peces de ambas especies se mantuvieron en aclimatización a las condiciones de invernadero durante una semana. Durante este periodo en caso de algún deceso se recuperó la densidad experimental al incorporar otro espécimen de características similares. El experimento tuvo una duración de 90 días. Durante este periodo semanalmente se midió el peso húmedo de todos los individuos mediante una balanza analítica con precisión de .001 g (Sartorius AY303 Milligram Scale), ajustando la ración de alimento para la semana. Al iniciar el experimento y mensualmente se realizó la biometría de todos los individuos en el laboratorio, utilizando un vernier digital con una precisión de 0.01 mm (Truper Stainless steel), el registro de mortalidad se realizó diario. Los organismos se alimentaron con la misma fórmula alimenticia Api-Tilapia 1 a una razón diaria del 4 % de la biomasa total de cada tina repartida en 1 o 2 raciones al día. 3.

Productividad general

Utilizando los valores obtenidos de peso húmedo se evaluó el rendimiento de acuerdo a lo citado por Alatorre-Jacome, García-Trejo et al. (2012). Analizando la producción total de biomasa (Pt) en términos de densidad relativa (prel), considerando que: ( ) ∑ (1) Donde Pi es el peso del pez en el sistema ( ) (2) Donde V es el volumen. Se determinó la ganancia total en peso de los organismos (GTP) en términos de la tasa promedio de crecimiento diario (TPCD) mediante: ( ) (3) Donde Mf es la masa final y Mi la inicial ) ( (4) Donde D son los días de cultivo. La tasa específica de crecimiento (TEC) se estimó como: (

)

) ( (5) Donde Mf es el peso final, Mi el inicial, ln el logaritmo natural y D los días de cultivo. La mortalidad se registró diariamente y se calculó como la diferencia entre el número de peces en el stock original y los peces al momento de la medición. La eficiencia de conversión del alimento (ECA) se consideró como: (6) ( )

Donde F es el peso seco del alimento.

4.

Relación longitud-peso y factor de condición

Se analizaron las relaciones de longitud-peso por especie mediante regresión lineal, calculando los valores de a y b de la ecuación (Keys 1928) (7) W=aLb Donde W es el peso total en gramos y L la longitud parcial en cm. El valor que se obtiene de b determina si el crecimiento es isométrico, cuando b=3 y el individuo mantiene su forma al crecer, o alométrico positivo si b >3, indicando que los individuos de mayor talla incrementan su peso en mayor proporción que su longitud o negativo si b<3, donde los individuos incrementan preferencialmente su longitud más que su peso. Esto se debe a que la longitud es una magnitud lineal y el peso es igual al cubo de la talla, considerando especies de crecimiento isométrico las que fluctúan dentro de los valores b=2.5 y b=3.5 (Carlander 1969; Froese 2006). El estado de condición se estimó mediante el índice de Fulton (factor de condición (Fc)) ajustado por Clark (1928) (8) Fcmedia=100aLb-3 Ecuación que relaciona los parámetros de longitud-peso con la condición media en la que se encuentran los organismos de ese tratamiento a determinado tamaño. Se considerando que un individuo se encuentra en mejor condición si posee una mayor biomasa en relación con su longitud. 5.

Análisis estadísticos

Los datos de los valores a y b de la relación pesolongitud y el factor de condición dentro de una misma especie fueron analizados mediante una ANOVA de una vía para determinar las diferencias significativas, cuando se encontraron diferencias se realizó una prueba de mínimas diferencias significativas (least square differences, LSD). Para las comparaciones entre especies se realizó una prueba de t para determinar diferencias significativas. Todos los análisis estadísticos se realizaron con una confiabilidad del 95% utilizando el software statgraphics routine centurion XV, ver. 15.2.06. 3.

RESULTADOS

Los datos obtenidos a lo largo del periodo experimental de temperatura, oxígeno disuelto, pH y NH4+ no tuvieron diferencias significativas entre las diferentes tinas (p>0.5), los valores medios de todos los tanques fueron: temperatura 25.4±2.3 °C, oxígeno disuelto 8.51±1.24 mg/L, pH 8.9±0.26 y NH4+ 0.1±0.03 mg/L.

11


Productividad

La ganancia en peso húmedo a lo largo del periodo experimental se muestra en la Figura 1. La mojarra nativa muestra un crecimiento de forma lineal a lo largo del tiempo, aumentando su biomasa lentamente en comparación con la tilapia. La medición inicial y la primer semana no mostraron diferencias significativas, pero a partir de la segunda semana se observa una diferencia a favor de la tilapia en la obtención de biomasa (p<0.05). En la Tabla 1 se presentan los valores obtenidos del rendimiento de producción de ambas especies. Las variables iniciales no tuvieron ninguna diferencia significativa entre especies. El Pt obtenido al final tuvo una diferencia significativa (p<0.05), donde la tilapia fue la que obtuvo un peso mayor, de casi el doble que el obtenido en la mojarra nativa. La ganancia total en peso fue mayor en la tilapia con más del doble de captación de biomasa, donde la mojarra nativa incorporo 0.372 g diarios y la tilapia 1 g diario (p<0.05). De igual forma la tasa de crecimiento específico fue mayor en la tilapia con 2.28 en contra de 1.352 en la mojarra (p<0.05). Se obtuvo una diferencia significativa en la eficiencia de conversión de alimentos donde la tilapia presento un ECA de 2.04, mientras que la mojarra nativa presento 3.370.

peso humedo(g)

1.

110 100 90 80 70 60 50 40 30 20 10 0

*

*

*

*

*

* * *

*

*

*

0 7 14 21 28 35 42 49 56 63 70 77 84 Dias O. niloticus H. cyanoguttatus

Figura 1. Peso obtenido de las diferentes especies. Se muestra el promedio de 3 tinas. * Diferencia significativa entre especies (p<0.05).

Tabla 1. Rendimiento de producción y uso de alimento para las dos especies durante el periodo experimental. H. cyanoguttatus Periodo crecimiento (d) Peces por tanque(n) Tinas (n) Supervivencia (%) Pt inicial (g) Pt final (g)

84 27 3 95.06 14.78 *46.04

prel inicial (g/m3)

147.82 ± 0.658

3

prel final (g/m ) GTP (g) TPCD (g/d) TEC(%/d) ECA

*460.37 *31.26 *0.37 *1.35 *3.37

± ± ± ± ± ± ± ± ± ± ±

0 0 0 5.658 0.066 0.967

O. niloticus 84 27 3 100.00 14.41 *98.11

± ± ± ± ± ±

0 0 0 0.000 0.319 4.312

144.11 ± 3.191

9.669 *981.12 ± 43.123 0.957 *83.70 ± 4.542 0.011 *1.00 ± 0.054 0.025 *2.28 ± 0.074 0.052 *2.04 ± 0.064

Alimento suministrado *105.31 ± 2.281 *170.47 ± 4.020 Los valores son la media (n=3) ± la desviación estándar. Los valores marcados con * presentan una diferencia significativa (P<0.05). 2.

Relación longitud-peso y factor de condición

Los valores obtenidos de la relación longitud peso a y b de la ecuación 7 se muestran en la Tabla 2. En ambas

12

especies se presentó un crecimiento alométrico negativo durante los primeros 28 días, cambiando a un comportamiento isométrico a partir de la medición del día 56, según el valor de b. Dentro de la misma especie, tanto


para tilapia como para la mojarra nativa, los valores obtenidos a partir del día 28 no presentaron diferencia significativa (p>0.05).

Al graficar los valores obtenidos de Fc, utilizando a y b promedio, a diferentes longitudes en términos de log 10 (Figura 2) se observa que a lo largo del tiempo el valor de Fc mejora para los individuos de mayor talla.

Tabla 2 Cambios de la relación peso-longitud (W=aLb) durante el periodo experimental para H. cyanoguttatus (Hc) y O. niloticus (On). Días 0 28 56

a Hc 0.137 ± 0.026 0.051 ± 0.008 0.040 ± 0.009

b Hc

a On

1.450 ± 0.208 C 0.108 ± 0.032 2.700 ± 0.148 D 0.044 ± 0.015 2.931 ± 0.165 d i 0.041 ± 0.012

b On 1.800 ± 0.277 c 2.738 ± 0.312 d 2.791 ± 0.212 d i

0.040 ± 0.009 2.974 ± 0.155 d i 0.039 ± 0.014 2.876 ± 0.207 d i Los valores son la media (n=3) ± la desviación estándar. Las letras c o d marcan diferencia significativa en la prueba LSD (P<0.05) dentro de la misma especie. La letra i indica un crecimiento isométrico debido a que b=3 con p>0.05.

Factor de condición (log Fc)

84

1.2 1 0.8 0.6 0.4 0.2 0 -0.2 -0.4 -0.6

Factor de condición (log Fc)

1.2 1 0.8 0.6 0.4 0.2 0 -0.2 -0.4 -0.6

4.

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 log Lp (cm) Hc 0 Hc 28 Hc 56 Hc 84

El presente estudio buscaba demostrar la capacidad de crecimiento de la mojarra H. cyanoguttatus bajo las condiciones más simples y comunes de cultivo de tilapia en invernadero. Los parámetros del agua de temperatura, pH, oxígeno disuelto y NH4+ presentados a lo largo del experimento fueron los adecuados para el crecimiento de la tilapia O. niloticus (Timmons, Ebeling et al. 2002; ElSayed 2006), en cuanto a la mojarra nativa, la temperatura y el oxígeno disuelto se encuentran dentro de los rangos adecuados para esta especie (García-Trejo 2007; Froese y Pauly 2013). Para el caso de pH y NH4+ se considera que son los adecuados para el crecimiento de H. cyanoguttatus, ya que presento una alta supervivencia (Tabla 1) sin diferencia significativa respecto a la tilapia. Debido a que no se encontró diferencia significativa entre los parámetros ambientales se considera que los resultados observados son adecuados para realizar la comparación de ambas especies. 1.

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 log Lp (cm) On 0 On 28 On 56 On 84

Figura 2 Grafica de log 10 del factor de condición (Fc) contra longitud parcial (Lp). Cada marca representa el valor obtenido de k utilizando la a y b promedio obtenida en cada medición para H. cyanoguttatus (Hc) y O. niloticus (On).

DISCUSIÓN

Productividad

Como se observa en la (Figura 1) la tilapia obtuvo un mayor aumento en biomasa respecto a la mojarra nativa desde el día 14, observando el comienzo de un crecimiento exponencial característico de esta especie (Santos, Yoshihara et al. 2008; Santos, Mareco et al. 2013) en los últimos días del experimento. El crecimiento de la mojarra nativa en la producción acuícola aún no ha sido caracterizado, pero observando los datos obtenidos se aprecia un crecimiento lineal y gradual. Se ha reportado anteriormente que H. cyanoguttatus tiene la capacidad de alcanzar tamaños de hasta 30 cm (Page y Burr 2011) pero el tiempo que necesita para llegar a este punto será mayor que el requerido por la tilapia. Como ya

13


se dijo, la tilapia tiene una mayor ganancia en peso en menor tiempo, aumentando casi el doble del peso total por tina presentado por la mojarra nativa (Tabal 1). Por otra parte O. niloticus obtuvo un TEC de 2.28, el cual es un indicativo de un buen rendimiento de producción (Ogunji y Wirth 2000; Kumar, Akinleye et al. 2011), mientras que H. cyanoguttatus obtuvo un valor muy por debajo con 1.35, indicando que por lo menos en producción de biomasa en el tiempo de estudio la especie nativa no puede competir contra la introducida. Esta característica de crecimiento lento en la mojarra nativa no representa forzosamente una desventaja en todos los modelos de producción acuícola, esta especie podría llegar a ser útil para cultivos de carácter familiar para autoconsumo, como es el caso de la mayoría de las unidades acuícolas presentadas en México (INEGI 2009), en donde lo más importante no es la obtención de la mayor cantidad de biomasa si no el mejor aprovechamiento de los recursos. El único parámetro que se encontró a favor de la mojarra nativa fue la ECA. Muchos autores han reportado una ECA para la tilapia entre 1.2 y 1.5 (De Silva y Anderson 1995; Ogunji y Wirth 2000; Kumar, Akinleye et al. 2011), considerándolo adecuado para la acuicultura, durante este estudio se obtuvo una ECA de 2.04 para O. niloticus, mientras que H. cyanoguttatus una eficiencia de 3.370, una diferencia del 60% entre ambos valores. Esto sugiere que la mojarra nativa, aunque crece a una velocidad más lenta, aprovecha mejor el alimento provocando un menor desperdicio, optimizando el uso de recursos. Por otra parte esta alta eficiencia también podría deberse a que la cantidad de alimento suministrado del 4% de biomasa diario no fue el suficiente para cubrir el total del requerimiento calórico de la especie por lo que esta consumía todo lo que tenía disponible, si este fuera el caso sería necesario aumentar la ración diaria de alimento para obtener mayores pesos en el mismo periodo de tiempo, adaptaciones que tendrían que realizarse al actual manejo en el cultivo de tilapia. 2.

Relación longitud-peso y factor de condición

Como se observa en la tabla 2 los valores obtenidos de b tendieron al crecimiento isométrico (b=3) a lo largo del experimento para ambas especies. La medición inicial obtuvo una b menor a 2 para ambas especies encontrándose fuera del rango predicho por Carlander (1969) y Froese (2006), por lo que no se considera un valor de b correcto ya que ellos estipulan que la relación longitud-peso no es fiable en individuos con tallas muy pequeñas. Para ambas especies a partir del día 28 se alcanzó un “equilibrio” en el coeficiente b ya que no se encontraron diferencias significativas en los valores siguientes, aunque estadísticamente se puede hablar de que obtuvieron un crecimiento isométrico a partir de la medición del día 56. El crecimiento isométrico de la

14

tilapia ya se ha caracterizado previamente (Olurin y Aderibigbe 2006; Gupta, Haque et al. 2012) coincidiendo con los valores obtenidos en este estudio, para el caso de H. cyanoguttatus no existen reportes previos sobre este coeficiente, pero se observa que tiene una tendencia al crecimiento isométrico, característica deseable para la producción acuícola ya que indica la posibilidad de obtener un producto final parecido a la tilapia, por lo que la sustitución de esta por la mojarra nativa puede ser más aceptada por sus consumidores actuales. El Fc de la tilapia a partir de la longitud estándar (figura 2) es equivalente al obtenido en otros estudios (Gupta, Haque et al. 2012; Sousa, Freccia et al. 2013), por otra parte la mojarra nativa presentó una tendencia similar, por lo que se considera que ambas especies están en buenas condiciones ya que los valores obtenidos son mayores a 1 y los especímenes más pesados tienden a mejorar en Fc conforme avanzó el experimento (Bolger y Connolly 1989; Olurin y Aderibigbe 2006), observando que H. cyanoguttatus mejora en condición al someterse a un cultivo acuícola, indicando que esta especie se adaptó correctamente a las condiciones de cultivo. 5.

CONCLUSIONES

H. cyanoguttatus bajo las condiciones de cultivo de este experimento presentó un menor crecimiento en el tiempo frente a O. niloticus, en parte causado debido a que la mojarra nativa no se encuentra adaptada al cultivo acuícola, mientras que la tilapia ha pasado durante años por una ardua selección de especímenes deseables para la producción (Fuentes-Silva, Soto-Zarazua et al. 2013). Cabe resaltar que la ECA mayor para la mojarra nativa presenta un posible punto a favor de esta especie que puede ser aprovechado en cultivos en donde se requiera el menor gasto de insumos sin importar el tiempo, como es el caso de la producción para autoconsumo en zonas de alta marginación. El parentesco entre H. cyanoguttatus y O. niloticus en el crecimiento isométricas y el Fc obtenido en el experimento indican que la mojarra nativa tiene la capacidad de obtener individuos muy similares a los de la tilapia, aunque por otra parte los resultados indican que el implementar un cultivo de mojarra nativa utilizando la tecnología empleada para la producción de tilapia no obtendría los mejores rendimientos, aunque la similitud en la supervivencia de ambas no descarta esta posibilidad. Aún falta determinar el tiempo requerido para alcanzar los tamaños deseables para el consumo humano de H. cyanoguttatus, así como realizar una larga lista de estudios para obtener los mejores rendimientos de esta especie y realizar una nueva comparación para definir la posibilidad de que sea considerada como una alternativa a las mojarras introducidas.


6.

REFERENCIAS

Alatorre-Jacome, O. García-Trejo, F. Soto-Zarazua, G. M. y Rico-Garcia, E., 2012, Techniques to asses fish productivity in aquaculture farms and small fisheries: an overview of algebraic methods. Journal of Applied Sciences, 12(9), 888-892. Bolger, T. y Connolly, P. L., 1989, The suitable of suitable indices for the measurement analysis of fish condition. Journal of Fish Biology 34(2), 171-182. Carlander, K. D., 1969, Handbook of freshwater fishery biology (1th edition Vol. I), University Press, The Iowa State, EEUU. Clark, F. N., 1928, The weight-length relationship of the California sardine (Sardina caerulea) at San Pedro. Fisheries Bulletin, 12(12), 59. CONAPESCA, 2010, Anuario estadístico de acuacultura y pesca 2010. México: SAGARPA. De Silva, S. S. y Anderson, T. A., 1995, Fish Nutrition in Aquaculture (1th edition), Chapman and Hall Aquaculture Series, London. El-Sayed, A.-F. M., 2006, Tilapia culture (1th edition), CABI Pub., Cambridge, UK. FAO., 2012, The state of world fisheries and aquaculture. Food and Agriculture Organization of the United Nations in F. and A. Department, Rome. Froese, R., 2006, Cube law, condition factor and weightlength relationshipa: history, meta-analysis and recommendations. Journal of Applied Ichthyology, 22, 241-253. Froese, R., y Pauly, D., 2013, FishBase, 09/09/2013, from World Wide Web publication www.fishbase.org.

Retrieved electronic

Fuentes-Silva, C. Soto-Zarazua, G. M. Torres-Pacheco, I. y Flores-Rangel, A., 2013, Male tilapia production techniques: A mini-review. African Journal of Biotechnology, 12(36), 5496-5502. García-Trejo, F., 2007, Bases ecofisiológicas para el cultivo de la mojarra del norte Cichlasoma cyanoguttatum (Baird y Girard, 1954). Maestria en Ciencias, Universidad Autónoma de Querétaro, Querétaro, México. Gupta, N. Haque, M. M. y Khan, M., 2012, Growth performance of tilapia fingerling in cage in ponds managed by Adivasi households: An assessment through lenght- weight relationship. Journal of the Bangladesh Agricultural University, 10(1), 149-155. Gutiérrez-Yurrita, P. J. y Morales-Ortiz, A., 2004. Síntesis y perspectivas del estatus ecológico de los peces

del estado de Querétaro (Centro de México). En M. L. Lozano-Vilano & A. J. Contreras-Balderas (Eds.), Homenaje al Doctor Andrés Reséndez Medina. Monterrey, México: Universidad Autónoma de Nuevo León. INEGI, 2009, Pesca y acuicultura. Censos Económicos 2009. México, Instituto Nacional de Estadística y Geografía 83. Jiménez-Martínez, L. D. Álvarez-González, C. A. Contreras-Sánchez, W. M. Márquez-Conturier, G. AriasRodríguez, L. y Almeida-Madrigal, J. A., 2009, Evaluation of larval growth and survival in Mexican Mojarra, Cichlasoma urophthalmus, and Bay Snook, Petenia splendida, under different initial stocking densities. Journal of the World Aquaculture Society, 40(6), 753-761. Keys, A. B., 1928, The weight-length relationship in fishes. Proceedings of the National Academy of Science, Washington DC., XIV(12), 922-925. Kumar, V. Akinleye, A. O. Makkar, H. P. S. AnguloEscalante, M. A. y Becker, K., 2011, Growth performance and metabolic efficiency in Nile tilapia (Oreochromis niloticus L.) fed on a diet containing Jatropha platyphylla kernel meal as a protein source. Journal of Animal Physiology and Animal Nutrition, 96(1), 37-46. Mifsut, I. J. M. Jiménez, M. M. y IMTA. (2007). Especies invasoras de alto impacto a la biodiversidad: prioridades en México. México, Jiutepec, Morelos: IMTA, Conabio, GECI, Arid América, The Nature Conservancy. Montajami, S. Nekoubin, H. Mirzaie, F. S. y Sudagar, M., 2012, Influence of differen artificial colors of light on growth performance and survival rate of texas cichlid larvae (Herichthys cyanoguttatus). World Journal of Zoology, 7(3), 232-235. Montajami, S. Vajargah, M. F. Hajiahmadyan, M. Zarandeh, A. S. H. Mirzaie, F. S. y Hosseini, S. A., 2012, Assessment of the Effects of Feeding Frequency on Growth Performance and Survival Rate of Texas Cichlid Larvae (Herichthys cyanoguttatus). Journal of Fisheries International, 7(2), 51-54. Ogunji, J. O. y Wirth, M., 2000, Effect of dietary protein content on growth, food conversion and body composition of Oreochromis niloticus fingerlings, fed fish meal diet. Journal of Aquaculture in the Tropics, 15, 381-389. Olurin, K. B. y Aderibigbe, A. O., 2006. Length-Weight relationship and condition factor of pond reared juvenil Oreochromis niloticus. World Journal of Zoology, 1(2), 82-85.

15


Page, L. M. y Burr, B. M., 2011, Peterson field guide to freshwater fishes of North America north of Mexico (2nd edition), Houghton Mifflin Harcourt, Boston. Santos, V. B. Mareco, E. A. y Silva, M. D. P., 2013, Growth curves of Nile tilapia (Oreochromis niloticus) strains cultivated at different temperatures. Acta Scientiarum - Animal Sciences, 35(3), 235-242. Santos, V. B. Yoshihara, E. Fonseca de Freitas, R. T. y Neto, R. V. R., 2008, Exponential growth model of Nile tilapia (Oreochromis niloticus) strains considering heteroscedastic variance. Aquaculture, 274(1), 96-100. Segovia-Quintero, M., 2011. An overview on desert aquaculture in Mexico. En Crespi V. y A. Lovatelli. (Eds), Aquaculture in desert and arid lands: development constraints and opportunities., FAO Fisheries and Aquaculture Proceedings 20. Roma Sousa, S. M. N. Freccia, A. Santos, L. D. Meurer, F. Tessaro, L. y Bombardelli, R. A., 2013, Growth of Nile tilapia post-larvae from broodstock fed diet with different levels of digestible protein and digestible energy. Revista Brasileira de Zootecnia, 42, 535-540. Timmons, M. B. Ebeling, J. Wheaton, F. y Summerfel, S., 2002, Recirculating Aquaculture Systems (2nd edition), Northeastern Regional Aquaculture Center, NY, USA.

16


Evaluación de temperatura, pH y CE de diferentes sustratos orgánicos durante su compostaje Evaluation of temperature, pH and EC of different organic substrates during its composting O. Layseca López1, I. Torres Pacheco2, R. Guevara González2, E. Rico García2, L. Ávila Juárez 3, L. Contreras Medina4, R. Ocampo Velázquez2. 1Estudiante de Especialidad en Ingeniería de Invernaderos, Facultad de Ingeniería, Universidad Autónoma de Querétaro. olgalala@hotmail.com 2C.A. Ingeniería de Biosistemas, Facultad de Ingeniería, UAQ. 3Posgrado de Ingeniería, Facultad de Ingeniería, UAQ. 4Profesor-investigador, Facultad de Ingeniería, UAQ.

RESUMEN. Se da el nombre de compostaje al proceso biológico de transformación y valorización de sustratos orgánicos en un producto estabilizado, parecido a tierra vegetal, y rica en sustancias húmicas. Actualmente se recomienda el uso de compostas en la producción agrícola ya que mejora el suelo, entre otras cosas; sin mencionar las ventajas como alternativa en el tratamiento de residuos orgánicos urbanos, y el uso en el sector orgánico que va en crecimiento en nuestro país. Los objetivos del presente trabajo fueron evaluar la temperatura durante todo el proceso del compostaje y el pH y conductividad eléctrica (CE) al inicio y al final del mismo, de cuatro sustratos orgánicos (residuos de invernadero de tomate, residuos de cocina, estiércol ovino y gallinaza). Los primeros dos días los desecho de cocina alcanzaron una temperatura máxima de 59.9 ºC, lo que garantiza la eliminación de los patógenos y la inhabilitación de semillas, sin embargo las demás compostas no llegaron a la temperatura esperada, llegando a los 29.5 ºC la gallinaza, 32.5 ºC los desechos de invernadero y 22.7 ºC el estiércol ovino. En todo el compostaje solamente hubo un incremento de la temperatura mayor a 50 °C en el sustrato de desechos de cocina, las demás compostas mantuvieron temperaturas menores a los 37 °C. Las compostas de gallinaza, estiércol ovino y desechos de invernadero no alcanzan temperaturas superiores a 50 ºC lo cual se puede atribuir a una relación C/N demasiado alta, a la falta de oxigeno y/o al exceso o escases de humedad. El pH se elevo en las cuatro compostas con valores entre 8.70 a 9.56, sin embargo no tendieron a neutralizarse por la falta de madurez del -1 producto. La CE se elevo de igual manera en las cuatro compostas mostrando valores entre 6.73 y mayores de 19.99 dS m . SUMMARY. Composting is the name given to the biological process of transformation and recovery of organic substrates in a stabilized product, like topsoil, rich in humic substances. Currently, the use of compost in agricultural production is recommend to improve soil structure, among other things; in addition of being an alternative in the treatment of organic waste, and being used in the organic sector which is growing in our country. The objective of this study was to evaluate the temperature throughout all the process of composting and pH and EC at the start and end of it, of four organic substrates (tomato greenhouse waste, kitchen waste, ovine and poultry manure). The first two days the kitchen waist reached a maximum temperature of 59.9 ºC, which ensures the elimination of pathogens and disqualification of seeds, however the other composts did not reach the expected temperature, reaching 29.5 ºC the poultry manure, 32.5 °C tomato greenhouse waste and 22.7 °C ovine manure. Throughout composting, was only an increase up to 50 °C in the temperature of the kitchen waste, the other composts maintained their temperature below 37 °C. The tomato greenhouse waste, ovine and poultry manure composts do not reach temperatures above 50 ° C which can be attributed to a C/N too high, lack of oxygen and/or moisture excess or shortage. The pH increased in the four composts with values between 8.70 to 9.56, but they didn’t neutralize by the lack of product maturity. The EC elevated in the four composts showing values between 6.73 and over 19.99 dS m-1. Palabras clave: compostaje, sustratos orgánicos, pH, CE.

1.

INTRODUCCIÓN

Las proyecciones muestran que para el 2050 habrá una población mundial de 9,100 millones de personas (FAO, 2009), lo cual demanda el aumento en la producción de alimentos de calidad e inocuos. Los problemas que enfrenta actualmente nuestro país son la generación de desechos orgánicos, que se estiman en 59 mil toneladas diarias en el país en el 2011, y en promedio cerca de 66.7 miles de toneladas anuales de excretas de ganado (porcino y bovino lechero)

(SEMARNAT, 2013); los cuales no se manejan de manera adecuada y generan un elevado gasto social además de afectar a la sociedad. El uso indiscriminado de agroquímicos y en particular de pesticidas ha provocado la contaminación de aguas superficiales y subterráneas por fertilizantes (eutrofización) (Ongley, 1997), daños a la salud humana como son intoxicaciones a los agricultores, afecciones en la piel (dermatitis crónica) (Ruel y Hawkes, 2006) y cáncer gástrico por el consumo de agua con exceso de nitratos (Anon., 1992). Además de lo anterior, el elevado costo de los fertilizantes hace cada vez más incosteable la

17


producción de alimentos. La problemática antes mencionada puede ser reducida eficazmente con el uso de abonos orgánicos en la producción agrícola. Por otro lado, en México el sector productor agrícola orgánico ha crecido 45% a partir de 1996. Para el 2002, se estimó un total de casi 210 mil hectáreas, el número de productores se ha incrementado a más de 53 mil, mientras que las divisas han alcanzado más de 280 millones de dólares. Hay 668 zonas de producción orgánica detectadas en el 2004, las cuales demandan el uso de abonos orgánicos (Gómez y Gómez, 2004). Entre los abonos orgánicos se encuentran los estiércoles, compostas, vermicompostas, abonos verdes, residuos de cosechas y residuos orgánicos industriales. La aplicación constante de ellos con el tiempo mejora las características físicas, químicas y biológicas del suelo y la sanidad de los cultivos (Martínez, Romero, Corlay, Trinidad, & Santoyo, 1999). El compostaje es un proceso biológico controlado de transformación y valorización de sustratos orgánicos en un producto estabilizado, higienizado, parecido a tierra vegetal, y rica en sustancias húmicas. Este es un tratamiento denominado “natural” y tan antiguo como la agricultura (Moreno y Moral, 2008). Para la producción de composta es necesario llevar metodologías y procedimientos que garanticen un producto de calidad y libre de patógenos. Lo cual se logra mediante el control de las variables que afectan el proceso de compostaje, las cuales son según Moreno y Moral (2008): temperatura, pH, CE y humedad. Por lo anterior el presente trabajo pretende evaluar la temperatura, pH y conductividad eléctrica (CE) durante todo el proceso de compostaje de cuatro sustratos orgánicos. 2.

MATERIALES Y MÉTODOS 2.1. Localización del área de estudio.

El experimento se ubicó en el Área de compostaje del Campus Amazcala, Facultad de Ingeniería, de la Universidad Autónoma de Querétaro.

2.1. Sustratos. Se evaluaron cuatro sustratos para compostear: a) residuos de invernadero de tomate, b) residuos de cocina, c) estiércol ovino y d) gallinaza. Los residuos de invernadero de tomate saladett se adquirieron de un invernadero tipo túnel de 2,000 m2, los cuales son restos de poda, deshierbe y tomates. Los desechos de cocina se obtuvieron de la cocina de la cafetería, que incluyen restos vegetales principalmente de naranja, lechuga, papaya, aguacate, jitomate, cebolla, zanahoria, nopales, perejil, sandia, fresa, entre otros; ambos de la facultad de Ingeniería, del Campus Amazcala de la Universidad Autónoma de Querétaro. El estiércol ovino fresco se obtuvo de los corrales de borregos de la Facultad de Ciencias Naturales, alimentados con silo de avena, alfalfa y alimento comercial. La gallinaza es de una pequeña granja de gallinas ponedoras ubicada en San Juan del Río, Qro., donde las gallinas fueron alimentadas con granos (maíz, sorgo y trigo) y alimento comercial. Se separaron los materiales indeseables de los sustratos, como son piedras, pedazos de plástico, etc. Se molieron los residuos de cocina y residuos de invernadero de tomate en un molino modelo MAA-000637, marca Edison Maquinaria, Mecanizaciones Agropecuarias Azteca, S.A. de C.V. a un tamaño de 7 cm. Se apilaron los sustratos por separado, en montones con un volumen inicial de 0.5 m3. Se voltearon de manera manual y humedecieron una vez por semana. El proceso de composteo tuvo una duración de ocho semanas. A la séptima semana se inoculó levadura a las cuatro compostas para acelerar el proceso de descomposición aumentando su calidad nutricional y biológica. Se hizo una mezcla de 200 gr de levadura de pan, 200 gr de piloncillo y 20 litros de agua tibia (Montes, 2011). Se dejo reposar una noche para su activación y se roció sobre las compostas humedeciendo y volteando. 2.2. Medición de temperatura, pH y CE. Se registró la temperatura los primeros 16 días de manera manual con termómetro aprueba de agua HI 145-20, marca Hanna instruments, introduciéndolo directamente en el sustrato. Los dos primeros días se registró la temperatura cada hora de las 07:00 a las 19:00 hrs. Y los siguientes días una vez diaria. Al decimo séptimo día se instalaron cuatro sensores de temperatura WQ101 Global Water Instrumentation, Inc.,

18


conectados a una tarjeta de memoria, los cuáles midieron la temperatura de manera continua cada minuto. Se midió el pH y CE en una suspensión de 10 g de sustrato por 50 mL de agua destilada, molida y agitada durante 20 minutos con parrilla con agitador Barnstead Thermolyne, modelo SP 131325, marca CIMAREC, introduciendo en la mezcla potenciómetro marca Conductronic PC 28, el cual cuenta con rangos de pH de 2.00 a 16.00 y CE de 0.1 a 19.990 uS en 3 rangos. Los resultados se analizaron por medio del paquete Statgraphics Centurion XV versión 15.2.06. Se realizó un análisis de varianza de error estándar (ANOVA) para observar si existen diferencias entre datos iniciales y finales con una confianza del 95%. 2.3. Calibración de sensores de temperatura

RESULTADOS Y DISCUSIÓN 3.1. Calibración de sensores de temperatura

Los cuatro sensores mostraron voltajes diferentes a las mismas temperaturas (Figura 3.1), por lo cual, con los datos obtenidos se ajustó linealmente cada sensor mediante una fórmula o modelo de respuesta lineal, las cuales se muestran en el Cuadro 3.1. La bondad de ajuste se calculó por el coeficiente Rcuadrado (Cuadro 3.1), donde la menor precisión se observo en el sensor de invernadero 0.9993 y la mayor fue en el sensor de cocina con un valor de 0.9997. Gráficamente se puede observar que la línea de ajuste se aproxima mucho a todos los puntos muestreados de temperatura. En el sensor de invernadero (Figura 3.1 c) se aproximan casi todos los valores a la línea de ajuste, sin embargo uno de los valores sale notablemente de la tendencia además de que este sensor presenta el coeficiente R-cuadrado de menor precisión. La precisión señalada en el manual de los sensores de temperatura es de ±0.1 °C, lo cual concuerda con lo obtenido en los valores de R-cuadrada, por lo tanto para esta aplicación el grado de ajusto es aceptable.

Temperatura (°C)

La calibración de los sensores se llevo a cabo introduciéndolos en un recipiente con agua a 6.5 °C, se calentó el agua de manera gradual hasta que alcanzó los 50 °C. En promedio cada 0.5 °C se midió el voltaje de cada sensor. Con los datos obtenidos se ajustó linealmente cada sensor mediante una fórmula o modelo de respuesta lineal.

3.

50 45 40 35 30 25 20 15 10 5

Figura 2.1. Imágenes del sistema de adquisición de datos (arriba) y sensores colocados en las compostas (abajo).

Temperatura (°C)

3.2 3.4 3.6 3.8 4 4.2 4.4 4.6 4.8 5 Voltaje (V) a) Sensor de temperatura en sustrato de estiércol ovino. 50 45 40 35 30 25 20 15 10 5

3

3

3.2 3.4 3.6 3.8 4 4.2 4.4 4.6 4.8 Voltaje (V) b) Sensor de temperatura en sustrato de gallinaza.

5

19


Temperatura (°C)

50 45 40 35 30 25 20 15 10 5

3.2. Compostaje de sustratos

Temperatura (°C)

4 4.2 4.4 4.6 4.8 5 Voltaje (V) c) Sensor de temperatura en sustrato de desechos de invernadero. 50 45 40 35 30 25 20 15 10 5

3

3

3.2 3.4 3.6 3.8

3.2 3.4 3.6 3.8

4 4.2 4.4 4.6 4.8 5 Voltaje (V) d) Sensor de temperatura en sustrato de desechos de cocina. Figura 3.1. Voltaje de los sensores de temperatura.

Cuadro 3.1. Fórmulas empleadas para el ajuste y coeficiente R-cuadrado de los sensores de temperatura de las compostas. FORMULA

R-CUADRADO

Sensor Estiércol

5.0 ∗ VE  − 78.61 4096 Sensor Gallinaza 5.0 ∗ VG  = 26.02 ∗   − 78.73 4096 Sensor Invernadero 5.0 ∗ VI  = 27.75 ∗   − 80.69 4096 Sensor Cocina 5.0 ∗ VC  = 27.85 ∗   − 78.72 4096  = 25.94 ∗ 

Donde: T= temperatura y V=voltaje.

20

0.9996 0.9996 0.9993 0.9997

En la figura 3.2 se aprecia que en los primeros dos días se observó un incremento en la temperatura de las compostas de los desechos de cocina. La composta de gallinaza incrementó muy sutilmente la temperatura, mientras que los desechos de invernadero y estiércol mantuvieron una temperatura constante. Los desechos de cocina registraron una temperatura inicial de 38 °C y alcanzaron una temperatura máxima al final del primer día de 59.9 °C, y el segundo día la temperatura se mantuvo sobre los 52 °C, lo cual concuerda con Montes (2011), quien señala que aproximadamente después de 14 horas de haber preparado la composta, debe presentar temperaturas superiores a 50 °C, lo que garantiza la eliminación de los patógenos y la inhabilitación de semillas. La composta de gallinaza inició con una temperatura de 22.7 °C alcanzando una temperatura máxima de 29.5 °C. Los desechos de invernadero mantuvieron una temperatura de entre 30.1 y 32.5 °C. La composta de estiércol ovino se mantuvo entre 22.0 y 22.7 °C durante los dos primeros días. Durante la primera semana, las compostas de desecho de cocina y gallinaza muestran un incremento de la temperatura, siendo los desechos de cocina los únicos que alcanzan temperaturas superiores a los 45 °C por un lapso de cuatro días, llegando hasta 55.6 °C promedio diario en el segundo día y después desciende. Los desechos de gallinaza tienen dos máximos de temperatura sobre 35 °C, seguidos de un descenso de temperatura. La composta de estiércol sube lentamente de temperatura hasta alcanzar su máxima de 36.44 °C en la semana 5, descendiendo lentamente. Los desechos de invernadero se mantuvieron en un rango de 22.6 a 31.48 °C. Lo cual puede ser resultado de que la relación C/N es demasiado alta, cuando la relación C/N es mayor de 40 los microorganismos demoraran mucho en descomponer los residuos por carecer de nitrógeno disminuyendo el rendimiento de compostaje (Bueno, 2006). Las compostas de estiércol, gallinaza e invernadero no alcanzan la fase termófila (temperatura mayores a 45°C) lo que se puede deber a la falta de oxigeno y/o al exceso o escases de humedad (Montes, 2011). En la Figura 3.3 se observa que del día 38 al 47 las temperaturas de las cuatro compostas descienden y al inocular la levadura a la séptima semana del proceso de compostaje (día 47), la composta de la gallinaza aumenta su temperatura de 24.89 a 26.84 °C donde se mantiene cuatro días y desciende de temperatura de manera más lenta que como lo venía haciendo. En las tres compostas restantes no se elevó la temperatura más se mantuvo constante durante varios días antes de descender nuevamente. Lo anterior se apega parcialmente a lo


65 60 55 50 45 40 35 30 25 20

día de la aplicación, se notó solo en la composta de gallinaza el aumento de temperatura, y en las otras en la temperatura constante durante unos días.

Estiercol Gallinaza Invernadero Cocina

07:00 08:00 09:00 10:00 11:00 12:00 13:00 14:00 15:00 16:00 17:00 18:00 19:00 07:00 08:00 09:00 10:00 11:00 12:00 13:00 14:00 15:00 16:00 17:00 18:00 19:00

Temperatura (°C)

mencionado por Montes (2011) quien señala que la inoculación de levaduras aceleran el proceso de la fermentación durante los dos primeros días, sin embargo como la temperatura decrecía de manera constante para el

día 1

día 2

Figura 3.2. Temperatura de los primeros dos días de compostaje de cuatro sustratos orgánicos.

60

Estiercol Gallinaza Invernadero Cocina

Temperatura (°C)

55 50 45 40 35 30 25 20

1

3

5

7

9 11 13 15 17 19 24 26 28 30 32 34 36 38 42 44 46 48 50 52 54 56 58 Días Figura 3.3. Temperatura promedio diaria de las compostas de cuatro sustratos orgánicos. El pH se elevó notablemente en todos las compostas presentando valores a las ocho semanas de ente 8.70 a 9.56 (Cuadro 3.2). Moreno y Moral (2008) señalan que el pH varía según la etapa en que se encuentre el proceso, donde el pH se alcaliniza en la fase termófila. Señala que durante el inicio de la fase termófila, debido a la utilización microbiana de los ácidos orgánicos, la proteólisis y la mineralización del nitrógeno con liberación de amoniaco conducen a un incremento gradual del pH hasta alcanzar valores en torno a 8.5. Después de que el pH alcanza estos valores tiende a

estabilizarse en valores cercanos a la neutralidad. Debido a que los valores de pH son superiores a 8.5 en los cuatro casos, esto señala claramente la falta de madurez del producto. La conductividad eléctrica (CE) se elevó en todas las compostas a las ocho semanas respecto a la inicial del sustrato como se muestra en el cuadro 3.2. La composta de estiércol mostro una CE de 6.73 dS m-1, siendo la más baja de las cuatro. Seguida por la de gallinaza, 7.96 dS m1 y la composta de desechos de cocina, 14 dS m-1. La

21


composta que mosto mayor CE fue la de desechos de invernadero con valores superiores a los 19.99 dS m-1. Esta elevación de CE concuerda con Moreno y Moral (2008), que dicen que la CE aumenta debido a la mineralización de la materia orgánica, lo cual aumenta la concentración de nutrientes. De igual manera concuerda con lo experimentado por Velasco-Velasco y colaboradores (2004), donde su material inicial (estiercol y paja) mostro 8.21 dS m-1 y las compostas finales en sus dos tratamientos, aireación forzada y manual, tuvieron 9.43 y 12.57 dS m-1 respectivamente. Cuadro 3.2. Comparación inicial y final de pH y CE del proceso de compostaje de los cuatro sustratos orgánicos. COMPOSTA Estiércol Gallinaza Invernadero Cocina

4.

pH INICIAL FINAL 9.56a 8.84b 7.59b 8.70a b 6.08 8.88a b 6.68 9.47a

CE (dS m-1) INICIAL FINAL 6.14b 6.73a 4.14b 7.96a b 6.21 >19.99a b 6.68 14a

CONCLUSIONES

La composta de desechos de cocina fue la única que alcanzó temperaturas superiores a los 50 °C, quedando las otras tres con temperaturas menores de 37 °C. La inoculación de levaduras ocasionó la elevación en dos grados centígrados de la composta de gallinaza y detuvo el incremento de temperatura, manteniéndola constante por unos días en las demás compostas. El pH y la CE se elevaron en las cuatro compostas.

5.

REFERENCIAS

Anon., 1992. Memorias del II Simposio y I Reunión Nacional Agricultura Sostenible: Un enfoque ecológico, socioeconómico y de desarrollo tecnológico. México: Comisión de Estudios Ambientales C.P. e Instituto Interamericano de Cooperación para la Agricultura. Bueno, M., 2006. El Huerto Familiar Ecológico, La gran guía práctica del cultivo natural. (5ta. ed.) Integral. Barcelona. Dalzell, H., Biddlestone, A., Gray, K. & Thurairajan, K., 1991. Manejo del suelo: producción y uso del composte

22

en ambientes tropicales y subtropicales. Boletín de Suelos de la FAO. FAO, 2009. La Agricultura mundial en la perspectiva del año 2050. . Como alimentar al mundo en 2050. Foro de Expertos de Alto Nivel. Roma. Gómez Tovar, L. & Gómez Cruz, M. Á., 2004. La agricultura orgánica en México: un ejemplo de incorporación y resistencia a la globalización. Oaxaca, Mexico. Martínez, C., Romero, L., Corlay, A., Trinidad, y Ramírez (eds.), 1999. Resúmenes, I Simposium Internacional y Reunión Nacional de Lombricultura y Abonos Orgánicos. SAGARPA, Universidad Autónoma Chapingo, Colegio Postgraduades UACH-CP, Montecillos, Edo. De México, México. Montes Silva, A., 2011. Agricultura Orgánica, Una Alternativa de Producción sostenible y Rentable. Cd. De México. Moreno Casco, J. & Moral Herrero, R., 2008. Compostaje. Ediciones Mundi-Prensa. Madrid, España. Ongley, E. D., 1997. Lucha contra la contaminación agrícola de los recursos hídricos. (Estudio FAO: Riego y drenaje – 55) GEMS/Water Collaboratind Centre, Canada Centre dor Inland Waters Burlington, Canada. Ruel, M. T., & Hawkes, C. (eds.), 2006. Hacia una comprensión de los vínculos entre la agricultura y la salud. [en línea de International Food Policy Research Institute] <http://www.ifpri.org/sites/default/files/publications/focu s13sp.pdf> [consulta: 28 septiembre 2013]. SEMARNAT. Informe de la Situación del Medio Ambiente en México. Compendio de Estadísticas Ambientales. Indicadores Clave y de Desempeño Ambiental. Edición 2012. México. 2013. Velasco-Velasco, J. y otros, 2004. CO2 y dinámica de poblaciones microbianas en composta de estiércol y paja con aireación. TERRA Latinoamericana, 22(3), pp. 307316.


Comparación del crecimiento de Moringa oleifera en dos condiciones de cultivo protegido. Comparison of Moringa oleifera growth on two protected crop conditions. A. Rico Somohano 1 , F. García Trejo 2 , A. Mercado Luna2 . 1 Estudiante de Especialidad de Ingeniería

en Invernaderos, Facultad de Ingeniería, Un iversidad Autónoma de Querétaro. angel.so mohano@gmail.co m. Posgrado de Ingeniería, Facu ltad de Ingeniería, UAQ.

2

RESUMEN. Moringa oleifera es un árbol nativo del norte de la India que se cultiva en diferentes partes del mundo. Tiene múltiples usos siendo el principal como fuente de alimento debido a sus propiedades nutritivas. El objetivo del presente trabajo fue evaluar el efecto de dos condiciones de climas sobre el crecimiento de Moringa oleífera durante dos meses (Agosto y Septiembre de2013). Se establecieron dos tratamientos, árboles en condición climática caliente-húmeda y caliente–seco, con 12 plantas por tratamiento en los que se evaluó cada 15 días altura de la planta, diámetro del tallo y número de ramas. Se registraron los datos de temperatura y humedad relativa obteniéndose una temperatura promedio de 28.4 y 25.1°C y humedad relativa de 62.1 y 23.2% por tratamiento respectivamente. Los resultados se analizaron por un ANOVA (P<0.05). Encontrando diferencias significativas sólo en la altura de la planta (siendo mayor para el clima cálido-húmedo) con una media de 91.98 ± 4.63 cm y 75.30 ± 3.52 cm respectivamente, pero no así en diámetro del tallo o número de ramas Es así, que M oringa tiene mucho mejor comportamiento bajo climas de tipo tropical que semiárido, estando ambos en gran parte del país, lo que lo hace factible como cultivo para M éxico. (Palabras clave: Moringa oleifera, crecimiento)

SUMMARY.

Moringa oleifera is a tree native to northern India and grown in different parts of the world. It has multiple uses to being the main as a source of food because of its nutritional properties. The aim of this study was to evaluate the effect of two weather conditions on the growth of Moringa oleifera over two months (August and September). Two treatments were established, trees in humid - hot and dry – hot weather conditions with 12 plants per treatment in which were evaluated every 15 days plant height, stem diameter and number of twigs. Data was recorded of temperature and relative humidity obtaining an average temperature of 24.8 and 25.1°C and a relative humidity of 62.1 and 23.2% respectively. Results were analyzed using an ANOVA (P<0.05). Significant effect was found for plant height (being higher for the weather humid - hot) with a mean of 91.98 ± 4.63 cm and 75.30 ± 3.52 cm respectively , but not for stem diameter and number of twigs. Thus M oringa has much better performance under tropical than semiarid weather being both present in great part of the country which makes it feasible as a crop for M exico. (Key words: Moringa oleifera, growth)

I. INTRODUCCION La Moringa (Moringa oleifera Lam.) es una especie nativa de los bosques tropicales caducifolios del noroeste de la India y del este de Pakistán (Haines, 1922). Algunas de sus características agronómicas son muy rápido crecimiento, alta capacidad de producción de biomasa en densidades que van de 100 mil hasta 1 millón de plantas/ha., aporta una elevada cantidad de nutrientes al suelo, además lo protege de factores externos como la erosión, la desecación y las altas temperaturas (Jyothi et al., 1990; Reyes, 2006; Goss, 2012; Morton, 1991). Tiene una combinación singular de propiedades y aprovechamiento de sus partes. Las hojas son comestibles

y ricas en proteínas, con un perfil balanceado de aminoácidos esenciales, vitaminas A y C y antioxidantes. Los frutos son comestibles en su etapa joven y las semillas producen un aceite comestible y lubricante de alta calidad. Los desechos del prensado de las semillas contienen los floculantes o aglutinantes vegetales más potentes que se conocen y que eliminan la turbidez del agua. Todos los residuos se pueden ofrecer como forraje a los animales (Mart ínez, 1959; Reyes, 2006; Olson y Fahey, 2011) Se ha reportado a Moringa como un árbol tolerante a la sequia, el cual puede vivir en zonas con precipitaciones de hasta 500 mm anuales y con temporadas secas de hasta 6 meses. Es por esta razón que Moringa es un género de plantas con numerosas especies

23


distribuidas en zonas áridas y semiáridas (Duke, 1983; Reyes, 2006; Olson y Fahey, 2011). Es de ráp ido crecimiento tanto en trópico como en sub-trópico, siendo las óptimas entre los 25-35°C y en precipitaciones de 250 – 1500 mm, llegando a crecer hasta 10 m. por año. (Doerr y Cameron, 2005. Muhl, 2011). Sin embargo no se han hecho estudios comparativos sobre su comportamiento en condiciones de alta y baja humedad. Por lo anterior, se evaluó en el presente estudio el crecimiento de la especie bajo dos condiciones de clima diversos, partiendo de que Moringa oleifera se adapta a climas mexicanos, tanto tropicales como semiáridos. II. MATERIALES Y METODOS El estudio se realizó en la Un iversidad Autónoma de Querétaro Campus Amazcala, en el municipio de El Marqués, Querétaro, localizado en el sureste del estado y con ubicación entre los 20° 31’ y 20° 58’ latitud Norte y entre 100° 09’ y 100° 24’ longitud Oeste, con una altura sobre el nivel del mar de 1850 m (INEGI, 2005). Se trabajó en dos invernaderos, uno en donde se encuentran 12 estanques de peces con un volumen unitario de agua de 20 m3 (clima cálido-hú medo) y el otro sin estanques. Las plantas fueron proporcionadas por la Sociedad Cooperativa de Producción de Bienes y Servicios Kurate, productores de esta especie en San Miguel de Allende, Guanajuato. Tenían una edad aproximada de 5 meses con una altura de 50 cm. Se trasplantaron en surcos de 1 m de ancho por 6 m de largo a una densidad de 6 plantas por m2 , utilizando como sustrato una mezcla de 20% de tierra negra (propia de Amazcala), 20% lo mbrico mposta, 20% tezontle y 40% arena, hu medecidas a capacidad de campo tres veces por semana.

Los resultados se analizarán por medio del paquete Statgraphics Centurion XV versión 15.2.06. Se realizó un análisis de varianza (ANOVA ) para observar si existen diferencias entre tratamientos. Lo cual se hizo con una significancia estadística del 95%. III. RES ULTADOS Y DISCUS IÓN En la figura 1 y 2 se describen la temperatura y humedad relativa de los tratamientos. Cabe destacar que hay una variación med ia de temperatura de 3.3°C entre C-H y C-S (Figura 1) mientras que en humedad relativa (Figura 2) fue de 38.9%. La diferencia de temperaturas mín imas se puede explicar debido a que la humedad ayuda a amort iguar los cambios, absorbiendo energía en el día y liberándola por la noche.

Figura 1. Temperaturas máximas y mínimas de invernaderos C-H y C-S.

Se tuvieron dos tratamientos (T1: árboles en clima caliente-hú medo (C-H) y T2: árboles en clima calienteseco (C-S)) los cuales se arreglaron en un diseño completamente al azar (DCA). La unidad experimental fue de cuatro árboles y tres repeticiones , dando un total de 12 individuos por tratamiento. Se muestrearon todas las plantas. Posterior al trasplante de los árboles, se dio un periodo de adaptación de quince días. Las variables que se evaluaron fueron: altura de la planta en cm (de la base al ápice del tallo), diámetro del tallo en mm (3 cm de la base) y número de ramas (todos aquellos brotes que tengan más de una hoja compuesta y que estén bien diferenciadas ). Las mediciones se hicieron cada 15 días durante los meses de Agosto y Septiemb re.

24

Figura 2. Hu medad Relat iva máxima y mínima de invernaderos C-H y C-S.


En los resultados de crecimiento para la variable de altura de la planta se encontró una altura final pro medio de 134.8 cm en C-H y de 105.7 cm para el C-S. Lo que significó un au mento mensual de 77.6% y de 48.6% respectivamente. En la figura 3 se observa una diferencia significativa entre los tratamientos C-H y C-S. Lo anterior concuerda con los estudios tanto de Muhl (2011), como de Doerr y Cameron (2005), en los que los climas con mayor temperatura son los que tienen mejor comportamiento de crecimiento. Bañon (2006) en un estudio similar concluye que las plantas sometidas a temperaturas más altas tienen mayor área foliar, aumentando la cantidad de estomas por planta y resultando en un incremento del crecimiento vegetativo así como de acumu lación de materia seca. La variable humedad no había sido analizada antes, por lo que no hay respaldo de estudios sobre la materia, pero concuerda con los climas de origen tropical.

Figura 4. Crecimiento en diámetro por tratamiento y medición. F = 0.391964. F = > 0.05, con un nivel del 95.0% de confianza.

Figura 5. F = 2.08642. F = > 0.05, con un nivel del 95.0% de confianza.

V. CONCLUS IÓN.

Figura 3. Crecimiento en altura por tratamiento y medición . F= 146.139. F = < 0.05, con un nivel del 95.0% de confianza.

En las variab les diámetro del tallo (Figura 4) y nú mero de ramas (Figura 5) no se observaron diferencia significativa para los tratamientos debido a las condiciones C-H y C-S así como tampoco dentro de cada una de las mediciones. Esto se puede atribuir al crecimiento normal de la especie, más que a la condición climát ica. Estos resultados se pueden atribuir probablemente a que dado que no se decapitaron las plantas, sigue existiendo dominancia ap ical y por lo tanto en ambos tratamientos se sigue teniendo preferencia al crecimiento del meristemo apical sobre los meristemos de las yemas axilares.

Los resultados obtenidos sugieren que las condiciones del clima cálido húmedo fueron mejores para el crecimiento de Moringa, lo cual se vio reflejado en la altura (siendo mayor en un 29%) y no así tanto en diámetro de tallo como en nú mero de ramas. De esta forma podemos sugerir a esta especie como viable tanto para climas mexicanos tropicales húmedos como para trópico seco, pues pese a la preferencia del árbol por los climas más húmedos, siguen teniendo buen desarrollo en los secos. LITERATURA CITADA Doerr, B. y L. Cameron. (2005). Polvo de hojas de Marango. Nota Técnica ECHO. [Consultado 3 de junio de 2013] <http://www.echocommunity.org/resource/colle ction/96A1B5DF-DAD3-4D80-B3BCFAF7F6A 0414E/MoringaLeafPowderSpanish.p df>. Duke, J. (1983). Moringa oleifera Lam. Handbook of Energy Crops. Center for New Crops & Plants Products. Purdue University. [Consultado 28 de mayo de 2013] <http://www.hort.purdue.edu/newcrop/duke_ene rgy/Moringa_oleifera.ht ml>. Goss, M. (2012). A study of the initial establishment of mu lti - purpose moringa (Moringa oleifera Lam)

25


at various plant densities, their effect on biomass accumulat ion and leaf y ield when grown as vegetable. African Journal of Plant Science Vol. 6(3), pp. 125-129. Haines, H. (1922). Botany of Bihar and Orissa. Part III. En : Olson, M. E. y Fahey, J. W. (2011). Moringa oleifera: un árbol mult iusos para las zonas tropicales secas (Moringa oleifera: a mu ltipurpose tree for the dry tropics). Revista Mexicana de Biodiversidad 82(4): 10711082. INEGI, (2005). Sistemas Nacionales Estadístico y de Información Geográfica. Aspectos geográficos de Querétaro de Arteaga. Jyothi, P., J. Atluri, y C. Subba. (1990). Pollination ecology of Moringa oleifera (Moringaceae). En : Pérez, A., T. Sánchez, N. Armengol y F. Reyes. (2010). Características y potencialidades de Moringa oleifera, Lamark. Una alternativa para la alimentación animal. Pastos y Forrajes v.33 n.4 Matanzas, Cuba. Martínez, M. (1959). Plantas útiles de la flora mexicana. En : Olson, M. y J. Fahey. (2011). Moringa oleifera: un árbol mu ltiusos para las zonas tropicales secas (Moringa oleifera: a mu ltipurpose tree for the dry tropics). Rev ista Mexicana de Biod iversidad 82(4): 1071-1082. Morton, J. (1991). The horseradish tree, Moringa pterigosperma. En Pérez, A., T. Sánchez, N. Armengol y F. Reyes. (2010). Características y potencialidades de Moringa oleifera, Lamark. Una alternativa para la alimentación animal. Pastos y Forrajes v.33 n.4 Matanzas, Cuba. Muhl, Q., E. Du Toit y P. Robbertse, (2011). Moringa oleifera (horseradish tree) leaf adaptation to temperature. regimes Int. J. Agric. Biol., 13: 1021–1024 Olson, M. y J. Fahey. (2011). Moringa oleifera: un árbol mu ltiusos para las zonas tropicales secas (Moringa oleifera: a mu ltipurpose tree for the dry tropics). Revista Mexicana de Biodiversidad 82(4): 1071-1082. Reyes, N. (2006). Moringa oleifera and Crataylia artentea. Potencial Fodder Species for rummninants in Nicaragua. Faculty of Veterinary Medicine and Animal Science, Depart ment of Animal Nutrit ion and Management. Uppsala, Sweeden.

26


El efecto de la aplicación de sonidos ultrasónicos sobre la mosquita blanca “Bemisia tabaci” The effect of ultrasonic sounds application on whitefly "Bemisia tabaci"

I. Macías Bobadilla 1, Maestría en Biosistemas. Universidad Autónoma de Querétaro Facultad de Ingeniería Campus Amazcala. IE.TI.ISRAEL@GMAIL.COM

A. Mercado Luna 2, Maestría en Biosistemas. Universidad Autónoma de Querétaro Facultad de Ingeniería Campus Amazcala. MERLUNA15@YAHOO.COM.MX

M. Vargas Hernández 3, Maestría en Biosistemas. Universidad Autónoma de Querétaro Facultad de Ingeniería Campus Amazcala. VARHER_87@GMAIL.COM

E. Rico García 4, Coordinador Maestría en Biosistemas. Universidad Autónoma de Querétaro Facultad de Ingeniería Campus Amazcala. RICOG@UAQ.MX

RESUMEN. La especie Bemisia tabaci, es considerada el miembro más importante de la familia de mosquitas blancas, debido a la alta tasa de crecimiento de la población, polifagia, movilidad y capacidad para transmitir varios virus importantes. Investigaciones sobre el uso de ultrasonidos sugieren que pueden ser una estrategia para el manejo de insectos plagas en los cultivos. El estudio realizado en este trabajo de investigación registró la actividad de la mosquita blanca Bemisia tabaci al ser sometido a señales ultrasónicas. Se utilizaron un par de recintos entomológicos, con 100 individuos no sexados, al Recinto A se le aplico sonido ultrasónico con una frecuencias de 24 KHz mediante un transductor para altas frecuencias, como control se utilizó otro recinto al cual no se le aplicó señal alguna de ultrasonido (Recinto B). Se registró la actividad de la mosquita blanca mediante la videograbación del número de vuelos que presentaron durante las horas de la mañana de mayor actividad entre las 11:00 am y las 12:00 pm. Los videos se analizaron de manera visual con ayuda del software de edición de video Camtasia para poder manipular la línea de tiempo del video con el fin de hacer un análisis cuadro por cuadro, por otro lado se siguió un tratamiento entrecruzado para comprobar la homogeneidad de la población. El tratamiento ultrasónico redujo considerablemente el número de vuelos de la mosquita blanca en un 418% para el primer ensayo, mientras que en el segundo ensayo se redujo en 226%, lo anterior demuestra que la aplicación de ultrasonido a poblaciones de Bemisia tabaci reduce el número de vuelos los cuales están asociados con la búsqueda de pareja para la cópula, alimentación y sitios de ovoposición.

Palabras clave: Mosquita Blanca, Bemisia tabaci, Ultrasonido.

ABSTRACT. The Bemisia tabaci specie, is considered the most important member of the family of whiteflies, due to the high rate of population growth, polyphagia, mobility and ability to transmit several important viruses. Studies suggest that the use of ultrasound may be a strategy for the management of insect pests in crops. The study in this research recorded the whitefly activity of Bemisia tabaci when subjected to ultrasonic signals. A pair of Entomological enclosures were used with 100 unsexed individuals, at enclosure A ultrasonic sound is applied with a frequency of 24 KHz through a high frequency transducer, as a control an enclosure to which no ultrasonic sound was applied was used (Enclosure B). The whitefly activity was recorded by videotaping counting the number of flights that occurred during the morning hours when high activity was found between 11:00 am and 12:00 pm. The videos were analyzed visually using the video editing software Camtasia to manipulate the video timeline in order to make a frame-by-frame analysis, on the other hand a crosslinked treatment was carried out to check homogeneity of population. Ultrasonic treatment significantly reduced the number of whitefly flights in 418% for the first test, while in the second trial was reduced by 226 %, this shows that the application of ultrasound to Bemisia tabaci populations reduces the number flights which are associated with matchmaking for copulation, feeding and oviposition sites.

Keywords: Whitefly, Bemisia tabaci, Ultrasound.

27


1.

INTRODUCCIÓN

Los invernaderos o cultivos protegidos son un interesante reto para el manejo de las plagas potenciales, pues en estos sitios se presentan condiciones climatológicas y ambientales propicias para el establecimiento y desarrollo de insectos, así como de enfermedades, malezas, vertebrados, nematodos y otros organismos que pueden mermar la producción y comercialización (Oliveira et al., 2001). La mosquita blanca (Bemisia tabaci Gennadius) (Hemiptera: Aleyrodidae) es una plaga mundial que ha causado enormes pérdidas en la producción agrícola, sobre todo en Cucurbitáceas, Fabáceas y Solanáceas (Oliveira et al., 2001). Esta especie de plaga es nativa del sur de Asia, pero actualmente se distribuye en todo el mundo, especialmente en las regiones tropicales (Brown et al., 1992). Altas poblaciones de Bemisia tabaci (B. tabaci) inducen por la alimentación, el crecimiento de hongos asociados por contaminación al excretar mielecilla, reduciendo la productividad de las plantas y causando trastornos fisiológicos. Las pérdidas también se producen a partir de B. tabaci debido a la transmisión eficiente de Begomovirus, un género de la familia taxonómica Geminiviridae que causa mosaico hoja amarilla y moteado, deformación de hojas y retraso en el crecimiento (Oliveira et al., 2001; Morales, 2007). B. tabaci es sumamente eficaz en la transmisión de virus, puede llegar a infestar el 100% de las plantas cultivadas, es considerada el miembro más importante de la familia de mosquitas blancas desde un punto de vista económico, debido a la alta tasa de crecimiento de la población, polifagia, movilidad y capacidad para transmitir varios virus importantes (Bellows et al., 1990). El control de B. tabaci se ha llevado a cabo típicamente mediante el uso de insecticidas químicos, que están asociados con la contaminación del medio ambiente, los altos niveles de resistencia y daño a los organismos no objetivo (Elbert et al., 2000). Además del alto costo la alternativa de control químico se ha relacionado con problemas de contaminación del aire, agua y alimentos que pueden causar graves daños a la salud (Khuder et al., 1998; Van Maele-Fabry et al., 2004). En estudios reportados a exposición de agroquímicos han encontrado relación del cáncer de mama (Alavanja et al., 2004) y alteraciones en el material genético (Mañas, 2009). Por otra parte las poblaciones de B. tabaci han demostrado altos niveles de resistencia a agroquímicos, como los compuestos organofosforados, carbamatos y piretroides (Elbert et al., 2000; Palumbo et al., 2001).

28

Ante tal escenario surge la necesidad de explorar nuevas alternativas en el control de insectos plaga en la agricultura tal es el caso de la tecnología electroacústica que ha sido aplicada por algunos años en el estudio de la comunicación de insectos y de este modo modificar su comportamiento. Actualmente se encuentran en el mercado dispositivos electrónicos enfocados al control de plagas (roedores, insectos rastreros, mosquitos, aves, etc.) por medio de señales electroacústicas en las que sus características de operación son rangos de frecuencia infrasónicos y ultrasónicos. Investigaciones sobre el uso de ultrasonidos sugieren que pueden ser una estrategia para el manejo de insectos plagas en los cultivos (Huang, 2003). Con el objetivo de explorar nuevas alternativas en el control de la mosquita blanca se llevó a cabo una evaluación del efecto de sonidos ultrasónicos en especímenes de mosquita blanca de B. tabaci, mediante la cuantificación del tipo de vuelo el cual define parámetros como la búsqueda de alimento, pareja y ovoposición.

2.

FUNDAMENTACIÓN TEÓRICA

2.1 Comportamiento de B. tabaci respecto al vuelo El comportamiento de la mosquita blanca con respecto al vuelo ha sido clasificado en dos categorías, vuelos a larga distancia que ocurre cuando el adulto deja la planta hospedera y un vuelo común a corta distancia dentro y ligeramente arriba del dosel del hospedero, asociado con la búsqueda de pareja para la copula, alimentación y sitios de ovoposición (Berlinger 1986, Blakmer y Birne 1993b) 2.2 Identificación visual de B. tabaci B. tabaci se puede identificar por sus características morfológicas de otra especie como la Trialeurodes vaporariorum que se puede encontrar en la región de Amazcala (El Marqués, Querétaro), por la posición de las alas y las características de la larva. Para tal caso Trialeurodes vaporariorum tiene las alas horizontales, mientras que B. tabaci las tiene inclinadas sobre el cuerpo. Las larvas son igualmente diferenciables, la larva de T. vaporariorum tiene todo el perímetro lleno de pelo o quetas, mientras que la larva de B. tabaci contiene como máximo 7 pares de quetas. 3.

MATERIALES Y MÉTODOS

3.1 Biología de Bemisia tabaci y planta hospedera Los adultos de la especie de B. tabaci, fueron obtenidos de una colonia establecida sobre un cultivo de tomate ubicado en un invernadero comercial con rangos de temperatura de


32 ± 2°C y 60 ± 5% de humedad relativa, así como 12 horas de fotoperiodo, la planta hospedera utilizada para la experimentación fue una planta de tomate (Solanum lycopersicumde) de la variedad saladet. Las plantas hospederas se ubicaron en recintos entomológicos establecidos en un invernadero de 108m2 en el campus Amazcala de la Universidad Autónoma de Querétaro, ubicada en el municipio del Marqués Querétaro. 3.2 Recintos entomológicos Los recintos entomológicos para la experimentación fueron de dimensiones 0.5m x 0.5m x 0.5m, a seis lados del recinto se les puso malla antiafidos, mientras que a la base y la parte trasera de la cámara entomológica se le coloco vidrio transparente (Figura 1) para facilitar la grabación de la actividad de B. tabaci.

Figura 2. Imagen obtenida con el osciloscopio Tecktronic TDS 2024C de la forma de la señal aplicada al transductor ultrasónico con frecuencias de 24 KHz.

3.5 Diseño experimental

Figura 1. Diseño de la cámara entomológica, se muestra la fuente electroacústica y posición de la planta.

3.3 Variables climáticas Al inicio de la experimentación, se registró la temperatura (T) y la humedad relativa (HR) mediante un dataloger Spectrum Watchdog 1000 serie b, registrando una temperatura promedio de 36.7°C y 27.3 HR. 3.4 Medición de la salida de sonido Los datos de la señal de sonido ultrasónico fueron recolectados utilizando un osciloscopio digital Tecktronic TDS 2024C (200 MHz, 2GS/s) dispositivo de medición con el que determinamos la frecuencia y forma de la señal generada. Las Mediciones se calibraron utilizando un generador de funciones Simpson 420d, dispositivo para generar señales de con diferentes frecuencias y forma de onda (Figura 2).

Dos repeticiones en pares se llevaron a cabo para evaluar la respuesta de la mosquita blanca Bemisia tabaci al ultrasonido. Para cada prueba, se utilizó un par de recintos, con 100 individuos no sexados, en el primer día de la experimentación en uno de los recitos (Recinto A) se le aplico sonido ultrasónico (Figura 1) con una señal senoidal con frecuencia de 24 KHz (Pérez García, 2013), mediante un transductor ultrasónico HARDEN modelo KTB-285C (3 KHz- 25 KHz) con una impedancia de 4 Ohms y una sensibilidad de 99 dB W/M y un amplificador acondicionado para altas frecuencias conectado a la salida del generador de funciones Simpson 420d, como control se utilizó un recinto al cual no se le aplico señal alguna de ultrasonido (Recinto B), se registró la actividad de la población de mosquita blanca mediante la videograbación del número de vuelos, a corta distancia dentro y ligeramente arriba del dosel del hospedero (Berlinger 1986, Blakmer y Birne 1993b) que presentaron durante las horas de 11:00 am a 12:00 pm (Ortiz-Catón, 2010), con una resolución de 1024x768, se cuantifico el número de vuelos realizados con la ayuda del software de edición de video Camtasia el cual permite disponer de la línea de tiempo de los videos grabados y poder controlar cuadro por cuadro el video para poder identificar de manera visual la actividad de la población de mosquita blanca en los recintos entomológicos, posteriormente se intercambiaron los tratamientos para comprobar la homogeneidad de la población.

29


4.

RESULTADOS Y DISCUSIONES

En la figura 3 se observa la respuesta de B. Tabaci ante la aplicación del ultrasonido, en el primer ensayo hay una reducción de 418% en la cantidad de movimiento, mientras que durante el segundo ensayo se observó una reducción de 226%, se puede observar una diferencia significativa entre el tratamiento al cual se le aplico el ultrasonido y el control, esto puede ser debido a que los individuos muestran sensibilidad a las ondas ultrasónicas y por lo tanto se afecta de manera negativa su comportamiento en cuanto al número de vuelos asociado con la búsqueda de pareja para la cúpula, alimentación y sitios de ovoposición (Berlinger 1986, Blakmer y Birne 1993b). Por otro lado los tratamientos del ensayo 1 y 2 muestran una diferencia, esto se puede explicar por una diferencia entre número de hembras y de machos en los recintos ya que no se sexaron y las hembras pueden presentar mayor actividad porque buscan lugares para ovopositar.

6.

BIBLIOGRAFÍA

Alavanja M. C., Hoppin J. A., Kamel F., 2004, Health effects of chronic pesticide exposure: cancer and neurotoxicity, Annu. Rev. Public Health, 25:155-197 Bellows T. S.JR., Byrne D. N., Parrella M. P., 1990, Whiteflies in Agricultural Systems, In: Gerling, D (ed.), Whiteflies their Bionomics, Pest Status and Management. Intercept Ltd, Great Britain. 227-261 Berlinger M. J., 1986, Host plant resistance to Bemisia tabaci. Agriculture, Ecosystems and Environment 17:6982. Blackmer J. L., Byrne D. N., 1993b, Environmental and physiological factors influencing phototactic flight of Bemisia tabaci, Physiol. Entomol., 18(3):336-342. Brown J.K. And Bird J., 1992. Whitefly-transmitted geminiviruses and associated disorders in the Americas and the Caribbean Basin. Plant Disease, 76(3):220-225. Elbert A., Nauen R., 2000, Resistance of Benisia tabaci (Homoptera: Aleyrodidae) to insecticides in southern Spain whit special reference to neonicolinoids, Pest Management Science, 56 (1): 60-64. Pérez García. L.V., 2013, Desarrollo de un dispositivo basado en sonido ultrasónico que afecta el comportamiento de la mosquita blanca (Trialeurodes vaporariorum).

Figura 3. Gráfica de barras en la cual se muestra la actividad de la mosquita blanca en los recintos entomológicos.

5.

CONCLUSIONES

Los datos obtenidos durante la experimentación, reflejados en la figura 3 sugieren que la aplicación de frecuencias ultrasónicas a la mosquita blanca B. tabaci, reduce considerablemente la actividad de la mosquita blanca en el número de vuelos, esto sugiere que puede ser una alternativa como método de control, estos datos son el punto de partida para la futuras investigación en cuanto al efecto del ultrasonido sobre la ovoposición, presión acústica necesaria en invernaderos o a campo abierto para que sea efectivo como una alternativa a los métodos de control químico.

30

Huang F., Subramanya B., Taylor R., 2003, Ultrasound affects spermatophore transfer, ninfalnumbers, andninfal weight of Plodia interpunctella (Hübner) (Lepidoptera: Pyralidae). Journal of Stored Products Research, 39: 413422. KhuderSa, SchaubEa, Keller-Byrne Je., 1998, MetaAnalyses of Non-Hodgkin's lymphoma and farming. Scand J Work Environ Health, 24(4):255-261. Mañas F., Peralta L., Raviolo J., García H., Weyers A, Ugnia L, et al., 2009,Genotoxicity and oxidative stress of glyphosate: in vivo and in vitro testing. Environ Toxicol Pharmacol, 28(1):37-41. Morales F. J., 1994, Mosaico Dorado del Fríjol Avances de Investigación 1994, Palmira, Valle del Cauca, Colombia: Centro Internacional de Agricultura Tropical (CIAT), 193. Morales F. J., 2007, Tropical Whitefly IPM Project, Advances in Virus Research, 69:249-311.


Oliveira M. R. V., Henneberry T. J., And Anderson P., 2001, History, current status, and collaborative research projects for Bemisia tabaci. Crop Protection, 20(9):709723. Ortiz-Cat贸n, M., R. Medina-T贸rres, R. Valdivia-Bernal, A. Ortiz-Cat贸n, S. Alvarado-Casillas, J.R Rodr铆guez Blanco., 2010, Mosquitas blancas plaga primaria de hortalizas en Nayarit. Revista Fuente. 2:31-40. Palumbo J., Horowitz A., Prabahaker N., 2001, Insecticidal control and resistance management for Bemisia tabaci, Crop Proteccion 20 (9), 739-765. Van Maele-Fabry G, Willems Jl., 2003, Occupation related pesticide exposure and cancer of the prostate: a meta-analysis, Occup. Environ. Med., 60:634-642. Van Maele-Fabry G, Willems Jl., 2004, Prostate cancer among pesticide applicators: a meta-analysis, Int. Arch. Occup. Environ Health, 77(8):559-570. Virant-Doberlet M., Cokl A., 2004, Vibrational Communication in Insects, Dept. Entomology, National Institute of Biology Neotropical Entomology, 33(2):121.

31


Evaluación de diferentes fertilizantes orgánicos en la producción de compuestos fenólicos en tomate (Solanum lycopersicum) cultivado bajo condiciones de invernadero. Evaluation of different organic fertilizers in the production of phenolic compounds in tomato (Solanum lycopersicum) grown under greenhouse conditions. J. Olvera Hernández1, I. Torres Pacheco2, R. Guevara González2, R. Ocampo Velázquez2, A. Feregrino Pérez3, M. Hernández Zul3, 1Estudiante de Especialidad de Ingeniería en Invernaderos, Facultad de

Ingeniería, Universidad Autónoma de Querétaro. e-mail: pppablo7@gmail.com. 2C.A. Ingeniería de Biosistemas, Facultad de Ingeniería, UAQ. 3 Posgrado de Ingeniería, Facultad de Ingeniería, UAQ.

RESUMEN. Los efectos benéficos del tomate sobre el organismo humano han despertado un gran interés entre la comunidad científica y los estudios han comprobado que poseen altos niveles de compuestos bioactivos como son fenoles, taninos y flavonoides. La producción orgánica genera un estrés indirecto en las plantas debido a que algunos nutrientes no se encuentran disponibles inmediatamente, dicho estrés hace que las plantas generen metabolitos secundarios y con el presente trabajo se determinó cuál de los diferentes fertilizantes orgánicos evaluados indujo una mayor producción de bioactivos. Se obtuvieron los extractos metanólicos de tomates cultivados con 15 tratamientos diferentes de fertilización, de cada tratamiento se evaluaron 3 tomates con triplicado y a partir de estas muestras se determinó el contenido de fenoles, taninos y flavonoides, en equivalentes de ácido gálico (GA), catequina y rutina respectivamente, utilizando técnicas espectrofotométricas. Los resultados mostraron cantidades significativas de compuestos fenólicos, taninos y flavonoides en la mayoría de los extractos analizados, siendo de especial interés la cantidad exhibida por los tomates que fueron producidos con el fertilizante de lixiviado de lombriz. Palabras Clave: fenoles, taninos, flavonoides.

ABSTRACT. The beneficial effects of tomato on the human body have aroused great interest among the scientific community and studies have proven to have high levels of bioactive compounds such as phenols, tannins and flavonoids. Organic production generates an indirect stress in plants because some nutrients are not immediately available, said stress makes generating plant secondary metabolites and the present work was to determine which of several organic fertilizers tested induced a higher production of bioactive. Methanol extracts were obtained from tomatoes grown with 15 different fertilization treatments, each treatment were evaluated 3 tomatoes in triplicate and from these samples was determined the content of phenols, tannins and flavonoids, gallic acid equivalents (GA), catechin and rutin respectively, using spectrophotometric techniques. The results showed significant amounts of compuesots phenolic tannins and flavonoids in most of the extracts analyzed, being of special interest displayed by the quantity of tomatoes were produced with fertilizer leaching worm. Keywords: phenols, tannins, flavonoids.

1. INTRODUCCIÓN La preocupación por lograr mejorar la calidad de los alimentos, y por tanto el nivel nutrimental de ellos, posee ya una historia, la estrecha relación entre salud y alimentos ha sido reconocida por más de 2500 años. Los Bioactivos son compuestos químicos que ejercen un efecto benéfico para alguna función corporal del

32

individuo, produciendo una mejora en su salud y bienestar o reduciendo un riesgo de enfermedad. Los alimentos además de aportar nutrientes, contienen una serie de sustancias no nutritivas que intervienen en el metabolismo secundario de los vegetales: sustancias colorantes, aromáticas, reguladores del crecimiento, protectores naturales frente a parásitos y otros, que no


tiene una función nutricional clásicamente definida, o no son considerados esenciales para la salud humana, pero que pueden tener un impacto significativo en el curso de alguna enfermedad, son los fitoquímicos o compuestos bioactivos. Existe un interés creciente en los compuestos fenólicos debido a su efecto contra algunas enfermedades como ciertos cánceres y desordenes cardíacos derivados de su poderosa actividad antioxidante. Los compuestos fenólicos poseen una estructura química especialmente adecuada para ejercer una acción antioxidante actuando como captores de radicales libres neutralizando peligrosas especies reactivas de oxígeno e iones metálicos quelantes. Además, debido a su reactividad, se encuentran en la mayoría de los casos combinadas con un ácido orgánico, un azúcar o bien, con ellas mismas para formar un polímero. Los taninos químicamente son metabolitos secundarios de las plantas, fenólicos, no nitrogenados, solubles en agua y no en alcohol ni solventes orgánicos. Abundan en las cortezas de los robles (donde están especialmente concentrados en las agallas) y castaños, entre otros árboles. Algunas característica principales de los taninos es que son muy astringentes (capacidad para secar las mucosas) y de gusto amargo, su color va desde el amarillo hasta el castaño oscuro. En su relación con el hombre, se utilizan de forma antioxidante, antídoto contra venenos, inhibidor de absorción de colesterol y de forma antibacteriana. Los flavonoides en su relación con el hombre, se utilizan para tratar enfermedades relacionadas con procesos inflamatorios y desordenes cardiovasculares debido a la actividad que ejercen sobre el sistema circulatorio mejorando la circulación periférica, la movilización del colesterol y disminuyendo la fragilidad capilar. Algunos flavonoides pueden presentar actividad hepática protectora, antialérgica, antitrombótica, anticancerígena, antibacteriana, antifúngica, e incluso pueden ejercer efectos inhibidores sobre algunas enzimas. Los efectos benéficos de los compuestos fenólicos sin duda alguna deben ser considerados para una mejor nutrición y por tal razón se tiene que evaluar diferentes condiciones de fertilización para que exista una mayor expresión de estos tanto en frutas como verduras lo cual conllevara a una restructuración de la agricultura donde el propósito final será producir alimentos nutracéuticos sin omitir que se deben alcanzar altas producciones.

2. METODOLOGÍA 2.1 Lugar de ejecución El presente trabajo de investigación se realizó en el laboratorio de virología correspondiente a la facultad de Ingeniería de la Universidad Autónoma de Querétaro. 2.2 Materiales Muestras: A partir de un experimento realizado por la Universidad Autónoma de Querétaro, Facultad de Ingeniería donde el propósito fue evaluar y comparar rendimientos de producción utilizando fertilizantes orgánicos que desarrollan en dicha facultad (Bocashi, Fermento, Lixiviado de Lombriz y Hormiga) con fertilizantes comerciales y químicos. Terminado el experimento se obtuvieron tomates que fueron producidos con 15 diferentes tratamientos de fertilización en donde se establecieron variaciones de conductividad eléctrica (tabla 1).Las variaciones de conductividad eléctrica se asignaron referenciandose a estudios que demostraban un mejor desarrollo de plantas estando con C.E de 3 y los demás niveles de C.E. demostraban un incremento de estrés lo cual genera frutos con mayor producción de compuestos fenólicos. Tabla 1. Tratamientos Tratamiento 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15

Fertilizante F. Orgánico Comercial F. Orgánico Comercial F. Orgánico Comercial F. Orgánico Comercial F. de Hormiga F. de Hormiga F. de Hormiga F. de Hormiga F. Químico Steiner F. Químico Steiner F. Químico Steiner F. Químico Steiner F. Bocashi F. Fermento F. Lixiviado de Lombriz

C.E. 2 2.5 3 4 2 2.5 3 4 2 2.5 3 4 3 3 3

De cada tratamiento se obtuvieron 3 muestras con triplicado dando un total de 9 tomates por tratamiento para la selección se consideraron características como grado de madurez y tamaño para tener una uniformidad y los datos no fueran representativos debido a que la madurez juega un papel importante en la producción compuestos fenólicos.

33


Se determinaron fenoles, taninos y utilizando técnicas espectrofotométricas.

flavonoides,

Espectrofotómetro: iMark lector de microplacas de Absorción.         

Longitud de onda 400-750 nm Rango fotométrico 0,0-3,5 OD Linealidad ≤ 1,0% 0,0 a 2,0 OD; ≤ 2,0% 0,0 a 3,0 OD Exactitud ≤ 1.0% o 0,010 0,000-3,000 DO a 490 nm Precisión 1,0% o 0.005 OD 0,0-2,0 OD Resolución 0.001 OD Capacidad de la rueda de filtros 8 Temblor Plate (3 velocidades) Bajo, medio, alto Tiempo de lectura 6 segundos a una sola longitud de onda, 10 segundos a longitudes de onda duales

2.3 Extracción de Muestras De cada uno de los tomates a analizar se tomó un gramo y este fue puesto en un matraz en el cual se adicionó 10 ml de metanol después de esto se envolvió el matraz con papel aluminio para evitar que la luz oxidara la muestra debido a que pueden alterarse los resultados considerablemente. Esta muestra se puso en agitación por un periodo de 24 horas.

muestras listas se procedió a leer en el espectro a 492 nm. Los resultados fueron expresados en mg de catequina por g de muestra (mg cat/g de muestra). 2.6 Determinación de flavonoides Se realizó una curva de calibración en la cual se utilizó una solución estándar de rutina. Se tomaron 50 µl del extracto metanólico y se colocaron en una microplaca de 96 pocillos, de cada muestra se realizó un duplicado posteriormente se adicionaron 180µl de metanol y 20 µl de solución 2-aminoetildifenilborato al 1%, con las muestras listas se procedió a leer en el espectro a 404 nm. Los resultados fueron expresados en mg equivalentes de rutina por g de muestra. 3. RESULTADOS Y DISCUSIÓN 3.1 Análisis de fenoles totales La curva de calibración obtenida para la determinación de fenoles totales se presenta en la fig. 1. Los resultados correspondientes a dicha determinación se muestran en la tabla 1, y demuestran que por lo menos, todas las muestras analizadas contienen compuestos fenólicos en cantidades significativas 2

2.4 Determinación de fenoles

Como inicio de la determinación de fenoles se prepararon los reactivos a utilizar Folin-Ciocalteu 1N, Na2CO3 20% y Solución stock de ácido gálico (0.1 gm/ ml). Se tomaron 40 µl del extracto metanólico y se adicionaron los reactivos Folin 250 µl, Na2Co3 1250µl y Agua destilada 460 µl, se realizó un agitado en vortex, y se después se colocó una muestra de 250 µl en la microplaca dejando reposar durante 2 horas para posteriormente leer en el espectro a 760 nm. Los resultados fueron expresados en mg de ácido gálico por g de extracto (mg GA / g muestra). 2.5 Determinación de taninos Se realizó una curva de calibración en la cual se utilizó una solución estándar de catequina (0.1 mg/mL). Se tomaron 50 µl del extracto metanólico y se colocaron en una microplaca de 96 pocillos, de cada muestra se realizó un duplicado posteriormente se adicionaron 200µl de una solución 1:1 de HCl 8% : Vainillina 1%, al tener las

34

Absorbancia

Se realizó una curva de calibración en la cual se utilizó una solución estándar de ácido gálico (mg/gr).

y = 0.1001x - 0.0029 R² = 0.9987

1.5 1 0.5 0 0 -0.5

5

10

15

20

µg de ácido gálico

Figura 1. Curva de calibración utilizando ácido gálico como estándar a 760 nm 3.2 Análisis de taninos La curva de calibración obtenida para la determinación de fenoles totales se presenta en la fig. 2. Los resultados correspondientes a dicha determinación se muestran en la tabla 1, y muestra valores inferiores a los que se obtuvieron en la determinación de fenoles totales esto lógico debido a que los taninos son un tipo de subgrupo de los compuestos fenólicos.


y = 0.4503x + 0.0117 R² = 0.9961

1.2

y = 3.8062x + 0.0229 R² = 0.9924

1 Absorbancia

Absorbancia

0.4 0.35 0.3 0.25 0.2 0.15 0.1 0.05 0 0

0.2

0.4

0.6

0.8

1

µg de catequina Figura 2. Curva de calibración utilizando catequina como estándar a 492 nm

0.8 0.6 0.4 0.2 0 0

0.1

0.2

0.3

µg de rutina Figura 3. Curva de calibración utilizando rutina como estándar a 404 nm

3.3 Análisis de flavonoides La curva de calibración obtenida para la determinación de fenoles totales se presenta en la fig. 3. Los resultados correspondientes a dicha determinación se muestran en la tabla 1, nuevamente ocurre lo sucedido en la determinación de taninos, los resultados obtenidos son menores en comparación con los datos de fenoles totales. Tabla1. Contenido de compuestos fenólicos, flavonoides y taninos en tomates producidos con diferentes fertilizantes

Según los resultados, el extracto que tuvo mayor contenido de fenoles, taninos y con resultados muy altos en flavonoides en comparación con los demás fue extracto obtenido de los tomates que fueron producidos con el fertilizante de lixiviado de lombriz por lo que sería adecuado seguir analizando con más detalle este

fertilizante y el efecto que pueden tener tomates producidos con dicho fertilizante para el tratamientos de trastornos cardiacos y del sistema nervioso. El presente trabajo es de los primeros en realizar comparaciones entre diversos fertilizantes orgánicos para la producción de compuestos fenólicos debido a que las investigaciones que hasta el momento se ha realizado

35


simplemente son para determinar las diferencias que existe entre la agricultura convencional contra la agricultura orgánica dando como resultado que la agricultura orgánica aporta mayor valor nutritivo a los alimentos pero influye de en el rendimiento. Por tal motivo el propósito es mejorar las técnicas de producción para poder realizar un equilibrio entre rendimiento y nutrición de los alimentos para que tomen un mayor impacto en la salud humana. 4. CONCLUSIÓN El estudio de la agricultura orgánica se está desarrollando cada vez con mayor interés debido a los grandes aportes de nutrición que se obtiene y gran parte de este trabajo es con esa idea mejorar las técnicas y tener mayor conocimiento sobre el manejo de hortalizas tan comunes como lo es el tomate. Si bien es sabido en el mundo se presentan problemas de hambruna y desnutrición pero simplemente se ha estado atacando el problema de la hambruna dejando de la lado la nutrición por lo cual esto implica un problema más la inconciencia y malos hábitos alimenticios se deben de ir radicando para tener una mejor calidad de vida. El primer paso para cambiar las cosas es desde la forma en que se producen los alimentos. Es bien sabido que la biosíntesis de compuestos fenólicos en plantas está fuertemente influenciada por la forma en como se cultiva (fertilización, la temperatura, variaciones de luz y de temporada) y por tal razón se debe llevar un control sumamente estricto para no afectar el rendimiento ya que se debe llegar a un equilibrio, producir productos más nutrimentales pero sin perder el objetivos de altos rendimientos de producción. La tendencia de las concentraciones más altas de polifenoles en frutas y verduras producidos orgánicamente podría explicarse por una mayor absorción de fósforo y que el nitrógeno tiene una disponibilidad limitada. Es de especial interés el seguimiento que se le pudiera hacer a la producción de tomate utilizando el fertilizante de lixiviado de lombriz por el considerable contenido de compuestos fenólicos que se pueden lograr. 5. BIBLIOGRAFÍA Anissa R., Chafik Hdider., 2013. Bioactive compounds and antioxidant activity of organically grown tomato (Solanum lycopersicum L.) cultivars as affected by fertilization.

36

Anna V., Alexander M., Isidre C., Rosa M., 2012. Is there any difference between the phenolic content of organic andconventional tomato juices? Bravo R.M., Jiménez H. G., Fierro L. A., 2011. Estimación del periodo de conservación de plantas medicinales en fundas de papel a través de la cuantificación de compuestos fenólicos. Artículo de investigación Universidad de Cuenca. Drago S. Ma. L., López L. M., Saínz E., Octubrediciembre 2006. Componentes Bioactivos de Alimentos Funcionales de Origen Vegetal. Elsayed E., Amany S., 2011. Evaluation of nutritional value and antioxidant activity of tomato peel extracts Gil A., 2010. Tratado de Nutrición. Composición y Calidad Nutritiva de los Alimentos. Tomo II. Ed. Médica Panamericana. Torres P., Guevara G. R.G., 2012. Relationship Between Plant Immunology and Food Production. Ciencia @ UAQ.1-6. Skerget Mojka, Kotnik, P., Hadolin, M., Rizner Hras, A., Simonic, M., & Knez, Z., (2005). Phenols, proanthocyanidins, flavons and flavonols in some plant materials and their antioxidant activities.. Food chemistry 89. 191-198.


ANÁLISIS DINAMICO POR VIENTO DE UN EDIFICIO DE GEOMETRÍA IRREGULAR BAJO UN MODELO ACOPLADO FLUIDO-ESTRUCTURA WIND DYNAMIC ANALYSIS OF A BUILDING WITH IRREGULAR GEOMETRY UNDER COUPLED FLUID-STRUCTURE MODEL Juan Pablo Lara López, Estudiante DEPFI-UAQ Jaime Horta Rangel, Profesor DEPFI-UAQ

RESUMEN.

La interacción dinámica fluido-estructura (IDFS) planteada en el presente trabajo ofrece una alternativa de análisis estructural de edificios ante la acción dinámica del viento, la IDFS se formula como un modelo acoplado de tres campos: la mecánica de sólidos para el comportamiento estructural del edificio, la mecánica de fluidos para asociar el efecto del viento y una malla en movimiento para la interface solido-fluido. El planteamiento físico-matemático del problema es a partir de la mecánica de medios continuos y cuya solución es a partir del método de los elementos finitos (MEF) y del método de los volúmenes finitos (MVF). El comportamiento estructural se formula mediante una descripción Lagrangeana, el estudio del fluido con una descripción Euleriana y la interface con una descripción arbitraria Lagrangeana-Euleriana (ALE). Las ecuaciones fenomenológicas a resolver en un algoritmo acoplado particionado son las ecuaciones de: Navier-Stokes, continuidad y la clásica ecuación de dinámica estructural, se consideran algoritmos de estabilización y de pasos fraccionados para el fluido. La modelación computacional se desarrolla con los software ANSYS y DENIS+GiD, los resultados numéricos obtenidos serán verificados con un modelo físico aeroelástico a escala en un túnel de viento. Palabras clave: Efectos de viento, Interacción fluido-estructura, Método de elemento finito, Acoplamiento de campos, Ecuaciones de Navier-Stokes.

ABSTRACT. The dynamic fluid-structure interaction (IDFS) proposed in this paper offers an alternative structural analysis of buildings to the dynamic action of wind, IDFS is formulated as a coupled model of three fields: solid mechanics for structural behavior building fluid mechanics to associate the effect of wind and moving mesh for the solid-fluid interface. The physical-mathematical approach to the problem is based on the continuum mechanics and the solution is from the finite element method (FEM) and finite volume method (MVF). The structural behavior is formulated using a Lagrangian description, the study of fluid using an Eulerian description and interface with a description arbitrary Lagrangian-Eulerian (ALE). The phenomenological equations to solve in an algorithm are partitioned coupled equations: Navier-Stokes, continuity and the classical equation of structural dynamics, stabilization algorithms are considered and fractional step for the fluid. Computational modeling is developed with the ANSYS and DENIS + GiD software, numerical results are verified with a physical model to scale aeroelastic wind tunnel. Keywords: Wind effect, Fluid-structure interaction, Finite element method, Coupling fields, Navier-Stokes equations.

1 Introducción En ingeniería civil es común encontrar problemas donde interactúan más de una fenomenología física, en los últimos años la interacción dinámica fluido-estructura (IDFS) ha ganado popularidad con el objetivo de desarrollar modelos acoplados (Valdés, 2007), edificios de gran altura y puentes de grandes claros son algunas aplicaciones de IDFS, donde el flujo de viento puede

causar el colapso de las estructuras. Los problemas DFSI son el acoplamiento de tres campos (Valdés, 2007; Slone et al., 2000b) los cuales son: la dinámica estructural (dominio solido), la mecánica de fluidos (dominio fluido) y la frontera fluido-estructura (interface). En un modelo acoplado interaccionan dos o más sistemas de manera que es imposible obtener la solución del cualquier sistema de manera independiente

37


(Zienkiewicz y Taylor, 2000), en los problemas DFSI la mecánica de fluidos y la dinámica estructural no pueden resolverse de manera independiente porque se desconocen las presiones en la interface.

La modelación computacional de IDFS es compleja, históricamente la dinámica de fluidos computacional (DFC) se ha solucionado con volúmenes finitos (MVF), mientras que la mecánica estructural computacional (MEC) se ha solucionado con elementos finitos (MEF), el resultado de estas dos técnicas muy similares fue el desarrollo de software incompatible, que en su momento freno el desarrollo de IDFS (Slone et al., 2001a). Ambas metodologías pueden formularse por el método de los residuos pesados, la principal diferencia son las funciones de peso usadas, en el método de Galerkin, el FEM utiliza funciones de peso iguales a las funciones de forma, en el MVF las funciones de peso son unitarias (Suliman et al., 2012).

Fig. 1 Dominios acoplados Los sistemas acoplados pueden (Zienkiewicz y Taylor, 2000):

clasificarse

Los problemas IDFS son complejos debido a las condiciones de frontera son no lineales además de que la posición de la frontera es parte de la solución (Valdés, 2007).

en

1) Clase I: el acoplamiento ocurre en la interface entre dominios donde se establecen condiciones frontera. 2) Clase II: el acoplamiento de los dominios están superpuestos total o parcialmente. Los problemas IDFS pertenecen a la clase I. Los modelos desacoplados tienen la desventaja de requerir la transferencia de información de un subsistema hacia otro, además de imponer condiciones no reales en las fronteras para poder independizar los subsistemas (Casadei et al., 1999), una consecuencia inmediata es la sobrestimación de deformaciones estructurales. Las características principales de los problemas IDFS son (Slone et al., 2001a): a)

El fluido ejerce una presión sobre la superficie estructural. b) La presión del fluido genera una respuesta dinámica de la estructura. c) La respuesta dinámica de la estructura modifica el dominio del fluido. d) Las ecuaciones del flujo deben considerar los cambios en el dominio del fluido y las condiciones frontera.

38

Fig 2. Elemento finito y volumen finito La formulación de la mecánica estructural se basan en una descripción Lagrangeana ya que los sólidos se deforman siguiendo el material, mientras que la mecánica de fluidos se basan en una descripción Euleriana donde el interés está en un punto fijo de un dominio espacial (Valdés, 2007), en problemas IDFS el movimiento de la interface modifica el dominio del fluido debido al movimiento del dominio estructural,


para dar soluciĂłn a este punto se ha propuesto la descripciĂłn arbitraria Lagrangeana-Euleriana (ALE). Para la interface, es necesario usar tĂŠcnicas de malla en movimiento para poder actualizar el dominio del fluido y que este siga a la deformaciĂłn estructural en la frontera (ValdĂŠs, 2007). De forma general, para los cambios de geometrĂ­a de los problemas de IDFS, es suficiente usar deformaciones de malla manteniendo conectividad entre los pasos de tiempo para los elementos deformados en la nueva geometrĂ­a, esta aproximaciones son rĂĄpidas y convergentes (Zhang, 2007). Las estrategias de acoplamientos usadas hoy en dĂ­a permiten resolver los problemas IDFS en espacio y tiempo sin la necesidad de realizar hipĂłtesis simplificadoras en ambos dominios, a esto problemas ese les conoce como multi-fĂ­sicos y pueden formularse sin ningĂşn problema con una mezcla de formulaciĂłn FEM-MVF en las descripciĂłn ALE (Slone et al., 2001c). Los problemas IDFS han usado comĂşnmente dos estrategias de acoplamiento (Forster, 2007; HĂźbner et al., 2004; ValdĂŠs, 2007): 1) MĂŠtodos monolĂ­ticos: la discretizaciĂłn del sistema se resuelve en conjunto con la malla en movimiento con una sola iteraciĂłn, sus ventajas son la garantĂ­a de estabilidad y convergencia, sus desventajas son el gran sistema de ecuaciones simultĂĄneas a resolver ademĂĄs de que los pasos de tiempo tienen que ser iguales en ambos dominios. 2) MĂŠtodos particionados: el desarrollo computacional ha creado mĂłdulos apropiados para cada sub-sistema los cuales son usados en este mĂŠtodo, su principal desventaja es el grado de precisiĂłn e inestabilidad, una clara ventaja es el manejo de diferentes escalas de tiempo para cada dominio, estos mĂŠtodos simplifican el procedimiento de acoplamiento. La elecciĂłn optima de la discretizaciĂłn de los diferentes dominios, los esquemas de integraciĂłn en el tiempo y la modelaciĂłn de la interface estĂĄn en constante progreso, por lo tanto la metodologĂ­a ideal estĂĄ abierta a nuevas mejoras (Dettmer and Peric, 2005; HĂźbner et al., 2004).

En el Manual de Obras Civiles CFE 2008 DiseĂąo por Viento 2008, se presentan el mĂŠtodo estĂĄtico y dinĂĄmico para analizar una cantidad limitada de estructuras â&#x20AC;&#x153;tipoâ&#x20AC;? establecidas en dicho manual, sin embargo para estructuras de geometrĂ­a compleja se recomienda llevar a cabo pruebas experimentales o modelos analĂ­ticos avanzados. Por lo tanto, el objetivo del presente trabajo es presentar la IDFS como una alternativa de anĂĄlisis estructural, la cual es reconocida en el manual pero no dice como llevarla a cabo. 2 DinĂĄmica estructural 2.1 EcuaciĂłn constitutiva Considerando un material elĂĄstico homogĂŠneo e isotrĂłpico (Forster, 2007): đ?&#x2018;&#x2020;đ?&#x2018;&#x2020; = đ??śđ??ś[đ??¸đ??¸]

(1)

đ??śđ??ś[đ??¸đ??¸] = 2đ?&#x153;&#x2021;đ?&#x153;&#x2021;đ?&#x153;&#x2021;đ?&#x153;&#x2021; + đ?&#x153;&#x2020;đ?&#x153;&#x2020;(đ?&#x2018;Ąđ?&#x2018;Ąđ?&#x2018;Ąđ?&#x2018;Ąđ?&#x2018;Ąđ?&#x2018;Ą)đ??źđ??ź

(2)

1 (đ?&#x203A;ťđ?&#x203A;ťđ?&#x203A;ťđ?&#x203A;ť + đ?&#x203A;ťđ?&#x203A;ťđ?&#x203A;ťđ?&#x203A;ťđ?&#x2018;&#x2021;đ?&#x2018;&#x2021; )đ??źđ??ź 2

(3)

donde đ?&#x2018;&#x2020;đ?&#x2018;&#x2020; es el 2do tensor de Piola- Kirchhoff y đ??śđ??ś[đ??¸đ??¸] es el tensor de elasticidad en funciĂłn del tensor deformaciĂłn infinitesimal (Gurtin,1981) dado por:

donde đ?&#x153;&#x2021;đ?&#x153;&#x2021; y đ?&#x153;&#x2020;đ?&#x153;&#x2020; son conocidos como los mĂłdulos o constantes de LamĂŠ, el tensor de deformaciĂłn infinitesimal se define como: đ??¸đ??¸ =

donde â&#x2C6;&#x2021;đ?&#x2018;˘đ?&#x2018;˘ es el tensor gradiente del desplazamiento

2.2 EcuaciĂłn general

La ecuaciĂłn de balance que relaciona el movimiento con las fuerzas que lo provoca estĂĄ dado por la ecuaciĂłn de Cauchy (Gurtin, 1981): đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018; đ?&#x2018;&#x2020;đ?&#x2018;&#x2020; + đ?&#x2018;?đ?&#x2018;? = đ?&#x153;&#x152;đ?&#x153;&#x152;đ?&#x2018;Ľđ?&#x2018;ĽĚ&#x2C6;

(4)

donde đ?&#x2018;&#x2020;đ?&#x2018;&#x2020; es el 2do tensor de Piola-Kirchhoff, đ?&#x2018;?đ?&#x2018;? son fuerzas de cuerpo, đ?&#x153;&#x152;đ?&#x153;&#x152; es la densidad del dominio estructural đ?&#x2018;Ľđ?&#x2018;ĽĚ&#x2C6; es la aceleraciĂłn. El amortiguamiento es la capacidad de una estructura de disipar energĂ­a, en mecĂĄnica estructural es comĂşn considerar un amortiguamiento viscoso lineal ideal, que

39


se opone al movimiento de una estructura con una fuerza proporcional a la velocidad: (5)

đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018; đ?&#x2018;&#x2020;đ?&#x2018;&#x2020; + đ?&#x2018;?đ?&#x2018;? = đ?&#x153;&#x152;đ?&#x153;&#x152;đ?&#x2018;Ľđ?&#x2018;ĽĚ&#x2C6; + đ?&#x2018;?đ?&#x2018;?đ?&#x2018;Ľđ?&#x2018;ĽĚ&#x2021;

donde đ?&#x2018;?đ?&#x2018;? es un coeficiente de amortiguamiento viscoso y đ?&#x2018;Ľđ?&#x2018;ĽĚ&#x2021; es la velocidad. 2.3 Valores iniciales y condiciones frontera

Para un tiempo đ?&#x2018;Ąđ?&#x2018;Ą = 0, los valores iniciales de los campos de desplazamiento y velocidad del dominio estructural son (Forster, 2007): đ?&#x2018;Ľđ?&#x2018;Ľ = đ?&#x2018;Ľđ?&#x2018;Ľđ?&#x2018;&#x153;đ?&#x2018;&#x153;

đ?&#x2018;Ľđ?&#x2018;ĽĚ&#x2021; = đ?&#x2018;Ľđ?&#x2018;ĽĚ&#x2021; đ?&#x2018;&#x153;đ?&#x2018;&#x153; đ?&#x2018;&#x2019;đ?&#x2018;&#x2019;đ?&#x2018;&#x2019;đ?&#x2018;&#x2019; đ?&#x153;&#x2022;đ?&#x153;&#x2022;đ?&#x203A;şđ?&#x203A;şđ?&#x2018; đ?&#x2018; 

đ?&#x2018;&#x153;đ?&#x2018;&#x153;

(6)

La frontera estructural đ?&#x153;&#x2022;đ?&#x153;&#x2022;đ?&#x203A;şđ?&#x203A;şđ?&#x2018; đ?&#x2018;  se divide en Đ&#x201C;đ?&#x2018; đ?&#x2018; ,đ??ˇđ??ˇ y Đ&#x201C;đ?&#x2018; đ?&#x2018; ,đ?&#x2018; đ?&#x2018; donde se establecen las condiciones frontera del desplazamiento y de esfuerzo actuando en una superficie, las porciones de la frontera deben satisfacer: đ?&#x153;&#x2022;đ?&#x153;&#x2022;đ?&#x203A;şđ?&#x203A;şđ?&#x2018; đ?&#x2018;  = Đ&#x201C;đ?&#x2018; đ?&#x2018; ,đ??ˇđ??ˇ â&#x2039;&#x192; Đ&#x201C;đ?&#x2018; đ?&#x2018; ,đ?&#x2018; đ?&#x2018;

(7)

Đ&#x201C;đ?&#x2018; đ?&#x2018; ,đ??ˇđ??ˇ â&#x2039;&#x201A; Đ&#x201C;đ?&#x2018; đ?&#x2018; ,đ?&#x2018; đ?&#x2018; = 0

donde la porciĂłn Đ&#x201C;đ?&#x2018; đ?&#x2018; ,đ??ˇđ??ˇ se conoce como problema de Dirichlet y Đ&#x201C;đ?&#x2018; đ?&#x2018; ,đ?&#x2018; đ?&#x2018; como problema Neumann, las condiciones frontera de desplazamiento y tracciones son: đ?&#x2018;Ľđ?&#x2018;Ľ = đ?&#x2018;Ľđ?&#x2018;Ľđ?&#x2018; đ?&#x2018;  đ?&#x2018;&#x2019;đ?&#x2018;&#x2019;đ?&#x2018;&#x2019;đ?&#x2018;&#x2019; Đ&#x201C;đ?&#x2018; đ?&#x2018; ,đ??ˇđ??ˇ

(8)

đ?&#x2018; đ?&#x2018;  = đ?&#x2018;&#x2020;đ?&#x2018;&#x2020;đ?&#x2018;&#x2020;đ?&#x2018;&#x2020; đ?&#x2018;&#x2019;đ?&#x2018;&#x2019;đ?&#x2018;&#x2019;đ?&#x2018;&#x2019; Đ&#x201C;đ?&#x2018; đ?&#x2018; ,đ?&#x2018; đ?&#x2018;

2.4 DiscretizaciĂłn espacial Para la aproximaciĂłn de un medio continuo estructural por medio de elementos finito se requiere una formulaciĂłn integral (Bathe, 1996; Segerlind, 1984), si todas las energĂ­as asociadas poseen un carĂĄcter potencial, la forma dĂŠbil puede derivarse a partir del principio de los desplazamientos virtuales:

donde đ?&#x153;&#x152;đ?&#x153;&#x152; es la densidad, đ?&#x2018;?đ?&#x2018;? es el factor de amortiguamiento, đ?&#x2018;&#x2020;đ?&#x2018;&#x2020; es el 2do tensor de Piola- Kirchhoff, đ??¸đ??¸ es el tensor de deformaciĂłn infinitesimal, đ?&#x2018;?đ?&#x2018;? son las fuerzas de cuerpo, đ?&#x2018; đ?&#x2018;  son fuerzas de superficie, đ?&#x2018;?đ?&#x2018;? son fuerzas nodales, đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;Ě&#x2C6; es la aceleraciĂłn, đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;Ě&#x2021; es la velocidad y đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6; es el desplazamiento. Otra aproximaciĂłn es a partir de la ecuaciĂłn del movimiento de Cauchy y utilizando el mĂŠtodo de residuos pesados de Galerkin (Bathe, 1996; Segerlind, 1984):

â&#x2C6;Ť[đ?&#x2018;&#x160;đ?&#x2018;&#x160;]đ?&#x2018;&#x2021;đ?&#x2018;&#x2021; (đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018; đ?&#x2018;&#x2020;đ?&#x2018;&#x2020; + đ?&#x2018;?đ?&#x2018;? â&#x2C6;&#x2019; đ?&#x153;&#x152;đ?&#x153;&#x152;đ?&#x2018;˘đ?&#x2018;˘Ě&#x2C6; â&#x2C6;&#x2019; đ?&#x2018;?đ?&#x2018;?đ?&#x2018;˘đ?&#x2018;˘Ě&#x2021; )đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;

đ?&#x2018;&#x2030;đ?&#x2018;&#x2030;

(10)

donde đ?&#x2018;&#x160;đ?&#x2018;&#x160; son las funciones de peso, en el mĂŠtodo de Galekin, las funciones de peso son idĂŠnticas a las funciones de forma. Una forma sencilla de crear las bases de aproximaciĂłn de un continuo (funciones de forma) es con polinomios de Lagrange (Segerlind, 1984). Siguiendo el mĂŠtodo energĂŠtico o el de residuos ponderados, el sistema discreto es: â&#x2C6;Ť {đ?&#x153;&#x152;đ?&#x153;&#x152;[N]{uĚ&#x2C6; } + đ?&#x2018;?đ?&#x2018;?[N]{uĚ&#x2021; } + (đ?&#x2018;&#x2020;đ?&#x2018;&#x2020; â&#x2C6;&#x2122; đ??¸đ??¸)} â&#x2C6;&#x2122; [N]{â&#x2C6;&#x201A;u}đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018; =

đ?&#x2018;&#x2030;đ?&#x2018;&#x2030;

= â&#x2C6;Ť {đ?&#x2018;?đ?&#x2018;? + (đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018; đ?&#x2018;&#x2020;đ?&#x2018;&#x2020;)} â&#x2C6;&#x2122; [N]{â&#x2C6;&#x201A;u}đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018; + đ?&#x2018;?đ?&#x2018;? â&#x2C6;&#x2122; [N]{â&#x2C6;&#x201A;u} đ?&#x2018;&#x2030;đ?&#x2018;&#x2030;

(11)

donde N son matrices de funciones de forma, las integrales se evalĂşan con mĂŠtodos de integraciĂłn numĂŠrica de Gauss-Legendre (Segerlind, 1984) en dominio parametrizado, la ecuaciĂłn anterior de forma compacta es la conocida ecuaciĂłn: đ?&#x2018;&#x20AC;đ?&#x2018;&#x20AC;{uĚ&#x2C6; } + đ??śđ??ś{uĚ&#x2021; } + đ??žđ??ž{u} = đ??šđ??š(đ?&#x2018;Ąđ?&#x2018;Ą) (12) donde M es la matriz de masa, C la matriz de amortiguamiento, K la matriz de rigidez , F(t) es un vector de fuerzas dependientes del tiempo. 2.5 DiscretizaciĂłn temporal

â&#x2C6;Ť đ?&#x153;&#x152;đ?&#x153;&#x152;đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;Ě&#x2C6; â&#x2C6;&#x2122; đ?&#x153;&#x2022;đ?&#x153;&#x2022;đ?&#x153;&#x2022;đ?&#x153;&#x2022;đ?&#x153;&#x2022;đ?&#x153;&#x2022;đ?&#x153;&#x2022;đ?&#x153;&#x2022; + â&#x2C6;Ť đ?&#x2018;?đ?&#x2018;?đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;Ě&#x2021; â&#x2C6;&#x2122; đ?&#x153;&#x2022;đ?&#x153;&#x2022;đ?&#x153;&#x2022;đ?&#x153;&#x2022;đ?&#x153;&#x2022;đ?&#x153;&#x2022;đ?&#x153;&#x2022;đ?&#x153;&#x2022; + â&#x2C6;Ť đ?&#x2018;&#x2020;đ?&#x2018;&#x2020; â&#x2C6;&#x2122; đ??¸đ??¸đ??¸đ??¸đ??¸đ??¸ =

đ?&#x2018;&#x2030;đ?&#x2018;&#x2030;

đ?&#x2018;&#x2030;đ?&#x2018;&#x2030;

đ?&#x2018;&#x2030;đ?&#x2018;&#x2030;

= â&#x2C6;Ť đ?&#x2018;?đ?&#x2018;? â&#x2C6;&#x2122; đ?&#x153;&#x2022;đ?&#x153;&#x2022;đ?&#x153;&#x2022;đ?&#x153;&#x2022;đ?&#x153;&#x2022;đ?&#x153;&#x2022;đ?&#x153;&#x2022;đ?&#x153;&#x2022; + â&#x2C6;Ť đ?&#x2018; đ?&#x2018;  â&#x2C6;&#x2122; đ?&#x153;&#x2022;đ?&#x153;&#x2022;đ?&#x153;&#x2022;đ?&#x153;&#x2022;đ?&#x153;&#x2022;đ?&#x153;&#x2022;đ?&#x153;&#x2022;đ?&#x153;&#x2022; + đ?&#x2018;?đ?&#x2018;? â&#x2C6;&#x2122; đ?&#x153;&#x2022;đ?&#x153;&#x2022;đ?&#x153;&#x2022;đ?&#x153;&#x2022; đ?&#x2018;&#x2030;đ?&#x2018;&#x2030;

40

đ??´đ??´

(9)

Debido a que la interacciĂłn fluido estructura es una fenomenologĂ­a dependiente del tiempo es necesario formular un algoritmo temporal, uno de los algoritmos mĂĄs usados es el algoritmo de Newmark (Bathe, 1996),


el cual parte de las siguientes suposiciones de la velocidad y el desplazamiento en el tiempo: đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;Ě&#x2021;đ?&#x2018;Ąđ?&#x2018;Ą+â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą = đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;Ě&#x2021;đ?&#x2018;Ąđ?&#x2018;Ą + [(1 â&#x2C6;&#x2019; đ?&#x203A;żđ?&#x203A;ż)đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;đ?&#x2018;Ąđ?&#x2018;ĄĚ&#x2C6; + đ?&#x203A;żđ?&#x203A;żđ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;Ě&#x2C6;đ?&#x2018;Ąđ?&#x2018;Ą+â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą ]â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą

đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;đ?&#x2018;Ąđ?&#x2018;Ą+â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą = đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;đ?&#x2018;Ąđ?&#x2018;Ą + đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;Ě&#x2021;đ?&#x2018;Ąđ?&#x2018;Ą â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą +

1 [(2â&#x2C6;&#x2019;đ?&#x203A;źđ?&#x203A;ź) đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;Ě&#x2C6;đ?&#x2018;Ąđ?&#x2018;Ą

+ đ?&#x203A;źđ?&#x203A;źđ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;Ě&#x2C6;đ?&#x2018;Ąđ?&#x2018;Ą+â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą ] â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą

2

(13)

donde đ?&#x203A;żđ?&#x203A;ż y đ?&#x203A;źđ?&#x203A;ź son parĂĄmetros de estabilizaciĂłn, desarrollando el mĂŠtodo se tiene: [đ?&#x203A;źđ?&#x203A;źđ?&#x2018;&#x153;đ?&#x2018;&#x153; đ?&#x2018;&#x20AC;đ?&#x2018;&#x20AC; + đ?&#x203A;źđ?&#x203A;ź1 đ??śđ??ś + đ??žđ??ž]đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;đ?&#x2018;Ąđ?&#x2018;Ą+â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą + [â&#x2C6;&#x2019;đ?&#x203A;źđ?&#x203A;źđ?&#x2018;&#x153;đ?&#x2018;&#x153; đ?&#x2018;&#x20AC;đ?&#x2018;&#x20AC; â&#x2C6;&#x2019; đ?&#x203A;źđ?&#x203A;ź1 đ??śđ??ś]đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;đ?&#x2018;Ąđ?&#x2018;Ą + +[â&#x2C6;&#x2019;đ?&#x203A;źđ?&#x203A;ź2 đ?&#x2018;&#x20AC;đ?&#x2018;&#x20AC; â&#x2C6;&#x2019; đ?&#x203A;źđ?&#x203A;ź4 đ??śđ??ś]đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;Ě&#x2021;đ?&#x2018;Ąđ?&#x2018;Ą + [â&#x2C6;&#x2019;đ?&#x203A;źđ?&#x203A;ź3 đ?&#x2018;&#x20AC;đ?&#x2018;&#x20AC; â&#x2C6;&#x2019; đ?&#x203A;źđ?&#x203A;ź5 đ??śđ??ś]đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;Ě&#x2C6;đ?&#x2018;Ąđ?&#x2018;Ą = đ??šđ??š

(14)

el cual permite calcular desplazamientos para un tiempo en funciĂłn de valores conocidos, de esta forma se calculan velocidades y aceleraciones en tiempo actual:

đ?&#x2018;&#x2021;đ?&#x2018;&#x2021; = â&#x2C6;&#x2019;đ?&#x153;&#x2039;đ?&#x153;&#x2039;đ?&#x153;&#x2039;đ?&#x153;&#x2039; + 2đ?&#x153;&#x2021;đ?&#x153;&#x2021;đ?&#x153;&#x2021;đ?&#x153;&#x2021; (18) donde đ?&#x153;&#x2039;đ?&#x153;&#x2039; es una campo escalar de presiones, đ??źđ??ź es el tensor identidad, đ?&#x153;&#x2021;đ?&#x153;&#x2021; es la viscosidad dinĂĄmica y đ??ˇđ??ˇ es la parte simĂŠtrica del tensor gradiente de la velocidad definido por: đ??ˇđ??ˇ =

1 (grad đ?&#x2018;Łđ?&#x2018;Ł + grad đ?&#x2018;Łđ?&#x2018;Ł đ?&#x2018;&#x2021;đ?&#x2018;&#x2021; ) 2

3.2 Ecuaciones generales

(19)

La ecuaciĂłn de Navier-Stokes (Gurtin, 1981) para un flujo compresible se obtiene al sustituir la ecuaciĂłn constitutiva en la ecuaciĂłn de momentum lineal en descripciĂłn euleriana: (đ?&#x153;&#x152;đ?&#x153;&#x152;đ?&#x153;&#x152;đ?&#x153;&#x152;)â&#x20AC;˛ + đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018; (đ?&#x153;&#x152;đ?&#x153;&#x152;đ?&#x153;&#x152;đ?&#x153;&#x152;)đ?&#x2018;Łđ?&#x2018;Ł = â&#x2C6;&#x2019;â&#x2C6;&#x2021;đ?&#x2018;?đ?&#x2018;? + đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;(đ?&#x153;&#x2021;đ?&#x153;&#x2021;â&#x2C6;&#x2021;đ?&#x2018;Łđ?&#x2018;Ł) + đ?&#x2018;?đ?&#x2018;?

(20)

2.6 Estrategia de soluciĂłn

đ?&#x153;&#x152;đ?&#x153;&#x152;â&#x20AC;˛ + đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018; (đ?&#x153;&#x152;đ?&#x153;&#x152;đ?&#x153;&#x152;đ?&#x153;&#x152;) = 0

(21)

Para resolver el sistema de ecuaciones no lineales proveniente de la discretizaciĂłn espacial y temporal de la forma:

Considerando la incompresibilidad de un fluido, las ecuaciones de Navier-Stokes y de continuidad pueden expresarse como:

đ?&#x2018;&#x201C;đ?&#x2018;&#x201C;1 (đ??žđ??ž11 đ?&#x2018;Ľđ?&#x2018;Ľ1 , đ??žđ??ž12 đ?&#x2018;Ľđ?&#x2018;Ľ2 , â&#x20AC;Ś , đ??žđ??ž1đ?&#x2018;&#x203A;đ?&#x2018;&#x203A; đ?&#x2018;Ľđ?&#x2018;Ľđ?&#x2018;&#x203A;đ?&#x2018;&#x203A; , đ??šđ??š1 ) = 0 đ?&#x2018;&#x201C;đ?&#x2018;&#x201C;2 (đ??žđ??ž21 đ?&#x2018;Ľđ?&#x2018;Ľ1 , đ??žđ??ž22 đ?&#x2018;Ľđ?&#x2018;Ľ2 , â&#x20AC;Ś , đ??žđ??ž2đ?&#x2018;&#x203A;đ?&#x2018;&#x203A; đ?&#x2018;Ľđ?&#x2018;Ľđ?&#x2018;&#x203A;đ?&#x2018;&#x203A; , đ??šđ??š2 ) = 0 â&#x2039;Ž đ?&#x2018;&#x201C;đ?&#x2018;&#x201C;đ?&#x2018;&#x203A;đ?&#x2018;&#x203A; (đ??žđ??žđ?&#x2018;&#x203A;đ?&#x2018;&#x203A;1 đ?&#x2018;Ľđ?&#x2018;Ľ1 , đ??žđ??žđ?&#x2018;&#x203A;đ?&#x2018;&#x203A;2 đ?&#x2018;Ľđ?&#x2018;Ľ2 , â&#x20AC;Ś , đ??žđ??žđ?&#x2018;&#x203A;đ?&#x2018;&#x203A;đ?&#x2018;&#x203A;đ?&#x2018;&#x203A; đ?&#x2018;Ľđ?&#x2018;Ľđ?&#x2018;&#x203A;đ?&#x2018;&#x203A; , đ??šđ??šđ?&#x2018;&#x203A;đ?&#x2018;&#x203A; ) = 0

(16)

đ?&#x153;&#x152;đ?&#x153;&#x152;[đ?&#x2018;Łđ?&#x2018;Ł â&#x20AC;˛ + đ?&#x2018;&#x201D;đ?&#x2018;&#x201D;đ?&#x2018;&#x201D;đ?&#x2018;&#x201D;đ?&#x2018;&#x201D;đ?&#x2018;&#x201D;đ?&#x2018;&#x201D;đ?&#x2018;&#x201D; (đ?&#x2018;Łđ?&#x2018;Ł)đ?&#x2018;Łđ?&#x2018;Ł] = â&#x2C6;&#x2019;â&#x2C6;&#x2021;đ?&#x2018;?đ?&#x2018;? + đ?&#x153;&#x2021;đ?&#x153;&#x2021;â&#x2C6;&#x2020;đ?&#x2018;Łđ?&#x2018;Ł + đ?&#x2018;?đ?&#x2018;?

đ?&#x2018;Ľđ?&#x2018;Ľđ?&#x2018;&#x203A;đ?&#x2018;&#x203A;+1 = đ?&#x2018;Ľđ?&#x2018;Ľ0 + [đ?&#x203A;ťđ?&#x203A;ťđ?&#x203A;ťđ?&#x203A;ť(đ?&#x2018;Ľđ?&#x2018;Ľ0 )]â&#x2C6;&#x2019;1 đ?&#x2018;&#x201C;đ?&#x2018;&#x201C;(đ?&#x2018;Ľđ?&#x2018;Ľ0 )

(17)

đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;Ě&#x2C6;đ?&#x2018;Ąđ?&#x2018;Ą+â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą = đ?&#x203A;źđ?&#x203A;źđ?&#x2018;&#x153;đ?&#x2018;&#x153; (đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;đ?&#x2018;Ąđ?&#x2018;Ą+â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą â&#x2C6;&#x2019; đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;đ?&#x2018;Ąđ?&#x2018;Ą ) â&#x2C6;&#x2019; đ?&#x203A;źđ?&#x203A;ź2 đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;Ě&#x2021;đ?&#x2018;Ąđ?&#x2018;Ą â&#x2C6;&#x2019; đ?&#x203A;źđ?&#x203A;ź3 đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;Ě&#x2C6;đ?&#x2018;Ąđ?&#x2018;Ą

đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;Ě&#x2021;đ?&#x2018;Ąđ?&#x2018;Ą+â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą = đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;Ě&#x2021;đ?&#x2018;Ąđ?&#x2018;Ą + đ?&#x203A;źđ?&#x203A;ź6 đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;Ě&#x2C6;đ?&#x2018;Ąđ?&#x2018;Ą + đ?&#x203A;źđ?&#x203A;ź7 đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;Ě&#x2C6;đ?&#x2018;Ąđ?&#x2018;Ą+â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą

(15)

donde las đ?&#x203A;źđ?&#x203A;źđ?&#x2018;&#x2013;đ?&#x2018;&#x2013; son constantes que dependen del paso de tiempo y de los parĂĄmetros de estabilizaciĂłn

puede resolverse con el mĂŠtodo iterativo de NewtonRaphson (ValdĂŠs, 2007):

donde â&#x2C6;&#x2021; es el operador gradiente. 3 MecĂĄnica de fluidos 3.1 EcuaciĂłn constitutiva

Considerando un fluido Newtoniano en movimiento, el cual se caracteriza por una relaciĂłn lineal del tensor de esfuerzos con el tensor de deformaciĂłn, se tiene la ecuaciĂłn constitutiva (Gurtin, 1981):

donde đ?&#x153;&#x152;đ?&#x153;&#x152; es la densidad, đ?&#x2018;Łđ?&#x2018;Ł es la velocidad, đ?&#x2018;?đ?&#x2018;? es la presiĂłn, đ?&#x153;&#x2021;đ?&#x153;&#x2021; es la viscosidad dinĂĄmica y đ?&#x2018;?đ?&#x2018;? es el vector de fuerzas definido para el fluido. La ecuaciĂłn de conservaciĂłn de masa para un flujo compresible estĂĄ dada por:

donde đ?&#x153;&#x152;đ?&#x153;&#x152; es la densidad y đ?&#x2018;Łđ?&#x2018;Ł es la velocidad.

đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018; đ?&#x2018;Łđ?&#x2018;Ł = 0

(22)

Al no considerarse variaciones de la temperatura, no es necesario acoplar la ecuaciĂłn de balance de energĂ­a. 3.3 Valores iniciales y condiciones frontera Para un tiempo đ?&#x2018;Ąđ?&#x2018;Ą = 0, el valor inicial en el campo de velocidades del dominio del fluido es (Forster, 2007): đ?&#x2018;˘đ?&#x2018;˘Ě&#x2021; = đ?&#x2018;˘đ?&#x2018;˘Ě&#x2021; đ?&#x2018;&#x153;đ?&#x2018;&#x153; đ?&#x2018;&#x2019;đ?&#x2018;&#x2019;đ?&#x2018;&#x2019;đ?&#x2018;&#x2019; đ?&#x153;&#x2022;đ?&#x153;&#x2022;đ?&#x203A;şđ?&#x203A;şđ?&#x2018;&#x201C;đ?&#x2018;&#x201C; đ?&#x2018;&#x153;đ?&#x2018;&#x153; (23)

la cual tiene que satisfacer la condiciĂłn đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018; đ?&#x2018;˘đ?&#x2018;˘Ě&#x2021; = 0 para asegurar que el campo de velocidades no incluya inicios impulsivos de velocidades. No hay condiciĂłn inicial respecto al campo de presiones para un flujo incompresible, actĂşa como un multiplicador de Lagrange para condiciones de

41


incompresibilidad y rĂĄpidamente se ajusta al campo de velocidades. La frontera del fluido tambiĂŠn se analiza de forma similar a la estructural estableciendo: â&#x2C6;&#x201A;Ίf = Đ&#x201C;f,D â&#x2039;&#x192; Đ&#x201C;f,N (24) Đ&#x201C;f,D â&#x2039;&#x201A; Đ&#x201C;f,N = 0

donde el problema de condiciones frontera de Dirichlet y Neumann se plantea: u = u đ?&#x2018;&#x201C;đ?&#x2018;&#x201C; en Đ&#x201C;s,D

(25)

đ?&#x2018;Ąđ?&#x2018;Ą = đ?&#x2018;&#x2021;đ?&#x2018;&#x2021;đ?&#x2018;&#x2021;đ?&#x2018;&#x2021; đ?&#x2018;&#x2019;đ?&#x2018;&#x2019;đ?&#x2018;&#x2019;đ?&#x2018;&#x2019; Đ&#x201C;đ?&#x2018; đ?&#x2018; ,đ?&#x2018; đ?&#x2018;

3.4 DiscretizaciĂłn espacial

đ?&#x2018;&#x2030;đ?&#x2018;&#x2030;

đ?&#x153;&#x2022;đ?&#x153;&#x2022;[đ?&#x2018; đ?&#x2018; ] đ?&#x2018;˘đ?&#x2018;˘đ?&#x2018;˘đ?&#x2018;˘đ?&#x2018;˘đ?&#x2018;˘ đ?&#x153;&#x2022;đ?&#x153;&#x2022;đ?&#x153;&#x2022;đ?&#x153;&#x2022;

(29)

donde N son matrices de funciones de forma, las integrales pueden evaluarse con mĂŠtodos de integraciĂłn numĂŠrica de Gauss-Legendre (Segerlind, 1984), en dominio parametrizado, la ecuaciones de Navier-Stokes y de continuidad de forma compacta son: đ?&#x2018;&#x20AC;đ?&#x2018;&#x20AC;{uâ&#x20AC;˛} + đ??žđ??ž đ?&#x2018;?đ?&#x2018;? (u){u} + đ??žđ??ž đ?&#x2018;Łđ?&#x2018;Ł (Îź){u} = đ??şđ??ş{p} + đ??šđ??š(đ?&#x2018;Ąđ?&#x2018;Ą)

đ??şđ??şđ?&#x2018;?đ?&#x2018;? {u} = 0

(30)

donde M es la matriz de masa, G la matriz de presiĂłn, K la matriz de rigidez, đ?&#x2018; đ?&#x2018; es la matriz de viscosidad, F(t) es un vector de fuerzas dependientes del tiempo.

Para la aproximaciĂłn de una medio continuo fluido por medio de elementos finito se requiere una formulaciĂłn integral (Bathe, 1996; Segerlind, 1984), partiendo de la ecuaciĂłn de Navier-Stokes y utilizando el mĂŠtodo de residuos pesados de Galerkin:

Por cuestiones del algoritmo de discretizaciĂłn espacial se expresa: đ??žđ??ž đ?&#x2018;?đ?&#x2018;? (đ?&#x2018;˘đ?&#x2018;˘){u} + đ??žđ??ž đ?&#x2018;Łđ?&#x2018;Ł (Îź){u} = đ??žđ??ž(đ?&#x2018;˘đ?&#x2018;˘){u}

(31)

â&#x2C6;Ť [đ?&#x2018;&#x160;đ?&#x2018;&#x160;]đ?&#x2018;&#x2021;đ?&#x2018;&#x2021; (đ?&#x153;&#x152;đ?&#x153;&#x152;[đ?&#x2018;Łđ?&#x2018;Ł â&#x20AC;˛ + đ?&#x2018;&#x201D;đ?&#x2018;&#x201D;đ?&#x2018;&#x201D;đ?&#x2018;&#x201D;đ?&#x2018;&#x201D;đ?&#x2018;&#x201D;đ?&#x2018;&#x201D;đ?&#x2018;&#x201D; (đ?&#x2018;Łđ?&#x2018;Ł)đ?&#x2018;Łđ?&#x2018;Ł] + â&#x2C6;&#x2021;đ?&#x2018;?đ?&#x2018;? â&#x2C6;&#x2019; đ?&#x153;&#x2021;đ?&#x153;&#x2021;â&#x2C6;&#x2020;đ?&#x2018;Łđ?&#x2018;Ł â&#x2C6;&#x2019; đ?&#x2018;?đ?&#x2018;?)đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;

đ?&#x2018;&#x20AC;đ?&#x2018;&#x20AC;{uâ&#x20AC;˛} + đ??žđ??ž{u} = đ??şđ??ş{p} + đ??šđ??š(đ?&#x2018;Ąđ?&#x2018;Ą)

(32)

đ?&#x2018;&#x2030;đ?&#x2018;&#x2030;

(26)

donde đ?&#x2018;&#x160;đ?&#x2018;&#x160; son las funciones de peso, en el mĂŠtodo de Galekin, las funciones de peso son idĂŠnticas a las funciones de forma, de igual forma, la ecuaciĂłn de conservaciĂłn de masa:

â&#x2C6;Ť[đ?&#x2018;&#x160;đ?&#x2018;&#x160;]đ?&#x2018;&#x2021;đ?&#x2018;&#x2021; (đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018; đ?&#x2018;Łđ?&#x2018;Ł)đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;

(27)

đ?&#x2018;&#x2030;đ?&#x2018;&#x2030;

Una forma sencilla de crear las bases de aproximaciĂłn de un continuo (funciones de forma) es con polinomios de Lagrange (Segerlind, 1984), siguiendo el mĂŠtodo de residuos pesados, el modelo discreto es para la ecuaciĂłn de Navier-Stokes: â&#x2C6;Ť [đ?&#x2018; đ?&#x2018; ]đ?&#x2018;&#x2021;đ?&#x2018;&#x2021; đ?&#x153;&#x152;đ?&#x153;&#x152;[đ?&#x2018; đ?&#x2018; ]đ?&#x2018;˘đ?&#x2018;˘â&#x20AC;˛đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018; + â&#x2C6;Ť [đ?&#x2018; đ?&#x2018; ]đ?&#x2018;&#x2021;đ?&#x2018;&#x2021; đ?&#x153;&#x152;đ?&#x153;&#x152;đ?&#x153;&#x152;đ?&#x153;&#x152;

đ?&#x2018;&#x2030;đ?&#x2018;&#x2030;

=

đ?&#x2018;&#x2030;đ?&#x2018;&#x2030;

đ?&#x153;&#x2022;đ?&#x153;&#x2022;[đ?&#x2018; đ?&#x2018; ] đ?&#x153;&#x2022;đ?&#x153;&#x2022;[đ?&#x2018; đ?&#x2018; ]đ?&#x2018;&#x2021;đ?&#x2018;&#x2021; đ?&#x153;&#x2022;đ?&#x153;&#x2022;[đ?&#x2018; đ?&#x2018; ] đ?&#x2018;˘đ?&#x2018;˘đ?&#x2018;˘đ?&#x2018;˘đ?&#x2018;˘đ?&#x2018;˘ + â&#x2C6;Ť đ?&#x153;&#x2021;đ?&#x153;&#x2021; đ?&#x2018;˘đ?&#x2018;˘đ?&#x2018;˘đ?&#x2018;˘đ?&#x2018;˘đ?&#x2018;˘ đ?&#x153;&#x2022;đ?&#x153;&#x2022;đ?&#x153;&#x2022;đ?&#x153;&#x2022; đ?&#x153;&#x2022;đ?&#x153;&#x2022;đ?&#x153;&#x2022;đ?&#x153;&#x2022; đ?&#x153;&#x2022;đ?&#x153;&#x2022;đ?&#x153;&#x2022;đ?&#x153;&#x2022; đ?&#x2018;&#x2030;đ?&#x2018;&#x2030;

đ?&#x153;&#x2022;đ?&#x153;&#x2022;[đ?&#x2018; đ?&#x2018; ]đ?&#x2018;&#x2021;đ?&#x2018;&#x2021; [đ?&#x2018; đ?&#x2018; ]đ?&#x2018;?đ?&#x2018;?đ?&#x2018;?đ?&#x2018;?đ?&#x2018;?đ?&#x2018;? + â&#x2C6;Ť [đ?&#x2018; đ?&#x2018; ]đ?&#x2018;&#x2021;đ?&#x2018;&#x2021; đ?&#x2018;?đ?&#x2018;?đ?&#x2018;?đ?&#x2018;?đ?&#x2018;?đ?&#x2018;? + â&#x2C6;Ť [đ?&#x2018; đ?&#x2018; ]đ?&#x2018;&#x2021;đ?&#x2018;&#x2021; đ?&#x2018; đ?&#x2018; đ?&#x2018; đ?&#x2018; đ?&#x2018; đ?&#x2018;  â&#x2C6;Ť đ?&#x153;&#x2022;đ?&#x153;&#x2022;đ?&#x153;&#x2022;đ?&#x153;&#x2022;

đ?&#x2018;&#x2030;đ?&#x2018;&#x2030;

đ?&#x2018;&#x2030;đ?&#x2018;&#x2030;

đ?&#x2018;&#x2030;đ?&#x2018;&#x2030;

y la ecuaciĂłn de conservaciĂłn de masa:

42

â&#x2C6;Ť [đ?&#x2018; đ?&#x2018; ]đ?&#x2018;&#x2021;đ?&#x2018;&#x2021;

(28)

y la ecuaciĂłn de Navier-Stokes de la siguiente forma:

3.5 DiscretizaciĂłn temporal

Debido a que la interacciĂłn fluido estructura es una fenomenologĂ­a dependiente del tiempo es necesario formular un algoritmo temporal, la idea es similar al caso estructural, la principal diferencia es que para flujo de fluidos solo se tiene una primera derivada en el tiempo, uno de los algoritmos mĂĄs usados en el algoritmo de la familia đ?&#x203A;źđ?&#x203A;ź (Bathe, 1996), con el cual se pueden encontrar la velocidad y el desplazamiento en el tiempo: đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;Ě&#x2021;đ?&#x2018;Ąđ?&#x2018;Ą+đ?&#x203A;źđ?&#x203A;źâ&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą =

đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;đ?&#x2018;Ąđ?&#x2018;Ą+â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą â&#x2C6;&#x2019; đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;đ?&#x2018;Ąđ?&#x2018;Ą â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą

đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;đ?&#x2018;Ąđ?&#x2018;Ą+đ?&#x203A;źđ?&#x203A;źâ&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą = (1 â&#x2C6;&#x2019; đ?&#x203A;źđ?&#x203A;ź)đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;đ?&#x2018;Ąđ?&#x2018;Ą + đ?&#x203A;źđ?&#x203A;źđ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;đ?&#x2018;Ąđ?&#x2018;Ą+â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą

(33)

donde đ?&#x203A;źđ?&#x203A;ź es un parĂĄmetro de estabilizaciĂłn, algunos casos particulares son: đ?&#x203A;źđ?&#x203A;ź = 0, mĂŠtodo de Euler hacia adelante explicito đ?&#x203A;źđ?&#x203A;ź = 1/2, regla del trapecio implĂ­cito đ?&#x203A;źđ?&#x203A;ź = 1, mĂŠtodo de Euler hacia atrĂĄs implĂ­cito Sustituyendo en la ecuaciĂłn de Navier-Stokes y de continuidad considerando el mĂŠtodo de Euler hacia atrĂĄs:


đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;đ?&#x2018;Ąđ?&#x2018;Ą+â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą â&#x2C6;&#x2019; đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;đ?&#x2018;Ąđ?&#x2018;Ą đ?&#x2018;&#x20AC;đ?&#x2018;&#x20AC; { } + đ??žđ??ž(đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;đ?&#x2018;Ąđ?&#x2018;Ą+â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą ){đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;đ?&#x2018;Ąđ?&#x2018;Ą+â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą } = đ??şđ??ş{đ?&#x2018;?đ?&#x2018;?đ?&#x2018;Ąđ?&#x2018;Ą+â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą } + đ??šđ??š(đ?&#x2018;Ąđ?&#x2018;Ą)đ?&#x2018;Ąđ?&#x2018;Ą+â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą

(34)

đ??şđ??şđ?&#x2018;?đ?&#x2018;? {đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;đ?&#x2018;Ąđ?&#x2018;Ą+â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą } = 0

donde la Ăşnicas variables a resolver son đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;đ?&#x2018;Ąđ?&#x2018;Ą+â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą y đ?&#x2018;?đ?&#x2018;?đ?&#x2018;Ąđ?&#x2018;Ą+â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą

Ě&#x192;đ?&#x2018;Ąđ?&#x2018;Ą+â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;đ?&#x2018;Ąđ?&#x2018;Ą+â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą â&#x2C6;&#x2019; đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6; đ?&#x2018;&#x20AC;đ?&#x2018;&#x20AC; { } = đ??şđ??ş{đ?&#x2018;?đ?&#x2018;?đ?&#x2018;Ąđ?&#x2018;Ą+â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą â&#x2C6;&#x2019; đ?&#x203A;žđ?&#x203A;žđ?&#x2018;?đ?&#x2018;?đ?&#x2018;Ąđ?&#x2018;Ą } â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą

(39) đ??şđ??şđ?&#x2018;?đ?&#x2018;? {đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;đ?&#x2018;Ąđ?&#x2018;Ą+â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą } = 0 Ě&#x192; donde Ut+â&#x2C6;&#x2020;t es una variable auxiliar y Îł es un parĂĄmetro numĂŠrico, reacomodando el sistema, se pude escribir como:

3.6 MĂŠtodos de estabilizaciĂłn

Se requiere estabilidad debido a problemas de oscilaciones del tĂŠrmino convectivo, condiciones impuestas (incompresibilidad), matrices singulares, etc. Dos de las tĂŠcnicas mĂĄs usadas son los mĂŠtodos de SU/PG y PS/PG, los cuales de forma general tienen el esquema general (ValdĂŠs, 2007; Tezduyar, 1992):

â&#x2C6;Ť([đ?&#x2018; đ?&#x2018; ]đ?&#x2018;&#x2021;đ?&#x2018;&#x2021; (â&#x2C6;&#x2122;) + (đ?&#x203A;żđ?&#x203A;ż â&#x201E;&#x17D; + đ?&#x203A;żđ?&#x203A;ż đ?&#x2018;&#x2019;đ?&#x2018;&#x2019; )(â&#x2C6;&#x2122;))đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;

(35)

đ?&#x2018;&#x2030;đ?&#x2018;&#x2030;

donde (â&#x2C6;&#x2122;) es la ecuaciĂłn fenomenolĂłgica, đ?&#x203A;żđ?&#x203A;ż â&#x201E;&#x17D; es el termino SUPG y đ?&#x203A;żđ?&#x203A;ż đ?&#x2018;&#x2019;đ?&#x2018;&#x2019; es el termino PSPG definidos como: đ?&#x203A;żđ?&#x203A;ż â&#x201E;&#x17D; = đ?&#x153;?đ?&#x153;?đ?&#x2018;&#x2020;đ?&#x2018;&#x2020;đ?&#x2018;&#x2020;đ?&#x2018;&#x2020;đ?&#x2018;&#x2020;đ?&#x2018;&#x2020;đ?&#x2018;&#x2020;đ?&#x2018;&#x2020; đ?&#x2018;˘đ?&#x2018;˘â&#x201E;&#x17D; â&#x2C6;&#x2122; â&#x2C6;&#x2021;đ?&#x2018;¤đ?&#x2018;¤ â&#x201E;&#x17D; ,

donde

đ?&#x153;?đ?&#x153;?đ?&#x2018;&#x2020;đ?&#x2018;&#x2020;đ?&#x2018;&#x2020;đ?&#x2018;&#x2020;đ?&#x2018;&#x2020;đ?&#x2018;&#x2020;đ?&#x2018;&#x2020;đ?&#x2018;&#x2020; =

â&#x201E;&#x17D; đ?&#x2018;§đ?&#x2018;§(đ?&#x2018;&#x2026;đ?&#x2018;&#x2026;đ?&#x2018;&#x2019;đ?&#x2018;&#x2019;đ?&#x2018;˘đ?&#x2018;˘ ) 2||đ?&#x2018;˘đ?&#x2018;˘â&#x201E;&#x17D; ||

đ?&#x2018;˘đ?&#x2018;˘â&#x201E;&#x17D; â&#x201E;&#x17D; â&#x2C6;&#x2021;đ?&#x2018;&#x17E;đ?&#x2018;&#x17E; đ?&#x153;&#x152;đ?&#x153;&#x152;

(36)

â&#x201E;&#x17D;# đ?&#x2018;§đ?&#x2018;§(đ?&#x2018;&#x2026;đ?&#x2018;&#x2026;đ?&#x2018;&#x2019;đ?&#x2018;&#x2019;đ?&#x2018;˘đ?&#x2018;˘ # ) 2||đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;||

(37)

đ?&#x203A;żđ?&#x203A;ż đ?&#x2018;&#x2019;đ?&#x2018;&#x2019; = đ?&#x153;?đ?&#x153;?đ?&#x2018;&#x192;đ?&#x2018;&#x192;đ?&#x2018;&#x192;đ?&#x2018;&#x192;đ?&#x2018;&#x192;đ?&#x2018;&#x192;đ?&#x2018;&#x192;đ?&#x2018;&#x192;

đ?&#x153;?đ?&#x153;?đ?&#x2018;&#x192;đ?&#x2018;&#x192;đ?&#x2018;&#x192;đ?&#x2018;&#x192;đ?&#x2018;&#x192;đ?&#x2018;&#x192;đ?&#x2018;&#x192;đ?&#x2018;&#x192; =

donde đ?&#x2018;&#x2026;đ?&#x2018;&#x2026;đ?&#x2018;&#x2019;đ?&#x2018;&#x2019;đ?&#x2018;˘đ?&#x2018;˘ y đ?&#x2018;&#x2026;đ?&#x2018;&#x2026;đ?&#x2018;&#x2019;đ?&#x2018;&#x2019;đ?&#x2018;˘đ?&#x2018;˘ # son nĂşmeros de Reynolds basados respectivamente en la velocidad local đ?&#x2018;˘đ?&#x2018;˘â&#x201E;&#x17D; y la velocidad global đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;. La funciĂłn z se define como: đ?&#x2018;&#x2026;đ?&#x2018;&#x2026;đ?&#x2018;&#x2026;đ?&#x2018;&#x2026;/3 đ?&#x2018;§đ?&#x2018;§(đ?&#x2018;&#x2026;đ?&#x2018;&#x2026;đ?&#x2018;&#x2026;đ?&#x2018;&#x2026;) = { 1

0 â&#x2030;¤ đ?&#x2018;&#x2026;đ?&#x2018;&#x2026;đ?&#x2018;&#x2026;đ?&#x2018;&#x2026; â&#x2030;¤ 3 3 â&#x2030;¤ đ?&#x2018;&#x2026;đ?&#x2018;&#x2026;đ?&#x2018;&#x2026;đ?&#x2018;&#x2026;

3.7 SegregaciĂłn de la presiĂłn

(38)

El objetivo por eficiencia computacional es desacoplar el campo de presiones en las ecuaciones de NavierStokes y continuidad para resolverse por separado, asĂ­ se reduce de manera considerable el esfuerzo computacional, uno de los algoritmos mĂĄs comunes es el mĂŠtodo de pasos fraccionados (ValdĂŠs, 2007; Codina y Vadia 2004), las ecuaciones de Navier-Stokes y continuidad se pueden expresar con: đ?&#x2018;&#x20AC;đ?&#x2018;&#x20AC; {

Ě&#x192;đ?&#x2018;Ąđ?&#x2018;Ą+â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą â&#x2C6;&#x2019; đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;đ?&#x2018;Ąđ?&#x2018;Ą đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6; } + đ??žđ??ž(đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;đ?&#x2018;Ąđ?&#x2018;Ą+â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą ){đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;đ?&#x2018;Ąđ?&#x2018;Ą+â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą } = đ?&#x203A;žđ?&#x203A;žđ?&#x203A;žđ?&#x203A;ž{đ?&#x2018;?đ?&#x2018;?đ?&#x2018;Ąđ?&#x2018;Ą+â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą } + đ??šđ??š(đ?&#x2018;Ąđ?&#x2018;Ą)đ?&#x2018;Ąđ?&#x2018;Ą+â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą

đ?&#x2018;&#x20AC;đ?&#x2018;&#x20AC; {

Ě&#x192;đ?&#x2018;Ąđ?&#x2018;Ą+â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą â&#x2C6;&#x2019; đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;đ?&#x2018;Ąđ?&#x2018;Ą đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6; Ě&#x192;đ?&#x2018;Ąđ?&#x2018;Ą+â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą ){đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6; Ě&#x192;đ?&#x2018;Ąđ?&#x2018;Ą+â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą } = đ?&#x203A;žđ?&#x203A;žđ?&#x203A;žđ?&#x203A;ž{đ?&#x2018;?đ?&#x2018;?đ?&#x2018;Ąđ?&#x2018;Ą } + đ??šđ??š(đ?&#x2018;Ąđ?&#x2018;Ą)đ?&#x2018;Ąđ?&#x2018;Ą+â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą } + đ??žđ??ž(đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6; â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą

Ě&#x192;đ?&#x2018;Ąđ?&#x2018;Ą+â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą ) â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ąđ?&#x2018;Ąđ?&#x2018;Ąđ?&#x2018;Ąđ?&#x2018;Ąđ?&#x2018;Ąđ?&#x2018;Ą( đ?&#x2018;&#x20AC;đ?&#x2018;&#x20AC;â&#x2C6;&#x2019;1 đ??şđ??ş{đ?&#x2018;?đ?&#x2018;?đ?&#x2018;Ąđ?&#x2018;Ą+â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą â&#x2C6;&#x2019; đ?&#x203A;žđ?&#x203A;žđ?&#x2018;?đ?&#x2018;?đ?&#x2018;Ąđ?&#x2018;Ą }) = đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;( đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6; Ě&#x192;đ?&#x2018;Ąđ?&#x2018;Ą+â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;đ?&#x2018;Ąđ?&#x2018;Ą+â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą â&#x2C6;&#x2019; đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6; đ?&#x2018;&#x20AC;đ?&#x2018;&#x20AC; { } â&#x2C6;&#x2019; đ?&#x203A;žđ?&#x203A;žđ?&#x203A;žđ?&#x203A;ž{đ?&#x2018;?đ?&#x2018;?đ?&#x2018;Ąđ?&#x2018;Ą+â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą â&#x2C6;&#x2019; đ?&#x203A;žđ?&#x203A;žđ?&#x2018;?đ?&#x2018;?đ?&#x2018;Ąđ?&#x2018;Ą } = 0 â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą

Ě&#x192;đ?&#x2018;Ąđ?&#x2018;Ą+â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą , đ?&#x2018;?đ?&#x2018;?đ?&#x2018;Ąđ?&#x2018;Ą+â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą y đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;đ?&#x2018;Ąđ?&#x2018;Ą+â&#x2C6;&#x2020;đ?&#x2018;Ąđ?&#x2018;Ą el cual puede resolverse para đ?&#x2018;&#x2C6;đ?&#x2018;&#x2C6;

(40)

3.8 Estrategia de soluciĂłn

Para resolver el sistema de ecuaciones no lineales proveniente de la discretizaciĂłn espacial y temporal incluyendo los tĂŠrminos aĂąadidos por la estabilizaciĂłn de la forma: đ?&#x2018;&#x201C;đ?&#x2018;&#x201C;1 (đ??žđ??ž11 đ?&#x2018;Ľđ?&#x2018;Ľ1 , đ??žđ??ž12 đ?&#x2018;Ľđ?&#x2018;Ľ2 , â&#x20AC;Ś , đ??žđ??ž1đ?&#x2018;&#x203A;đ?&#x2018;&#x203A; đ?&#x2018;Ľđ?&#x2018;Ľđ?&#x2018;&#x203A;đ?&#x2018;&#x203A; , đ??šđ??š1 ) = 0 đ?&#x2018;&#x201C;đ?&#x2018;&#x201C;2 (đ??žđ??ž21 đ?&#x2018;Ľđ?&#x2018;Ľ1 , đ??žđ??ž22 đ?&#x2018;Ľđ?&#x2018;Ľ2 , â&#x20AC;Ś , đ??žđ??ž2đ?&#x2018;&#x203A;đ?&#x2018;&#x203A; đ?&#x2018;Ľđ?&#x2018;Ľđ?&#x2018;&#x203A;đ?&#x2018;&#x203A; , đ??šđ??š2 ) = 0 â&#x2039;Ž đ?&#x2018;&#x201C;đ?&#x2018;&#x201C;đ?&#x2018;&#x203A;đ?&#x2018;&#x203A; (đ??žđ??žđ?&#x2018;&#x203A;đ?&#x2018;&#x203A;1 đ?&#x2018;Ľđ?&#x2018;Ľ1 , đ??žđ??žđ?&#x2018;&#x203A;đ?&#x2018;&#x203A;2 đ?&#x2018;Ľđ?&#x2018;Ľ2 , â&#x20AC;Ś , đ??žđ??žđ?&#x2018;&#x203A;đ?&#x2018;&#x203A;đ?&#x2018;&#x203A;đ?&#x2018;&#x203A; đ?&#x2018;Ľđ?&#x2018;Ľđ?&#x2018;&#x203A;đ?&#x2018;&#x203A; , đ??šđ??šđ?&#x2018;&#x203A;đ?&#x2018;&#x203A; ) = 0

(41)

đ?&#x2018;Ľđ?&#x2018;Ľđ?&#x2018;&#x203A;đ?&#x2018;&#x203A;+1 = đ?&#x2018;Ľđ?&#x2018;Ľ0 + [đ?&#x203A;ťđ?&#x203A;ťđ?&#x203A;ťđ?&#x203A;ť(đ?&#x2018;Ľđ?&#x2018;Ľ0 )]â&#x2C6;&#x2019;1 đ?&#x2018;&#x201C;đ?&#x2018;&#x201C;(đ?&#x2018;Ľđ?&#x2018;Ľ0 )

(42)

puede resolverse de manera muy similar a la parte estructural con el mĂŠtodo iterativo de Newton-Raphson (ValdĂŠs, 2007):

donde â&#x2C6;&#x2021; es el operador gradiente. 4 Sistema acoplado

4.1 Marco de referencia ALE Se requiere convertir las ecuaciones generales gobernantes en un marco donde existan compatibilidad, para ello se usa la descripciĂłn ALE (ValdĂŠs, 2007). La dinĂĄmica de la estructura a resolver en un modelo acoplado es: đ?&#x2018;&#x20AC;đ?&#x2018;&#x20AC;{uĚ&#x2C6; } + đ??śđ??ś{uĚ&#x2021; } + đ??žđ??ž{u} = đ??šđ??š(đ?&#x2018;Ąđ?&#x2018;Ą) + đ??żđ??ż(đ?&#x2018;Ąđ?&#x2018;Ą)

(43)

43


donde đ??šđ??š(đ?&#x2018;Ąđ?&#x2018;Ą) es un vector de fuerza por unidad de ĂĄrea en la interface correspondiente a la ecuaciĂłn de momemtum la cual es integrada sobre el dominio del fluido y L es un vector de otras fuerzas que no dependen de la acciĂłn del fluido, pero que si pueden ser funciĂłn del tiempo. En la ecuaciĂłn de Navier-Stokes se realiza un ajuste correspondiente al movimiento de la malla en la frontera, ademĂĄs de considerar los tĂŠrminos de estabilizaciĂłn: đ?&#x153;&#x152;đ?&#x153;&#x152;[đ?&#x2018;Łđ?&#x2018;Ł â&#x20AC;˛ + đ?&#x2018;&#x201D;đ?&#x2018;&#x201D;đ?&#x2018;&#x201D;đ?&#x2018;&#x201D;đ?&#x2018;&#x201D;đ?&#x2018;&#x201D;đ?&#x2018;&#x201D;đ?&#x2018;&#x201D; (đ?&#x2018;Łđ?&#x2018;Ł)(đ?&#x2018;Łđ?&#x2018;Łđ?&#x2018;&#x201C;đ?&#x2018;&#x201C; â&#x2C6;&#x2019; đ?&#x2018;Łđ?&#x2018;Łđ?&#x2018;&#x161;đ?&#x2018;&#x161; )] = â&#x2C6;&#x2019;â&#x2C6;&#x2021;đ?&#x2018;?đ?&#x2018;? + đ?&#x153;&#x2021;đ?&#x153;&#x2021;â&#x2C6;&#x2020;đ?&#x2018;Łđ?&#x2018;Ł + đ?&#x2018;?đ?&#x2018;? + đ?&#x2018;&#x2019;đ?&#x2018;&#x2019;đ?&#x2018;&#x2019;đ?&#x2018;&#x2019;đ?&#x2018;&#x2019;đ?&#x2018;&#x2019;. (44)

donde đ?&#x2018;Łđ?&#x2018;Łđ?&#x2018;&#x201C;đ?&#x2018;&#x201C; es la velocidad del fluido y đ?&#x2018;Łđ?&#x2018;Łđ?&#x2018;&#x161;đ?&#x2018;&#x161; es la velocidad de la malla. La ecuaciĂłn de continuidad queda de la siguiente forma: đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018; (đ?&#x2018;Łđ?&#x2018;Łđ?&#x2018;&#x201C;đ?&#x2018;&#x201C; â&#x2C6;&#x2019; đ?&#x2018;Łđ?&#x2018;Łđ?&#x2018;&#x161;đ?&#x2018;&#x161; ) = 0

(45)

4.2 Valores iniciales y condiciones frontera del sistema acoplado

Para el acoplamiento de problemas DFSI los dominios estructurales y de fluidos deben de estar conectados a lo largo de toda la interface Đ&#x201C; (Forster, 2007).

La soluciĂłn de estos problemas requiere compatibilidad cinemĂĄtica y dinĂĄmica en toda la interface Đ&#x201C; y para todo tiempo đ?&#x2018;&#x2021;đ?&#x2018;&#x2021; đ?&#x2018;˘đ?&#x2018;˘ = đ?&#x2018;Ľđ?&#x2018;Ľđ?&#x2018; đ?&#x2018;  â&#x2C6;&#x2019; đ?&#x2018;˘đ?&#x2018;˘đ?&#x2018;&#x201C;đ?&#x2018;&#x201C;

đ?&#x2018;&#x2020;đ?&#x2018;&#x2020;đ?&#x2018;&#x2020;đ?&#x2018;&#x2020; = đ?&#x2018;&#x2021;đ?&#x2018;&#x2021;đ?&#x2018;&#x2021;đ?&#x2018;&#x2021; đ?&#x2018;&#x2019;đ?&#x2018;&#x2019;đ?&#x2018;&#x2019;đ?&#x2018;&#x2019;

đ?&#x2018;Ľđ?&#x2018;ĽĚ&#x2021; = đ?&#x2018;˘đ?&#x2018;˘Ě&#x2021; Đ&#x201C;đ?&#x2018;Ľđ?&#x2018;Ľđ?&#x2018;Ľđ?&#x2018;Ľ

đ?&#x2018;Ľđ?&#x2018;ĽĚ&#x2C6; = đ?&#x2018;˘đ?&#x2018;˘Ě&#x2C6;

đ?&#x2018;&#x2019;đ?&#x2018;&#x2019;đ?&#x2018;&#x2019;đ?&#x2018;&#x2019;

Đ&#x201C;đ?&#x2018;Ľđ?&#x2018;Ľđ?&#x2018;Ľđ?&#x2018;Ľ

(46)

El acoplamiento dinĂĄmico en la Ăşltima condiciĂłn relaciona la presiĂłn del fluido con el esfuerzo estructural y tambiĂŠn se conoce como condiciĂłn frontera natural. 4.3 Movimiento de malla en la frontera

computacional, este algoritmo solo es considerado en las cercanĂ­as a la interface. 4.4 Estrategia de soluciĂłn En los problemas de interacciĂłn fluido-estructura las variables principales son el desplazamiento para el campo estructural y la velocidad y presiĂłn para el campo del fluido, suponiendo un arreglo del sistema de tal forma (ValdĂŠs, 2007): [

đ?&#x2018;&#x2020;đ?&#x2018;&#x2020; đ??śđ??śđ?&#x2018;&#x2020;đ?&#x2018;&#x2020;đ?&#x2018;&#x2020;đ?&#x2018;&#x2020;

đ?&#x2018;&#x201C;đ?&#x2018;&#x201C;(đ?&#x2018;Ąđ?&#x2018;Ą)đ?&#x2018; đ?&#x2018;  đ??śđ??śđ??šđ??šđ??šđ??š đ?&#x2018;Ľđ?&#x2018;Ľđ?&#x2018; đ?&#x2018;  } ]{ } = { đ??šđ??š đ?&#x2018;Ľđ?&#x2018;Ľđ?&#x2018;&#x201C;đ?&#x2018;&#x201C; đ?&#x2018;&#x201C;đ?&#x2018;&#x201C;(đ?&#x2018;Ąđ?&#x2018;Ą)đ?&#x2018;&#x201C;đ?&#x2018;&#x201C;

donde đ?&#x2018;Ľđ?&#x2018;Ľđ?&#x2018; đ?&#x2018;  son los desplazamientos de la estructura, đ?&#x2018;Ľđ?&#x2018;Ľđ?&#x2018;&#x201C;đ?&#x2018;&#x201C; son las velocidades y presiones del fluido, đ?&#x2018;&#x2020;đ?&#x2018;&#x2020; es una matriz de rigidez de la parte estructural, đ??šđ??š es una matriz de pseudo-rigidez del fluido, đ??śđ??śđ??šđ??šđ??šđ??š es un bloque de la matriz de pseudo-rigidez acoplando en el dominio estructural, đ??śđ??śđ?&#x2018;&#x2020;đ?&#x2018;&#x2020;đ?&#x2018;&#x2020;đ?&#x2018;&#x2020; es un bloque de la matriz de rigidez estructural acoplada en el dominio del fluido, đ?&#x2018;&#x201C;đ?&#x2018;&#x201C;(đ?&#x2018;Ąđ?&#x2018;Ą)đ?&#x2018; đ?&#x2018;  son fuerzas en el dominio estructural y đ?&#x2018;&#x201C;đ?&#x2018;&#x201C;(đ?&#x2018;Ąđ?&#x2018;Ą)đ?&#x2018;&#x201C;đ?&#x2018;&#x201C; son fuerzas en el dominio del fluido. El sistema se resuelve usando mĂŠtodos iterativos de bloques de Jacobi, Gauss-Seidel o de Newton.

6 SimulaciĂłn computacional La simulaciĂłn computacional se llevara a cabo con el software comercial ANSYS y el con el software DENIS+GiD, en ambos software se consideraran los algoritmos previamente descritos, debido a que la velocidad del viento comparada con la velocidad del sonido es baja, se considerara la densidad del fluido como constante, al considerar al viento como un fluido Newtoniano la viscosidad es constante.

El movimiento de la malla del dominio del fluido es modelado como un problema pseudo-estructural (Slone et al., 2001a; ValdĂŠs, 2007): đ?&#x2018;&#x2DC;đ?&#x2018;&#x2DC;đ?&#x2018;&#x161;đ?&#x2018;&#x161; đ?&#x2018;˘đ?&#x2018;˘đ?&#x2018;&#x161;đ?&#x2018;&#x161; = đ?&#x2018;&#x201C;đ?&#x2018;&#x201C;đ?&#x2018;&#x161;đ?&#x2018;&#x161; (đ?&#x2018;Ąđ?&#x2018;Ą)

(47)

donde đ?&#x2018;&#x2DC;đ?&#x2018;&#x2DC;đ?&#x2018;&#x161;đ?&#x2018;&#x161; es la matriz de pseudo-rigidez de la malla, đ?&#x2018;˘đ?&#x2018;˘đ?&#x2018;&#x161;đ?&#x2018;&#x161; es el vector de desplazamiento de la malla y đ?&#x2018;&#x201C;đ?&#x2018;&#x201C;đ?&#x2018;&#x161;đ?&#x2018;&#x161; (đ?&#x2018;Ąđ?&#x2018;Ą) son fuerzas dependientes del tiempo. Debido a su dificultad

44

(48)

Fig. 3 Edificio


No se consideraran los efectos tĂŠrminos en este trabajo, ademĂĄs de despreciar los posibles efectos residuales existentes en la estructura la cual se considerara como nueva. Los parĂĄmetros que se considerara son los siguientes: para el fluido (viento), densidad = 1.27 kg/m3, viscosidad = 0.01505 kg/m seg, velocidad= 55 m/s, para la parte estructural, modulo elasticidad = 2,040,000 kg/cm2, coeficiente Poisson=0.30, factor de amortiguamiento=0.03, acero A36.

7 ExperimentaciĂłn fĂ­sica Existen varias aproximaciĂłn de modelaciĂłn de tĂşnel de viento, siendo el modelo tipo stick una de las tĂŠcnicas mĂĄs populares y eficientes (Zhou y Kareem, 2003). El modelo stick tienen la ventaja de incluir los efectos aeroelĂĄsticos los cuales pueden ser esenciales para ciertas estructuras sensibles al viento (Boggs, 1992). En comparaciĂłn con otros modelos aeroelĂĄsticos, el modelo stick es eficiente en tĂŠrminos de diseĂąo, fabricaciĂłn, calibraciĂłn y mediciĂłn, lo cual representa ahorro en costo y tiempo, ademĂĄs permite cambios convenientes en la masa, rigidez, amortiguamiento y propiedades geomĂŠtricas (Zhou y Kareem, 2003). 8.1Similitud dinĂĄmica

(50)

donde z es una altura del edificio donde se desean conocer los desplazamientos y presiones, H es la altura total del edificio, B es un exponente de la forma del modo de la estructura y c= factor de normalizaciĂłn. Para un edificio con primera forma de modo lineal (B=1) la ecuaciĂłn del movimiento se representa como:

đ?&#x2018;˘đ?&#x2018;˘Ě&#x2C6; (đ?&#x2018;Ąđ?&#x2018;Ą) + 4đ?&#x153;&#x2039;đ?&#x153;&#x2039;đ?&#x2018;&#x201C;đ?&#x2018;&#x201C;1 đ?&#x153;&#x2030;đ?&#x153;&#x2030;đ?&#x2018;˘đ?&#x2018;˘Ě&#x2021; (đ?&#x2018;Ąđ?&#x2018;Ą) + (4đ?&#x153;&#x2039;đ?&#x153;&#x2039;đ?&#x2018;&#x201C;đ?&#x2018;&#x201C;1 )2 đ?&#x2018;˘đ?&#x2018;˘(đ?&#x2018;Ąđ?&#x2018;Ą) =

1 đ??śđ??śđ?&#x2018;&#x20AC;đ?&#x2018;&#x20AC; ( đ?&#x153;&#x152;đ?&#x153;&#x152;đ?&#x2018;&#x17D;đ?&#x2018;&#x17D; đ?&#x2018;&#x2030;đ?&#x2018;&#x2030; 2 â&#x2C6;&#x161;đ??ľđ??ľđ??ľđ??ľđ??ľđ??ľ) 2 đ?&#x2018;&#x161;đ?&#x2018;&#x161;

(51)

donde f es la frecuencia del primer modo de vibraciĂłn, đ?&#x153;&#x2030;đ?&#x153;&#x2030;= es el factor de amortiguamiento, V es la velocidad del viento, đ?&#x153;&#x152;đ?&#x153;&#x152;đ?&#x2018;&#x17D;đ?&#x2018;&#x17D; es la densidad el aire, B y D son dimensiones de la secciĂłn transversal del edifico. Estableciendo los factores de escala: geomĂŠtricos, velocidad,

frecuencia, coeficiente de momento en la base, densidad aire, masa, amortiguamiento respectivamente: đ?&#x2018;˘đ?&#x2018;˘đ?&#x2018;&#x161;đ?&#x2018;&#x161; đ??ľđ??ľđ?&#x2018;&#x161;đ?&#x2018;&#x161; đ??ˇđ??ˇđ?&#x2018;&#x161;đ?&#x2018;&#x161; đ??ťđ??ťđ?&#x2018;&#x161;đ?&#x2018;&#x161; đ?&#x2018;&#x2030;đ?&#x2018;&#x2030;đ?&#x2018;&#x161;đ?&#x2018;&#x161; = = = ; đ??žđ??žđ?&#x2018;Łđ?&#x2018;Ł = đ?&#x2018;˘đ?&#x2018;˘đ?&#x2018;?đ?&#x2018;? đ??ľđ??ľđ?&#x2018;?đ?&#x2018;? đ??ˇđ??ˇđ?&#x2018;?đ?&#x2018;? đ??ťđ??ťđ?&#x2018;?đ?&#x2018;? đ?&#x2018;&#x2030;đ?&#x2018;&#x2030;đ?&#x2018;?đ?&#x2018;? đ??śđ??śđ?&#x2018;&#x20AC;đ?&#x2018;&#x20AC; đ?&#x2018;&#x161;đ?&#x2018;&#x161; đ?&#x2018;Ąđ?&#x2018;Ąđ?&#x2018;&#x161;đ?&#x2018;&#x161; đ?&#x2018;&#x201C;đ?&#x2018;&#x201C;1 đ?&#x2018;&#x161;đ?&#x2018;&#x161; đ?&#x153;&#x152;đ?&#x153;&#x152;đ?&#x2018;&#x17D;đ?&#x2018;&#x17D;đ?&#x2018;&#x17D;đ?&#x2018;&#x17D; đ??žđ??žđ?&#x2018;Ąđ?&#x2018;Ą = = ; đ??žđ??žđ??śđ??śđ??śđ??ś = ; đ??žđ??žđ?&#x153;&#x152;đ?&#x153;&#x152;đ?&#x153;&#x152;đ?&#x153;&#x152; = đ?&#x2018;Ąđ?&#x2018;Ąđ?&#x2018;?đ?&#x2018;? đ?&#x2018;&#x201C;đ?&#x2018;&#x201C;1 đ?&#x2018;?đ?&#x2018;? đ??śđ??śđ?&#x2018;&#x20AC;đ?&#x2018;&#x20AC; đ?&#x2018;?đ?&#x2018;? đ?&#x153;&#x152;đ?&#x153;&#x152;đ?&#x2018;&#x17D;đ?&#x2018;&#x17D;đ?&#x2018;&#x17D;đ?&#x2018;&#x17D; đ??žđ??žđ??żđ??ż =

đ??žđ??žđ?&#x2018;&#x161;đ?&#x2018;&#x161; =

đ?&#x2018;&#x161;đ?&#x2018;&#x161;đ?&#x2018;&#x161;đ?&#x2018;&#x161; ; đ?&#x2018;&#x161;đ?&#x2018;&#x161;đ?&#x2018;?đ?&#x2018;?

đ??žđ??žđ?&#x153;&#x2030;đ?&#x153;&#x2030; =

đ?&#x153;&#x2030;đ?&#x153;&#x2030;đ?&#x2018;&#x161;đ?&#x2018;&#x161; đ?&#x153;&#x2030;đ?&#x153;&#x2030;đ?&#x2018;?đ?&#x2018;?

(52)

se puede escribir la ecuaciĂłn de movimiento de modelo:

Leyes de escalamiento pueden ser obtenidos ya sea por anĂĄlisis dimensional o por ecuaciones de movimiento no dimensionales. La Ăşltima aproximaciĂłn es usada aquĂ­ para el modelo aeroelĂĄstico stick ya que la respuesta en modos fundamentales domina la respuesta general (Zhou y Kareem, 2003). La ecuaciĂłn del movimiento gobernante del movimiento de una estructura alta con modo de forma arbitrario es: đ?&#x2018;&#x161;đ?&#x2018;&#x161;đ?&#x2018;˘đ?&#x2018;˘Ě&#x2C6; + đ?&#x2018;?đ?&#x2018;?đ?&#x2018;˘đ?&#x2018;˘Ě&#x2021; + đ?&#x2018;&#x2DC;đ?&#x2018;&#x2DC;đ?&#x2018;&#x2DC;đ?&#x2018;&#x2DC; = đ?&#x2018;&#x192;đ?&#x2018;&#x192;(đ?&#x2018;Ąđ?&#x2018;Ą, đ?&#x2018;˘đ?&#x2018;˘, đ?&#x2018;˘đ?&#x2018;˘Ě&#x2021; , đ?&#x2018;˘đ?&#x2018;˘Ě&#x2C6; )

đ?&#x153;&#x2018;đ?&#x153;&#x2018;(đ?&#x2018;§đ?&#x2018;§) = đ?&#x2018;?đ?&#x2018;?(đ?&#x2018;§đ?&#x2018;§/đ??ťđ??ť)đ??ľđ??ľ

(49)

donde m es la masa, c es el amortiguamiento, k es la rigidez y P es la fuerza del viento en funciĂłn del tiempo, desplazamiento, velocidad y aceleraciĂłn dela estructura. La forma de modo de un edificio puede aproximarse por una expresiĂłn exponencial de la forma:

đ?&#x2018;˘đ?&#x2018;˘Ě&#x2C6; (đ?&#x2018;Ąđ?&#x2018;Ą) +

=

1 4đ?&#x153;&#x2039;đ?&#x153;&#x2039;đ?&#x2018;&#x201C;đ?&#x2018;&#x201C;1 đ?&#x153;&#x2030;đ?&#x153;&#x2030;đ?&#x2018;˘đ?&#x2018;˘Ě&#x2021; (đ?&#x2018;Ąđ?&#x2018;Ą) + (4đ?&#x153;&#x2039;đ?&#x153;&#x2039;đ?&#x2018;&#x201C;đ?&#x2018;&#x201C;1 )2 đ?&#x2018;˘đ?&#x2018;˘(đ?&#x2018;Ąđ?&#x2018;Ą) = đ??žđ??žđ?&#x153;&#x2030;đ?&#x153;&#x2030;

1 đ??žđ??žđ?&#x2018;&#x161;đ?&#x2018;&#x161; đ??žđ??žđ??żđ??ż 2 đ?&#x2018;&#x20AC;đ?&#x2018;&#x20AC;đ?&#x2018;&#x20AC;đ?&#x2018;&#x20AC; /đ??ťđ??ť 1 ( )( ) ( ) đ?&#x2018;&#x161;đ?&#x2018;&#x161;â&#x20AC;˛ đ??žđ??žđ??śđ??śđ??śđ??ś đ??žđ??žđ?&#x153;&#x152;đ?&#x153;&#x152;đ?&#x153;&#x152;đ?&#x153;&#x152; đ??žđ??žđ??żđ??ż 3 đ??žđ??žđ?&#x2018;Ąđ?&#x2018;Ą đ??žđ??žđ?&#x2018;Łđ?&#x2018;Ł

(53)

de donde se deducen las leyes de escalamiento de amortiguamiento, coeficiente de momento en la base, masa y rigidez respectivamente:  Los parĂĄmetros que se utilizaran para la parte de fluidos y estructural son los mencionados en la secciĂłn anterior.

8 Resultados esperados En la simulaciĂłn computacional, en ambos software, se obtendrĂĄ la respuesta dinĂĄmica de la estructura en el tiempo debida a los efectos de viento siendo la variable

45


de estado el desplazamiento en un punto de control ubicado en la parte superior del edificio. En la experimentación física obtendrá la respuesta dinámica del modelo en el mismo punto correspondiente de la simulación computacional por medio de una prueba de túnel de viento donde se considerara el factor de escala correspondiente entre el prototipo y el modelo.

Hübner, B., E. Walhorn, and D. Dinkler. 2004. A monolithic approach to fluid-structure interaction using space-time finite elements. Comput. Methods Appl. Engrg. 193:2087-2104.

Se espera que la respuesta obtenida en la simulación computacional con respecto a la experimentación física sea mayor en no más de un 10% para considerar una representación aceptable según la teoría de modelos (Harris y Sabnis, 1999).

Slone, A.K., K. Pericleous, C. Bailey, and M. Cross. 2001a. Dynamic fluid-structure interaction using finite volume unstructured mesh procedures. Computers and structures 80:371-390.

9 Referencias Bahthe, K-J. 1996. Finite element procedures. Prentice Hall Inc. New Jersey. Boggs, D.W. 1992. Validation of the aerodynamic model method. Wind engineering and industrial aerodynamics. 41-44(1992) 1011-1022. Casadei, F., J.P. Halleux, A. Sala, and F. Chille. 1999. Transient fluid-structure interaction algoritms of large industrial applications. Comput. Methods Appl. Engrg. 190: 3081-3110. Codina, R., S. Badia. 2004. On some pressure segregation methods of fractional-step type fot the finite element approximation of incompressible flow problems. Comput. Methods Appl. Engrg. 195:29002918. Dettmer, W., and D. Peric. 2005. A computational framework for fluid-structure interaction: Finite element formulation and applications. Comput. Methods Appl. Engrg. 195: 5754-5779. Forster, C. 2007.Robust methods for fluid-structure interaction with stabilized finite element. Stuttgart. Gurtin, M. E. 1981. An introduction to continuum mechanics. Academic Press, Inc New York. Harris H.G. y Sabnis G.J. 1999. Structural modeling and experimental techniques. USA

46

Segerlind L.J. 1984. Applied finite element analysis. 2 edition. John Wiley & Sons, Inc. New York.

Slone, A.K., C. Bailey, and M. Cross. 200b1. Dynamic solid mechanics using finite volume methods. Applied Mathematical Modelling. 27:69-87. Slone, A.K., C. Bailey, and M. Cross, C. Bennett. 2001c. A finite volume unstructural mesh approach to dynamic interaction: an assessment of the challenge of predicting the onset of flutter. Applied Mathematical Modelling 28:211-239. Suliman, R., O. F. Oxboty, A. G. Malan, and S. Kok. 2012. Development of a partitioned finite volume-finite element fluid-structure interaction scheme for stronglycoupled problems. Tezduyar, T.E. 1992. Stabilized finite element formulations for incompressible flow computations. Advances in Applied Mechanics. 28:1-44. Valdés-Vázquez J.G. 2007. Nonlinear analysis of orthotropic membrane and shell structures including fluid-structure interaction. Universidad Politécnica de Catalunya. Zhang, Z., A.J. Gil, O. Hassan, and K. Morgan. 2007. The simulation of 3D unsteady incompressible flows with moving boundaries on unstructured meshes. Computers & Fluids. 37:620-631. Zhou, Yin., and A. Kareem. 2003. Aeroelastic Balance. Engineering mechanics. 129: 283-292. Zienkiewicz, O.C. Taylor R.L. 2000. The finite element method 5 edition. Butterworth-heinemann, Oxford.


Técnica de cocientes espectrales: Obtención de funciones de transferencia empírica (FTE) mediante el registro de vibración ambiental. Spectral noise ratio technique: Empiric transfer function using ambient vibration records.

M. González-Martínez, DIPFI, Universidad Autónoma de Querétaro. icmagoma@yahoo.com.mx A. Clemente-Chávez, DIPFI, Universidad Autónoma de Querétaro. aclemente09@alumnos.uaq.mx RESUMEN. Las funciones de transferencia como un parámetro que caracteriza el comportamiento de un fenómeno dinámico pueden obtenerse mediante métodos teóricos y empíricos. El presente artículo busca mostrar una visión rápida a las bases teóricas de los sistemas dinámicos, la transformada de Fourier, un criterio básico de duración de registro por ventana de análisis y la obtención de la Función de Transferencia Empírica (FTE) mediante el uso de ruido ambiental y utilizando la técnica de cocientes espectrales entre la componente horizontal y la vertical o HVNR por sus siglas en inglés (Horizontal-Vertical Noise Ratio). Se resolverá al final un ejercicio mediante el uso de señales sintéticas a fin de ejemplificar el tratamiento de datos y la interpretación de resultados. Aunque es importante mencionar que la FTE obtenida mediante esta técnica no provee una amplitud confiable del comportamiento dinámico, si determina de manera confiable el periodo fundamental de los estratos de suelo blando cuando se tiene alta impedancia en la parte inferior de los mismos. Debido a su facilidad tanto de procesamiento como de registro de datos, la técnica HVNR actualmente es muy utilizada para la generación de mapas de isoperiodos del suelo en zonas de mediano y bajo riesgo sísmico. PALABRAS CLAVE: Efecto de sitio, cocientes espectrales, vibración ambiental, funciones de transferencia empírica. ABSTRACT. The transfer functions like a dynamic behavior characterization parameter can be obtained using theorical and empiric methods. This article tries to show a fast review of dynamic systems, Fourier transform, a basic window size analysis criteria and the empirical transfer function calculation process using ambient vibration records through the spectral noise ratio technique (HVNR: Horizontal-Vertical Noise Ratio). This empiric transfer function not provides a trustful amplitude. However, it shows a trustful peak that mark the fundamental period in the case of a stratified soft soil system with a high impedance at the bottom. HVNR technique has been currently used like a strong tool for determining the iso-periods mapping in medium or low seismic risk zones. KEY WORDS: Site effect, spectral ratios, ambient vibration, empiric transfer functions.

1

INTRODUCCIÓN.

El efecto de sitio, reconocido como un factor importante para la microzonificación o estudios de evaluación de riesgo sísmico en instalaciones importantes, estimado mediante la aproximación empírica y basada en obtener registros de movimientos débiles (microsismos y microtremores) y/o fuertes (sismos) para obtener las diferencias de respuesta entre terrenos suaves y de roca firme se puede definir como: un periodo resonante en el que se produce la amplificación máxima, así como la magnitud de la misma (Lermo y Chávez-García, 1994; Lermo y Limaymanta, 2007; Lozano et al., 2009; Chávez-García y Tejeda-Jácome, 2010b). Para la estimación de este periodo y amplificación máximas, de manera general se acepta que la estimación más confiable se obtiene mediante el análisis de registros sísmicos (debido a sus amplitudes de onda), pero para

lugares con sismicidad de moderada a baja, el obtener registros simultáneos en estaciones sobre suelo blando y roca para obtener una muestra representativa es una restricción (Lermo y Chávez-García, 1994; ChávezGarcía y Tejeda-Jácome, 2010a). Bajo esta restricción, el registro de vibración ambiental se muestra como una buena alternativa para resolver el problema, mostrando en ocasiones ser más estable que el determinado con la utilización de un limitado número de registros sísmicos (Chávez-García y Tejeda-Jácome, 2010a). Esta ventaja, además de su bajo costo, adquisición y análisis simple de datos, ha convertido a la técnica HVNR en una técnica muy útil en la actualidad. (Lermo y Chávez-García, 1994; Bard, 1999; Flores y Aguirre, 2002; Lermo y Limaymanta, 2007).

47


AĂşn con esto, esta tĂŠcnica no ha sido concluyente en dar una estimaciĂłn adecuada en la magnitud de la amplificaciĂłn mĂĄxima del efecto de sitio, sino Ăşnicamente para dar una clasificaciĂłn burda de las condiciones del sitio (Bard, 1999, Eropean Commission, 2004), salvo aportaciones recientes para registros de vibraciĂłn ambiental en estaciones mĂşltiples y considerando un campo difuso (e.g. SĂĄnchez-Sesma et al., 2011), lo cual se queda fuera del alcance de este texto. 2

DESARROLLO TEĂ&#x201C;RICO DE LA FUNCIĂ&#x201C;N DE TRANSFERENCIA.

Una idea del efecto de sitio se puede modelar considerando una masa unida al piso mediante un conector elĂĄstico. Si a este sistema se le aplica una excitaciĂłn en el suelo, tendremos que đ?&#x2018;§(đ?&#x2018;Ą) es la funciĂłn temporal del desplazamiento absoluto del suelo, đ?&#x2018;Ľ(đ?&#x2018;Ą) del desplazamiento absoluto que experimenta la masa y đ?&#x2018;Ś(đ?&#x2018;Ą) del desplazamiento relativo de la masa respecto al suelo (Ver Figura 1 ):

đ?&#x2018;&#x2018;đ?&#x2018;Ś(đ?&#x2018;Ą) đ?&#x2018;&#x2018;đ?&#x2018;Ľ(đ?&#x2018;Ą) đ?&#x2018;&#x2018;đ?&#x2018;§(đ?&#x2018;Ą) = â&#x2C6;&#x2019; đ?&#x2018;&#x2018;đ?&#x2018;Ą đ?&#x2018;&#x2018;đ?&#x2018;Ą đ?&#x2018;&#x2018;đ?&#x2018;Ą

Ec. 2

đ?&#x2018;&#x2018;ďż˝ đ?&#x2018;Ś(đ?&#x2018;Ą) đ?&#x2018;&#x2018;ďż˝ đ?&#x2018;Ľ(đ?&#x2018;Ą) đ?&#x2018;&#x2018;ďż˝ đ?&#x2018;§(đ?&#x2018;Ą) = â&#x2C6;&#x2019; đ?&#x2018;&#x2018;đ?&#x2018;Ą ďż˝ đ?&#x2018;&#x2018;đ?&#x2018;Ą ďż˝ đ?&#x2018;&#x2018;đ?&#x2018;Ą ďż˝

Ec. 3

Utilizando estas ecuaciones como base de partida y considerando que la respuesta a este modelo viene dada por las leyes de movimiento de Newton, el planteamiento se resume como sigue: đ?&#x2018;&#x161;đ?&#x2018;&#x17D;â&#x192;&#x2014; = ďż˝ đ??šâ&#x192;&#x2014;ďż˝ ďż˝

đ?&#x2018;&#x2018;đ?&#x2018;Ś(đ?&#x2018;Ą) đ?&#x2018;&#x2018;ďż˝ đ?&#x2018;Ľ(đ?&#x2018;Ą) ďż˝ = â&#x2C6;&#x2019;đ?&#x2018;&#x201C; ďż˝đ?&#x2018;Ś(đ?&#x2018;Ą), , đ?&#x2018;Ąďż˝ đ?&#x2018;&#x161;â&#x2C6;&#x2122;ďż˝ đ?&#x2018;&#x2018;đ?&#x2018;Ą đ?&#x2018;&#x2018;đ?&#x2018;Ą đ?&#x2018;&#x161;â&#x2C6;&#x2122;

đ?&#x2018;&#x2018;ďż˝ đ?&#x2018;§(đ?&#x2018;Ą) đ?&#x2018;&#x2018;đ?&#x2018;Ś(đ?&#x2018;Ą) đ?&#x2018;&#x2018;ďż˝ đ?&#x2018;Ś(đ?&#x2018;Ą) +đ?&#x2018;&#x161;â&#x2C6;&#x2122; = â&#x2C6;&#x2019;đ?&#x2018;&#x2DC; â&#x2C6;&#x2122; đ?&#x2018;Ś(đ?&#x2018;Ą) â&#x2C6;&#x2019; đ?&#x203A;˝ â&#x2C6;&#x2122; ďż˝ ďż˝ đ?&#x2018;&#x2018;đ?&#x2018;Ą đ?&#x2018;&#x2018;đ?&#x2018;Ą đ?&#x2018;&#x2018;đ?&#x2018;Ą

Ec. 4

El fenĂłmeno descrito por la Ec. 4 corresponde a un sistema masa â&#x20AC;&#x201C; resorte de movimiento forzado amortiguado, constituido por la fuerza restauradora funciĂłn de la desviaciĂłn relativa y su derivada (miembro de la derecha), asĂ­ como la aceleraciĂłn tanto del movimiento de la base como el relativo (miembro de la izquierda). Reordenando la Ec. 4 se obtiene: đ?&#x2018;&#x161;â&#x2C6;&#x2122;

đ?&#x2018;&#x2018;đ?&#x2018;Ś(đ?&#x2018;Ą) đ?&#x2018;&#x2018;ďż˝ đ?&#x2018;§(đ?&#x2018;Ą) đ?&#x2018;&#x2018;ďż˝ đ?&#x2018;Ś(đ?&#x2018;Ą) + đ?&#x203A;˝ â&#x2C6;&#x2122; + đ?&#x2018;&#x2DC; â&#x2C6;&#x2122; đ?&#x2018;Ś(đ?&#x2018;Ą) = â&#x2C6;&#x2019;đ?&#x2018;&#x161; â&#x2C6;&#x2122; đ?&#x2018;&#x2018;đ?&#x2018;Ą đ?&#x2018;&#x2018;đ?&#x2018;Ą ďż˝ đ?&#x2018;&#x2018;đ?&#x2018;Ą ďż˝

Ec. 5

��(�)

Donde đ?&#x203A;˝ â&#x2C6;&#x2122; es la fuerza de amortiguamiento, đ?&#x2018;&#x2DC; â&#x2C6;&#x2122; đ?&#x2018;Ś(đ?&#x2018;Ą) �� la fuerza recuperadora del resorte. Para este modelo, sabiendo que la frecuencia angular

Figura 1 Modelo de un grado de libertad sometido a una excitaciĂłn sĂ­smica. Bajo este esquema, se puede decir que đ?&#x2018;Ś(đ?&#x2018;Ą) es descrita como sigue: đ?&#x2018;Ś(đ?&#x2018;Ą) = đ?&#x2018;Ľ(đ?&#x2018;Ą) â&#x2C6;&#x2019; đ?&#x2018;§(đ?&#x2018;Ą)

De donde sus derivadas respecto al tiempo serĂĄn:

48

Ec. 1

propia del sistema no amortiguado es đ?&#x153;&#x201D;ďż˝ = ďż˝đ?&#x2018;&#x2DC;ďż˝đ?&#x2018;&#x161;, podemos deducir que đ?&#x153;&#x201D;�� = đ?&#x2018;&#x2DC;ďż˝đ?&#x2018;&#x161; y por lo tanto:

đ?&#x2018;&#x2DC; = đ?&#x153;&#x201D;�� â&#x2C6;&#x2122; đ?&#x2018;&#x161;

Ec. 6

De igual manera, conociendo que el factor de ďż˝ amortiguamiento es đ?&#x153;&#x2030; = , deducimos que: ďż˝â&#x2C6;&#x2122;ďż˝â&#x2C6;&#x2122;ďż˝

đ?&#x203A;˝ = 2 â&#x2C6;&#x2122; đ?&#x153;&#x2030; â&#x2C6;&#x2122; đ?&#x2018;&#x161; â&#x2C6;&#x2122; đ?&#x153;&#x201D;ďż˝

ďż˝

Ec. 7

Sustituyendo la Ec. 6 y Ec. 7 en la Ec. 5, y dividiendo entre la masa del sistema (đ?&#x2018;&#x161;) se obtiene:


đ?&#x2018;&#x2018;đ?&#x2018;Ś(đ?&#x2018;Ą) đ?&#x2018;&#x2018;ďż˝ đ?&#x2018;§(đ?&#x2018;Ą) đ?&#x2018;&#x2018;ďż˝ đ?&#x2018;Ś(đ?&#x2018;Ą) + 2 â&#x2C6;&#x2122; đ?&#x153;&#x2030; â&#x2C6;&#x2122; đ?&#x153;&#x201D;ďż˝ â&#x2C6;&#x2122; + đ?&#x153;&#x201D;�� â&#x2C6;&#x2122; đ?&#x2018;Ś = â&#x2C6;&#x2019; ďż˝ đ?&#x2018;&#x2018;đ?&#x2018;Ą đ?&#x2018;&#x2018;đ?&#x2018;Ą đ?&#x2018;&#x2018;đ?&#x2018;Ą ďż˝

Ec. 8

A fin de caracterizar el sistema descrito por la Ec. 8, se utilizan las llamadas Funciones de Transferencia, obtenidas con el cociente de la seĂąal de vibraciĂłn de salida entre la seĂąal de entrada, ambas expresada como funciones complejas en el dominio de la frecuencia mediante el uso de la Transformada de Fourier (FT) (CarreĂąo et al., 1999).

Para lograr obtener la funciĂłn de transferencia del sistema, se utiliza una propiedad mostrada en la Ec. 9 y que corresponde a la FT de una derivada como sigue: [đ??š{đ?&#x2018;Ľ ďż˝ (đ?&#x2018;Ą)} = (đ?&#x2018;&#x2014;đ?&#x153;&#x201D;)ďż˝ đ?&#x2018;&#x2039;(đ?&#x153;&#x201D;)]

Ec. 9

Haciendo uso de esta propiedad en la Ec. 8 se obtiene:

đ?&#x2018;&#x2020;ďż˝ =

đ?&#x2018;&#x152;(đ?&#x153;&#x201D;) đ?&#x153;&#x201D;ďż˝ = đ?&#x2018;?(đ?&#x153;&#x201D;) â&#x2C6;&#x2019;đ?&#x153;&#x201D; ďż˝ + đ?&#x153;&#x201D;�� + 2 â&#x2C6;&#x2122; đ?&#x2018;&#x2014; â&#x2C6;&#x2122; đ?&#x153;&#x2030; â&#x2C6;&#x2122; đ?&#x153;&#x201D;ďż˝ â&#x2C6;&#x2122; đ?&#x153;&#x201D;

Ec. 10

Donde: đ?&#x2018;Ś(đ?&#x2018;Ą) = Salida del sistema. đ?&#x2018;&#x152;(đ?&#x153;&#x201D;) = Transformada de Fourier de đ?&#x2018;Ś(đ?&#x2018;Ą). đ?&#x2018;§(đ?&#x2018;Ą) =Desplazamiento del suelo. đ?&#x2018;?(đ?&#x153;&#x201D;) =Transformada de Fourier de đ?&#x2018;§(đ?&#x2018;Ą). đ?&#x2018;&#x2020;ďż˝ = FunciĂłn de transferencia en desplazamiento del sistema o sensibilidad en desplazamiento, la cual nos permite analizar la respuesta frecuencial del sistema y caracterizar su comportamiento. De manera anĂĄloga, la FunciĂłn de transferencia en velocidad (đ?&#x2018;&#x2020;ďż˝ ) y aceleraciĂłn (đ?&#x2018;&#x2020;ďż˝ ) se deducen como sigue: đ?&#x2018;&#x2020;ďż˝ (đ?&#x153;&#x201D;) =

đ?&#x2018;&#x2020;ďż˝ (đ?&#x153;&#x201D;) đ?&#x2018;&#x152;(đ?&#x153;&#x201D;) = đ?&#x2018;&#x2013; â&#x2C6;&#x2122; đ?&#x153;&#x201D; â&#x2C6;&#x2122; đ?&#x2018;?(đ?&#x153;&#x201D;) đ?&#x2018;&#x2013;â&#x2C6;&#x2122;đ?&#x153;&#x201D;

đ?&#x2018;&#x2020;ďż˝ (đ?&#x153;&#x201D;) đ?&#x2018;&#x152;(đ?&#x153;&#x201D;) đ?&#x2018;&#x2020;ďż˝ (đ?&#x153;&#x201D;) = = ďż˝ â&#x2C6;&#x2019;đ?&#x153;&#x201D; â&#x2C6;&#x2122; đ?&#x2018;?(đ?&#x153;&#x201D;) â&#x2C6;&#x2019;đ?&#x153;&#x201D; ďż˝

Figura 2 Procedimiento de soluciĂłn de problemas mediante la utilizaciĂłn de la Transformada y Transformada Inversa de Fourier (Modificado de Zill, 2002).

Ec. 11 Ec. 12

Bajo este esquema, para sistemas dinĂĄmicos, se puede observar que la idea bĂĄsica de la de la Transformada de Fourier, ademĂĄs de una potente herramienta para la soluciĂłn de ecuaciones diferenciales, es transformar un problema complejo en otro mĂĄs sencillo y luego obtener la soluciĂłn del problema original mediante el uso de la Transformada Inversa de Fourier para dar soluciĂłn al problema transformado (Ver Figura 2).

Bajo este concepto de soluciĂłn, si los datos con los que contamos corresponden a registros de velocidad o aceleraciĂłn dependientes del tiempo, seguiremos el desarrollo de Nakamura (1989), el cual dividiĂł los registros de ruido ambiental en ondas de cuerpo y superficiales para ambas componentes (horizontales y verticales) (Bard, 1999). đ??ť(đ?&#x2018;&#x201C;) = đ??ťďż˝ (đ?&#x2018;&#x201C;) + đ??ťďż˝ (đ?&#x2018;&#x201C;) = đ??´ďż˝ďż˝ (đ?&#x2018;&#x201C;) â&#x2C6;&#x2122; đ?&#x2018;&#x2026;�� (đ?&#x2018;&#x201C;) + đ??ťďż˝ (đ?&#x2018;&#x201C;) Ec. 13 đ?&#x2018;&#x2030;(đ?&#x2018;&#x201C;) = đ?&#x2018;&#x2030;ďż˝ (đ?&#x2018;&#x201C;) + đ?&#x2018;&#x2030;ďż˝ (đ?&#x2018;&#x201C;) = đ??´ďż˝ďż˝ (đ?&#x2018;&#x201C;) â&#x2C6;&#x2122; đ?&#x2018;&#x2026;�� (đ?&#x2018;&#x201C;) + đ?&#x2018;&#x2030;ďż˝ (đ?&#x2018;&#x201C;)

Ec. 14

Donde: đ??ť(đ?&#x2018;&#x201C;), đ?&#x2018;&#x2030;(đ?&#x2018;&#x201C;) = Transformada de Fourier de la componente horizontal y vertical de registros de ruido ambiental. đ??ťďż˝ (đ?&#x2018;&#x201C;), đ?&#x2018;&#x2030;ďż˝ (đ?&#x2018;&#x201C;) = Transformada de Fourier de la componente horizontal y vertical de ondas de cuerpo. đ??ťďż˝ (đ?&#x2018;&#x201C;), đ?&#x2018;&#x2030;ďż˝ (đ?&#x2018;&#x201C;) = Transformada de Fourier de la componente horizontal y vertical de ondas superficiales. đ??´ďż˝ďż˝ (đ?&#x2018;&#x201C;), đ??´ďż˝ďż˝ (đ?&#x2018;&#x201C;) = FunciĂłn de amplificaciĂłn en la componente horizontal y vertical para las ondas de cuerpo. đ?&#x2018;&#x2026;�� (đ?&#x2018;&#x201C;), đ?&#x2018;&#x2026;�� (đ?&#x2018;&#x201C;) = Transformada de Fourier en la componente horizontal y vertical de las ondas de cuerpo en un sitio de referencia (en roca). Relacionando la componente horizontal y vertical de los registros de ruido ambiental mediante el cociente đ??ťďż˝đ?&#x2018;&#x2030; [đ?&#x2018;&#x2020;(đ?&#x2018;&#x201C;)] se tiene que:

49


đ?&#x2018;&#x2020;(đ?&#x2018;&#x201C;) =

đ??ť(đ?&#x2018;&#x201C;) đ??´ďż˝ďż˝ (đ?&#x2018;&#x201C;) â&#x2C6;&#x2122; đ?&#x2018;&#x2026;�� (đ?&#x2018;&#x201C;) + đ??ťďż˝ (đ?&#x2018;&#x201C;) = ďż˝ đ?&#x2018;&#x2030;(đ?&#x2018;&#x201C;) đ??´ďż˝ (đ?&#x2018;&#x201C;) â&#x2C6;&#x2122; đ?&#x2018;&#x2026;�� (đ?&#x2018;&#x201C;) + đ?&#x2018;&#x2030;ďż˝ (đ?&#x2018;&#x201C;)

Con estos supuestos se tendrĂ­a entonces que: Ec. 15

Para fines de manejo algebraico de la expresiĂłn anterior se definirĂĄ la proporciĂłn de las ondas superficiales en base a las ondas de cuerpo en la componente vertical como đ?&#x203A;ź y de igual manera el cociente de ondas superficiales como đ?&#x2018;&#x2020;ďż˝ (đ?&#x2018;&#x201C;) como sigue: đ?&#x203A;ź=

đ?&#x2018;&#x2030;ďż˝ (đ?&#x2018;&#x201C;) đ?&#x2018;&#x2026;�� (đ?&#x2018;&#x201C;)

đ??ťďż˝ (đ?&#x2018;&#x201C;) đ?&#x2018;&#x2020;ďż˝ (đ?&#x2018;&#x201C;) = đ?&#x2018;&#x2030;ďż˝ (đ?&#x2018;&#x201C;)

Ec. 16 Ec. 17

Sustituyendo entonces las Ec. 16, Ec. 17 en la Ec. 15 se obtiene que:

đ?&#x2018;&#x2020;(đ?&#x2018;&#x201C;) =

đ?&#x2018;&#x2026;�� + đ?&#x2018;&#x2020;ďż˝ (đ?&#x2018;&#x201C;) â&#x2C6;&#x2122; đ?&#x203A;ź đ?&#x2018;&#x2026;�� đ??´ďż˝ďż˝ (đ?&#x2018;&#x201C;) + đ?&#x203A;ź

đ??´ďż˝ďż˝ (đ?&#x2018;&#x201C;) â&#x2C6;&#x2122;

Ec. 18

Los supuestos hechos por Nakamura (1989) para encontrar la FTE utilizando estaciones de registro de ruido ambiental puntuales son tres, el primero consiste en considerar que la componente vertical no es amplificada para la frecuencia fundamental de vibraciĂłn (đ?&#x2018;&#x201C;�� ), por lo que: đ??´ďż˝ďż˝ (đ?&#x2018;&#x201C;�� ) â&#x2030;&#x2C6; 1

Ec. 19

El segundo supuesto considera que el cociente de la componente Horizontal y Vertical ďż˝đ??ťďż˝đ?&#x2018;&#x2030;ďż˝ en un sito un sito de referencia (en roca) es igual a la unidad en (đ?&#x2018;&#x201C;�� ). đ?&#x2018;&#x2026;ďż˝ ďż˝ (đ?&#x2018;&#x201C;) =1 đ?&#x2018;&#x2026;ďż˝ ďż˝ (đ?&#x2018;&#x201C;)

Ec. 20

El tercer y Ăşltimo supuesto considera que puede omitirse el efecto de las ondas superficiales. đ?&#x203A;ź=

đ?&#x2018;&#x2030;ďż˝ (đ?&#x2018;&#x201C;) â&#x2030;&#x2C6;0 đ?&#x2018;&#x2026;�� (đ?&#x2018;&#x201C;)

đ?&#x2018;&#x2020;ďż˝ (đ?&#x2018;&#x201C;�� ) â&#x2C6;&#x2122; đ?&#x203A;ź â&#x2030;Ş đ??´ďż˝ďż˝ (đ?&#x2018;&#x201C;�� )

50

Ec. 21 Ec. 22

đ?&#x2018;&#x2020;(đ?&#x2018;&#x201C;�� ) = đ??´ďż˝ďż˝ (đ?&#x2018;&#x201C;�� )

Ec. 23

Lo cual quiere decir que la relaciĂłn đ??ťďż˝đ?&#x2018;&#x2030; de registros de ruido ambiental corresponde a la funciĂłn de transferencia (de amplificaciĂłn) de las ondas de cuerpo en el sistema dinĂĄmico. Es por el Ăşltimo supuesto que la interpretaciĂłn de Nakamura (1989) recibiĂł tanta crĂ­tica, sin embargo, aunque la amplificaciĂłn obtenida mediante esta tĂŠcnica no puede considerarse como vĂĄlida, el desvanecimiento de la componente vertical de las ondas Rayleigh exhibe un pico agudo alrededor de la frecuencia fundamental en sitios con un contraste de impedancia alto (Bard, 1999). Sabiendo esto y considerando que la forma espectral describe el comportamiento dinĂĄmico del terreno en tĂŠrminos de los periodos de vibrar del mismo, se puede efectuar una clasificaciĂłn atendiendo a esta propiedad dinĂĄmica. 3

CONCEPTO FOURIER.

DE

TRANSFORMADA

DE

El concepto de transformada de Fourier fue introducido por el matemĂĄtico y fĂ­sico francĂŠs Jean Baptiste Joseph Fourier (1768 â&#x20AC;&#x201C; 1830) en un documento presentado en 1870, en el cual se aportaba la idea de que cualquier seĂąal continua y periĂłdica puede presentarse como la suma de ondas sinusoidales (o exponenciales complejas relacionadas armĂłnicamente) (Smith, 1999). Esta sumatoria, comparada con la onda original presenta un diferencial cero de energĂ­a (efecto de Gibbs), lo cual ha generado buena aceptaciĂłn (Smith, 1999). AdemĂĄs de este hecho y dado que la finalidad de descomponer una seĂąal es terminar con algo mĂĄs sencillo que permita tratarla (ej. la descomposiciĂłn de impulsos permite que la seĂąal sea examinada un punto a la vez), la componente de ondas seno y coseno son mĂĄs simples que la seĂąal original debido a su caracterĂ­stica de fidelidad sinusoidal, propiedad exclusiva de este tipo de ondas (una entrada sinusoidal a un sistema garantiza producir una salida sinusoidal, Ăşnicamente la amplitud y la fase de la seĂąal se puede cambiar, la frecuencia y la forma de onda se conserva igual), no siendo asĂ­ para una descomposiciĂłn cuadrada o triangular (Ver Figura 3) (Smith, 1999).


Donde: đ?&#x2018;Ľ(đ?&#x2018;Ą) = SeĂąal continua en el dominio del tiempo. đ?&#x2018;&#x2039;(đ?&#x153;&#x201D;) = SeĂąal continua en el dominio de la Frecuencia. đ?&#x153;&#x201D; = Frecuencia angular continua. 3.2

SeĂąal continua â&#x20AC;&#x201C; periĂłdica.

Estas seĂąales se extienden desde el infinito negativo y hasta el positivo, repitiendo un patrĂłn periĂłdico. (ej. Ondas seno).

Figura 3 Figura de descomposiciĂłn de una seĂąal. La descomposiciĂłn de la seĂąal en sus componentes sinusoidales permite transformarla del dominio temporal (indica como cambia la amplitud de la seĂąal en el tiempo), al dominio de la frecuencia (permite conocer cuan a menudo cambia la amplitud) y viceversa. A la representaciĂłn de estas amplitudes y fases en funciĂłn de la frecuencia se le llama espectro de la seĂąal, el cual se obtiene haciendo uso de la Transformada de Fourier como herramienta matemĂĄtica (FCEFyN, 2013; Smith, 1999). Este tĂŠrmino de Transformada de Fourier puede dividirse en cuatro categorĂ­as, resultado de los tipos bĂĄsicos de seĂąal que se pueden encontrar: seĂąal continua y discreta, asĂ­ como periĂłdica y aperiĂłdica, todos descritos brevemente a continuaciĂłn (FCEFyN, 2013; Smith, 1999). 3.1

SeĂąal continua â&#x20AC;&#x201C; aperiĂłdica.

Estas seùales se extienden desde el infinito negativo y hasta el positivo sin repetir un patrón periódico (ej. exponenciales decrecientes). Esta transformación lineal se utiliza para seùales en tiempo continuo y de manera aperiódica, resultando la transformación de la seùal en dominio de la frecuencia de manera continua y aperiódica. Para este tipo de seùal la versión se llama simplemente Transformada de Fourier (FT por sus siglas en inglÊs) y se describe como (FCEFyN, 2013): ��

đ?&#x2018;&#x2039;(đ?&#x153;&#x201D;) = ďż˝ đ?&#x2018;Ľ(đ?&#x2018;Ą) â&#x2C6;&#x2122; đ?&#x2018;&#x2019; ��â&#x2C6;&#x2122;ďż˝â&#x2C6;&#x2122;ďż˝ â&#x2C6;&#x2122; đ?&#x2018;&#x2018;đ?&#x2018;Ą ��

Ec. 24

Esta transformación lineal se utiliza para seùales en tiempo continuo y de manera periódica, resultando la transformación de la seùal en dominio de la frecuencia de manera discreta y aperiódica. Para este tipo de seùal la versión se llama Series de Fourier (FS por sus siglas en inglÊs) descrita como (FCEFyN, 2013): ����

1 ďż˝ đ?&#x2018;Ľ(đ?&#x2018;Ą) â&#x2C6;&#x2122; đ?&#x2018;&#x2019; ��â&#x2C6;&#x2122;ďż˝â&#x2C6;&#x2122;��â&#x2C6;&#x2122;ďż˝ â&#x2C6;&#x2122; đ?&#x2018;&#x2018;đ?&#x2018;Ą đ?&#x2018;&#x17D;ďż˝ = đ?&#x2018;&#x2021;ďż˝ ďż˝

Ec. 25

Donde: đ?&#x2018;Ľ(đ?&#x2018;Ą) = SeĂąal continua en el dominio del tiempo. đ?&#x2018;&#x17D;ďż˝ = SeĂąal discreta en el dominio de su Ă­ndice armĂłnico (0,1,2,3â&#x20AC;ŚN-1). đ?&#x2018;&#x2021;ďż˝ = Periodo fundamental de la seĂąal ďż˝2đ?&#x153;&#x2039;ďż˝đ?&#x153;&#x201D;ďż˝ ďż˝. đ?&#x153;&#x201D;ďż˝ = Frecuencia angular fundamental de la seĂąal (2đ?&#x153;&#x2039;đ?&#x2018;&#x201C;ďż˝ ). 3.3

SeĂąal discreta â&#x20AC;&#x201C; aperiĂłdica.

Estas seùales se definen únicamente por puntos discretos desde el infinito negativo y hasta el positivo, sin repetir un patrón periódico. Esta transformación lineal se utiliza para seùales en tiempo discreto y de manera aperiódica, resultando la transformación de la seùal en dominio de la frecuencia de manera continua y periódica. Para este tipo de seùal la versión se llama Transformada de Fourier de Tiempo Discreto (DTFT por sus siglas en inglÊs) y se describe como (FCEFyN, 2013): ��

đ?&#x2018;&#x2039;(đ?&#x203A;ş) = ďż˝ đ?&#x2018;Ľ[đ?&#x2018;&#x203A;] â&#x2C6;&#x2122; đ?&#x2018;&#x2019; ��â&#x2C6;&#x2122;ďż˝â&#x2C6;&#x2122;ďż˝ ����

Ec. 26 Donde: đ?&#x2018;Ľ[đ?&#x2018;&#x203A;] = SeĂąal discreta en el dominio del tiempo. đ?&#x2018;&#x2039;(đ?&#x203A;ş) = SeĂąal continua en el dominio de su frecuencia angular discreta. đ?&#x2018;&#x203A; = Constante que indica la posiciĂłn en los intervalos de muestreo de la seĂąal (đ?&#x2018;&#x203A; â&#x2C6;&#x2122; đ?&#x2018;Ąďż˝ ). đ?&#x203A;ş = Frecuencia angular discreta.

51


3.4

SeĂąal discreta â&#x20AC;&#x201C; periĂłdica.

verĂ­a como discreta â&#x20AC;&#x201C; periĂłdica y con un periodo fundamental (N) que corresponde al nĂşmero de datos de la muestra, este caso se resolverĂ­a mediante el uso de una DFT.

Estas seĂąales se definen Ăşnicamente por puntos discretos desde el infinito negativo y hasta el positivo, repitiendo un patrĂłn periĂłdico. Esta transformaciĂłn lineal se utiliza para seĂąales en tiempo discreto y de manera periĂłdica, resultando la transformaciĂłn de la seĂąal en dominio de la frecuencia de manera discreta y periĂłdica. Para este tipo de seĂąal la versiĂłn es llamada en ocasiones Series Discretas de Fourier, pero mĂĄs comĂşnmente como Transformada Discreta de Fourier (DFT por sus siglas en inglĂŠs), descrita como (FCEFyN, 2013): đ?&#x2018;&#x17D;ďż˝ =

1 �� ďż˝ đ?&#x2018;Ľ[đ?&#x2018;&#x203A;] â&#x2C6;&#x2122; đ?&#x2018;&#x2019; ��â&#x2C6;&#x2122;ďż˝â&#x2C6;&#x2122;ďż˝ ���â&#x2C6;&#x2122;ďż˝ đ?&#x2018; ��â&#x152;Šďż˝â&#x152;Ş

Ec. 27

Donde: đ?&#x2018;Ľ[đ?&#x2018;&#x203A;] = SeĂąal discreta en el dominio del tiempo. đ?&#x2018;&#x17D;ďż˝ = SeĂąal discreta en el dominio de su Ă­ndice armĂłnico (0,1,2,3â&#x20AC;ŚN-1). đ?&#x2018;&#x203A; = Constante que indica la posiciĂłn en los intervalos de muestreo de la seĂąal (đ?&#x2018;&#x203A; â&#x2C6;&#x2122; đ?&#x2018;Ąďż˝ ). đ?&#x203A;şďż˝ = Frecuencia fundamental angular de la seĂąal discreta. đ?&#x2018; = Periodo fundamental de la seĂąal discreta (nĂşmero de datos de la seĂąal discreta) ďż˝2đ?&#x153;&#x2039;ďż˝đ?&#x203A;ş ďż˝.

Debido a que para la primera opciĂłn se requiere un nĂşmero infinito de sinusoides para sintetizar la seĂąal, el uso de la DTFT mediante un algoritmo computacional se hace imposible, por lo que por eliminaciĂłn y dado que las computadoras solo pueden trabajar con datos discretos y de longitud finita, el Ăşnico tipo de transformada de Fourier que puede ser analizado por un procesador de seĂąal digital es el DFT, sobre el cual se centrarĂĄ el estudio siguiente (Smith, 1999). La descripciĂłn de cualquier seĂąal periĂłdica compleja como la combinaciĂłn lineal de seĂąales seno y coseno, en la cual asumimos que el conjunto de estas seĂąales tienen frecuencias que son mĂşltiplos de alguna frecuencia fundamental đ?&#x2018;&#x201C;ďż˝ (o angular đ?&#x153;&#x201D;ďż˝ = 2đ?&#x153;&#x2039; â&#x2C6;&#x2122; đ?&#x2018;&#x201C;ďż˝ ), puede llevarse a cabo conociendo las propiedades de estas seĂąales unifrecuenciales (de una sola frecuencia) y de como estĂĄn expresadas mediante las exponenciales complejas armĂłnicamente relacionadas (FCEFyN, 2013). Para lograr la representaciĂłn de la seĂąal en el dominio de la frecuencia, se tomarĂĄ la ecuaciĂłn continua de las Series de Fourier como sigue (FCEFyN, 2013): đ?&#x2019;&#x2022;ďż˝đ?&#x2018;ťđ?&#x;&#x17D;

ďż˝

4

TRANSFORMADA DISCRETA DE FOURIER (SEĂ&#x2018;ALES PERIĂ&#x201C;DICA â&#x20AC;&#x201C; TIEMPO DISCRETO).

Si observamos las cuatro clases de seĂąales que puede analizar la Transformada de Fourier (Ver TĂ­tulo 3), todas se extienden del dominio infinito negativo al positivo; sin embargo, para la prĂĄctica comĂşn en el registro de seĂąales con instrumentos digitales en campo, se cuenta con un nĂşmero finito de muestras y en un tiempo discreto. Considerando que no se puede utilizar un grupo de seĂąales de longitud infinita (senos y cosenos) para sintetizar una seĂąal finita, se hace que los datos finitos se observen como una seĂąal infinita tanto a su izquierda como a su derecha (Smith, 1999). Para generar este efecto se generan dos opciones (Smith, 1999): 1. Que todas las muestras imaginarias tengan un valor de cero, con lo cual la seĂąal se verĂ­a como discreta - aperiĂłdica y aplicarĂ­amos para el anĂĄlisis una DTFT. 2.

52

Que las muestras imaginarias dupliquen los datos con los que se cuenta, con esto la seĂąal se

đ?&#x;? ďż˝ đ?&#x2019;&#x2122;(đ?&#x2019;&#x2022;) â&#x2C6;&#x2122; đ?&#x2019;&#x2020;ďż˝đ?&#x2019;&#x2039;â&#x2C6;&#x2122;đ?&#x2019;&#x152;â&#x2C6;&#x2122;đ??&#x17D;đ?&#x;&#x17D;â&#x2C6;&#x2122;đ?&#x2019;&#x2022; â&#x2C6;&#x2122; đ?&#x2019;&#x2026;đ?&#x2019;&#x2022; đ?&#x2019;&#x201A;đ?&#x2019;&#x152; = đ?&#x2018;ťđ?&#x;&#x17D; đ?&#x2019;&#x2022;

Ec. 28

Siguiendo con el proceso de anĂĄlisis para una seĂąal discreta y de longitud finita, para limitar đ?&#x2018;Ľ(đ?&#x2018;Ą) se toman đ?&#x2018; muestras durante un periodo a intervalos đ?&#x2018;Ąďż˝ , de forma que đ?&#x2018; â&#x2C6;&#x2122; đ?&#x2018;Ąďż˝ = đ?&#x2018;&#x2021;ďż˝ y la funciĂłn đ?&#x2018;Ą se sustituirĂĄ por una funciĂłn discreta đ?&#x2018;&#x203A; â&#x2C6;&#x2122; đ?&#x2018;Ąďż˝ con lo que al calcular los coeficientes queda como sigue (Irizar-PicĂłn, 1999): đ?&#x2018;&#x17D;ďż˝ =

đ?&#x2019;&#x201A;đ?&#x2019;&#x152; =

1 â&#x2C6;&#x2122; ďż˝ đ?&#x2018;Ľ[đ?&#x2018;&#x203A;] â&#x2C6;&#x2122; đ?&#x2018;&#x2019; ��â&#x2C6;&#x2122;ďż˝â&#x2C6;&#x2122;(ďż˝â&#x2C6;&#x2122;ďż˝â&#x2C6;&#x2122;�� )â&#x2C6;&#x2122;ďż˝â&#x2C6;&#x2122;�� đ?&#x2018; â&#x2C6;&#x2122; đ?&#x2018;Ąďż˝ ��â&#x152;Šďż˝â&#x152;Ş

=

1 )â&#x2C6;&#x2122;ďż˝â&#x2C6;&#x2122;����� ďż˝ â&#x2C6;&#x2122; ďż˝ đ?&#x2018;Ľ[đ?&#x2018;&#x203A;] â&#x2C6;&#x2122; đ?&#x2018;&#x2019; ��â&#x2C6;&#x2122;ďż˝â&#x2C6;&#x2122;(ďż˝â&#x2C6;&#x2122;ďż˝â&#x2C6;&#x2122;�� đ?&#x2018; ��â&#x152;Šďż˝â&#x152;Ş

đ?&#x;? đ?&#x;?â&#x2C6;&#x2122;đ??&#x2026; â&#x2C6;&#x2122; ďż˝ đ?&#x2019;&#x2122;[đ?&#x2019;?] â&#x2C6;&#x2122; đ?&#x2019;&#x2020;ďż˝đ?&#x2019;&#x2039;â&#x2C6;&#x2122;đ?&#x2019;&#x152;â&#x2C6;&#x2122;ďż˝ ďż˝đ?&#x2018;ľďż˝â&#x2C6;&#x2122;đ?&#x2019;? đ?&#x2018;ľ đ?&#x2019;?ďż˝â&#x152;Šđ?&#x2018;ľâ&#x152;Ş

Ec. 29

Bajo este esquema se tiene la ecuaciĂłn base para representar una seĂąal digital en el dominio de la frecuencia y en la cual estamos enfocados en este


artĂ­culo, donde cuando existe un incremento de la fase para el k-esimo armĂłnico, ĂŠste estĂĄ dado por: đ?&#x2018;&#x2DC;đ?&#x153;&#x201D;ďż˝ đ?&#x2018;Ąďż˝ = đ?&#x2018;&#x2DC;(2đ?&#x153;&#x2039; â&#x2C6;&#x2122; đ?&#x2018;&#x201C;ďż˝ ) â&#x2C6;&#x2122; (đ?&#x2018;&#x2021;ďż˝ â &#x201E;đ?&#x2018; ) = đ?&#x2018;&#x2DC;ďż˝2đ?&#x153;&#x2039;ďż˝đ?&#x2018; ďż˝ đ?&#x2018; đ?&#x2018;&#x2013;đ?&#x2018;&#x2019;đ?&#x2018;&#x203A;đ?&#x2018;&#x2018;đ?&#x2018;&#x153; đ?&#x203A;şďż˝ =

2đ?&#x153;&#x2039; đ?&#x2018;

En donde đ?&#x203A;şďż˝ es la frecuencia discreta con đ?&#x2018; como periodo fundamental. Cabe mencionar que la relaciĂłn 2đ?&#x153;&#x2039;ďż˝ es un nĂşmero racional y que dado que la tasa de đ?&#x203A;ş oscilaciĂłn es đ?&#x203A;ş + 2đ?&#x153;&#x2039;, se tienen que đ?&#x2018;&#x17D;ďż˝ = đ?&#x2018;&#x17D;���� (siendo r un nĂşmero entero â&#x20AC;&#x201C; real), esto es đ?&#x2018; coeficientes distintos, lo cual hace referencia a que la respuesta en frecuencia de la seĂąal discreta se considera periĂłdica (FCEFyN, 2013). En esta descomposiciĂłn, las componentes frecuenciales individuales son conocidas como armĂłnicos y queda claro ademĂĄs de que dada esta equivalencia, la transformada de Fourier se puede dividir en una parte real y una imaginaria (Smith, 1999) (Ver Figura 4).

De la cual se observa que la mĂĄxima frecuencia đ?&#x2018;&#x201C; detectable por la DFT es ��2 de acuerdo al teorema de muestreo (donde đ?&#x2018;&#x201C;ďż˝ es la frecuencia de muestreo), el cual dice que si se quiere detectar el espectro de una seĂąal hasta una mĂĄxima frecuencia đ??ľ, la frecuencia de muestreo deberĂĄ de ser al menos de 2đ??ľ (Irizar-PicĂłn, 1999). Debido a esto y a la propiedad de simetrĂ­a que tiene la transformada de Fourier, se puede graficar Ăşnicamente la đ?&#x2018;&#x201C;(đ?&#x2018;&#x2DC;) correspondiente a los datos đ?&#x2018; ďż˝2 â&#x2C6;&#x2019; 1 y duplicar la amplitud de los resultados. Dado que el registro en el dominio de la frecuencia contiene exactamente la misma informaciĂłn que el registro en el dominio del tiempo (Smith, 1999), las unidades del codominio de la seĂąal no se modifican. 5

Basados en el proyecto EVG1-CT-2000-00026 SESAME, con el propĂłsito de determinar de manera confiable la frecuencia fundamental de la seĂąal, se deben de tener al menos 10 ciclos significativos en la ventana de anĂĄlisis, siendo como sigue: đ?&#x2018;&#x201C;ďż˝ =

Figura 4 En el dominio de tiempo, đ?&#x2019;&#x2122;[ ] consiste de N puntos que van de 0 a N-1. En el dominio de la frecuencia, la DFT produce dos seĂąales, la parte real (đ?&#x2018;šđ?&#x2019;&#x2020; đ?&#x2018;ż[ ]) y la parte imaginaria (đ?&#x2018;°đ?&#x2019;&#x17D; đ?&#x2018;ż[ ]). Cada una de estas seĂąales en dominio de frecuencia tienen una longitud de đ?&#x2018;ľďż˝đ?&#x;? + đ?&#x;? puntos, y van de 0 a đ?&#x2018;ľďż˝đ?&#x;? (Traducida de Smith, 1999). Hasta aquĂ­, se indica la DFT mediante su Ă­ndice armĂłnico (đ?&#x2018;&#x2DC;). Otra forma de ordenarlo es en funciĂłn de la frecuencia; dado que sabemos que cada intervalo de la DFT es 1ďż˝đ?&#x2018;&#x2021; = 1ďż˝đ?&#x2018; â&#x2C6;&#x2122; đ?&#x2018;Ą , cambiamos los Ă­ndices ďż˝

ďż˝

armĂłnicos por la frecuencia correspondiente como sigue (Irizar-PicĂłn, 1999):

đ?&#x2018;&#x201C;(đ?&#x2018;&#x2DC; ) = ďż˝

â&#x2C6;&#x2019;

ďż˝

ďż˝â&#x2C6;&#x2122;�� ��� ďż˝â&#x2C6;&#x2122;��

, đ?&#x2018;&#x2DC;< , đ?&#x2018;&#x2DC;â&#x2030;Ľ

ďż˝ ďż˝ ďż˝ ďż˝

â&#x2C6;&#x2019;1

Ec. 30

CRITERIOS DE DURACIĂ&#x201C;N PARA REGISTROS DE VIBRACIĂ&#x201C;N AMBIENTAL.

10 đ??źďż˝

Ec. 31

Donde: đ?&#x2018;&#x201C;ďż˝ = Frecuencia fundamental del registro. đ??źďż˝ = TamaĂąo de la ventana de anĂĄlisis.

De igual manera se hacen recomendaciones con respecto al nĂşmero total de ventanas a analizar y promediar, sin embargo para este caso y por ser una seĂąal sintĂŠtica se procederĂĄ a analizar exclusivamente una ventana, cabe mencionar que en la prĂĄctica real debe de tomarse en cuenta que en caso de identificar transitorios en los registros, estos no deberĂĄn de tomarse en cuenta, por lo que el tiempo total de la seĂąal debe incrementarse para cumplir con las recomendaciones. Para mayor informaciĂłn en este punto se recomienda revisar la referencia marcada. 6

COHESIĂ&#x201C;N DE REGISTROS COMPONENTE HORIZONTAL.

DE

LA

Para la combinaciĂłn de las dos componentes horizontales en una sola, se tienen varias formas de hacerlo, en primera instancia y la recomendada por Bard (1999) es el construir una seĂąal compleja đ?&#x2018;Ľ(đ?&#x2018;Ą) + đ?&#x2018;&#x2013;đ?&#x2018;Ś(đ?&#x2018;Ą) (donde x e y

53


son dos componentes horizontales ortogonales) y calcular su transformada compleja de Fourier. Esta opciĂłn estarĂ­a equiparada con la propuesta del proyecto SESAME (Geopsy, 2013) de la energĂ­a totalizada de la componente horizontal que se muestra a continuaciĂłn: đ??ť(đ?&#x2018;&#x201C;) = ďż˝đ?&#x2018; ďż˝ (đ?&#x2018;&#x201C;) + đ??¸ ďż˝ (đ?&#x2018;&#x201C;)

Ec. 32

Donde: đ??ť(đ?&#x2018;&#x201C;) = Transformada de Fourier de la componente horizontal combinada. đ?&#x2018; (đ?&#x2018;&#x201C;) = Transformada de Fourier de la componente horizontal Norte - Sur. đ??¸(đ?&#x2018;&#x201C;) = Transformada de Fourier de la componente horizontal Este - Oeste. Una opciĂłn alternativa y recomendada por el proyecto SESAME (Geopsy, 2013) corresponde al significado geomĂŠtrico del mĂłdulo espectral de cada componente como sigue: đ??ť(đ?&#x2018;&#x201C;) = ďż˝|đ?&#x2018; (đ?&#x2018;&#x201C;) â&#x2C6;&#x2122; đ??¸(đ?&#x2018;&#x201C;)|

Ec. 33

Sin embargo, el calcular la raĂ­z cuadrada del promedio de los cuadrados conduce a resultados muy similares (Bard, 1999) a esta Ăşltima propuesta: đ?&#x2018; ďż˝ (đ?&#x2018;&#x201C;) + đ??¸ ďż˝ (đ?&#x2018;&#x201C;) đ??ť(đ?&#x2018;&#x201C;) = ďż˝ 2

Ec. 34

En el TĂ­tulo 8 de este documento se mostrarĂĄ Ăşnicamente el resultado obtenido por la Ec. 32 como el mĂłdulo del vector horizontal, debido a que por su significado fĂ­sico que para este caso consideraremos mĂĄs adecuado. 7

OBTENCIĂ&#x201C;N DE FUNCIĂ&#x201C;N TRANSFERENCIA EMPĂ?RICA MEDIANTE LA TĂ&#x2030;CNICA HVNR.

DE (FTE)

Una vez registrada la seĂąal de ruido ambiental con los criterios mĂ­nimos de duraciĂłn por ventana mencionado en el TĂ­tulo 5, convirtiĂŠndolos al dominio de la frecuencia segĂşn el TĂ­tulo 4 y cohesionando la componente vertical segĂşn el TĂ­tulo 6, se puede proceder con el cĂĄlculo de la FTE mediante el uso de la tĂŠcnica HVNR, haciendo el cociente de cada frecuencia del espectro horizontal cohesionado con cada frecuencia del espectro vertical, generĂĄndose entonces un cociente adimensional que indica la amplificaciĂłn de las frecuencias del efecto de sitio y en base a las unidades de los espectros con que se

54

realiza dicho cociente, definiĂŠndose entonces el cociente đ??ťďż˝ como sigue: đ?&#x2018;&#x2030; đ??ť(đ?&#x2018;&#x201C;) đ?&#x2018;&#x17D;ďż˝(ďż˝) = đ?&#x2018;&#x2030;(đ?&#x2018;&#x201C;) đ?&#x2018;&#x17D;ďż˝(ďż˝) 8

Ec. 35

EJEMPLO NUMĂ&#x2030;RICO.

Para este ejercicio, se utilizarĂĄn seĂąales sintĂŠticas con la finalidad de poder corroborar los resultados obtenidos mediante la transformada de Fourier, para esto se utilizarĂĄn seĂąales correspondientes a un movimiento libre amortiguado: đ?&#x2018;Ľ(đ?&#x2018;Ą) = đ?&#x2018;&#x2019; ďż˝(���)ďż˝ â&#x2C6;&#x2122; ďż˝đ??´ďż˝ â&#x2C6;&#x2122; đ?&#x2018;&#x2020;đ?&#x2018;&#x2019;đ?&#x2018;&#x203A;(đ?&#x153;&#x201D;ďż˝ đ?&#x2018;Ą)ďż˝

Ec. 36

Dado que para el registro de ruido ambiental se recomienda el uso de velocĂ­metros debido a la baja resoluciĂłn de los acelerĂłgrafos en bajas frecuencias (Bard, 1999; SESAME, 2004; ChĂĄvez-GarcĂ­a y TejedaJĂĄcome, 2010a), las amplitudes de los registros sintĂŠticos se proponen en unidades de velocidad. Donde: đ??´ďż˝ , đ??´ďż˝ = Amplitudes (đ?&#x2018;&#x161;â &#x201E;đ?&#x2018; ). đ?&#x153;&#x2030; = Factor de amortiguamiento. đ?&#x153;&#x201D;ďż˝ = Frecuencia natural angular(2đ?&#x153;&#x2039;đ?&#x2018;&#x201C;ďż˝ ). đ?&#x153;&#x201D;ďż˝ = Frecuencia amortiguada angular (2đ?&#x153;&#x2039;đ?&#x2018;&#x201C;ďż˝ ). đ?&#x153;&#x201D;ďż˝ = đ?&#x153;&#x201D;ďż˝ â&#x2C6;&#x2122; ďż˝1 â&#x2C6;&#x2019; đ?&#x153;&#x2030; ďż˝ Tabla 1 Ondas sintĂŠticas a utilizar para el anĂĄlisis HVNR. Componente. đ?&#x2018;ľđ?&#x2019;? 1 2 3 4 5 6

đ??&#x192;

2% 2% 2% 2% 2% 2%

đ?&#x2019;&#x2021;đ?&#x;&#x17D;

1 2 4 8 16 32

H-N

H-E

đ?&#x2018;¨đ?&#x;?

đ?&#x2018;¨đ?&#x;?

4 30 30 90 25 5

9 40 40 44 17 9

V đ?&#x2018;¨đ?&#x;?

10 20 50 100 30 10

Utilizando un periodo de muestreo de 100Hz, dado que este anĂĄlisis corresponde a una sola ventana, y nuestra frecuencia mĂ­nima de interĂŠs corresponde a 1Hz, una ventana de 10s es suficiente para cubrir el requerimiento dado en la Ec. 31, con lo cual se calculan las


transformadas de Fourier de cada componente (Ver Figura 5) en donde se pueden observar los seis picos correspondientes a las frecuencias que componen de manera predominante a la señal amortiguada. Entre las componentes horizontales (Figura 5a y 5b) se puede observar de manera clara la diferencia entre las amplitudes correspondiente a la frecuencia de 8Hz, la cual es equilibrada en un punto intermedio en la cohesión de las componentes horizontales (Ver Figura 6).

Figura 5 Espectro de velocidad de Fourier obtenidas de las señales sintéticas propuestas en la Tabla 1 a) Componente horizontal N-S b) Componente horizontal E-0 c) Componente vertical. Se observan en los espectros los seis picos correspondientes a las frecuencias predominantes de la señal amortiguada.

Continuando con el proceso, se observa como en la gráfica del cociente espectral (Ver Figura 7) distingue el pico dominante a 2Hz, siendo esta la frecuencia de mayor amplificación entre las componentes horizontales con respecto de la vertical.

a)

Figura 6 Cohesión del registro horizontal mediante el algoritmo de energía totalizada. Se observa que el pico correspondiente a la frecuencia de 8Hz tiene una amplitud intermedia a la que se muestra en la Figura 5 a) y b).

b)

c) Figura 7 Cociente espectral H/V de ejercicio. Se muestra en la FTE la amplificación clara a la frecuencia de 2 Hz entre las componentes horizontal y vertical de las señales sintéticas. 9

CONCLUSIONES.

Se muestra a la transformada de Fourier como una poderosa herramienta para el análisis de registros de

55


vibración y descomposición de la señal en sus componentes sinusoidales, útil en el análisis de vibración ambiental para la obtención de los parámetros del efecto de sitio a manera ilustrativa pero no limitativa para otro tipo de análisis de vibración. El análisis mediante el uso de la técnica HVNR, dada su sencillez y bajo costo ha tomado gran aprecio como un indicador confiable del periodo natural de vibración de los estratos de suelo y para fines de clasificación preliminar de las características dinámicas del suelo en base a su forma espectral. 10

BIBLIOGRAFÍA.

Bard, P-Y, 1999, Microtremor measurements: A tool for site effect estimation?, The effect of surface geology on seismic motion, Irikura, Kudo, Okada & Sasatani (eds): 1251-1279. Carreño E., Bravo B., Suárez A. y Tordesillas J. M., 1999, Registro y tratamiento de acelerogramas, Física de la tierra 11: 81 – 111. Chávez-García F. J. and Tejeda-Jácome J., 2010a, Site response in Tecoman, Colima, Mexico-I: Comparison of results from different instruments and analysis techniques, Soil Dynamics and Earthquake Engineering 30: 711-716. Chávez-García F. J. and Tejeda-Jácome J., 2010b, Site response in Tecoman, Colima, Mexico-II: Comparison of results from different instruments and analysis techniques, Soil Dynamics and Earthquake Engineering 30: 717-723. European Commission, 2004, Guidelines for the implementation of the H/V spectral ratio technique on ambient vibrations, SESAME European research project WP12, Project No. EVG1 – CT – 2000-00026 SESAME. FCEFyN Universidad Nacional de Córdoba (Laboratorio de DSP), 2013, Procesamiento digital de señales. Transformada de Fourier y el algoritmo FFT, www.dsp.efn.unc.edu.ar/documentos/FFT.pdf, último acceso en Septiembre, 2013. Flores H. y Aguirre J., 2003, SPAC Method: Another alternative to estimate site effect in Mexico City, Geofísica Internacional Vol. 42 No.2: 227-236. Geopsy Wiki, 2013, Geopsy: H/V and Spectrum Toolboxes: Processing Tab, http://www.geopsy.org/wiki/index.php/Geopsy:_H/V_an

56

d_Spectrum_Toolboxes:_Processing_Tab, last access in September 2013. Irizar-Picón A., 1999, 5º Curso - Tratamiento de Señal Digital. Capítulo 3: Series y Transformada de Fourier. Capítulo 6: Transformada Discreta de Fourier, http://www.tecnun.es/asignaturas/tratamiento%20digital/t ds5.html, último acceso en Septiembre, 2013. Lermo J. and Chávez-García F. J., 1994, Are Microtremors Useful in site Response Evaluation?. Bulletin of Seismological Society of America Vol. 84 No.5: 1350-1364. Lermo J. y Limaymanta F. M., 2007, Uso de las funciones de transferencia empíricas (HVNR) obtenidas con microtremores para construir mapas con la clasificación de los terrenos de cimentación para diseño sísmico. XVI Congreso Nacional de Ingeniería Sísmica, Guerrero, México. Lozano L., Herraiz M. and Singh S. K., 2009, Site effect study in central Mexico using H/V and SSR techniques: Independence of seismic site effects on source characteristics. Soil Dynamics and Earthquake Engineering 29: 504-516. Nakamura Y., 1989, A method for dynamic characteristics estimation of subsurface using microtremor on the ground surface, Quarterly Report of RTRI No. 30: 25-33. Sánchez-Sesma F. J., Rodríguez M., Iturrarán-Viveros U., Luzón F., Campillo M., Margerin L., García-Jerez A., Suarez M., Santoyo M. A. and Rodríguez-Castellanos A., 2011, A theory for microtremor H/V spectral ratio: application for a layered medium, Geophysical Journal International No.186: 221-225. Smith S. W. 1999. The scientist and Engineer’s Guide to Digital Signal Processing (2nd edition). California Technical Publishing, San Diego, California. Zill D. G., 2002, Ecuaciones diferenciales con aplicaciones de modelado (7ª Ed.), Thomson Learning, México.


7 Coloquio de Posgrado de la Facultad de Ingeniería Espectro de diseño deducido de sismos sintéticos para la ciudad de Querétaro. Design spectrum deduced of synthetics earthquakes for the city of Queretaro.

J. F. Santos Aguilar1, G. M. Arroyo Contreras1, F. R. Zúñiga Dávila-Madrid2, J. A. Romero Navarrete3, (1)División de Investigación y Posgrado, Facultad de Ingeniería, Universidad Autónoma de Querétaro. (2)

jsantos08@alumnos.uaq.mx, marroyoc@uaq.mx, Centro de Geociencias, Universidad Nacional Autónoma de México (3) Campus Juriquilla. ramon@geociencias.unam.mx, División de Investigación y Posgrado, Facultad de Ingeniería, Universidad Autónoma de Querétaro. jromero1@hotmail.com.

RESUMEN. En este artículo se presenta una metodología para la obtención de un espectro de diseño sísmico para la ciudad de Querétaro con base en registros de sismos pequeños, también llamados sismos semillas, utilizados a manera de Función Empírica de Green para la simulación de un evento mayor, también llamado sismo objetivo. Para esto, es necesario realizar un adecuado análisis de la propagación de fractura y posteriormente modelar la fuente generando mecanismos focales por polaridades y así realizar la simulación de los sismos semillas. Con la simulación podremos obtener parámetros como la aceleración del terreno y con esto obtener las mayores aceleraciones para generar un espectro de respuesta; por último realizar el espectro de diseño con base en los espectros de respuesta de sismos simulados. Palabras clave: Acelerograma sintético, Función Empírica de Green, mecanismo focal, propagación de ondas.

ABSTRACT. In this paper we offer a methodology for obtaining a seismic design spectrum for the city of Queretaro based on small earthquake records, also called seismic seeds, used by way of Empirical Green function for the simulation of a major event, also called seismic target. For this it is necessary to perform an adequate analysis of fracture propagation and then model the generating source by polarity focal mechanisms and perform the simulation of earthquakes seeds. With the simulation can obtain parameters such as ground acceleration and thereby obtain greater accelerations to generate a response spectrum, and finally perform the design spectrum based on the spectra simulated seismic response. Key words: Synthetic acelerograma, Empirical Green Functions, focal mechanism, wave propagation.

1. INTRODUCCIÓN. La práctica común para el análisis de estructuras sometidas a acciones sísmicas utiliza como entrada registros de sismos. No obstante, esta información, que no siempre está disponible, induce una alta incertidumbre en la respuesta estructural, debido a que tales registros no cubren todos los máximos en la banda de frecuencia de interés. Así mismo, las aceleraciones registradas no suelen cumplir los rangos de amplitudes y frecuencias establecidas en los códigos de diseño (Bonett y Pujades, 2002). Ante esta limitante, parece más apropiado recurrir a un escenario basado en simulación de eventos sísmicos. El interés por generar registros sísmicos artificiales ha aumentado considerablemente en los últimos años. Este

interés se encuentra motivado en los siguientes hechos (Hurtado et al., 1996):    

El gran desarrollo adquirido por los métodos de análisis dinámico no lineal de estructuras. La insuficiencia de registros sísmicos reales, o su falta de adecuación a las condiciones geológicas locales. La necesidad de generar espectros para el diseño de equipos y elementos no estructurales. La importancia de evaluar la vulnerabilidad de estructuras sometidas a sismos construidas bajo normas de diseño diferentes a las actuales.

La generación de acelerogramas artificiales compatibles con un espectro de respuesta es una excelente

57


herramienta para el análisis de estructuras ante acciones sísmicas que permite obtener señales que cubren un rango amplio de frecuencias y se ajustan a las amplitudes espectrales especificadas en las diferentes normativas (Bonett y Pujades, 2002). El método de la Función Empírica de Green ha sido usado con frecuencia para simular exitosamente los registros de velocidad y aceleración en zonas cercanas a la fuente sísmica. Está basado en la superposición de registros de eventos pequeños considerados como una función empírica de Green y propuesto primeramente por Hartzell (1978); posteriormente lo continuaron desarrollando y/o complementando varios otros autores, entre los que destaca Irikura (1983, 1986). Además, resulta de gran utilidad en modelados sísmicos para zonas donde la estructura por donde viaja las ondas sísmicas no se conoce detalladamente, debido a la información del trayecto que contiene las trazas del evento elemento (Acosta, 2012). Es por esto que, para el sitio de estudio que es la ciudad de Querétaro, se enfocará en el Eje Neovolcánico (con fuentes sísmicas cercanas al sitio de análisis) el cual se localiza en la parte central y sur del estado de Querétaro; ocupando una superficie que alcanza el 49.91% del territorio.

de un medio elástico, como la Tierra, más el instrumento para registrar el terremoto (Burfon, 1994). Para la sismología, el sismograma representa la principal fuente de adquisición de datos susceptible de ser manipulada para cualquier estudio posterior, sea cual sea su objetivo. Así pues, aparte del estudio de estos para obtener información sobre el medio y la fuente, será de sumo interés su generación a partir de modelos teóricos para diferentes medios y focos sísmicos conduciéndonos a la obtención de sismogramas sintéticos válidos para realizar una comparación con los reales que permita, a partir de un ajuste de los modelos utilizados, un mejor conocimiento del medio en que se producen los sismos y de sus causas (Batllo y Correig, 1987). En la generación de sismogramas sintéticos se pueden distinguir tres factores principales: El tipo de fuente que produce el sismo, la respuesta del medio porque se trasmiten las ondas elásticas que provoca y su registro mediante un sismógrafo adecuado (que tendrá características propias determinadas) por un observador que se halla a una determinada distancia del epicentro. De un modo formal se puede representar este proceso como sigue (Batllo y Correig, 1987):

ux, t   G x, t; x , t '  S t   I t  '

(2.1)

donde u representa el registro que se obtiene, G la respuesta del medio, S el tipo de fuente que produce el sismo, I la función de respuesta del sismógrafo, x, t 

  las coordenadas del '

las coordenadas de la fuente, x ,t

'

observador y  el producto de convolución. Por tanto evaluando estos tres factores, se podrá generar sismogramas sintéticos.

Figura 1.1. Fisiografía del estado de Querétaro (INEGI).

2. CONCEPTO DE LA SIMULACIÓN DE SISMOS. El sismograma es el resultado de los procesos en el foco sísmico combinados con el efecto de propagación a través

58

Figura 2.1. Síntesis de un modelo de simulación de sismos.


Por lo tanto, este enfoque se basa en la aplicación de los conocimientos teóricos y modelos desarrollados para simular eventos sísmicos lo más parecido posible a la realidad. El movimiento intenso del terreno en un punto por la acción de una fuente sísmica a una determinada distancia es la convolución de la función fuente, que describe el proceso de ruptura de en la falla, que describe los efectos del camino y del sitio hasta llegar las ondas desde el origen hasta el punto de observación. Por tanto, un enfoque teórico a las simulaciones de estos movimientos deben tratar primero de simular los efectos del camino y sitio, para luego combinar por medio de la convolución los dos resultados y obtener un movimiento intenso del terreno lo más parecido a la realidad al que haya podido llegar (García, 2012). Debido a que los datos sismológicos son limitados, parece más apropiado recurrir a un escenario basado en un enfoque semiempírico. La principal ventaja de este procedimiento es el tratamiento simultáneo de la contribución de la fuente sísmica y la propagación de la onda sísmica para el movimiento fuente objetivo sobre la región/sitio, utilizando los principios físicos básicos (Gama et al., 2011). Los modelos con enfoque puramente teórico utilizan simplificaciones para conseguir calcular numéricamente los efectos de camino y de sitio. Con el enfoque semiempírico, a modos de función de Green empírica, estos efectos ya vienen introducidos con el uso de eventos pequeños, por lo que solo hay que desarrollar una función que recree la fuente de manera equivalente para la simulación (García, 2012). Lo primero que hay que pensar es qué posibilidades de representación de la acción sísmica se tiene. Luego hay que conocer y comprender qué aspectos de la sismología hay que tener en cuenta para representar un terremoto y qué trabajos hay publicados sobre la simulación, para finalmente poder desarrollar herramientas que nos lleven a lograr una representación de la acción sísmica potencia en un determinado lugar (García, 2012). 3. LA FUNCIÓN EMPÍRICA DE GREEN. Se basa en la idea de que la propagación de ondas de un sismo pequeño, denominado sismo o función elemento, que ocurra los suficientemente cerca del sismo principal, denominado sismo o función objetivo, ambos con características geométricas y dinámicas similares, será afectada por el mismo trayecto que el sismo principal, y también por la misma respuesta instrumental, si es que ambos son registrados en el mismo instrumento. De esta forma, ambos sismogramas comparten la información de la estructura de viaje y del instrumento (Acosta, 2012).

Querétaro

Figura 3.1. Representación geométrica del método de la función empírica de Green (Modificada de Gama et al. 2011). Para operar con los elementos de la fuente, se define un factor de escalamiento entre los sismos de la forma: (3.1)

N 3  N x N w NT

donde Nx y Nw son el número de subeventos en los que se divide la fuente principal a lo largo y a lo ancho, respectivamente, y Nt es el factor de escalamiento en el modelo de ω2 de Aki (1967). N se puede estimar mediante el cociente de los desplazamientos, aceleraciones o momentos sísmicos de los 2 eventos, representando con mayúsculas al sismo principal y con minúsculas al sismo elemento (Acosta, 2012):

U0 M0   N3 u0 m0

(3.2)

1

A0  M 0  3   N3  a 0  m0 

(3.3)

Es importante señalar que la falla siempre se divide en N x N. finalmente, podemos expresar la aceleración generado por el sismo mayor como: Nx Nw  r At      i 1 j 1  rij

 Fij t  t ij  * at   

(3.4)

donde:

59


 

Fij t  tij   t  tij 

1 n'

N 1n'

 t  tij 

K 1

K  1  N  1n' 

(3.5)

De esta última ecuación n’ es un entero apropiado para eliminar periodicidad espuria, r es la distancia de la estación al hipocentro del sismo pequeño, rij es la distancia de la estación al elemento (i,j), tij es el tiempo de retraso para la ruptura del punto de salida del elemento (i,j) al sitio observado y τ es el tiempo de ascenso (rise time). Entonces, este método es utilizado para obtener sismogramas sintéticos del sismo objetivo, a partir del conocimiento de los sismogramas y la fuente del sismo elemento, y de la proposición de una fuente sísmica para el objetivo. En este caso, el sismo elemento no es considerado como una réplica, sino como un premonitor al sismo objetivo. 4. ESPECTRO DE DISEÑO. El espectro de diseño se crea con el fin de diseñar nuevas estructuras, evaluar las existentes ante la amenaza sísmica y por lo tanto, proveen las bases para calcular la fuerza de diseño y deformación de una estructura de un grado de libertad para permanecer dentro del rango elástico. Las ordenadas de un espectro de respuesta son desiguales y varían de un sismo a otro. El espectro de diseño, consiste en suavizar estas ordenadas con curvas y cierto nivel de amortiguamiento. Si no se tiene registros en el sitio, entonces de deben de determinar los sismos bajo condiciones similares, en cuya selección entran factores como la distancia epicentral, el mecanismo de falla, la geología y las condiciones locales del sitio (esto tratado en la simulación de sismos). El método que Newmark y Hall desarrollaron se muestra en la Figura 4.1 para obtener el espectro de diseño sísmico a partir de las máximas aceleraciones PGA, velocidades PGV y desplazamientos PGD del suelo. La mediana de la máxima aceleración espectral (SA), la máxima velocidad espectral (SV) y el máximo desplazamiento espectral (SD) se obtienen multiplicando los máximos registros del suelo por coeficientes αA, αV y αD respectivamente, obtenidos a partir de los espectros de respuesta.

60

Figura 4.1. Representación geométrica del método de la función empírica de Green (Modificada de Gama et al. 2011). Como se puede ver en la Figura 4.1, la forma del espectro de diseño para períodos comprendidos en la región de transición de la zona controlada por las aceleraciones a la zona controlada por las velocidades depende de la relación SV/SA, donde SA = αAPGA y SV = αVPGV. Dentro de las 3 zonas del espectro sensitivas a la aceleración, velocidad y desplazamiento, se definen los coeficientes de amplificación α para varios valores del coeficiente de amortiguamiento, los cuales corresponden a 2 probabilidades de que las ordenadas del espectro de diseño no sean excedidas para un evento con las mismas aceleraciones. Para un nivel de probabilidad de 84.1% (media + desviación estándar) de que no sean excedidas las ordenadas espectrales:

 A  4.38  1.04 ln  %

(4.1)

V  3.38  0.67 ln  %

(4.2)

 D  2.73  0.45 ln  %

(5.3)

Para un nivel de probabilidad de 50% (media) de que no sean excedidas las ordenas espectrales:

 A  3.21  0.68 ln  %

(4.4)

V  2.31  0.41 ln  %

(4.5)

 D  1.82  0.27 ln  %

(4.6)


5.2. Localización de los eventos y cálculo de distancia fuente-receptor.

5. METODOLOGÍA. 5.1. Base preliminar de eventos sísmicos. Se realizó una búsqueda de eventos sísmicos con origen en el Eje Neovolcánico y con la ayuda de la página del SSN (Servicio Sismológico Nacional) para identificar la fecha y hora de los eventos. Para esto se identificó primeramente los estados que comprenden al Eje Neovolcánico mismos que se presentan a continuación en orden alfabético (INEGI): Colima, Guanajuato, Hidalgo, Jalisco, México, Michoacán, Morelos, Nayarit, Puebla, Querétaro, Tlaxcala y Veracruz. Otra característica típica que se tomó en cuenta en la elección es la profundidad del hipocentro de cada evento, ya que los sismos más destructivos, de magnitudes mayores e igual a 5.0, son los que ocurren generalmente a poca profundidad (menos de 150 km) y a su vez implica tener mayor probabilidad de propagación de ondas sísmicas. Sin embargo por las características del sismógrafo, que en el siguiente punto se describe, se decidió trabajar con eventos a partir de M≥3.5, a modo de ampliar la base de datos disponible (Clemente, 2010). Se realizó una búsqueda en la página web del SSN con los estados antes mencionados para consultar la sismicidad histórica de los mismos y se copió la información a una hoja de cálculo de los eventos sísmicos. Los estados en donde el SSN no ha registrado o reportado eventos sísmicos son: Guanajuato y Querétaro, de aquí la importancia de generar un escenario sísmico para la ciudad de Querétaro de sismos con focos a distancia. Así mismo, se cuenta con acelerogramas registrados en el municipio de Peñamiller, Querétaro registrado por una red provisional de acelerógrafos de la UAQ (Universidad Autónoma de Querétaro) de los datos proporcionados se realizó una búsqueda en la página del SSN observando la fecha y hora del evento para referenciar con los registros del acelerógrafo, el único registro que se logró coincidir con el SSN fue el siguiente (ver Tabla 5.1) Tabla 5.1. Registro de la red provisional de la UAQ en Peñamiller, Querétaro. Fecha

Hora

08022011

13:53:56

Prof. (km) 5

Mag.

Zona

3.5

19 km al NORTE de ZIMAPAN, HGO.

Con la ayuda de la información reportada por el SSN se realizó la localización y profundidad de los eventos sísmicos. Con las localizaciones geográficas de los epicentros, se calculó la distancia lineal y acimutal fuente-receptor entre el epicentro y las estaciones que registraron los sismos. 5.3. Modelo unidimensional de velocidades. Si se conoce la estructura de velocidades por la cual viajan las ondas sísmicas, se puede construir una expresión matemática que incluya los efectos del trayecto desde la fuente de un sismo hasta un receptor en la superficie terrestre. Para una buena representación de la interacción fuentemedio-receptor, es elemental contar con un modelo de velocidades que describa de buena forma las observaciones obtenidas en superficie, dada una fuente sísmica. el calibrar un modelo de velocidades sísmicas para obtener un catálogo de funciones de Green para cierta región es el paso más importante para la aplicación de los métodos siguientes (Acosta, 2012). El modelo que se utilizó para la construcción de las funciones de Green unidimensionales fue considerando los siguientes datos: 

Estatigrafía y espesor de la corteza. Se utilizó la reportada por SGM (Servicio Geológico Mexicano 1999) en su carta geológica-minera y así conocer las capas en Querétaro. Velocidades de onda P y S. Manilla et al. (2003) realizaron una estimación de las ondas P y S y velocidades “VP y VS” considerando los módulos de elasticidad “K” y de rigidez “G” que representan las medidas cuantitativas de la capacidad e los materiales geológicos para resistir el cambio de volumen y forma cuando se someten a cambios de esfuerzo. Esto se realizó con la técnica de sismología de refracción.

Con la estructura de velocidades ya definida, se logró construir las funciones de Green para la zona determinada fuente-receptor. 5.4. Calculo del mecanismo focal y del tensor de momento sísmico. Para la obtención del mecanismo focal se utilizó el método a partir del tensor de momento sísmico, expuesto anteriormente, con la ayuda del algoritmo usando el

61


programa (2002).

mtpackagev1.1,

desarrollado

por

Dreger

Acosta (2012) puntualiza que el método es más recomendable que es el de polaridad de la onda P, esto se debe principalmente a la pobre cobertura acimutal que obtuvo en su trabajo y que es determinante para poder representar las estaciones de registro sobre la esfera focal. Por otro lado, en registros que estaban altamente afectados por ruido, la identificación de la fase y polaridad de la onda P resultó complicada y dependió mucho de elementos subjetivos. Por estas razones, se decidió utilizar la información de los mecanismos focales obtenidos por el método del cálculo del tensor de momento sísmico. El tensor de momento sísmico es una representación matricial tanto del sistema de fuerzas equivalentes al que se reduce la fuente, como de la geometría que tiene este sistema. Conociendo el tensor de momento sísmico, se podrá encontrar también el mecanismo focal. En la Figura 5.1 se muestran tensores de momento diagonalizados para fuentes sísmicas básicas, acompañadas de su respectivo mecanismo focal característico. Estos tensores de momento son obtenidos si se considera el patrón de radiación para un doble par de fuerzas. El cambiar de patrón de radiación o de sistema de referencia cambiaría también la forma de los mecanismos focales.

De la Figura 5.1 se puede observar en la segunda, tercera y cuarta fila las fallas que corresponden a mecanismos de deslizamiento en dirección del rumbo, de deslizamiento en dirección del echado y de falla inversa pura respectivamente. Por tanto, la expresión de la fuente en términos del tensor de momento es una representación muy completa, que incluye los factores geométricos y las fuerzas equivalentes que generan un sismo. Con este desarrollo se pudo obtener una caracterización geométrica de las fuentes, mediante el mecanismo focal, y una estimación del tamaño de las mismas, mediante el momento sísmico escalar M0 y la magnitud Mw. Todos estos resultados del análisis de fuentes puntuales se convirtieron en datos para los posteriores métodos. Este algoritmo de obtención del tensor de momento sísmico toma como base la siguiente expresión, en el que se representa una fuente sísmica puntual como una multiplicación del tensor de momento sísmico y el tensor de funciones de Green asociadas al trayecto de las ondas:

u i x, t  

 Gij x, t; x0 , t 0    x 0 k

M jk x0 , t 0 

(5.1)

La ecuación 5.1 en forma alternativa, puede ser también expresada como:

U n x, t   M ij  Gni, j x, z, t 

(5.2)

donde Un es la n-ésima componente del desplazamiento, Gni,j es la n-ésima componente de la función de Green para una orientación específica de un par de fuerzas y Mij es el tensor de momento sísmico. El algoritmo resuelve la ecuación 5.2 mediante la técnica de mínimos cuadrados, dada una profundidad, y esta inversión calcula el tensor de momento sísmico descompuesto en:    

Figura 5.1. Relación que existe entre el tensor de momento y el mecanismo focal para distintos tipos de fuente (Acosta, 2012).

62

Porcentaje de tensor doble par. 5 componentes independientes del tensor de momento Momento sísmico escalar M0 Magnitud de momento sísmico Mw

La magnitud Mw arrojada por el programa corresponde a la desarrollada por Kanamori (1977), basa en el valor del momento sísmico escalar, que brinda información del tamaño y liberación de energía de un sismo, y que se calcula, con M0 en dina-cm siguiendo la expresión:


log M 0  Mw   10.73 1.5

(5.3)

El algoritmo de Dreger (2002) genera buenas soluciones para eventos con Mw≤7.5 y utiliza ondas con periodos entre 10 seg y 50 seg. También se debe considerar que asume que la historia de la fuente es la misma para todos los elementos del tensor de momento, y que la función temporal de fuente se puede aproximar como una función impulsiva. La inversión de los parámetros de la fuente puntual viene acompañada de medidas de dispersión para discernir entre buenos y malos resultados. Se obtiene una varianza total de los datos, pero generalmente este valor es pequeño debido a las también pequeñas amplitudes de los registros, por lo que no es muy significativa. Por otro lado un valor que si determina de buena forma la calidad de la inversión es la reducción de la varianza calculada como:  datoi  sitéticoi 2   (5.4) VR  100 * 1   2  dato i  

donde a mayor valor de VR, mejor calidad en la inversión. Para soluciones preferentemente de doble par, también se utilizó el cociente entre la varianza y el porcentaje de tensor de doble par obtenido en cada inversión, es decir:

 VR / Pdc    

 i

datoi  sitéticoi 2  / Pdc 

Accleration) y en la aceleración pico vertical PVA (Peak Vertical Acceleration). Mientras que PVA se determinó directamente de un acelerograma, PHA s eestimó mediante la suma vectorial de los máximos de las dos componentes orotogonales horizontales. García et al. (2005) estima PHA con registros en las direcciones EW y NS como: PHA 

(5.6)

5.8. Espectro de respuesta. Estos se determinaron para las dos componentes horizontales. Para su diseño, se eligió un rango de periodos que coincidiera con el de los cálculos PHA y PHV, mientras que para todos los espectros se eligió que el amortiguamiento del oscilador fuera de 5% que es un valor estandarizado para el análisis de ingeniería sísmica y civil. 5.9. Espectro de diseño. El espectro de diseño se realizó con el métodos de Newmark y Hall antes expuesto el cual consistió de los siguientes pasos.  En una hoja con cuatro componentes, mostrada en la Figura 5.2, se dibujaron los máximos del terreno (PGA, PGV y PGD) de los registros sísmicos. 

(5.5)

Con este par de medidas de dispersión es posible determinar la calidad de la inversión, aunadas a la comparación visual entre trazas sintéticas y registradas en los sismogramas.

5.6. Simulación de sismos.

Para la simulación de eventos sísmicos de utilizó un código realizado por el fundador del método que es Irikura, el cual considera todos los datos anteriormente mencionados dando como resultado las aceleraciones máximas en las dos componentes horizontales y la vertical con las cuales se estimó espectros de respuesta con un factor de amortiguamiento del 5%.

amax EW 2  amax NS 2

 se determinaron los Para un valor dado valores de amplificación correspondientes (αA, αV y αD) y un valor de probabilidad deseado. En la tabla 5.2 se muestran algunos valores propuestos por Newmark y Hall. Se multiplicaron los máximos del terreno por los coeficientes de amplificación respectivo. Después de trazan las líneas paralelas a los máximos del terreno, correspondientes a las máximas amplificaciones. Se trazaron líneas correspondientes a los perídos de contro. En la zona de períodos cortos f= 33Hz o T = 0.03 se inica con transición desde la aceleración del terreno hasta la aceleración amplificada en f = 8Hz o T = 0.15 s. Después se unen los máximos amplificados en las intersecciones correspondientes.

5.7. Cálculo de la aceleración máxima. Kramer (1996) divide este parámetro en la aceleración pico horizontal PHA (Peak Horizontal

63


Se recomienda multiplicar las ordenadas espectrales por las siguientes constantes, para ajustar las condiciones geológicas:   

Roca competente = 0.67 Roca meteorizada o blanda, suelo sedimentario firme (Aluvión) = 1.0 Suelo sedimentario = 1.5

Para espectros de aceleraciones verticales, pueden emplearse 2/3 de las ordenadas horizontales cuando el movimiento de la falla sea transcurrente horizontal, es decir aquella que todo movimiento se da en la misma dirección que la del plano de la falla.

Figura 5.2. Hoja de cuatro componentes en donde se traza el espectro de diseño (Bertero et al., 2009). Dentro de las 3 zonas del espectro que son la aceleración, velocidad y desplazamiento, se definen los coeficientes de amplificación  para varios valores del coeficiente de amortiguamiento, los cuales corresponden a 2 probabilidades de que las ordenadas del espectro de diseño no sean excedidas para un evento con las mismas aceleraciones del terreno. Para suelos firmes y distintos factores de amortiguamiento, Nekmark y Hall obtuvieron para la mediana y la mediana más desvío estándar de los factores de amplificación

 A , V

y

D

los cuales se

muestran en la Tabla 5.2 Tabla 5.2.Factores de amortiguamiento propuestos por Newmark y Hall (Bertero et al., 2009) Amortiguamient o

64

50.0% (media)

84.1% (media + desviación estándar)

(%)

A

V

D

A

V

D

1 2 5 10 20

3.21 2.74 2.12 1.64 1.17

2.31 2.03 1.65 1.37 1.08

1.82 1.63 1.59 1.20 1.01

4.38 3.66 2.71 1.99 1.26

3.38 2.92 2.30 1.84 1.37

2.73 2.42 2.01 1.69 1.38

CONCLUSIONES Se ha presentado la metodología para realizar un espectro de diseño con base en eventos simulados. Cabe resaltar que en la aplicación de las Funciones Empíricas de Green es necesario que el evento pequeño y el evento principal hayan tenido origen en la misma falla, lo cual se evidencia por las similitudes de sus mecanismos focales. De esta forma se garantiza que el medio de propagación y el efecto de sitio bajo la estación sean los mismos para ambos sismos y que las únicas diferencias sean debidas a la fuente del evento principal. Sin embargo, el método es bondadoso a la hora de tomar el evento función como un premonitor del evento objetivo por lo que se puede determinar que el mecanismo focal sea semejante al sismo función. Así mismo, este método también se aplica para realizar un estudio del peligro sísmico en lugares donde la instrumentación sísmica es escaza y por ende los registros de eventos sísmicos. Por otro lado, es necesario contar con los software indicados (de preferencia elaborados por los autores) para tener una fiabilidad en los resultados. Una forma de validar o conocer la divergencia que existe entre los resultados de un sismo premonitor y un evento réplica del sismo objetivo, sería simulando ese evento réplica con un sismo objetivo del cual se conozca ya su mecanismo focal y observar las aceleraciones máximas en las tres componentes verificando la diferencia entre estas del sismo sintético y el sismo real.


REFERENCIAS Acosta M. 2012. Simulación de un escenario sísmico en la ciudad de Tapachula, Chiapas, usando el método de Función de Green Empírica. Tesis de Licenciatura. Facultad de Ingeniería. Universidad Nacional Autónoma de México. Aki K. 1967. Scaling law of seismic spectrum. J. Geophys. Res. Vol. 72, 1217-1231. Bertero R., A. Verri, A. Lehmann y J. Mussat. 2009. Criterios para construir el espectro de diseño elástico y seleccionar los sismos de diseño para un sitio dado. EIPAC 2009. Batllo J. y A. M. Correig. 1987. Sobre la generación de sismogramas sintéticos en un medio seminfinito. Departament de Física de la Tierra i del Cosmos. Universitat de Barcelona. Estudios geol., 459469. Bonett R., L. Pujades. 2002. Generación de acelerogramas artificiales compatibles con un espectro de respuesta. Aplicación a eventos recientes en Colombia y España. Rev. Int. Mét. Num. Cálc. Dis. Ing. Vol. 18, 2, 297-308. Buforn E. 1994. Métodos para la determinación del mecanismo focal de los terremotos. Física de la tierra, Núm. 6. 113-119. Editorial Complutense, Madrid. Cano, J., H. Monsalve, J. A. Agudelo, F. M. Upegui y J. D. Jaramillo. XXXX. Metodología para la evaluación del riesgo sísmico de pequeñas y medianas ciudades. Estudio de caso: Zona Centro de la ciudad de Armenia-Colombia. Rev. Int. de Desastres Naturales, Accidentes e Infraestructura Civil. Vol. 5(1). Clemente A. 2010. Ley de Atenuación de aceleración (PGA) y escalamiento de forma espectral sísmica para Querétaro, deducidos por análisis de trayectorias: aplicadas a Guerrero-Querétaro. Tesis de maestría. Facultad de Ingeniería, Universidad Autónoma de Guerrero. Dreger D. S. 2002. Time-Domain Moment Tensor Inverse Code (TDMT_INVC) Versión 1.1. Berkeley Seismologycal Laboratory, USA. Ferrer, I. 2009. Simulación estocástica de espectros sísmicos de respuesta cinemática a partir de modelos sismológicos no estacionarios. Tesis de doctorado. Departamento de mecánica de los medios continuos y teoría de estructuras, Universidad Politécnica de Valencia. Gama A., A. Gómez y J. Aguirre. 2011. Estimación del peligro sísmico en sitios cercanos a la fuente sísmica. GEOS Vol. 30, No. 2. García F. A. 2012. Simulación de movimientos fuertes del terreno mediante Funciones de Green Empíricas. Aplicación en el cálculo sísmico de

estructuras. Departamento de Mecánica de Estructuras e Ingeniería Hidráulica. Universidad de Granada. Harzetll S. H. 1978. Earthquake aftershock as Green’s function. Geophysic Research Letter, Vol 5. Hurtado J. E., A. H. Barbat y J. A. Canas. 1996. Simulación de acelerogramas compatibles con espectros de energía sísmica inducida. Revista Internacional de Métodos Numéricos para Cálculo y Diseño en Ingeniería. Vol. 12, 1, 7391. Irikura K. 1983. Semi-Empirical Estimation of Strong Ground Motions During Large Earthquake. Bulletin Disaster Prevention Research Institute, Kyoto University, Vol. 33, Part 2, No. 298. Irikura K. 1986. Prediction of strong acceleration motion using empirical Green’s function. Proc. 7th Japan Earthquake Eng. Symp. Julca A. R. 2005. Aplicación de las funciones de Green en problemas de la Física-Matemática. Tesis de licenciatura. Facultad de Ciencias Físicas. Universidad Nacional Mayor de San Marcos. Mena U. y L. E. Pérez. 2008. Comisión Federal de Electricidad, Manual de diseño de obras civiles, Sección 3.1, Espectros de diseño sísmico para el territorio mexicano, tema 3.1.7, Acelerogramas representativos del peligro sísmico. Ramírez A. y J. Aguirre. 2008. Modelado de la fuente sísmica del sismo de Tecomán del 21 de Enero de 2003 utilizando el método de las Funciones Empíricas de Green. Revista de Ingeniería Sísmica. No. 79 49-69. Reasenber P. y Opphenheimer D. 19785. Introduction to programs: FPFIT, FPPLOT and FPPAGE. U. S. Geological Survey Open File. No. 85-739. Rocha E. 2011. Conformación de la base de datos sísmicos para los registros de la estación JUR1, Juriquilla Querétaro. Tesis de licenciatura. Facultad de Ingeniería. Universidad Autónoma de Querétaro. Shearer P. 2009. Introduction to Seismology. Second Edition. Cambridge University Press. San Diego. EUA. 241-261. Stein S. y M. Wysession. 2003. An introduction to Seismology, Earthquakes, and Earth Structure. First Edition. Blackwell Publishing. Vilches J. 2009. Caracterización sísmica del terreno previa a la construcción de la estación de transferencia Guaraira, Repano, La UrbinaCaracas. Universidad Simón Bolívar, Ingeniería Geofísica.

65


7 Coloquio de Posgrado de la Facultad de Ingeniería Factores y niveles de confianza de edificios de cinco, diez y quince niveles sujetos a movimientos sísmicos de banda angosta Confidence factors and confidence levels of 5-, 10- and 15-story buildings subject to narrowband ground motions T. E. González Robles, Facultad de Ingeniería, Universidad Autónoma de Querétaro. tgonzalez13@alumnos.uaq.mx.

M. A. Montiel Ortega, mmo02@hotmail.com. S. E. Ruiz Gómez, Instituto de Ingeniería, Universidad Nacional Autónoma de México.

SRuizG@iingen.unam.mx.

1. RESUMEN. Se evalúan los Factores confianza y los niveles de confianza que se encuentran implícitos en el diseño de tres edificios (de 5, 10 y 15 niveles) de concreto reforzado diseñados de acuerdo con el Reglamento de Construcciones del D. F. (2004). Los edificios se suponen ubicados en la zona blanda de la ciudad de México con periodo dominante cercano a 1.5s. Para estimar los factores de los edificios se considera el desempeño de las estructuras ante los estados límites de servicio, seguridad de vida y colapso. La evaluación se basa en el formato de Diseño por Factores de Capacidad y Demanda (DCFD) considerando un marco probabilista que toma en cuanta de manera explícita las incertidumbres aleatorias y epistémicas asociadas tanto a la capacidad como a la demanda estructural. Para obtener la capacidad estructural se realizan Análisis Dinámicos Incrementales a las estructuras sujetas a la acción de 13 sismos de subducción registrados en la región del Lago de la Ciudad de México. Por otro lado, la demanda estructural se obtiene a partir de análisis dinámicos no-lineales para niveles de intensidad asociados a un cierto peligro sísmico para los estados límites de servicio, seguridad de vida y colapso. Los resultados indican que los edificios de 5 y 10 niveles diseñados con el RCDF2004 tienen un nivel de confianza más alto para satisfacer el nivel de desempeño por colapso que para satisfacer el estado límite de servicio, mientras que el de 15 niveles sucede lo contrario. ABSTRACT. Confidence factors and levels that are implicit in the design of three reinforced concrete buildings (of 5, 10 and 15-story structures) designed in accordance with the Mexico City Building Code (2004) are evaluated. The buildings are supposed located in the soft soil of Mexico City which has dominant period close to 1.5s. To estimate the buildings factors is considered the performance of the structures at the serviceability limit, life safety and collapse state. The analysis is bases on the Demand and Capacity Factor Design format (DCFD) considering a probabilistic framework that takes into account explicitly random and epistemic uncertainties associated with both the structural capacity and demand. For structural capacity Incremental Dynamic Analysis are made to structures subject to the action of 13 subduction earthquakes recorded in the region of the Mexico City Lake. The structural demand is obtained from nonlinear dynamic analyzes for intensity levels associated with a seismic hazard related to serviceability, life safety and collapse states. The results indicate that the 5 and 10-story buildings designed with RCDF-2004 have higher confidence level to meet the performance level by collapse to satisfy the serviceability limit state, while the opposite happens in the 15-story building.

2. PALABRAS CLAVE. Factores de confianza, niveles de confianza, evaluación de la confiabilidad estructural. 3. INTRODUCCIÓN El objetivo del Reglamento de Construcciones del Distrito Federal (RCDF), como el de la gran

66

mayoría de los códigos sísmicos del mundo, es proporcionar recomendaciones que den lugar a estructuras en las que, durante su vida útil, exista un balance entre sus costos totales, su confiabilidad y


su desempeño estructural. Este equilibrio se trata de lograr mediante algunas consideraciones de diseño así como mediante factores de seguridad que se presentan dentro del formato de diseño por factores de carga y resistencia (LRFD, “Load and Resistance Factor Design”, en inglés) (Ellingwood, 1978). El RCDF se basa en el formato de diseño por factores de carga y resistencia (Meli, 1976; Bojórquez y Ruiz, 2013). Por ejemplo, la combinación de factores de carga que el RCDF (2004) recomienda para diseño sísmico son iguales: a 1.1carga muerta + 1.1 carga viva + 1.1 sismo para el estado límite de colapso, y son unitarios para el estado límite de servicio; mientras que los factores de resistencia dependen del tipo de material (concreto reforzado, acero, etc.) y del estado límite que se trate (i.e., 0.9 para diseños por flexión, 0.8 para diseños por cortante, etc.).

Cornell, 2003). A continuación se describe de manera general la formulación de dicho criterio. ) se define como El factor de confianza ( la relación de la capacidad factorizada de la ̂ ) entre la demanda factorizada de la estructura ( ̂ ): estructura ( ̂

̂

(1)

Los términos y son los factores probabilísticos de demanda y de capacidad que se evalúan en este estudio. El factor reduce los valores de la capacidad calculada para la estructura debido a las incertidumbres asociadas con la estimación de esta, y el factor toma en cuenta las incertidumbres asociadas con la estimación de la demanda en la estructura.

Por otro lado, el formato de diseño por factores de capacidad y demanda (DCFD “Demand and capacity factor Design”, en inglés) (Cornell et al, 2002), a diferencia del formato LRFD, toma en cuenta de manera explícita la incertidumbre y aleatoriedad en la demanda estructural y en la capacidad estructural. Este formato se basa en cumplir cierto desempeño estructural objetivo expresado como la probabilidad de exceder cierto nivel específico de comportamiento estructural. El formato DCFD se ha recomendado como posible base para futuros códigos de diseño.

Un diseño que satisfaga la condición de la ecuación 1 indica que tiene una tasa media anual de falla estimada ( ) menor o igual a una tasa media anual de falla objetivo ( ).

En el presente estudio se evalúan los factores de capacidad y de demanda implícitos en dos edificios. Para ello se recurre al formato de Diseño por Factores de Demanda y Capacidad (DCFD). Para obtener la capacidad estructural se realizan Análisis Dinámicos Incrementales a las estructuras sujetas a la acción de 13 sismos de subducción registrados en la región del Lago de la Ciudad de México. La demanda estructural se obtiene a partir de análisis dinámicos no-lineales para niveles de intensidad asociados a un cierto peligro sísmico para los estados límites de servicio, seguridad de vida y colapso. En la formulación se emplean valores de incertidumbres tanto aleatorias como epistémicas.

Estos factores varían en función de un parámetro que depende del peligro sísmico para el periodo de la estructura (r) y de otro que es función de la demanda estructural (b). Estos se relacionan a su vez con la tasa media anual de excedencia de la intensidad  (Sa/g), y con la variación de la mediana de la demanda ( ̂ ) en función de la intensidad respectivamente, como sigue (Cornell, 1996):

3.1 Definiciones básicas En esta sección se presenta la metodología para evaluar los factores de capacidad y de demanda de las estructuras para los estados límite de servicio, seguridad de vida y colapso. Para ello se utilizan conceptos básicos del criterio propuesto por Cornell y colaboradores (Cornell et al. 2002, Jalayer y

Los factores de capacidad ( ) y de demanda ( ) se definen como sigue (Cornell et al, 2002): ]

[

]

[

̂

(

(

)

)

(2) (3)

(4) (5)

donde k, r son los parámetros de regresión de la curva que representa la tasa media anual de excedencia de la intensidad (Sa/g); a y b son los parámetros de ajuste de la mediana de la máxima distorsión de entrepiso ( ̂ ) para distintos niveles de intensidad. En este estudio se mide la intensidad por medio de la seudoaceleración espectral (Sa/g).

67


Las incertidumbres que intervienen en los factores y están incluidas en los términos (varianzas) y , respectivamente. Los subíndices C, D y T se refieren a las incertidumbres asociadas con la estimación de la Capacidad, de la Demanda y de las incertidumbres Totales, es decir, incertidumbres aleatorias R más incertidumbres epistémicas U, respectivamente. Descritos los factores de carga y de demanda por ) definido medio del factor de confianza ( en la ecuación 1, este se puede asociar con un cierto nivel de confianza para evaluar la confiabilidad, mediante la siguiente ecuación (Jalayer y Cornell, 2003): [

(

)

]

(8)

4.

5.

6. 7.

Se puede ver que esta ecuación varía en función del peligro sísmico que se está utilizando (representado mediante el parámetro r), de la demanda estructural (representado mediante el parámetro b), y de las ) asociadas incertidumbres epistémicas totales ( , como a la capacidad tanto a la demanda , donde: √ . estructural Al determinar el factor de confianza (ecuación 1) y , con la sustituirla en la ecuación 8, se obtiene cual se obtiene el nivel de confianza.

8.

Los sismos de subducción se refieren a los eventos ocurridos cuando una parte de la corteza oceánica se sumerge bajo otra placa de carácter continental. 4 PROCEDIMIENTO DE ANÁLISIS A continuación, se describe el procedimiento que se utilizó en el presente estudio para evaluar los factores de resistencia ( ) y de carga ( ) (ecs. 2 y 3, respectivamente) implícitos en un diseño hecho con el RCDF-2004, así como sus factores y niveles de confianza. 1.

2.

3.

68

Primeramente, se seleccionan 13 sismos de subducción registrados en la zona blanda del Distrito Federal y se escalan las excitaciones a diferentes periodos de retorno. Se estudia cada edificio de concreto reforzado y se obtiene su demanda estructural en función de la intensidad sísmica para los diferentes niveles de escalamiento de los sismos seleccionados y se calcula la mediana de la DEMANDA. Se obtienen las incertidumbres totales (aleatorios y epistémicas) asociadas con la

9.

estimación de la DEMANDA estructural del edificio, para los estados límite de servicio y colapso. Se obtiene la mediana de la CAPACIDAD ( ̂ ) para los estados límite en evaluación. La mediana de la capacidad estructural se estima mediante análisis dinámicos incrementales (realizados “paso a paso” en el tiempo). Dicha capacidad se mide a través de las distorsiones máximas de entrepiso. Se calculan las incertidumbres totales (es decir, aleatorias y epistémicas) asociadas con la estimación de la CAPACIDAD del edificio en estudio. Se obtiene el parámetro r que representa el nivel del peligro sísmico necesario para obtener los factores de carga y resistencia. Se calculan los valores de los factores de RESISTENCIA como sigue: ] (ec. 2), en donde las [ variables r y b dependen del peligro sísmico del sitio en donde se ubica la estructura y de la se demanda estructural respectivamente, y refiere a la varianza de la capacidad de la estructura ( ). El subíndice T se refiere a la varianza Total (es decir, que incluye tanto las incertidumbres aleatorias como las epistémicas). Se utiliza la metodología propuesta por Jalayer y Cornell, 2002. Siguiendo la misma metodología, se calculan los valores de los factores de CARGA como sigue: ] (ec. 3), en donde se [ refiere a la varianza de la demanda estructural ( ). El subíndice T se refiere a la varianza Total (es decir, que incluye tanto las incertidumbres aleatorias como las epistémicas asociadas con la estimación de la demanda). Se evalúa la confiabilidad estructural mediante el factor de confianza: ̂

que relaciona la mediana de

la capacidad factorizada y la mediana de la demanda factorizada. 10. Se obtienen las incertidumbres epistémicas ), es decir las que incluyen las totales ( asociadas a la demanda y a la capacidad. 11. Finalmente, se calcula el nivel de confianza:

[

(

partir del factor de confianza.

)

]

a

En al siguiente sección se desarrolla el procedimiento anterior para el análisis de edificios


de concreto reforzado de 5, 10 y 15 niveles y tres crujías, ubicado en la zona IIIb del Valle de México.

6. MOVIMIENTOS SÍSMICOS

De los análisis se obtiene una serie de tablas que contienen los parámetros de b y de r, los factores de capacidad  y de demanda  , valores de

El análisis de confiabilidad sísmica requiere el uso de registros que puedan reflejar adecuadamente las características dinámicas y el contenido de energía de los movimientos sísmicos se espera que ocurran en el sitio en donde se encuentra la construcción. Para este análisis, se utilizaron 13 sismos de banda angosta registrados en la región del lago de la Ciudad de México, cuyas coordenadas y magnitudes se muestran en la tabla 1. Por otro lado, la tabla 2 muestra la institución de registro de cada una de las estaciones. Todos los movimientos sísmicos se registraron durante los eventos de subducción con epicentros ubicados en la costa del Pacífico de México, (ver figura 2), cuyas magnitudes varían de 6.9 a 7.3 grados. Los correspondientes espectros elásticos de pseudoaceleración se muestran en la figura 3. Se hace notar que los espectros de movimientos sísmicos tienen períodos predominantes alrededor de 1.5s.

capacidad Cˆ asociados a diferentes estados límite, se obtienen incertidumbres aleatorias, epistémicas, etc. 5 ESTRUCTURAS ANALIZADAS La metodología antes mencionada se aplicó a edificios de 5, 10 y 15 niveles cuyas propiedades geométricas en planta y elevación, así como los periodos fundamentales (To) (usando propiedades medias) se muestran en la Figura 1. Los edificios fueron diseñados de acuerdo con el Reglamento de Construcciones de la Ciudad de México (2004). En la figura 1 se hace referencia a un marco exterior y un marco interior del edificio, los cuales se usaron para modelar los edificios en dos dimensiones para su análisis no lineal en el programa DRAIN 2D modificado por Campos y Esteva (1997).

Tabla 1. Características de los registros sísmicos utilizados

Sismo

Fecha

1

14-sep95 11-ene97 11-ene97 25-abr89 14-sep95 25-abr89 25-abr89 14-sep95 14-sep95 11-ene97 11-ene97 14-sep95 11-ene97

2 3 4 5 6 7 8 9 10 11 12 13

Coordenada del epicentro

16.31 N; 98.88 W 18.09 N; 102.86 W 18.09 N; 102.86 W 16.603N; 99.400 W 16.31 N; 98.88 W 16.603N; 99.400 W 16.603N; 99.400 W 16.31 N; 98.88 W 16.31 N; 98.88 W 18.09 N; 102.86 W 18.09 N; 102.86 W 16.31 N; 98.88 W 18.09 N; 102.86 W

Magnitud

7.3

Estación de registro

GC38

6.9

GC38

6.9

DFRO

6.9

DFRO

7.3

DFRO

6.9

SI53

6.9

IB22

7.3

IB22

7.3

CH84

6.9

CH84

6.9

MI15

7.3

MI15

6.9

SI53

Figura 1 Planta y elevación de las estructuras analizadas.

69


Tabla 2. Estaciones de registro sísmico.

Estación GC38 DFRO SI53 IB22 CH84 MI15

Institución de registro CENTRO DE INSTRUMENTACION Y REGISTRO SISMICO (CIRES) INSTITUTO DE INGENIERÍA, UNAM CENTRO DE INSTRUMENTACION Y REGISTRO SISMICO (CIRES) CENTRO DE INSTRUMENTACION Y REGISTRO SISMICO (CIRES) CENTRO DE INSTRUMENTACION Y REGISTRO SISMICO (CIRES) CENTRO DE INSTRUMENTACION Y REGISTRO SISMICO (CIRES)

Con el propósito de analizar la respuesta de las estructuras ante los movimientos sísmicos seleccionados para diferentes niveles de la intensidad sísmica, fue necesario multiplicar las amplitudes de los movimientos sísmicos por un factor de escala. Este es un valor numérico que modifica la historia de aceleraciones de los registros, de tal manera que la ordenada espectral correspondiente al periodo fundamental de la estructura por analizar, tenga una intensidad especificada. 7. RESULTADOS

Figura 2 Eventos de subducción con epicentros ubicados en la costa del Pacífico de México.

Los espectros de respuesta de los 13 registros sísmicos escalados a una intensidad dada para el periodo fundamental de la estructura de interés se pueden observar en la figura 4, 5 y 6. La figura 4 presenta los espectros de pseudoaceleración escalados para el periodo fundamental del edificio de 5 niveles (To=0.67s), la figura 5 para el periodo fundamental del edificio de 10 niveles (To=1.17s), la figura 6 para el periodo fundamental del edificio de 15 niveles (To=1.65s), cada uno para el valor de seudoaceleración asociado a el periodo de retorno correspondiente al estado límite de servicio

Figura 3 Espectros elásticos de pseudoaceleración de los movimientos sísmicos utilizados. Las características comunes de los acelerogramas elegidos son las siguientes: 1) los eventos se generaron en la zona de subducción de la República Mexicana, 2) las magnitudes de los sismos varían entre 6.9 y 7.3, 3) los movimientos tienen periodos dominantes entre 1.0 y 1.7s. Los acelerogramas fueron previamente cortados y filtrados para corregir su línea base (Villa Velázquez y Ruiz, 2001, Villa Velázquez, 2001).

70

Figura 4 Espectros de respuesta escalados para el periodo del edificio de 5 niveles ( To=0.67s).


tiene más niveles. De estos resultados se utilizan los valores de “b” (ver las ecuaciones que se muestran en la figura 7), para obtener posteriormente los factores de las ecuaciones 2 y 3.

Figura 5 Espectros de respuesta escalados para el periodo del edificio de 10 niveles ( To=1.17s).

Figura 6 Espectros de respuesta escalados para el periodo del edificio de 15 niveles ( To=1.65s). 7.1 Demanda estructural intensidad

en función de la

La figura 8 muestra la desviación estándar del logaritmo de los valores de la demanda para los edificios de 5, 10 y 15 niveles. Se observa que a medida que aumenta la intensidad sísmica sucede lo mismo para la desviación estándar, siendo mucho mayor la correspondiente al edificio de 5 niveles, probablemente debido al fenómeno de “ablandamiento estructura. De este gráfico se obtienen los valores de la desviación estándar que se utilizarán para obtener los factores de demanda (ver ecuación 3).

Figura 7 Valores de la mediana de demanda de los edificios de 5, 10 y 15 niveles con su respectiva curva de ajuste.

Para poner calcular el factor de demanda a continuación se obtiene la mediana de la demanda de las estructuras para los sismos escalados a diferentes niveles de la intensidad S a / g  . El edificio en estudio se excitó con los 13 sismos seleccionados en la tabla 1. Los movimientos sísmicos se escalaron a diferentes periodos de cubriendo un intervalo recurrencia (TR) suficientemente amplio de valores de la intensidad S a / g  . En este caso se seleccionó TR igual 5, 10, 20, 25, 30, 50, 60, 68, 72, 80, 90, 100, 125, 150, 250, 385, 500, 750 y 1000 años para los edificios de 5 y 10, además de los anteriores 1012, 1250, 1500, 1750, 200, 2250, 2475 y 3000 para el de 15 niveles.

En la figura 7 se puede ver que los valores de la demanda crecen con la intensidad. La demanda para cada edificio está asociada a diferentes curvas de peligro sismo, correspondiente al periodo de la estructura, por lo que la intensidad a la cual se somete el edificio es mayor conforme el edificio

Figura 8 Desviación estándar del logaritmo de la mediana de demanda de los edificios de 5, 10 y 15 niveles. 7.2 Capacidad estructural Con el fin de calcular la capacidad de los edificios se utiliza el análisis dinámico incremental (ADI). Este es un método de análisis paramétrico que ha surgido en diferentes formas para estimar de una

71


manera más aproximada el desempeño de una estructura bajo cargas sísmicas. El concepto fue mencionado primeramente en la década de los 70´s y ha sido utilizado en diferentes formas por varios investigadores (p.e. Vamvatsikos y Cornell, 2002; Nassar y Krawinkler, 1991). El método consiste en someter un modelo estructural ante uno o varios registros sísmicos, cada uno escalado a diferentes niveles de intensidad, para obtener una o varias curvas de respuesta parametrizada contra el nivel de intensidad. Los sismos se van escalando hasta que la estructura llegue a un cierto comportamiento asociado con algún nivel de desempeño.

mediana y desviación estándar correspondientes a cada estado límite se muestran en la Tabla 3. Para obtener los factores de capacidad ( ) y de demanda ( ) probabilísticos objetivo de este trabajo es necesario el parámetro (b) que representa la demanda asociada a los estados límite en estudio y de (r) que representan el nivel de peligro sísmico para esa demanda. Para ello se hace lo siguiente: A partir de la mediana de la capacidad ( Cˆ ) asociada a un estado límite se ingresa a las curvas

ˆ versus de ajuste de la mediana de la demanda D Sa/g, para obtener el parámetro (b) y el nivel de intensidad Sa/g asociada a la capacidad en

evaluación ( Cˆ ) para una estructura en particular. A partir de la intensidad obtenida Sa/g, se ingresa a la curva de peligro asociada al periodo fundamental de la estructura para obtener el parámetro (r) que representa el peligro sísmico para el estado límite en evaluación ( Cˆ ). Estos valores de b y r se muestran en la tabla 4. Tabla 3. Valores de la mediana y desviación estándar de la Capacidad del edificio de 5 y 10 niveles para los diferentes estados límite

SERVICIO SEGURIDAD DE VIDA COLAPSO

SERVICIO SEGURIDAD DE VIDA COLAPSO

Figura 9 ADI’s: Curvas de Análisis Dinámicos Incrementales. SERVICIO

En las figuras 9a, 9b y 9c se muestran resultados de ADI. En las curvas muestran los puntos correspondientes a los estados limite servicio (primera fluencia de la estructura), seguridad de vida (el punto promedio entre la intensidad de colapso y servicio) y colapso (un instante antes de que la demanda se dispare). Los valores de la

72

SEGURIDAD DE VIDA COLAPSO

(̂) Sa/g (̂) Sa/g (̂) Sa/g

(̂) Sa/g (̂) Sa/g (̂) Sa/g

(̂) Sa/g (̂) Sa/g (̂) Sa/g

5 NIVELES Mediana. Desviación Estándar 0.0018 0.031 0.17 0.011 0.014 0.260 0.43 0.13 0.0319 0.245 0.70 0.26 10 NIVELES Mediana. Desviación Estándar 0.0066 0.106 0.37 0.045 0.0198 0.111 1.28 0.387 0.0388 0.245 2.20 0.76 15 NIVELES Mediana. Desviación Estándar 0.0041 0.086 0.20 0.014 0.0255 0.176 1.74 0.431 0.0511 0.059 3.28 0.86


ESTADO LÍMITE SERVICIO SEGURIDA D DE VIDA CERCANO AL COLAPSO

Tabla 4. Valores de b y r

a la capacidad y demanda que se indican en la tabla 5 correspondientes a los edificios de 5, 10 y 15 niveles.

5 NIVELES r b 1.3 1.9 2.6 1.9

10 NIVELES r b 2.0 0.95 3.4 0.95

15 NIVELES r b 1.6 1.04 2.8 1.04

3.8

3.4

2.8

1.9

0.95

1.04

Para poder obtener los factores de capacidad y demanda se utilizaron las incertidumbres asociadas

, epistémicas

Tabla 5. Incertidumbres aleatorias

EDIFICIO

5 NIVELES 10 NIVELES 15 NIVELES

ESTADO LÍMITE

SERVICIO SEGURIDAD DE VIDA CERCANO AL COLAPSO SERVICIO SEGURIDAD DE VIDA CERCANO AL COLAPSO SERVICIO SEGURIDAD DE VIDA CERCANO AL COLAPSO

Con los parámetros de b, r y las incertidumbres obtenidos, se calcula tanto el factor de reducción de la capacidad ( ), el factor de incremento de la demanda ( ), mediante las ecuaciones 2 y 3. Los valores de y se presentan en las tablas 6 a, b y c, para los estados límite de interés. Como era de esperarse, el factor es menor que uno; mientras que es mayor que uno, en todos los casos.

CAPACIDAD Epistémicas

Aleatoria s 0.031 0.376 0.245 0.106 0.111 0.245 0.086 0.176 0.059

Tabla 6. Factores de capacidad

y totales Totales

Aleatorias

DEMANDA Epistémicas

Totales

0.041 0.264 0.182 0.051 0.135 0.183 0.047 0.154 0.126

0.02 0.43 0.61 0.02 0.43 0.61 0.004 0.30 0.29

0.20 0.35 0.35 0.20 0.35 0.35 0.20 0.35 0.35

0.041 0.310 0.495 0.041 0.310 0.495 0.040 0.214 0.204

0.20 0.35 0.35 0.20 0.35 0.35 0.20 0.35 0.35

  , demanda  

a) Edificio de 5 niveles

Estado límite SERVICIO SEGURIDAD DE VIDA CERCANO AL COLAPSO

FACTORES Capacidad Demanda ( ) ( ) 0.99 1.01 0.83 1.24 0.837 1.62

de capacidad y demanda.

y confianza (

MEDIANA Capacidad Demanda (̂) ( ̂) 0.0018 0.0017 0.0131 0.0064 0.0319 0.0134

̂)

(

)

0.0018 0.011 0.027

Factor de confianza ( ) 1.01 1.44 1.31

̂)

(

0.0017 0.008 0.021

b) Edificio de 10 niveles

Estado límite SERVICIO SEGURIDAD DE VIDA CERCANO AL COLAPSO

FACTORES Capacidad Demanda ( ) ( ) 0.95 1.05 0.79 1.28 0.721 1.39

MEDIANA Capacidad Demanda (̂) ( ̂) 0.0066 0.0057 0.0198 0.0101 0.0388 0.0173

(

̂)

(

̂)

0.0063 0.016 0.028

(

̂)

(

̂)

0.0059 0.013 0.024

c) Edificio de 15 niveles

Estado límite SERVICIO SEGURIDAD DE VIDA CERCANO AL COLAPSO

FACTORES Capacidad Demanda ( ) ( ) 0.96 1.03 0.81 1.33 0.844 1.32

MEDIANA Capacidad Demanda (̂) ( ̂) 0.0041 0.0027 0.0255 0.0140 0.0511 0.0274

0.0039 0.021 0.043

0.0028 0.019 0.036

Nivel de confianza (Kx) 63% 85% 86%

Factor de confianza ( ) 1.05 1.21 1.17

Nivel de confianza (Kx) 78% 94% 93%

Factor de confianza ( ) 1.40 1.11 1.20

Nivel de confianza (Kx) 96% 91% 93%

73


8. COMENTARIOS CONCLUSIONES

FINALES

Y

Se calcularon los factores de capacidad y demanda implícitos en un edificio de concreto reforzado de 5, 10 y 15 niveles ubicado en terreno blando de la Cd. de México (Zona IIIb), con periodo fundamental de vibrar menor que el periodo dominante del suelo (alrededor de 1.5 s) En las tablas 6 a, b y c se observa que los factores y dan valores razonables tanto para la capacidad como para la demanda. Estos valores reflejan el nivel de incertidumbre asociado a cada edificio y para distintos estados límite. A partir de los factores de confianza, mediante la ecuación 8, se obtuvieron los valores de los niveles de confianza para ambos edificios y para cada estado límite. Los valores obtenidos se ubican entre el 63% y el 86% para el edificio de 5 niveles, entre el 78% y 93% para el edificio de 10 niveles y entre el 91% y 96% para el de 15 niveles. Los resultados indican que los edificios de 5 y 10 niveles diseñados con el RCDF2004 tienen un nivel de confianza más alto para satisfacer el nivel de desempeño por colapso que para satisfacer el estado límite de servicio, mientras que el de 15 niveles sucede lo contrario. Esto es congruente con el hecho de que para estructuras de periodo corto generalmente rigen las deformaciones máximas de entrepiso por servicio, mientras que para las de periodo largo rigen las asociadas a colapso. Es deseable que se aplique el procedimiento de evaluación de factores de seguridad y de la confiabilidad estructural aquí descrito a otro tipo de estructuras, así como a edificios ubicados en otras zonas símicas de la ciudad de México y del país. 9. AGRADECIMIENTOS La primera autora agradece al Consejo Nacional de Ciencia y Tecnología la beca otorgada para la realización de sus estudios de Maestría. La tercera autora agradece a la DGAPA-UNAM su apoyo para realizar este trabajo. 10. REFERENCIAS Bojórquez, J. y Ruiz, S. E. (2013), Factores de carga y de resistencia para el diseño de estructuras de c/r ante cargas viva y muerta, sometido a posible publicación de la Serie I&D del Instituto de Ingeniería, UNAM

74

Campos D. y Esteva L., (1997), Modelo de Comportamiento Histerético y de Daño para Vigas de Concreto Reforzado, XI Congreso Nacional de Ingeniería Sísmica, Veracruz, México. Chan Dorado, S. M., Ruiz S. E. y Montiel, M. A., (2005), Escalamiento de acelerogramas y número mínimo de registros requeridos para el análisis de estructuras, Revista de Ingeniería Sísmica, (72), 124, enero-junio. Chan Dorado, S. M., (2003), Influencia del escalamiento de movimientos sísmicos de banda estrecha en la evaluación de la confiabilidad de edificios, Tesis de maestría, División de Estudios de Posgrado de la Facultad de Ingeniería, UNAM. Cornell C. A., Jalayer F., Hamburger R. O. y Foutch D. A., (2002), The Probabilistic Basis for the 2000 SAC/FEMA Steel Moment Frame Guidelines, Journal of Structural Engineering, ASCE, (4), 128, abril. DRAIN 2D, Powell, G. H., 1975, Supplement to computer program DRAIN-2D, Earthquake Engineering Research Center, University of California, Berkeley. Ellingwood, B. R. (1978). Reliability basis of load and resistance factors for reinforced concrete design, NBS Building Science Series 110, U.S. Department of Commerce, National Bureau of Standards, Washington. Jalayer F. y Cornell, C. A., (2003), A technical framework for probability-based demand and capacity factor design (DCFD) seismic formats, PEER Report 2003/08, Pacific Earthquake Engineering Center, University of California, Berkeley. Kent, D.C. and Park, R. (1971). Flexural members with confined concrete. Journal of Structural Division, ASCE 97 (7), 1969–1990. Meli R. (1976), Bases para los criterios de diseño estructural del proyecto del Reglamento de Construcciones para el Distrito Federal, Publicación del Instituto de Ingeniería, UNAM, No. 375, junio. Montiel M. A., (2006), Confiabilidad implícita en estructuras convencionales como base para establecer criterios para el diseño sísmico de estructuras reforzadas con disipadores de energía, Tesis de Doctorado presentado en el Posgrado de Ingeniería, UNAM.


Montiel M.A. y S. E. Ruiz (2006), Seismic design method for reliability-based rehabilitation of buildings. Earthquake Spectra, Vol. 22, No. 1, 189214, febrero. Montiel M.A., y S. E. Ruiz (2007), Influence of structural capacity uncertainty on seismic reliability of buildings under narrow-band motions. Earthquake Engineering and Structural Dynamics. Vol. 36, 1915-1934. Park, R., Priestley M. J. N. and Gill, W. D. (1982). Ductility of square confined concrete columns. Journal of Structural Division, ASCE 108 (4), 929– 950. RCDF-(2004), Reglamento de Construcciones del Distrito Federal, Gaceta Oficial. Vamvatsikos D y Cornell C. A. (2002a), Incremental dynamic analysis, Earthquake Engineering and Structural Dynamics, 31, 491-514. Vamvatsikos D y Cornell C. A., (2002b), The incremental dynamic analysis and its application to performance-based earthquake engineering, Proceedings of the 12th European Conference on Earthquake Engineering, Artículo 479. London, UK. Villa Velázquez, C. y Ruiz, S. E., (2001), Influencia de la intensidad en las características de los movimientos registrados en el Valle de México, México, D. F. Villa Velázquez, C. I., (2001), Análisis de movimientos sísmicos registrados en el valle de México. Tesis, Facultad de Estudios Superiores ACATLÁN, UNAM.

75


Método para evaluar la fatiga en puentes de concreto presforzado ante carga de vehículos pesados Method for the assessment of fatigue in prestressed concrete bridges due to heavy vehicles loads

J. L. Medina García, División de Investigación y Posgrado. Facultad de Ingeniería. Universidad Autónoma de Querétaro. jl.medinagarcia@ugto.mx

G. M. Arroyo Contreras, División de Investigación y Posgrado. Facultad de Ingeniería. Universidad Autónoma de Querétaro. marroyoc@uaq.mx

C. S. López Cajún, División de Investigación y Posgrado. Facultad de Ingeniería. Universidad Autónoma de

Querétaro. cajun@uaq.mx E. Betanzo Quezada, División de Investigación y Posgrado. Facultad de Ingeniería. Universidad Autónoma de Querétaro. edbeq@uaq.mx M. A. Pérez Lara y Hernández, División de Investigación y Posgrado. Facultad de Ingeniería. Universidad Autónoma de Querétaro. migperez@uaq.mx RESUMEN. Debido al desarrollo constante y el crecimiento de la economía, la demanda vehicular de carga pesada ha presentado un incremento constante, tanto en el flujo vehicular como en cargas que transportan, lo cual está provocando un comportamiento desfavorable en las vías terrestres sobre las que transitan, algunas de ellas fueron diseñadas para cargas menores que las demandas actuales. Por lo anterior, en este trabajo se presenta un método para evaluar la vida remanente ante fatiga de puentes de concreto presforzado, retomando la experiencia de la metodología desarrollada para la evaluación ante fatiga de puentes de acero (Bárcenas, 2011, Herrada 2013), misma que ha sido sistematizada a través del programa denominado "Diagnostico estadístico, efectos de fatiga y extremos en puentes ante cargas de tráfico pesado, DEEFEP" desarrollado en lenguaje C++ (Bárcenas, 2011 y Herrada 2013). El método propuesto para el cálculo de fatiga en puentes de concreto presforzado se describe de la siguiente manera: a) se toma primero en cuenta las cargas dinámicas de los vehículos pesados obtenidos mediante el pesaje en movimiento (Weigh in Motion, WIM), de autopistas de Francia, de uno y dos carriles; b) a través de las líneas y/o superficies de influencia, se obtienen los elementos mecánicos críticos, c) se determinan los esfuerzos en el concreto y a su vez, en el cable de presfuerzo, realizando un conteo de ciclos de esfuerzos y utilizando la Curva S-N exclusiva para cables de presfuerzo, d) se obtiene la resistencia a fatiga para los ciclos de esfuerzos presentados en el puente ante la muestra de tráfico utilizado y aplicando la Regla de Daño Acumulado de Miner se deduce la vida remanente a fatiga. Finalmente, la contribución más importante de este trabajo es el estudio del comportamiento de puentes presforzados ante fatiga y su vida remanentes; en particular, el desarrollo de un método para evaluación de fatiga en elementos de concreto presforzado y la implementación de algoritmos que permitan su sistematización e integración en la metodología sistematizada del programa DEEFEP. Palabras clave. Fatiga, puente, concreto presforzado, cables de presfuerzo, WIM. ABSTRACT. Due to the development and the economy’s growth demand a constant increase in heavy vehicle traffic has presented unfavorable behavior of the roads and highways that they use, some of which were designed for lower loads than the current demands. Hence, in this work, we present a method to assess the remaining life before the fatigue of the prestressed concrete bridges, retaking the experience in the development methodology for the assessment by fatigue in the steel bridges (Bárcenas, 2011 y Herrada, 2013). Such method is the systematized software called “Extreme statistical diagnose of the fatigue effects in prestressed concrete bridges caused by heavy vehicle loads” (Diagnóstico estadístico, efectos de fatiga y extremos en puentes ante cargas de tráfico pesado, DEEFEP) language programming development C++ (Bárcenas, 2011 y Herrada 2013). a) First, it is taken into consideration the dynamic loads of the heavy vehicles obtained by means of the passing traffic (Weigh in Motion, WIM) for one and two lanes of French highways; b) the proposed methodology for the assessment of the remaining fatigue life in prestressed concrete bridges is described as follows: through the influence lines or surfaces, we obtain the ultimate mechanical elements; c) at once, we determine the concrete stresses and the pre-stressed strands stresses, then, we apply a stresses cycle count, we use the S-N Curve exclusively for the prestressed strands; d) finally, we obtain the fatigue limit for the stress cycles presented in the bridge for the traffic sample utilized, and by applying the Miner Cumulative Damage Rule we deduce the remaining fatigue life. Finally, the most important contribution of this work is to study the behavior of prestressed bridges to fatigue and remaining life, in particular the development of a method for assessment of fatigue in prestressed concrete elements and implementation of algorithms for systematization and integration into the methodology systematized in the software DEEFEP. Key words. Fatigue, bridge, prestressed concrete, prestressed strands, WIM.

76


1.

INTRODUCCIÓN.

La demanda que presenta actualmente un gran número de vías de comunicación conlleva un deterioro significativo de la infraestructura vial, los puentes como eslabón clave de ésta se ven dañados en gran medida y dado que el deterioro estructural de éstos puede originar problemas más significativos, esta investigación se enfoca en determinar los efectos de las cargas cíclicas del tráfico pesado en las trabes de puentes de concreto presforzado. El 62% de los puentes tienen en servicio más de 30 años (SIPUMEX, 2010), por lo que, debido a diversos factores climáticos y de servicio las condiciones estructurales actuales difieren de las óptimas para su operación. Aunado a lo anterior, las cargas vehiculares actuales difieren considerablemente en peso y configuración de las que se usaron para el diseño de estos puentes por lo que el daño provocado por el paso de éstas debe ser mayor al esperado. El desarrollo de este trabajo se sustenta en la línea de investigación de Modelación analítica y experimental de sistemas físicos tipo puentes, que viene siendo tratado por el Cuerpo Académico de Estructuras-ConstrucciónTransporte de la Facultad de Ingeniería. La tesis de Bárcenas (2011), es uno de los primeros trabajos, donde se sistematiza la metodología de efectos de fatiga producidos por tráfico vehicular pesado en puentes de acero, tratando las cargas vivas de tráfico pesado del sistema de pesaje en movimiento (Weigh in motion, WIM), ofreciendo un valor más preciso de las cargas que son aplicadas en el puente, se utiliza el Método de Rainflow para el conteo de ciclos de esfuerzos y usando la Regla de Daño Acumulado de Miner para el daño acumulado, ambos criterios sustentados en el Eurocódigo. Una segunda contribución es la tesis de Herrada (2013), donde se sistematizan el cálculo de las superficies de influencia, que toman en consideración los efectos producidos por varios carriles simultáneamente. En esta metodología ya sistematizada se integra el modelo de fatiga en puentes presforzados, propuesto por este trabajo, como una tercera etapa de desarrollo del programa. En la evaluación de la fatiga en cables presforzados, se consideran las pérdidas de presfuerzo y las condiciones de agrietamiento en que pueda estar la sección transversal de la trabe, ambas fundamentales para determinar los esfuerzos en el acero de presfuerzo, el cual rige el comportamiento a fatiga en elementos de concreto presforzado como lo demuestran investigaciones anteriores.

atribuidas a la fatiga (ACI 215, 1992), no se ha propuesto una metodología para evaluar la vida a fatiga en puentes de concreto presforzado en los reglamentos de diseño para puentes, sin embargo dadas las nuevas características de carga, así como el diseño basado en esfuerzos mayores se recomienda determinar los daños que pudiera ocasionar la fatiga (ACI 215, 1992). 2.

MARCO TEÓRICO DEL MÉTODO PARA EVALUAR LA FATIGA EN ELEMENTOS DE CONCRETO PRESFORZADO.

En este trabajo de investigación se propone un método para el cálculo de la vida ante fatiga de puentes de concreto presforzado (Figura 1), desarrollando algoritmos que permitan integrarse al software DEFEEP, éste integra la sistematización para el análisis de fatiga en puentes de acero (Bárcenas, 2011 y Herrada, 2013). A continuación se retoman algunos métodos presentados en el libro “Ponts Métalliques et Mixtes (SETRA, 1996)”, sustentados en el Eurocode 3 (2003) para evaluar la vida a fatiga en puentes carreteros de acero, como es la Regla de Miner.

Propiedades mecánicas de los materiales

Dimensiones del puente y de la sección de la trabe

Cargas vehiculares de pesaje dinámico (WIM)

Líneas o superficies de influencia

Pérdidas de presfuerzo

Esfuerzos en el concreto (Sección Agrietada)

Esfuerzos en el concreto (Sección no Agrietada)

Esfuerzos en el acero de presfuerzo

Rango de esfuerzos

Curva S-N de Hangenberger

Regla de daño acumulado de Miner

Vida a fatiga

Figura 1. Método para evaluar la fatiga en puentes de concreto presforzado.

Debido a que en América del Norte no se han reportado fallas estructurales en puentes de concreto presforzado

77


2.1. Cargas de pesaje dinámico (Weigh in Motion, WIM). El pesaje en movimiento (Weigh in motion, WIM) está definido por la American Society for Testing and Materials (ASTM E1318-02, 2002) como un proceso mediante el cual se realiza la medición de las fuerzas dinámicas de los neumáticos de un vehículo en movimiento y estimación de las correspondientes cargas por neumático del vehículo estático. Los sistemas WIM son capaces de estimar el peso bruto de un vehículo, así como las cargas por eje o por grupo de ejes. Por lo tanto, el sistema WIM convierte a una vialidad en una balanza que pesa el tráfico mientras fluye (Jacob y Eymard, 1989). Dicho sistema ofrece un mejor panorama de las variables aleatorias del tráfico vehicular. Como consecuencia, los efectos de fatiga en puentes, determinados a partir de escenarios de cargas vehiculares reales, son más representativos que aquellos determinados a partir de datos de tráfico generado artificialmente (Getachew, 2003). 2.2. Líneas y superficies de influencia. Las líneas de influencia son un método mediante el cual se pueden considerar cargas dinámicas como cargas estáticas, esto se logra al ubicar las cargas puntuales por eje de los vehículos en diferentes posiciones sobre la trabe, por lo que se obtienen los diagramas de los elementos mecánicos producidos para cada posición, mediante el trazado de la envolvente se obtiene el punto donde se producen los elementos mecánicos máximos y con ello se puede ubicar y posteriormente analizar la sección más crítica. El programa DEEFEP utiliza los principios elástico lineal aplicando el método de los tres momentos para determinar los elementos mecánicos en la trabe, éstos fueron sistematizados por Bárcenas (2011). Herrada (2013) sistematizó las superficies de influencia la cual está fundamentada en un análisis de la sección transversal de la superestructura análogo al método para determinar los esfuerzos en una sección, suponiendo una distribución lineal de la contribución de las cargas de cada vehículo que se presente simultáneamente sobre la trabe analizada, este método es mencionado en la AASHTO LRFD (2007), en esta etapa de desarrollo del programa solo aplica las superficies de influencia si la sección transversal del puente está compuesto por dos trabes y si se cuenta con información del tráfico vehicular de más de 1 carril. 2.3. Perdidas de presfuerzo. La fuerza pretensora en el cable de presfuerzo no es constante en el tiempo debido a pérdidas, éstas se

78

clasifican como instantáneas que son: acortamiento elástico del concreto; y pérdidas en el tiempo: contracción del concreto, escurrimiento plástico del concreto y relajamiento del acero. Para el cálculo de las pérdidas de presfuerzo se utiliza lo indicado en el PCI Design Handbook (2004). Las pérdidas totales quedan definidas por la ecuación (1) donde las pérdidas relativas al tiempo están en función de este.

T .L.  ES  CRt   SH t   RE t 

(1)

Donde: ES → pérdidas por acortamiento elástico del concreto. CR → pérdidas por escurrimiento plástico del concreto. SH → pérdidas por contracción del concreto. RE → pérdidas por relajación del acero de presfuerzo. 2.3.1.

Acortamiento elástico del concreto

Debido a la aplicación de una fuerza de compresión en el elemento de concreto, éste presenta un acortamiento, ya que trabaja dentro de su rango elástico lineal, el cual provoca una disminución en la deformación unitaria inicial del acero de presfuerzo, por lo que los esfuerzos en el acero disminuyen.

ES  K es E p

f cir Ec

(2)

Donde: Kes → 1.0 para elementos pretensados. Ep → módulo de elasticidad del acero de presfuerzo. Ec → módulo de elasticidad del concreto de la trabe. fcir → esfuerzo en el centroide del acero de presfuerzo inmediatamente después de la aplicación de la fuerza de presfuerzo, definido por la ecuación (3).

 P P e 2  M pp e ss f cir  K cir  i  i ss   I c , ss  Ac , ss I c , ss 

(3)

Donde: Kcir → 0.9 para elementos pretensados. Pi → fuerza de presfuerzo inicial. ess → excentricidad del centroide del cable de presfuerzo en sección simple. Ac,ss → área de la sección simple. Ic,ss → momento de inercia de la sección simple. Mpp → momento por peso propio y cargas permanentes actuantes al momento de aplicación de la carga de presfuerzo. 2.3.2.

Escurrimiento plástico del concreto

El escurrimiento plástico es un fenómeno relacionado con la aplicación de una carga. Se trata esencialmente de un


fenómeno de deformación bajo carga continua, debido a un reacomodo interno de las partículas que ocurre al mismo tiempo que la hidratación del cemento (Gonzáles y Robles, 2005). CRt   C t

Ep Ec

f

cir

 f cds 

(4)

Donde: Ct → coeficiente de escurrimiento plástico en función del tiempo, definido por la ecuación (5) (Hangenberger, 2004). fcds → esfuerzo en el centroide del acero de presfuerzo por cargas permanentes después de la aplicación de la fuerza de presfuerzo, definido por la ecuación (6). Ct 

t 0.6 Cu 10  t 0.6

(5)

Donde: Cu → coeficiente de escurrimiento plástico último = 2.35. t → tiempo en días desde la aplicación de la fuerza de presfuerzo.

f cds 

M sd e Ic

(6)

Donde: e → excentricidad del cable de presfuerzo. Ic → momento de inercia de la sección. Msd → momento por peso propio y cargas permanentes actuantes después de la aplicación de la carga de presfuerzo. 2.3.3.

t  shu 35  t

(8)

Donde: εshu → deformación ultima por contracción del concreto = 8.2 x 10-6. t → tiempo en días desde la aplicación de la fuerza de presfuerzo. 2.3.4.

Relajación del acero de presfuerzo

La relajación del acero se produce cuando está sometido a una tensión constante, experimentando un reacomodo y rompimiento interno de partículas.

RE t   Kre  J SH t   CRt   ES C

(9) Donde: Kre → valor de Tabla 1. J → valor de Tabla 1. C → coeficiente definido por las ecuaciones (10) a (14). Para cables con relevo de esfuerzos 0.75 

f pi f pu

 0.70 :

 f  C  1  9 pi  0.7   f   pu  f 0.70  pi  0.51 : f pu

Las deformaciones por contracción se deben esencialmente a cambios en el contenido de agua del concreto a lo largo del tiempo, el agua de la mezcla se va evaporando e hidrata el cemento, esto produce cambios volumétricos en el elemento de concreto (Gonzáles y Robles, 2005). Al encontrarse perfectamente adherido el concreto con el acero de presfuerzo este presenta de la misma manera una disminución en su deformación unitaria inicial, lo cual provoca una disminución de los esfuerzos en el acero de presfuerzo.

 f pi    f  pu   0.55  C 0.19147  0.85       f pi  0.51 : f pu

(10)

f pi

Contracción del concreto

V  SH t    sh K sh E p 1  0.06 100  R.H . S 

 sh 

f pu

(11)

f pi C

f pu

(12)

3.83

Para cables de baja relajación (7)

Donde: Ksh → 1.0 para elementos pretensados. V/S → relación volumen - superficie. εsh → deformación por contracción como función del tiempo, definida por la ecuación (8) (Hangenberger, 2004). R.H. → promedio de la humedad relativa ambiental.

f pi f pu

 0.54 :

79


f pi

f pi f pu

La losa de concreto reforzado usualmente es de una resistencia a la compresión menor que el elemento de presfuerzo, el módulo de elasticidad también lo es. Para el análisis de la sección se transforma la losa en concreto de la viga equivalente, para obtener una sección con propiedades de los materiales uniformes, esto se realiza a través de la relación de módulos, el cual queda definido por la ecuación (15) a (17), se realiza el mismo procedimiento para transformar el acero de presfuerzo y el acero de refuerzo en concreto de la viga equivalente.

(13)

 0.54 :

f pi C

(14)

f pu

4.25 Donde: fpi → Pi/Ap. fpu → esfuerzo último del acero de presfuerzo.

nl 

Tabla 1. Coeficientes Kre y J (PCI Design Handbook, 2004). Tipo de tendón Alambre o Cable relevado de esfuerzos Grado 270 Alambre o Cable relevado de esfuerzos Grado 250 Alambre relevado de esfuerzos Grado 240 o 235 Cable de baja relajación Grado 270 Cable de baja relajación Grado 250 Alambre de baja relajación Grado 240 o 235 Varilla relevada de esfuerzos Grado 145 o 160

Kre (psi)

J

20,000

0.15

18,500

0.14

17,600

0.13

5,000

0.040

4,630

0.037

4,400

0.035

6,000

0.050

2.4. Secciones transversales de concreto presforzado en puentes 2.4.1.

2.4.2.

80

Sección transformada

(15)

Donde: Ecl → módulo de elasticidad del concreto de la losa. Ec → módulo de elasticidad del concreto de la trabe.

np 

Ep

(16)

Ec

Donde: Ec → módulo de elasticidad del concreto de la trabe. Ep → módulo de elasticidad del acero de presfuerzo.

ns 

Es Ec

(17)

Donde: Es → módulo de elasticidad del acero de refuerzo. Ec → módulo de elasticidad del concreto de la trabe.

bequ nlbeqhl

a)

Sección compuesta

La mayoría de las superestructuras de los puentes de concreto presforzado están compuestas por vigas "I" o cajón y losa de concreto reforzado. Por las condiciones que debe cumplir el refuerzo de la trabe embebido en la losa, se considera la losa unida o conectada con el elemento de presfuerzo, esto se denomina sección compuesta. La consideración de que la sección plana permanece así después de ocurrida la flexión sigue siendo válida para el total del peralte de la sección compuesta en todas las etapas de carga hasta la capacidad ultima (PCI Bridge Design Manual, 2003). El ancho equivalente de losa, este ancho equivalente de la losa viene especificado en el AASHTO LRFD 4.6.2.6.1 (2007).

Ecl Ec

hl

 f pi    f  pu   0.55  C 0.2125  0.9       f pu

b) npAp nsAs

Figura 2. a) Sección transversal simple de la trabe, b) Sección transversal compuesta y transformada de la trabe. 2.4.3.

Sección agrietada

El módulo de ruptura es una medida de la resistencia en tensión a la flexión del concreto, la indicada en el AASHTO LRFD (2007) está definida por la ecuación (18). Dado que se recomienda obtener este parámetro en base a pruebas, los reglamentos manejan valores


diferentes, sin embargo los recomendados en el AASHTO LRFD (2007) y en el PCI Bridge Design Manual (2003) son muy similares. f r  0.63 f 'c Mpa 

(18)

Pe → fuerza de presfuerzo efectiva. Ap → área del acero de presfuerzo. La deformación el acero que se encuentra en el rango elástico lineal se obtiene mediante la ecuación (21).

Donde: f'c → resistencia a la compresión del concreto de la trabe. 2.5. Esfuerzos en el cable de presfuerzo bajo condiciones de servicio 2.5.1.

Sección de concreto no agrietada

El análisis de elementos de presfuerzo se realiza aplicado la teoría elástica de vigas (elementos prismáticos), teniendo como base las siguientes hipótesis: la distribución de deformaciones unitarias en la sección transversal de un elemento es plana; no existen corrimientos relativos de consideración entre el acero y el concreto que lo rodea y el concreto no resiste esfuerzos de tensión longitudinales (Gonzáles y Robles, 2005). Basado en esta teoría se obtiene la fórmula de esfuerzos combinados para determinar los esfuerzos elásticos en el concreto sin agrietar en la ubicación del centroide del acero de presfuerzo, esta queda definida por la ecuación (19). En esta ecuación se toma en cuenta que la losa no se encuentra bajo los efectos del presfuerzo. f c,e

M pp e ss M CM  CV e sc P Pe  e  e   Ac , ss I c , ss I c , ss I c , sc 2 ss

(19)

Donde: Pe → fuerza de presfuerzo efectiva. ess → excentricidad del cable de presfuerzo en sección simple. esc → excentricidad del cable de presfuerzo en sección compuesta. Ac,ss → área de la sección simple no agrietada. Ic,ss → momento de inercia de la sección simple no agrietada. Ic,sc → momento de inercia de la sección compuesta no agrietada. Mpp → momento por peso propio. MCM+CV → momento por cargas muertas y cargas vivas. La determinación de los esfuerzos en el cable de presfuerzo en el rango elástico lineal en la sección no agrietada se obtiene mediante las deformaciones unitarias en el acero de presfuerzo. La primera deformación es por la aplicación de la fuerza pretensora el acero tiene una esfuerzo inicial definido por la ecuación (20).

f p1  f pe  Donde:

Pe Ap

(20)

 p1 

f p1 Ep

(21)

Donde: fp1 → esfuerzo en el acero de presfuerzo debido a la fuerza pretensora. Ep → módulo de elasticidad del acero de presfuerzo. La segunda deformación es la producida por las cargas totales, definida por la ecuación (22).  p2 

fc,e Ec

(22)

Donde: fc,e → esfuerzo en el concreto en la ubicación del centroide del acero de presfuerzo. Ec → módulo de elasticidad del concreto de la trabe. Los esfuerzos en el acero de presfuerzo quedan definidos por la ecuación (23). f ps  E p  p1   p 2 

(23)

Donde: εp1 → deformación unitaria en el acero de presfuerzo por fuerza pretensora. εp2 → deformación unitaria en el acero de presfuerzo por cargas totales. Ep → módulo de elasticidad del acero de presfuerzo. 2.5.2.

Sección de concreto agrietada

La trabe agrietada o en la que se presentar esfuerzos de tensión se puede considerar como parcialmente presforzada. Bajo el estado de la totalidad de cargas de servicio, las vigas parcialmente presforzadas se agrietan, aunque por lo general tanto los esfuerzos en el concreto como en el acero permanecen dentro del rango elástico (Nilson, 1997). Nilson (1997) presenta un método para calcular los esfuerzos en secciones agrietadas, con la limitante que no es para secciones compuestas, por lo que solo son válidas las primeras dos etapas de carga, para los esfuerzos en la tercera etapa se utilizara la técnica presentada por Mast (1998) para calcular los esfuerzos en la sección agrietada transformada y compuesta. Se toman las siguientes consideraciones: que la sección de concreto se encuentra agrietada; que tanto el concreto como el acero se han esforzado solamente dentro de sus rangos elásticos y que

81


c2

e

dp

y

c1

puede despreciarse la contribución del concreto a tensión. El método consiste en tres etapas, las cuales son descritas a continuación. 2 Centroide del concreto no agrietado Eje neutro del concreto agrietado

3

1

Ap ep3 a)

ep2

ep1

b)

Figura 3. Bases para el análisis de la sección agrietada. a) Sección transversal agrietada. b) Deformaciones en el concreto y en el acero de presfuerzo en cada etapa (Nilson, 1997). Etapa 1: El estado de deformaciones 1 mostradas en la Figura 3b son el resultado de la aplicación de la fuerza de presfuerzo efectiva sobre el acero de presfuerzo únicamente. En esta etapa de carga el esfuerzo en el acero de presfuerzo queda definido por la ecuación (24). f p1  f pe 

Pe Ap

(24)

Etapa 2: la siguiente etapa de carga a considerar es un estado que corresponde a una descompresión completa, en la cual los esfuerzos en el centroide del acero de presfuerzo son nulos, esta deformación en el acero de presfuerzo está definida por la ecuación (25).

1 Ec

 Pe Pe ess2   A I c , ss  c , ss

   

(25)

Donde: Pe → fuerza de presfuerzo efectiva. Ac,ss → área de la sección simple no agrietada. Ec → módulo de elasticidad del concreto de la trabe. ess → excentricidad del cable de presfuerzo en sección simple. Ic,ss → momento de inercia de la sección simple no agrietada. El cambio de la deformación en el tendón es el mismo que el del concreto al mismo nivel, y se puede calcular con base en las propiedades de una sección de concreto sin agrietar. Debido a la compatibilidad de deformación en el concreto y el acero de presfuerzo, el esfuerzo en el acero para esta etapa queda definido por la ecuación (26).

82

(26)

Donde: εp2 → deformación unitaria en el acero de presfuerzo en la etapa 2. Ep → módulo de elasticidad del acero de presfuerzo. Etapa 3: Con base al método propuesto por Mast (1998) se obtienen los esfuerzos en el acero de presfuerzo, definidos por la ecuación (27).  Peq M int d p  c1cr , sc    f p3  n p   A  I cr , sc  cr , sc 

(27)

Donde: Mint → momento interno. dp → ubicación del centroide del acero de presfuerzo respecto a la fibra superior de la sección compuesta. c1cr,sc → distancia del centroide a la fibra superior de la sección compuesta agrietada. Acr,sc → área de la sección compuesta agrietada. Icr,sc → momento de inercia de la sección compuesta agrietada. Peq → fuerza equivalente. np → relación de módulos de elasticidad entre el acero de presfuerzo y el concreto de la trabe. 2.6. Curva S-N para cable de presfuerzo Grado 270.

Donde: Pe → fuerza de presfuerzo efectiva. Ap → área del acero de presfuerzo.

 p2 

f p2  E p p2

Hangeberger (2004) realizó pruebas de carga cíclica a 6 trabes de concreto presforzado y cables de presfuerzo Grado 270, de un cuarto de escala de un puente real estudiado. Las pruebas se realizaron con cargas similares y las condiciones que experimentan los puentes en servicio, estas pruebas consistieron en la aplicación de un momento flexionantes de forma cíclica, hasta obtener la falla. Con base a los datos obtenidos en sus pruebas y retomando los datos reportados por Pulson et al (1983) Hangeberger propone la curva S-N mostrada en la Figura 4, la cual es más conservadora que las propuestas por Paulson et al (1983). Esta curva S-N queda definida por la ecuación (28), con base a esto se puede observar que el límite de fatiga es de 5 ksi.

LogN   8.8  2.3LogSr  Donde: N → numero de ciclos a la falla. Sr → rango de esfuerzos.

(28)


ni → numero de ciclos presentados en la estructura para un i rango de esfuerzos. Ni → numero de ciclos en el que ocurre la falla para un i rango de esfuerzos.

Rango de esfuerzos, Sr (ksi)

100

10

1 1.E+04 1.E+05 1.E+06 1.E+07 1.E+08 Numero de ciclos, N

Figura 4. Curva S-N para cables de presfuerzo Grado 270 (Hangenberger, 2004). Debido a la diversidad de datos usados de diferentes pruebas utilizadas por Hangenberger para su curva S-N propuesta, no es posible establecer un esfuerzo medio definido para ésta, sin embargo, dado que los resultados son obtenidos para puentes diseñados con el reglamento AASHTO, el cual es el mismo usado en México, se hará la consideración de que el esfuerzo medio es igual al que se presentan en los puentes mexicanos. 2.7. Regla de acumulación de daño de Miner Dado que se presentan rangos de esfuerzos de valores variables es necesario aplicar la Regla de acumulación de daño de Miner, esta es una regla empírica no obstante, la regla de Miner aparece como método de cálculo a fatiga bajo cargas de amplitud variable en la mayor parte de las normas del mundo (López et al, 2006), la cual indica lo siguiente: el daño total en el elemento sujeto a fatiga es igual a la suma de los daños para cada nivel de rango de esfuerzos presentado en la estructura (ecuación (29)).

Finalmente, la vida a fatiga o vida remanente se obtiene al sacar la inversa del número de Miner, definida por la ecuación (30).

Vida _ fatiga 

1 D

(30)

Con lo anterior, se puede predecir el número de años que faltan antes de que un elemento estructural presente los primeros agrietamientos. 3.

SISTEMATIZACIÓN DEL MÉTODO PARA EVELUAR LA FATIGA EN ELEMENTOS PRESFORZADOS

El programa DEEFEP en su versión de desarrollo actual cuenta con dos módulos, cuyas funciones están detalladas por Bárcenas (2011) y Herrada (2013). A manera de resumen, el módulo 1 realiza el análisis estadístico de las cargas vehiculares y el módulo 2 realiza la evaluación la vida a fatiga para puentes de acero. Dado que elementos de la metodología para la evaluación de puentes de acero son aplicables para puentes de concreto presforzado se utilizaron estas herramientas ya sistematizadas para el desarrollo del “Módulo 3: Fatiga en puentes de concreto presforzado”. El Modulo 3 queda conformado por el sub-módulo de cálculo de los esfuerzos en el acero de presfuerzo y sub-módulo de cálculo de la fatiga en acero de presfuerzo. 3.1. Sistematización del cálculo de los esfuerzos en el acero de presfuerzo (Sub-módulo 3A)

Figura 5. Acumulación de daño para diferentes rangos de esfuerzos (Eurocode 3, 2003). p

D i

ni Ni

La función principal de este sub-módulo es: a) determinar los esfuerzos en el acero de presfuerzo, tomando en cuenta las variables que intervienen en el proceso, teniéndose como base los momentos de flexión, calculados partir de líneas o superficies de influencia, b) obtener los esfuerzos máximos y mínimos que se presentan en el cable de presfuerzo, c) utilizando la función estadística del programa, obtener el histograma de rango de esfuerzos, que será utilizado para la evaluación por fatiga en el siguiente módulo.

(29)

Donde: D→ numero de Miner.

83


sometidos a los registros de WIM de autopistas y carreteras francesas, con el fin de ilustrar el funcionamiento del software así como observar el comportamiento por fatiga de puentes presforzados.

DEEFEP

Activar módulo de cálculo de esfuerzos en el cable Abrir archivo de momentos máximos Ingreso de datos de materiales, geométricos, acero de refuerzo y presfuerzo

DEEFEP

Transformación de áreas

Propiedades de la sección transformada simple no agrietada

Activar módulo fatiga en puentes de concreto presforzado

Propiedades de la sección transformada compuesta no agrietada

Histograma de Rango de Esfuerzos

Momento máximo por peso propio y por carga muerta

Ingreso de vida de puente y fracción de tiempo que representa el registro de WIM

Perdidas de presfuerzo

Curva S-N de Hangenberger

Momento por cargas vivas

Esfuerzo en la fibra inferior (fc2)

Mcv,n > Mcv,n+1

Regla de daño acumulado de Miner

No

Si fc2< Modulo de ruptura

No

Proponer ubicación de eje neutro (c)

Si

Vida a fatiga Propiedades de la sección transformada compuesta agrietada

Fin

Esfuerzo en el eje neutro (fc)

Esfuerzos en el cable de presfuerzo

fc = 0

No

Figura 7. Diagrama de flujo del cálculo de la fatiga en acero de presfuerzo.

Si Rango de esfuerzos (Sr)

Esfuerzos en el cable de presfuerzo

Fin

Figura 6. Diagrama de flujo para cálculo de los esfuerzos en el acero de presfuerzo. 3.2. Sistematización del cálculo de la fatiga en acero de presfuerzo (Sub-módulo 3B) La función de este sub-módulo es obtener el número de ciclos necesarios para llegar a la falla para los esfuerzos que se presenten en el cable de presfuerzo, mediante el uso de la Curva S-N y la regla de daño acumulado de Miner. 4.

RESULTADOS PARCIALES.

Este trabajo de investigación está en proceso de terminación, quedando pendiente el desarrollo de algunos algoritmos y su programación para poderlos aplicar y probarlos a través de algunos ejemplos de aplicación. Se cuenta con la sistematización del sub-módulo 3B, integrado en el software DEEFEP, la ventana principal se muestra en la Figura 8. El sub-módulo 3A se encuentra en desarrollo. Al término de este trabajo se analizarán dos puentes, uno francés diseñado construido en 1968 y otro mexicano diseñado con los reglamentos actuales,

84

Figura 8. Ventana del sub-módulo 3B para el cálculo de la fatiga en acero de presfuerzo del software DEEFEP. 5.

CONCLUSIONES.

Por las condiciones de esfuerzos iniciales en que se encuentran los elementos de presfuerzo, los esfuerzos mínimos que se presentan en los cables están en función de la fuerza de presfuerzo y de las cargas permanentes (muertas y peso propio), y dado que la variación de la fuerza de presfuerzo por perdidas después del primer año de construido es mínima, el método para determinar el rango de esfuerzos se simplifica a la resta del esfuerzo anteriormente indicado y al que se presenta cuando actúa


la carga viva, por este motivo no es necesario aplicar un método de conteo de esfuerzos como lo es Rainflow. La inclusión en el método de las pérdidas de presfuerzo tiene importancia con cara a investigaciones futuras en las que se pueda contar con una curva S-N que tenga definido claramente el rango de esfuerzos medios al que se hayan realizado las pruebas, aplicando así un método correctivo para determinar los efectos de fatiga de manera más precisa. 6.

POSIBLES APLICACIONES.

Se espera que el método presentado ofrezca un enfoque adecuado para evaluar la vida a fatiga en puentes de concreto presforzado. Mediante la integración en la sistematización del programa "DEEFEP", se contará con una herramienta de fácil aplicación para realizar estas evaluaciones a diversos puentes. Gracias al desarrollo de esta herramienta se podrá realizar este tipo de evaluación para puentes sobre vialidades con los que se cuenten datos de pesaje en movimiento WIM o en caso de no contar con estos se podrán ingresar registros de cargas vehiculares simuladas con base a características representativas del tráfico vehicular mexicano, conociendo de una manera más realista del estado en que se encuentra el puente y con ello tomar las medidas necesarias para que el puente se mantenga su correcto desempeño. 7.

AGRADECIMIENTOS.

Se reconoce el apoyo del CONACYT que ha permitido financiar parcialmente esta investigación, así mismo, se agradece al LCPC-Francia por la información aportada. 8.

REFERENCIAS.

AASHTO. 2007. AASHTO LRFD Bridge design specifications. 4th Edition. USA. ACI, Committee 215, 1992. Considerations for design of concrete structures subjected to fatigue loading. USA. ASTM E 1318-02. 2002. Standard Specification for Highway Weigh-in-Motion (WIM) Systems with User Requirements and Test Methods. USA. Barcenas V. 2011. Desarrollo de un programa de cómputo para el análisis estadístico de cargas vehiculares en movimiento y sus efectos de fatiga en puentes de acero. Universidad Autónoma de Querétaro. Querétaro. México.

Eurocode. 2003. Eurocode 3: Design of steel structures. Part. 1.9: Fatigue. European Union. García J. 1990. Fatiga de metales con cargas de amplitud variable por el método strain life. Universidad Autónoma de Nuevo León. Nuevo León. México. Getechew A. 2003. Traffic load effects on bridges statistical analysis of collected and Monte Carlo simulated vehicle data. Structural Engineering. Royal Institute of Technology. Stockholm. Sweden. Gonzáles O.M. y Robles F. 2005. Aspectos fundamentales de concreto presforzado. 4a edición, Editorial Limusa, México. Hangenberger M.J. 2004. Consideration of strand fatigue for load rating prestressed. University of Texas at Austin. Austin. USA. Herrada J. 2013. Sistematización del análisis del comportamiento de puentes carreteros ante escenarios de tráfico pesado. Universidad Autónoma de Querétaro. Querétaro. México. Jacob B. y Eymard R. 1989. Un nouveau logiciel: le programme Castor pour le calcul des actions et sollicitations du trafic dans les ouvrages routiers. Laboratoire Central des Ponts et Chaussées. Paris. Francia. Mast R.F. 1998. Analysis of cracked prestressed concrete sections: A practical approach. PCI Journal. July-August. 80-91. Nilson A. 1997. Diseño de estructuras de concreto presforzado. Editorial Limusa. México. Paulson C., Frank K. y Breen J. 1983. A fatigue study of prestressing strand. University of Texas at Austin. Austin. USA. PCI. 2003. PCI Bridge Design Manual, 2nd Edition. USA. PCI. 2004. PCI Design Handbook. 6th Edition. USA. SETRA. 1996. Guide de conception et de justifications, Résistance a la Fatigue, Ponts Métalliques et Mixtes. Francia. SIPUMEX. 2010. Sistema de Puentes de México. Instituto Mexicano del Transporte. Querétaro. México.

85


Análisis de la posibilidad de formación de emulsiones en las cercanías de pozos petroleros. Emulsification possibility analysis near reservoir wells

A. Quevedo Tiznado C. Fuentes Ruiz, Laboratorio de Hidráulica, División de Investigación y Posgrado de la Facultad de Ingeniería. Universidad Autónoma de Querétaro. toniokv2@gmail.com RESUMEN. En este trabajo se exponen los fundamentos teóricos y matemáticos de un modelo de flujo bifásico inmiscible a escala de poro con geometría sinusoidal basado en la teoría de lubrificación y las ecuaciones de Navier-Stokes simplificadas, con el cual se puede determinar el comportamiento dinámico del radio interfacial y un probable rompimiento de gota (snap-off) como mecanismo de formación de emulsiones. Se resuelve una ecuación diferencial parcial no lineal de cuarto orden deducida a partir de la ecuación de continuidad y conservación de masa en un sistema bifásico (Beresnev et al., 2010), con ello se obtiene la evolución del radio interfacial entre los fluidos involucrados (agua y petróleo). Los resultados muestran que la ruptura de gota se presenta prácticamente inmediatamente iniciado el flujo (en un tiempo del orden de la cienmilésima de segundo) y que la geometría tiene fuerte influencia en el tiempo en que ocurre la ruptura; empleándose, en un estudio de caso, diámetros que son representativos del medio vugular y valores de parámetros físicos, como el número capilar Ca , que simulan las condiciones que se presentan en las cercanías de pozos petrolíferos en procesos de recuperación mejorada. Palabras clave: Recuperación mejorada de petróleo, flujo inmiscible, escala de poro, snap-off, método de líneas.

1.- INTRODUCCIÓN Durante la explotación de un yacimiento se hace la distinción entre dos períodos: la recuperación primariayla recuperación secundaria. Desde el aumento del precio del petróleo a principio de los años 1970’s, se considera además una eventual recuperación terciaria, y una recuperación secundaria mejorada (Salager, 2005). Los métodos de recuperación secundarios consisten en inyectar dentro del yacimiento fluidos menos costosos que el petróleo para mantener un gradiente de presión. Estos fluidos se inyectan por ciertos pozos (inyectores) y desplazan o arrastran una parte del petróleo hacia los otros pozos (productores). La emulsificación espontánea de sistemas aceite-agua en yacimientos puede ocurrir por causa del flujo de un sistema bifásico a través de un complejo sistema de gargantas de poro interconectadas o en condiciones de mezcla turbulenta (Peña, 2009). La producción no controlada de emulsiones origina problemas y aumento en los costos de producción asociados al mantenimiento de equipos y procesos de desemulsificación que son difíciles de ejecutar. Schramm (1992) menciona que las emulsiones están presentes en casi todas las etapas de recuperación y transformación en la industria del petróleo: fluidos de perforación, producción, planta de proceso y transporte. Su

86

presencia puede causar inconvenientes operacionales como estragos en los equipos de separación de gas y grandes pérdidas de carga en las líneas de flujo. Una emulsión se define como la dispersión de gotas de un líquido (fase dispersa) en otro líquido (fase continua) con el cual no es completamente miscible (SLB, 1998). Las emulsiones en los campos petroleros se encuentran comúnmente en la forma de agua (fase dispersa) en aceite (fase continua) W/O; ocasionalmente de la forma de aceite en agua O/W (Abou-Kassem & Farouq, 1986). El estudio de la formación de emulsiones resulta de gran relevancia debido a que gran porcentaje de la producción de petróleo en el mundo se genera bajo procesos de recuperación mejorada de petróleo (EOR, por sus siglas en inglés) en el que la presencia de emulsiones es recurrente. En México el 22% de la producción petrolera se atribuye a métodos EOR (Thomas, 2007); en Brasil por ejemplo, donde este porcentaje es similar (26%), recientemente se han financiado proyectos de investigación enfocados a conocer la formación y flujo de emulsiones en la producción de petróleo, a través de PETROBRAS y el Ministerio de Ciencia y Tecnología (Philippi, 2010;CNPq, 2013). El conocimiento del proceso de formación de emulsiones dentro de yacimientos petroleros debido a la aplicación de métodos de recuperación mejorada, como lo son la


inyección de agua o soluciones alcalinas-surfactantes, ha motivado técnicas para el monitoreo de la emulsificación in-situ que van desde la modelación matemática (AbouKassem et al., 1995), modelación física (Peña et al., 2009) y de medición directa en campo mediante resonancia magnética nuclear (Bryan et al., 2009). La formación de emulsiones puede ocurrir durante el flujo bifásico dentro de los yacimientos por diversos mecanismos; la ruptura de gotas (snap-off) de la fase no mojante en el flujo a través de las gargantas de poro es uno de esos mecanismos (Bormann, 2010). Los modelos matemáticos que describen el proceso de formación de emulsiones en donde se involucra agua y petróleo han sido desarrollados principalmente desde un enfoque discreto y a escala de poro, éstos describen en su mayoría el proceso de emulsificación mediante el fenómeno de rompimiento de gota conocido como snapoff. En este trabajo se expone un modelo matemático de flujo bifásico a escala de poro con el que se obtiene la variación espacio-temporal del radio interfacial entre el agua y petróleo con base en la teoría de la lubrificación y las ecuaciones de Navier-Stokes simplificadas aplicadas al flujo inmiscible en un poro con constricción. 2.- ESTADO DEL ARTE Diversos autores han realizado estudios experimentales en modelos físicos, consistentes en tubos capilares (vidrio, acrílico, etc.) de diámetro constante y con estrechamientos, relativos a la formación de emulsiones aceite/agua (Peña et al., 2009; Peixoto, 2011) y sobre el flujo de éstas (Thorsen et al., 2001; Cobos, 2007; Roca; 2011). Por otra parte, Lima (2011), Romero (2011), Mostaghimi et al. (2012), Blunt et al. (2013), han trabajado con modelos tridimensionales de redes a escala de poro, generadas a partir de imágenes de núcleos muestra, los cuales son una herramienta de descripción realista del espacio poroso y permiten un análisis detallado de los mecanismos de desplazamiento para predecir el flujo multifásico y sus propiedades. En el estudio de este fenómeno se consideran pioneros los trabajos experimentales de Roof (1970), retomados por Rossen (2000; 2003), en los que se utilizan tubos capilares pequeños para analizar la formación de emulsiones mediante la ruptura de gotas en flujo bifásico; dichos experimentos son, según estos autores, representativos de

lo que ocurre en el medio poroso. Los trabajos experimentales referidos, consisten básicamente en la inyección de fluidos en un sistema bifásico a través de un capilar con garganta, en donde se analiza principalmente: el efecto de la geometría de la garganta, la razón de la viscosidad entre las fases y el número capilar del flujo característico. Los trabajos que tratan aspectos sobre la formación de emulsiones y rompimiento de gota a través la modelación numérica son relativamente pocos, se pueden mencionar los desarrollados por Tsai et al., (1994); Loewenberg et al., (1996); Overfelt (2002); Al-Gharbi et al., (2003); Bormann (2010), Beresnev et al., (2010).

3.- FUNDAMENTACIÓN TEÓRICA El comportamiento macroscópico del flujo puede ser determinado con base en el flujo a escala de poro, en el cual las emulsiones no pueden ser tratadas como un líquido newtoniano monofásico. Las descripciones basadas en la viscosidad efectiva no son válidas cuando el tamaño de gota es del mismo orden de magnitud que la garganta de poro, a la escala de poro el flujo de emulsiones requiere ser estudiado como un fluido bifásico incluyendo los efectos de capilaridad (Romero, 2011). Cuando se presenta un flujo bifásico en un capilar, las fuerzas viscosas y superficiales actúan de una manera competitiva. Por lo tanto es importante definir el número capilar, que es un número adimensional que relaciona estas dos fuerzas de la siguiente forma:

Ca 

1 

(1)

donde Ca es el número capilar,  es la velocidad Darcy, 1 la viscosidad dinámica de la fase no humectante y  la tensión superficial. Como antes se mencionó, la formación de emulsiones puede ocurrir durante el flujo bifásico dentro de los yacimientos por la ruptura de gotas (snap-off) de la fase no mojante en el flujo a través de las gargantas de poro. Este fenómeno ocurre cuando la tensión superficial no es suficiente para mantener íntegra la capa de fluido de la fase dispersa, es decir cuando la presión de la fase continua aguas abajo de la garganta es mayor que la presión de ésta en la garganta ocurre un flujo inverso de la capa de la fase mencionada. En otros términos, cuando la fase no

87


humectante se mueve a través de una constricción los u1 r 0 , 0 valores del número capilar se aproximan a cero y  un r “collar” de la fase humectante es formado en torno a la u u r  , 1 1  2 2 gota en la constricción (ver Figura 1). r r r u2  , u1 

(4)

r 0  , u2  donde r es la coordenada radial,  es el radio interfacial,  es la coordenada de la pared de poro, u es el perfil de velocidad, P es la presión y los índices 1 y 2 hacen referencia al petróleo y al agua respectivamente. Figura 1 Esquema del fenómeno de rompimiento de gota (snap-off) en la garganta del poro.

La adimensionalización de variables se realiza de la forma:

r x t  r*  ; x*  ;  Cuthiell et al. (1995) han realizado pruebas con diferentes RT RT 1R T (5) tipos de aceites en muestras de núcleos de yacimientos, P  RT Q1 * * * P  ; Q  ;   R T donde observan que el fenómeno de emulsificación ocurre  R T 2 4 3 en números capilares en el rango de 1  10 a 1  10 , valores que se encuentran en las regiones cercanas a los donde intervienen variables ya descritas y  que es la pozos durante procesos de recuperación de petróleo tensión superficial. pesado. 4.- MODELO MATEMÁTICO DE ROMPIMIENTO DE GOTA

Resolviendo (2) y (3) para u tomando en cuenta (4), se obtienen los perfiles de velocidad descritos con las ecuaciones:

1 P1 2 El análisis del fenómeno de rompimiento de gota (snap-  u1  r   r  2   41 Px2  2  2   4   x off) que ocurre en el flujo bifásico dentro del medio poroso 1 2 2 está relacionado con el estudio de la formación de   P1 P2    2   ln   emulsiones. El modelo matemático que se presenta para 22  x x     simular dicho fenómeno en geometrías capilares está basado en las ecuaciones de conservación y en la teoría de 1 P2 2  2  P1 P2   r  lubrificación desarrollada para fluidos newtonianos a   u2  r  r  2      ln   escala de poro. 42 x 22  x x    

Considérese las ecuaciones de Navier-Stokes simplificadas en coordenadas radiales aplicadas a un sistema bifásico: 

P1 1   u1   1 r  0 x r r  r 

(2)

P2 1   u2   2 r  0 x r r  r 

(3)

y las condiciones de frontera siguientes:

(7)

La geometría de estudio representativa del medio poroso (poro y garganta) está dada por la función sinusoidal propuestas por Beresnev et al., (2010):   x*   *  x *   1  a 1  cos  2   2   

(8)

donde a caracteriza el radio mínimo, R min

1  2a  ; la

longitud de onda está denotada por L 2  ;  es un parámetro de pendiente cuyo significado geométrico está dado por la razón del radio máximo, R T , y la mitad de la longitud de onda, L , a saber:   R T

88

(6)

 L 2 .


La aproximación “small-slope” (Gauglitz et al., 1988) permite anular los términos de la derivada en los corchetes en la ecuación anterior, simplificándose a: P1*  P2* 

1  2 *  * x*2

(13)

Que en forma dimensional se escribe: P1   P2

Figura 2 Geometría de poro y garganta dada por la

 

función sinusoidal periódica  x* .

Integrando los perfiles de velocidad se obtienen los volúmenes de flujo respectivos: 

Q1  2  ru1dr   0

 4 P1     4   2 2  Px2  81 x 4 2 4

 22

 P2 P1        ln  x  x

(9)

  4  4  P2 2 2  Q2  2  ru 2dr        42  2 2  dx   2  P2 P1   2  1  2      2  ln     42  x x   2   (10)

Se introduce el concepto de presión capilar  Pc  :

 

(11)

La determinación de las presiones requiere una expresión para la curvatura de una superficie axisimétrica en coordenadas cilíndricas, por lo que se utiliza la ecuación de Young-Laplace exacta adimensionalizada:

* 1

* 2

 P P

1   *    1   *     x   *

1 2 

 2 * x*2   * 2  1   *     x  

P1* P2* 1 *  3*    x* x* *2 x* x*3

(15)

P1 P2   R T   3       x x R T   2 x x 3 

(16)

La conservación de masa relaciona la tasa de cambio del volumen de un segmento de poro de radio  y longitud dx con el flujo volumétrico diferencial de la forma:

(12)

(17)

Adimensionalizando (17) resulta: * Q1* *  2    x* 

(18)

De la ecuación anterior se despeja la derivada parcial del radio interfacial con respecto al tiempo (adimensional), que es la expresión de interés en el problema planteado: 1 Q1* *   2* x* 

(19)

La ecuación de continuidad tomando en cuenta las densidades del agua y petróleo se expresa como:

Q1  Q2  Q 3 2 

(14)

Derivando con respecto a la variable espacial (13) y (14) devienen en:

 Q1       dx  2   dx  t   x 

Pc  P1  P2 

  R T 2     R T   x 2 

(20)

La ecuación anterior junto con (16) forman un sistema algebraico de dos ecuaciones con dos incógnitas P1 x ,

P1 x y P2 x ; se resuelve el sistema y la solución se

89


sustituye en la expresión de Q1 , ecuación (9), la cual se adimensionaliza y se remplaza en la ecuación (19), con lo finalmente obtiene una expresión que describe la dinámica del radio interfacial en un sistema bifásico a escala de poro con geometría sinusoidal (Beresnev et al., 2010):  1  *2   1  2  *2  1  * * 2    1 2 Q       *4 * *  2  2 1  x    *4    1  1   * 3 *  *2   *2      *    x*3    x   *2 *2      1  1  1    3  1    *2 *2 1     4 2     2 4   * *  *4 4 x      2 1 *4   1  *   1 ln  *   2 

              (21)

La ecuación (21) es una ecuación diferencial parcial no lineal de cuarto orden la cual puede ser resuelta por el método de líneas, el cual consiste en la discretización de la variable espacial con diferencias finitas en N intervalos, por lo que para cada intervalo de tiempo se tendrán un sistema de N ecuaciones diferenciales ordinarias planteadas como un problema de valor inicial, cuya solución describe la posición del radio interfacial en el tiempo de evaluación; la solución es tomada después como condición inicial y el proceso se repite; las condiciones de frontera son del tipo periódicas.

la caracterización del sistema de poros mediante histogramas de la distribución del radio de la garganta del poro, que es parte de la información básica que se requiere para construir el modelo matemático, la cual se utiliza para definir la geometría de los capilares y gargantas de poro. Se cuenta con información de muestras de núcleo que fueron obtenidas del pozo Zaap 8 del Activo Ku–Maloob– Zaap (KMZ) tomado del intervalo 3787.00–3796.00 mdbnm de donde se seleccionaron 3 tapones verticales que, según el reporte de laboratorio (PEMEX-EP, 2008), está compuesto casi en su totalidad por packstone color gris claro, masivo, con presencia abundante de vúgulos y alto contenido de fracturas expuestas y otras selladas por calcita y dolomita. Los valores de los parámetros físicos a emplear son:  1 0.01 Pa  s ; viscosidad viscosidad de la fase dispersa,

 2 0.001 Pa  s ; tensión superficial, de la fase continua,  0.040 N / m ; porosidad,  0.25 ; Radio máximo, R max 25 m ; Radio mínimo, R min 15 m y el espesor  7.5 m y el parámetro geométrico de la fase continua,  de pendiente,  0.0695 . Cabe mencionar que Erzeybek (2008) utiliza en un modelo de redes de poro un rango entre 7-15 m como tamaños representativos de vúgulos, basándose en la clasificación de Lucia (1983); estando los radios utilizados en este caso de estudio dentro del rango representativo del medio vugular, clasificados en la escala macro (Figura 3). El gasto total Q se propone de acuerdo a los máximos gradientes de presión y datos de permeabilidad reportados 6 en yacimientos petroleros, a saber P x  1 10 Pa / m

4.- ESTUDIO DE CASO Para la construcción de escenarios de simulación en el modelo matemático, se cuenta con información de pruebas de presión capilar basadas en la inyección de mercurio en núcleos muestra que proporcionan información general sobre la geometría del espacio poroso. Se requiere, además, conocer las características reológicas de los fluidos del sistema bifásico como son la tensión superficial y la viscosidad; al no contar con información específica de estas propiedades para el estudio de caso, se toman valores de experimentos reportados en la literatura. Las pruebas de presión capilar basadas en la inyección de mercurio en núcleos muestra proporcionan informaciónde

90

k  1 1011 m2 . Utilizando la expresión para del gasto adimensionalizado, en la cual la velocidad es derivada de la Ley de Darcy, se tiene:  Q*

k1 P  3.14 102 2 x

(22)

Para el número capilar, Ca , Beresnev et al., (2010) proponen la siguiente expresión:

Ca 

2   Q*  u  2    1  103  1   

(23)


>100 100 75 50 25 10 7.5 5.0 2.5 1.0 0.75 0.50 0.25 0.10 0.075 0.050 0.025 0.010 0.0075 0.0050 <0.0025

Clasificaciones

macro meso

micro

Radio de la Garganta del Poro, micras

Con lo cual las simulaciones de este modelo de flujo bifásico inmiscible en poros con geometría sinusoidal se encuentran dentro del rango de número capilar, Ca , que se presenta en las cercanías de los pozos en procesos de recuperación mejorada 1  104  Ca  1 103 , de acuerdo a lo reportado por Cuthiell et al. (1995).

0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0

Saturación de Mercurio (frecuencia) Figura 3 Distribución de radios de garganta de poro en uno de los núcleos cercanos al Pozo 8 del Activo KMZ. 5.- RESULTADOS Para la resolución de la ecuación (21) se elabora un código en Mathematica® el cual permite evaluar diferentes escenarios de simulación y arroja como resultados la gráfica de evolución del radio interfacial en el espacio y el tiempo. Se introducen en el código los valores de los parámetros físicos, arriba propuestos, que intervienen en la ecuación (21), con lo que se obtiene el resultado mostrado en la Figura 4, en la cual se puede observar la dinámica del radio interfacial a través del tiempo adimensional  a lo largo * del dominio x ; para el caso de estudio que se expone, el tiempo de ruptura de gota (cuando el radio interfacial toca * el eje adimensional x ) se presenta cuando  41 , que t 2.56  104 segundos, se corresponde a un tiempo de puede decir entonces que el fenómeno snap-off sucede, en términos prácticos, al instante de iniciarse el flujo.

Figura 4 Comportamiento dinámico del radio interfacial para el estudio de caso. Nótese también que la ruptura de gota no se presenta en el eje de simetría del dominio ( x *  0 ), como lo ha reportado, por ejemplo, Bormann (2010) y que además otros puntos son potencialmente proclives a presentar valores mínimos de radio interfacial y con ello la ruptura de gotas de la fase dispersa (petróleo). 5.1 Comparación de dos modelos de rompimiento de gota Se propone un procedimiento análogo al seguido en el epígrafe 3 de este trabajo, tomando en cuenta la geometría y consideraciones propuestas por Bormann (2010), paraun modelo de rompimiento de gota a escala de poro. El resultado de lo anterior conduce a la siguiente expresión: : 2     2     2 1     2        1     2 1      1 4      2  d          ln  4 t 16 x   dx  1  2    1 4 1       2 1       (24)

La ecuación (24) considera la presión capilar de la forma expresada en la ecuación (11) por lo que difiere en cuanto a términos, orden y estructura con la ecuación (21). La geometría y resultados del modelo de Bormann (2010) 0.50 m , 0.25 m , R con los parámetros R max min

91


  7.5 m ,  0.050 N / m , 2 3.23 cP , longitud del L 15.0 m y longitud de garganta  capilar 5.0 m, g se muestran en la Figura 5. Por otro lado, si se resuelve la ecuación (24) aquí propuesta, con los parámetros anteriores pero con geometría sinusoidal, la dinámica del radio interfacial resultante es la de la Figura 6. En este último caso, el tiempo de ruptura de gota se presenta a los 1.4 x 10 -7 segundos, en un tiempo con orden de magnitud menor al de la Figura 5, a saber de 6.3 x 10 6 segundos; además de que el espesor de la fase dispersa alcanza su valor mínimo cerca de los extremos del dominio a diferencia de lo que ocurre bajo las consideraciones de Bormann (2010), en donde la ruptura se da en el centro geométrico. La diferencia en los resultados estriba principalmente en las condiciones de frontera que, en el modelo de Bormann (2010), tienden a atenuar en los extremos de la geometría la razón de cambio en el radio interfacial, mientras que en el planteamiento de Beresnev et al., (2010) las condiciones de frontera del tipo periódicas permiten que la ruptura de gota se presente en cualquier punto del dominio. La diferencia en los resultados estriba principalmente en las condiciones de frontera que, en el modelo de Bormann (2010), tienden a atenuar en los extremos de la geometría la razón de cambio en el radio interfacial, mientras que en el planteamiento de Beresnev et al., (2010) las condiciones de frontera del tipo periódicas permiten que la ruptura de gota se presente en cualquier punto del dominio.

Figura 6 Resultados del comportamiento dinámico del radio interfacial con expresión propuesta por los autores. 6.- CONCLUSIONES Se expusieron los fundamentos teóricos y matemáticos de un modelo de flujo bifásico inmiscible a escala de poro con geometría sinusoidal basado en la teoría de lubrificación y las ecuaciones de Navier-Stokes simplificadas, con el cual se puede determinar el comportamiento dinámico del radio interfacial y el posible rompimiento de gota (snap-off) como mecanismo de formación de emulsiones. Se propuso un estudio de caso consistente en configuraciones geométricas basadas en información de pruebas de inyección de mercurio en núcleos muestra del complejo petrolero KMZ, que proporcionan, entre otras cosas, la distribución de los radios de garganta de poro; la información reológica de los fluidos del flujo bifásico se tomó de la literatura disponible, quedando, de esta forma, completa la información necesaria para realizar las simulaciones en el modelo. Asimismo se hizo la comparación de resultados del modelo expuesto con otro modelo de rompimiento de gota propuesto por Bormann (2010), con el que difiere en cuanto a geometría, condiciones de frontera y determinación de la presión capilar.

Figura 5 Comportamiento dinámico del radio interfacial en el modelo de Bormann (2010), la ruptura de gota se presenta a los 6.3 x 10 -6 segundos.

92

Los resultados muestran que la ruptura de gota se presenta prácticamente inmediatamente iniciado el flujo (en un tiempo del orden de la cienmilésima de segundo) y que la geometría tiene fuerte influencia en el tiempo en que ocurre la ruptura; empleándose en el primer caso de estudio diámetros que son representativos del medio vugular y valores de parámetros físicos, como el número capilar Ca y gasto Q , que simulan las condiciones que se


presentan en las cercanías de pozos petrolíferos en procesos de recuperación mejorada.

com garganta. MSc. Thesis, Pontifícia Universidad Católica de Río de Janeiro, Brasil.

La ocurrencia del fenómeno de rompimiento de gota, snap-off, no determina en su totalidad la formación de emulsiones, para que éstas se generen y sean estables es necesario se presenten una serie de condiciones físicas y químicas en las que influyen factores como: el número capilar, gradiente de presión, razón de viscosidades (fase dispersa / continua), razón de diámetros (inicial de gota / capilar), mojabilidad, geometría, tasa de cizallamiento (Peña, 2007), por lo que se trabaja en incluir estos parámetros en modelos de rompimiento de gota y en la aplicación de “up-scaling” que permita hacer aproximaciones al mismo fenómeno a escala de yacimiento.

Bryan, J., J. Wang y A. Kantzas, 2009, Measurement of emulsion flow in porous media: Improvements in heavy oil recovery, Journal of Physics: Conference Series, Vol. 147. No.1. IOP Publishing.

Por último, los autores agradecemos el financiamiento otorgado para realizar la presente investigación contemplada en el Proyecto “YACIMIENTO PETROLERO COMO UN REACTOR FRACTAL: UN MODELO DE TRIPLE POROSIDAD Y PERMEABILIDAD DEL MEDIO FRACTURADO VUGULAR (MATRIZ-VÚGULO-FRACTURA)” del FONDO SECTORIAL CONACYT-SENERHIDROCARBUROS S0018-2011-11. 7.- REFERENCIAS Al-Gharbi, M. S. y Blunt, M. J., 2003. A 2D Dynamic Pore Network Model for Modeling Primary Drainage. Proceedings of the ESF Workshop on Multiphase Flow in Porous Media, Delft. Abou-Kassem, J., y Farouq Ali, S., 1995, Modeling of emulsion flow in porous media, Journal of Canadian Petroleum Technology, 34(6). Beresnev, I. A., y Wen D., 2010, Theory of breakup of core fluids surrounded by a wetting annulus in sinusoidally constricted capillary channels, Physics of Fluids 22 (2010): 012105. Blunt, M. J., Bijeljic, B., Dong, H., Gharbi, O., Iglauer, S., Mostaghimi, Paluszny, A., Pentland, C., 2013, Pore-scale imaging and modelling. Advances in Water Resources, 51, 197-216. Bormann, L. F., 2010, Análise do processo de quebra de gotas de emulsões no escoamento através de um capilar

Cobos, S., Carvalho, M. S., Alvarado, V., 2009, Flow of oil–water emulsions through a constricted capillary, International Journal of Multiphase Flow, 35(6), 507-515. Consejo Nacional de Desarrollo Cientifico y Tecnológico (CNPq), 2013, Diretório dos Grupos de Pesquisa no Brasil, Linha de Pesquisa: Formação e Escoamento de Emulsões, http://dgp.cnpq.br/buscaoperacional/detalhelinha.jsp?gru po=0111305JDCGSZM&seqlinha=9 Cuthiell, D., Green, K., Chow, R., Kissel, G., McCarthy, C., 1995, The in situ formation of heavy oil emulsions, SPE International Heavy Oil Symposium, 675-688. Erzeybek, S., y Akin, S. 2008. Pore Network Modeling of Multiphase Flow in Fissured and Vuggy Carbonates, SPE/DOE Symposium on Improved Oil Recovery. Gauglitz, P. A., y Radke, C. J., 1988, An extended evolution equation for liquid film breakup in cylindrical capillaries, Chemical Engineering Science, 43(7), 14571465. Lima, G. B., 2011, Análise do escoamento de emulsões em meios porosos utilizando modelo de rede de capilares, MSc. Thesis, Pontifícia Universidad Católica de Río de Janeiro, Brasil. Loewenberg, M., & Hinch, E. J., 1996, Numerical simulation of a concentrated emulsion in shear flow, Journal of Fluid Mechanics, 321(8), 395-419. Lucia, F.J., 1983, Petrophysical Parameters Estimated from Visual Descriptions of Carbonate Rocks: A Field Classification of Carbonate Pore Space, Journal of Petroleum Technology, 629- 637. Mostaghimi, P., Bijeljic, B., Blunt, M., 2012, Simulation of flow and dispersion on pore-space images, SPE Journal, 17(4), 1131-1141. Overfelt, J. R., 2002, Numerical modeling of Stokesian emulsions, PhD. Thesis, The University of Texas at Austin, USA.

93


Peixoto, V. P., 2012, Formação de bolhas no escoamento de fluidos em micromodelos de meios porosos, MSc. Thesis, Universidade Federal de Santa Catarina, Brasil. Peña, T. J. 2007, Geração de emulsões durante a produção de petróleo, PhD. Thesis, Pontifícia Universidad Católica de Río de Janeiro, Brasil. Peña, T. J., Carvalho, M. S., Alvarado, V. 2009. Snap-off of a liquid drop immersed in another liquid flowing through a constricted capillary. AIChE Journal, 55(8), 1993-1999. Petróleos Mexicanos – Exploración y Producción (PEMEX-EP), 2008, Análisis especiales de núcleo, Pozo: ZAAP 8, Núcleo- 4, Campo: ZAAP, Formación: JSK. Informe de Core Laboratories, L.P. Philippi, P. C., 2010, Efeitos dinâmicos e formação de emulsões em processos de deslocamento de óleos pesados em sistemas porosos, Relatorio Final, Laboratório de Meios Porosos e Propriedades Termofísicas (LMPT), Universidad Federal de Santa Catarina. Roca, J. F., 2011, Análise numérica do escoamento de emulsões através de capilares retos e capilares com garganta, MSc, Thesis, Pontifícia Universidad Católica de Río de Janeiro, Brasil. Roof, J. G., 1970. Snap-off of oil droplets in water-wet pores. Old SPE Journal, 10(1), pp. 85-90. Romero, M. I., Carvalho, M. S., Alvarado, V., 2011, Experiments and network model of flow of oil-water emulsion in porous media, Physical Review E, 84(4), 046305. Rossen, W. R., 2000, Snap-off in constricted tubes and porous media. Colloids and Surfaces A: Physicochemical and Engineering Aspects, 166(1), 101-107. Rossen, W. R., 2003, A critical review of Roof snap-off as a mechanism of steady-state foam generation in homogeneous porous media, Colloids and Surfaces A: Physicochemical and Engineering Aspects, 225(1), 1-24. Salager, J.L., 2005, Recuperación mejorada del petróleo, Cuaderno FIRP S537-C, Laboratorio de Fenómenos Interfaciales y Recuperación de Petróleo, Universidad de los Andes, Mérida, Venezuela.

94

Schramm, L., 1992, Petroleum Emulsion: Basic Principles. En: Emulsions Fundamentals and Applications in the Petroleum Industry (ed. por L. Schramm), 1-49. American Chemical Society. SLB Schlumberger, 1998, The oilfield dictionary, http://www.glossary.oilfield.slb.com (acceso Abril 2013). Thomas, S., 2007, Enhanced oil recovery- an overview, Oil & Gas Science and Technology-Revue de l'IFP, 63(1), 9-19. Thorsen, T., Roberts, R. W., Arnold, F. H., Quake, S. R., 2001. Dynamic pattern formation in a vesicle-generating microfluidic device. Physical review letters, 86(18), pp. 4163-4166. Tsai, T. M., Miksis, M. J., 1994, Dynamics of a drop in a constricted capillary tube, Journal of Fluid Mechanics, 274, 197-218.


Comportamiento del aislamiento térmico de una vivienda y diseño de elementos estructurados para las envolventes Thermal insulation behaviour of a housing and design of components for main envelopes

J. M. González-Castañeda, División de Estudios de Posgrado, Facultad de Ingeniería, Universidad Autónoma de Querétaro, C.U. Cerro de las Campanas S/N. C.P. 76010, Querétaro, Qro., México. jumartingo@msn.com J. Horta-Rangel, División de Estudios de Posgrado, Facultad de Ingeniería, Universidad Autónoma de Querétaro, C.U. Cerro de las Campanas S/N. C.P. 76010, Querétaro, Qro., México. horta@uaq.mx RESUMEN. En el presente trabajo se analiza la actual normatividad existente en México en lo referente al aislamiento térmico de una vivienda con la finalidad de revisar el valor de la resistencia térmica de envolventes estructuradas, así como del presupuest o energético inherente de la vivienda, y en particular para el caso de vivienda de interés social. En base a este análisis, se desarrolla una propuesta de envolvente en donde se determina el espesor mínimo requerido del aislamiento térmico y se proponen las componentes adicionales que permitan el cumplimiento de dicha Norma. Se revisa el caso de un muro tipo, utilizando dos propuestas de aislamientos diferentes como son el poliestireno expandido y la lana de vidrio; y se realiza un estudio comparativo entre ellos. El procedimiento se aplicó conforme a las recomendaciones y especificaciones que la norma establece para la ciudad de Querétaro y se desarrolló mediante la tabulación de los valores correspondientes de las conductividades térmicas de cada componente en EXCEL, en donde se varió únicamente el espesor de los dos materiales propuestos para el aislamiento térmico mejorado del muro, encontrando que para el poliestireno expandido se requiere de un espesor de 2 cm., mientras que para la lana de vidrio se requiere de un espesor de 2.5 cm. para lograr en ambos casos cumplir con lo estipulado por la norma. Palabras clave: Aislamiento térmico, materiales de aislamiento, resistencia térmica, ahorro de energía, presupuesto energético. ABSTRACT. In this paper is analyzed the current existing regulations in Mexico in relation to the thermal insulation of a house with the purpose to check the value of thermal resistance for the components of main envelopes as well as the inherent energy budget housing, and in particular for the case of social housing. Based on this analysis, is developed a proposal for the envelope housing by determining of the minimum thickness and additional components that allow compliance with such standard. Is reviewed the case of a type wall, using two different isolates proposals such as expanded polystyrene and glass wool and performing a comparison between them. The procedure was applied according to the recommendations and specifications that set the standard for the city of Queretaro and developed by tabulating the values of the thermal conductivities of each component in EXCEL, where only varied the thickness of the two materials proposed for improved thermal insulation of the wall, finding that expanded polystyrene is required for a thickness of 2 cm. while for glass wool requires a thickness of 2.5 cm. to ensure both comply with the stipulated by the standard. Keywords: Thermal insulation, insulation materials, thermal resistance, energy savings, energy budget.

1.

INTRODUCCIÓN

La energía como recurso, es la base del desarrollo económico y la dinámica social de cualquier ciudad o región. Las construcciones son responsables de aproximadamente el 40% del consumo de la energía total anual en el mundo. La mayor parte de esta energía es para el suministro de alumbrado, de calefacción, refrigeración y de aire acondicionado. Aumentar la conciencia de los impactos ambientales del dióxido de carbono (CO2) y las emisiones de óxidos de nitrógeno (NOx) y de clorofluorocarbonos (CFC) provocó un renovado interés

en tecnologías de refrigeración y calefacción amigables con el medio ambiente (Omer, 2008). La utilización de materiales de construcción adecuados al clima es muy importante en la aplicación y seguimiento de programas de ahorro de energía y confort térmico en nuestro país. Para saber si los materiales son adecuados para la construcción de edificios y viviendas confortables y económicas en el aspecto energético, es necesario conocer las propiedades termofísicas de los materiales utilizados para su edificación (Pérez et al., 2002).

95


El empleo de aislamiento térmico es una de las maneras más eficaces de conservación de energía en la construcción. Por lo tanto, la selección de un material de aislamiento adecuado y la determinación del espesor óptimo de aislamiento son particularmente vitales (Yu et al., 2009). El consumo de energía de las viviendas en México es cada vez mayor y representa casi el 16% de la demanda total del país (SENER, 2010), sobre todo porque la población urbana sigue creciendo. Del mismo modo, el número de viviendas en México va en aumento, entre 1996 y 2006 las unidades habitacionales aumentaron de 20.4 millones a 26 millones, donde casi el 78 % eran viviendas en la región urbana (Rosas-Flores, 2011). Por otra parte, se estima que el número de unidades de vivienda alcanzará casi 50 millones en el año 2030 (Feng Lui, 2010), haciendo hincapié en la importancia de aplicar medidas de eficiencia energética en los hogares de construcción nuevos y existentes. La creciente preocupación por la eficiencia energética de las viviendas en México ha impulsado el desarrollo de diversas normas oficiales mexicanas para la energía como la NOM-ENER (Griego et al., 2012). La normalización para la eficiencia energética en las edificaciones representa un esfuerzo encaminado a mejorar el diseño térmico de edificios y lograr el confort de sus habitantes con un consumo menor de energía (CONUEE, 2012), ya que los sistemas constructivos actuales por lo general no cumplen con la Normatividad en cuanto a la demanda de aislamiento térmico, los valores de resistencia térmica (R) son en general bajos comparados con los valores mínimos o de habitabilidad. Una propuesta para aumentar el valor R consiste en utilizar materiales que tengan una baja conductividad térmica, los cuales puedan aumentar la resistencia térmica de la envolvente. Por ello, la norma mexicana NMX-C-460-ONNCCE2009 incorpora información relevante que ayuda a disminuir el uso de energía en las viviendas por concepto de climatización al proporcionar, para las diferentes zonas climáticas del país, las características que deben cumplir los elementos constructivos que constituyen a la envolvente de la vivienda, tales como techos, muros y entrepisos, mediante la determinación de los valores de resistencia térmica total (valor "R") de acuerdo a la zona térmica en donde se localice la vivienda y al propósito inmediato del aislamiento, por lo que establece valores mínimos, para lograr habitabilidad, y para ahorrar energía. Dichos valores asocian las propiedades térmicas de los materiales componentes de las envolventes. La norma NOM-020-ENER-2011 define a la envolvente de una vivienda, como el conjunto de elementos que limitan o conforman su espacio interior, como lo son techos, paredes, vanos, puertas, pisos y superficies inferiores. Mientras que el término de elemento estructurado se refiere a la combinación de varios materiales para formar un arreglo que presenta

96

soluciones constructivas de aislamiento térmico y que pueden formar parte parcial o total de los elementos de la envolvente. El objetivo de este trabajo es determinar los espesores mínimos de dos tipos de aislamiento térmico (poliestireno expandido y lana de vidrio), que se requieren para cumplir con la normatividad de aislamiento térmico en México y de acuerdo a los resultados determinar si resultan viables para emplearse como alternativas que permitan desarrollar mejoras técnicas en las viviendas, utilizando recursos humanos y materiales locales, para lograr así un ahorro de energía y un confort térmico en las viviendas. 2.

METODOLOGÍA

1.

Formulación matemática.

La norma NMX-C-460-0NNCCE-2009 propone el método simplificado para el cálculo de la resistencia térmica total de un muro, techo o entrepiso con capas homogéneas y considera el flujo de calor normal al elemento estructurado, mediante la suma de las resistencias térmicas parciales de cada capa, como se observa en la Figura 1. De esta manera, la resistencia térmica (aislamiento térmico) de una porción de la envolvente de la vivienda, se evalúa con la siguiente ecuación: R=

en 1 1 e1 e2 + + +⋯+ + λn he hi λ1 λ2

(1)

Figura 1. Muro compuesto con capas homogéneas acopladas. en donde R es la resistencia térmica total (aislamiento térmico) de una porción de la envolvente de la vivienda, de superficie a superficie, en m 2K/W; hi es la conductancia superficial (coeficiente fílmico) interior, según la norma para muros su valor es 8.1 W/m2K; he es


la conductancia superficial exterior, su valor es 13 W/m2K; n es el número de capas que forman la porción de la envolvente; en es el espesor de cada uno de los materiales que componen la porción de la envolvente, en m. y λ es el coeficiente de conductividad térmica de cada uno de los materiales que componen la porción de la envolvente de la vivienda, en W/m°K. Por lo tanto, para conocer el coeficiente global de transferencia de calor (coeficiente de transmisión térmica) es necesario conocer los espesores y conductividades térmicas de cada uno de los materiales que forma la porción de la envolvente, se calcula utilizando la siguiente ecuación: 1 K= R

(2)

ϕp = ϕpc + ϕps

(3)

donde K es el coeficiente global de transferencia de calor y se refiere al flujo de calor que pasa a través de 1 m 2 de una porción de la envolvente con espesor de 1 m. por unidad de tiempo, cuando entre las dos caras hay una diferencia de 1 °C, sus unidades son W/m2K (NMX-C460-ONNCE-2009). Así, la Norma NOM-020-ENER-2011 establece como criterio para revisión de la eficiencia energética de una vivienda el concepto de Presupuesto Energético, que es la comparación de las ganancias de calor entre una vivienda propuesta (proyectada) denominada ϕp y otra asociada a una vivienda de referencia ϕr . Así, para garantizar dicho cumplimiento, la ganancia de referencia debe ser mayor que la ganancia correspondiente a la vivienda propuesta o de diseño. En los dos casos, se considera las ganancias debido a fenomenologías tales como: radiación, conducción, y convección. Para obtener las ganancias de calor a través de la envolvente de la vivienda propuesta, se deberán sumar la ganancia de calor por conducción a través de las partes opacas y no opacas ϕpc , con la ganancia de calor por radiación solar a través de las partes no opacas ϕps .

°C (temperatura exterior); t es el valor de la temperatura interior del edificio para uso habitacional, en °C (NOM020-ENER-2011). Estos últimos dos valores de temperaturas están tabulados según la ciudad y la orientación de la componente. Para que el cálculo de la ganancia de calor a través de la envolvente de la vivienda de referencia corresponda al proyectado, el área total de cada una de las componentes para cada orientación debe ser igual para ambos. Las paredes de la vivienda de referencia se consideran con 90% de parte opaca (muro) y 10% de parte no opaca (transparente) y el techo con 100% de parte opaca y 0% de parte no opaca. 2.

Determinación del espesor del aislamiento mínimo conforme a normatividad.

Se determinó el espesor mínimo del aislamiento térmico en un muro de acuerdo con la normatividad de México, siguiendo las recomendaciones y especificaciones que se dan al respecto sobre la ciudad de Querétaro, la cual se ubica en la zona térmica 3A, y se consideró una resistencia térmica total mínima o valor "R" mínimo, que es cuando la vivienda cumple al límite los códigos o estándares de construcción, o en su defecto los requerimientos técnicos del constructor, sin considerar equipos de climatización, análisis y demanda energética, considerándose una vivienda pasiva, en la que se utiliza únicamente la envolvente para protegerse del medio ambiente (sol, calor y temperatura), y el cuál para muros debe ser mayor de 1.00 m2 °K/W. La convección se aplicó mediante el coeficiente de convección térmica (film coefficient), el cuál para la superficie interior del muro tiene un valor de 8.1 W/m2 °K y para la superficie exterior de 13 W/m2 °K.

La ganancia de calor a través de una porción de la envolvente se calcula con la siguiente ecuación: n

ϕpc = ∑[K j x Aj x (t e − t)] j=1

(4)

donde ϕpc es la ganancia o pérdida de calor por conducción a través de la componente; j son las diferentes porciones que forman la componente de la envolvente; K j es el coeficiente global de transferencia de calor de cada porción; Aj es el área de la porción j, en m2; t e es el valor de la temperatura equivalente promedio en

Figura 2. Estructuración del muro a analizar.

97


Se consideró para la verificación del rendimiento tÊrmico del muro las siguientes dimensiones: 2.50 m. de altura y 3.00 m. de longitud, con un årea total de A = 7.50 m2. Este elemento se supone constituido por varias capas homogÊneas acopladas que consisten de 2 cm. de aplanado de yeso en el interior, material de aislamiento tÊrmico, 20 cm. de bloque de concreto con dos huecos y 2 cm. de aplanado de cal al exterior, como se muestra en la Figura 2. En la figura 2, e2 es el espesor del material para aislamiento tÊrmico, mientras que et es el espesor total del muro estructurado y dependerå del espesor del aislante tÊrmico que se utilice. Los dos materiales de aislamiento que se analizaron fueron el poliestireno expandido (EPS) y la lana de vidrio (GW). El poliestireno expandido es un material plåstico celular espumado y ligero, presenta una estructura celular cerrada rellena de aire, su densidad varía de 10 a 50 kg/m3 y su conductividad tÊrmica es de 0.045 a 0.030 W/m°K. Por otra parte, la lana de vidrio es una fibra mineral fabricada con millones de filamentos de vidrio unidos con un aglutinante. El espacio libre con aire atrapado entre las fibras aumentan la resistencia a la transmisión de calor, tambiÊn se usa para aislamiento acústico. Su densidad varía de 14 a 24 kg/m3 y su conductividad tÊrmica es de 0.044 a 0.032 W/m°K. Tabla 1. Propiedades termofísicas de los materiales utilizados en el elemento estructurado. Material Aplanado de yeso Aplanado de mortero de cal al exterior Block de concreto con dos huecos Poliestireno expandido (EPS) Lana de vidrio (GW)

Conductividad tĂŠrmica đ??&#x20AC;đ??&#x20AC; (W/m°K) 0.372

đ??&#x2020;đ??&#x2020; (kg/m3 )

0.872

------

1.110

1 700

0.033

30

0.038

24

Densidad 800

Las propiedades termofĂ­sicas de los materiales que se utilizaron para analizar el muro se indican en la Tabla 1. Las propiedades del aplanado de yeso, del mortero de cal al exterior y del block de concreto con dos huecos, se obtuvieron de los valores registrados en la tabla del apĂŠndice B.1 referente a â&#x20AC;&#x153;conductividades tĂŠrmicas de diversos materialesâ&#x20AC;? que presenta la norma NMX-C-460ONNCE-2009.

98

Las propiedades del poliestireno expandido se obtuvieron de los valores registrados del IDAE (Instituto para la DiversificaciĂłn y Ahorro de la EnergĂ­a) en su GuĂ­a TĂŠcnica para la rehabilitaciĂłn de la envolvente tĂŠrmica de los edificios, la cual indica, a travĂŠs de ensayos a una serie de muestras, los valores correspondientes de las conductividades tĂŠrmicas dependiendo la densidad del EPS. En la tabla 2 se muestran algunos de los resultados de estas pruebas realizadas a un EPS obtenido de materias primas estĂĄndar, en donde se indica el valor de la densidad aparente y su correspondiente valor de conductividad tĂŠrmica media (IDAE, 2007). Tabla 2. Valores de conductividad tĂŠrmica y densidad obtenidos de ensayos del EPS. Densidad kg/m3

Conductividad tÊrmica W/m¡K

10

0.043

15

0.038

20

0.035

25

0.034

30

0.033

35

0.032

40

0.032

45

0.032

50

0.031

En el anĂĄlisis del muro se propuso utilizar una densidad de 30 kg/m3 en el EPS ya que es una densidad comĂşn utilizada por los fabricantes que ofrecen este tipo de material termoaislante. Las propiedades termofĂ­sicas de la lana de vidrio se obtuvieron de las presentadas por Ozel (2012) en su investigaciĂłn sobre el espesor Ăłptimo utilizado para reducir la ganancia y pĂŠrdida de calor de una vivienda en rĂŠgimen dinĂĄmico, usando las condiciones climĂĄticas de la regiĂłn.


Tabla 3. ObtenciĂłn de la resistencia tĂŠrmica total para el muro con poliestireno expandido. n

Componente

1 2 3 4

Aplanado de yeso al interior Poliestireno expandido (EPS) Bloque de concreto con 2 huecos Aplanado de mortero de cal al exterior et =

Espesor Conductividad tÊrmica Resistencia tÊrmica total del elemento e Ν de la envolvente (m.) (W/m°K) 0.02 0.020 0.15 0.01 0.20

0.372 0.033 1.110 0.872 m.

Valor de la resistencia tÊrmica total o valor "R" calculado del muro R = 1.007 m2°K/W De acuerdo a la Norma: Si cumple

Tabla 4. ObtenciĂłn de la resistencia tĂŠrmica total para el muro con lana de vidrio.

3.

n

Componente

1 2 3 4

Aplanado de yeso al interior Lana de vidrio (GW) Bloque de concreto con 2 huecos Aplanado de mortero de cal al exterior et =

Espesor Conductividad tÊrmica Resistencia tÊrmica total del elemento e Ν de la envolvente (m.) (W/m°K) 0.02 0.025 0.15 0.01 0.205

0.372 0.038 1.110 0.872 m.

RESULTADOS

El valor de la resistencia tĂŠrmica total R, asĂ­ como el coeficiente global de transferencia tĂŠrmica se obtuvieron utilizando las ecuaciones (1) y (2). Se procediĂł a tabular los valores en EXCEL variando el espesor de los dos materiales propuestos para el aislamiento tĂŠrmico mejorado del muro, como se observa en la Tabla 3 y en la Tabla 4, en texto color azul. Se obtuvo que para el poliestireno expandido se requiere de un espesor de 2 cm., mientras que para la lana de vidrio de un espesor de 2.5 cm. Solo bajo estos supuestos, el valor de R resulta ser ligeramente superior a 1.00 m2 °K/W, el cual es el valor mĂ­nimo establecido por la norma. El coeficiente global de transferencia de calor (coeficiente de transmisiĂłn tĂŠrmica) del muro con aislamiento tĂŠrmico de poliestireno expandido (EPS) resulto conforme a lo anterior de đ??žđ??ž = 0.99 m2 °K/W mientras que para el caso del muro con aislamiento de lana de vidrio ha sido de đ??žđ??ž = 0.94 m2 °K/W. Por lo tanto la pĂŠrdida o ganancia de calor a travĂŠs del muro, se calcula por medio de la ecuaciĂłn: đ?&#x2018;&#x201E;đ?&#x2018;&#x201E;đ?&#x2018;&#x161;đ?&#x2018;&#x161; = đ??žđ??ž â&#x2C6;&#x2122; đ??´đ??´ â&#x2C6;&#x2122; (đ?&#x2018;Ąđ?&#x2018;Ąđ?&#x2018;&#x2019;đ?&#x2018;&#x2019; â&#x2C6;&#x2019; đ?&#x2018;Ąđ?&#x2018;Ą)

(5)

donde đ?&#x2018;&#x201E;đ?&#x2018;&#x201E;đ?&#x2018;&#x161;đ?&#x2018;&#x161; es la ganancia o pĂŠrdida de calor por conducciĂłn a travĂŠs del muro; đ??žđ??ž es el coeficiente global de transferencia de calor de cada porciĂłn; A es el ĂĄrea del

Valor de la resistencia tÊrmica total o valor "R" calculado del muro R = 1.059 m2°K/W De acuerdo a la Norma: Si cumple

muro, en m2; đ?&#x2018;Ąđ?&#x2018;Ąđ?&#x2018;&#x2019;đ?&#x2018;&#x2019; es el valor de la temperatura exterior; đ?&#x2018;Ąđ?&#x2018;Ą es el valor de la temperatura interior de la vivienda, en °C. Considerando que existiese una diferencia de 1 °C entre ambas caras (â&#x2C6;&#x2020; = 1 °C), obtenemos una pĂŠrdida de calor Q para el muro con aislamiento tĂŠrmico de poliestireno de 7.45 W (1.78 cal/seg), mientras que para el muro con aislamiento tĂŠrmico de lana de vidrio, se obtuvo un valor de 7.08 W (1.69 cal/seg), resultado que deja en evidencia la mayor capacidad de aislamiento de la capa de poliestireno (EPS). Se comprueba entonces que se tiene un mejor comportamiento tĂŠrmico del poliestireno sobre el material de lana de vidrio al tener este una mĂĄs baja conductividad tĂŠrmica sobre este Ăşltimo. AdemĂĄs de que la resistencia tĂŠrmica resulta ser un parĂĄmetro Ăştil para poder comparar dos materiales aislantes con diferente espesor y diferente conductividad tĂŠrmica, ya que cuanto mayor es el valor, mejor es su comportamiento como aislante tĂŠrmico, al ofrecer mĂĄs resistencia al paso del calor a travĂŠs del muro y al interior de la vivienda, conservĂĄndola a esta con un adecuado confort, sobre todo en las ĂŠpocas criticas del aĂąo. 4.

CONCLUSIONES

Una vivienda con una buena barrera contra el calor, frĂ­o y ruidos, serĂĄ siempre mĂĄs confortable, saludable ademĂĄs del ahorro en aspectos energĂŠticos. No sĂłlo se reducirĂĄ el gasto en el consumo de energĂ­a, sino que

99


además se estará contribuyendo a disminuir la emisión de contaminantes a la atmósfera y se utilizaran mejor los recursos energéticos del país. Considerando la normatividad vigente en México para la región de Querétaro, los materiales propuestos como aislantes (EPS y GW) en el elemento estructurado resultaron ser apropiados, ya que se obtuvieron espesores relativamente bajos siendo una opción viable, económica y sencilla utilizarlos como paneles y cumpliendo así con su propósito de aislamiento térmico para la porción de la envolvente de la vivienda, en este caso muro. Como se observa en la tabla 2 al tener una mayor densidad del material de aislamiento térmico (EPS), se tiene una conductividad térmica más baja y por consecuencia será un mejor aislante térmico. Se recomienda siempre revisar las diferentes formas de aislamiento disponibles, la información técnica del material que se vaya a utilizar y determinar, de acuerdo a ello, el espesor adecuado al clima de la región (zona térmica). Entonces se ofrecen distintas posibilidades para realizar viviendas estructuralmente confiables, más económicas y confortables que las resueltas con materiales y sistemas convencionales. Esto, si se ajustan con idéntico rigor tanto en el diseño como en la construcción a las normas y recomendaciones existentes. 5.

REFERENCIAS

Feng Lui A. S., 2010, Mainstreaming Building Energy Efficiency Codes in Developing Countries, Global Experiences and Lessons from Early Adopters, The International Bank for Reconstruction and Development, The World Bank, Washington, DC, pp. 144–162. Griego D. Krarti M. y Hernández-Guerrero A., 2012, Optimization of energy efficiency and thermal comfort measures for residential buildings in Salamanca, Mexico. Energy and Buildings 54 540–549. IDAE, 2007, Instituto para la Diversificación y Ahorro de la Energía, Guía Técnica para la rehabilitación de la envolvente térmica de los edificios, Soluciones con aislamiento de poliestireno expandido (EPS). NMX-C-460-ONNCCE, 2009, Valor “R” para las envolventes de vivienda por zona térmica para la república Mexicana, México: Organismo Nacional de Normalización y Certificación de la Construcción y Edificación, S. C. NOM-020-ENER, 2011, Eficiencia energética en edificaciones, Envolvente de edificios para uso habitacional, Norma Oficial Mexicana.

100

Omer A. M., 2008, Energy, environment and sustainable development, Renewable and Sustainable Energy Reviews 12 2265–2300. ONNCE, 2012, Organismo Nacional de Normalización y Certificación de la Construcción y Edificación, La importancia de la normalización y los organismos certificadores en los temas de la eficiencia energética en la edificación, BOLETÍN No. 117. Ozel M., 2012, Cost analysis for optimum thicknesses and environmental impacts of different insulation materials, Energy and Buildings 49 552–559. Pérez M. Centeno L. y Lazcano F., 2002, Desarrollo de un prototipo para la caracterización térmica de los materiales de construcción regionales, Ingeniería 6-2 1322. Rosas-Flores J.A., 2011, Saturation, energy consumption, CO2 emission and energy efficiency from urban and rural households appliances in Mexico, Energy and Buildings 44 10–18. SENER, 2010, Sistema de Información Energética (System of Energy Information), Información Estadística (Statistical Information), http://sie.energia.gob.mx. Yu J. Yang C. Tian L. and Liao D., 2009, A study on optimum insulation thicknesses of external walls in hot summer and cold winter zone of China, Applied Energy 86 2520–2529.


Revisión del impacto de la infraestructura en el desarrollo de los países Review of the impact of infrastructure on the development of countries J. E. Veloz, García, Universidad autónoma de querétaro J. L. Reyes Araiza, Universidad autónoma de querétaro Y. Galindo Montiel, Universidad de guanajuato J. E. Rodríguez Muñoz, Universidad de guanajuato R. Ramírez Jiménez, Universidad autónoma de querétaro RESUMEN. A finales del siglo pasado se generó un vuelco en el pensamiento al ubicar al ser humano en el centro de cualquier desarrollo. El reto para este milenio es crear un ambiente propicio para que las personas disfruten de una vida prolongada, saludable y creativa. Desde esta perspectiva la infraestructura de un país es un indicador fundamental de su nivel de desarrollo y del bienestar general que ofrece a sus habitantes. En la actualidad hay consenso sobre la existencia de una relación positiva entre más y mejor infraestructura y crecimiento socioeconómico. Respecto al desarrollo, la literatura ha procurado desentrañar los nexos teóricos y las regularidades empíricas entre la infraestructura y la productividad, por un lado, pero también con la inclusión social y la equidad, por otro. Sin embargo, los esquemas actuales mediante los cuales se prende evaluar el impacto de la infraestructura en el desarrollo de la sociedad presentan serias deficiencias metodológicas que impiden aprovechar eficientemente los beneficios que aporta la infraestructura. En este trabajo se muestran los antecedentes de algunos marcos teóricos que intentan describir el impacto que la infraestructura aporta al desarrollo de los países y se propone su empleo en un futuro para investigaciones y desarrollos relacionados con la toma de decisiones en inversiones en infraestructura para maximizar el impacto en el desarrollo humano. PALABRAS CLAVE. Infraestructura y desarrollo, Desarrollo humano, Infraestructura, Desarrollo.

1.

INTRODUCCIÓN

En el primer informe sobre el desarrollo humano en 1990 se expuso claramente el concepto de desarrollo humano, la verdadera riqueza de una nación está en su gente, dejando en claro que el desarrollo no solo implica crecimiento (PNUD 1990). Desde entonces el desarrollo humano ha atraído la atención de los gobiernos, las organizaciones de la sociedad civil, los investigadores, los medios de información y el público en general en todo el mundo, generando un vuelco en el pensamiento al ubicar al ser humano en el centro de cualquier desarrollo (PNUD, 2010). La falta de infraestructura apropiada y de una eficiente provisión de sus servicios constituye un obstáculo primario en el esfuerzo de poner en práctica el desarrollo social con eficacia, alcanzar índices de crecimiento económico sostenido y lograr objetivos de integración. La infraestructura de un país es un indicador fundamental de su nivel de desarrollo y del bienestar general que ofrece a sus habitantes (Zambrano y Aguilera, 2011). En el tomo IV de la primera parte del Estudio de la historia, Arnold Toynbee (1947) nos dice que la decadencia de las grandes civilizaciones empieza con el descuido de las grandes obras hidráulicas en Mesopotamia, el abandono de los caminos en el Imperio Romano y situación semejante en Egipto. En la actualidad existe consenso en la literatura sobre el rol que tiene la dotación en

infraestructura en el desempeño económico-social de los países, en particular sobre variables como el crecimiento económico, productividad, pobreza y desigualdad. Por ejemplo, Briceño et al. (2004) y Straub (2008) establecen que la provisión eficiente de servicios de infraestructura es uno de los aspectos más importantes de una estrategia de desarrollo, tanto en los niveles nacionales como en los regionales. Sin embrago, el desarrollo de infraestructura no es un fin en sí mismo, sino un medio para generar desarrollo y crecimiento económico y así elevar el bienestar de las sociedades del mundo (Ferro et al., 2012). La exigencia actual requiere de la utilización de marcos teóricos adecuados a los retos que enfrenta la humanidad. Se estima un incremento en la población urbana (CEPAL, 2007), lo cual sugiere que buena parte de estos retos para los próximos años estarán vinculados, de alguna manera, con la creación, mantenimiento y administración de la infraestructura. Las aglomeraciones poblacionales traen consigo una serie de ventajas para la actividad económica, y el intercambio comercial y cultural; pero también, acarrean una serie de costos vinculados a la utilización intensiva de la infraestructura existente. La comprensión del impacto que produce la infraestructura en el desarrollo es un elemento importante para mejorar las metodologías de evaluación de las inversiones en infraestructura y, de esta manera, fortalecer

101


la eficiencia del gasto en infraestructura. Por lo tanto, el objetivo de esta revisión es dar a conocer papel que desempeña actualmente la infraestructura en el desarrollo de los países. 2.

INFRAESTRUCTURA COMO MOTOR DE DESARROLLO

La preocupación sobre el papel de la infraestructura en el desarrollo productivo de los países puede estar asociada con la discusión que tuvo lugar a mediados de la década de los ochenta en Estados Unidos de América, cuando muchos economistas se percataron del estancamiento relativo de la productividad, comparado con décadas previas de crecimiento. Desde entonces, la literatura ha establecido la existencia de un importante vínculo entre infraestructura y productividad, el cual sigue siendo objeto de investigación (Biehl, 1986; Aschauer, 1989; Munnell, 1990; Munnell, 1992). En general, los estudios muestran que una dotación adecuada de infraestructura genera un impacto positivo en el desarrollo de los países, contribuyendo a la productividad, crecimiento económico y competitividad internacional. Entre los trabajos que estudian a nivel macro el impacto de la infraestructura sobre la productividad de la economía sobresalen los de Aschauer (1989), Biehl (1986) y Munnell (1990, 1992). Estos primeros estudios encontraron un alto impacto de la infraestructura pública en la productividad agregada de la economía; efectos tan altos que algunos investigadores los consideraron, posteriormente, como inverosímiles (superando, incluso, el impacto que tendría el capital privado sobre la productividad). Dichos trabajos no tardaron en atraer críticas e impulsaron una nueva oleada de investigaciones que buscaron resolver los problemas empíricos que se habían detectado en ellos. Uno de los problemas que más han afectado a los estudios realizados con datos a nivel macro es el de la doble causalidad. En este sentido, el trabajo de Tatom (1993) muestra evidencia de que el crecimiento económico afecta la inversión en infraestructura y no viceversa. Ahora bien, aunque no necesariamente exista esta doble causalidad, puede darse el caso de que la infraestructura y la productividad simplemente tengan tendencias comunes en el tiempo, que se explicarían por un tercer factor y no por una relación de causalidad entre ellas (Hulten y Schwab, 1991 y Tatom, 1993). Sin embargo, si existe una relación de largo plazo entre estas variables, se esperar que compartan una tendencia común, por lo cual no tomar en cuenta la posibilidad de dicha relación a largo plazo tendería a sesgar los resultados en una dirección donde se minimiza el efecto de la infraestructura en la productividad (Munnell, 1992).

102

Otro problema con los enfoques macro que analizan el vínculo entre infraestructura y productividad es el de las variables omitidas, ya que puede haber una serie de variables que no se incluyen en el análisis y que pueden ser las verdaderas responsables del crecimiento de la productividad en lugar de la infraestructura Las características específicas de cada región (clima, geografía, factores culturales, etc.) son un determinante importante de su productividad (Holtz-Eakin, 1994). Adicionalmente, existen eventos económicos agregados (por ejemplo una recesión), que pueden afectar la evolución de la productividad de la economía y que no necesariamente tienen que ver con la inversión en infraestructura (Tatom, 1993). Por otro lado, muchos estudios analizan el impacto productivo de la infraestructura con una visión estática al no considerar el efecto, no solo de corto plazo, sino el efecto acumulado que aquella puede tener en la senda de crecimiento de la economía, en especial, en la determinación del nivel de producto per cápita de largo plazo (Shioji, 2001), lo cual da una contribución cuantitativa positiva de la infraestructura en dichas economías aunque mucho menor a la encontrada por Aschauer (1989). Adicionalmente, este trabajo cuestiona el argumento de Holtz-Eakin (1994) de que cuando se consideran los efectos fijos regionales desaparece el impacto positivo de la infraestructura. Existen otros autores que han mencionado que la gran variabilidad en los resultados encontrados en la literatura, sobre el papel de la infraestructura en la productividad se debe a la imposibilidad de los enfoques tradicionales de detectar la existencia de efectos de redes y, por ende, no linealidades asociadas al impacto de la infraestructura. En este sentido, Hurlin (2006) plantea un modelo en el cual dicho efecto se daría, de manera no lineal, dependiendo de si el stock de infraestructura (acumulación de bienes durables, de uso público o no, que son necesarios para que una organización económica y social funcione adecuadamente (Zambrano y Aguilera, 2011)) se encuentra o no por encima de determinados umbrales, sus resultados muestran una clara evidencia de efectos no lineales En general, se podría argumentar que los resultados de los estudios de impacto a nivel macro presentan grandes problemas metodológicos. Esto ha implicado una gran heterogeneidad en los resultados presentados, cuestionando la existencia de impactos positivos y significativos de la infraestructura; otros presentando contra argumentos a favor de dicho vínculo (CAF, 2009). Sin embargo, la propia metodología macro hace imposible decir algo más concluyente en esta discusión. Por ello, las nuevas líneas de investigación apuntan a un enfoque micro que tome en cuenta dichas deficiencias metodológicas.


A pesar de su relativa escasez, los estudios microeconómicos muestran evidencia bastante concluyente acerca de la existencia de un efecto positivo de la infraestructura sobre la productividad (Morrison y Schwartz 1992; Holtz-Eakin y Lovely, 1995; Bougheas et al. 2000). Entre los principales resultados de estos estudios, es importante destacar que los impactos positivos de la infraestructura en la productividad de la economía son el resultado de efectos que produce al interior de la empresa. La infraestructura a nivel micro actúa como un elemento que impacta positivamente a la productividad, un mayor nivel de infraestructura aumenta la durabilidad de la inversión privada (Easterly y Rebelo, 1993; Ahmed y Miller, 2002) y la tasa de retorno, induciendo a una mayor inversión (Hulten, 1996; Calderón y Servén, 2002), lo cual repercute en el desarrollo humano a través de la calidad de vida de las personas y esto, a su vez, en la calidad del capital humano (CAF, 2006). Por otro lado, la infraestructura pública puede generar condiciones tales que permitan la creación de una mayor cantidad de variedades de productos intermedios en el mercado, lo cual, a su vez, mejoraría la productividad de las empresas (Holtz-Eakin y Lovely, 1995). Adicionalmente, una adecuada y eficiente provisión de infraestructura puede reducir los costos de las empresas, especialmente, sus costos de transporte (Radelet y Sanchs, 1998; Fernald 1999; Limao y Venables; 2001; Jorgenson et al., 2008) los cuales a raíz de los procesos de liberación del comercio, han pasado a ser uno de los principales frenos en el intercambio internacional, siendo cinco veces más costoso que los aranceles (Banco Mundial, 2001; Amderson y Wincoop, 2004; Blyde et al., 2008) afectando su conectividad con los flujos de comercio internacional, su integración regional y el libre movimiento de bienes, servicios y personas. Además, la infraestructura pública reduce los costos fijos de instalación y operación de las empresas, por lo que aumenta su número, estimulando una mayor competencia (Calderón y Servén, 2004; Guasch y Kogan; 2005; Duggal et al., 2007; Barham et al., 2008). Las empresas donde se da un mayor impacto de la infraestructura son aquellas que la utilizan intensivamente. Un aspecto muy importante que se debe tomar en cuenta al pensar en el impacto de la infraestructura sobre la productividad de la economía es que ésta, luego de ser construida, debe operar con eficiencia con el fin de lograr los objetivos para los que fue concebida (Hulten, 1996). Por lo que es necesario entender que la gestión de la infraestructura abarca tres dimensiones. La primera dimensión consiste en la inversión para la construcción de nueva infraestructura. Una segunda dimensión es el mantenimiento de la infraestructura existente. La tercera

abarca la gestión de la infraestructura que se refiere a la administración de uso de la infraestructura existente. En este sentido, varios autores hallan que la eficiencia en el uso de la infraestructura es clave para explicar su impacto en la productividad y crecimiento económico, por ejemplo, Machicado (2007) concluye que a medida que los países se tornan más eficientes (es decir, mantienen sus carreteras, proveen servicios de alta calidad, entre otros), el impacto en la inversión pública en infraestructura sobre el PIB será mayor, Hulten (1996) encuentra que un incremento del 1% en la eficiencia de la infraestructura tiene un impacto sobre el crecimiento siete veces mayor que un incremento del 1% en la tasa de inversión pública. 3.

INFRAESTRUCTURA Y BIENESTAR

Ante la dificultad de adoptar una definición única de bienestar, aquí se opta por contemplar algunos elementos habitualmente considerados positivos para los seres humanos y para sus posibilidades de desarrollarse plenamente. Cada aspecto de la vida humana material depende, en alguna medida, de la infraestructura que la hace viable, y, en consecuencia, la ausencia de tal infraestructura puede hacer que las condiciones de vida de la población sean sustancialmente peores de lo éticamente aceptable (CAF, 2009). De manera notable, a partir del informe del Banco Mundial del año 1994 sobre infraestructura (Banco Mundial, 1994), una larga lista de artículos y publicaciones de diversa índole sugieren que la infraestructura tiene impactos positivos importantes sobre el bienestar de los hogares. En la literatura sobre los impactos directos de la infraestructura en el bienestar de los hogares, llama la atención la escasez de investigaciones con el rigor metodológico habitual en evaluaciones de impacto de programas sociales, ya que la mayoría de los proyectos nuevos requieren inversiones sustanciales, lo cual hace inviables las intervenciones con diseños experimentales como las que se han podido llevar adelante, por ejemplo, en programas sociales en educación y salud (CAF, 2009). Sin embargo, existe abundante evidencia, a partir del análisis de la evolución en el tiempo de las condiciones de infraestructura y diversas medidas de bienestar económico y social, acerca de la contribución que la infraestructura aporta al bienestar (Queiroz y Gautam, 1992; Binswanger et al., 1995). El desarrollo económico en el mundo tiene un vínculo de largo plazo con el crecimiento poblacional (Kremer, 1993) y ambos, naturalmente, influyen sobre la demanda de infraestructura. Naturalmente, este proceso de

103


concentración de población y de acumulación de infraestructura ocurre de manera gradual y, por lo tanto, es posible visualizarlo básicamente en el largo plazo. Sin embargo, las mejoras en la infraestructura pueden tener efectos sobre el bienestar de los hogares también en el corto y mediano plazo (Barham et al., 2008; Valdivia 2008). El bienestar material de la sociedad descansa sobre sus posibilidades de generar riqueza y sobre las oportunidades que ofrece a sus ciudadanos de beneficiarse de ella. Tanto las condiciones bajo las que se desarrolla la actividad productiva, como aquellas que determinan la calidad de la vida cotidiana de la población se encuentran afectadas de una manera fundamental por la infraestructura, convirtiéndose en crucial para su desarrollo (CAF 2009). El bienestar del hogar depende, en parte, de la facilidad con la que sus miembros pueden acceder a diferentes bienes y servicios (Looney y Frederiksen 1981). Los hogares combinan tiempo, bienes y servicios en distintas proporciones para lograr los niveles de satisfacción más elevados que estén a su alcance (Becker, 1965). La infraestructura puede facilitar, en muchos casos, el consumo de bienes o el acceso a ciertos servicios, que permiten a los hogares lograr con menos dificultades algunos de los objetivos intermedios que forman parte del proceso de mejorar su bienestar (Lokshin y Yemtsov, 2005). La infraestructura afecta, de manera directa, el tiempo de traslado al lugar donde las personas reciben diversos servicios (salud, educación, entre otros) y donde intercambian bienes que producen o que consumen, entre otras cosas (Aghion y Shankerman, 1999; Van de Walle y Cratty, 2002). La infraestructura reduce el costo de utilizar otros bienes en el mejoramiento de su calidad de vida y, por ende, la mejora directamente. Genera un impacto positivo sobre el ingreso de los hogares (Fan y Hazell, 1999; Escobal y Ponce, 2002; Zhang y Fan, 2004; Chowdhury y Torero, 2006; Barham et al., 2008), la salud de las familias y la paz social (Barbero et al., 2011), la asistencia escolar (Valdivia, 2008), la seguridad de las personas (Sánchez y Cipoletta, 2011), entre otros. En general, puede decirse que la infraestructura tiene un impacto positivo sobre el bienestar de la población. Sin embargo, es necesario condicionar esta afirmación de varias maneras. En primer lugar, la infraestructura tiene costos, bien sea porque un proyecto nuevo requiere recursos públicos que dejan de aplicarse a otro ámbito o porque requiere que algunos ciudadanos sacrifiquen parte de su consumo de otros bienes o servicios para pagar, de forma directa, los servicios que la infraestructura ofrece. En segundo lugar, dada la circunscripción de la infraestructura a un cierto ámbito geográfico, con

104

frecuencia, no toda la población de un país o incluso de una ciudad se beneficia de esta de la misma manera. 4.

ACCESO PARA LA EQUIDAD

Se ha argumentado, con base en evidencia construida a partir de la experiencia de muchos países en conjunto, que diferentes medidas de calidad y cantidad de infraestructura (carreteras, ferrocarriles, telecomunicaciones y energía) tienen un vínculo con la distribución del ingreso. Específicamente, se ha sugerido que tanto la calidad como la cantidad de infraestructura están asociadas con una reducción en la desigualdad del ingreso. Además, el impacto de la cantidad parece ser mayor en los países en desarrollo, mientras que el impacto de la calidad es más importante en los países desarrollados (Calderón y Chong, 2004). Existen razones para pensar que la infraestructura puede jugar un papel importante en la reducción de las brechas sociales entre ricos y pobres. Los argumentos que relacionan la infraestructura con la reducción de la desigualdad van desde los efectos de la infraestructura sobre la pobreza de ingresos hasta medidas multidimensionales del bienestar del hogar (Banco Mundial, 2008; Straub, 2008; Estache, 2005; DFID, 2002; Estache et al., 2002; Ravallion y Jalan, 2002; Pouliquen y Malmberg, 2000). De hecho, por lo general, la discusión de política pública alrededor de la infraestructura en países en desarrollo está muy vinculada al mejoramiento de las condiciones de vida de la población más vulnerable. Especialmente en el caso de agua, saneamiento y electricidad, pero también en el caso de otros servicios como gas y telefonía fija, las políticas dirigidas a acercar los servicios a los hogares, con el fin de proveer acceso a ellos, son políticas que pueden tener impactos redistributivos sustanciales, puesto que benefician a los segmentos menos favorecidos y con menos posibilidades de movilidad social. El punto de partida para mejorar el acceso de los menos favorecidos a la infraestructura es que exista y que tenga un nivel de calidad adecuado. En este sentido, la distribución territorial de la política de infraestructura es de gran importancia, ya que las diferencias regionales en los niveles de desarrollo económico y, por lo tanto, de bienestar material de la población en América Latina son muy marcadas (Tanzi, 2005). Por consiguiente, las inversiones en infraestructura dirigida a territorios relativamente pobres pueden tener impactos redistributivos sustanciales, en la medida en que mejoren las condiciones económicas de estas regiones. 5.

DESARROLLO HUMANO


En el primer informe sobre el desarrollo humano en 1990 se expuso claramente el concepto de desarrollo humano “La verdadera riqueza de una nación está en su gente. El objetivo básico del desarrollo es crear un ambiente propicio para que las personas disfruten de una vida prolongada, saludable y creativa. Ésta puede parecer una verdad obvia, aunque con frecuencia se olvida debido a la preocupación inmediata de acumular bienes de consumo y riqueza financiera” (PNUD 1990). El informe sobre el desarrollo humano es un informe independiente encargado por el Programa de las Naciones Unidas para el Desarrollo (PNUD). Desde que se presentó por primera vez en 1990, el informe ha ampliado el horizonte sobre el desarrollo, basándose en el mensaje de que las personas deben estar en el centro de todas las actividades de desarrollo. Cada año analiza un tema de desarrollo importante desde el punto de vista del desarrollo humano. El informe contiene un anexo estadístico con los últimos indicadores de desarrollo humano (PNUD, 2012). El Índice de Desarrollo Humano (IDH) es una medida resumida del desarrollo humano. Mide el avance promedio conseguido por un país en tres dimensiones básicas del desarrollo humano: disfrutar de una vida larga, acceso a educación y nivel de vida digno. El IDH es la media geométrica de índices normalizados que miden los logros en cada dimensión, encarnando la idea de que el desarrollo humano es más amplio que el crecimiento económico. El Índice ha sido la marca distintiva del informe sobre desarrollo humano y un factor principal del éxito continuo del informe (Ferro et al., 2012). En el informe de desarrollo humano de 2010 para lograr una visión integral de la evolución del desarrollo humano se introdujeron tres nuevos índices: el índice de desarrollo humano ajustado por la desigualdad, el índice de desigualdad de género y el índice de pobreza multidimensional Estas medidas se han introducido para complementar el IDH y superar las limitaciones que se tenían, ya que únicamente se consideraba el desarrollo humano promedio de un país sin tomar en cuenta la distribución de los logros en los indicadores que lo componen entre las distintas poblaciones (PNUD, 2010). 6.

CONCLUSIÓN

El panorama actual al ubicar al ser humano en el centro de cualquier desarrollo sugiere nuevos retos en la evaluación de los impactos de la infraestructura. Aunque en la actualidad existen diferentes trabajos de investigación y un conceso sobre la relación positiva que hay entre infraestructura y desarrollo humano, es necesario construir una base de conocimiento amplia basada en los marcos teóricos actuales más allá de las

percepciones convencionales, sobre las bondades de la infraestructura para el desarrollo económico y para el bienestar. La inversión en infraestructura, su mantenimiento y la implementación de políticas de uso deben ser evaluadas bajo una óptica amplia, que contemple no solamente los elementos beneficiosos más objetivos de los que se disponga, sino también los costos directos y los efectos que tal infraestructura puede tener sobre poblaciones que no son sus beneficiarias directas (Echeverry et al., 2005; Peñalosa, 2005). El mejoramiento de la calidad y de la cantidad de la infraestructura de una sociedad es, por tanto, no solo fundamental para la prosperidad y el bienestar, sino también un reto significativo, que debe encontrar la respuesta apropiada en cada caso a las diferentes expresiones que se pueden manifestar en grados variados en contextos diferentes. En la literatura sobre los impactos directos de la infraestructura en el bienestar de los hogares, llama la atención la escasez de investigaciones con el rigor metodológico habitual en evaluaciones de impacto de programas sociales. Esta escasez en la producción académica se debe a la propia naturaleza tanto de la investigación científica, como de la inversión en nueva infraestructura. En vista de que prácticamente cualquier proyecto de infraestructura se ubica geográficamente según las características propias de las localidades, al momento de medir su impacto, es difícil distinguir el efecto del proyecto en sí mismo de esas características que determinaron su ubicación. Esta dificultad es particularmente notable en el caso de la infraestructura, ya que la mayoría de los proyectos nuevos requieren inversiones sustanciales, lo cual hace inviables las intervenciones con diseños experimentales. A pesar de que existen muchas experiencias en el campo de la política social (tales como programas de empleo, subsidios alimentarios, entre otros) en las que tales evaluaciones se han podido llevar adelante. En el caso de inversiones en infraestructura responden, por lo general, a las realidades específicas del lugar donde se llevan a cabo y, en muchos casos, involucran grandes cantidades de recursos que no se pueden replicar en otra parte. Esto dificulta las posibilidades de hacer evaluaciones rigurosas del impacto de las intervenciones, lo cual explica la gran escasez de este tipo de análisis para proyectos de infraestructura. Esta situación destaca la importancia de idear mecanismos creativos que acompañen las políticas de infraestructura para levantar información nueva, o incluso para diseñar intervenciones que faciliten la evaluación inicial, antes de comprometer la totalidad de los recursos. Dados los diversos factores discutidos hasta ahora, se podría afirmar que la medición de los impactos de la

105


infraestructura representa un problema económico y social de primer orden que, puede llegar a ser una tarea difícil de acometer, sin embargo, en la actualidad se necesitan argumentos y evidencia para priorizar el desarrollo de ciertas iniciativas de intervención en infraestructura frente a usos alternativos de los recursos, y así maximizar los beneficios de estas inversiones. Este tipo de análisis solamente se puede alcanzar a través del estudio cuidadoso de las experiencias y la evaluación del impacto de las intervenciones en infraestructura, utilizando metodologías científicas de estándares elevados, para guiar la toma de decisiones sobre la asignación de recursos en infraestructura. 7.

BIBLIOGRAFÍA

Agénor, P. y Moreno-Dodson B., 2006, Public Infrastructure and Growth: New Channels and Policy Implications. (World Bank Policy Research Working Paper 4064). Washington, DC: Banco Mundial. Aghion, P. y Shankerman, M., 1999, Competition, Entry and the Social Returns to Infrastructure in Transition Economies. Economics of Transition, 7(1), 79-101. Ahmed, H. y Miller, S., 2002, The Level of Development and Growth Determinants of Productivity Growth: A Cross-Country Analysis. Applied Economics, 34(9), 1089-95. Anderson, J. y Wincoop, E., 2004, Trade Costs. Journal of Economic Literature, 62(3), 691-751. Aschauer, D., 1989, Is Public Expenditure Productive? Journal of Monetary Economics, 23(2), 51-63. Banco Mundial, 2001 Global Economic Prospects and the Developing countries 2002: Making Trade work for the Poor. Washington, DC: Banco Mundial. Banco Mundial. (2008). The Welfare Impact of Rural Electrification: A Reassessment of the Costs and Benefits.Washington, DC: Banco Mundial. Barham, T., Lipscomb, M. y Mobarak, A., 2008, Social and Economic Impact of Electricity Provision: Evidence from the Quasi-Random Placement of Hydro-Electric Plants in Brazil. Manuscrito no publicado, University of Colorado y Yale University. Becker, G., 1965, A Theory of the Allocation of Time. Economic Journal, 75(299), 493-517. Biehl, D., 1986, The contribution of infrastructure to regional development. Report produced by the Infrastructure Study Group for the European Community. Bruselas: Comisión Europea.

106

Binswanger, H., Khandker, S. y Rosenzweig, M., 1995, How Infrastructure and financial institutions affect agricultural output and investment in India. Journal of Development Economics, 41(2), 337-366. Blyde, J., Mesquita M., y Volpe, C., 2008, Desbloqueando las arterias. La incidencia de los costos de transporte en el comercio de América Latina y el Caribe. Washington DC: Banco Interamericano de Desarrollo. Bougheas, S., Demetriades, P. y Mamuneas T., 2000, Infrastructure, Specialization and Economic Growth. The Canadian Journal of Economics, 33 (2), 506-522. Briceño-Garmendia, C., Estache, A. y Shafik, N., 2004, Infrastructure Services in Developing Countries: Access, Quality, Costs and Policy Reform. (Working Paper N° 3468). Washington, DC: Banco Mundial. Calderón, C. y Chong, A. (2004). Volume and Quality of Infrastructure and the Distribution of Income: An Empirical Investigation. Review of Income and Wealth, 50(1), 87-106. Calderón, C. y Servén, L., 2002, The Output Cost of Latin America’s Infrastructure Gap. Working paper 186. Santiago de Chile: Banco Central de Chile. Calderón, C. y Servén, L., 2004, The Effects of Infrastructure Development on Growth and Income Distribution. (Working paper 270). Santiago de Chile: Banco Central de Chile. Chowdhury, S. y Torero, M., 2006, Urban-Rural Linkages in Bangladesh: The Impact of Infrastructure and the Food Value Chain on Livelihoods and Migration of Landless Households, Women and Girls in the Northwestern Region. Manuscrito no publicado, International Food Policy Research Institute. Corporación Andina de Fomento (CAF), 2006, Reporte de Economía y Desarrollo. Camino a la transformación productiva en América Latina, Caracas: CAF. Corporación Andina de Fomento (CAF), 2009, Caminos para el futuro, gestión de la infraestructura en América, CAF. Department for International Development (DFID), 2002, Making Connections. Infrastructure for poverty reduction. Londres: DFID. Duggal, V., Saltzman, C. y Klein, L., 2007, Infrastructure and productivity: An extension to private infrastructure and IT productivity. Journal of Econometrics 140, 485502.


Easterly, W. y Rebelo, S., 1993, Fiscal policy and economic growth: An empirical investigation. Journal of Monetary Economics, 32(3), 417-458.

Kremer, M., 1993, Population Growth and Technological Change: One Million B. C. to 1990. The Quarterly Journal of Economics, 108 (3), 681-716.

Escobal, J. y Ponce, C., 2002, The Benefits of Rural Roads: Enhancing Income Opportunities for the Rural Poor. (Working Paper N° 40). Lima: Grupo de Análisis para el Desarrollo.

Limao, N. y Venables, A., 2001, Infrastructure, Geographical Disadvantage, Transport Costs and Trade. The World Bank Economic Review, 15, 451- 479.

Estache, A., Foster, V. y Wodon, Q. (2002). Accounting for Poverty in Infrastructure Reform. Learning from Latin America’s Experience. Washington, DC: Instituto del Banco Mundial. Estache, A. (2005). Latin America’s Infrastructure Experience: Policy Gaps and the Poor. En Nellis, J. y Birdsall, N. (Eds.), Reality Check: The Distributional Impact of Privatization in Developing Countries. Washington, DC: Center for Global Development. Fan, S. y Hazell, P., 1999, Are Returns to Public Investment Lower in Less-favored Rural Areas? An Empirical Analysis of India. (Discussion Paper N° 43). Washington, DC: Environment and Production Technology Division, International Food Policy Research Institute. Fernald, J., 1999, Roads to prosperity? Assessing the link between Public Capital and Productivity. American Economic Review 89(3), 619-638. Ferro G. y Lentini E., 2012, Infraestructura y equidad social: Experiencias en agua potable, saneamiento y transporte urbano de pasajeros en América Latina, División de Recursos Naturales e Infraestructura de la Comisión Económica para América Latina y el Caribe (CEPAL), LC/L.3437. Guasch, J. y Kogan, J., 2005, Inventories and Logistic Costs in Developing Countries: Levels and Determinants, a Red Flag on Competitiveness and Growth. Revista de la Competencia y la Propiedad Intelectual, 1(1). Hulten, C., 1996, Infrastructure capital and economic growth: How well you use it may be more important than how much you have. (Working paper 5847). Massachusetts: National Bureau of Economic Research. Holtz-Eakin, D. y Lovely, M., 1995, Scale Economies, Returns to variety and the productivity of Public Infrastructure. (Working paper 5295) Massachusetts: National Bureau of Economic Research. Jorgenson, D., Ho, M. y Stiroh, K., 2008, A retrospective look at the US Productivity Growth Resurgence. Journal of Economic Perspectives 22(1), 3-24.

Lokshin, M. y Yemtsov, R. (2005). Has Rural Infrastructure Rehabilitation in Georgia Helped the Poor? The World Bank Economic Review, 19(2), 311-333. Looney, R. y Frederiksen, P., 1981, The Regional Impact of Infrastructure Investment in Mexico. Regional Studies, 15 (4), 285-96. Machicado, C., 2007, Macroeconomic and Welfare Effects of Public Infrastructure Investment in Five Latin American Countries. Manuscrito no publicado, Corporación Andina de Fomento. Morrison, C. y Schwartz, A., 1992, State infrastructure and productive performance. (Working Paper 3981). Massachusetts: National Bureau of Economic Research. Munnell, A.H., 1990, Why has Productivity Growth Declined? Productivity and public investment. New England Economic Review, 3-22. Munnell, A.H., 1992, Policy Watch: Infrastructure investment and Economic Growth. Journal of Economic Perspectives 6(4), 189-198. PNUD. 1990. Human Development Report 1990. Ediciones Mundi-Prensa. New York. PNUD. 2010. Human Development Report 2010. Ediciones Mundi-Prensa. New York. PNUD. 2012. Human Development Report 2012. Ediciones Mundi-Prensa. New York. Pouliquen, L. y Malmberg, C. (2000). Infrastructure and Poverty. Manuscrito no publicado, Banco Mundial. Radelet, S. y Sachs, J., 1998, Shipping Costs, Manufactured Exports and Economic Growth. Manuscrito no publicado, Harvard Institute for International Development. Rozas, P. y R. Sánchez. 2004. Desarrollo de infraestructura y crecimiento económico: revisión conceptual, serie Recursos naturales e infraestructura. Nº 75 (LC/L.2182-P), Santiago de Chile. Comisión Económica para América Latina y el Caribe (CEPAL). Publicación de las Naciones Unidas. Nº de venta: S.04.II.G.109.

107


Sánchez, R., y T. Cipoletta. 2011. Infraestructura para la integración regional, Unidad de Servicios de Infraestructura de la División de Recursos Naturales e Infraestructura de la CEPAL. LC./L.3408. Straub, S., 2008, Infrastructure and Growth in Developing Countries: Recent Advances and Research Challenges (Working Paper N° 4460). Washington, DC: Banco Mundial. Tatom, J., 1993, The spurious effect of public capital formation on private sector productivity. Policy Studies Journal, 21, 391. Tanzi, V., 2005, Building Regional Infrastructure in Latin America. Washington, DC: Banco Interamericano de Desarrollo. Toynbee, A., 1947, Study of history. Volumen IV by D. C. SOMERVELL, Oxford University Pres. Valdivia, M., 2008, Connecting Rural Communities for Development: An Impact Evaluation of a Rural Roads Program in Peru. Manuscrito no publicado, Grupo de Análisis para el Desarrollo. Van de Walle, D. y Cratty, D. (2002). Impact Evaluation of a Rural Road Rehabilitation Project. Manuscrito no publicado, Banco Mundial. Zambrano O. y Aguilera-Lizarazo G., 2011, Brechas de infraestructura, crecimiento y desigualdad en los países andinos, Banco Interamericano de Desarrollo (BID), IDBWP-291. Zhang, X. y Fan, S. (2004). Public Investment and Regional Inequality in Rural China. Agricultural Economics, 30(2), 89-100.

108


Modelación de áreas de afectación por desbordamiento de ríos en zonas de transición fluvial. Caso del río La Antigua, Veracruz Modeling of areas affected by flood inundation in transition fluvial zones. Case, La Antigua river, Veracruz

C. Hernández Galeno, Estudiante del Posgrado en Recursos Hídricos y Ambiental. Universidad Autónoma de Querétaro. Cuauhtemoc68@hotmail.com

RESUMEN. Se estudió la distribución de áreas afectadas por desbordamiento de ríos ocurridas en el 2010 en la zona de transición fluvial del río La Antigua en el estado de Veracruz mediante el tránsito de avenidas con el modelo unidimensional HEC-RAS con el objetivo de evaluar la variabilidad en las predicciones de las superficies afectadas por inundaciones al utilizar tres modelos digitales de elevación (MDE) con diferente resolución espacial. Los modelos digitales de elevación que se utilizaron corresponden a la información topográfica elaborada por el Instituto Nacional de Estadística, Geografía e Informática (INEGI) la cual es la que más se utiliza en la República Mexicana y se encuentra disponible de manera gratuita. Las áreas de inundación obtenidas con los tres modelos digitales de elevación fueron comparadas con respecto a su superficie con una medida de bondad de ajuste que considera la superficie en común entre las áreas con respecto al total de estas. Los resultados indicaron que con la cartografía LIDAR se obtuvo una mayor superficie de inundación, siendo su área más similar la generada por el MDE 1:20,000 que con la del MDE 1:50,000. Las principales diferencias fueron en las zonas con pocos cambios de elevación como los que se encuentran dentro de los cauces los cuales no son adecuadamente representadas por el MDE 1:20,000 debido a que fue creado solamente con curvas de nivel sin tomar en consideración puntos acotados como bancos de nivel y vértices geodésicos además de las corriente y cuerpos de agua y en el caso del MDE 1:50,000 por su escala de representación.

Palabras clave: Inundaciones, modelos digitales de elevación, simulación hidrológica, HEC-RAS. 1.

INTRODUCCIÓN

Las inundaciones son uno de los desastres naturales que más importancia han cobrado en la actualidad, esto debido a su constante ocurrencia y a las grandes afectaciones que dejan a su paso, ya sea por pérdidas humanas o económicas. En México, para el periodo de 1999 a 2011 se tienen estimaciones de alrededor de 154 individuos fallecidos anualmente y de 21,368 millones de dólares en pérdidas anuales por causa de fenómenos hidrometeorológicos, entre los cuales se encuentran las inundaciones por desbordamiento de ríos (CENAPRED, 2010). En este sentido es que surge la necesidad de identificar las áreas que se encuentran en riesgo de ser afectadas por este tipo de desastres con fines de prevención o de evaluación de daños ante un evento hidrometeorológico extremo, siendo el uso de los Sistemas de Información Geográfica (SIG) y los modelos de simulación hidrológica las herramientas clave para ello, sin embargo, debido a él gran interés en este tema, en la actualidad existe una gran cantidad de modelos para la obtención de áreas de inundación así como de información con la cual realizar

las simulaciones por lo cual surgen diversas preguntas como: ¿Qué modelo es mejor para las condiciones de determinada área de estudio? y ¿Qué tanto afecta la obtención de áreas de inundación si se utiliza determinada información?. La búsqueda de respuestas a estas preguntas ha llevado a la realización de diversos estudios enfocados a la evaluación de los modelos de simulación hidrodinámica o hidrológica así como de las variables de entrada para la realización de las simulaciones, de forma tal que se logre identificar con cuál de ellos se obtienen las modelaciones que se asemejan más a la realidad de acuerdo a las condiciones específicas de cada lugar o región. Algunos de los estudios con respecto a la influencia del tipo de información seleccionada para la obtención de las áreas de inundación es el de Horrit y Bates (2001) los cuales realizaron un estudio sobre el efecto en el cambio de la resolución espacial de los Modelos Digitales de Elevación (MDE) con respecto a su uso en modelación de inundaciones. El MDE original fue cartografía LIDAR (Light Detection and Ranging) con una resolución de 10 m, a partir del cual se obtuvieron 6 modelos más (20, 50, 100, 250, 500 y 1000 m) y con los cuales se realizaron simulaciones con el modelo LISFLOOD-FP para un tramo

109


de 60 km del río Severn, en Reino Unido, y finalmente las áreas de inundación modeladas fueron comparadas con inundaciones obtenidas de imágenes de satélite. Los resultados obtenidos demostraron que el mayor funcionamiento del modelo se alcanzó con una resolución de 100 m, después de la cual no se observó mejoría con el aumento de la resolución, además se obtuvieron predicciones más exactas en los niveles de agua al aumentar la resolución aunque estas en general fueron buenas hasta una resolución de 500 m. El estudio realizado por Horrit y Bates en el 2001, solo contemplo el cambio en la resolución espacial y no la fuente de obtención, de manera que, otros estudios fueron realizados para estudiar este efecto, como por ejemplo, el de Sanders (2007), el cual comparo diferentes MDE obtenidos a través de internet, con la finalidad de observar cuál de ellos presentaba las mejores características para la simulación de inundaciones y para lo cual utilizó un modelo hidrodinámico bidimensional y mapas existentes de inundaciones observadas. Las simulaciones fueron realizadas para el río Santa Clara en California y el río Búfalo en Houston, Texas. Los resultados que obtuvo reflejaron que la cartografía LIDAR fue la que represento la mejor fuente de modelos de terreno debido a su precisión vertical y horizontal, haciendo que estos puedan detectar pequeños obstáculos en el terreno y la vegetación. Igual a Sanders (2007), Cook y Merwade en 2009 realizaron un análisis comparativo entre las inundaciones obtenidas con cartografía LIDAR y las resultantes de otras seis diferentes topografías, para lo cual, cada conjunto de datos topográficos fue utilizado para crear un mapa de inundación utilizando los modelos 1D HEC-RAS y FESWMS 2D para dos áreas de estudio; el arroyo Strouds en el norte de California y el río Brazos en Texas. Los resultados que obtuvieron indicaron que las áreas de inundación se redujeron considerablemente al aumentar la resolución de los modelos. De Gonzalo (2011) analizó la influencia de la calidad y resolución de la geometría de entrada en la obtención de áreas de inundación mediante la utilización de los modelos hidrodinámicos HEC-RAS e IBER y aplicado a la cuenca del río Pejibaye en Costa Rica, obteniendo que el efecto de la resolución de los MDE puede llevar a producir resultados, tanto en las variables hidráulicas, como en las superficies de inundación, con un nivel considerable de error, convirtiendo a la topografía en el factor más delicado en la modelación hidrodinámica. Recientemente, Álvarez et al (2012) evaluaron la incertidumbre en la modelación numérica de flujos de inundación en función de la resolución de la malla del MDE para la zona de estudio de la desembocadura del río Tonalá, en el límite de los estados de Veracruz y Tabasco,

110

México, y utilizando el modelo hidrodinámico 2D MIKE 21. Los resultados que obtuvieron indicaron que existe una cierta variabilidad en cuanto al gasto de salida en la desembocadura de acuerdo a la resolución de la malla, apreciándose que si se tiene una alta resolución espacial el flujo tiende a presentar más variaciones respecto al empleo de mallas más gruesas. Debido a lo anterior, en este trabajo se estudió la distribución de áreas afectadas por desbordamiento en la zona de transición fluvial del río La Antigua en el estado de Veracruz mediante el tránsito de avenidas con el modelo unidimensional HEC-RAS con el objetivo de evaluar la variabilidad en las predicciones de las superficies afectadas por inundaciones al utilizar tres MDE con diferente resolución espacial. 2.

MATERIALES, DATOS Y MÉTODOS

2.1 La cuenca del río La Antigua La cuenca del río La Antigua se ubica al centro del Estado de Veracruz de Llave y el sureste del Estado de Puebla, con una superficie de aproximadamente 2,115 km2, sus coordenadas extremas son; 2,165,794 Norte, 2,119,885 Sur, 681,371 Oeste y 777,783 Este. La cuenca se encuentra principalmente entre los municipios de Puente Nacional, Tlaltetela, Coatepec, Xico, Ayahualulco, Ixhuacán de los Reyes y Cosautlán de Carvajal en el Estado de Veracruz de Llave y en los municipios de Quimixtlán, Chilchotla y Chichiquila del Estado de Puebla (Figura 1). La cuenca del río La Antigua se conforma de elevaciones que van desde los 5 m hasta 4,200 m siendo el Pico de Orizaba el elemento orográfico de mayor elevación. De manera general, en la cuenca predominan las áreas fuertemente inclinadas, sin embargo, también existen grandes áreas con pendientes bajas, principalmente al este de la cuenca. La pendiente media de la cuenca es de 27%. De acuerdo a la variabilidad altitudinal dentro de la cuenca, es posible encontrar una gran diversidad de climas que van desde los cálidos que se encuentran ubicados en las partes más bajas de la cuenca, pasando por los climas semicálidos, hasta llegar a los climas de tipo templado y semifrío en las áreas de mayor altitud dentro de la cuenca. La precipitación media anual en la zona es de 1,400 mm. Con respecto a los tipos de suelo, en la cuenca existen siete suelos con sus distintas unidades los cuales se encuentran asociados en diversas formas y de los cuales los predominantes son; andosol, vertisol, litosol y el feozem.


Figura 1. Ubicación de la cuenca del río La Antigua En la cuenca, el uso de suelo y vegetación que predomina es el de la agricultura con el 51% el cual se encuentra representado principalmente por cultivos de temporal y en una mínima superficie por cultivos de humedad y riego. Otro uso de suelo con una importante superficie dentro de la cuenca es el de pastizal cultivado el cual representa el 17% de la superficie. De los tipos de vegetación presentes dentro de la cuenca se encuentran los bosques con el 23% de las superficies y las selvas con 6%. Los bosques se encuentran representados por el bosque mesófilo de montaña, bosque de pino – encino y bosque de pino. Las selvas corresponden a la selva baja caducifolia y la selva mediana subcaducifolia. Hidrológicamente, la cuenca está drenada por una gran cantidad de ríos y arroyos, siendo el principal el río La Antigua del cual se desprende el nombre de la cuenca. El río La Antigua tiene sus orígenes a cuatro kilómetros al este de la localidad de González Ortega en el Estado de Puebla en donde es conocido como río del Resumidero para más adelante ser nombrado río Pescados y finalmente río La Antigua. El río La Antigua cuenta con una longitud de 147 km y desemboca en el Golfo de México. El río presenta una pendiente media del 1.6% y en general el lecho del río es gravo arenoso con boleos y en sus

márgenes es común encontrar vegetación de tipo herbácea y en menor medida arbustos y árboles. El cauce durante algunas partes de su trayecto presenta grandes taludes de tierra en alguno de sus márgenes. 2.2 El modelo HEC-RAS El modelo hidrodinámico HEC-RAS fue desarrollado por el Cuerpo de Ingenieros de los Estados Unidos y de acuerdo a Rodríguez et al (2007) al ser parte de la familia de modelos HEC, es también un modelo de uso libre, ampliamente utilizado para realizar la modelación hidráulica de canales naturales y artificiales bajo condiciones de flujo permanente y no permanente, y regímenes de flujo subcrítico, crítico, supercrítico y mixto. Para el caso de flujo permanente la solución se realiza a través del método del paso estándar (Brunner, 2010): Z 2  Y2 

a2V22 aV2  Z1  Y1  1 1  he 2g 2g

(1)

Donde Z1, Z2 son las elevaciones del fondo del cauce principal en la sección i, Y1 y Y2 es la profundidad del agua en las secciones transversales, V1 y V2 son las velocidades promedio, a1 y a2 son coeficientes de ponderación que depende de la velocidad, g es la aceleración por la

111


gravedad y he es la perdida de energĂ­a en el tramo entre las secciones 1 y 2. La pĂŠrdida de energĂ­a (he) entre dos secciones transversales se compone de las pĂŠrdidas por fricciĂłn y las pĂŠrdidas por contracciĂłn o expansiĂłn. La ecuaciĂłn para la pĂŠrdida de carga de energĂ­a es la siguiente: he ď&#x20AC;˝ L S f ď&#x20AC;Ť C

a2V22 a1V12 ď&#x20AC;­ 2g 2g

(2)

Donde L es la longitud entre las secciones 1 y 2, đ?&#x2018;&#x2020;đ?&#x2018;&#x2020;Ě&#x2026;đ?&#x2018;&#x201C;đ?&#x2018;&#x201C; es la pendiente de fricciĂłn representativa entre las dos secciones y C es el coeficiente de perdida por contracciĂłn o expansiĂłn. Por otro lado el HEC-RAS para flujo no permanente incluye la soluciĂłn completa de la ecuaciĂłn unidimensional de Saint Venant (Brunner, 2010).

ď&#x201A;śA ď&#x201A;śď ŚQ ď&#x201A;śď&#x20AC;¨1 ď&#x20AC;­ ď Ś ď&#x20AC;ŠQ ď&#x20AC;Ť ď&#x20AC;Ť ď&#x20AC;˝0 ď&#x201A;śt ď&#x201A;śxc ď&#x201A;śx f

(3)

ď&#x192;Ś 2 2ď&#x192;ś ď&#x192;§ ď&#x20AC;¨1 ď&#x20AC;­ ď Ś ď&#x20AC;Š Q ď&#x192;ˇ ď&#x192;ˇď&#x192;ˇ ď&#x192;§ď&#x192;§ Af ď&#x192;¸ ď&#x192;¨ ď&#x192;ś ď&#x192;Ś ď&#x192;ś ď&#x192;Ś ď&#x201A;śz ď&#x192;ˇ ď&#x192;§ ď&#x201A;śz ď&#x20AC;ŤS f ď&#x192;ˇď&#x20AC;˝0 ď&#x20AC;Ť gAc ď&#x192;§ ď&#x20AC;Ť S c ď&#x192;ˇ ď&#x20AC;Ť gA f ď&#x192;§ ď&#x192;ˇ ď&#x192;§ ď&#x201A;śx ď&#x201A;ś x ď&#x192;ˇ ď&#x192;§ ď&#x192;¸ ď&#x192;¨ c ď&#x192;¸ ď&#x192;¨ f ď&#x201A;śQ ď&#x201A;ś ď&#x192;Śď&#x192;§ ď Ś 2 Q 2 ď&#x20AC;Ť ď&#x201A;śt ď&#x201A;śxc ď&#x192;§ Ac ď&#x192;¨

ď Śď&#x20AC;˝

Kc , Kc ď&#x20AC;Ť K f

Sc ď&#x20AC;˝

ď Ś 2Q 2 nc2 , Rc4 3 Ac2

ď&#x192;ś ď&#x192;ˇď&#x20AC;Ť ď&#x201A;ś ď&#x192;ˇ ď&#x201A;śx f ď&#x192;¸

donde K ď&#x20AC;˝

Sf ď&#x20AC;˝

A5 3 nP 2 3

ď&#x20AC;¨1 ď&#x20AC;­ ď Ś ď&#x20AC;Š2 Q 2 n 2f R 4f 3 A2f

(4)

La procedencia de la informaciĂłn para la obtenciĂłn de las ĂĄreas de inundaciĂłn fue la siguiente: ď&#x201A;ˇ

Modelo digital de elevaciĂłn: Continuo de Elevaciones Mexicano (CEM), curvas de nivel 1;20,000 y cartografĂ­a LIDAR, del INEGI.

ď&#x201A;ˇ

PrecipitaciĂłn: Estaciones meteorolĂłgicas del Servicio MeteorolĂłgico Nacional obtenidas del Extractor RĂĄpido de InformaciĂłn ClimatolĂłgica (ERIC III v. 3.2).

ď&#x201A;ˇ

Gastos mĂĄximos y lecturas de nivel del agua: Estaciones hidromĂŠtricas de la ComisiĂłn Nacional del Agua, disponibles en el Banco Nacional de Datos de Aguas Superficiales (BANDAS).

ď&#x201A;ˇ

Uso de suelo y vegetaciĂłn: ImĂĄgenes de satĂŠlite RapidEye y Spot.

ď&#x201A;ˇ

EdafologĂ­a: Mapa 1:250,000 de suelos elaborado por INIFAP y CONABIO.

La informaciĂłn proveniente del CEM es producto principalmente de la digitalizaciĂłn de cartografĂ­a topogrĂĄfica escala 1:50,000 producida por el propio INEGI, ademĂĄs se apoya de manera importante de otros tipos de informaciĂłn como los puntos acotados (bancos de nivel y vĂŠrtices geodĂŠsicos), las corrientes y cuerpos de agua, los cuales fueron interpolados mediante el modelo ANUDEM.

(5)

Las curvas de nivel 1:50,000 originales fueron obtenidas mediante tĂŠcnicas fotogramĂŠtricas a partir de fotografĂ­as aĂŠreas, informaciĂłn geodĂŠsica y verificaciĂłn de campo.

(6)

Las curvas de nivel 1:20,000 fueron obtenidas de la misma forma que las curvas 1:50,00 siendo la Ăşnica diferencia la escala de interpretaciĂłn, sin embargo, la informaciĂłn no ha sido transformada a MDE por lo cual para este estudio se interpolo con las herramientas disponibles.

Donde Q es el flujo total en la parte baja del tramo de la corriente, A (Ac, Af) el ĂĄrea de la secciĂłn transversal del flujo (en el canal, llanura de inundaciĂłn), xc y xf son las distancias a lo largo del canal y llanura de inundaciĂłn, P el perĂ­metro hĂşmedo, R el radio hidrĂĄulico (A/P), n el valor de rugosidad de Manning y S la pendiente de fricciĂłn. ø determina como se divide el flujo entre el canal y la llanura de inundaciĂłn de acuerdo al transporte Kc y Kf. Las ecuaciones fueron aproximadas usando diferencias finitas implĂ­citas y resueltas numĂŠricamente usando la tĂŠcnica iterativa de Newton â&#x20AC;&#x201C; Raphson.

112

2.3 Fuentes de informaciĂłn empleadas

Por otro lado, la cartografĂ­a LIDAR es derivada de datos del Sistema LĂĄser Aerotransportado LIDAR y corresponde a una matriz de datos de elevaciĂłn interpolados a 15 m de resoluciĂłn a partir de las coordenadas de todos los puntos colectados de los pulsos de luz lĂĄser emitidos, por ello, se registran las elevaciones de rasgos de la superficie del terreno, asĂ­ como naturales y de origen antrĂłpico. Las herramientas empleadas para la preparaciĂłn de la informaciĂłn requerida para la simulaciĂłn hidrolĂłgica fueron ArcGIS con las extensiones Spatial Analyst y HECGeoRAS, y para la simulaciĂłn se utilizĂł HEC-RAS.


a) b) c)

Figura 2. Modelos digitales de elevación obtenidos de a) CEM escala 1:50,000, b) Curvas de nivel escala 1:20,000 y c) Cartografía LIDAR escala 1:10,000 2.4 Obtención y preparación de la información requerida para la simulación hidrológica La información requerida para realizar la simulación hidrológica se obtuvo en ArcGIS mediante el procedimiento recomendado por el Centro Nacional de Prevención de Desastres (CENAPRED, 2011) el cual consistió en realizar correcciones de los MDE para solucionar problemas asociados a la discontinuidad del flujo de agua y posteriormente la obtención de los cauces a simular así como su área de aporte, todo ello con ayuda de la extensión Spatial Analyst La preparación de los archivos se realizó mediante la utilización de la extensión HEC-GeoRAS y consistió en crear los archivos con la trayectoria de los ríos (Stream Centerline) y el de la ubicación y geometría de las secciones transversales (XS Cut Lines) así como el llenado de las tablas de atributos respecto a su topología, longitudes, estaciones y elevaciones para posteriormente ser generado el archivo de compatibilidad para su uso en HEC-RAS. 2.5 Simulación del tránsito de avenidas y obtención de los mapas de inundación Para la simulación del tránsito de avenidas se utilizó HECRAS en donde se completó la información de las secciones transversales correspondiente a; longitudes entre secciones con respecto al canal principal y a sus márgenes, valores de coeficiente n de rugosidad de Manning, gastos, condiciones de frontera y condiciones de simulación.

Con la información completa se realizaron las simulaciones para las secciones obtenidas con los distintos MDE y con los resultados obtenidos se compararon los valores de nivel de agua en la sección de control correspondiente a la estación hidrométrica 28003 “Cardel”, de esta manera se realizó una calibración a través de un proceso iterativo en la variación del coeficiente n de rugosidad de Manning hasta que se consiguió una diferencia ± 20 cm entre el nivel de agua registrado y el nivel de agua calculado ya que de acuerdo a Ramos y Mejía (2012), el Cuerpo de Ingenieros de EEUU considera calibrado el modelo cuando se consigue esa diferencia. Para la obtención de los mapas de inundación se utilizó la opción RAS Mapping de la extensión HEC-GeoRAS, la cual generó de manera automatizada las áreas de inundación a partir de la creación de un modelo raster al ser interpolados los valores de las secciones transversales del nivel de agua simulados en HEC-RAS. 2.6 Comparación de las áreas de inundación obtenidas Las áreas de inundación obtenidas con los diferentes MDE fueron comparadas entre cada una de ellas mediante la utilización de la medida de bondad de ajuste propuesta por Horrit (2006):

F

NumS mod  Sobs   100 NumS mod  Sobs 

(7)

113


Donde F es el % de coincidencia, Smod y Sobs son los conjuntos de dominio de las subregiones (pixeles, elementos o celdas) modeladas y observadas y N es el número de elementos del conjunto (). Debido a que en esta investigación el objetivo era realizar la comparación entre áreas de inundación modeladas, las “áreas observadas” de la medida de bondad de ajuste correspondieron a las “áreas simuladas” del modelo a comparar. 3.

MDE 1:50,000 es de 9 m modificando considerablemente la capacidad de transporte de agua en esa sección.

a)

RESULTADOS Y DISCUSIÓN

3.1 Cauces y secciones transversales Las distancias de los cauces obtenidos para las simulaciones fueron similares entre el MDE 1:20,000 y 1:50,000 siendo estas de 106.1 km, esto debido principalmente a que ambos modelos fueron generados a través de técnicas fotogramétricas a partir de fotografías aéreas las cuales están enfocadas a obtener curvas de nivel a cierta equidistancia pudiendo no representar los cambios que existen en zonas con poca variación altitudinal tal es el caso de las llanuras de inundación. Por otro lado, la longitud de los cauces obtenidos con la cartografía LIDAR fue 8.7 km mayor que el de los MDE 1:20,000 y 1:50,000 lo cual refleja el grado de detalle con la cual puede ser representada la topografía con este tipo de tecnología de manera que puede identificar los pequeños cambios de elevación que se encuentran en las llanuras de inundación permitiendo identificar claramente el trayecto de los ríos. Debido a las diferencias en las longitudes obtenidas con los MDE el número de secciones obtenidas para las simulaciones fueron distintas; con la cartografía LIDAR se obtuvieron 234 secciones, con una equidistancia en promedio de 500 m entre cada una de ellas y con anchos de 800 metros, mientras que para el MDE 1:20,000 las secciones fueron 224 y 220 para el MDE 1:50,000 ambos con equidistancias y anchos similares a los de la cartografía LIDAR. Además del número mayor de secciones en la cartografía LIDAR lo que más destaco fue que el acomodo de las secciones requirió de un mayor tiempo que el de los otros modelos, debido a que como el cauce presentaba más “curvaturas” las secciones se cruzaban entre ellas y eso representaba errores que al momento de obtener las áreas de inundación estas resultaban incompletas. En la Figura 3 se puede observar la diferencia de la sección ubicada en la estación hidrométrica 28003 “Cardel” de acuerdo al MDE con la cual fue generada. La sección correspondiente a la cartografía LIDAR presenta una elevación del fondo del cauce cercana a los valores reportados para la estación hidrométrica, mientras que para el MDE 1:20,000 los valores más bajos son de 7 m y el del

114

b)

c)

Figura 3. Secciones transversales en el sitio de la estación hidrométrica 28003 “Cardel”, a) Cartografía LIDAR escala 1:10,000, b) Curvas de nivel escala 1:20,000 y c) CEM escala 1:50,000 Con respecto a los valores iniciales de n de rugosidad de Manning para todas las secciones en su parte central fueron de 0.040, el cual corresponde a corrientes de montaña sin vegetación en el canal y con presencia en el fondo de grava, guijarros y cantos rodados, mientras que para los márgenes fue de 0.060, valor correspondiente a planicies de inundación con ligera presencia de malezas y árboles. Con el proceso iterativo de calibración estos


valores cambiaron desde 0.020 para los márgenes y hasta 0.030 para la parte central del cauce. 3.2 Gastos utilizados y niveles de agua Los gastos y niveles de agua utilizados para calibrar HECRAS fueron los de la estación hidrométrica 28003 “Cardel” (Tabla 1), obteniéndose que para el año de comparación correspondiente al 2010, los niveles del agua simulados con la cartografía LIDAR y 1:50,000 fueron mayores por 4.9 cm y 4.6 cm respectivamente, mientras que para el MDE 1:20,000 fue menor en 1.5 cm. El año 2010 fue utilizado para realizar la comparativa de las áreas de inundación debido a que en ese año el Huracán Karl provoco una de las mayores inundaciones en la zona. Tabla 1. Gastos y niveles de agua de la estación hidrométrica 28003 Año 1969 1970 1974 1979 1981 1984 1992 1993 1995 1999 2010

Gasto (m3/s) 1,913.60 824.57 2,152.00 1,388.00 1,580.44 1,923.70 1,207.18 2,568.00 840.00 2,279.57 1,211.00

adecuadamente representadas por el MDE 1:20,000 debido a que fue creado solamente con curvas de nivel con equidistancias de 10 m de altitud y sin tomar en consideración puntos acotados como bancos de nivel y vértices geodésicos además de las corriente y cuerpos de agua y en el caso del MDE 1:50,000 por su escala de representación. Tabla 2. Áreas de inundación para el evento ocurrido en septiembre del 2010 MDE

Área (ha)

F1

F2

58.0 2,491.7 100.0 LIDAR 58.8 2,453.8 77.0 1:20,000 100.0 1,932.5 58.0 1:50,000 Comparativa con respecto a: 1Cartografía LIDAR y 2MDE 1:50,000

Nivel (m) 7.76 5.00 8.90 6.14 6.48 7.38 5.20 8.33 4.28 8.30 15.56

3.3 Áreas de inundación

a)

b)

De acuerdo a las simulaciones realizadas con el modelo calibrado, se obtuvo que la menor área de inundación fue la del MDE 1:50,000 con una superficie de 1,932.5 ha, la cual presento un 58.8% de coincidencia con las áreas generadas con el MDE 1:20,000 y 58.0% con la cartografía LIDAR (Tabla 2). La cartografía LIDAR fue con la que se simulo la mayor superficie de inundación con 2,491.7 ha y comparado con el MDE 1:20,000 fueron las de mayor similitud al presentar un 77.0%. En general las principales diferencias fueron en las zonas con pocos cambios de elevación como los que se encuentran dentro de los cauces los cuales no son

c) Figura 4. Detalle de las áreas de inundación obtenidas con a) Cartografía LIDAR escala 1:10,000, b) Curvas de nivel escala 1:20,000 y c) CEM escala 1:50,000

115


Además de la inadecuada representación del terreno por parte de los MDE 1:20,000 y 50,000 en las zonas de planicies o llanuras, el modelo HEC – RAS al ser de tipo unidimensional presenta una mayor incertidumbre en la modelación de estas áreas, por lo cual estas zonas son las que llegan a presentar la mayor variabilidad en cuanto a su simulación. 4.

CONCLUSIONES

-

Las simulaciones con MDE provenientes de cartografía LIDAR fueron muy precisas, sin embargo este tipo de información solo se encuentra disponible para ciertas áreas de la República Mexicana por lo cual debido a los resultados obtenidos se puede utilizar información 1:20,000 como una alternativa.

-

A pesar de que los MDE 1:20,000 y 1:50,000 tienen un origen similar (curvas de nivel a través de procesos fotogramétricos) las simulaciones de inundaciones presentaron considerables diferencias en cuanto a la distribución de áreas como en su superficie.

-

La simulación de inundaciones con cartografía LIDAR de acuerdo a su precisión sería muy apropiada para cuestiones de cuantificación de áreas afectadas, mientras que para MDE provenientes de curvas de nivel 1:20,000 su uso sería más enfocado a elaboración de mapas de riesgo.

-

-

116

El MDE 1:50,000 a pesar de que es el único que se encuentra disponible para toda la República Mexicana presentó diferencias considerables en cuanto a la simulación de inundaciones tanto en su distribución con en su superficie por lo cual se recomienda como última opción al momento de realizar simulaciones de inundaciones siendo estas de preferencia enfocadas a mapas de riesgo. Al generar MDE con las curvas de nivel 1:20,000 es necesario el uso de información topográfica auxiliar (seccionamiento de los cauces, bancos de nivel, elevaciones de los cauces, etc.) con la finalidad de corregir problemas en las áreas de poca variabilidad altitudinal.

5.

REFERENCIAS

Álvarez C. I. J., Pedrozo A. A., Rodríguez R. J. P., Enriquez C., Mariño T. I. y González V. F. J., 2012, Evaluación de la incertidumbre en la modelación

numérica de flujos de inundación, XXV Congreso Latinoamericano de Hidráulica, San José, Costa Rica. 

Brunner G. W., 2010, HEC-RAS River analysis system. Hydraulic Reference Manual, Versión 4.1, US Army Corps of Engineers, Hydrologic Engineering Center, Washington, DC.

CENAPRED, 2010, Características e impacto socioeconómico de los principales desastres ocurridos en la República Mexicana en el año 2009, Ciudad de México.

CENAPRED, 2011, Metodología para la elaboración de mapas de riesgo por inundaciones en zonas urbanas, Serie Atlas Nacional de Riesgos, Fenómenos Hidrometeorológicos, México.

Cook A. y Merwade V., 2009, Effect of topographic data, geometric configuration and modeling approachon flood inundation mapping, Journal of Hydrology, 377:131-142.

De Gonzalo A. C., 2011, Propuesta metodológica de modelización hidrometereológica e hidrodinámica enfocada a la ordenación del riesgo de inundación: Aplicación a la cuenca del río Pejibaye (Costa Rica), Universidad Politécnica de Madrid, España.

Horritt M. S, 2006, A methodology for the validation of uncertain flood inundation models, Journal of Hydrology, 326:153-165.

Horritt M. S., y Bates P. D., 2001, Effects of spatial resolution on a raster based model of flood flow, Journal of Hydrology, 253:239-249.

Ramos T. C. L. y Mejía M. A., 2012, Modelamiento hidráulico del río Tumbes con influencia del enso y las mareas, XXV Congreso Latinoamericano de Hidráulica, San José, Costa Rica.

Rodríguez S. E. A., González P. R. A., Medina N. M. P., Pardo C. Y. A., y Santos R. A. C., 2007, Propuesta metodológica para la generación de mapas de inundación y clasificación de zonas de amenaza. Caso de estudio en la parte baja del río Las Ceibas (Neiva Huila), Avances en Recursos Hidráulicos – No. 16, Medellín, Colombia.

Sanders B. F., 2007, Evaluation of on-line DEMs for flood inundation modeling, Advances in Water Resources, 30:1831-1843.


Sintonización de un controlador por retroalimentación de estados basado en lógica difusa aplicado a un péndulo de Furuta Tuning of state feedback controller based on a fuzzy logic applied to the Furuta Pendulum

1

S. Ortiz-Santos1, J. N. Guerrero-Tavares1

Estudiante de Posgrado de la Facultad de Ingeniería de la Universidad Autónoma de Querétaro, e-mail: sortiz25@alumnos.uaq.mx1

RESUMEN. En este artículo se propone una estrategia para la sintonización de ganancias de un controlador por retroalimentación de estados usando lógica difusa para sistemas lineales. El caso de estudio para este trabajo se centra en el péndulo de Furuta donde a partir del modelo no lineal se obtiene una aproximación lineal en el punto de operación, después se diseña un controlador para el sistema linealizado por medio de la técnica de retroalimentación de estados. La lógica difusa es usada para encontrar las ganancias que exige el diseño del controlador para que el sistema lineal sea estable, seleccionando reglas difusas apropiadas a través de la simulación en Matlab y Simulink. Finalmente se presenta el desempeño de sintonizador difuso aplicado al péndulo de Furuta.

ABSTRACT. The present paper proposes a strategy for tuning gains of a state feedback controller using fuzzy logic for linear systems. The case study for this work focuses on the Furuta pendulum where from nonlinear model is obtained by a linear approximation in the operating point, then design a controller for the linearized system through state feedback technique . Fuzzy logic is used to find the required gains controller design for linear system is stable, selecting appropriate fuzzy rules via simulation in Matlab and Simulink. Finally we present the performance of fuzzy tuner applied the Furuta pendulum.

Palabras Clave: Control difuso, Retroalimentación de estados, Auto-sintonización de controlador Keywords: fuzzy control, feedback state control, self-tuning control. 1.

INTRODUCCION

El Péndulo de Furuta fue creado por el Dr. K. Furuta del Instituto de Tecnología de Tokio, el cual es un sistema subactuado de dos grados de libertad ambos rotacionales llamados brazo y péndulo. El movimiento del brazo (primer grado de libertad) se realiza en un plano horizontal girando alrededor de un eje perpendicular al plano, mientras que el péndulo se encuentra colocado en un extremo del brazo y su eje de giro es colineal al eje axial del brazo y su movimiento se realiza en un plano perpendicular al de este último (Furuta et al., 1991). Desde la aparición del péndulo rotacional se suscitó un problema mucho más general y complejo que el

del simple mantenimiento de la varilla en la posición invertida: el problema de llevar el péndulo desde cualquier posición, y en particular desde la posición colgante natural, hasta la posición invertida. Este problema se conoce como levantar el péndulo. Por tanto, en el problema del control del péndulo invertido aparecen dos subproblemas: el de levantar el péndulo; y el de atrapar el péndulo en la posición vertical invertida. Conviene observar que el problema de levantar el péndulo adquiere radicales diferencias con respecto al de atraparlo, puesto que el primero se trata de un problema no lineal mientras que el segundo se refiere a un problema lineal. En este trabajo sólo se trabaja con el problema lineal; esto es, el diseño de un controlador para atraparlo en un punto de operación, la posición vertical invertida.

117


El péndulo invertido se ha usado ampliamente como una herramienta útil para determinar la efectividad y robustez de varias técnicas de control. Una de ellas es la retroalimentación de estados, una técnica de control para sistemas lineales. En este método uno de los retos principales es encontrar el conjunto de ganancias K adecuado para que el sistema sea estable y tenga un desempeño favorable, escoger las ganancias de este controlador no es trivial. En la práctica, una de las maneras para sintonizar las ganancias de un controlador lineal por retroalimentación de estados se realiza por medio empírico; esto es, a prueba y error, lo cual muchas veces conlleva a una gran inversión de tiempo tratando de sintonizar el controlador si no se cuenta con la experiencia suficiente para hacerlo. Para minimizar la inversión de tiempo y simplificar la tarea de sintonización ha surgido un gran interés por las técnicas de auto-sintonización inteligente, como lo son las redes neuronales (Enzeng et al., 2012), lógica difusa (Nurbaiti et al., 2012), optimización por cúmulo de partículas (Chih et al., 2006), entre otros. Este artículo se centra en el uso de la lógica difusa como una herramienta usada en control para encontrar las ganancias de muchos controladores, tales como controladores de tipo PID (proporcional, integral y derivativo), PD (proporcional y derivativo), PI (Proporcional e Integral), entre otros (Paulosová, 2013). A diferencia de las redes neuronales la lógica difusa representa un esquema simple de control y que además consume pocos recursos, computacionalmente hablando.

controlador por medio de lógica difusa, se describe detalladamente las reglas de sintonía. En la sección 4, se muestran los resultados de simulación del sintonizador difuso. En la sección 5 se exponen los resultados. 2.

MODELADO DINÁMICO DEL PENDULO DE FURUTA 2.1. Modelo no lineal

En la Fig. 1 se muestra un esquema del péndulo de Furuta. Se usa un motor eléctrico para mover un brazo que sólo se puede desplazar sobre un plano horizontal. θ0 representa la posición angular (en radianes) de dicho brazo respecto a una posición de referencia arbitraria, I0 es la inercia del brazo y L0 es la longitud del brazo. En el extremo del brazo se coloca un péndulo que puede rotar libremente, es decir, no se aplica ningún par o fuerza sobre el péndulo a excepción del par debido a la gravedad. θ1 es la posición (en radianes) del péndulo, medida respecto a su posición vertical invertida, m1 representa su masa, l1 especifica la ubicación de su centro de masa y J1 es la inercia del péndulo alrededor de su centro de masa. Finalmente, τ es el par generado por el motor eléctrico y que es aplicado sobre el brazo mientras que g=9.81 [m/s2] representa la aceleración de la gravedad.

La contribución de este artículo se refleja directamente en el diseño de un controlador de lógica difusa para un péndulo de Furuta mostrado en un trabajo previo (Guerrero et al., 2013) en la Universidad Autónoma de Querétaro. Se aclara que el diseño sólo se llevó a nivel simulación aunque se debe mencionar que se puede llevar sin ninguna restricción a la implementación física, siempre y cuando se cumpla o se esté cerca de las condiciones iniciales propuestas, siendo que si no se cumplen, el controlador podría o no, converger en un tiempo finito. Finalmente, la composición del artículo se lleva de la siguiente manera: En la sección 2 se muestra el modelado del péndulo de Furuta, se linealiza el sistema y se propone un controlador por retroalimentación de estados. En la sección 3, se propone la metodología de sintonización del

118

Fig. 1. Péndulo de Furuta (Izquierda).


La energía cinética, K 0 , del brazo está dada como:

K0 =

• 1 I 0 θ 02 , 2

mientras

que

la

energía

cinética, K 1 , del péndulo es: K1 =

+{

d d ( L0 cos(θ 0 ) − l1 sen (θ 1 ) sen (θ 0 ))} 2 + { (l1 cos(θ 1 ))} 2 ] dt dt

La energía potencial del brazo es nula, P0 =0, ya que ninguna fuerza de gravedad actúa sobre éste, mientras que la energía potencial del péndulo es P1 = gm1l1 (cosθ1 − 1) . El modelo del péndulo de Furuta se obtiene usando las ecuaciones de EulerLagrange:

d  ∂L  ∂L = Fi − dt  ∂ θ•  ∂θi  i

(1)

donde L = K 0 + K 1 − P1 es el Lagrangiano,

Fi

son las fuerzas aplicadas e i = 0,1 . A partir de estas definiciones y usando (1) se obtiene el modelo dinámico del péndulo de Furuta: •

a11 =

• 1 m1l12 sin (2θ1 )θ 1 2 •

• 1 1 d J 1 θ 12 + m1 [{ ( L0 sen (θ 0 ) + l1 sen (θ 1 ) cos(θ 0 ))} 2 + 2 2 dt

••

Tal que:

D ( q ) q + C ( q, q ) q + g ( q ) = F

(2)

a12 = − m1l1 L0 sin(θ1 ) θ1 + • 1 a 21 = − m1l12 sin (2θ1 )θ 0 2 a 22 = 0

• 1 m1l12 sin (2θ1 )θ 0 2

D(q) es una matriz no singular que se conoce como la •

matriz de inercia, C (q, q ) es la matriz de efectos centrífugos y de Coriolis, g (q ) agrupa los pares

debidos a la gravedad y F es el vector de pares externos. Nótese que (2) es un modelo no lineal del péndulo de Furuta. 2.2. Modelo lineal aproximado En este trabajo es de interés usar técnicas de control lineal para el diseño en lógica difusa. Con el fin de aplicar técnicas de control lineal es necesario linealizar el modelo (2) en su punto de operación. Para esto, primero se define el estado de (2) como:

x = [x1

x2

x3

• • T   x 4 ] = θ 0 θ 0 θ1 θ 1   

x 3

 T x 4 ] =  x 2 θ0 

T

(3)

Por tanto:

donde:

(

 I 0 + m1 L20 + l12 sin 2 (θ1 ) D (q ) =  m1l1L0 cos(θ1 )

)

m1l1L0 cos(θ1 ) , J1 + m1l12 

0 θ    g (q ) =  , q =  0 ,  − m1l1 g sin(θ1 ) θ1 

τ  F =  , 0  • a11 C (q, q ) =  a20

a12  , a22 

x = [x1

x 2

 x 4 θ1  

T

(4)

Despejando la derivada mayor de q de (2) y definiendo sus estados como sigue: • •  v1 ( x1 , x 2 , x3 , x 4 ,τ )    (5) −1 v ( x , x , x , x ,τ )  = D ( q )  F − C ( q , q ) q − g ( q )     2 1 2 3 4 

Usando (3) y (4) se puede escribir (4) en la siguiente forma de ecuaciones de estado: •

x= f (x,τ) =[x2 v1(x1,x2,x3,x4,τ) x4 v2 (x1,x2,x3,x4,τ)]

T

(6)

donde f (⋅) es una función no lineal del estado y de la entrada. Un punto de operación es un par

119


( x,τ ) = ( x0 ,τ 0 ) que satisface (Sira-Ramírez et

al., 2005):

f ( x0 ,τ 0 ) = 0

(7)

Usando (6), (7) se encuentra que cualquier punto de operación satisface:

x0 = [x10

x20

x40 ] = [h 0 nπ T

x30

0] , T

(8)

τ0 = 0.

Con

Donde h es cualquier número real y n = 0,±1,±2,... . Como se desea estabilizar el

péndulo alrededor de su configuración vertical invertida (n = 0 ) se selecciona el punto de operación:

x0 = [h 0 0 0] , τ 0 = 0 T

(9)

Usando estos datos ahora es posible encontrar que la aproximación lineal buscada está dada, alrededor del punto de operación ( x,τ ) = ( x 0 ,τ 0 ) , como: •

z = A z + Bw

0  0 • z= 0  0 

(10)

∂ ∂ f ( x , τ ) x0 , B = f ( x , τ ) x0 , τ0 τ0 ∂x ∂τ z = x − x0 , w = τ − τ 0

Donde z es el error del estado y w es el error del par. Como

τ 0 = 0, w = τ − τ 0 , así:

∂ ∂ f ( x,τ ) x0 , B = f ( x, τ ) x0 , τ0 τ0 ∂x ∂τ z = x − x0 , w = τ (11) A=

Realizando las operaciones indicadas en (11) y usando el punto de operación (9) se encuentra que (10) se puede escribir como:

0 0 0

0 − m12 l12 L0 g I 0 J 1 + m1l12 + J 1 m1 L20 0 I 0 + m1 L20 m1l1 g I 0 J 1 + m1l12 + J 1 m1 L20

( ( (

)

(

)

(

)

)

)

0  0 z 1  0 

0     J 1 + m1l12  2 2  I J + m1l1 + J 1 m1 L0  + 0 1 w (12) 0   − m1l1 L0    I J + m l 2 + J m L2  1 1 1 1 0   0 1

Esta es la aproximación lineal buscada. Como se mencionó anteriormente, usando (12) se puede diseñar un controlador por realimentación lineal del estado, el cual asegura buenos resultados si se restringe que el estado y la entrada ( x,τ ) sólo evolucionen alrededor del punto de operación (8). Esto también suele indicarse diciendo que z ≈ 0, w ≈ 0 . En Fantoni y Lozano (2002) se muestra que el sistema es controlable y que un controlador por retroalimentación de estado w = − Kz , con los valores adecuados de K, puede atrapar el péndulo en su posición vertical invertida. 2.3. Controlador lineal por retroalimentación de estado

donde (Sira-Ramírez et al., 2005):

A=

1

Un controlador por realimentación lineal del estado para el sistema dado en (12) tiene la siguiente forma:

τ = − K z , K = [k1 k 2  z = x − x0 = θ 0 − θ 0 d  donde

θ 0d

k3 •

k 4 ],

θ 0 θ1

θ 1   •

T

(13)

es algún valor constante que se desee y

K es un vector de ganancias que deben determinarse. El cálculo de estas ganancias constituye el diseño del controlador. Nótese que el uso de (12) en (13) permite escribir: •

z = ( A − BK ) z

(14)

Esto permite darse cuenta de que si todos los Eigen valores de la matriz:

120


P = A − BK

(15)

tienen parte real negativa, entonces, se asegura que z → 0 conforme t → ∞ (Chen, 1984), o

equivalentemente,

θ 0 → θ 0d

y

θ1 → 0

conforme t → ∞ . El primer paso para diseñar el controlador (13) consiste en verificar la controlabilidad de la planta dada en (12). Esto se cumple si la siguiente matriz Pc tiene rango

n = 4 (Chen, 1984):

[

Pc = B

AB

A2 B

A3 B

]

(16)

Esta matriz es de 4 × 4 y se verifica fácilmente que, usando los parámetros mostrados en la siguiente sección, su rango es 4 ya que su determinante es diferente de cero. Se concluye entonces que (12) es controlable. Esta propiedad asegura que siempre es posible encontrar un vector de ganancias K (definido en (13)) que consigue asignar cualquier conjunto de valores que se deseen a los eigenvalores de la matriz en (14) (Chen, 1984). Para que el sistema lineal sea estable se requiere que todos estos eigenvalores tengan parte real negativa. 3.

METODOLOGÍA

Finalmente, usando (12) y los valores numéricos propuestos en esta sección, se encuentra el modelo que será usado para diseñar el controlador:

z = Az + Bτ ,

0 0 A= 0  0

1 0 0 − 70.09 0 0 0 481.81

0  0    1871.8  0  , B=  0  1     − 0 6317 . 5  

(17)

3.2 Sintonizador difuso En la práctica uno de los mayores problemas que presenta el controlador por retroalimentación de estados es encontrar las ganancias adecuadas para el buen desempeño del sistema, básicamente en la práctica se realiza mediante experiencia o bien, a prueba y error. A continuación se presenta la propuesta que pretende resolver el problema planteado. En la Figura 2 se muestra un diagrama de bloques del péndulo de Furuta. Es de resaltar que las ganancias K del controlador son encontradas a través de la lógica difusa lo cual simplifica el método de sintonización, el bloque A y B ya se han mencionado anteriormente, sin embargo el bloque C es una matriz de salida, en este trabajo se elige la posición del péndulo.

3.1. Parámetros del Péndulo de Furuta En la tabla 1 se presentan los parámetros del péndulo de Furuta. Fueron determinados a través de un prototipo construido en físico, éstos son importantes pues con ellos se llevó a cabo la simulación del sistema en conjunto con el controlador difuso. Tabla 1. Parámetros físicos del péndulo de Furuta Parámetros Masa del péndulo Inercia del brazo Inercia del péndulo Longitud del brazo Centro de masa péndulo Constante de par

Símbo lo

m1 I0

0.0377[kg ] 3.6246 x10 −4 [kgm]

[

J1

1.1310 × 10 −5 kgm 2

L0

0.1350[m]

km

0.0368[ Nm / A]

l1

Fig. 2. Diagrama de bloques del péndulo de Furuta con sintonidor difuso.

Valor[unidades]

0.03

En la Figura 3 representa el modelo dinámico del péndulo de Furuta de acuerdo a la ecuación (17).

]

La simulación se desarrollo en Simulink de Matlab,

[m]

121


Las funciones de membresía de las entradas se muestran en la Figura 5 donde se decidió representar la velocidad del brazo y péndulo con cinco conjuntos difusos, la velocidad negativa muy grande (“Nhigh”), velocidad negativa pequeña (“Nlow”), velocidad cero (“Cero”), velocidad pequeña positiva (“PLow”) y la velocidad positiva muy grande (“PHigh”). La representación difusa de la posición del brazo y péndulo consiste en tres conjuntos difusos, posición negativa (“Negativo”), posición cero (“Cero”) y la posición positiva (“Positivo”).

Fig.3. Modelo dinámico del péndulo de Furuta en Simulink. Como se mencionó anteriormente, para lograr mantener el péndulo en la posición de equilibrio inestable (el péndulo invertido) se diseña un controlador por retroalimentación de estados, donde las ganancias son sintonizados por la lógica difusa, en este trabajo se proponen dos bloques difusos, el primer bloque tiene como entrada la posición y la velocidad del brazo lo cual permite encontrar las ganancias de k1 y k2, el segundo bloque consiste en encontrar las ganancias de k3 y k4 a partir de la posición y velocidad del péndulo. En la Figura 4 se muestra el controlador con la sintonización mencionada, se tiene como entrada los estados del péndulo de Furuta y como salida el torque que se requiere para el control.

(a)

(b)

(c)

Fig. 4. Controlador y sintonización basada en la lógica difusa. En la lógica difusa lo primero que se realiza es describir las variables de entradas y salidas en forma lingüística, definiendo conjuntos difusos para cada una de las posibilidades.

122

(d) Fig. 5. Funciones de membresía para: (a) (c)

θ1

y (d)

θ1 .

θ 0 , (b) θ 0 ,


Las funciones de membresía para las salidas se muestran en la Figura 6 donde las ganancias se representan con tres conjuntos difusos, ganancia pequeña (“K1Low”), ganancia regular (“K1Med”) y ganancia grande (“K1Hig”). Para las ganancias de K2, K3 y K4 se usan los mismos conjuntos difusos cambiando los intervalos de los mismos. Los ejes de las gráficas de las funciones de membresía son adimensionales.

(a)

(b)

En la tabla 2 se muestra una tabla en donde se presentan las reglas de la lógica difusa, estas reglas se propusieron de acuerdo a las simulaciones que se realizaron . Tabla 2. Base de reglas de lógica difusa para (A) k1k2 y (B) k3-k4

θ₀

θ₀

k₁

k₂

Cero

Cero

k1Low

K2Low

Cero

NHigh

K1Med

K2Med

Cero

NLow

k1Low

K2Med

Cero

PLow

k1Low

K2Med

Cero

PHigh

K1Med

K2Med

Positivo

Cero

K1Med

K2Med

Positivo

NHigh

K1Med

K2Med

Positivo

NLow

k1Low

K2Med

Positivo

PLow

K1Hig

K2Med

Positivo

PHigh

K1Hig

K2Hig

Negativo

Cero

K1Med

K2Med

Negativo

NHigh

K1Hig

K2Hig

Negativo

NLow

K1Hig

K2Med

Negativo

PLow

k1Low

K2Med

Negativo

PHigh

K1Med

K2Med

(A)

θ₀

(c)

θ₀

k3

k4

Cero

Cero

k3Low

k4Low

Cero

NHigh

k3Med

k4Med

Cero

NLow

k3Low

k4Med

Cero

PLow

k3Low

k4Med

Cero

PHigh

k3Med

k4Med

Positivo

Cero

k3Med

k4Med

Positivo

NHigh

k3Med

k4Med

Positivo

NLow

k3Low

k4Med

Positivo

PLow

k3Hig

k4Med

Positivo

PHigh

k3Hig

k4Hig

Negativo

Cero

k3Med

k4Med

(d)

Negativo

NHigh

k3Hig

k4Hig

Fig. 6. Funciones de membresía para: (a) K1 , (b)

Negativo

NLow

k3Hig

k4Med

Negativo

PLow

k3Low

k4Med

Negativo

PHigh k3Med (B)

k4Med

K 2 , (c) K 3 y (d) K 4 .

123


4.

RESULTADOS

Los resultados obtenidos se muestran en la Figura 8 y 9 estas simulaciones se realizaron con las siguientes condiciones iníciales:

θ = 0.295, θ = −4.712, θ = 0.179y θ = 5.812 0

0

1

1

La velocidad y la posición del brazo convergen a cero en un tiempo finito como se muestra en la figura 8 mencionando que la repuesta no presenta oscilaciones en el estado transitorio aunque cabe mencionar que el tiempo en el que llega al estado estacionario no es relevante puesto que el objetivo del controlador es mantener al péndulo en la posición invertida.

Fig.10. Salida del controlador. En la figura 11 se muestra como es la evolución de las ganancias del controlador por retroalimentación de estados.

(a) Fig. 8. Respuesta de la posición y velocidad del brazo. De la Figura 9 se observa que tanto la posición como la velocidad del péndulo convergen rápidamente a la posición deseada (equilibrio inestable). (b)

Fig. 9. Respuesta de la posición y velocidad del péndulo. En la Figura 10 se muestra la evolución de exigencia de corriente eléctrica del controlador difuso en función del tiempo. De acuerdo a las figuras anteriores la estabilización del péndulo de Furuta se lleva a cabo en aproximadamente medio segundo.

124

(c)


Guerrero J., Carrillo R., Hernández V., Trejo M. Angulo M., 2013, Control de un péndulo de furuta con lazo

digital de corriente usando un microcontrolador pic18f4431,

Congreso Internacional de Ingeniería, publicación pendiente.

Hibbeler R. C., 2004, Mecánica vectorial para ingenieros. Dinámica, (10a. edición), Pearson Educación, México. (d) Fig. 11. Evolución de la ganancia: (a)K1, (b)K2, (c)K3 y (d)K4 5.

CONCLUSIONES

En este trabajo se diseña un sintonizador difuso para el controlador por retroalimentación de estados aplicado al modelo lineal aproximado de un péndulo de Furuta. De acuerdo a los resultados obtenidos por las simulaciones en Simulink de Matlab, se concluye que el desempeño del sistema es satisfactorio siempre y cuando las condiciones iniciales esten cercanas a la posición de equilibrio inestable. Por otra parte, es necesario mencionar que el sintonizador difuso puede llevarse a la práctica debido a que la exigencia de energía del controlador es mínima. 6.

Nurbatai W. y Nurhaffizah H., Self-tuning fuzzy PID controller design for aircraft pitch control, Conference on intelligent systems modeling and simulation. 2012. Olfati-Saber R., 2002, Normal forms for underactuated mechanical systems with symmetry, IEEE Transactions on Automatic Control 47(2):305-308. Paulusová J., Orlický L. Y Dúbravská M., Self-tuning fuzzy PID controller, Internacional conference on process control, Slovakia, 2013. Sira-Ramírez H., Márquez R., Rivas-Echeverría y Llanes-Santiago O., 2005, Control de sistemas no lineales, Pearson Education Prentice-Hall, Madrid.

REFERENCIAS

Chen C.-T., 1984, Linear system theory and design, Holt Rinehart and Winston. Chih C.K, Chin W. C., Rong F. F., The self-tuning PID control in a slider-crank mechanism system by applying particle swarm optimization approach, El sevier: mechatronics, 2006. Enzeng D., Shuxiang G., Xichuan L., Xiaoquiong L. y Yunliang W., A neural network-based selftunung PID controller of an autonomous underwater vehicle, International conference on mechatronics and automation, China, 2012. Fantoni I. and Lozano R., 2002, Non-linear Control for Underactuated Mechanical Systems, SpringerVerlag, London. Furuta K. y Yamakita M., Swing up control of inverted pendulum, Industrial electronics, control and instrumentation, IEEE, 1991.

125


Análisis del perfil aerodinámico de un álabe de un aerogenerador de eje vertical de velocidad variable Aerodynamic profile analysis of a vertical axis-variable speed wind turbine praise Oswaldo Mendoza Herbert*, Manuel Toledano Ayala* * División de Investigación y Posgrado. Facultad de Ingeniería de la Universidad Autónoma de Querétaro, oswaldo.herbert@hotmail.com, toledano@uaq.mx RESUMEN En proyectos de desarrollo de aerogeneradores es necesario dividir en partes específicas las investigaciones necesarias para un resultado óptimo, como lo son: Diseño estructural, análisis aerodinámico, diseño de mecanismos y diseño electrónico. En este artículo se aborda el diseño estructural y el análisis realizado al modelo aerodinámico del álabe del aerogenerador tipo Darrieus, aceptado por el Comité Nacional Consultivo de Aerodinámica (NACA, National Advisory Committee for Aeronautics), utilizando el software QBlade para evaluar el coeficiente de potencia de dicho perfil bajo condiciones iniciales de un generador de imanes de neodimio de 1000 Watts. El análisis, contempla parámetros críticos de diseño como lo son: el radio con respecto al eje, el ángulo de desplazamiento correspondiente al eje y el ángulo de giro sobre el propio álabe (twist). Uno de los retos fundamentales es la generación eléctrica a bajas velocidades de viento, en este sentido, como producto del análisis, el modelo aerodinámico que obtuvo resultados óptimos fue el NACA3615, ya que logró romper la inercia a la velocidad de 1 m/s. Palabras clave: Diseño estructural, Darrieus, Aerogenerador, Análisis aerodinámico.

Abstract: In wind turbine development projects it is necessary to divide the task into specific research parts to achieve an optimal result, such as: Structural design, aerodynamic analysis, mechanisms and electronics design. In this paper it is presented the structural design and the aerodynamic analysis model of the wind turbine blade of a Darrieus-type aerogenerator, accepted by the National Advisory Committee for Aerodynamics (NACA) by using the software QBlade to evaluate the power coefficient of the profile under initial conditions of a1000 Watts neodymium magnet-generator. The analysis contemplates critical design parameters such as: the radius from the axis, the offset angle corresponding to the axis and the rotation angle on the blade itself (twist). One of the main challenges is the generation of electricity at low wind speeds, in this sense, as a result of the analysis, the aerodynamic model was obtained optimal results NACA3615 because he managed to break the inertia at the speed of 1 m / s. Key words: Structural design, Darrieus, Wind turbine, Aerodynamic analysis.

1.

Introducción

Desde hace algunos años y hasta hoy en día se ha estado manifestando cada vez más una mayor preocupación por el medio ambiente, por lo cual surge la imperiosa necesidad de generar energía a partir de fuentes limpias y renovables (Jonhson, 1985). Una forma de generación de energía de este tipo es la eólica, pues ésta no emite ningún tipo de contaminante al medio ambiente. Un generador eólico de velocidad variable ofrece la posibilidad de extraer la máxima potencia del viento disponible y así aumentar la cantidad de energía capturada. Estas turbinas eólicas utilizan perfiles aerodinámicos en sus aspas, las cuales ocupan la masa del viento para generar el movimiento a través del mismo. En zonas urbanas los vientos se consideran turbulentos por la presencia de edificios, arboles, puentes, aire desplazado por vehículos, entre

126

otros. En estos casos las turbinas eólicas de eje vertical representan una solución comúnmente utilizada, para este tipo de vientos turbulentos. El viento está compuesto por partículas de aire en movimiento; cuando la masa de aire está conformada por cortes yuxtapuestos, perfectamente individualizados, se dice que el movimiento del mismo es laminar, mientras que si los cortes de aire se entrecruzan y no conservan su individualidad, se dice que el movimiento es turbulento; éste es el caso más general que acontece en el viento (Patel, 1999). Si en cada punto de una masa de aire en movimiento turbulento se miden las velocidades instantáneas, se observa que éstas varían en magnitud y en dirección sin ninguna regularidad, pero no suelen apartarse de un valor medio. Los movimientos desordenados del aire a nivel macroscópico se llaman turbulencias, que pueden influir en masas de aire importantes. Cuando


el viento se encuentra con un obstáculo, su movimiento empieza a ser perturbado y a tornarse irregular a una cierta distancia del mismo. Existen artículos científicos y patentes relacionados con el análisis del perfil aerodinámico, los cuales se encuentran divididos en tres diferentes objetivos: el análisis de la relación de la longitud de la cuerda contra el ancho de la cámara (Wang et al., 2013), el análisis del alabe (Rolland et al., 2013, Müller et al., 2009) y el diseño estructural de los alabes a distintos radios (Li et al., Chong et al., 2013). En el presente trabajo se consideran estos conceptos para realizar el diseño y optimización de un álabe de un aerogenerador de baja potencia tipo Darrieus, en el cual el diseño de las aspas es fundamental para obtener una mayor captación de flujo de aire, ésto se logra a través de modificaciones en los ángulos y desplazamientos correspondientes al eje central, determinados analíticamente y validados mediante software. 2.

Pw 

 C p Av w3 2

(2)

Donde la relación de la velocidad de la punta λ, TSR (tip-speed ratio) es definida como:



r R vw

(3)

Pw  Potencia eolica obtenida [W];

  Densidad del aire [Kg/m3 ]; A  Area de barrido del rotor [m 2 ]; vw  Velocidad del viento [m/s]; C p  Coeficiente de potencia;

r  Velocidad angular de las palas [rad/s]; R  Longitud de las palas (radio del rotor)[m];

Fundamentos teóricos

En esta sección se muestran los principios básicos tomados para el diseño de un aerogenerador, además de las características que estos presentan correspondiente a las diferentes velocidades que logran soportar. La potencia eólica disponible se demuestra a través de la “Ley de Betz”.

Pw 

 2

Av13

(1)

Fig. 1 Área de barrido del rotor La Figura 1 muestra el flujo de aire que logra captar la turbina eólica, Mathew (2006), “la ley de Betz” dice que sólo puede convertirse menos del 59% de la energía cinética en energía mecánica usando un aerogenerador. Debido a que cada aerogenerador tiene diferentes características. Cada diseño cuenta con un coeficiente de potencia específico, dando como resultado:

Fig. 2 Coeficientes de potencia de los diferentes modelos de aerogeneradores, Stiebler (2008) Se puede observar en la figura 2, las curvas de potencia de algunos modelos de aerogeneradores. Dichas características se presentan debido al efecto de túnel de viento que generan las turbinas eólicas. Cuando la velocidad del viento aumenta, la cantidad del volumen de aire que ingresa al túnel, aumenta en la entrada y dependiendo de cada modelo de aerogenerador será el volumen de aire que saldrá, si la cantidad de aire a entrar es mayor de la que puede desechar, la turbina eólica, empezará a tener pérdidas por el aumento de la turbulencia y la inercia del generador. 3.

Diseño del alabe del aerogenerador de eje vertical tipo Darrieus

La sección de una pala o perfil, debe seguir una forma aerodinámica correctamente definida para utilizar la fuerza del viento a su favor. Aunque las palas se pueden construir de forma plana o con una curvatura

127


aleatoria, el utilizar un perfil aerodinámico incrementa el rendimiento del sistema a la vez que reducirá considerablemente el ruido y evitar pérdidas por flujos de aire elevados que surgen repentinamente. Ello se debe a que estos perfiles disminuyen el rozamiento con el aire facilitando la rotación (Chumioque, 2006). Las características que presenta un perfil aerodinámico a lo largo de un álabe de aerogenerador se muestran en la figura 3. Al inicio de esta investigación se tomaron un conjunto de diez perfiles basados en artículos e investigaciones de aerogeneradores que se encuentran en el mercado. En este artículo se muestra el análisis del perfil con resultados óptimos, el cual fue el perfil NACA 3615.

En la figura 4 se muestra un corte del perfil utilizado en los siguientes análisis, tomando en cuenta que este será el perfil para la fabricación de un aerogenerador de eje vertical a velocidad variable, debido a las condiciones climáticas, tráfico vehicular, y características de la zona geográfica. 3.1 Análisis de los coeficientes aerodinámicos del álabe de un aerogenerador La forma del perfil se puede descomponer en dos tipos de coeficientes, Cl (coeficiente de sustentación) y Cd (coeficiente de resistencia). Dichos coeficientes tienen una relación en el análisis polar del perfil, el cual da como resultado su comportamiento ante el tipo de viento con el cual trabajará la turbina eólica. Al inicio del proceso de análisis por software, se estableció el parámetro del número de Raynolds, el cual hace una relación entre la densidad, viscosidad, velocidad y dimensión típica en un fluido, en este caso el viento. Se cuenta con un valor contante de densidad de viento y el número de Reynolds hace mención, entre mayor sea la turbulencia presentada por el fluido, mayor será este número y debido a la característica del aerogenerador del presente estudio, se optó por utilizar un número de Reynolds elevado, ya que desea instalar el aerogenerador en zonas urbanas donde el flujo de viento presenta turbulencia y dirección del viento aleatorio.

Fig. 3 Representación de las velocidades del flujo de viento en un perfil aerodinámico de un álabe de aerogenerador, Abbott-Albert (2008)   Velocidad angula [rad/s]; W  Velocidadrelativa [m/s]; U  Velocidad del flujo(velocidad del viento) [m/s];

  Ángulo del flujo [grados];   Ángulo de ataque[grados];   Ángulo de asiento [grados];

Fig. 5 Curva de análisis polar del perfil NACA 3615

Fig. 4 Perfil NACA 3615

128

En la gráfica mostrada en la Figura 5, se logra observar que la relación de coeficientes generó una curva suave sin cambios extremos, además con un coeficiente bajo de resistencia se logra un coeficiente alto de sustentabilidad. Ésto da como resultado que el perfil logre atravesar un flujo de viento generando poca resistencia.


3.2 Relación del coeficiente de potencia y en ángulo de ataque Con base a la ley de Betz la cual, menciona que sólo se puede obtener el 59% de la energía cinética obtenida, se tiene el punto de partida con el que se analizó la curva de coeficiente de potencia obtenida después del análisis polar y se definió el ángulo de ataque (TSR, tip speed ratio).

energía de 1000 Watts a 480 rpm. Los aerogeneradores usualmente manejan este tipo de generadores eléctricos debido a la necesidad mínima de rpm para comenzar a generar energía eléctrica, sin embargo, la velocidad que logran alcanzar las turbinas eólicas oscilan entre de 0 a 120 rpm, lo cual no es suficiente para el generador eléctrico y sugiere un diseño de una transmisión mecánica que interconecte el eje central en la estructura del aerogenerador y el generador eléctrico.

Fig. 6 Relación de coeficientes de potencia a diferentes velocidades especificas. Con el perfil utilizado se logró un coeficiente de potencia del 0.5 (50% de conversión de energía cinética) con un TSR de 2.6, tomando como punto la ley de Betz que menciona que solo el 59% de energía cinética se logra convertir. Estos valores son los que se tomaron para obtener la potencia generada por la turbina eólica para la simulación virtual del aerogenerador. Se sugiere no tomar valores más cercanos a la cresta de la curva, ya que puede llegar a una inestabilidad de la turbina, debido a la proximidad del cambio de pendiente por haber sobrepasado el máximo punto de potencia. 3.3 Valores de potencia a velocidad variable Las turbinas eólicas de velocidad variable proporcionan en sus hojas de datos del fabricante la capacidad de potencia máxima que pueden generar a cierta velocidad. Éstos son datos requeridos por el software para el análisis de la curva de potencia con respecto a la velocidad del viento. Para ello se consideraron los parámetros que ofrece el generador eléctrico de imanes de neodimio de la marca Ginlong el cual tiene una capacidad máxima de generación de

Fig. 7 Relación de potencia generada con el aumento de la velocidad Al ingresar los datos al software se obtuvo la gráfica mostrada en la Figura 7, la cual presenta una potencia aceptable a bajas velocidades, debido a que en zonas urbanas no se cuenta con velocidades constantes, ya que en su mayoría son ráfagas de alta velocidad causadas por turbulencias de la zona, debido a edificios, anuncios publicitarios, flujo automovilístico, etc. Así, la velocidad que logran alcanzar oscila alrededor de los 8 m/s, suficiente para generar un valor de potencia de 50 watts como lo muestra la hoja de datos del fabricante del generador eléctrico. Si se desea aumentar esta potencia se requiere una transmisión mecánica para aumentar las rpm, por ejemplo, un sistema de engranajes con cadena. 4.

Discusión

A continuación se muestran en las Figuras 8,9 y 10, las gráficas de relación de coeficiente de potencia y su valor con relación a diferentes ángulos de ataque. Cabe destacar que estos valores resultan del análisis, después de haber detallado su diseño estructural,

129


como lo es el radio, el ángulo de desplazamiento correspondiente al eje y el ángulo de giro sobre el propio álabe. El diseño estructural partió de diseños preliminares de investigaciones de los autores Hanque y Wang, en su estudio del 2009, quienes señalan ciertas deficiencias a repentinas ráfagas de aire y el auto frenado a velocidades de viento elevadas en aerogeneradores del tipo Darrieus y Savonius. Las modificaciones que se hicieron fueron fundamentalmente en tres variables de diseño: Variación de giro (twist), longitud de cuerda y radio con respecto al eje. La variación de giro logra mejorar la conducción de flujo de aire hacia la parte inferior del álabe, de tal manera evitamos la saturación del sistema por exceso de volumen de aire, la longitud de la cuerda no permite calcular la turbulencia generada por el álabe, debido a que entre mayor sea esta, mayor será la turbulencia generada, por el choque del viento contra la estructura. Por último la longitud del radio con respecto al eje, delimitara el volumen de aire que puede soportar nuestro sistema, entre mayor sea el radio, mayor será el volumen que puede contener el sistema, aumentando también las vibraciones e inestabilidad de los álabes.

Fig. 9 Relación de coeficientes de potencia “Cp” con velocidades especificas, “TSR” (Tip Speed Ratio), utilizando un modelo aerodinámico NACA2415

Fig. 10 Relación de coeficientes de potencia “Cp” con velocidades especificas, “TSR” (Tip Speed Ratio), utilizando un modelo aerodinámico NACA4412 Como se logra apreciar el modelo NACA 3615, produjo mejores resultados, correspondiente a los modelos evaluados, debido a ello se decidió tomar tal modelo para el diseño de la turbina eólica.

Fig. 8 Relación de coeficientes de potencia “Cp” con velocidades especificas, “TSR” (Tip Speed Ratio), utilizando un modelo aerodinámico NACA3615

Utilizando nuevos métodos e instrumentos para el análisis y reproducción de vientos turbulentos, como lo son los túneles de vientos, fotografías infrarrojas y análisis de materiales, se ha logrado corroborar que los modelos iniciales del Darrieus contaban con deficiencias a vientos turbulentos o a ráfagas que superaban su punto máximo de potencia, por tal motivo se ha ido modificando su diseño, obteniendo modelos que logran superar dichas deficiencias. Para este diseño se realizó la modificación del álabe, ingresando un eje central alrededor del cual girarán tres álabes, para lograr expulsar el aire contenido dentro del sistema, evitando la saturación del sistema y generando una flujo constante de aire hacia la parte inferior de los alabes; además se realizaron modificaciones del radio para generar una mayor captación de volumen de aire.

130


Como trabajo futuro, se prevé el diseño de la caja multiplicadora y el diseño de un sistema electrónico de control que permita el seguimiento del punto máximo de potencia eléctrica. 6.

Referencias bibliográficas:

Abdelli A., Sareni B. y Roboam X., Optimization of a Small Passive Wind Turbine Generator with Mutiobjective Genetic Algorithms, LEEI, UMR INPT-ENSEEIHT/CNRS N°. 5828 – 2. Abdullah M., Yatim A. y Wei C., A study of Maximum Power Point Tracking Algorithms for Wind Energy System, IEEE, 978-1-4577-13 54-5/11/ 2011 P. 2-4. Fig. 11 Diseño de alabes del generador de eje vertical Por otra parte se observó que este modelo no logrará obtener las rpm requeridas por el generador eléctrico para alcanzar la potencia máxima, para esto se requiere incluir al diseño final una caja multiplicadora.

5.

Conclusiones

La construcción de un álabe de un aerogenerador requiere de un estudio detallado donde se debe poner énfasis en todos los factores, variación de giro (twist), longitud de cuerda y radio con respecto al eje, debido a que la mínima omisión de datos, podría como resultar un diseño obsoleto o poco funcional. Como se muestra en las gráficas, el mínimo cambio en el diseño de las aspas logró generar un óptimo modelo o caer en rango de cero generación de energía eléctrica, es decir, no lograr capturar la mínima energía para romper el punto de inercia de la turbina eólica. El modelo aerodinámico que mostró resultados óptimos fue el modelo NACA3615, ya que logró romper la inercia a escasos 1 m/s, y, con una velocidad de 8 m/s se logró generar una potencia de 50 Watts (sin caja multiplicadora). Además de la modificación al diseño, la cual libera el exceso de volumen aire capturado, evitando que el sistema se sature y haya flujo constante de aire hacia la parte inferior de los álabes. Los modelos elegidos para el análisis fueron seleccionados debido a la relación que existe entre la comba, la cuerda del álabe y el máximo grosor del álabe como porcentaje de la cuerda, estos parámetros se seleccionaron con respecto a las características que ofrece la zona urbana del estado de Querétaro.

Adzic E., Ivanovic Z., Adzic M., Katic V., Maximum Power Search in Wind Turbines Based on Fuzzy Logic Control, Acta Polytechnica Hungarica, Vol. 6, No. 1, 2009 Chong W.T., Pan K.C., Poh S.C., Fazlizan A., Oon C.S., Badarudin A., Nik-Ghazali N., 2013 “Performance investigation of a power augmented vertical axis wind turbine for urban high-rise application”, Renewable Energy, Volume 51, March 2013, Pages 388-397, ISSN 0960-1481 CRC impreso en 1999. Hanque E., Negnevistky M. y Muttaqi K., 2010, A novel control strategy for a variable-speed wind turbine with a permanent-magnet synchronous generator, IEEE, vol 46, no.1 pp. 331-339.. Li C., Zhu S., Xu Y. y Xiao Y., 2013. “2.5D large eddy simulation of vertical axis wind turbine in consideration of high angle of attack flow”, Department of Civil and Structural Engineering, The Hong Kong Polytechnic University, Hung Hom, Kowloon, Hong Kong SAR, China. Renewable Energy 51 (2013) 317e330. Li H., Shi K. y McLuren P., Neural Network Based Sensorless Maximum Wind Energy Capture with Compensated Power Coefficient, IEEE, VOL. 41, No. 6, 2005, Pag. 1551-1553. Mathew S., 2006, “Wind Energy”, fundamentals, Resource Analysis and Economics, Malapuram, India. Müller G., Jentsch M., Stoddart E., 2009, “Vertical axis resistance type wind turbines for use in buildings”, Renewable Energy, Volume 34, Issue 5, May 2009, Pages 1407-1412, ISSN 0960-1481

131


Örs M., Maximum Power Point Tracking for Small Scale Wind Turbine With Self-Excited Induction Generator, CEAI, Vol.11, No.2, pp. 30-34, 2009. Patel M. R., “Wind and Solar Power Systems ”. Prentice hall 1985. Rodriguez J., Arnalte S. y Burgos J., Sistemas Eólicos de producción de energía eléctrica, Ed. Rueda Sol, Alarcon, Madrid. Rolland S., Newton W., Williams A. J., Croft T.N., Gethin D.T. y Cross M., “Simulations technique for the design of a vertical axis wind turbine device with experimental validation”, College of Engineering, Swansea University, Swansea SA2 8PP, UK, Applied Energy 111 (2013) 1195–1203 SaqibHameed M. y KamranAfaq S., “Design and analysis of a straight bladed vertical axis wind turbine blade using analytical and numerical techniques”, Ocean Engineering 57 (2013) 248–255, 2012. Stiebler M.,2008, “Wind Energy Systems for Electric Power Generation”, Berlin, Germany. Svorcan J., Stupar S., Komarov D., Pekovic O. y Kostic I., “Aerodynamic design and analysis of a small-scale vertical axis wind turbine”, Journal of Mechanical Science and Technology 27 (8) (2013) 2367~2373, 2011. Thongam J. y Ouhrouche M.,2011, “MPPT Control Methods in Wind Energy Conversion Systems, Fundamental and Advanced Topics in Wind Power”, Dr. Rupp Carriveau (Ed.), ISBN: 978-953-307-508-2. Wang H., Wang J., Yao J.,Yuan W., Cao L., 2013 “Analysis on the aerodynamic performance of vertical axis wind turbine subjected to the change of wind velocity”, Procedia Engineering, Volume 31, 2012, Pages 213-219, ISSN 1877-7058

132


Atenuación de Oscilaciones en una Grúa Viajera usando impulsos de fuerza sobre el cable. Attenuating the Oscillations in a Traveling Crane using force pulses on the cable.

A. Sibilla Andrade, Estudiante de Posgrado, Universidad Autónoma de Querétaro. M. T. Angulo, Departamento de Investigación y Posgrado, Facultad de Ingeniería, UAQ. J. C. Jáuregui Correa, Departamento de Investigación y Posgrado, Facultad de Ingeniería, UAQ.

RESUMEN. En este artículo introducimos un nuevo enfoque para atenuar las oscilaciones de la carga en una grúa viajera aplicando impulsos de fuerza sobre el cable que la sostiene. Comenzamos argumentando que un modelo de las oscilaciones de la carga puede ser descrito como un péndulo simple sin fricción. Para este modelo, diseñamos un controlador para la fuerza aplicada en el cable y probamos analíticamente que permite eliminar completamente las oscilaciones. Como el controlador propuesto requiere del uso de la velocidad de las oscilaciones de la carga, construimos un observador para estimarla y se estudia cómo modificar el controlador para usar la velocidad estimada. Presentamos resultados en simulación del controlador propuesto, donde adicionalmente introducimos incertidumbre en la medición del ángulo de la carga.

Palabras Clave: Grúa viajera, oscilaciones, controlador, observador.

ABSTRACT. In this paper we introduce a new approach for reducing the oscillations of the load of an overhead crane using force pulses on the cable that supports it. It is argued that an adequate model for studying the oscillations of the load is given by a simple pendulum without friction. For this model, a controller for the force applied to the cable is proposed and it is analytically shown that it can completely eliminate the oscillations in the load. Since the proposed controller uses the velocity of the load, an observer to estimate it is also constructed. Simulations results of the proposed framework are presented in which, additionally, we also study the effect of measurement noise in the angle of the load.

Key Words: traveling crane, oscillations, controller, observer.

1. Introducción Las grúas viajeras son ampliamente utilizadas en fábricas y muelles para cargar y descargar objetos. Las oscilaciones de la carga aparecen naturalmente debido al movimiento de la misma, pero también ocurren debido a influencias externas como el viento. Atenuar estas oscilaciones resulta indispensable para garantizar la precisión del sistema, evitar daño a la carga y otros accidentes asociados.

Para asegurar su correcto funcionamiento resulta necesario incorporar sistemas de control para la posición de la carga y atenuación de sus oscilaciones. Usualmente, esto se logra al encontrar un buen compromiso entre la velocidad de movimiento de la carga y las oscilaciones producidas. Debido a lo cual se han hecho estudios en los controladores para grúas de dos grados de libertad mediante realimentación no lineal como en (Lew and Halder, 2003; Yu et al., 1995; Yoshida and Kawabe, 1992; Martindale et al., 1995; Butler et al., 1991), el

133


control óptimo basado en inversión de dinámica de (Piazzi and Visioli, 2002), y la lógica difusa (Benhidjep and Gissinger, 1995), las cuales evalúan el compromiso de la velocidad de desplazamiento de la carga contra la oscilación producida. Además, los controladores para la grúa de 3 grados de libertad utilizando retroalimentación no lineal de (Moustafa and A. M. Ebeid, 1988) y el lugar de las raíces y el bucle de la configuración (H.-H. Lee, 1998) han sido propuestos con la finalidad de atenuar la oscilación de la carga y la disminución del tiempo en el transporte y posicionamiento de la carga. En (Vikramaditya, 2000) se diseña un control por modos deslizantes, donde se necesita que se conozcan todas las variables del sistema. Además el esquema de control propuesto deja una dinámica interna en el sistema, la cual podría causar inestabilidad. En (Bornard et al., 1993) se propone un observador que, bajo el conocimiento de la posición del carro, la longitud de la cuerda y su ángulo, estima las velocidades de estas variables. En (Hmalainen et al., 1995) se propone una trayectoria de velocidad óptima y se diseña un control de velocidad para el motor, con el propósito de seguir dicha trayectoria. Así mismo, se supone el conocimiento de todas las variables de estado y se tiene un mayor empleo de sensores, ya que son utilizados para las componentes de fuerza horizontal y vertical del cable de la grúa. Esta consideración se hace ya que en algunas aplicaciones el inicio o paro repentino de una grúa viajera causa que la carga se balancee de una manera descontrolada, pudiendo el balanceo de la carga dañar a la carga transportada, a las cargas colocadas alrededor, a los elementos de la propia grúa o al personal de la planta. Se han propuesto para los sistemas de grúas el análisis de estabilidad no lineal, Controlador PD de(Collado et al., 2000; Kiss et al., 2000) y controlador no lineal PID con retroalimentación (H.-H. Lee, 2003). También, controladores basados en energía para sistemas de dos grados de libertad han sido propuestos en (Fang et al. Sept. 2001; Dec. 2001), y para tres grados de libertad en (Fang, 2003), donde los términos no lineales fueron incluidos para mejorar el rendimiento transitorio y para amortiguar la oscilación de la carga rápidamente. (Dongkyoung Chwa, 2009) propone el método de control de seguimiento no lineal usando el ángulo de giro y la retroalimentación de su derivada, con el fin de reducir el movimiento de oscilación de la carga significativamente y hacer el sistema robusto ante la variación del peso de la carga. Es por ello que la contribución principal de este trabajo consiste en proponer y analizar un nuevo enfoque para la atenuación de las oscilaciones de la carga basada en aplicar fuerza al cable de la carga. Para realizar el

134

análisis, consideramos como caso de estudio un péndulo simple. Esta decisión está motivada por el hecho de que la dinámica de la carga de la grúa exhibe gran semejanza a la de un péndulo simple y permite enfocarnos en el efecto de la fuerza en el cable sobre el ángulo de desviación de la carga. El análisis del sistema simplificado utiliza conceptos de energía y disipación de energía. Por un lado, en el peor caso, la carga exhibe oscilaciones de amplitud (casi) constante debido a la conservación de su energía (i.e., la suma de energía cinética y potencial). El objetivo del controlador es entonces añadir disipación artificial al sistema de forma que su energía decrezca y, por consecuencia, también las oscilaciones de la carga. Esta perspectiva permite diseñar la ley de control para la fuerza del cable y mostrar que las oscilaciones pueden ser atenuadas a través del controlador. El resto del artículo está organizado como sigue. En el Capítulo 2 se presenta la formulación del problema junto con el resultado principal: un controlador que permite eliminar completamente las oscilaciones de la carga. Los resultados y evaluación de la simulación se muestran en el Capítulo 3. Por último, en el Capítulo 4, se exponen las conclusiones y trabajo futuro. 2. Formulación del Problema y Resultado Principal El péndulo simple de la Figura 1, está formado por una masa m, suspendida de un punto fijo por medio de un hilo inextensible de masa despreciable y longitud l, que oscila alrededor de otro punto fijo en la misma vertical. El ángulo de desviación es denotado por θ. La fuerza u es aplicada en la base que sujeta el cable. En una grúa, esta fuerza sería aplicada por el motor que enrolla y desenrolla el cable que conecta a la carga. Supondremos que no existe fricción, ya que ésta solo ayudaría a atenuar las oscilaciones.

Figura 1 Péndulo Simple


Definiendo las variables de estado (posición) y (velocidad), el modelo del sistema está dado por:

coinciden Los puntos de equilibrio del sistema con los mínimos de la energía y están dados por: (4)

(1) donde u es la fuerza aplicada al cable. Note que el efecto de la fuerza aplicada sobre el sistema es solamente contrario a la fuerza de gravedad, pues la masa está conectada por un cable que no es rígido. Sin control, el sistema exhibe oscilaciones de amplitud constante. De hecho si u=0, la energía mecánica del sistema (2)

El objetivo de control es encontrar una ley de control que atenúe las oscilaciones. En otras palabras, que estabilice . asintóticamente el punto Para ello, observe que la derivada total de la energía a lo largo del sistema con control está dada por: (5) lo que indica que podemos influir en la tasa de cambio de la energía del sistema. Supondremos que el control únicamente puede ejercer o no fuerza sobre el cable, y además tiene una cota M para la fuerza que puede aplicar:

Se conserva: (3) Cuando

.

Este hecho muestra que las trayectorias del sistema forman órbitas cerradas que son precisamente las curvas de nivel de la función . En otras palabras, sin control, el sistema exhibe oscilaciones descritas por órbitas de energía constante, como se muestra en la siguiente figura:

(6) Teorema 1. Si la condición inicial del sistema satisface , el controlador (7) con

satisfaciendo

y

, asegura que (8)

En otras palabras, asegura que las oscilaciones son eliminadas. Demostración. La derivada total de la energía del sistema satisface (9) que es negativa semidefinida. Note además que , la condición restringiendo se cumple únicamente en el segundo y cuarto cuadrante.

Figura 2 Curvas de nivel de la función de energía del Sistema sin control.

La Figura anterior nos muestra que en tenemos orbitas cerradas, por lo que es el rango de operación para la grúa viajera.

Usaremos el lema de asintótica del estado. trayectorias del sistema más grande donde El conjunto donde

LaSalle para probar estabilidad Éste resultado indica que las convergen al conjunto invariante . está dado por: (10)

135


i.e., los cuadrantes I y III del plano de fase (incluyendo ). Las trayectorias del sistema en Z los ejes coinciden con las del sistema sin control, i.e., describen arcos con que entran y salen de Z, con . Por tanto ésta excepción de la trayectoria ultima trayectoria es la única que permanece invariante en Z. 2.1 Estimación de la Velocidad. Para poder construir el controlador (7), es necesario , lo cual no es posible en la conocer la velocidad práctica. Usualmente, solo es posible medir la posición de . la carga Para estimar la velocidad con base a la posición, se propone el siguiente observador:

Figura 3 Trayectorias del sistema usando el controlador (7).

(11)

observador.

, donde

son las ganancias del

La dinámica del error de observación dada por

está

(12) y por lo tanto converge asintóticamente para cualquier selección estrictamente positiva de ganancias. Con la estimación de la velocidad, se propone modificar el control de la siguiente forma:

Figura 4 Plano de fase del sistema con controlador (7) y sin control.

(13) donde es un nuevo parámetro de diseño que permite ajustar el tamaño deseado de las oscilaciones. 3 Resultados en Simulación Los parámetros del sistema y del controlador fueron seleccionados como . Las ganancias del observador que se . La condición tomaron fueron . inicial del sistema fue elegida Las Figuras 3 y 4 presentan el comportamiento de la oscilación del ángulo de la masa aplicando el controlador diseñado en (7) y al no aplicar el controlador al sistema, la Figura 5 muestra las señales de control empleadas.

136

En las Figuras anteriores podemos comprobar que cuando , la energía del sistema se conserva, es decir, la carga se mantiene oscilando en el valor que se dio como condición inicial, en cambio, al aplicar el control diseñado, la energía del sistema se lleva a cero.


Figura 5 Entradas de Control (7) aplicadas.

Figura 7 Plano de fase del sistema con controlador (13) y sin control.

En la Figura anterior tenemos la señal de control aplicada, la cual se asemeja a un tren de pulsos de amplitud 5N, que es la fuerza aplicada para jalar el cable hacia arriba. Las Figuras 6 y 7 presentan los resultados al utilizar el controlador con estimación de la velocidad mostrado en (13) con , se puede comprobar que la energía del sistema decrece, en este caso hasta llegar al valor , debido a que al insertar ruido en la medición el controlador ya no logra llegar a cero por lo que aproximadamente a los 13 segundos ya el controlador se mantiene oscilando en , se seleccionó 0.07rad que es equivalente a oscilaciones alrededor de los 4°. La Figura 8 muestra la entrada de control aplicada y en la Figura 9 la velocidad de oscilación de la carga y la que se obtiene con el observador propuesto.

Figura 6 Trayectorias del sistema usando el controlador (13).

Figura 8 Entradas de Control (13) aplicadas.

Figura 9 Velocidad verdadera y estimada por el observador.

137


En la Figura anterior se muestra la oscilación del ángulo, la cual tiene un pero aproximadamente a se mantiene constante en que la posición llega a ser .

velocidad de la pico máximo de los 13 segundos , mismo tiempo

en grúas viajeras industriales que son accionadas a través de motor de inducción. 7 Bibliografía J. Y. Lew and B. Halder, “Experimental study of antiswing crane control for a varying load,” in Proc. Amer. Control Conf., Denver, CO, Jun. 2003, pp. 1434–1439. J. Yu, F. L. Lewis, and T. Huang, “Nonlinear feedback control of a gantry crane,” in Proc. Amer. Control Conf., Seattle, WA, Jun. 1995, pp. 4310–4315. K. Yoshida and H. Kawabe, “A design of saturating control with a guaranteed cost and its application to the crane control system,” IEEE Trans. Autom. Control, vol. 37, no. 1, pp. 121–127, Jan. 1992. S. C. Martindale, D. M. Dawson, J. Zhu, and C. Rahn, “Approximate nonlinear control for a two degree of freedom overhead crane: Theory and experimentation,” in Proc. Amer. Control Conf., Seattle, WA, Jun. 1995, pp. 301–305.

Figura 10 Ruido incluido en la medición de la posición del ángulo.

Adicionalmente, en este caso agregamos ruido aleatorio a la medición de la posición con una amplitud menor a 0.1 radianes, el cual se muestra en la Figura 10. 6 Conclusiones y trabajo futuro Se introdujo una metodología para atenuar las oscilaciones en la carga de una grúa viajera usando impulsos de fuerza sobre el cable que la sostiene. Para hacerlo, se consideró como modelo de estudio un péndulo simple. El controlador diseñado utiliza únicamente las mediciones de la desviación de la carga para mandar una fuerza constante K y asegura que las oscilaciones pueden ser atenuadas arbitrariamente, con el primer diseño alrededor de los 8 segundos se logra estabilizar el sistema, el controlador (13) debido al ruido que se insertó en la entrada, el sistema no logra llegar a cero, por lo que se tomó y se obtuvo que es posible mantener las oscilaciones de la carga en el valor dado de , la cual, el diseñador puede cambiar de acuerdo al desempeño deseado, con aseguramos oscilaciones menores a los 4° a partir de los 13 segundos, iniciando en 90°. Trabajo futuro incluye realizar un estudio del controlador propuesto en un modelo más completo de la carga y, en particular, analizar si el controlador puede ser aplicado

138

H. Butler, G. Honderd, and J. Van Amerongen, “Model reference adaptive control of a gantry crane scale model,” IEEE Control Syst. Mag., vol. 11, no. 1, pp. 57–62, Jan. 1991. A. Piazzi and A. Visioli, “Optimal dynamic-inversionbased control of an overhead crane,” IEE Proc.-Control Theory Appl., vol. 149, no. 5, pp. 405–411, Sep. 2002. A. Benhidjep and G. L. Gissinger, “Fuzzy control of an overhead crane performance comparison with classical control,” Control Eng. Practice, vol. 3, no. 12, pp. 1687– 1696, 1995. K. A. F. Moustafa and A. M. Ebeid, “Nonlinear modeling and control of overhead crane load sway,” ASME J. Dyn. Syst., Meas., Control, vol. 110, pp. 266–271, Sep. 1988. H.-H. Lee, “Modeling and control of a three-dimensional overhead cranes,” ASME Trans. Dyn. Syst., Meas., Control, vol. 120, no. 4, pp. 471–476, 1998. J. Collado, R. Lozano, and I. Fantoni, “Control of convey-crane based on passivity,” in Proc. Amer. Control Conf., Chicago, IL, Jun. 2000, pp. 1260–1264. B. Kiss, J. Levine, and P. Mullhaupt, “A simple output feedback PD controller for nonlinear cranes,” in Proc. IEEE Conf. Decision Control, Dec. 2000, pp. 5097–5101.


H.-H. Lee, “A new approach for the anti-swing control of overhead cranes with high-speed load hoisting,” Int. J. Control, vol. 76, no. 15, pp. 1493–1499, 2003. Y. Fang, E. Zergeroglu, W. E. Dixon, and D. M. Dawson, “Nonlinear coupling control laws for an overhead crane system,” in Proc. IEEE Conf. Control Appl., Mexico City, Mexico, Sep. 2001, pp. 639–644. Y. Fang, W. E. Dixon, D. M. Dawson, and E. Zergeroglu, “Nonlinear coupling control laws for a 3-DOF overhead crane system,” in Proc.IEEE Conf. Decision Control, Orlando, FL, Dec. 2001, pp. 3766–3771. Y. Fang, W. E. Dixon, D. M. Dawson, and E. Zergeroglu, “Nonlinear coupling control laws for an underactuated overhead crane system,” IEEE/ASME Trans. Mechatronics, vol. 8, no. 5, pp. 418–423, Sep. 2003. D. Chwa " Nonlinear Tracking Control of 3-D Overhead Cranes Against the Initial Swing Angle and the Variation of Payload Weight," IEEE Trans. on Control Systems Technology, Vol. 17, No. 4, July 2009. B. Vikramaditya y R. Rajamani. Nonlinear control of a trolley crane system. American Control Conference. Chicago, Illinios. 2000. O. Bornard, F. Celle-Couenne y G. Gules. "Observabilité et observateurs, in Systémes non linéaires". Ed. Masson. Paris 1993. J. Hmalainen, A. Marttinen, L. Baharova y J. Virkkunen, "Optimal path planning for a trolley crane: fast and smooth transfer of load". IEE proceeding, Control Theory Applications, Vol.142, No.1, 1995.

139


Diseño de tarjetas electrónicas para dispositivos FPGA Design of electronic cards for FPGA devices

J. A. Licón Gutiérrez, Estudiante. Universidad Autónoma de Querétaro. jlicon01@alumnos.uaq.mx. O. A. Zamudio Ramírez, Estudiante. Universidad Autónoma de Querétaro. ozamudio24@alumnos.uaq.mx. J. C. Tapia Cisneros, Estudiante. Universidad Autónoma de Querétaro. ra_radio@msn.com. D. A. Licón Gutiérrez, Estudiante. Universidad Autónoma de Querétaro. licon_xx@hotmail.com.

RESUMEN. En el presente trabajo se muestra el circuito mínimo de funcionamiento y configuración con el que debe de contar una tarjeta electrónica para el funcionamiento de un FPGA de la marca Altera y de la familia Cyclone II. Este trabajo fue realizado ya que en ocasiones no es posible utilizar una tarjeta de desarrollo en la aplicación final debido al peso, tamaño, consumo o algún otro obstáculo que presentan las tarjetas de desarrollo comerciales y resulta necesario construir una tarjeta especialmente para el propósito deseado. Como resultado se muestra la metodología a seguir y la tarjeta electrónica construida, se configura el FPGA en modo JTAG y modo AS lo que permite que se almacene la descripción de hardware en una memoria no volátil y así cada vez que se enciende la tarjeta electrónica arrancara con la descripción guardada en la memoria. Finalmente como método de validación se utiliza la herramienta SignalTap II para adquirir en tiempo real datos de la lógica interna del FPGA y así comparar los datos obtenidos con los esperados. Palabras clave: Configuración de FPGA, voltajes de alimentación para FPGA, SignalTap II, dispositivos de configuración serial y USB Blaster.

ABSTRACT. The present work shows the minimum operating circuit and configuration with which must have an electronic card running a brand Altera FPGA and Cyclone II family. This work was done as it is sometimes not possible to use a development board in the final application due to weight, size, consumption or some other obstacle posed by commercial development boards and it is necessary to build a card especially for the intended purpose. The result shows the methodology followed and built electronic board configures the FPGA in JTAG Mode and AS Mode which allows the description of hardware store in non-volatile memory and so every time you turn on the electronic card ripped with the description stored in memory. Finally as validation method is used SignalTap II tool to acquire real-time data from the internal logic of the FPGA and thus compare with the expected data. Keywords: FPGA configuration, FPGA supply voltages, SignalTap II, serial configuration devices and USB Blaster.

140


1.

INTRODUCCIÓN

La tecnología de arreglos de compuertas programables en campo (FPGA) continúa siendo impulsada. Desde que Xilinx los invento en 1984, los FPGA han pasado de ser sencillos chips de lógica de acoplamiento a remplazar a los circuitos integrados de aplicación especifica (ASICs) en procesamiento de señales y aplicaciones de control (The Field-Programmable Gate Array, 2006). La adopción de chips FPGA en la industria ha sido impulsada por el hecho de que los FPGAs combinan lo mejor de los ASICs y de los sistemas basados en procesadores. Ofrecen velocidades temporizadas por hardware y fiabilidad, pero sin requerir altos volúmenes de recursos para compensar el gran gasto que genera un diseño personalizado de ASIC. El silicio reprogramable tiene la misma capacidad de ajustarse que un software que se ejecuta en un sistema basado en procesadores, pero no está limitado por el número de núcleos disponibles. A diferencia de los procesadores, los FPGA llevan a cabo diferentes operaciones de manera paralela, por lo que éstas no necesitan competir por los mismos recursos. Los cinco beneficios principales de la tecnología FPGA según National Instruments (2013) son:     

Rendimiento. Tiempo en llegar al mercado. Precio. Fiabilidad. Mantenimiento a largo plazo.

1.1 Comparativa entre tarjetas comerciales y tarjetas diseñadas especialmente para una aplicación.

Dado que el chip FPGA que se utilizara más adelante es de la marca ALTERA de la familia Cyclone II, se presentaran tarjetas comerciales las cuales incluyan un chip con características similares. En este caso se tendrá más énfasis en el FPGA que incluye cada tarjeta si se desea obtener mayor información en cuanto a las especificaciones de cada tarjeta consultar la siguiente cita (Terasic, 2013). Tarjeta Altera DE0: Esta tarjeta está equipada con un Cyclone III 3C16 FPGA, 16000 elementos lógicos (LEs), 56 M9K bloques de memoria embebidos, 56 módulos de multiplicación embebidos, 4 PLL, 346 pines de usuario I/O, este chip tiene un empaquetado BGA de 484 pines y

finalmente la tarjeta tiene un costo de 119 dólares y un precio académico especial de 79 dólares (Terasic, 2013). Tarjeta Altera DE1: Esta tarjeta está equipada con un Cyclone II 2C20 FPGA, 20000 LEs, 52 M4K bloques de memoria embebidos, 26 módulos de multiplicación embebidos, 4 PLL, 315 pines de usuario I/O, este chip tiene un empaquetado BGA de 484 pines y finalmente la tarjeta tiene un costo de 150 dólares y un precio académico especial de 125 dólares (Terasic, 2013). Tarjeta Altera DE2: Esta tarjeta está equipada con un Cyclone II 2C35 FPGA, 35000 LEs, 105 M4K bloques de memoria embebidos, 35 módulos de multiplicación embebidos, 4 PLL, 475 pines de usuario I/O, este chip tiene un empaquetado BGA de 672 pines y finalmente la tarjeta tiene un costo de 495 dólares y un precio académico especial de 269 dólares (Terasic, 2013). Ahora presentaremos el chip FPGA que se utilizara para el desarrollo de la tarjeta electrónica. La elección de este chip fue debido el encapsulado que presenta ya que puede ser utilizado completamente en una tarjeta de dos caras. También se pudo haber elegido un chip de la familia Cyclone III o mayor ya que también existen escapulados similares al utilizado en este trabajo, pero como existe mayor documentación en cuanto a problemas resueltos para la familia Cyclone II se eligió utilizar esta para la tarjeta electrónica. Tarjeta desarrollada: Esta tarjeta está equipada con un Cyclone II 2C8 FPGA, 8000 LEs, 36 M4K bloques de memoria embebidos, 18 módulos de multiplicación embebidos, 2 PLL, 85 pines de usuario I/O, este chip tiene un empaquetado TQFP de 144 pines y finalmente la tarjeta tiene un costo de 64 dólares. De la información presentada se puede observar que el FPGA utilizado tiene menor capacidad de recursos que las tarjetas comerciales, esto es así porque el objetivo de este artículo es conocer el circuito mínimo para el funcionamiento y configuración de un FPGA. Además de que es importante tener la capacidad de desarrollar tarjetas electrónicas a medida ya que en muchos casos no se puede utilizar una tarjeta de desarrollo, tal es el caso de un cuadricoptero en el cual por motivos de peso y tamaño no se puede instalar una tarjeta de desarrollo. Por ejemplo la tarjeta de desarrollo DE0 (la cual tiene el menor tamaño de las tres tarjetas presentadas) tiene un tamaño de 99.7 x 128.02 mm (Terasic, 2013). Se podría pensar que la tarjeta desarrollada tiene una capacidad insuficiente ya que las tarjetas comerciales tienen al menos el doble de capacidad. Sin embargo como se presenta más adelante, aplicaciones como una transformada rápida de Fourier de 1024 puntos puede ser sintetizada en el FPGA propuesto sin ningún problema.

141


Para ver con mayor detalle cual es la influencia del grado de velocidad del chip se presenta la tabla 3 en la cual se muestran distintas aplicaciones y la frecuencia máxima a la que puede operar cada aplicación dependiendo del grado de velocidad del chip.

36

165888

18

Fase de lazo cerrado

Multiplicadores embebidos

8000

Memoria total RAM

Elementos lógicos

EP2C8

Bloques de memoria

FPGA

Tabla 1, Características del EP2C8 (Altera, 2008a).

Filtro FIR de 18 bits, 4 muestras FFT de 1024 puntos 8 bits

Grado de Vel. -8

Aplicación

Max. Frec. (MHz) Grado de Vel. -7

Ya que el encapsulado en el que elegimos el dispositivo es el TQFP144 podríamos elegir el grado de velocidad mas alto el cual es -6 pero resultaría más costoso nuestro diseño así que se elige el de grado -8.

Recursos Usados

Grado de Vel. -6

En la página de internet de Altera se puede descargar el Handbook para dispositivos Cyclone II (Altera, 2013). En este documento en el capítulo 1, encontramos información de la tabla 1 en donde se muestran las características de la FPGA elegida mientras que en la tabla 2 se muestran los encapsulados disponibles y los grados de velocidad disponibles.

Tabla 3, Desempeño del grado de velocidad ante una aplicación (Altera, 2007a).

Bloques DSP

En esta sección se revisara a detalle las características del FPGA elegido, el circuito mínimo con el que debe de contar el FPGA para ser configurado y por último se revisa el diagrama de tiempos y las señales que intervienen en la configuración.

Buffers de salida. Los cuales pueden funcionar a distintas tensiones 3.3V, 2.5V, 1.8V y 1.5V.

M4K

REVISIÓN DE LITERATURA

113

0

8

182

147

122

3191

22

9

235

195

163

LEs

2.

El que las entradas puedan trabajar a distintas tensiones es un beneficio ya que se puede trabajar con circuitos integrados que trabajen con distintos niveles de tensión sin tener que modificar de gran forma un diseño electrónico, tan solo alimentar un banco de salidas con una tensión especifica. Las entradas y salidas en un FPGA están acomodadas en bancos, en este caso los bancos están distribuidos en cada lado del encapsulado como se muestra en la figura 1, cada banco puede recibir una tensión de alimentación distinta (3.3V, 2.5V, 1.8V y 1.5V).

2

Tabla 2, Opciones de encapsulado y grado de velocidad del dispositivo (Altera, 2008a).

FPGA EP2C8

144-PIN TQFP -6, -7, -8

208-PIN PQFP -7, -8

Por otro lado según Altera (2007a) los dispositivos FPGA Cyclone 2 utilizan al menos 2 alimentaciones: 

142

Lógica interna, buffers de entrada y alimentación a módulos PLL. Esta alimentación debe de ser de 1.2V ±0.05.

Figura 1, Bancos de entradas y salidas del dispositivo EP2C8. Modificado de Altera (2008b).


El método por el cual será configurado el dispositivo FPGA se determina a partir del estado lógico presente en los pines MSEL1 y MSEL0. En la tabla 4 se muestra cuales son los posibles métodos para configurar el dispositivo.

Tabla 4, Esquemas de configuración (Altera, 2007b).

Esquema de Configuración AS (20 MHz) PS AS Rápido (40 MHz) JTAG

MSEL1

MSEL0

0 0 1

0 1 0

X

X

De la tabla anterior se observa que el modo de programación JTAG siempre está activo, mientras que el método AS y PS está determinado por el estado de las entradas MSEL. En modo AS la configuración se realiza mediante el uso de dispositivos de configuración serial como lo son los dispositivos: EPCS1, EPCS4, EPCS16 o EPCS64.

Tabla 5, Tamaño de datos de la familia Cyclone II (Altera, 2007b).

Dispositivo EP2C5 EP2C8 EP2C15 EP2C20 EP2C35 EP2C50 EP2C70

Tamaño de datos (Bits) 1,265,792 1,983,536 3,892,496 3,892,496 6,858,656 9,963,392 14,319,216

Tabla 6, Tamaño de datos del dispositivo de configuración serial en modo AS (Altera, 2012).

Dispositivo EPCS1 EPCS4 EPCS16 EPCS64 EPCS128

Tamaño de datos (Bits) 1,048,576 4,194,304 16,777,216 67,108,864 134,217,728

En modo PS la configuración se realiza mediante el uso de dispositivos mejorados de configuración serial como lo son los dispositivos: EPC4, EPC8 y EPC16, un microprocesador o un cable de descarga. En modo JTAG se utilizan pines designados para este fin utilizando un cable de descarga o utilizando un microprocesador que se comunique bajo el estándar Jam. Para elegir el dispositivo de configuración a utilizar es necesario consultar las tablas 5 y 6 en las cuales se muestra el tamaño de datos de la familia Cyclone II y el tamaño de datos del dispositivo de configuración serial en modo AS. Ya que se decidió utilizar el FPGA EP2C8T144C8N lo recomendable es utilizar como dispositivo de configuración un EPCS4 con el cual podremos configurar por completo el FPGA en caso que se requiera, se podría utilizar alguno de los otros dispositivos con mayor memoria pero eso involucraría un gasto innecesario. En la figura 2 se muestra el diagrama esquemático que recomienda altera para la conexión del FPGA, memoria de configuración en modo AS y un programador USB Blaster.

Figura 2, Esquemático para la configuración de un dispositivo FPGA. Modificado de Altera (2007b).

143


Por último en esta sección se describirá brevemente el proceso de programación: Una vez que existe un voltaje de alimentación, el dispositivo Cyclone II entra en estado POR (Power On Reset). Durante el estado POR el dispositivo se resetea y mantiene nSTATUS y CONF_DONE en estado bajo, configura en estado de alta impedancia todos los pines de I/O (Input/Output). Una vez que ha pasado el estado POR qué típicamente tarda 100 ms, el dispositivo Cyclone II configura en alta impedancia el pin nSTATUS y entra en modo de configuración cuando la resistencia pull-up lleva el pin nSTATUS a estado alto. Una vez que el FPGA termina exitosamente el estado POR, todos los pines de I/O continúan en estado de alta impedancia (los dispositivos Cyclone II tienen resistencias pull-up en los pines de I/O). El ciclo de configuración consiste de un estado de reset, configuración y estados de inicialización. Estado de reset: Cuando nCONFIG o nSTATUS están en estado bajo, el FPGA entra en estado de reset. Después del estado POR, el FPGA libera el pin nSTATUS y atreves de la resistencia pull-up este llega a estado alto y el dispositivo FPGA entra en el estado de configuración. Estado de configuración: La señal de reloj DCLK generada por el FPGA controla completamente el estado de configuración y provee el tiempo para la interfaz serial. Los dispositivos Cyclone II utilizan un oscilador interno. En el estado de configuración el FPGA habilita el dispositivo de configuración serial llevando a estado bajo el pin nCSO el cual se conecta al pin de habilitación nCS del dispositivo de configuración serial. El FPGA usa la señal de reloj DCLK y la salida serial de datos ASDO

para enviar comandos de operación y/o leer señales del dispositivo de configuración serial. El dispositivo de configuración provee de datos a través de su pin de salida de datos DATA el cual se conecta al pin de entrada DATA0 del FPGA. Después de que el FPGA recibe toda la información de configuración, este libera el pin CONF_DONE y atreves de una resistencia pull-up llega a estado alto. El pin CONF_DONE debe de tener una resistencia externa de 10 KΩ para que el FPGA se pueda configurar de forma exitosa. Todos los pines de configuración AS (DATA0, DCLK, nCSO y ASDO) tienen internamente resistencias pull-up que están siempre activas. Después de la configuración estos pines son configurados como entradas en alta impedancia y son llevadas a nivel alto por las resistencias pull-up internas. Estado de inicialización: En dispositivos Cyclone II, la fuente de reloj de inicialización puede ser interna de 10 MHz o externa a través del pin CLKUSR. La fuente de reloj interna está habilitada por defecto como fuente de inicialización. Los dispositivos Cyclone II ofrecen un pin opcional INIT_DONE el cual indica el cambio de estado de inicialización a modo de usuario atreves de un flanco de subida en este pin. Estado de usuario: Cuando la inicialización esta completa el FPGA entra en modo de usuario. En modo de usuario los pines de I/O dejan de estar en alta impedancia y toman el valor que se asigna en el diseño de vhdl o verilog. Cuando estás en modo usuario puedes iniciar una reconfiguración llevando nCONFIG ha estado bajo. En la figura 3 se muestra un diagrama de tiempos de la descripción, este es especialmente útil cuando se está probando una nueva tarjeta electrónica y se tiene algún problema con la configuración del dispositivo.

Figura 3, Diagrama de tiempos para una configuración a través de un dispositivo AS. Modificado de Altera (2007b).

144


3.

Metodología

de 8 V, el consumo de corriente de la lógica interna del EP2C8 es de 17 mA (Altera, 2007a).

La metodología se divide en 2 partes principales: el diseño de la fuente de alimentación y el diseño para la configuración del FPGA. Aun que estas dos partes estarán incluidas en una misma tarjeta nos parece adecuado separarlo ya que su función es completamente distinta.

3.1 Diseño de la fuente de alimentación

Debido a que el encapsulado que elegimos cuenta con 85 pines de I/O y cada uno de ellos puede conducir una corriente máxima de 40 mA, en el peor de los casos necesitaríamos una fuente de alimentación que suministrara 3.4 A como se muestra en (1), este es un caso extremo que no se presenta normalmente ya que los pines de I/O en general se conectan a entradas o salidas de otros circuitos integrados donde la corriente normalmente no supera los 20 mA (la corriente que cada pin puede proporcionar es programable y se le llama nivel de integridad de la señal puede ser 4, 8, 12, 16, 20 y 24 mA)(Altera, 2007a). En (2) se muestra la corriente que debe de proporcionar la fuente de alimentación para una corriente por pin de 20 mA.

I Fuente  85 * 40(mA)  3.4 A

(1)

I Fuente  85 * 20(mA)  1.7 A

(2)

P  (3.3  1.2)V *17mA  35.7mW

(3)

P  (8  1.2)V *17mA  115.6mW

(4)

El regulador de tensión elegido es el LP3879 el cual tiene las siguientes características: se alimenta desde 2.5 V hasta 6 V, la corriente máxima es de 800 mA, 1 % de error en el voltaje de salida (Texas Instruments, 2013b). En la figura 4 se muestra el diagrama esquemático de la fuente de alimentación para los bancos de entradas y salidas del FPGA. En la figura 5 se muestra el diagrama esquemático de la fuente de alimentación para la lógica interna del FPGA.

Figura 4, Diagrama esquemático de la fuente de alimentación para los bancos de entradas y salidas del FPGA.

La corriente obtenida en (2) será la que se utilizara como máxima para la alimentación de los bancos de entradas y salidas del FPGA para esto utilizaremos el circuito integrado LM2676 el cual es el controlador para una fuente conmutada de bajada de 3 A, esta circuito tiene una eficiencia del 94 %, es fija a 3.3 V, trabaja con un reloj de 260 KHz y su tensión de entrada va desde 8 V hasta 40 V (Texas Instruments, 2013a). Ahora para la alimentación de la lógica interna necesitamos una fuente de alimentación que nos proporcione 1.2 V ±0.05, y se alimente a 3.3 V esto es así para reducir la potencia que se disipara en el regulador de voltaje, en (3) se muestra el consumo del regulador para una alimentación de 3.3 V y en 4 para una alimentación

Figura 5, Diagrama esquemático de la fuente de alimentación para la lógica interna del FPGA.

145


3.2 Diseño de la lógica de configuración

Para el diseño de la lógica de configuración se siguen las indicaciones presentadas en la sección de revisión de literatura, se diseña esta etapa para que la tarjeta pueda ser configurada atreves de JTAG y AS. Por lo que se utilizara una memoria de configuración EPCS4 para almacenar la configuración hasta que sea requerida por el FPGA. En la figura 6 se muestra el diagrama esquemático para la configuración del FPGA, en la figura se puede observar que se tienen 2 conexiones de 10 pines, son en esas conexiones donde se coloca el programador USB Blaster o algún otro que pueda desempeñar la tarea de descargar la información de la PC (Personal Computer) a la tarjeta desarrollada. En la figura 7 se muestra la vista superior de PCB (Printed Circuit Board) ya ruteado mientras que en la figura 8 se muestra la vista inferior del PCB ya ruteado. Una vez terminado el PCB se deben de obtener los archivos Gerber y ncDrill que son los utilizados para el maquinado de la tarjeta electrónica. Como se desea que esta tarjeta pueda ser construida completamente en los laboratorios de la Universidad Autónoma de Querétaro el ruteo del PCB se realizo tomando en cuenta que no se pueden insertar true-holes (tubos de cobre que se insertan en los orificios para conducir entre las diferentes capas de una tarjeta electrónica) en el PCB, esto hace que el ensamble de la tarjeta sea un poco más complicado ya que se tendrán que soldar cables que atravesaran de lado a lado la tarjeta electrónica.

Figura 7, Vista 3D de la parte superior del PCB.

Figura 8, Vista 3D de la parte inferior del PCB.

4.

Figura 6, Diagrama esquemático de la lógica de configuración.

146

Resultados y discusión

Ya que el diseño fue terminado y el PCB terminado y fabricado obtenemos la tarjeta electrónica presentada en la figura 9, la cual es la parte inferior de la tarjeta electrónica. En este apartado del documento presentaremos la tarjeta ensamblada, el costo de fabricación y una pequeña descripción de hardware y su validación con la herramienta SignalTap II.


Tabla 7, Costos de elementos electrónicos.

Figura 9, Tarjeta entregada por el centro de maquinados PCB-UAQ.

Los costos (en dólares) de materiales se muestran en la tabla 7, cabe señalar que las FPGA fueron compradas en la tienda electrónica DIGIKEY y al momento de realizar la compra debes de explicar para que deseas obtener estos circuitos integrados (algunas familias de FPGAs no pueden ser distribuidas en nuestro país). La tabla anterior muestra que el precio total de los materiales es de 114 dólares, cabe señalar que el componente más costoso de esa lista es el programador Terasic Blaster que tiene un costo de 50 dólares, este programador tiene un costo de la mitad de lo que cuesta un programador de la marca altera sin embargo tienen la misma calidad ya que Terasic es quien fabrica las tarjetas de desarrollo de Altera. A estos costos de materiales faltaría agregar el costo del maquinado de la tarjeta electrónica ya que en este caso la tarjeta fue fabricada sin ningún costo debido a los propósitos del proyecto. Debido al método en cómo se maquinan las tarjetas electrónicas en el centro de maquinado de PCB-UAQ hubo algunas complicaciones en el ensamblaje ya que algunas pistas no estaban completamente cortadas y existían algunos corto circuitos, para solucionar este problema lo que se hizo fue retirar las partes de cobre que no fueran necesarias esto se realiza calentando la pista con un cautín hasta que el pegamento que se encuentra debajo del cobre se caliente y sea fácil retirar el cobre innecesario.

Componente Capacitor Capacitor Capacitor Capacitor Diodo LED Conector JTAG-AS Inductor Conector entradas y salidas Puente rectificador Resistencia Resistencia Resistencia Resistencia Resistencia Clema FPGA Memoria Programador Memoria Regulador Regulador Cristal

Características 10uF-16V 0.1uF-25V 10nF-100V 100uF-6.3V 40V-1A 1.5V-10mA 5-pines doble columna 47uH-3.8A 20-pines doble columna

Cantidad 1 8 2 4 2 1 2

P/U 0.37 0.13 0.36 1.94 0.4 0.25 0.87

P/T 0.37 1.04 0.72 7.76 0.8 0.25 1.74

1 1

1.26 1.74

1.26 1.74

2A

1

0.43

0.43

4.7KΩ-250mW 120Ω-250mW 470Ω-250mW 10KΩ-250mW 1KΩ-250mW 3A-100mil Pitch EP2C8T144C8 N EPCS4SI8N USB BLASTER IS61LV25616 LM2676 LP3879 40 MHz

1 1 1 4 3 1

0.02 0.02 0.01 0.02 0.02 1.19

0.02 0.02 0.01 0.08 0.06 1.19

1

19.2

19.2

1 1 1 1 1 1

13 50 5.16 4.75 1.37 3.81 Total

13 50 5.16 4.75 1.37 3.81 114

Figura 10, Vista superior de la tarjeta electrónica completamente ensamblada.

La parte superior de la tarjeta completamente ensamblada se muestra en el figura 10, mientras que en la figura 11 se muestra la parte inferior de la tarjeta completamente ensamblada.

147


Figura 11, Vista inferior de la tarjeta electrónica completamente ensamblada.

La tarjeta electrónica puede ser alimentada desde 9-40V sin importar la polaridad gracias a el puente rectificador, la tarjeta cuenta con un puerto de entradas y salidas el cual tiene 36 entradas y salidas, 2 alimentaciones de 3.3V y 2 tierras. Este puerto cuenta con lo mínimo necesario para agregar a la tarjeta otros dispositivos como convertidores analógico a digital, convertidores digitales a analógicos, memorias externas, hardware para protocolos de comunicación, hardware para protocolos de video o sonido, etc. Como ya se había comentado previamente la tarjeta puede ser configurada en modo AS y JTAG por lo que cuenta con las dos conexiones de 5 pines por dos columnas, para seleccionar en que método se va a programar solo se coloca el conector del programador en el puerto por el cual se desea programar y finalmente en el software de Quartus se elige el tipo de configuración que se hará (por default está configurado en modo JTAG).

Figura 12, Descripción de hardware para el encendido y apagado de un led en el puerto de I/O.

Para finalizar este documento sintetizaremos en el FPGA una descripción de hardware en la cual se encenderá y se apagara un led del puerto de entradas y salidas. La descripción de hardware es la mostrada en la figura 12. Para validar el funcionamiento de la tarjeta hacemos uso de la herramienta SignalTap II que se encuentra en el programa de Quartus. En este caso configuramos que se tomaran 16 muestras en tiempo real en las que veremos las variables RST, sal y count_reg. SAL es el estado lógico del led y count_reg es el registro del contador que describimos. En la figura 13 podemos observar de manera general la ventana (entorno de trabajo) de la herramienta SignalTap II. En la figura 14 podemos observar con detalle el valor en el que se enciende el led y en la figura 15 podemos observar el valor en el que se apaga el led.

148

Figura 13, Vista general del entorno de la herramienta SignalTap II.


Figura 14, Valor de count_reg en el que se enciende el led.

Figura 15, Valor de count_reg en el que se apaga el led.

la lógica interna del FPGA. También cabe mencionar que se han agregado módulos externos a la tarjeta, tal es el caso de una cámara de video TCM8230MD con la cual se despliega video en línea hacia un monitor VGA, por otra parte se realizo también un modulo de expansión en el cual se tiene un convertidor analógico a digital ADS7818P y un convertidor digital a analógico DAC7611 los cuales junto con el FPGA son utilizados para realizar procesamiento digital de señales. Por último mencionar que el proceso de fabricación no es complicado ya que la tarjeta es fabricada por el centro de maquinado PCB-UAQ y los chips de montaje superficial fueron elegidos de manera que puedan ser soldados con un cautín convencional.

5.

Bibliografía

Altera, 2007a, Cyclone II Device Handbook: Chapter 5. DC Characteristics and Timing Specifications. El led se mantiene apagado ‘0’ mientras el registro del contador sea menor al número 20,000,000 esto es porque se está utilizando un oscilador de 40 MHz, cuando el registro alcanza los 20,000,000 el led se enciende. Para el caso del apagado se esperaba que el registro del contador llegara a los 40,000,000 pero ya que se estaban utilizando 25 bits la cuenta no puede llegar hasta ese valor y se desborda, por lo tanto vuelve a comenzar desde cero, en (5) se muestra el número máximo que se puede alcanzar con 25 bits.

nmax  2 25  1  33554431

(5)

El cual es el número anterior en el registro del contador antes de que el led se apague, para que alcance la cuenta de 40,000,000 se debe de tener un contador de 26 bits. Este ejercicio comprueba que la herramienta SignalTap II nos entregara valores reales de los registros internos del FPGA durante tiempo de ejecución sin afectar el funcionamiento de la descripción del hardware diseñado.

4.1 Conclusiones El objetivo principal se cumplió ya que se puede configurar un FPGA tanto en modo AS como modo JTAG, así como se puede obtener en tiempo real datos de

Altera, 2007b, Cyclone II Device Handbook: Chapter 13. Configuring Cyclone II Devices. Altera, 2008a, Cyclone II Device Handbook: Chapter 1. Introduction. Altera, 2008b, Cyclone II Device Handbook: Chapter 10. Selectable I/O Standards in Cyclone II Devices. Altera, 2012, Serial Configuration (EPCS) Devices Datasheet. Altera, 2013, Pagina de www.altera.com/literature/lit-cyc2.jsp.

descarga:

National Instruments, 2013, Introducción a la Tecnología FPGA: Los cinco Beneficios Principales, http://www.ni.com/white-paper/6984/es/. Terasic, 2013, DE Series Introduction, http://www.terasic.com.tw/cgi-bin/page/archive.pl? Language=English&CategoryNo=163. Texas Instruments, 2013a, LM2676 Simple Switcher High Efficiency 3 A Step-Down Voltage Regulator. Texas Instruments, 2013b, LP3879 Micropower 800 mA Low Noise “Ceramic Stable” Voltage Regulator for Low Voltage Applications. The Field-Programmable Gate Array (FPGA), 2006, Expanding Its Boundaries, InStat Market Research.

149


Implementación de Sensores no-invasivos para estimación de fotosíntesis basado en un FPGA FPGA-based non-invasive sensor implementation for photosynthesis measurement

C. Castañeda Miranda, División de Estudios de Posgrado, Facultad de Ingeniería. Universidad Autónoma de Querétaro. celina.castaneda@outlook.com.

L. Contreras Medina, HSPdigital-CA Mecatrónica, Facultad de Ingeniería. Universidad Autónoma de Querétaro, Campus San Juan del Rio. mcontreras@hspdigital.org. A. Espinosa Calderon, CA Ingeniería en Biosistemas, División de Estudios de Posgrado, Facultad de Ingeniería. Universidad Autónoma de Querétaro. espinosa.calderon.alejandro@gmail.com.

RESUMEN. La fotosíntesis se considera la función fisiológica más importante, ya que constituye la entrada principal de la biomasa para el planeta y por lo tanto permite la continuación de la vida en la tierra. Se requieren métodos de medición de fotosíntesis precisos para comprender muchos fenómenos relacionados con la misma, tal como, la productividad de la planta y por ende la optimización de los cultivos. La mayoría de los métodos de medición de fotosíntesis son invasivos, de laboratorio o incluso destructivos. Los métodos no invasivos no alteran o someten a estrés a la planta, por lo que ésta trabajará de forma habitual. En esta investigación se propone la elaboración de un sensor no-invasivo para estimación de fotosíntesis basado en un FPGA, por medio de un algoritmo matemático que relaciona las mediciones no invasivas de cada uno de los principales parámetros involucrados en la fotosíntesis, tales como, humedad relativa, temperatura ambiental, temperatura de la hoja y radiación incidente sobre la planta. Palabras clave: Sensor no-invasivo, fotosíntesis, FPGA, agricultura de precisión.

ABSTRACT. Photosynthesis is considered the most important physiological function because it constitutes the main biomass entrance for the planet and therefore allows the continuance of life on earth. Therefore, accurate photosynthesis measurement methods are required to understand many photosynthesis-related phenomena, such as, the plant productivity and therefore the optimization of the crop. Most photosynthesis measurement methods are invasive, made in laboratory or even destructive. Non-invasive methods do not altered or subjected to stress to the plant, so that it will work normally. This research proposes the development of a FPGA-based non-invasive sensor for photosynthesis measurement, by using a mathematical algorithm that relates the non-invasive measurements of each of the main parameters involved in photosynthesis, such as, relative humidity, air temperature, leaf temperature and plant incident radiation. Keywords: Non-invasive sensor, photosynthesis, FPGA, precision agriculture.

1. INTRODUCCIÓN

La medición del impacto del medio ambiente en la fotosíntesis es de interés para la agronomía debido a que la productividad de la planta, y por ende la productividad

150

de los cultivos depende fuertemente de los rangos fotosintéticos en el entorno. De forma paralela, el estudio sobre cómo responde fotosintéticamente la planta a factores climáticos como la temperatura, la luz o el CO2 es de gran interés para ciencias como la fisiología, la botánica y la biología en general. Ahora bien, para toda medición es necesario interactuar con el sujeto y tomar


una parte de la energía involucrada en el proceso a medir. Al hacer esto se está interfiriendo con dicho sujeto, modificándolo y alterándolo en cierto porcentaje. La mayoría de los métodos de medición de fotosíntesis enumerados por Espinosa-Calderon et al., 2011, y Millán-Almaraz et al., 2009, son invasivos, de laboratorio o incluso destructivos. Los métodos no invasivos no alteran o someten a estrés a la planta, por lo que ésta trabajará de forma ordinaria. El lograr desarrollar un método no invasivo de medición de fotosíntesis de alta resolución no solamente sería innovador, sino que también sería sumamente útil para la automatización de invernaderos y la investigación biológica en campo. En la actualidad, existen diferentes métodos para medir la fotosíntesis a niveles de hoja, planta o grupo de plantas. A continuación serán descritos los métodos modernos más utilizados para la estimación de la fotosíntesis. Unos de los métodos mas importantes es el de materia seca, el cual consisten en la estimación de la actividad fotosintética acumulada durante la vida de la planta, basada en la acumulación de materia seca de una planta desde su punto de germinación, hasta que es cortada (Hodson et al., 2005). Este método comprende el cortar una porción de la planta, deshidratarla y pesar su materia seca. Los métodos destructivos son adecuados para evaluar cambios a largo plazo, pero son inapropiados cuando el interés se concentra en los incrementos de materia seca a corto plazo como en intervalos de días, horas o minutos, o en las contribuciones que hacen los órganos individuales (Long y Hallgren,1987). Actualmente el método intercambio de gases es el más comúnmente usado en equipos comerciales y experimentales para la medición de fotosíntesis en hojas individuales (Delieu y Walker, 1981). Consiste en aislar la muestra en una cámara y medir el O2 o CO2 antes y después del proceso fotosintético. Dependiendo de esta relación se infiere el grado de fotosíntesis ejecutada por la planta (Schulze, 1972; Takahashi et al., 2001). El gas más comúnmente tomado como parámetro es el CO2, para su detección se utilizan los sensores Infrarrojos de Gas (también llamados IRGA por sus siglas en Inglés Infra Red Gas Analysis Sensors). Al contrario de los métodos antes expuestos, exite otras formad de medir la fotosíntesis utilizando variables ópticas, lo cual permite evitar el contacto físico con la planta, es decir, constituyen una forma no intrusiva de medición. Por ejemplo, la espectroscopia óptica consiste en el monitoreo de las interacciones entre la materia y la radiación electromagnética en los rangos de ultravioleta (UV, 100-400nm), visible (VIS, 400- 760nm) e infrarrojo (IR, 760nm-1000µm) (Waynant y Ediger, 1994). Existen diversos tipos de espectroscopia, la primera conocida como método por absorción, consiste en que la absorción de luz induce transiciones electrónicas y de vibración de

moléculas dependiendo de la longitud de onda de la fuente (Schlodder, 2009). El espectro de absorción provee una “huella” espectroscópica de la muestra. El análisis del espectro de absorción de una muestra genera información sobre su comportamiento en estado excitado. Las limitantes de esta técnica son: la auto-sombra entre plantas y entre el mismo dosel, la altura de la vegetación, y cambios naturales en la orientación de las hojas. El segundo tipo de espestroscopia por diferencia de absorción, detecta el resultado de diferencias de luz menos obscuridad de espectros de absorción. Es capaz de detectar pigmentos específicos involucrados con procesos específicos (Schlodder, 2009). Y por útimo, la espectroscopia de absorción ultra rápida o también conocida como UTRAS por su acrónimo en inglés Ultrafast Time-Resolved Absorption Spectroscopy. Consiste en la aplicación de un tren continuo de flashes de luz cortos y de gran intensidad que generen reacciones fotoquímicas. Los cambios en absorción inducidos por estos flashes se monitorean en función del tiempo y de la longitud de onda. No obstante, el análisis de gases es la técnica de medición de fotosíntesis más utilizada tanto para aplicaciones científicas como comerciales (Millan-Almaraz et al., 2009; Zhang et al., 2007). Estos sistemas miden el intercambio de los gases O2 o CO2, ya sea en medios gaseosos o acuosos. El primero, en medios gaseosos consiste en que la molécula de CO2 absorbe luz IR de longitud de onda de 2.66, 2.77, 4.26 y 14.99 µm (MillanAlmaraz et al., 2009). Los analizadores Infrarrojos de Gas (llamados IRGA por su acrónimo en inglés Infrared Gas Analyzer) utilizan esta absorción para hacer una medición cuantitativa del cambio de CO2 durante el proceso de fotosíntesis. Los IRGAs consisten, esencialmente, en: una cámara transparente que encierra a la muestra iluminada (hoja o planta completa); 2 tubos para flujo de aire (uno para la muestra y el otro para la referencia); una bomba que haga circular el aire; un módulo para análisis óptico; una fuente de luz IR; choppers, fuentes de alimentación, amplificadores, filtros y detectores de fase. Durante la fotosíntesis, el diferencial de O2 es mucho menor que el de CO2. Además, el O2 es más inestable. Esto provoca que los sensores necesarios para la medición de este gas tengan que ser más precisos y, por lo tanto, más caros. Es por esto que no es común hacer mediciones de fotosíntesis en medios gaseosos con analizadores de O2 (Hunt, 2003). El segundo analizador de gases, en medios acuosos consiste en que las mediciones de O2 y CO2 en medios acuosos generalmente se realizan a través de electrodos electroquímicos tipo Clark. Estos electrodos son invasivos porque compiten con la muestra por dichos gases. Los sensores de O2 de fibra óptica dependen de la extinción de la luminiscencia (fosforescencia o fluorescencia) producida por el O2. Esta luminiscencia es generada por compuestos

151


organometálicos embebidos en una matriz de polímero permeable al O2. Dicha matriz se coloca en la punta de la fibra óptica. Esta técnica permite la medición simultánea de la fluorescencia de clorofila al estimular con luz modulada y separar ambas señales por su espectro (Hunt, 2003). Pesé a que, la fotosíntesis no es una variable que se pueda medir directamente, podría se calculada con base en otras variables y algunas ecuaciones específicas. La modelación matemática consiste en el desarrollo de modelos matemáticos que permitan la estimación de fotosíntesis basado en el comportamiento de patrones obtenidos al monitorear otras variables comúnmente climáticas. Esta técnica es difícil de usar debido a la complejidad de la mayoría de los modelos, sin embargo, es una herramienta poderosa para la generación de modelos que predigan la fotosíntesis con alta precisión (Olioso et al., 1999). El contar con un algoritmo matemático que relacione las mediciones de cada uno de parámetros principlales involucrados en la fotósitesis, permitiran finalmente la elaboración del sensor no invasivo de la misma. Por consiguiente mediante mediciones no invasivas de humedad relativa, temperatura ambiental, temperatura de la hoja y radiación incidente sobre la planta, es posible implementar en un FPGA (Field Programmable Gate Array) un sistema de monitoreo no invasivo de fotosíntesis en plantas.

Figura 1. Diagrama a bloques del medidor no invasivo de fotosíntesis.

Ahora bien, las variables principales involucradas en la fotosíntesis: luz, temperatura ambiente, humedad relativa y temperatura generada por la planta (se podría omitir la medición de O2 debido a que el monitorear este parámetro implica la utilización de sensores con muy alta precisión, lo cual encarecería al sistema (Hunt, 2003)). Estos parámetros podrían medirse con sensores que no requierán el contacto con la planta para lograr un método no invasivo y así permitir que la planta se comporte normalmente. El correlacionar las mediciones de cada parámetro, es decir el modelo matemático adecuado (el cual involucre las variables que intervienen en la estimación de fotosíntesis de manera no invasiva), permitiría finalmente terminar la elaboración del sensor no invasivo de fotosíntesis.

2. MATERIALES Y MÉTODOS

En la figura 1, se muestra un diagrama a bloques del sistema propuesto. Este sistema de monitoreo desplegará desde el FPGA la información por medio de una pantalla de cristal líquido o LCD (por sus sigla del inglés Liquid Crystal Display). Y además contará con comunicación serial (protocolo RS-232) desde el FPGA hacia una computadora, esto con el fin de descargar las medidas almacenadas en memoria de: la fotosíntesis, los sensores y el horario en que fueron tomadas dichas lecturas.

152

2.1 Modelo caja negra, calibrado por algoritmos genéticos

Las formas de construcción de un modelo matemático se muestran en la figura 2. Los modelos deterministas (también llamados de caja blanca o de modelado físico) son explicativos de un sistema. Los modelos de caja negra (de identificación) son descripciones directas de los datos, pero tienen la desventaja de que no dan una explicación de los mecanismos subyacentes. Una combinación de estos dos tipos de modelo resulta en los modelos caja gris. Utilizando las mediciones arrojadas por el Li-6400XT (medidor comercial de fotosíntesis de la marca Li-cor), fue generado un modelo matemáticos de caja negra, calibrado por algoritmos genéticos (EspinosaCalderon, 2013).


Figura 3. Diagrama a bloques para el módulo del algoritmo de caja negra.

Figura 2. Formas de construcción de un modelo matemático.

Utilizar algoritmos genéticos para ajustar el modelo tienen un considerable nivel de simplicidad porque usan retroalimentación. (Guzmán-Cruz, 2010). La estructura propuesta del modelo matemático ajustado para estimar fotosíntesis se muestra en la ecuación 1.

(1)

Donde:

Este módulo (figura 3), toma todas las mediciones provenientes de los sensores. Una máquina de estados selecciona una a una las variables a través de un multiplexor, para que se procesen y se guarden en un registro. Puesto que este modelo contempla una fotosíntesis anterior P(t-1), entonces el módulo tiene un registro para ir guardando las fotosíntesis anteriores en cada caso. Así mismo, el módulo también cuenta con una fotosíntesis anterior fija para la primera medición que se haga. Se propone que esta fotosíntesis anterior fija inicial sea igual a cero. Este módulo tiene la ventaja de que se puede variar muy sencillamente el tiempo de muestreo, para ajustarlo al óptimo, a través de una base de tiempo. También permite las mediciones iterativas para amortiguar valores singulares erróneos.

3. RESULTADOS Y DISCUSIÓN

3.1 Programación de sensores 2.2 Implementación del algoritmo matemático

Una vez obtenidas las diferentes mediciones, hay que programar en el FPGA el modelo matemático que permite estimar la fotosíntesis. El diagrama a bloques que se sugiere para el modelo de caja negra se muestra en la figura 3.

La tabla 1 muestra las variables a medir y los sensores seleccionados para medirlas. Estos sensores fueron seleccionados por sus características técnicas y sus salidas digitales. Los protocolos de comunicación para tomar las lecturas de cada sensor fueron descritos en el lenguaje de programación VHDL para, posteriormente, ser interpretados por el FPGA.

153


Tabla 1. Variables a medir y sensores utilizados VARIABLE

SENSOR

Temperatura Ambiente y Humedad Relativa

SHT71, Sensirion

Radiación Solar

Convertidor de Luz a Frecuencia TSL230RD, TAOS

Temperatura de la Hoja

Termopila Infrarroja TMP006, Texas Instruments

como la máquina de estados sólo envía un byte de datos y un bit de aknowledge por cada vez que se ejecuta, se tiene que repetir este proceso varias veces. La máquina de estados para el control de comunicación de I2C se encarga de controlar la señal de reloj con el protocolo de la comunicación con el sensor. Así como el bit que se envía cada cierto tiempo, también lleva la entrada de las cuentas para saber cuándo se tiene que detener al recibir las cuentas. Además controla el registro serial-paralelo. Según el estado del contador el multiplexor selecciona la trama de datos que se va a mandar siguiendo los siguientes pasos: · Dirección del esclavo en forma de escritura

3.2 Protocolo I2C

Debido a sus hojas de datos, tanto el sensor de temperatura y humedad relativa: sensirion SHT71, como la termopila infrarroja: TMP006, tienen protocolos de comunicación muy similares. Un diagrama de las entradas y salidas de un módulo de comunicación I2C, se muestra en la figura 4.

· Registro a leer · Dirección del esclavo · Dirección de esclavo en forma de lectura · Alta impedancia (recibir primeros 4 bits del reg1) · Alta impedancia (recibir segundos 4 bits del reg1) · Manda la dirección del registro a leer · Configura al esclavo en modo leer · Alta impedancia (recibir primeros 4 bits del reg2) · Alta impedancia (recibir segundos 4 bits del reg 2) La máquina de estados le indica a un multiplexor qué bit tiene que mandar al puerto de SDA para el protocolo de comunicación. Otro multiplexor se encarga de mandar un “0” o alta impedancia por el puerto SDA tomando en cuenta la señal. El registro de corrimiento toma los datos de forma serial y los coloca en arreglos de 8 bits.

Figura 4. Entradas y salidas generales de un módulo de comunicación I2C

El Bus I2C (Inter- Integrated Circuits). Es un bus bidireccional basado en dos hilos por el que se trasmiten los datos vía serie. Este protocolo cuenta con una base de tiempo, la cual cuenta los pulsos que recibe en la variable clk que es el reloj con el que trabaja el FPGA de 50 Mhz que representa la velocidad de adquisición de los datos y al llegar al valor de la variable K manda un pulso a la velocidad deseada, esta puede variar según uno la programe mediante un contador puede disminuir o aumentra. El contador que utiliza es módulo 10, ya que,

154

En el caso de la termopila, también está otro registro que almacena los valores de las lectura del sensor. Los registros 0 y 1 almacenan el primer registro (temperatura del objeto) y los segundos, 2 y 3, el segundo registro (temperatura ambiente)

Figura 5. Tarjeta para termopila.


Al ser la termopila un sensor de montaje superficial, existe la necesidad de ser montado a una tarjeta (figura 5) que nos permita el acceso a mayor escala de las entradas y salidas del sensor.

3.3 Frecuencímetro

3.4 Prototipo

En la figura 7 se muestra tanto un diagrama, como la imagen de los avances del prototipo propuesto para nuestro sensor no-invasivo para estimar fotosíntesis basado en un FPGA.

Puesto que el TAOS TSL230RD es un convertidor de Luz a Frecuencia, fue necesario diseñar un frecuencímetro para calcular la radiación incidente. Este módulo (figura 6) recibe una señal cuadrada proveniente del sensor y cuenta el número de pulsos de un reloj de 50 MHz, mientras la señal del sensor está en alto.

Figura 6. Entradas y salidas generales de un módulo de frecuencímetro.

Una máquina de estados controla el almacenamiento de los datos de la frecuencia en el registro, después limpia el registro y reinicia el contador, para poder obtener una nueva lectura. Un contador módulo 10 cuenta cuando está en estado alto la entrada del sensor y se limpia cuando la entrada se encuentra en estado bajo. Un registro simple, a base de un flip –flop tipo D, controlado por la máquina de estados almacena el valor del contador. Finalmente, un módulo divisor recibe las cuentas de pulsos y hace la operación aritmética necesaria para obtener una salida en Hz. En la salida se puede observar cómo, mientras la entrada está en alto, el contador comienza a contar el tiempo que ésta permanece en alto, hasta que se encuentra con el flanco de bajada. Una vez encontrado el flanco de bajada se activa la máquina de estados, se activa el registro y se reinicia el contador. Al tiempo que limpia los registros comienza el proceso de la división.

Figura 7. Prototipo del sensor no-invasivo para estimar fotosíntesis basado en un FPGA

Una vez concluido en su totalidad el dispositivo que nos permitirá estimar la fotosíntesis de manera no invasiva, será necesario validarlo y para esto utilizaremos un dispositivo (invasivo) que ya existe en el mercado que estima fotosíntesis por el método analizador de gas. La validación consistirá en tomar datos in-situ bajo un clima controlado con los dos dispositivos, y hacer mediciones de fotosíntesis en platas. Con los resultados obtenidos se hará la correlación respectivas entre ellos.

155


fotosintesis de la planta pero lo hace de una manera invasiva . Este es el sistema de medición de fotosíntesis más referenciado en publicaciones científicas alrededor del mundo. Todas las tecnologías actuales de medición de fotosíntesis son de origen extranjero. Por medio de este proyecto, se plantea un prototipo para calcular una estimacion de la fotosintesis, este es el primer paso para desarrollar tecnología de medición de fotosíntesis propia de bajo costo, lo cual podra ayudará a desarrollar y mejorar otros prototipos. El siguiente paso es desarrollar el experimento que pueda validar nuestra aproximacion calculada, con el dispositivo Li-6400XT.

5. REFERENCIAS

Figura 5. Diagrama de la implementación de los sensores propuestos para medir fotosintesis.

En el diagrama anterior se decribe la implementación de los sensores para fitomonitoreo de la planta y de esta manera medir la fotosintesis de una manera no invasiva, son cuatro los sensores involucrados y mediante la programacion del algoritmo dentro del FPGA se adquieren las señales de estos senores y se calcula mediante un logaritmo una aproximacion de la fotosintesis en la planta, esta medicion es desplegada en nuestro LCD, actualmente se estan tomando muetras de la planta in-situ y de esta manera poder validar la aproximación calculada por nuestro dispositivo.

4. CONCLUSIONES

Se generaron drivers de comunicación entre el FPGA y los sensores de variables como: temperatura de hoja, humedad, temperatura ambiente y radiación. También se propuso una forma de implementar el modelo matemático de caja negra en el mismo FPGA. El dispositivo comercial que se podría utilizar para validar nuestro dispositivo durante la experimentación es el Li-6400XT (LI-COR, 2004) este dispositivo es capaz de medir la luz par, temperatura, humedad relativa y

156

Asakawa, T., K. N. and Tonokura, K. 2010. Diode Laser Detection of Greenhouse Gases in the Near Infrared Region by Wavelength Modulation Spectroscopy: Pressure Dependence of the Detection Sensitivity. Sensors, 10:4686–4699. Contreras-Medina, L.M., Romero-Troncoso, R.J., CabalYepez, E., Rangel-Magdaleno, J.J., Millan-Almaraz, J.R. 2010. FPGA based multiple-channel vibration analyzer for industrial application in induction motor failure detection. IEEE Trans. Instrum. Meas. 59, 63–72. Contreras-Medina, L. M., Osornio-Rios, R.A., TorresPacheco, I., Romero-Troncoso, R.J., Guevara-González, R.G., Millan-Almaraz, J.R. 2012. Smart Sensor for RealTime Quantification of Common Symptoms Present in unhealthy Plants. Sensors. 12, 784-805. Delieu, T. and Walker, D.A. 1981.Polarographic Measurement of Photosynthetic Oxygen Evolution by Leaf Discs. New Phytol. 89, 165-178. Espinosa-Calderon, A., Torres-Pacheco, I., PadillaMedina, J. A., Osornio-Rios, R. A., Romero-Troncoso, R. J., Villaseñor-Mora, C., Rico-Garcia, E., and GuevaraGonzalez, R. G. 2011. Description of photosynthesis measurement methods in green plants involving optical techniques, advantages and limitations. African Journal of Agricultural Research. 6 2638–2647. Espinosa-Calderon, A., Torres-Pacheco, I., PadillaMedina, J. A., Chavarro-Ortiz, R. M., XoconostleCazares, B., Gomez-Silva L., Ruiz-Medrano, R., and Guevara-Gonzalez, R. G. 2012 Relationship between leaf


temperature and photosynthetic carbon in Capsicum annuum L. in controlled climates. Journal of Scientific & Industrial Research, Vol. 71 528–533. Espinosa-Calderon, A. 2013. Desarrollo de un sistema no invasivo de medición de fotosísntesis en Capsicum annuum L. Tesis Doctoral, Universidad Autónoma de Querétaro, Querétaro. Guzmán-Cruz, R., Castañeda-Miranda, R., GarcíaEscalante, J., López-Cruz, I., Lara-Herrera, A., and de la Rosa, J. 2009. Calibration of a greenhouse climate model using evolutionary algorithms. Biosystems Engineering, 104(1), 135–142. Hill, D.W., Powell, T. 1968. Non-dispersive infrared gas analysis in science, medicine and industry. - Adam Hilger Ltd, London. Hoffmann, J., Ellingwood, C., Bonsu, O., and Bentil, D. 2004. Ecological model selection via evolutionary computation and information theory. Genetic Programming and Evolvable Machines, 5(2), 229–241.

Millán-Almaráz, J.R., Guevara-González R.G., RomeroTroncoso R.J. and Torres-Pacheco I. 2009. Photosynthesis measurement techniques: A way to phytomonitoring. African Journal of Biotechnology, 8(25): 7340-7349. Millan-Almaraz, J.R., Torres-Pacheco, I., Duarte-Galvan, C., Guevara-Gonzalez, R.G., Contreras-Medina, L.M., Romero-Troncoso, R.J., Carrillo-Serrano, R.V., RiveraGuillen J.R. 2013. FPGA-based wireless smart sensor for real-time photosynthesis monitoring. Computers and Electronics in Agriculture 95, 58–69. Olioso, A., Chauki, H., Wigneron, J.-P., Bergaoui, K., Bertuzzi, P., Chanzy, A., Bessemoulin, P., Clavet, J.C. 1999. Estimation of energy fluxes from thermal infrared, spectral reflectances, microwave data and SVAT modeling. – Phys. and Chem. of the Earth, Part B. 24(7): 829- 836. Schlodder E. 2009. Introduction to optical methods in photosynthesis. Photosynthesis research, 101, pp. 93–104.

Hodson, M.J., White, P.J., Mead, A., Broadley, M.R. 2005. Phylogenetic variation in the silicon composition of plants. - Annals of Bot. 96(6): 1027.

Schulze, E. D. 1972. A new type of climatized gas exchange chamber for net photosynthesis and transpiration measurements in the field. – Oecologia. 10(3): 243-251.

Hunt, S. 2003. Measurements of photosynthesis and respiration in plants. - Physiologia Plantarum. 117: 314– 325.

Taiz L., and Zeiger E. 2010. Plant Physiology 5th. Ed. Sinauer, Sunderland, Massachussets. 111- 143.

Kawachi, N., Sakamoto, K., Ishii, S., Fujimaki, S., Suzui, N., Ishioka, N.S., Matsuhashi, S. 2006. Kinetic analysis of carbon-11-labeled carbon dioxide for studying photosynthesis in a leaf using positron emitting tracer imaging system. - IEEE Trans. on Nucl. Sci. 53(5): 29912997. LI-COR. Using the LI-6400, Portable Photosynthesis System, 2004. Technical Information. Long, S.P. y Hallgren J.-E., 1987. Medición de la asimilación de CO2 por las plantas en el campo y el Laboratorio. En técnicas en Fotosíntesis y Bioproductividad (eds. Coombs, J., Hall, D., Long, S. y J. Scurlock). Editorial Futura. México. 2a edición. Long, S.P., Bernacchi, C.J. 2003. Gas exchange measurements, what can they tell us about the underlying limitations to photosynthesis? Procedures and sources of error. - Journal of Experimental Botany. 54(392):23932401. Michalewicz, Z. 1996. structures. Springer.

Genetic

algorithms+

data

Takahashi, M., Ishiji, T., Kawashima, N. 2001. Hand made oxygen and carbon dioxide sensors for monitoring the photosynthesis process as instruction material for science education. – Sensors and Actuators B. 77: 237243. Tank, J.L., Musson, J.C. 1993. An inexpensive chamber apparatus for multiple measurements of dissolved oxygen uptake or release. – J. of the North American Benthological Soc. 12(4): 406-409. Warburg, O., Krippahl, G., Lehman, A. 1969. Chlorophyll catalysis and Einstein’s law of photochemical equivalence in photosynthesis. - American J. of Bot. 56(9): 961-971. Waynant, R.W. y Ediger, M.N. 1994. Electro-optics handbook. Editorial McGraw-Hil. 2.1-2.6. WestEberhard M J, Smith J A C, and Winter K, Photosynthesis, reorganized. Science. 332, 311. Zhang L., Xing D., and Wang J. 2007. A non-invasive and real-time monitoring of the regulation of photosynthetic metabolism biosensor based on measurement of delayed fluorescence in vivo. Sensors. 7, 52–66.

157


Caracterización del convertidor analógico a digital de la tarjeta de adquisición de datos NI-PCI6110 Characterization of analog to digital converter of the data acquisition card NI-PCI6110

M. A. González Durán, Facultad de Ingeniería, Universidad Autónoma de Querétaro, alejandro_glez7@hotmail.com, J. C. Jáuregui Correa, Coordinador del Doctorado en Ingeniería, Universidad Autónoma de Querétaro, juancarlosjauregui2007@gmail.com. G. Silva Pineda, Director de Vibraciones y Acústica, Centro Nacional de Metrología, gsilva@cenam.mx

RESUMEN. En este trabajo se presentan los resultados de la caracterización del convertidor analógico a digital de una tarjeta de adquisición de datos modelo NI-PCI6110. Aunque existen distintas pruebas para caracterizar una tarjeta, en este trabajo se realizaron cinco que son algunos de los parámetros críticos cuando se utilizan como osciloscopio digital o grabador de forma de onda. Entre las pruebas realizadas para la caracterización está el cálculo del error de offset, el error de ganancia, la no linealidad diferencial, la Relación Señal a Ruido y Distorsión y el Número Efectivo de Bits. Con los resultados obtenidos se hicieron correcciones posteriores a la adquisición de datos que redujeron el error en la medición de un intervalo de (3 - 4.2) mV a (0.3 - 1.6) mV con lo cual se redujo la incertidumbre de la medición a la vez que aumentó la precisión. ABSTRACT. The results of characterization of an analog to digital converter of the data acquisition card NI-PCI6110 are presented in this paper. Five tests were carried out, they are some of critical characterization parameters when the acquisition card is used for digital oscilloscope or waveform recorder. The characterizations tests are Offset error, Gain error, Differential Non-Linearity, Signalto-Noise and Distortion Ratio and Effective Number of Bits. Compensations after data acquisition were made and it was found to help reduce the error range in the measurement of (3 - 4.2) mV to (0.3 - 1.6) mV thereby the measurement uncertainty was reduced while the accuracy was increased.

1

INTRODUCCIÓN

Un ADC (convertidor analógico a digital, “Analog to Digital Converter”) toma un señal analógica continua a la entrada, normalmente tensión eléctrica y la convierte en un número binario de N bits, el cual puede ser manipulado por una computadora o algún otro sistema digital. Esta funcionalidad le otorga un papel muy importante en sistemas electrónicos en un amplio intervalo de aplicaciones (Machado y Dallet, 2005). Esto mismo ha provocado que los fabricantes de ADCs concentren sus esfuerzos en mejorar las características de los mismos. Prueba de ello son los ADCs de alta resolución de hasta 31 bits, o los de alta velocidad capaces de entregar 500 millones de muestras en un segundo (500 MSPS) o incluso más. Por medio de la caracterización de un ADC se pueden hacer post-correcciones que ayuden a reducir los niveles de ruido y la incertidumbre de la medición, algo que es de suma importancia en los institutos nacionales de metrología (Espel et al, 2009) y así poder asegurar la trazabilidad en las mediciones (Overney et al., 2010). Conocer con precisión todos los parámetros que caracterizan el comportamiento dinámico de un ADC es crucial, por un lado, para seleccionar la arquitectura y las características más adecuadas y por otro lado, para

158

comprender como afectan el desempeño en la cadena de procesamiento de señales (Machado y Dallet, 2005). Existen distintos parámetros que se utilizan para caracterizar un ADC sin embargo, en este trabajo sólo se describen cinco que son el error de offset, el error de ganancia, la no linealidad diferencial (DNL, “Differential Non-Linearity”), la Relación Señal-Ruido y Distorsión (SINAD, “Signal to Noise and Distortion Ratio”) y el Número Efectivo de Bits (ENOB, “Effective Number of Bits”). Estos son, de acuerdo con el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE por sus siglas en inglés) parámetros críticos, para una aplicación de ADC como osciloscopio digital o grabador de forma de onda, que es la aplicación que actualmente se le da a la tarjeta de adquisición de datos. Todas las pruebas fueron aplicadas a la tarjeta de adquisición de datos (DAQ) modelo NI-PCI6110 de National Instruments, que para trabajos posteriores será usada como grabador de forma de onda y por lo tanto, reducir el error de la medición es deseable. Para la caracterización fue necesario emplear equipo de medición con mejor resolución y estabilidad que la que tiene el ADC a caracterizar, es por ello que se usó un generador de funciones Agilent 33220A y un multímetro digital Agilent 3458A de 8.5 dígitos. Las pruebas fueron realizadas tomando como base las notas de aplicación


(ATMEL, 2006), (Kester, 2009) y la norma establecida por la IEEE (IEEE Std. 1241-2000, 2001). 2

ERROR DE OFFSET

Para caracterizar el ADC de la DAQ fue necesario realizar diferentes mediciones para encontrar, entre otros valores, el error de offset el cual indica qué tan desviada está la función de trasferencia del ADC del valor ideal véase figura 1. Como el ADC de la tarjeta de adquisición es diferencial, su circuito equivalente es como el que se muestra en la figura 2. Donde la salida del amplificador operacional es proporcional a la tensión eléctrica diferencial presente entre las terminales de entrada (positiva y negativa). Las dos entradas del amplificador operacional se conectaron a tierra, así, la salida ideal debe de ser 0 V, en caso de que se tenga un valor diferente, dicho valor representa el Offset. Luego de conectar a tierra ambas entradas, se tomaron 3 mil muestras y se promediaron para obtener el valor de offset, el cual fue de -0.247 mV. El número de muestras sugerido en (NI 6110/6111/6115/6120 Calibration Procedure, 2003) es de 1000, sin embargo, un número mayor puede ayudar a reducir aún más el ruido en la medición y por lo tanto, obtener mejores resultados. Es por ello que se utilizaron 3 mil muestras para las pruebas realizadas a lo largo de la caracterización del ADC. Para compensar el error de offset, se resta el valor obtenido de cada valor medido.

Figura 2. Modo de conversión diferencial. 3

ERROR DE GANANCIA

Una vez calculado el error de offset, se calculó el error de ganancia, el cual representa la pendiente de la función de transferencia del ADC. En la figura 3 se muestra un ejemplo de error de ganancia de un ADC de 3 bits. Para estimar dicho error se usó como entrada al ADC una señal de 5 Vdc y se tomaron 3 mil muestras, se les restó el offset calculado anteriormente, y se calculó el promedio. Después, como el ADC tiene una resolución de 12 bits se tienen 212  4096 valores para representar la señal de entrada, pero como es diferencial, 2048 valores se utilizan para la parte negativa y 2047 para la parte positiva. La tarjeta de adquisición de datos puede trabajar en distintos intervalos de tensión eléctrica de entrada, para todas las pruebas realizadas se trabajó en el intervalo de ±5V (por ser en el que comúnmente se usa la tarjeta), por lo que la resolución del ADC es como se muestra en (1): Resolución 

5V   5V   2.4414mV 212

(1)

El valor obtenido previamente del promedio de las 3 mil muestras se divide por la resolución (2.4mV). Así se obtiene el valor en cuentas. Para este caso el valor promedio obtenido fue 4.995888 V. Si dicho valor se pasa a cuentas o códigos de salida se obtiene (2) Códigos de salida 

4.995888V  2046.3 0.0024414V

(2)

Como idealmente el código de salida debería de ser 2047.5, entonces la pendiente o factor de corrección se obtiene de dividir el valor ideal por el valor real, lo cual da (3) Figura 1. Offset de 2 bits menos significativos, (ATMEL, 2006).

Factor de corrección 

2047.5  1.0005 2046.3

(3)

La corrección del error de ganancia se hace multiplicando el factor de corrección obtenido por cada muestra medida previamente corregida del error de offset.

159


amplitud conocida a la entrada del ADC de la DAQ. La señal empleada fue una senoidal de 10 Vpp para abarcar el intervalo de operación de la DAQ que es de ± 5V.

Figura 3. Error de ganancia en un ADC de 3 bits, (ATMEL, 2006). NO LINEALIDAD DIFERENCIAL (DNL)

Figura 4. No linealidad diferencial, (ATMEL, 2006).

Con la compensación de error de offset y de ganancia, la función de transferencia debería de ser igual a la función de transferencia de un ADC perfecto. Sin embargo, la no linealidad en el ADC puede hacer que la curva real se desvíe ligeramente de la curva perfecta, incluso si las dos curvas son iguales alrededor de 0 y en el punto en el que se midió el error de ganancia. Las no linealidades producen pasos de cuantización con diferentes anchos. Todos los pasos deberían ser de 1 bit menos significativo (LSB, “least significant bit”) de ancho, pero algunos pueden ser más anchos o más estrechos como se ilustra en la figura 4. Para la estimación de la no linealidad diferencial se produjo una señal tipo rampa de amplitud máxima igual a 5V. Dicha señal se puso a la entrada del ADC de la tarjeta de adquisición de datos. Como la resolución del ADC de la tarjeta es de 12 bits y el intervalo de medición es de -5V a 5V, la salida cambia en pasos de 2.4 mV como se muestra en la ecuación (1). Por lo que en los datos adquiridos se esperaría una secuencia de datos desde cero y hasta 5 V con incrementes de 2.4 mV. Se realizaron cuatro corridas y se obtuvo que la DNL es de cero, al menos en la parte positiva del intervalo de ±5V.

Después de generar la señal senoidal se digitalizó con el ADC de la DAQ. Para esta prueba se tomaron 3000 muestras, mismas que fueron utilizadas junto con (4) para aproximar una señal senoidal de la misma frecuencia que la se señal del generador de funciones.

4

5

RELACIÓN SEÑAL-RUIDO Y DISTORSIÓN (SINAD)

SINAD es un buen indicador del desempeño dinámico general de un ADC ya que incluye todos los componentes que integran el ruido y la distorsión (Kester, 2009). De acuerdo con (IEEE Std. 1241-2000, 2001) es necesario aplicar una señal senoidal con frecuencia y

160

2

M

 y n  A0 cos( 0 t n )  B0 sin( 0 t n )  C 0 

(4)

n 1

Donde M yn

Número de muestras n-ésima muestra  y1 , y 2 ,..., y M 

tn

n-ésimo tiempo de muestreo t1 , t 2 ,...,t M 

0

Frecuencia fundamental

A0 , B0 y C 0 son valores constantes que minimizan la suma de cuadrados de (4). Para encontrar dichos valores primero se crearon las matrices (5), (6) y (7). cos  0 t1  sin 0 t1   cos  0 t 2  sin 0 t 2      cos  0 t M  sin 0 t M   y1  y  y 2       yM 

1  1   1

(5)

(6)


6

 A0  x 0   B0  C 0 

(7)

En notación matricial, la ecuación (4) queda como en (8).

 y  D0 x0   y  D0 x0  T

Adicionalmente, de acuerdo con Kester (2009) SINAD es a menudo convertida a número efectivo de bits (ENOB) usando (14), por lo que para la DAQ, ENOB es igual a 11 como se muestra en (15).

ENOB 

Por lo que la solución de x 0 que minimiza la ecuación (8) queda como se muestra en (9).

 D y  1

(9)

T 0

Los valores obtenidos de A0 , B0 y C 0 que minimizan la suma de cuadrados de (4) son mostrados en la tabla 1. Estos mismos fueron sustituidos en la ecuación (10) para determinar el error entre el valor real y el estimado. A continuación se obtuvo el error rms de acuerdo con la ecuación (11). Tabla 1. Valores obtenidos para A0 , B0 y C 0

A0

B0

C0

-0.0012

4.9848

0.0004

rn  y n  A0 cos0 t n   sin0 t n   C0 e rms 

1 M

M

r n 1

2 n

(10) (11)

El error rms obtenido usando (11) fue de 0.0014V. Finalmente la SINAD se calcula sustituyendo los valores correspondientes en (12). SINAD 

señal rms ruido rms

(12)

Como la señal de entrada fue una senoidal de 5 Vp, la señal rms es 5V / 2  3.5355 Vrms por lo que la SINAD queda como en (13). SINAD 

(14)

68.04 dB  1.76 dB  11 bits 6.02

(15)

(8)

Donde (*) indica la transpuesta de (*).

SINAD  1.176 dB 6.02

ENOB 

T

x 0  D0T D0

NÚMERO EFECTIVO DE BITS (ENOB).

3.5355 Vrms  2525.381 0.0014 Vrms

7

ANALISIS Y DISCUSIÓN RESULTADOS OBTENIDOS.

DE

LOS

Se monitoreo una señal de tensión eléctrica de corriente continua, se realizó un promedio cada 10 muestras y se compararon los valores corregidos contra los no corregidos. En la tabla 2 se muestran parte de los resultados. El error para las mediciones sin corrección se mantiene entre 3 mV y 4.2 mV, mientras que para las mediciones corregidas el error se mantiene dentro del intervalo de 0.3 mV - 1.6 mV. Esto se puede observar más fácilmente en la figura 5 donde los valores con y sin corrección de la tabla 1 son graficados. Visiblemente el valor corregido sigue presentando un error, sin embargo es menor en magnitud que el valor sin corrección, ya que el valor promedio de la magnitud del error sin corregir es de 0.0716 V mientras que con la corrección la magnitud del error se reduce a 0.0195 V, es decir, casi 3.6 veces menor. Tabla 2. Error para los valores adquiridos con y sin corrección Valor real

Valor s/ corrección

Error (%)

Valor corregido

Error (%)

5.0003

4.9966

0.074

5.0012

-0.017

5.0003

4.9973

0.060

5.0019

-0.032

5.0003

4.9968

0.069

5.0014

-0.022

5.0003

4.9963

0.079

5.0009

-0.012

5.0003

4.9968

0.069

5.0014

-0.022

5.0003

4.9961

0.084

5.0007

-0.007

5.0003

4.9968

0.069

5.0014

-0.022

5.0003

4.9968

0.069

5.0014

-0.022

(13)

Que equivale a 68.04 dB.

161


5.004 Voltaje (V)

5.002 Valor Real

5 4.998

Valor sin corregir

4.996 4.994 4.992 1 2 3 4 5 6 7 8

Valor corregido

Muestra Figura 5. Comparación de resultados. 8

CONCLUSIÓN

La precisión de un ADC, al ser un componente electrónico, deriva con el tiempo y la temperatura, lo cual puede afectar la precisión de la medición. La caracterización de un ADC permite conocer el valor de determinados parámetros que posteriormente se pueden utilizar para hacer correcciones y reducir el error en la medición, como se demostró en el presente trabajo, el cual se redujo de un intervalo de (3 - 4.2) mV a (0.3 1.6) mV para una señal en corriente continua. Pruebas similares pueden realizarse a otras tarjetas de adquisición de datos, procesadores digitales de señales o algún otro dispositivo que cuente con un ADC y mejorar así la precisión en la medición. REFERENCIAS ATMEL. 2006. AVR120: Characterization and Calibration of the ADC on an AVR. Application Note “DAQ NI PCI-6110/6111” NATIONAL INSTRUMENTS, PCI-6110/6111 User Manual. Espel, Patrick, Poletaeff, André, Bounouh, Alexandre. 2010. Characterization of analogue-to-digital converters of a commercial digital voltmeter in the 20 Hz to 400 Hz frequency range. Metrologia 46 578–584 IEEE Std. 1241-2000, IEEE Standard for Terminology and Test Methods for Analog-to-Digital Converters, IEEE, 2001. Kester, Walt. 2009. Understand SINAD, ENOB, SNR, THD, THD + N, and SFDR so You Don’t Get Lost in the Noise Floor. Analog Devices, MT-003

162

Machado da Silva, José, Dallet, Dominique. 2005. Dynamic Characterisation of Analogue-To-Digital Converters. Springer. Netherlands “NI 6110/6111/6115/6120 Calibration Procedure”. 2003 NATIONAL INSTRUMENTS, CALIBRATION PROCEDURE. Overney, F, Rüfenacht, A., Braun, J.-P., Jeanneret, B. 2010. JOSEPHSON-BASED TEST BENCH FOR AC CHARACTERIZATION OF ANALOG-TO-DIGITAL CONVERTERS. Conference on Precision Electromagnetic Measurements. Daejeon Convention Center, Daejeon, Korea


Implementación de un control en modos deslizantes para un motor de CD. Sergio M. Delfín-Prieto1, Fortino Mendoza-Mondragón2, José M. Gutierrez-Villalobos3 Laboratorio de Mecatrónica de la Facultad de Ingeniería de la Universidad Autónoma de Querétaro 1 heldeniizeit@gmail.com 2 fmendoza@uaq.mx 3 marcelino.gutierrez@uaq.mx Abstract. - DC motors have been very used in industry especially in processes where high dynamic speed and position control is required. New control methods have been researched and validated with DC electric motors. Sliding Mode Control (SMC) has proved to be a robust and reliable control technic. However, it presents some drawbacks for its implementation in embedded systems due to their high sample period (in theory infinite frequency), switching losses in the power devices, noise due the low encoder resolution, and some electric devices has to be oversized. This research work presents an analysis and performance survey of a first order SMC loop implementation on a DC motor. Keywords: Sliding Mode Control, DC motor, velocity control, embedded system, robust control. RESUMEN.- Los motores de corriente continua han sido muy utilizados en la industria sobretodo en procesos donde se requiere una correcta respuesta dinámica en el control de velocidad y posición. Nuevos métodos de control se han investigado y validado utilizando estas máquinas eléctricas. La utilización de control por modos deslizantes ha probado ser una técnica de control robusta y confiable. Sin embargo también presenta algunas desventajas para su implementación en sistemas embebidos debido a la velocidad de muestreo que se requiere y que algunos dispositivos electrónicos no tienen. Este trabajo presenta el análisis y desempeño de la implementación de un lazo de control por modos deslizantes de primer orden en un motor decorriente continua. Palabras clave: control por modos deslizantes, motor CD, control de velocidad, sistema embebido, control robusto. 1.

INTRODUCCIÓN

El uso de nuevos métodos de control ha permitido el desarrollo de nuevos sistemas con mejor desempeño y robustez como describen (Kristiansson and Lennartson, 2002). Gracias a la potencia y velocidad de los nuevos dispositivos de conmutación electrónicos y a la capacidad de cómputo actual, el Control por Modos Deslizantes (CMD) es una técnica que ha tenido un gran incremento en su utilización en las últimas dos décadas. Modos deslizantes (MD) es una metodología para el diseño de

controladores robustos. La gran versatilidad de este método de control permite que se utilice como observador o estimador en diferentes esquemas de control (Weiyao and Qi, 2009). La principal desventaja que presenta el CMD es el fenómeno del “chattering” o parloteo que presenta debido a la alta frecuencia de conmutación que utiliza (Utkin and Jingxin, 1996). En contraste con reportes previos de controladores con MD, los cuales son diseñados para sistemas en tiempo continuo, bajo la premisa de que existe una frecuencia infinita de conmutación, por lo que la mayoría de estos estudios se limitan únicamente a simulaciones. La motivación de este trabajo es el diseño e implementación de un CMD para motores de CD en un sistema embebido de bajo costo y observar el desempeño bajo el efecto de la discretización.

2.

MODELO DEL MOTOR DE CD

2.1. Ecuaciones fundamentales del motor de CD. La representación de un motor de CD de imanes permanentes está mostrada en la figura 1 (Altayef, J. and Zhu Qun-xiong, 2010).

163


Figura 1. Modelo del motor de CD.

La J

dia  u  Raia  Ke dt

d  Kt ia  Bm   dt

(1) (2)

es la corriente de armadura, es el voltaje Donde es la aplicado en las terminales de la armadura, es la inductancia de resistencia eléctrica de armadura, es la armadura, es la velocidad angular del rotor, constante contra electromotriz, es la inercia total del es la constante de torque, es el coeficiente de rotor, fricción viscosa y es el torque debido a la carga descrito (Murtaza, y G., Bhatti, , 2012). 2.2. Modelado en el espacio de estados. y . Tomemos los estados definidos como: La representación en el espacio de estados matricial de las ecuaciones (1) y (2) están dadas de la siguiente forma:

x  Ax  Bu  Df

(3)

, es la señal de entrada, Donde es la matriz de es la matriz de estados, es una matriz constante que depende entradas y de la inercia del motor y es una función escalar que representa el par de carga y perturbaciones externas que producen efectos no deseados en la respuesta del sistema dinámico, por lo tanto, la dinámica del motor de CD resulta como:

  Bm  x1   J  x     Ke  2    La

164

Kt  1 0 J   x1    1 u    J  Ra   x    0  2   L    La 

(4)

La ecuación (4) es controlable por lo que puede escribirse en términos del error en la forma canónica controlable, dado que el control entra en una cadena de integradores puede modificar todos y cada uno de los estados, además facilita el análisis del método de asignación de polos para el diseño de la superficie de deslizamiento. Sea ( ) la referencia de velocidad del rotor y sea el error de velocidad. Definiendo las nuevas variables de y ̇ . La ecuación de estado como y movimiento del motor de CD con respecto al estado es dada por:

0 1   z1   0   0  (5)  z1    z    a  d   d   z    bu   f t   1 2      2   1 2 Donde

,

⁄ ,

y

, ⁄

son valores

constantes. La parte lineal de la ecuación 5 es perturbada ̇ ) ( ̇ por ( ) ̈ ⁄

) , dependiendo de la velocidad deseada

(

3.

DISEÑO DEL CONTROLADOR

y las cargas por perturbaciones de par. De tal manera que | ( )| ⁄ , donde se considera el torque nominal.

En esta sección se diseñará un controlador por modos deslizantes de primer orden (Shtessel et al., 2013). 3.1. Diseño de la superficie de deslizamiento. Considere el sistema lineal invariante en el tiempo dado por (3) sin perturbaciones (la matriz ). Sin pérdida de generalidad puede asumirse que la matriz de entrada es de rango completo y define la función de conmutación como:

 x   Sxt 

(6)

tiene rango completo y sea S el Donde hiperplano definido por:

S  x  n : Sx  0

(7)

Esto implica que la función de conmutación ( ) sea una combinación lineal de los estados. También de la


ecuación (7) se observa que el movimiento deslizante está asociado con el espacio nulo de la matriz Koshkouei, et al., 2005. Suponga que representa una ley de control en modos deslizantes donde el cambio en la estrategia de control depende en el valor de la función de conmutación ( ). Esto permite explorar la posibilidad de escoger la acción de control y seleccionar la estrategia de conmutación de modo que un movimiento de deslizamiento ideal toma lugar sobre el hiperplano, es decir, existe un tiempo tal que:

 x   Sxt   0 Para todo

(8)

3.2. Diseño de la ley de control. Suponga , es decir, el sistema es de una entrada. El objetivo es forzar que en tiempo finito y asegurar que para todo el tiempo subsecuente. De la forma de representación nominal que se muestra a continuación:

 t   Sxt   SAxt   SBu t 

(12)

El objetivo es, que a través del control retroalimentado, se pueda cambiar la ecuación (12) en la ecuación diferencial:

 t   sign t 

(13)

O equivalentemente

.

el sistema se Se supone que en el momento encuentra en la superficie S y un movimiento deslizante toma lugar. Esto puede ser expresado matemáticamente ( ) . como y ̇( ) ̇( ) para todo Sustituyendo para ̇ ( ) de la ecuación (3) se obtiene:

Sxt   SAxt   SBu t   0

(9)

Suponga que la matriz es diseñada de modo que la matriz es cuadrada y no singular según Bartolini, et al, 1998.

 t     t 

(14)

Para ̇ ( ) y la solución de la ecuación (14) tiende a ser cero en tiempo finito. Esto puede verse con el . Claramente ̇ ̇ y cambio de variable ⁄ | | √ . Consecuentemente la ecuación de arriba deriva en un resultado como:

V   2V

1 2

(15)

Esto implica que El control equivalente, descrito como menciona arriba, es la única solución a algebraica (9), esto es:

ueq t   SB  SAx t  1

, como se la ecuación

(10)

Esto representa la acción de control que es requerida para mantener los estados sobre la superficie de conmutación. Sustituyendo la expresión para el control equivalente dentro de (3) resulta en un libre movimiento:

x t   I n  BSB  S Axt  Para todo

1

y

( )

(11)

.

El movimiento deslizante es claramente dependiente de la matriz y se utiliza el método de colocación de valores propios para calcularlo (Shtessel, Edwards, Fridman y Levant, 2013).

V

1 2

1

t   V 2 0  2t

Y por lo tanto al momento ⁄

(16) ⁄

( ) ⁄ √

, esto sigue a

( ) . Notar que puede ser vista como ⁄ una función de Lyapunov para el sistema nominal (14), porque

V    sign      0

(17)

Cuando . Comparando las ecuaciones (12) y (14) es claro que escogiendo

ut   SB  SAxt    SB  sign  1

1

(18)

Como la ley de control en la ecuación (12) crea el lazo cerrado del sistema en (14). La simple ley de control en

165


(18), en consecuencia, asegura que tiempo finito.

es dirigido a cero en

(Kgm2/s) (Bm) Resolución del encoder (PPR) Torque nominal (Nm) ( )

500 0.17

3.3. Ley de control para el motor de CD. De acuerdo con el sistema descrito en la ecuación (5) la función de conmutación queda establecida como:

 z   Szt   pz1 t   z2 t 

(19)

Donde es una constante positiva y derivando (19) en el tiempo resulta como: (20)

  pz1  z2  pz2  a1  d 2 z1  d1 z2  bu  f t 

Sobre la superficie de deslizamiento lo que el control equivalente es:

ueq  

Por

⇒ ̇

1 a1  d 2 z1  d1  p z2  f t  b

(21)

Tomemos la ley de control definida como:

u  ueq  sign 

(22)

| ( )|, entonces muchas de las Donde incertidumbres en el sistema son absorbidas por la función discontinua en el controlador de la ecuación (22) , el cual fuerza las trayectorias del sistema dentro de la superficie de deslizamiento con un alcance en tiempo finito y asegura que las trayectorias permanecen sobre la superficie subsecuentemente (Moradi, et al., 2010). 4.

RESULTADOS EXPERIMENTALES

4.1. Implementación en hardware. La plataforma de realización consta de un motor Maxon148867 de corriente directa, en donde sus características se muestran en la siguiente tabla: Tabla 1. Características principales del motor.

Parámetros (unidades) (variable) Resistencia ( ) (Ra) Inductancia (H) (La) Constante de torque (Nm/A) (Kt) Constante de voltaje (V/(rad/s)) (Ke) Inercia del rotor (Kgm2) (J) Constante de amortiguamiento

166

Motor de CD 0.32 82.3*10-6 0.0302 0.0302 13.8*10-6 18.89*10-6

La fuente de poder es un servoamplificador Maxon ADS 50/10 alimentado a 24V y con capacidad de corriente de hasta 10A, se caracteriza por una relación 1V/1A, es decir, presenta una ganancia unitaria y lineal en la relación de voltaje de entrada y corriente en el motor. Se utilizó un microcontrolador PIC18F14K50 de una arquitectura RISC de 8 b-bits, se trajabo a una frecuencia de 48MHz. Se requirió del puerto de comunicacion serial universal (USB 2.0) a una velocidad de 48Mb/s. Para la ejecución determinística de la ley de control se utiliza la interrupcion del temporizador 2 con un periodo de muestreo de 500us, la velocidad de adquisición a la computadora de las variables de proceso y control se realiza cada 3ms. La velocidad es estimada utilizando diferencias numéricas (23) y se utiliza un filtro (24) con ms. Para la una constante de tiempo de programación del microcontrolador se realizó en C y la interfaz de usuario utilizando Visual C++. ( )

( )

( )

̂( ) Donde

(

y

) ̂(

(23) )

(24)

El controlador propuesto en la ecuación (22) se implementó en la plataforma descrita con anterioridad. En la figura 2 se muestra el desempeño del motor cuando se le pide el seguimiento de una referencia de velocidad de 5000 cuentas/s. Puede observarse en la figura 2 (a) que el motor presenta una respuesta dinámica rápida dado que está sometido en vacío, cabe destacar que el fenómeno del chattering es notorio antes y después de la transición del escalón. En la figura 2 (b), el motor sigue a la misma referencia pero en este caso es sometido a una carga, la cual representa nueve veces la inercia del rotor, nueva mente el fenómeno el chattering se vuelve más latente.


2 (a). Figura 4. Perfil de velocidad para el motor de CD sin carga.

2 (b). Figura 2. Respuesta del motor de CD a una consigna de velocidad de 5000/s. (a) El rotor del motor está sin carga. (b) El rotor del motor está acoplado con una inercia nueve veces mayor que el rotor del motor. Figura 5. Perfil de velocidad para el motor de CD con carga.

En la figura 4, el motor es sujeto a un perfil de velocidad en donde se observa el desempeño del controlador ante variaciones de carga (figura 5) persistente durante todo el movimiento de manera que el controlador verifica un vez más la robustez ante perturbaciones en el sistema. Figura 3. Respuesta del controlador correspondiente a la figura 2 (b).

En la figura 3 se muestra el desempeño del controlador discontinuo para la prueba con una entrada escalón, se puede apreciar que en el instante de la transición de cada escalón, la señal de control se mantiene durante un tiempo sin cambiar de signo ya que es justamente el tiempo que le toma alcanzar la referencia desde el estado de reposo.

5.

CONCLUSIONES

Un esquema de control por modos deslizantes de primer orden para motores de CD ha sido implementado y analizado, mostrando una robustez ante perturbaciones no deseadas en perfiles de velocidad para un motor, sin embargo, las desventajas del CMD de primer orden son el fenómeno del chattering, cuando se alcanza la superficie de deslizamiento o la función de conmutación y la señal de control es discontinua, se requiere de elementos electrónicos capaces de proporcionar la suficiente energía eléctrica para mantener el rendimiento requerido por el motor, estos fenómenos pueden ser reducidos mediante otras técnicas de control llamados control por modos deslizantes de orden superior, los cuales son tomados en cuenta para trabajos futuros con el fin de mejorar el

167


desempeño de controladores para actuadores y máquinas eléctricas y reducir la dimensión de la electrónica de potencia para los mismos. 6.

REFERENCIAS

Altayef, J.a., Zhu Qun-xiong, 2010, Real -time DC motor position control by ( FPID )controllers and design (FLC)using labview software simulation, The 2nd International Conference on Computer and Automation Engineering (ICCAE), Vol.2, Pag. 417 – 420. Bartolini, G., Ferrara, A., Usani, E., 1998, Chattering avoidance by second-order sliding mode control, IEEE Transactions on Automatic Control, Vol.43, Capitulo: 2, Pag. 241 – 246. Koshkouei, A.J., Burnham, K.J. ; Zinober, A.S.I., 2005, Dynamic sliding mode control design, IEE Proceedings Control Theory and Applications, Vol.152, Capitulo. 4, 392 – 396. Kristiansson, B., Lennartson, B., 2002, Robust and optimal tuning of PI and PID controllers, IEE Proceedings Control Theory and Applications, Vol. 149, Capitulo 1, Pag. 17 – 25. Moradi, M., Ahmadi, A., Abhari, S., 2010, Optimal control based feedback linearization for position control of DC motor, 2nd International Conference on Advanced Computer Control (ICACC), Vol.4, Pag. 312 – 316. Murtaza, G., Bhatti, A.I., 2012, Control of DC motors using sliding mode, 9th International Bhurban Conference on Applied Sciences and Technology (IBCAST212), Pag. 37 – 42. Utkin, V., Jingxin Shi, 1996, Integral sliding mode in systems operating under uncertainty conditions, Proceedings of the 35th IEEE Conference on Decision and Control, Vol.4, Pag. 4591 – 4596. Weiyao Lan, Qi Zhou, 2009, Speed control of DC motor using composite nonlinear feedback control, IEEE International Conference on Control and Automation, ICCA09. Pag. 2160 – 2164. Shtessel Y., Edwards C., Fridman L., Levant A., 2013, Sliding Mode Control and Observation, Birkhäuser Basel, Springer New York.

168


La ecuaciĂłn de Hill y sus aplicaciones Hillâ&#x20AC;&#x2122;s equation and its applications E. Ortiz Caballero, Facultad de IngenierĂ­a, Universidad AutĂłnoma de QuerĂŠtaro. eloeng@gmail.com K. Khmelnytskaya, Facultad de IngenierĂ­a, Universidad AutĂłnoma de QuerĂŠtaro. khmel@uaq.edu.mx RESUMEN. En este trabajo se presentan varias aplicaciones de la ecuaciĂłn de Hill en diferentes campos de la ciencia tales como la ingenierĂ­a, electromagnetismo y la mecĂĄnica cuĂĄntica. Se da una breve introducciĂłn a la teorĂ­a de la ecuaciĂłn de Hill y se describen los modelos matemĂĄticos de algunas de sus aplicaciones. Palabras clave problema de Sturm-Liouville periĂłdico, ecuaciĂłn de Hill, cristales fotĂłnicos, resonador inercial

ABSTRACT. This paper presents various applications of the Hillâ&#x20AC;&#x2122;s equation in different fields of science such as engineering,

electromagnetism and quantum mechanics. A brief introduction to the theory of Hillâ&#x20AC;&#x2122;s equation is given as well as outlines of the mathematical models of some of their applications.

Keywords. periodic Sturm-Liouville problem, Hillâ&#x20AC;&#x2122;s discriminant, photonic crystals, resonant inertial sensor

1 INTRODUCCIĂ&#x201C;N

o semiperiĂłdicas que satisfacen

La ecuaciĂłn diferencial lineal de segundo orden (đ?&#x2018;&#x192;đ?&#x2018;&#x192;(đ?&#x2018;Ľđ?&#x2018;Ľ)đ?&#x2018;˘đ?&#x2018;˘â&#x20AC;˛ )â&#x20AC;˛ + đ?&#x2018;&#x201E;đ?&#x2018;&#x201E;(đ?&#x2018;Ľđ?&#x2018;Ľ)đ?&#x2018;˘đ?&#x2018;˘ = đ?&#x153;&#x2020;đ?&#x153;&#x2020;đ?&#x153;&#x2020;đ?&#x153;&#x2020;(đ?&#x2018;Ľđ?&#x2018;Ľ)đ?&#x2018;˘đ?&#x2018;˘,

(1)

se conoce como la ecuaciĂłn de Sturm-Liouville. Los coeficientes đ?&#x2018;&#x192;đ?&#x2018;&#x192;, đ?&#x2018;&#x201E;đ?&#x2018;&#x201E; y đ?&#x2018;&#x2026;đ?&#x2018;&#x2026;, dependiendo del problema que se estudia, son funciones real o complejo valuadas que poseen ciertas propiedades de suavidad y en general đ?&#x153;&#x2020;đ?&#x153;&#x2020; es un parĂĄmetro complejo llamado parĂĄmetro espectral. En el caso especial cuando las funciones đ?&#x2018;&#x192;đ?&#x2018;&#x192;, đ?&#x2018;&#x201E;đ?&#x2018;&#x201E; y đ?&#x2018;&#x2026;đ?&#x2018;&#x2026; son periĂłdicas con el mismo periodo đ?&#x2018;&#x2021;đ?&#x2018;&#x2021; la ecuaciĂłn (1) recibe el nombre de la ecuaciĂłn de Hill en honor al astrĂłnomo y matemĂĄtico G. W. Hill quien a finales del siglo XIX publicĂł varios trabajos originales sobre el movimiento del perigeo lunar y de la luna (Hill 1878; Hill 1886). En el mismo periodo Floquet inicia el riguroso estudio de las propiedades de soluciones de ecuaciones diferenciales con coeficientes periĂłdicos (Floquet 1893). Estos trabajos impulsaron el desarrollo de la teorĂ­a de ecuaciones diferenciales lineales con coeficientes periĂłdicos que hoy en dĂ­a se conoce como la teorĂ­a de Floquet. Las soluciones de la ecuaciĂłn (1) con coeficientes periĂłdicos no siempre son funciones periĂłdicas, sin embargo su comportamiento global puede ser analizado considerando el intervalo de un sĂłlo periodo, p.ej. [0, đ?&#x2018;&#x2021;đ?&#x2018;&#x2021;]. En aplicaciones las soluciones acotadas y en particular periĂłdicas que satisfacen (2) đ?&#x2018;˘đ?&#x2018;˘(0) = đ?&#x2018;˘đ?&#x2018;˘(đ?&#x2018;&#x2021;đ?&#x2018;&#x2021;), đ?&#x2018;˘đ?&#x2018;˘â&#x20AC;˛ (0) = đ?&#x2018;˘đ?&#x2018;˘â&#x20AC;˛ (đ?&#x2018;&#x2021;đ?&#x2018;&#x2021;)

đ?&#x2018;˘đ?&#x2018;˘(0) = â&#x2C6;&#x2019;đ?&#x2018;˘đ?&#x2018;˘(đ?&#x2018;&#x2021;đ?&#x2018;&#x2021;),

đ?&#x2018;˘đ?&#x2018;˘â&#x20AC;˛ (0) = â&#x2C6;&#x2019;đ?&#x2018;˘đ?&#x2018;˘â&#x20AC;˛ (đ?&#x2018;&#x2021;đ?&#x2018;&#x2021;).

(3)

son de especial importancia. La existencia de tales soluciones depende de los valores que toma el parĂĄmetro espectral đ?&#x153;&#x2020;đ?&#x153;&#x2020;, esto da lugar al concepto de los asĂ­ llamados intervalos de estabilidad (zonas permitidas) e intervalos de inestabilidad (zonas prohibidas) de la ecuaciĂłn (1). Los extremos de estos intervalos representan eigenvalores del problema periĂłdico (1), (2) o semiperiĂłdico (1), (3). Resultados fundamentales sobre la distribuciĂłn de estos eigenvalores se obtuvieron por Liapounoff en 1902 (Liapounoff 1902). Una funciĂłn del parĂĄmetro espectral đ?&#x153;&#x2020;đ?&#x153;&#x2020; conocida como el discriminante de Hill de la ecuaciĂłn (1) contiene la informaciĂłn completa respecto a los intervalos de estabilidad e inestabilidad. Se dispone de varias representaciones del discriminante de Hill (Khmelnytskaya and Rosu 2010) que sirven para aproximar numĂŠricamente los eigenvalores ya que en forma serrada el discriminante de Hill se conoce sĂłlo para algunas ecuaciones. Una de las ecuaciones de Hill mĂĄs famosas por sus numerosas aplicaciones es la ecuaciĂłn de Mathieu đ?&#x2018;˘đ?&#x2018;˘â&#x20AC;˛â&#x20AC;˛ â&#x2C6;&#x2019; 2đ?&#x153;&#x192;đ?&#x153;&#x192; đ?&#x2018;?đ?&#x2018;?đ?&#x2018;?đ?&#x2018;?đ?&#x2018;?đ?&#x2018;?2đ?&#x2018;Ľđ?&#x2018;Ľ đ?&#x2018;˘đ?&#x2018;˘ = đ?&#x153;&#x2020;đ?&#x153;&#x2020;đ?&#x153;&#x2020;đ?&#x153;&#x2020;.

(4)

Esta ecuaciĂłn surge en la modelaciĂłn de diversos fenĂłmenos en la mecĂĄnica cuĂĄntica, astronomĂ­a,

169


ingenierĂ­a elĂŠctrica entre otros. Su soluciĂłn exacta no se expresa en tĂŠrminos de funciones elementales. De la misma manera para la mayorĂ­a de las ecuaciones de Hill la soluciĂłn exacta se desconoce lo que concede gran importancia a la teorĂ­a de Floquet. La ecuaciĂłn de Hill aparece en muchas aplicaciones. Por ejemplo, en el ĂĄmbito de la fĂ­sica de la materia condensada, Wang y Kim (Wang and Kim 2001) a partir de una ecuaciĂłn de Hill que describe el movimiento transversal de partĂ­culas de haces en canales periĂłdicos, obtienen una secuencia recursiva para calcular numĂŠricamente el discriminante de Hill y la soluciĂłn a la ecuaciĂłn, lo que les permite hacer un anĂĄlisis de la dinĂĄmica de haces en canales de enfoque periĂłdico (cruciales en los aceleradores de partĂ­culas). En (Zhao, Ryjkov, and Schuessler 2002) se estudia de manera teĂłrica y experimental el comportamiento de iones dentro de una trampa de iones lineal basada en radiofrecuencias y se muestra que la excitaciĂłn paramĂŠtrica de estas partĂ­culas en la trampa estĂĄ descrita por una ecuaciĂłn de Mathieu cuya soluciĂłn en este caso predice las regiones de inestabilidad resonante. En (Seyranian and Seyranian 2006) se deriva una ecuaciĂłn de Hill con amortiguaciĂłn para estudiar el problema de estabilizar un pĂŠndulo con un punto de suspensiĂłn oscilante y un amortiguador viscoso, permitiendo calcular las regiones de estabilidad de la soluciĂłn de ĂŠsta ecuaciĂłn alrededor de una vecindad del punto de suspensiĂłn para encontrar el rango de estabilizaciĂłn del pĂŠndulo. Este tipo de pĂŠndulo se utiliza en diversos dispositivos modernos tales como trampas de partĂ­culas cargadas en un campo electromagnĂŠtico. En el ĂĄmbito de la fĂ­sica de estado sĂłlido, van der Mee, et al. (van der Mee, Contu, and Pintus 2010) deducen una ecuaciĂłn de Hill y calculan los intervalos de estabilidad a travĂŠs del discriminante de Hill, lo que forma parte de un mĂŠtodo que proponen para determinar la estructura de bandas y los niveles de energĂ­a para un cristal fotĂłnico unidimensional con impurezas localizadas, los cuĂĄles se utilizan en fibras Ăłpticas y en la fabricaciĂłn de transistores. El anĂĄlisis de estructuras estratificadas periĂłdicamente es de gran importancia en Ăłptica y en electromagnetismo ya que presentan ciertas ventajas en la construcciĂłn de filtros Ăłpticos, antenas, circuitos y diversas estructuras electromagnĂŠticas con banda prohibida (EGB, por sus siglas en inglĂŠs). En (Choubani et al. 2010) se utiliza la ecuaciĂłn de Hill como una herramienta eficiente para el anĂĄlisis de la propagaciĂłn de estructuras multicapa con perfiles dielĂŠctricos arbitrarios. En (Li et al., 2012) se utiliza una ecuaciĂłn de Mathieu, que describe los resonadores presentes en un giroscopio, para desarrollar un mĂŠtodo que mide las frecuencias de salida de giroscopios vibradores resonantes. Un aĂąo mĂĄs tarde Li et al. (Li et al. 2013) mediante una aproximaciĂłn a la soluciĂłn de una ecuaciĂłn de Mathieu y la

170

determinaciĂłn de regiones de estabilidad analizan las caracterĂ­sticas dinĂĄmicas de sensores inerciales resonantes presentes en acelerĂłmetros y giroscopios. 2 TEORĂ?A DE FLOQUET A continuaciĂłn se presentan algunas definiciones necesarias y las propiedades bĂĄsicas de la ecuaciĂłn de Hill (1) que representan elementos de la teorĂ­a de Floquet. Resultados mĂĄs completos se pueden encontrar en (Eastham 1973; Magnus and Winkler 2004) y (Brown, Eastham, and Schmidt 2013) La ecuaciĂłn (1) se dice que es: inestable si todas sus soluciones no triviales son no acotadas en (â&#x2C6;&#x2019;â&#x2C6;&#x17E;, â&#x2C6;&#x17E;). b) estable si todas sus soluciones son acotadas en (â&#x2C6;&#x2019;â&#x2C6;&#x17E;, â&#x2C6;&#x17E;). c) condicionalmente estable si existe alguna soluciĂłn no trivial que es acotada en (â&#x2C6;&#x2019;â&#x2C6;&#x17E;, â&#x2C6;&#x17E;). a)

Se dice que una soluciĂłn de (1) es estable cuando esta es acotada e inestable en caso contrario. Cuando en la ecuaciĂłn (1) đ?&#x2018;&#x192;đ?&#x2018;&#x192;(đ?&#x2018;Ľđ?&#x2018;Ľ), đ?&#x2018;&#x201E;đ?&#x2018;&#x201E;(đ?&#x2018;Ľđ?&#x2018;Ľ) y đ?&#x2018;&#x2026;đ?&#x2018;&#x2026;(đ?&#x2018;Ľđ?&#x2018;Ľ) son funciones continuas por partes, para cada đ?&#x153;&#x2020;đ?&#x153;&#x2020; existe el sistema fundamental de soluciones, es decir dos linealmente y đ?&#x2018;˘đ?&#x2018;˘2 (đ?&#x2018;Ľđ?&#x2018;Ľ, đ?&#x153;&#x2020;đ?&#x153;&#x2020;) soluciones đ?&#x2018;˘đ?&#x2018;˘1 (đ?&#x2018;Ľđ?&#x2018;Ľ, đ?&#x153;&#x2020;đ?&#x153;&#x2020;) independientes que satisfacen las siguientes condiciones iniciales đ?&#x2018;˘đ?&#x2018;˘1 (0, đ?&#x153;&#x2020;đ?&#x153;&#x2020;) = 1,

đ?&#x2018;˘đ?&#x2018;˘2 (0, đ?&#x153;&#x2020;đ?&#x153;&#x2020;) = 0,

đ?&#x2018;˘đ?&#x2018;˘1â&#x20AC;˛ (0, đ?&#x153;&#x2020;đ?&#x153;&#x2020;) = 0

đ?&#x2018;˘đ?&#x2018;˘2â&#x20AC;˛ (0, đ?&#x153;&#x2020;đ?&#x153;&#x2020;) = 1.

(5)

El discriminante de Hill asociado a la ecuaciĂłn (1) se define de la siguiente manera đ??ˇđ??ˇ(đ?&#x153;&#x2020;đ?&#x153;&#x2020;) = đ?&#x2018;˘đ?&#x2018;˘1 (đ?&#x2018;&#x2021;đ?&#x2018;&#x2021;, đ?&#x153;&#x2020;đ?&#x153;&#x2020;) + đ?&#x2018;˘đ?&#x2018;˘2â&#x20AC;˛ (đ?&#x2018;&#x2021;đ?&#x2018;&#x2021;, đ?&#x153;&#x2020;đ?&#x153;&#x2020;).

(6)

Mediante la funciĂłn đ??ˇđ??ˇ(đ?&#x153;&#x2020;đ?&#x153;&#x2020;) se describen los intervalos de estabilidad e inestabilidad de la ecuaciĂłn (1) a)

Para los valores de đ?&#x153;&#x2020;đ?&#x153;&#x2020; tales que |đ??ˇđ??ˇ(đ?&#x153;&#x2020;đ?&#x153;&#x2020;)| < 2, la ecuaciĂłn (1) es estable. En este caso se dice que đ?&#x153;&#x2020;đ?&#x153;&#x2020; pertenece a la zona permitida. b) Para los valores de đ?&#x153;&#x2020;đ?&#x153;&#x2020; con |đ??ˇđ??ˇ(đ?&#x153;&#x2020;đ?&#x153;&#x2020;)| > 2 la ecuaciĂłn (1) es inestable. đ?&#x153;&#x2020;đ?&#x153;&#x2020; pertenece a la zona prohibida. c) Para los valores de đ?&#x153;&#x2020;đ?&#x153;&#x2020; tales que |đ??ˇđ??ˇ(đ?&#x153;&#x2020;đ?&#x153;&#x2020;)| = 2 la ecuaciĂłn (1) posee soluciones periĂłdicas no triviales con periodo đ?&#x2018;&#x2021;đ?&#x2018;&#x2021;. d) Para los valores de đ?&#x153;&#x2020;đ?&#x153;&#x2020; tales que |đ??ˇđ??ˇ(đ?&#x153;&#x2020;đ?&#x153;&#x2020;)| = â&#x2C6;&#x2019;2 la ecuaciĂłn (1) posee soluciones semiperiĂłdicas.


Los lĂ­mites de intervalos de estabilidad e inestabilidad son nĂşmeros reales que representan los eigenvalores {đ?&#x153;&#x2020;đ?&#x153;&#x2020;đ?&#x2018;&#x203A;đ?&#x2018;&#x203A; } y {đ?&#x153;&#x2020;đ?&#x153;&#x2020;đ?&#x2018;&#x203A;đ?&#x2018;&#x203A; â&#x20AC;˛} de los problemas periĂłdico (|đ??ˇđ??ˇ(đ?&#x153;&#x2020;đ?&#x153;&#x2020;)| = 2) y semiperiĂłdico (|đ??ˇđ??ˇ(đ?&#x153;&#x2020;đ?&#x153;&#x2020;)| = 2), respectivamente. Ambas sucesiones son infinitas, monĂłtonamente crecientes y

ademĂĄs poseen las siguientes propiedades

a) đ?&#x153;&#x2020;đ?&#x153;&#x2020;0 < đ?&#x153;&#x2020;đ?&#x153;&#x2020;â&#x20AC;˛1 â&#x2030;¤ đ?&#x153;&#x2020;đ?&#x153;&#x2020;â&#x20AC;˛2 < đ?&#x153;&#x2020;đ?&#x153;&#x2020;1 â&#x2030;¤ đ?&#x153;&#x2020;đ?&#x153;&#x2020;2 < đ?&#x153;&#x2020;đ?&#x153;&#x2020;â&#x20AC;˛3 â&#x2030;¤ đ?&#x153;&#x2020;đ?&#x153;&#x2020;â&#x20AC;˛4 < đ?&#x153;&#x2020;đ?&#x153;&#x2020;3 â&#x2030;¤ â&#x2039;Ż, b) las soluciones de (1) son estables en los intervalos

c)

(đ?&#x153;&#x2020;đ?&#x153;&#x2020;0 , đ?&#x153;&#x2020;đ?&#x153;&#x2020;â&#x20AC;˛1 ), (đ?&#x153;&#x2020;đ?&#x153;&#x2020;â&#x20AC;˛2 , đ?&#x153;&#x2020;đ?&#x153;&#x2020;1 ), (đ?&#x153;&#x2020;đ?&#x153;&#x2020;2 , đ?&#x153;&#x2020;đ?&#x153;&#x2020;â&#x20AC;˛3 ), (đ?&#x153;&#x2020;đ?&#x153;&#x2020;â&#x20AC;˛4 , đ?&#x153;&#x2020;đ?&#x153;&#x2020;3 ) â&#x20AC;Ś

las soluciones de (1) son inestables en los intervalos (đ?&#x153;&#x2020;đ?&#x153;&#x2020;â&#x20AC;˛1 , đ?&#x153;&#x2020;đ?&#x153;&#x2020;â&#x20AC;˛2 ), (đ?&#x153;&#x2020;đ?&#x153;&#x2020;1 , đ?&#x153;&#x2020;đ?&#x153;&#x2020;2 ), (đ?&#x153;&#x2020;đ?&#x153;&#x2020;â&#x20AC;˛3 , đ?&#x153;&#x2020;đ?&#x153;&#x2020;â&#x20AC;˛4 ) â&#x20AC;Ś

Por el teorema de Floquet existe una soluciĂłn đ?&#x2018;˘đ?&#x2018;˘(đ?&#x2018;Ľđ?&#x2018;Ľ) no trivial de (1) tal que đ?&#x2018;˘đ?&#x2018;˘(đ?&#x2018;Ľđ?&#x2018;Ľ ) = đ?&#x2018;&#x2019;đ?&#x2018;&#x2019; đ?&#x2018;&#x2013;đ?&#x2018;&#x2013;đ?&#x2018;&#x2013;đ?&#x2018;&#x2013;đ?&#x2018;&#x2013;đ?&#x2018;&#x2013; đ?&#x2018;Łđ?&#x2018;Ł(đ?&#x2018;Ľđ?&#x2018;Ľ),

donde đ?&#x2018;Łđ?&#x2018;Ł(đ?&#x2018;Ľđ?&#x2018;Ľ) es una funciĂłn periĂłdica de periodo đ?&#x2018;&#x2021;đ?&#x2018;&#x2021; y đ?&#x203A;źđ?&#x203A;ź una constante, o en forma equivalente đ?&#x2018;˘đ?&#x2018;˘(đ?&#x2018;Ľđ?&#x2018;Ľ + đ?&#x2018;&#x2021;đ?&#x2018;&#x2021;) = đ?&#x2018;&#x2019;đ?&#x2018;&#x2019;

đ?&#x2018;&#x2013;đ?&#x2018;&#x2013;đ?&#x2018;&#x2013;đ?&#x2018;&#x2013;đ?&#x2018;&#x2013;đ?&#x2018;&#x2013;

đ?&#x2018;˘đ?&#x2018;˘(đ?&#x2018;Ľđ?&#x2018;Ľ).

Por lo tanto si đ?&#x203A;źđ?&#x203A;ź â&#x2C6;&#x2C6; â&#x201E;?, la soluciĂłn đ?&#x2018;˘đ?&#x2018;˘(đ?&#x2018;Ľđ?&#x2018;Ľ) es estable, y si đ?&#x203A;źđ?&#x203A;ź â&#x2C6;&#x2C6; â&#x201E;&#x201A;, la soluciĂłn đ?&#x2018;˘đ?&#x2018;˘(đ?&#x2018;Ľđ?&#x2018;Ľ) es inestable. 3 APLICACIONES

En esta secciĂłn se describen tres modelos matemĂĄticos asociados a aplicaciones en la mecĂĄnica cuĂĄntica, ingenierĂ­a y fĂ­sica de la materia condensada, en los cuĂĄles se utiliza la ecuaciĂłn de Hill para modelar el fenĂłmeno correspondiente.

propagan a travĂŠs del cristal fotĂłnico. En la naturaleza tales estructuras se pueden observar en diversas formas, por ejemplo las alas de algunos insectos como mariposas o escarabajos, el plumaje del pavo real, algunas piedras tales como el Ăłpalo, las conchas de ostras son cristales fotĂłnicos. Los colores vibrantes que los caracterizan no son el resultado de la presencia de pigmentos (aunque estos pueden variar los tonos y matices observados en estructuras fotĂłnicas), se deben a la presencia de los cristales fotĂłnicos que por sus propiedades filtran la luz. Debido a sus propiedades, es posible diseĂąar cristales fotĂłnicos que permitan controlar la propagaciĂłn de luz a travĂŠs de ĂŠstos. Se estudian tres tipos de cristales fotĂłnicos uni-, bi- y tridimensionales. Los cristales unidimensionales representan materiales formados por capas alternadas con distinta constante dielĂŠctrica, por ejemplo lĂĄminas Ăłpticas delgadas que se utilizan para fabricar gran diversidad de espejos, para recubrir lentes, en divisores de haces, etc. La Figura 1 muestra el esquema de un medio periĂłdico en una dimensiĂłn. La propagaciĂłn de luz a travĂŠs de un cristal fotĂłnico unidimensional se describe por medio de las ecuaciones de Maxwell sin campo incidente (Felbacq and Zolla 2003) â&#x2C6;&#x2021; Ă&#x2014; đ?&#x2018;Źđ?&#x2018;Ź = đ?&#x2018;&#x2013;đ?&#x2018;&#x2013;đ?&#x2018;&#x2013;đ?&#x2018;&#x2013;đ?&#x153;&#x2021;đ?&#x153;&#x2021;0 đ?&#x2018;Żđ?&#x2018;Ż

â&#x2C6;&#x2021; Ă&#x2014; đ?&#x2018;Żđ?&#x2018;Ż = â&#x2C6;&#x2019;đ?&#x2018;&#x2013;đ?&#x2018;&#x2013;đ?&#x2018;&#x2013;đ?&#x2018;&#x2013;đ?&#x153;&#x20AC;đ?&#x153;&#x20AC;0 đ?&#x153;&#x20AC;đ?&#x153;&#x20AC;(đ?&#x2018;Ľđ?&#x2018;Ľ)đ?&#x2018;Źđ?&#x2018;Ź

donde đ?&#x2018;Źđ?&#x2018;Ź, đ?&#x2018;Żđ?&#x2018;Ż son los campos elĂŠctrico y magnĂŠtico respectivamente, đ?&#x153;&#x20AC;đ?&#x153;&#x20AC;(đ?&#x2018;Ľđ?&#x2018;Ľ) es la permitividad relativa periĂłdica en đ?&#x2018;Ľđ?&#x2018;Ľ, đ?&#x153;&#x20AC;đ?&#x153;&#x20AC;(đ?&#x2018;Ľđ?&#x2018;Ľ + đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;) = đ?&#x153;&#x20AC;đ?&#x153;&#x20AC;(đ?&#x2018;Ľđ?&#x2018;Ľ), ya que el medio dielĂŠctrico es periĂłdico en la dimensiĂłn đ?&#x2018;Ľđ?&#x2018;Ľ, đ?&#x153;&#x2021;đ?&#x153;&#x2021;0 es la permeabilidad del vacĂ­o y đ?&#x153;&#x201D;đ?&#x153;&#x201D; es la frecuencia angular.

3.1 Cristales fotĂłnicos Los cristales fotĂłnicos son nanoestructuras dielĂŠctricas no homogĂŠneas que presentan una variaciĂłn periĂłdica en sus propiedades fĂ­sicas tales como la permitividad elĂŠctrica o el Ă­ndice de refracciĂłn y cuya periodicidad es comparable con la longitud de onda de la luz. En los cristales fotĂłnicos los fotones se comportan de manera anĂĄloga a los electrones en cristales semiconductores. Dicha periodicidad produce la formaciĂłn de bandas fotĂłnicas y bandas prohibidas. Las bandas fotĂłnicas son rangos de frecuencias en los cuĂĄles la luz puede viajar y dispersarse a diferencia de las bandas prohibidas que representan determinadas frecuencias de la luz que no se

Fig. 1. Esquema de la propagaciĂłn en un medio periĂłdico infinito.

Si la propagaciĂłn se considera sĂłlo a lo largo del eje đ?&#x2018;&#x201A;đ?&#x2018;&#x201A;đ?&#x2018;&#x201A;đ?&#x2018;&#x201A;, los campos elĂŠctrico y magnĂŠtico no dependen de la variable đ?&#x2018;§đ?&#x2018;§ y las funciones đ?&#x2018;Źđ?&#x2018;Ź y đ?&#x2018;Żđ?&#x2018;Ż se buscan en la forma v(đ?&#x2018;Ľđ?&#x2018;Ľ, đ?&#x2018;Śđ?&#x2018;Ś) = đ?&#x2018;˘đ?&#x2018;˘(đ?&#x2018;Ľđ?&#x2018;Ľ)đ?&#x2018;&#x2019;đ?&#x2018;&#x2019; đ?&#x2018;&#x2013;đ?&#x2018;&#x2013;đ?&#x2018;&#x2013;đ?&#x2018;&#x2013;đ?&#x2018;&#x2013;đ?&#x2018;&#x2013; , donde đ?&#x203A;źđ?&#x203A;ź se conoce como la constante de propagaciĂłn. Con estas consideraciones el

171


sistema de Maxwell se reduce a las siguientes ecuaciones de Hill desacopladas que corresponden a las ondas lineales polarizadas đ?&#x2018;&#x2018;đ?&#x2018;&#x2018; 2 đ?&#x2018;˘đ?&#x2018;˘ + [đ?&#x2018;&#x2DC;đ?&#x2018;&#x2DC; 2 đ?&#x153;&#x20AC;đ?&#x153;&#x20AC;(đ?&#x2018;Ľđ?&#x2018;Ľ) â&#x2C6;&#x2019; đ?&#x203A;źđ?&#x203A;ź 2 ]đ?&#x2018;˘đ?&#x2018;˘ = 0 đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;Ľđ?&#x2018;Ľ 2 đ?&#x153;&#x20AC;đ?&#x153;&#x20AC;(đ?&#x2018;Ľđ?&#x2018;Ľ)

1 đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018; đ?&#x2018;&#x2018;đ?&#x2018;&#x2018; [ ] + [đ?&#x2018;&#x2DC;đ?&#x2018;&#x2DC; 2 đ?&#x153;&#x20AC;đ?&#x153;&#x20AC;(đ?&#x2018;Ľđ?&#x2018;Ľ) â&#x2C6;&#x2019; đ?&#x203A;źđ?&#x203A;ź 2 ]đ?&#x2018;˘đ?&#x2018;˘ = 0 đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018; đ?&#x153;&#x20AC;đ?&#x153;&#x20AC;(đ?&#x2018;Ľđ?&#x2018;Ľ) đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;

donde đ?&#x2018;&#x2DC;đ?&#x2018;&#x2DC; = đ?&#x153;&#x201D;đ?&#x153;&#x201D; â&#x2C6;&#x161;đ?&#x153;&#x20AC;đ?&#x153;&#x20AC;0 đ?&#x153;&#x2021;đ?&#x153;&#x2021;0 se conoce como el nĂşmero de onda, đ?&#x203A;źđ?&#x203A;ź toma el papel del parĂĄmetro espectral que depende de đ?&#x153;&#x201D;đ?&#x153;&#x201D;. El discriminante de Hill (6) permite calcular los siguientes conjuntos de los parĂĄmetros đ?&#x203A;źđ?&#x203A;ź y đ?&#x153;&#x201D;đ?&#x153;&#x201D; đ??şđ??ş = {(đ?&#x153;&#x201D;đ?&#x153;&#x201D;, đ?&#x203A;źđ?&#x203A;ź), |đ??ˇđ??ˇ| > 2},

đ??ľđ??ľ = {(đ?&#x153;&#x201D;đ?&#x153;&#x201D;, đ?&#x203A;źđ?&#x203A;ź), |đ??ˇđ??ˇ| < 2}, Î&#x201D; = {(đ?&#x153;&#x201D;đ?&#x153;&#x201D;, đ?&#x203A;źđ?&#x203A;ź), |đ??ˇđ??ˇ| = 2},

đ?&#x2018;&#x17E;đ?&#x2018;&#x17E; â&#x20AC;˛â&#x20AC;˛ (đ?&#x2018;§đ?&#x2018;§) + (đ?&#x203A;żđ?&#x203A;ż + đ?&#x153;&#x20AC;đ?&#x153;&#x20AC; cos(2đ?&#x2018;§đ?&#x2018;§))đ?&#x2018;&#x17E;đ?&#x2018;&#x17E;(đ?&#x2018;§đ?&#x2018;§) = 0,

3.2 Sensores inerciales resonantes

axial periĂłdica . AdemĂĄs đ?&#x203A;żđ?&#x203A;ż = 4 (

que indican que las ondas se pueden propagar a travĂŠs del cristal fotĂłnico sĂłlo cuando el discriminante (6) cumple |đ??ˇđ??ˇ| â&#x2030;¤ 2, esto es, los conjuntos de valores permitidos de đ?&#x203A;źđ?&#x203A;ź y đ?&#x153;&#x201D;đ?&#x153;&#x201D; son las bandas de conducciĂłn đ??ľđ??ľ â&#x2C6;Ş Î&#x201D;. AsĂ­, đ??şđ??ş corresponde a las bandas prohibidas fotĂłnicas, para las cuĂĄles la luz no se puede propagar.

Un sensor inercial es un sensor que mide aceleraciĂłn y velocidad angular. Estos sensores tienen diversas aplicaciones en las que se usan para la captura y el anĂĄlisis de movimiento. AdemĂĄs de estas caracterĂ­sticas los sensores inerciales resonantes tienen la capacidad de detecciĂłn de resonancia. La resonancia es la tendencia de un sistema a oscilar con una gran amplitud en ciertas frecuencias una vez que es sometido a una fuerza periĂłdica. Las frecuencias para las que la amplitud de respuesta es un mĂĄximo relativo se llaman frecuencias resonantes del sistema. Estas frecuencias, aunque la fuerza externa sea pequeĂąa, producen amplitudes de oscilaciĂłn muy grandes. La detecciĂłn de resonancia consiste en la detecciĂłn de un cambio de frecuencias resonantes del objeto al que se le aplica cierta fuerza. Los sensores inerciales resonantes tienen ciertas ventajas sobre otros tipos de resonadores tales como alta sensibilidad, gran resoluciĂłn, buena precisiĂłn, bajo nivel de ruido y bajo consumo de energĂ­a. Lo anterior los hace atractivos para incorporarlos en brĂşjulas, aviones y diversos aparatos electrĂłnicos (Campanella 2010). ConsidĂŠrese un sensor inercial resonante cuyo diagrama de funcionamiento se presenta en la Fig. 2. Estos aparatos tienen el siguiente funcionamiento. Supongamos que se le

172

aplica una fuerza axial periĂłdica đ??šđ??š = đ??šđ??š0 đ?&#x2018;?đ?&#x2018;?đ?&#x2018;?đ?&#x2018;?đ?&#x2018;?đ?&#x2018;?đ?&#x2018;?đ?&#x2018;?đ?&#x2018;&#x2018;đ?&#x2018;&#x2018; đ?&#x2018;Ąđ?&#x2018;Ą (que depende del tiempo, aceleraciĂłn o fuerza de Coriolis) a la masa de prueba, entonces ĂŠsta fuerza se transmite hacia los dos resonadores tipo DEFT(diapasĂłn de doble diente) situados en cada lado de la masa de prueba, cada uno de los dientes de los diapasones vibran en sentido opuesto, sujetos a una fuerza đ??šđ??šđ?&#x2018;&#x2018;đ?&#x2018;&#x2018; (la cual mantiene a los resonadores trabajando en sus frecuencias resonantes). La compresiĂłn y tensiĂłn sobre estos dientes provocada por la fuerza axial en la masa de prueba modula las frecuencias resonantes de estos sensores. El cambio en dichas frecuencias es medido por la barra resonante, que es una parte de los resonadores DEFT que se encarga de detectar los cambios de frecuencias resonantes, de esta forma a partir de estos cambios de frecuencias es posible medir aceleraciĂłn o velocidad angular. Bajo la fuerza impulsora đ??šđ??šđ?&#x2018;&#x2018;đ?&#x2018;&#x2018; y la barra resonante trabajando en su frecuencia resonante đ?&#x153;&#x201D;đ?&#x153;&#x201D;0 , la ecuaciĂłn de Mathieu (Li et al. 2013) (7)

describe el comportamiento de las caracterĂ­sticas dinĂĄmicas (aceleraciĂłn y velocidad angular) de un sensor inercial resonante, donde đ?&#x203A;żđ?&#x203A;ż es la frecuencia resonante natural de la barra resonante (la cuĂĄl es modificada por la fuerza axial periĂłdica), đ?&#x153;&#x20AC;đ?&#x153;&#x20AC; cos(2đ?&#x2018;§đ?&#x2018;§) representa la modulaciĂłn de rigidez de la barra resonante bajo la fuerza đ?&#x153;&#x201D;đ?&#x153;&#x201D;0 2

đ?&#x153;&#x201D;đ?&#x153;&#x201D;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;

) , đ?&#x153;&#x20AC;đ?&#x153;&#x20AC; = 4 (

đ?&#x153;&#x201D;đ?&#x153;&#x201D;0 2

đ?&#x153;&#x201D;đ?&#x153;&#x201D;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;

) đ?&#x2018;&#x2020;đ?&#x2018;&#x2020;đ??šđ??š0

donde đ?&#x2018;&#x2020;đ?&#x2018;&#x2020; depende de la longitud đ??żđ??ż y del momento de inercia đ??źđ??ź de la barra resonante. Dado que la informaciĂłn de entrada que miden los sensores inerciales resonantes es modulada por una funciĂłn periĂłdica, la salida del sensor debe presentar estabilidad, en consecuencia la soluciĂłn đ?&#x2018;&#x17E;đ?&#x2018;&#x17E;(đ?&#x2018;§đ?&#x2018;§) debe ser estable. Para esto es necesario encontrar los valores de los dos parĂĄmetros espectrales (đ?&#x203A;żđ?&#x203A;ż, đ?&#x153;&#x20AC;đ?&#x153;&#x20AC;) tales que la soluciĂłn đ?&#x2018;&#x17E;đ?&#x2018;&#x17E;(đ?&#x2018;§đ?&#x2018;§) sea acotada, esto es, encontrar las regiones para las cuales el discriminante (6) cumple |đ??ˇđ??ˇ| â&#x2030;¤ 2. Debido a que los parĂĄmetros đ?&#x203A;żđ?&#x203A;ż y đ?&#x153;&#x20AC;đ?&#x153;&#x20AC; estĂĄn directamente relacionados con las propiedades de la barra resonante como por ejemplo: la frecuencia natural resonante y la longitud, en el diseĂąo robusto de sensores inerciales resonantes es crucial determinar las regiones de estabilidad de la ecuaciĂłn que modela este tipo de problemas. De esta manera dado un sensor con ciertas propiedades fijas (p. ej. largo de la barra o đ?&#x153;&#x201D;đ?&#x153;&#x201D;0 ) es posible experimentar si su funcionamiento es Ăłptimo, es decir se verifica que cumpla con ciertas normas entre las cuales estĂĄ la que indica que los valores de đ?&#x203A;żđ?&#x203A;ż y đ?&#x153;&#x20AC;đ?&#x153;&#x20AC; pertenezcan a las regiones de estabilidad. AsĂ­, en caso de que alguna norma no se cumpla se modifican los parĂĄmetros de las propiedades y asĂ­ se continĂşa el proceso hasta llegar a un diseĂąo robusto del sensor inercial resonante.


Figura 3. SoluciĂłn de la ecuaciĂłn de Mathieu con đ?&#x153;šđ?&#x153;š = đ?&#x;&#x201C;đ?&#x;&#x201C;đ?&#x;&#x201C;đ?&#x;&#x201C;. đ?&#x;&#x17D;đ?&#x;&#x17D;đ?&#x;&#x17D;đ?&#x;&#x17D;đ?&#x;&#x17D;đ?&#x;&#x17D;đ?&#x;&#x17D;đ?&#x;&#x17D; đ?&#x2019;&#x161;đ?&#x2019;&#x161; đ?&#x153;şđ?&#x153;ş = đ?&#x;&#x17D;đ?&#x;&#x17D;. đ?&#x;&#x17D;đ?&#x;&#x17D;đ?&#x;&#x17D;đ?&#x;&#x17D;đ?&#x;&#x17D;đ?&#x;&#x17D;đ?&#x;&#x17D;đ?&#x;&#x17D;

Fig. 2. Diagrama de un sensor inercial resonante. Como ejemplo ilustrativo, considĂŠrese los siguientes valores de las propiedades de un sensor resonante: Tabla 1. ParĂĄmetros de un sensor inercial resonante

SĂ­mbolo E m L I đ?&#x153;&#x201D;đ?&#x153;&#x201D;0 đ?&#x153;&#x201D;đ?&#x153;&#x201D;đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;

DescripciĂłn mĂłdulo de Young masa de prueba longitud de la barra DEFT momento de inercia de ĂĄrea de la barra DEFT frecuencia resonante de la barra frecuencia de la fuerza axial

Valor 2e11 0.261495 55e-3

Unidad Pa kg m

3.125e-14

m4

110.32

Hz

30

Hz

Tomando el valor de đ??šđ??š0 = 0.1966đ?&#x2018; đ?&#x2018; , se obtiene que los parĂĄmetros espectrales de la ecuaciĂłn (7) son đ?&#x203A;żđ?&#x203A;ż = 54.0911 y đ?&#x153;&#x20AC;đ?&#x153;&#x20AC; = 0.0591. Ahora se requiere saber si estos valores corresponden a una soluciĂłn acotada, es decir, si pertenecen a las regiones de estabilidad de la ecuaciĂłn (7). Las llamadas funciones de Mathieu son las soluciones de la ecuaciĂłn de Mathieu (4), introducidas por Mathieu (1868) al estudiar el movimiento de membranas elĂ­pticas. Las funciones de Mathieu que son funciones pares en general se denotan por đ??śđ??ś(đ?&#x153;&#x2020;đ?&#x153;&#x2020;, đ?&#x153;&#x192;đ?&#x153;&#x192;, đ?&#x2018;Ľđ?&#x2018;Ľ) y las que son impares por đ?&#x2018;&#x2020;đ?&#x2018;&#x2020;(đ?&#x153;&#x2020;đ?&#x153;&#x2020;, đ?&#x153;&#x192;đ?&#x153;&#x192;, đ?&#x2018;Ľđ?&#x2018;Ľ), a veces llamadas coseno de Mathieu y seno de Mathieu, respectivamente. Sin embargo la representaciĂłn analĂ­tica de estas funciones es algo complicada de forma que se utilizan tĂŠcnicas numĂŠricas para calcular estas funciones. Para un đ?&#x153;&#x192;đ?&#x153;&#x192; â&#x2030; 0 fijo estas funciones son periĂłdicas en đ?&#x2018;Ľđ?&#x2018;Ľ solamente para ciertos valores de đ?&#x153;&#x2020;đ?&#x153;&#x2020;, que corresponden a los valores para los cuĂĄles el discriminante (6) đ??ˇđ??ˇ(đ?&#x153;&#x2020;đ?&#x153;&#x2020;) = 2. La soluciĂłn general de la ecuaciĂłn de Mathieu (4) es una combinaciĂłn lineal de las funciones đ??śđ??ś(đ?&#x153;&#x2020;đ?&#x153;&#x2020;, đ?&#x153;&#x192;đ?&#x153;&#x192;, đ?&#x2018;˘đ?&#x2018;˘) y đ?&#x2018;&#x2020;đ?&#x2018;&#x2020;(đ?&#x153;&#x2020;đ?&#x153;&#x2020;, đ?&#x153;&#x192;đ?&#x153;&#x192;, đ?&#x2018;˘đ?&#x2018;˘). La figura 3 presenta una grĂĄfica de la soluciĂłn de la ecuaciĂłn (7) donde đ?&#x203A;żđ?&#x203A;ż = 54.0911, đ?&#x153;&#x20AC;đ?&#x153;&#x20AC; = 0.0591, utilizando la funciones de Mathieu đ??śđ??ś(54.0911, â&#x2C6;&#x2019;0.0591/2, đ?&#x2018;§đ?&#x2018;§) y đ?&#x2018;&#x2020;đ?&#x2018;&#x2020;(54.0911, â&#x2C6;&#x2019;0.0591/2, đ?&#x2018;§đ?&#x2018;§).

En la figura 4 se muestra lo que se conoce como diagrama de estabilidad, el cual es un grĂĄfico de đ?&#x203A;żđ?&#x203A;ż vs đ?&#x153;&#x20AC;đ?&#x153;&#x20AC; y muestra las regiones de estabilidad(zonas de color gris) y de inestabilidad(en color blanco) para la ecuaciĂłn de Mathieu, es decir, muestra las zonas de los valores de (đ?&#x203A;żđ?&#x203A;ż, đ?&#x153;&#x20AC;đ?&#x153;&#x20AC;) para los cuales la soluciĂłn es estable. Se puede ver (punto rojo) que el valor (54.0911,0.0591) pertenece a las regiones de estabilidad, por lo tanto la soluciĂłn para este caso particular de la ecuaciĂłn de Mathieu es estable, lo que indica que los parĂĄmetros de la tabla 1(junto con otros requerimientos) permitirĂĄn diseĂąar un sensor inercial resonante eficiente. Figura 4. Zonas de estabilidad para la ecuaciĂłn de Mathieu

đ?&#x153;şđ?&#x153;ş

zona de estabilidad

zona de inestabilidad

đ?&#x153;šđ?&#x153;š

Existen mĂŠtodos que permiten calcular numĂŠricamente los valores espectrales de la ecuaciĂłn de Mathieu. Uno de ellos es el mĂŠtodo de series de potencias del parĂĄmetro espectral (SPPS) el cuĂĄl, dado đ?&#x153;&#x192;đ?&#x153;&#x192; â&#x2030; 0 fijo, se puede utilizar para encontrar una representaciĂłn para el discriminante de Hill (6) asociado a la ecuaciĂłn de Mathieu (4) y entonces se encuentran los valores del parĂĄmetro đ?&#x153;&#x2020;đ?&#x153;&#x2020; para los cuales la soluciĂłn es acotada y ademĂĄs periĂłdica(Khmelnytskaya y Rosu, 2010).

173


3.3 Aceleradores de partĂ­culas Un acelerador de partĂ­culas es un dispositivo que utiliza campos electromagnĂŠticos para acelerar partĂ­culas cargadas a velocidades muy altas y colisionarlas con otras partĂ­culas. Existen dos clases de aceleradores dependiendo del campo que utilicen para acelerar las partĂ­culas, los aceleradores electrostĂĄticos y los oscilantes. Los electrostĂĄticos utilizan campos elĂŠctricos, un ejemplo muy sencillo es el tubo de rayos catĂłdicos de un televisor. Los oscilantes utilizan campos a base de radiofrecuencias. Las aplicaciones de los aceleradores de partĂ­culas incluyen la medicina (donde se utilizan en terapias oncolĂłgicas) y la fĂ­sica de la materia condensada. Existen ciertas funciones muy importantes dentro de los aceleradores de partĂ­culas que son desempeĂąadas por los llamados canales de enfoque periĂłdico. Algunas de estas funciones incluyen: medio de transporte para haces entre las diversas secciones de dos aceleradores, como una estaciĂłn manipuladora de haces para enfriamiento y el confinamiento de haces. Los canales de enfoque periĂłdico estĂĄn formados por una secuencia de regiones llamadas celdas de enfoque o elementos de enfoque, las cuĂĄles contienen una o mĂĄs partĂ­culas cargadas. Para diseĂąar un canal es necesario contar con un mĂŠtodo eficiente para calcular las propiedades de los haces como por ejemplo la disposiciĂłn de los elementos de enfoque, los cuales, para aceleradores de alta energĂ­a y para simplificar el diseĂąo, suelen ser considerados como simples lentes. Sin embargo la dinĂĄmica de los haces dentro de los canales puede ser distinta, un caso son los canales periĂłdicos cuya aplicaciĂłn la encuentran en los canales de enfoque de tipo solenoidal utilizados para el enfriamiento de muones(Ankenbrandt 1999). La ecuaciĂłn de movimiento transversal de los haces en un canal de enfoque periĂłdico estĂĄ dada por đ?&#x2018;&#x2018;đ?&#x2018;&#x2018; 2 đ?&#x2018;˘đ?&#x2018;˘(đ?&#x2018;Ľđ?&#x2018;Ľ) + đ??žđ??ž(đ?&#x2018;Ľđ?&#x2018;Ľ)đ?&#x2018;˘đ?&#x2018;˘(đ?&#x2018;Ľđ?&#x2018;Ľ) = 0 đ?&#x2018;&#x2018;đ?&#x2018;&#x2018;đ?&#x2018;Ľđ?&#x2018;Ľ 2

(8)

donde đ?&#x2018;˘đ?&#x2018;˘ es el desplazamiento transversal de una partĂ­cula y đ?&#x2018;Ľđ?&#x2018;Ľ su coordenada longitudinal, đ??žđ??ž(đ?&#x2018;Ľđ?&#x2018;Ľ), conocida como funciĂłn de enfoque, describe el acomodo de los elementos de enfoque y se considera periĂłdica de periodo đ?&#x2018;&#x2021;đ?&#x2018;&#x2021;: đ??žđ??ž(đ?&#x2018;Ľđ?&#x2018;Ľ + đ?&#x2018;&#x2021;đ?&#x2018;&#x2021;) = đ??žđ??ž(đ?&#x2018;Ľđ?&#x2018;Ľ). La determinaciĂłn del discriminante de Hill es muy importante pues ĂŠste nos indica que si |đ??ˇđ??ˇ| â&#x2030;¤ 2 entonces el movimiento de las partĂ­culas de los haces en los canales es estable. En otro caso el movimiento es inestable. Se han creado diferentes mĂŠtodos (Wang and Kim 2001) para calcular o encontrar una aproximaciĂłn de đ??ˇđ??ˇ y de đ?&#x2018;˘đ?&#x2018;˘(đ?&#x2018;Ľđ?&#x2018;Ľ) para asĂ­ determinar las bandas en las que la soluciĂłn de (8) sea estable. En la aplicaciĂłn del enfriamiento de muones, la soluciĂłn y las regiones de estabilidad de (8) ayudan para uno de los desafĂ­os en esta ĂĄrea que es reducir la emitancia (dispersiĂłn de partĂ­culas en el haz) de los haces de

174

partĂ­culas a un nivel adecuado, para esto se trata de obtener una funciĂłn đ??žđ??ž(đ?&#x2018;Ľđ?&#x2018;Ľ) cuyo mĂ­nimo se localice muy cerca del absorbedor y que en general sea lo mĂĄs pequeĂąa posible para reducir el calentamiento en el acelerador. Existen algunas formas para lograr esto pero muchas veces entran en conflicto con la estabilidad de los haces en los canales, de manera que hay tener en cuenta dichas regiones de estabilidad al modificar la funciĂłn de enfoque. Una baja emitancia tiene diversas ventajas para los aceleradores de partĂ­culas, siendo una de ellas la alta probabilidad de las partĂ­culas a colisionar lo que implica mayor luminosidad. 4 CONCLUSIONES En este artĂ­culo se presentaron los modelos matemĂĄticos de algunas de las diversas aplicaciones de la ecuaciĂłn de Hill en distintas ĂĄreas de la ciencia moderna que van desde la ingenierĂ­a hasta la mecĂĄnica cuĂĄntica. TambiĂŠn se hizo una breve introducciĂłn a la teorĂ­a de Floquet que describe las propiedades matemĂĄticas de la ecuaciĂłn de Hill. De este modo se dieron los dos enfoques tanto aplicado como matemĂĄtico de los fenĂłmenos de la fĂ­sica e ingenierĂ­a actual que muestran la relaciĂłn directa y profunda entre tales enfoques, asĂ­ como la necesidad de un estudio detallado y completo de los modelos matemĂĄticos presentados. 5 REFERENCIAS Ankenbrandt, Charles M. 1999. â&#x20AC;&#x153;Status of Muon Collider Research and Development and Future Plans.â&#x20AC;? Physical Review Special Topics - Accelerators and Beams 2 (8): 081001. Brown, Basil Malcolm, Michael S. P Eastham, and Karl Michael Schmidt. 2013. Periodic Differential Operators. Basel [u.a.]: Birkhäuser. Busch, K. 2004. Photonic Crystals: Advances in Design, Fabrication, and Characterization. Weinheim; Cambridge: Wiley-VCH. Campanella, Humberto. 2010. Acoustic Wave and Elctromechanical Resonators: Concept to Key Applications. Boston: Artech House. Choubani, M., F. Choubani, A. Gharsallah, J. David, and N.E. Mastorakis. 2010. â&#x20AC;&#x153;Analysis and Design of Electromagnetic Band Gap Structures with Stratified and Inhomogeneous Media.â&#x20AC;? Electromagnetic Coherence and Polarization 283 (22): 4499â&#x20AC;&#x201C;4504. Eastham, M. S. P. 1973. The Spectral Theory of Periodic Differential Equations. Edinburgh: Scottish Academic Press, London. Felbacq, D., and F. Zolla. 2003. Scattering Theory of Photonic Crystals, Introduction to Complex


Mediums for Optics and Electromagnetics. Bellingham, WA, USA: SPIE. Floquet, G. 1893. “Sur Les Equations Differentialles Lineaires a Coefficients Periodiques” 12: 47–88. Hill, G. W. 1878. “Researches in the Lunar Theory.” American Journal of Mathematics 1 (1): 5–26. Hill, G.W. 1886. “On the Part of the Motion of the Lunar Perigee Which Is a Function of the Mean Motions of the Sun and Moon.” Acta Mathematica 8 (1): 1–36. Khmelnytskaya, K.V., and H.C. Rosu. 2010. “Spectral Parameter Power Series Representation for Hill’s Discriminant.” Annals of Physics 325 (11): 2512–2521. Li, Yan, Shangchun Fan, Zhanshe Guo, Jing Li, and Le Cao. 2012. “Frequency Measurement Study of Resonant Vibratory Gyroscopes.” Journal of Sound and Vibration 331 (20): 4417–4424. Li, Yan, Shangchun Fan, Zhanshe Guo, Jing Li, Le Cao, and Haihan Zhuang. 2013. “Mathieu Equation with Application to Analysis of Dynamic Characteristics of Resonant Inertial Sensors.” Communications in Nonlinear Science and Numerical Simulation 18 (2): 401–410. Liapounoff, A. 1902. Sur Une Série Dans La Théorie Des Équations Différentielles Lineaires Du Second Ordre à Coefficients Périodiques. Vol. 13. St. Petersbourg: Zap. Imp. Akad. Nauk. Magnus, Wilhelm, and Stanley Winkler. 2004. Hill’s Equation. Mineola, N.Y.: Dover Publications. Mathieu, É. 1868. “Mémoire Sur Le Mouvement Vibratoire D’une Membrane de Forme Elliptique” 13: 137–203. Seyranian, A.A., and A.P. Seyranian. 2006. “The Stability of an Inverted Pendulum with a Vibrating Suspension Point.” Journal of Applied Mathematics and Mechanics 70 (5): 754–761. Van der Mee, Cornelis, Pietro Contu, and Paolo Pintus. 2010. “One-dimensional Photonic Crystal Design.” Journal of Quantitative Spectroscopy and Radiative Transfer 111 (1): 214–225. Wang, Chun-xi, and Kwang-Je Kim. 2001. “Recursive Solution for Beam Dynamics of Periodic Focusing Channels.” Physical Review E 63 (5): 056502. Zhao, X., V. L. Ryjkov, and H. A. Schuessler. 2002. “Parametric Excitations of Trapped Ions in a Linear Rf Ion Trap.” Physical Review A 66 (6): 063414.

175


El pensamiento reflexivo como marco para aprender geometría euclidiana Reflective thinking as a framework for learning euclidean geometry

A. Avilés Flores, Universidad Autónoma de Querétaro. adriana_aviles@prodigy.net.mx. RESUMEN. El enfoque por resolución de problemas, introducido en los planes y programas de estudio de las matemáticas en la Reforma Curricular de 1993 y profundizado en la Reforma de Secundaria de 2006, así como la Reforma Integral para la Educación Media Superior, plantea que el aprendizaje de las matemáticas debe permitir a los alumnos desarrollar una forma de pensamiento que les permita resolver problemas que se presentan en diversos contextos, las evaluaciones ponen de manifiesto el predominio de una enseñanza memorística, en la que la aplicación mecánica de las fórmulas o algoritmos parece un fin en sí mismo. La enseñanza de la geometría, en particular, es una de las áreas de las matemáticas en las que hay más puntos de desencuentro entre matemáticos y educadores, no sólo en relación con sus propósitos y contenidos sino también con la manera de enseñarla. Como docente es importante no perder de vista que el estudio de la geometría permite al alumno estar en interacción con relaciones que ya no son del espacio físico sino un espacio conceptualizado y, por lo tanto, en determinado momento, la validez de las conjeturas que haga sobre las figuras geométricas ya no se comprobarán empíricamente sino que tendrán que apoyarse en razonamientos que obedecen a las reglas de argumentación en matemáticas, en particular, la deducción de nuevas propiedades a partir de las que ya conocen, para esto es necesario desarrollar una forma de pensamiento superior, el pensamiento reflexivo. Para la OCDE, el pensamiento reflexivo es la base fundamental para el desarrollo de la competencia matemática debido a su función de articular los diferentes razonamientos, procesos, conocimientos y habilidades involucrados en toda actividad matemática, de aquí que proponemos el aprendizaje de la geometría Euclidiana mediante el uso del pensamiento reflexivo. Palabras clave: Pensamiento reflexivo, geometría Euclidiana, actividades de aprendizaje. SUMMARY. The problem-solving approach, introduced in the plans and programs of study of the mathematics Curriculum Reform in 1993 and deepened in the 2006 School Reform, as well as the Integrational Reform for High School Education argues that learning mathematics should enable students to develop a way of thinking, allowing them to solve problems that arise in various contexts, the assessments show the dominance of memoristic learning, in which the mechanical application of formulas or algorithms seems an end in itself. The teaching of geometry, in particular, is one of the areas of mathematics in which there are more points of disagreement between mathematicians and educators, not only in relation to their purpose and content but also how to teach it. As a teacher it is important not to lose from sight that the study of geometry allows the student to be in interaction with relationships that are not from physical space but from a space conceptualization and therefore, at some point, the validity of the assumptions made from geometric shapes will not be tested empirically but will have to rely on arguments that obey the rules of argumentation in mathematics, in particular, the deduction for new properties from those already known, so it is necessary to develop a form of higher thinking, reflective thinking. For the OECD, reflective thinking is the foundation for the development of mathematical competence because of its role of coordinating the various arguments, processes, knowledge and skills involved in any mathematical activity, hence we propose learning Euclidean geometry by the use of reflective thinking. Keywords: Reflective thinking, Euclidean geometry, learning activities.

1.

INTRODUCCIÓN

Actualmente, la evaluación en la Educación Media Básica (EMB) y Educación Media Superior (EMS) en nuestro país se realiza a través de instrumentos estandarizados, cuatro de los más importantes son:

Exani1, PISA2, Excale3 y Enlace4; cada uno fue diseñado para proyectar diferente información. 1 Examen Nacional de Ingreso (Exani). Instrumento para ayudar a tomar las decisiones de admisión a la educación media y superior. Diseñado por el Centro Nacional de Evaluación para la Educación Superior (Ceneval) en 1994. 2

Program for International Student Assessment (PISA). Prueba internacional para evaluar las competencias básicas para la vida y el trabajo de los jóvenes de 15 años desarrollada por la Organización para la Cooperación y el Desarrollo Económicos (OCDE) en 1998 y aplicada desde el año 2000 a todos los miembros de esta organización.

176


Los resultados recientes de PISA5 son los que se han tomado de referencia para encausar la justificación de la propuesta que se ofrece con este trabajo, las razones para esta consideración son dos: la primera es porque PISA se centra en medir la competencia, es decir, la capacidad de extrapolar lo aprendido a lo largo de la vida y aplicarlo en situaciones del mundo real, así como la capacidad de analizar, razonar y comunicar con eficacia al plantear, interpretar y resolver problemas en una amplia variedad de situaciones (INEE, 2010), por lo que PISA es la prueba que tiene el propósito fundamental de ofrecer una visión general, de cómo México educa y capacita a los jóvenes que están por ingresar a la vida productiva; la otra razón es que, representa la primera medición confiable del desempeño del sistema educativo mexicano (Vidal, 2009), que se traduce en la efectividad de las escuelas. En la evaluación PISA 2003, México obtuvo en promedio 385 puntos en la competencia matemática situándolo en el nivel 1, en 2009 obtuvo 419 puntos, aunque avanzó 34 puntos lo sitúa aún en la frontera del nivel 1. Esto nos indica que existe una gran proporción de estudiantes (51% según datos de la OCDE), que solo son capaces de contestar a reactivos que impliquen contextos familiares, preguntas claramente definidas y resolver instrucciones directas en situaciones explícitas, llevar a cabo acciones que sean obvias. En otras palabras, de los tres procesos que deben activarse para conectar los fenómenos observados con las matemáticas y resolver los problemas correspondientes, el 51% de los escolares mexicanos solo pueden realizar el proceso más sencillo en grado de dificultad, la reproducción, sin lograr alcanzar los procesos de conexión y reflexión que son de mayor grado de complejidad. El proceso de conexión involucra ideas y procedimientos matemáticos para la resolución de problemas que ya no pueden definirse como ordinarios, pero que aún incluyen escenarios familiares. Además, involucra la elaboración de modelos para la solución de problemas. El proceso de reflexión implica la solución de problemas complejos y el desarrollo de una aproximación

3 Exámenes de la Calidad y el Logro Educativos (Excale). Instrumento desarrollado por el Instituto Nacional para la Evaluación de la Educación (INEE) y destinado a evaluar al sistema educativo nacional en 2003. 4 Evaluación Nacional del Logro Académico en Centros Escolares (Enlace). Instrumento que proporciona información a estudiantes, docentes y padres de familia acerca del nivel de cada alumno de educación básica, diseñado en 2006. , en el caso partículas para la EMS se aplica desde 2008 y evalúa los dominios de habilidad lectora y matemática de los jóvenes que están por egresar del bachillerato.

matemática original. Para ello los estudiantes deben matematizar o conceptualizar las situaciones. La realidad que refleja la evaluación PISA tiene que ver directamente con la falta del desarrollo del pensamiento reflexivo en los estudiantes mexicanos, esto esta sustentado por lo que establece la OCDE (2005): la necesidad de que los individuos piensen y actúen reflexivamente es fundamental en este marco de competencias. La reflexión involucra no sólo la habilidad de aplicar de forma rutinaria una fórmula o método para confrontar una situación, también la capacidad de adaptarse al cambio, aprender de las experiencias y pensar y actuar con actitud crítica. […] El pensamiento reflexivo es considerado el corazón de las competencias, en el sentido que articula los conocimientos, habilidades y actitudes para lograr formas de pensamiento avanzado. 2.

DESCRIPCIÓN DEL PROBLEMA

El enfoque por resolución de problemas, introducido en los planes y programas de estudio de las matemáticas en la Reforma Curricular de 1993 y profundizado en la Reforma de Secundaria de 2006, así como la Reforma Integral para la Educación Media Superior, plantea que el aprendizaje de las matemáticas debe permitir a los alumnos desarrollar una forma de pensamiento que les permita resolver problemas que se presentan en diversos contextos, las evaluaciones ponen de manifiesto el predominio de una enseñanza memorística, en la que la aplicación mecánica de las fórmulas o algoritmos parece un fin en sí mismo (SEMS-SEP, 2008). La enseñanza de la geometría, en particular, es una de las áreas de las matemáticas en las que hay más puntos de desencuentro entre matemáticos y educadores, no sólo en relación con sus propósitos y contenidos sino también con la manera de enseñarla. Muchos profesores identifican a la geometría, principalmente, con temas como perímetros, superficies y volúmenes, limitándola sólo a las cuestiones métricas; para otros docentes, la principal preocupación es dar a conocer a los alumnos las figuras o relaciones geométricas con dibujos, su nombre y su definición, reduciendo las clases a una especie de glosario geométrico ilustrado. Los estudiantes, por su parte, asocian esta visión con el estudio de la geometría, basando su aprendizaje en la memorización de fórmulas y propiedades, y donde el factor “profesor o profesora” son componentes que influyen considerablemente en el proceso de enseñanza aprendizaje (Gamboa & Ballesteros, 2010).

5

En México, la aplicación de PISA está a cargo del INEE y se hace con una muestra ampliada que permite el análisis por entidad.

177


Como docente debemos cambiar esta visión, es necesario centrarnos en facilitar los procesos de visualización y justificación, que le permitan el estudiantado “construir su propio conocimiento” y valorar esta disciplina no como un “producto” ya acabado, sino como un campo de descubrimiento y una herramienta para comprender el mundo circundante, para esto es necesario desarrollar una forma de pensamiento superior, el pensamiento reflexivo. Lo anterior nos lleva a concluir que el aspecto formativo de la enseñanza de la geometría es tan relevante como el aspecto informativo, es decir, los procesos de pensamiento que los alumnos desarrollan con un adecuado tratamiento de la geometría en clase son tan importantes como el aprendizaje de los contenidos geométricos. 3.

FUNDAMENTACIÓN TEÓRICA

El pensamiento reflexivo no es algo nuevo, John Dewey, filósofo norteamericano, ya lo refiere en sus trabajos en 1910: “How we Think”, donde considera el pensamiento reflexivo como función principal de la inteligencia y como instrumento usado por los hombres en la superación de los problemas prácticos de la vida en todas sus dimensiones, también afirma que el pensamiento reflexivo consiste en darle vueltas a un tema en la cabeza y tomárselo en serio con todas sus consecuencias. Para Dewey (1989), el pensamiento reflexivo (acción reflexiva) es una corriente de ideas que surgen unas de otras y se apoyan mutuamente, de modo que acaba produciéndose un movimiento sostenido y dirigido hacia un fin común. Este fin común es una conclusión válida o sólida, una meta que se debe conseguir, y esta meta impone una tarea que controle la secuencia de ideas. De tal manera que lo que constituye el pensamiento reflexivo es el examen activo, persistente y cuidadoso de toda creencia o supuesta forma de conocimiento a la luz de los fundamentos que la sostienen y a las conclusiones a las que tiende. El pensamiento reflexivo es lógico, en la medida en que el proceso real de pensar es verdaderamente reflexivo, está alerta, es cuidadoso, riguroso, definido y preciso y sigue un curso ordenado. Dewey (1989) determina que la reflexión surge cuando comenzamos a preguntarnos por la veracidad, por el valor de una indicación cualquiera; cuando tratamos de probar su autenticidad y de ver que garantías hay de que los datos existentes señalen realmente la idea sugerida, de modo tal que justifique la aceptación de esta última, y precisa que el factor capital de todo pensamiento reflexivo es la función de significar. En consecuencia, sistematiza en cinco fases el proceso de reflexión o aspectos del pensamiento reflexivo:

178

1. 2. 3. 4. 5.

Tentativa de interpretación a través de la observación de las condiciones presentes y experiencia previa. Intelectualización de la dificultad en un problema que hay que resolver. Uso de una sugerencia tras otra como idea conductora o hipótesis. La elaboración racional de la idea o suposición. Comprobación de la hipótesis mediante la acción real o imaginada.

En su experiencia, Soriano (1996) establece que existe un paralelismo entre las fases del pensamiento reflexivo de Dewey con las fases que considera necesarias para pensar reflexivamente desde las matemáticas. Asimismo, converge con Dewey en que el proceso de pensar consiste en formar una serie de criterios relacionados entre sí de tal modo que se sostienen mutuamente y conducen a una conclusión, éste procedimiento coincide con el que se debe llevar a cabo en las matemáticas para adquirir conocimiento de forma significativa, en otras palabras aprender de manera reflexiva. El aprendizaje intelectual incluye la reunión y retención de información. Dewey (1989) afirma que la información es una carga indigesta a menos que se la entienda. Es conocimiento sólo si se comprende el material que la constituye. Y por comprensión se entiende la captación de diversas partes de la información adquirida en sus relaciones recíprocas, resultado que únicamente se logra cuando la adquisición va acompañada de una constante reflexión sobre el significado de lo que se estudia, en resumen la comprensión es fundamental en el proceso de cualquier aprendizaje. En este mismo sentido, Van Hiele en su modelo de enseñanza y aprendizaje de la geometría, puntualiza que para que un estudiante alcance niveles superiores de razonamiento es necesario conseguir, en primer lugar, que los estudiantes adquieran de manera comprensiva los conocimientos básicos necesarios (nuevos conceptos, propiedades, vocabularios, etc.) con los que tendrán que trabajar, para después centrar su actividad en aprender a utilizarlos y combinarlos (Jaime & Gutiérrez, 1990). Por lo tanto, la tarea de todos es formar estudiantes reflexivos desarrollando en ellos la capacidad reflexiva, para esto, Flores (2007) sostiene que parte importante de un pensamiento crítico y reflexivo se puede fomentar mediante el desarrollo de un razonamiento deductivo, el cual, a su vez, está en la base de la demostración matemática. Gamboa (2010) coincide con lo anterior, señalando que la geometría es un instrumento reflexivo. Desde la perspectiva de Castiblanco (citado en Gamboa, 2010), probablemente cualquier situación geométrica, por elemental que sea, permite una amplia gama de posibilidades de exploración, formulación de conjeturas y experimentación de situaciones con la idea de explicar,


probar o demostrar hechos. (…) no hay mejor lugar que la geometría para dilucidar el papel de la prueba y la demostración matemática. En este mismo sentido, Guzmán apunta que la geometría euclidiana es un campo muy fértil para el cultivo de la abstracción, la generalización, la definición, la axiomatización y, ante todo, de la deducción formal a partir de axiomas, por tener una articulación óptima entre lo intuitivo y lo formal, lo concreto y lo abstracto y lo cotidiano y lo académico (Ministerio de Educación Nacional, 2006). Todo lo anterior conduce a establecer un vínculo directo entre el desarrollo del pensamiento reflexivo con el estudio de la geometría y en particular con la geometría euclidiana. Ahora bien, Flores y otros autores (citado en Flores, 2007) concretan que el uso de paquetes computacionales de geometría dinámica es una herramienta para la formación de estudiantes críticos y reflexivo, pues según algunos estudios, este tipo de software propicia el desarrollo de un razonamiento deductivo y un mejor acercamiento a la demostración matemática como vehículo del entendimiento. Los programas de geometría dinámica fomentan un tipo de relación entre el aprendiz y la geometría que explota la visualización, la exploración, la formulación de hipótesis y la verificación computacional (Falsetti, Rodríguez, Carnelli, & Formica, 2007). En el mismo sentido, León (2008) explica que el uso de software de geometría dinámica permite el aprendizaje de la geometría desde una perspectiva activa y desarrolladora, basada en la búsqueda, la experimentación y la exploración. Desde su concepción, un cambio de visión en el tratamiento de la geometría de una forma estática, a una en la que las figuras adquieran movimiento, donde éstas se transformen a partir del movimiento de sus puntos o lados, permite una participación más activa y productiva en los procesos de búsqueda, en la exploración, el planteo de conjeturas para la resolución de situaciones problemáticas, la formulación de hipótesis y la comprobación experimental, todo lo cual tiene una incidencia en el desarrollo del pensamiento reflexivo, crítico y valorativo y con mayores posibilidades de trabajo con conceptos, con relaciones y procedimientos propios de esta área de las matemáticas que tiene una estructura lógica muy fuerte. También, agrega que explorar las relaciones geométricas de manera dinámica propicia ver cambios en las figuras o construcciones geométricas a medida que se manipula, además permite cometer ciertos errores, los cuales en alguna medida contribuyen a la toma de conciencia de la forma en que se razona para alcanzar la meta establecida, por ejemplo, en la comprensión de los conceptos geométricos y de sus propiedades.

La principal ventaja del uso de software de geometría dinámico sobre los materiales didácticos tradicionales (tanto estáticos, como dinámicos) es la facilidad y rapidez con que los estudiantes pueden transformar las construcciones hechas en la pantalla, realizar mediciones y disponer de un gran número de ejemplos tan variados como quieran. Esto da a los estudiantes la posibilidad de realizar experimentaciones que les permitan plantear y verificar conjeturas o encontrar propiedades matemáticas no evidentes con las que abordar la resolución del problema planteado (Gutiérrez, 2005). 4.

HIPÓTESIS

Para la OCDE, el pensamiento reflexivo es la base fundamental para el desarrollo de la competencia matemática debido a que su función es articular los diferentes razonamientos, procesos, conocimientos y habilidades involucrados en toda actividad matemática. De lo anterior, surge nuestra tesis: El pensamiento reflexivo provee al estudiante de geometría euclidiana la capacidad de entender, comprender y articular los conceptos matemáticos propios de la geometría euclidiana, así como las propiedades que éstos poseen y relacionarlas que guardan entre sí, apoyado en un software de geometría dinámica. 5.

MODELO PROPUESTO

El modelo propuesto se fundamenta en el proceso de reflexión de Dewey enfocado al aprendizaje de la geometría, para esto se articularon las fases del proceso de reflexión con procesos de razonamiento involucrados en el aprendizaje de la geometría: 1.

2.

Tentativa de interpretación a través de la observación de las condiciones presentes y experiencia previa. Esta fase, enfocada al aprendizaje de la geometría tiene que ver con la visualización interna (percibir con comprensión) y externa (lenguaje, símbolos y figuras), estas implican leer, comprender e interpretar las representaciones visuales y el vocabulario geométrico, identificar las figuras y sus propiedades por asociación con conocimientos previos. Intelectualización de la dificultad en un problema que hay que resolver. Esta fase involucra relacionar el significado6 de los objetos de estudio conocidos y

6 En el sentido que da Dewey a la palabra significar: cuando se conoce con autenticidad los datos existentes y éstos realmente corresponden a la idea sugerida.

179


3.

4.

5.

6.

comprender la situación problemática a la que se ha sido enfrentado. Uso de una sugerencia tras otra como idea conductora o hipótesis. Junto con el conocimiento de las condiciones que constituyen los hechos u objetos con los que hay que enfrentarse, surgen las sugerencias7, conjeturas de posibles modos de acción (usando métodos y técnicas de solución), para lo cual, esta fase implica principalmente inferir, deducir, explorar, descubrir, comparar y manipular los objetos geométricos involucrados en la situación, a fin de observar relaciones (no explícitas) entre ellos a partir de sus definiciones y propiedades. También, se hace uso del análisis y síntesis de los datos con el objetivo de establecer un camino a la solución. La elaboración racional de la idea o suposición. Para llegar a una hipótesis, es necesario una secuencialidad, continuidad u ordenamiento de las sugerencias o ideas con coherencia lógica (dimensión lógica del pensamiento reflexivo). En esta fase se da el encadenamiento de ideas, propio del pensamiento reflexivo, donde no se trata de una secuencia sino de una consecuencia de ideas, se trata de desarrollar una relación de ideas entre sí, donde una idea sustenta y esta sustentada en otra, partiendo de definiciones y concepciones simples hasta llegar a estructurar un argumento lógico que aclare la situación problemática respondiendo a las condiciones iniciales. Comprobación de la hipótesis mediante la acción real o imaginada. La fase final es la comprobación por la acción manifiesta para dar una corroboración experimental o teórica, a la idea conjetural. En esta fase, se comprueba que los resultados experimentales (basados en el uso del software de geometría dinámica) coincidan con los resultados teóricos para poder establecer una conclusión, dependiendo del rigor que se solicite. CARACTERÍSTICAS DE LAS ACTIVIDADES

Tomando en cuenta los resultados de varios investigadores en la enseñanza y el aprendizaje de la geometría, las actividades propuestas estarán dirigidas a: •

Colocar al alumno en situación de participar activamente en la construcción de sus propios conceptos, de los diferentes objetos matemáticos relacionados con la geometría euclidiana (Gutiérrez, 2004).

7 La cantidad de ideas o sugerencias que genere el estudiante dependerá mucho de las experiencias con que cuenten, es decir, se dispondrá de mayor número de sugerencias entre más experiencias con los objetos de estudio haya tenido previamente.

180

Fomentar una actividad matemática viva, variada, dinámica, exploratoria en cuya práctica se desarrollen las capacidades de buscar soluciones en lugar de memorizar procedimientos, comprender definiciones, teoremas, propiedades y sus relaciones en lugar de memorizarlos, formular conjeturas en vez de realizar simples ejercicios de aplicación (Falsetti, Rodríguez, Carnelli, & Formica, 2007). Evitar una introducción rigurosamente sostenida en una geometría axiomática, estableciendo una base de operaciones a través de unos cuantos principios intuitivamente obvios sobre los que se puedan levantar desarrollos locales interesantes de la geometría euclidiana (Guzmán, 1993), de tal manera que el estudiante sienta el placer de ir descubriendo por sí mismo las relaciones geométricas que existen entre diferentes objetos geométricos. Considerar el vínculo entre la visualización, la experimentación, el razonamiento lógico y la argumentación (Ojeda, Medina, & Peralta, 2003) (Abrate, Delgado, & Pochulu, 2006).

7. COMENTARIOS A MANERA DE CONCLUSIÓN El modelo que se propone trata de armonizar dos componentes, el pensamiento reflexivo y el pensamiento espacial, entendiendo el pensamiento espacial como el conjunto de los procesos cognitivos mediante los cuales se construyen y se manipulan las representaciones mentales de los objetos del espacio, las relaciones entre ellos, sus transformaciones, y sus diversas traducciones o representaciones materiales (Ministerio de Educación Nacional, 2006). El modelo aquí propuesto no pretende ser una panacea en la solución de todos los problemas involucrados en el aprendizaje de la geometría, como tampoco que los alumnos comprendan y aprendan geometría euclidiana sin ningún esfuerzo. Lo que pretende ser es un método que proporcione mejores resultados que otras formas de trabajo, ofreciendo una alternativa donde los alumnos son llevados a razonar lo que están haciendo, a comprender el significado y la utilidad de la geometría euclidiana y que lleguen a ser capaces de resolver problemas de los ya conocidos dejando a un lado la memorización estéril de definiciones, propiedades y sus relaciones. Finalmente, en este documento ha quedado sustentado que el pensamiento reflexivo desarrolla en el alumno las habilidades necesarias para generar nuevos conocimientos, así como la capacidad de poner en práctica lo que conoce, esto es, la capacidad para utilizar el conocimiento que ha construido, y que en la actualidad, aparece como principal indicador por el que


se mide la calidad de los resultados del aprendizaje. También, que el pensamiento reflexivo aplicado a la actuación y al aprendizaje de la geometría euclidiana posibilita el avance hacia mejores niveles de desempeño. 8.

REFERENCIAS

Abrate, R., Delgado, G., & Pochulu, M. (2006). Caracterización de las actividades de geometría que proponen los textos de matemáticas. Revista Iberoamericana de Educación, 39 (1), 1-9. Disponible en http://www.rieoei.org/deloslectores/1290Abrate.pdf Dewey, J. (1989). Cómo Pensamos. La relación entre pensamiento reflexivo y proceso educativo. (M. A. Galmarini, Trad.) Barcelona, España: Paidós Ibérica, S. A. Falsetti, M., Rodríguez, M., Carnelli, G., & Formica, F. (2007). Perspectiva integrada de la Educación y el Aprendizaje de la Matemática: una mirada a la Educación Matemática. UNION, Revista Iberoamericana de Educación Matemática (9), 165-186. Disponible en http://dialnet.unirioja.es/servlet/articulo?codigo=2218708 Flores, Á. H. (2007). Esquemas de argumentación en profesores de matemáticas del bachillerato. Educación Matemática, 19 (001), 63-98. Disponible en http://www.redalyc.org/pdf/405/40516671002.pdf Gamboa, R., & Ballesteros, E. (2010). La enseñanza y aprendizaje de la geometría en secundaria, la perspectiva de los estudiantes. Revista electrónica EDUCARE, 14 (2), 125-142. Disponible en http://www.revistas.una.ac.cr/index.php/EDUCARE/issu e/view/157 Gutiérrez, Á. (2005). Aspectos metodológicos de la investigación sobre el aprendizaje de la demostración mediante exploraciones con software de Geometría dinámica. En A. Maz, B. Gómez, & M. Torralbo (Edits.), Noveno Simposio de la Sociedad Española de Educación Matemática (págs. 27-44). Córdoba, España. Disponible en http://www.uv.es/gutierre/textos.html Gutiérrez, Á. (2004). Reflexiones sobre la enseñanza de la geometría euclidiana en secundaria. Yupana (01), 1126. Disponible en http://www.uv.es/gutierre/textos.html Guzmán, M. d. (1993). Tendencias innovadoras en educación matemática. En Enseñanza de las ciencias y las matemáticas. Tendencias e Innovaciones. OEI. Disponible en http://www.oei.es/edumat.htm

INEE. (2010). México en Pisa 2009. México. Disponible en http://www.inee.edu.mx/index.php/publicaciones/informe s-institucionales/estudios-internacionales/74publicaciones/estudios-internacionales-capitulos/496mexico-en-pisa-2009 Jaime, A., & Gutiérrez, Á. (1990). Una propuesta de fundamentación para la enseñanza de la geometría: El modelo de Van Hiele. En M. V. Sánchez, M. V. Sánchez, & S. Linares (Edits.), Teoría y práctica en educación matemática (págs. 295-384). Sevilla:Alfar. Disponible en http://www.uv.es/gutierre/textos.html León, T. (2008). Concepción didáctica para la enseñanza y el aprendizaje de la geometría con un enfoque dinámico en la educación primaria. Tesis doctoral, Instituto Central de Ciencias Pedagógicas, La Habana. Disponible en http://revistas.mes.edu.cu/greenstone/collect/repo/import/ repo/20080814/9789591607751.pdf Ministerio de Educación Nacional. (2006). Estándares básicos de competencias en matemáticas. Enlace Editores Ltda. Bogotá. OCDE. (2005). La Definición y Selección de Competencias Clave: Resumen Ejecutivo. Paris, Francia. Ojeda, B., Medina, B., & Peralta, D. (2003). Cómo justificar en matemáticas. Xictli de la Unidad UPN 094 (52). Disponible en http://www.unidad094.upn.mx/revista/52/06.html SEMS-SEP. (Enero de 2008). Competencias Genéricas y el Perfil del Egresado en la Educación Media Superior. México. SEMS-SEP. (Enero de 2008). Competencias Genéricas y el Perfil del Egresado en la Educación Media Superior. México. SEMS-SEP. (Enero de 2008). Reforma Integral de la Educación Media Superior en México. La creación de un Sistema Nacional de Bachillerato en un marco de diversidad. México. Soriano, E. (Noviembre de 1996). Enseñar a pensar al alumnado del primer ciclo de primaria a través de la matemática. SUMA (23), 7-20. Disponible en http://dialnet.unirioja.es/servlet/articulo?codigo=152359 Vidal, R. (2009). ¿Enlace, Exani, Escale o PISA? México. Disponible en http://www.educacionyculturaaz.com/wpcontent/uploads/2013/01/Enlace_Exani_Excali_Pisa.pdf

181


Ejemplos didácticos de las matemáticas en el área de la Química Didactic examples of mathematics in chemistry careers M. González Leal1,2, O. Cornejo Pérez1. 1Facultad de Ingeniería. 2Facultad de Química, Universidad Autónoma de Querétaro. E-mail: maricelagl@hotmail.com, octavio.cornejo@uaq.mx RESUMEN. En instituciones de nivel superior existe un problema con su planta docente, ya que los profesores no han llevado una preparación en cuanto a la docencia, son expertos en sus áreas pero no están preparados para enseñarla eficaz y adecuadamente. En el caso de las matemáticas, son pocos los alumnos que las entienden y las quieren en su currículum. Existen grandes dificultades para lograr conectar el trabajo educativo con un interés intrínseco de los estudiantes respecto al saber matemático, incluso los maestros reconocen que en ocasiones es difícil identificar este interés. Algunos estudiantes en ocasiones expresan un rechazo abierto hacia este campo del saber y comentan su decisión por estudiar una carrera donde no incluyan las matemáticas, pero esto es un error porque en todas las áreas están presentes las matemáticas. Por lo tanto, es importante la actitud del profesor y la forma de impartirla para hacer que los alumnos tengan ese gusto por las materias de esta área. Aquí se presentan algunas recomendaciones didácticas de las matemáticas para las carreras de Química y algunos ejemplos de aplicación con su respectiva relación Química-Matemáticas para que así los alumnos vean estas materias como algo útil en su vida profesional y no como algo que les limite su formación. En el área de Química, las materias de matemáticas que se imparten son: Álgebra, Cálculo Diferencial e Integral, Ecuaciones Diferenciales, Estadística, Diseño de Experimentos y en algunas también está la Quimiometría. Aquí se presentan ejemplos de aplicación de álgebra, cálculo diferencial e integral en resolución de problemas químicos SUMMARY. In higher education institutions there is a problem with the teaching staff, many teachers have failed their preparation for teaching, they are experts in their area of work but are not prepared to teach effectively and appropriately. In the case of mathematics, there are a few students who understand and want mathematics in their curricula. There are great difficulties to connect the educational work with an intrinsic interest of students on mathematical knowledge, even the teachers acknowledge that sometimes it is difficult to identify such interest. Some students occasionally express an open rejection to this field of knowledge and comment their decision to study a career where mathematics are not included, but this is a mistake because in all areas the mathematics are present. Therefore, it is important the teacher's attitude and his/her teaching strategies to make the students to have a good acceptance of the subjects of this area. Here we present some recommendations for teaching mathematics in chemistry careers and some examples with application and the respective relation between Chemistry and Mathematics, so the students can see the mathematics subjects as useful in their professional life and not something that restricts their training. In careers of Chemistry, the main mathematics courses taught are: Algebra, Differential and Integral Calculus, Differential Equations, Statistics, Design of Experiments and in some careers also Chemometrics. Some examples of application of algebra, differential and integral calculus in resolution of chemical problems are presented.

Palabras clave: Quimiometría, didáctica matemática, modelos de enseñanza

I. INTRODUCCIÓN Las instituciones de educación superior enfrentan, a diferencia de las de educación básica, un problema de raíz en relación con su planta docente mientras que los profesores del nivel básico tuvieron que realizar, durante cuatro o cinco años, estudios que los formaran como profesores en las escuelas Normales, en el nivel superior se reclutan continuamente como docentes a pasantes o egresados de diversas licenciaturas: Ingenieros, médicos, sociólogos, químicos, antropólogos, biólogos, administradores, etc, sin ninguna formación específica para ejercer la docencia, es decir, que los formaran como profesores. Esta situación específica tiene su origen en el convencimiento de que, para poder enseñar química, hay que ser químico; para enseñar leyes, hay que ser

182

licenciado en derecho, etc. Es decir, que lo que se necesita para ejercer la docencia es ser experto en el área o materia que se va a impartir. El ser experto en el área o materia que se imparte es, evidentemente, una condición necesaria para ser buen profesor, pero de ninguna manera es una condición suficiente. Es decir, el dominio de la materia, aunque necesario, no certifica por sí mismo que uno la pueda enseñar eficaz y adecuadamente. Esta verdad la expresan muy acertadamente los estudiantes cuando afirman de un profesor que “sabe mucho, pero no sabe cómo enseñar”. Mientras que ser experto en un área remite a que uno fue capaz de aprender sobre el tema, el ser profesor implica que uno sea capaz de enseñar esa materia o, más profundamente, que uno sea capaz de propiciar que sus alumnos aprendan lo que uno ya aprendió o conoce bien.


El aprendizaje y la enseñanza: dos procesos diferentes que, al hablar de la docencia institucionalizada, se trata de integrar en uno solo: el proceso de enseñanzaaprendizaje. Con el fin de superar esta situación, la mayoría de las instituciones de educación superior, tanto públicas como privadas, han desarrollado programas de formación docente, los cuales tienen como objetivo subsanar este problema y propiciar “sobre la marcha” la formación y/o actualización de tipo didáctico-pedagógica que requieren sus profesores (Zarzar, 2006) Es necesario promover formas de transmisión que en ocasiones llegan a privilegiar las técnicas para la resolución de problemas sobre el desarrollo del pensamiento matemático y en última instancia a una cuestión de exámenes. El desarrollo del pensamiento matemático juega un papel importante en el proceso de formación de un sujeto. El saber matemático opera como puerta de acceso a una serie de conocimientos actuales derivados de la evolución científica y tecnológica. Aunque no constituye toda la posibilidad del conocimiento, pero sí ocupa un lugar importante (Ontiveros, 1994). En general, cuando se enseña Matemáticas como asignatura, y en particular en las carreras químicas (Ingeniería Química, Ingeniería de Alimentos, Química, Bioquímica Clínica y Química Farmacéutica) la motivación con aplicaciones reales, originadas en problemas reales es un elemento fundamental (Martínez, 2001). Muchos estudiantes parecen víctimas de las “nuevas matemáticas”. Aunque son capaces de efectuar el razonamiento cuantitativo, tienen lastimosas deficiencias en las técnicas básicas de las matemáticas. Un estudiante que puede expresar los principios del equilibrio químico en términos de una ecuación algebraica es incapaz de resolver esa ecuación para llegar a una respuesta numérica. Así mismo, a un estudiante que no tiene dificultad en explicar lo que es un logaritmo puede resultarle totalmente desconocido el empleo de una tabla de logaritmos (Amaya y Prado, 2011; Fuhrmann y Zachmann, 1978). Para lograr crear el ambiente adecuado en el aula que permita la exploración sobre los problemas que desencadenen la actividad matemática, es necesario practicar una estrategia de enseñanza-aprendizaje que promueva la adquisición de un aprendizaje significativo, además de desarrollar en el alumno la habilidad para trabajar en equipo, así como la capacidad de aprender a aprender (Salinas y Col, 2004). El conocimiento es construido por el sujeto usando sus propios instrumentos de asimilación de la realidad, los cuales provienen de la actividad constructiva de su inteligencia y evoluciona hacia estructuras de conocimiento más válidas pero no transmisibles por la enseñanza (Amaya y Prado, 2011). El profesor utiliza las estrategias de aprendizaje en el aula según el desarrollo del propio trabajo y con un contenido específico del curso, en el que las habilidades se ligan a un contexto académico, y se integra su metodología de

enseñanza. El profesor presenta el contenido y la habilidad cognitiva en el salón de clases y el alumno adquiere ambos elementos en forma simultánea en el proceso de aprendizaje. Otro enfoque es el de personalización de estrategias del aprendizaje y la transferencia de las mismas y esto significa aprender algo en una situación y aplicarlo después en otra diferente. Sin embargo, lograr esta meta es difícil. Los estudiantes están acostumbrados a adquirir conocimientos rígidos que sólo aprenden a aplicar y a transferir a situaciones idénticas de las que aprendieron. El resultado de esto se debe al proceso de aprendizaje utilizado: el mecánico y repetitivo. La transferencia de estrategias exige mucha práctica, guiada primero e independientemente después, con contenidos semejantes y diferentes, hasta conseguir experiencias múltiples en distintas situaciones (Amaya y Prado, 2011). Considerando esta situación, la recomendación de la docencia de las Matemáticas en el área de la Química es utilizar ejemplos de aplicación en ambas áreas y aquí se tratan algunos de éstos II EJEMPLOS DE QUÍMICA EN LAS CLASES DE MATEMÁTICAS Algunos de estos ejemplos son aplicaciones de la Quimiometría, que es la materia que relaciona la Química con las Matemáticas II.1.Algebra Un ejemplo muy básico de Química en la materia de Algebra es el balanceo de reacciones. Este es un ejemplo adecuado pues tanto el álgebra como el balanceo de reacciones químicas son temas desde el primer semestre y de los que más se aplican durante toda la carrera y la vida profesional. Aunque también hay aplicaciones de álgebra para temas de Química más avanzados y todo siempre se aplica en diferentes situaciones. Hay diferentes métodos de balanceo de reacciones químicas: por tanteo, redox y algebraico. Este último se aplica en los casos en que las reacciones contienen fórmulas donde es difícil determinar los números de oxidación, también en reacciones que no son redox y en las que son demasiado largas para hacer tanteos. El método algebraico aplica un sistema de ecuaciones a resolver y es aquí donde se emplea el álgebra. Aquí un ejemplo para explicar este método y, principalmente, para que los alumnos vean la aplicación de Álgebra en la Química. Como primer paso se asigna a cada compuesto (en reactivos y productos) una variable (a, b, c, d, etc): KHSO3 + S  K2S3O6 + K2S2O3 + H2O a b c d e

183


Como segundo paso se establecen las igualdades en función de cada elemento, anotando a cada lado de la igualdad la cantidad de cada elemento en cada compuesto: K H S O

a = 2c + 2d a = 2e a + b = 3c + 2d 3a = 6c + 3d + e

(1) (2) (3) (4)

El siguiente paso es resolver las 4 ecuaciones algebraicas como un sistema de ecuaciones lineales que puede resolverse por los diferentes métodos como, por ejemplo, sustitución o en algunos casos las m ecuaciones con n incógnitas se pueden resolver por eliminación de GaussJordan o también podría utilizarse el método de determinantes para conocer el valor de las incógnitas involucradas. Cuando no se puede resolver, se puede dar un valor arbitrario a una de las variables y a partir de éste calcular los valores de las otras variables al sustituir en las ecuaciones, todos los valores deben ser enteros y si alguno es fracción, se multiplican todos por un factor adecuado para que se tengan números enteros y con esto ya se tiene balanceada la reacción que, en este caso sería: 6KHSO3 + 2S  2K2S3O6 + K2S2O3 + 3H2O

Puede haber casos en que los valores si sean enteros pero números múltiplos, éstos se pueden reducir a su mínima expresión. Por ejemplo, podría haberse obtenido los valores a= 12, b= 4, c= 4, d=2 y e= 6, todos son divisibles por 2 y se reducen, obteniendo los siguientes valores: a= 6, b= 2, c= 2, d=1 y e= 3 (Trejo, 1983; Grossman, 2001). Otra aplicación muy básica tanto en Algebra como en Química es en el tema de exponentes y logaritmos. La aplicación de los logaritmos en algo básico de Química es en el cálculo del pH a partir de la concentración de los iones H+, pH = - log   , o también calcular la concentración de los iones   a partir del pH y esto se logra al despejar    = 10 . En temas intermedios de Química está el Equilibrio Químico y en éste son de gran aplicación los cálculos con una expresión logarítmica o exponencial. Para la reacción general:            El cambio de energía libre viene dado por: ∆ = ∆ + nRT ln Q,

donde

Q=

   …. 

  ….  

(5)

donde a es el coeficiente de actividad de cada uno de los compuestos que participan en la reacción. Este coeficiente de actividad está directamente relacionado con la concentración del compuesto en solución (Gordus,

184

1987). Al hacer cálculos de la constante Q ó de la Energía libre ∆ a partir de la concentración o viceversa, se hace uso de cálculos algebraicos entre ecuaciones exponenciales y logarítmicas. En el cálculo de pH de ácidos débiles monopróticos, se utilizan funciones de varias variables y solución numérica de ecuaciones algebraicas. Los ácidos débiles monopróticos y sus sales son ampliamente utilizados en Química Analítica y determinar el pH de una solución que contiene estos compuestos químicos es un problema laborioso. En efecto, se trata de hallar raíces de ecuaciones polinómicas de grado superior a dos y que, además, poseen parámetros que ofrecen un amplio grado de variación. Una posibilidad interesante, sobre todo desde el punto de vista didáctico es tratar de obtener un modelo tridimensional que ilustre claramente la variación con respecto a los parámetros (Martínez, 2001). Un ejemplo común de ácido débil monoprótico es el ácido acético, HOAc, y para calcular el pH es necesario conocer la concentración del ion    y para esto es necesario hacer cálculo de concentraciones al equilibrio con la Ecuación (6) HOAc    +   (X) (X) ( – X)  =

      





(6)

donde se conocen los valores de Ka y de  , y al resolver la ecuación se conocerá el valor de X y, con esto, se tendrá el valor de    para calcular el pH (Rubinson, 2000). En temas más avanzados de Química se puede utilizar la Quimiometría. Se tiene por ejemplo, en los cursos prácticos de Análisis Químicos en los que se analiza contenido de cierto analito y una aplicación práctica es la Espectrometría Ultravioleta-visible (UV-vis) para el análisis cuantitativo de un analito que está solo o en mezclas. La espectrometría UV-Vis se utiliza con mayor frecuencia en forma cuantitativa para determinar las concentraciones de especies absorbentes en solución, usando la Ley de Beer-Lambert: En este análisis, se registra el espectro de un compuesto marcando la longitud de onda de máxima absorción (Figura 1) y a esta longitud de onda, , se toma la lectura de Absorbancia, A, de la solución y, conociendo el coeficiente de absortividad molar, , se puede calcular la concentración aplicando la Ley de Beer-Lambert (o Ley de Beer): A = bC, donde b es el recorrido en cm de la radiación a través de la muestra (1 cm), y C es la concentración molar [mol/L] de la solución. Para análisis cuantitativos se recomienda elaborar curvas de calibración, las cuales se construyen al trabajar con


soluciones de concentración conocida y se grafica concentración vs. señal analítica (Figura 2) que, en este caso, es Absorbancia y se obtiene una recta cuya ecuación es:

0.800

(7)

donde A es la señal analítica (Absorbancia) y C es la concentración, m es la pendiente de la recta y e es el intercepto de la calibración lineal. Y después, la solución de concentración desconocida se prepara, se toma la lectura de absorbancia y se sustituye en la Ecuación (7) para conocer la concentración del analito. Todo esto se trabaja con la longitud de onda de máxima absorción del analito de interés.

Absorbancia

A = mC + e

1.000

0.600

0.400

0.200

0.000 1.000

0.0

2.0

4.0

6.0

8.0

10.0

Concentración (ppm) 524 nm

Figura 2. Curva de calibración de un analito (A vs C). (Fuente: González, 2000).

0.800

A b s o 0.600 r b a n c 0.400 i a

Un método quimiométrico para la resolución de mezclas binarias con espectros de absorción solapados, es el método de calibración bivariante, cuyo algoritmo es el siguiente:

0.200

AAB = εAbCA + εBbCB 0.000 400

440

480

520

560

600

Longitud de onda (nm)

Figura 1. Espectro de absorción de un compuesto cuya longitud de onda de máxima absorción es de 524 nm (fuente: González, 2000) Cuando se tienen analitos en mezcla y se deben cuantificar, se puede utilizar este caso pero si ambos coinciden en una zona de longitud de onda, no se puede cuantificar directamente uno cuando hay presencia de otro compuesto, ya que se tiene una interferencia y el resultado no sería confiable. En la Figura 3 se tiene uno de estos casos y los espectros están solapados y uno hace interferencia al cuantificar el otro. En este caso, si se traza una línea vertical a la longitud de onda de 440 nm, se tiene lectura de Absorbancia para el compuesto de línea contínua pero también cruza la línea punteada dando lectura para el otro analito, con lo cual uno hace interferencia en la cuantificación del otro ya que los espectros están solapados y en este caso se utiliza la Quimiometría para resolver la mezcla.

(8)

donde AAB es el valor de la absorbancia de la mezcla AB a cierta longitud de onda, εA, εB son los coeficientes de absorción molar de los componentes A y B a la misma longitud de onda. CA y CB son las concentraciones molares de ambos componentes, y b es la longitud de la celda. Sin embargo, en condiciones reales, cuando las respuestas individuales AA y AB están afectadas por los errores analíticos y de medida, las ecuaciones que rigen a las curvas de calibración para cada componente a una longitud de onda seleccionada (λi, i=1, 2,…, n), son: AAi = mAi CA + eAi ABi = mBi CB + eBi

(9) (10)

donde mAi y mBi son los valores de las pendientes de la curva respectiva. CA, CB son las concentraciones de ambos componentes y eAi, eBi son los valores de los interceptos, los cuales reflejan las diferencias entre el sistema modelo y el sistema real. Si las medidas de las mezclas binarias son desarrolladas a dos longitudes de onda seleccionadas, λ1 y λ2, se tienen dos ecuaciones: AAB1 = mA1 CA + mB1 CB + eAB1

(11)

AAB2 = mA2 CA + mB2 CB + eAB2

(12)

185


donde, eAB1 y eAB2 son la suma de los interceptos de la calibración lineal a las dos longitudes de onda (eABi = eAi+ eBi). Al resolver estas dos ecuaciones con dos incógnitas, se pueden conocer los valores de CA y CB a través de las expresiones siguientes: CB = [mA2(AAB1 - eAB1) + mA1 (eAB2 - AAB2)]/(mA2mB1 (13) mA1mB2) (14) CA = [AAB1 - eAB1 - mB1CB]/mA1

0.800

Amarillo 5 Rojo 40

508 nm

Absorbancia

II.2 Cálculo Diferencial

440 nm

0.600

0.400

0.200

0.000 400

500

600

Longitud de onda (nm)

Figura 3. Espectros de dos compuestos cuyas longitudes de onda de máxima absorción son 440 y 508 nm. (fuente: González, 2000) Este algoritmo matemático simple permite la resolución de mezclas binarias midiendo la Absorbancia de la mezcla a dos longitudes de onda seleccionadas y utilizando los parámetros de las funciones de regresión lineal evaluados individualmente para cada componente a estas mismas longitudes de onda. En este procedimiento, la situación determinante para un análisis exacto de la mezcla es saber cual es el par de longitudes de onda que se deben seleccionar para asegurar la mejor sensibilidad y selectividad de la determinación. Para seleccionar el par de longitudes de onda, se aplica el método de Kaiser. Este consiste en establecer una matriz de sensibilidad, K, para cada mezcla binaria:

(15)

186

donde mA1, mA2, son los parámetros de sensibilidad del componente A en las dos longitudes de onda λ1 y λ2, y mB1, mB2 son estos parámetros para el componente B, a las mismas longitudes de onda anteriores. Como factor de sensibilidad se utilizan las pendientes de la calibración lineal para los componentes a las λi estudiadas. Se resuelven estas matrices y los valores obtenidos se utilizan como el criterio de optimización: El par de longitudes de onda que se selecciona es aquel en el cual se obtiene el valor mas alto de la matriz. Con esto se tiene una aplicación de matemáticas en el área de Química, y poner estos ejemplos sería una buena estrategia didáctica para la clase de Álgebra, lo cual estimula el interés en los alumnos.

Algunos temas de Cálculo Diferencial en los que pueden ser aplicados ejemplos de Química son los siguientes: Funciones y derivadas. En el tema de funciones, un ejemplo puede ser en Estequiometría. Con reacciones químicas balanceadas y con cálculos estequiométricos se puede saber la cantidad a obtener de un producto a partir de una cantidad conocida de un reactivo y como todo es utilizando la relación estequiométrica y los pesos moleculares, se puede establecer una relación de la cantidad de producto a obtener en función de la cantidad de reactivo o se puede calcular la función inversa si se quiere calcular la cantidad necesaria de un reactivo para obtener una cantidad fija de producto. Con esto se puede tener un ejemplo de funciones y sus funciones inversas Para el caso de las derivadas la parte química es la espectrometría de derivadas y éste es otro método quimiométrico para resolver mezclas. Esta técnica permite incrementar considerablemente dos aspectos básicos en cualquier técnica analítica: la sensibilidad y la selectividad; simplificando con ello notablemente la metodología analítica (química) para muchos problemas, pues permite su resolución de forma directa, esto es, sin tener que efectuar previamente separaciones químicas complicadas de los analitos. Consiste en calcular la primera, segunda o derivada de orden superior de la absorbancia respecto a la longitud de onda. La diferenciación de espectros de absorción presenta considerables ventajas para la espectrometría en la zona UV-Vis, pues permite extraer información tanto cualitativa como cuantitativa de los espectros. Se da la denominación de espectro derivado a la representación gráfica, en un intervalo dado de longitudes de onda, del cociente diferencial dA/dλ, donde A representa la absorbancia de un espectro normal, y λ la longitud de onda. Se trata de la representación gráfica de la pendiente del espectro normal a cada longitud de onda en el intervalo medido. Una banda de absorción simple


posee dos puntos de inflexión y un máximo de absorción a longitudes de onda características que son independientes de la concentración. Por consiguiente, la función dA/dλ pasa por un máximo y un mínimo en los puntos de inflexión y vale cero en el máximo. La distancia vertical entre el máximo y el mínimo de la derivada se denomina "amplitud" y constituye el parámetro analítico que suele utilizarse para rela relacionarlo de forma lineal con la concentración. La utilización de espectros derivados tiene gran utilidad tanto con fines cualitativos como cuantitativos. Una banda de absorción de un espectro de orden cero, permite la identificación de la sustancia sólo a través de la posición del máximo de absorción como único punto de referencia; máximo que, en bandas de absorción anchas, sólo puede ser fijado de una manera aproximada. Ese punto de referencia único que posee un pico de absorción normal, contrasta con los tres puntos de referencia de un espectro de primera derivada (máximo, mínimo y cruce en abscisas) (Figura 4).. Para una especie absorbente dada, la relación entre los valores de los extremos (máximo y mínimo consecutivos) es una magnitud característica de laa sustancia e independiente de la concentración, disponiendo en consecuencia de más datos para las identificaciones cualitativas. Es posible la representación de derivadas de orden superior de A respecto a λ,, originándose así los espectros de segunda derivada ada y en general, espectros de nn-ésima derivada o de orden "n" (dnA/dλn). Desde el punto de vista cuantitativo, el hecho de que en la derivada del espectro, la señal dA/dλ a cualquier longitud de onda es proporcional a la concentración, n, puede ser ventajosa respecto a la aplicación de la Ley de Beer Beer-Lambert en la espectrometría de absorción directa, principalmente en muestras donde la matriz presenta una absorción neta elevada. La primera derivada se utiliza mucho para la determinación exacta del máximo de absorción, especialmente cuando se trata de picos anchos anchos. Se han empleado diversos métodos con objeto de resolver mezclas. En unos casos se ha propuesto medir a una longitud de onda a la cual no contribuya el compuesto interferente, tal es el caso de la técnica cnica de medida de "zero-crossing" (cruce en cero). Esta técnica de medida utiliza el valor absoluto del espectro derivado del orden que se esté utilizando, a un valor de abscisa correspondiente a una longitud de onda a la que presente valor cero el espect espectro derivado del componente cuya interferencia se desee evitar. Las medidas realizadas a esa longitud de onda en el espectro mezcla serán función solamente de la concentración del componente que se analiza.

Figura 4. Espectro normal y de primera derivada. deriv En la Figura 5, para una mezcla de dos componentes 1 y 2 que se encuentran en concentración C1 y C2, de acuerdo a la propiedad aditivaa de la absorbancia se cumplirá que: A = ε1 C1 + ε2 C2 Si A1

(16)

= ε1 C1 y A2 = ε2 C2

cuando b = 1

(17)

siendo ε1 y ε2 las absortividades molares de las sustancias respectivas. Si se derivan respecto a la longitud de onda, se obtiene la primera derivada del espectro suma:

dε dε dA = C1 ⋅ 1 + C2 ⋅ 2 dλ dλ dλ (18) Es decir, la pendiente de la curva espectral de la mezcla, es la suma de las pendientes individuales de cada componente. Si se opera a una longitud de onda tal que se verifique que dε/dλ = 0, es decir, a la longitud de onda correspondiente al máximo de absorción del componente 1, se podrá determinar la concentración del de componente 2 (Figura 5b). ). En efecto, en este caso se cumplirá que: dA dλ

= C2 ⋅

d ε2 dλ

(19) El único requisito para la determinación, es que las longitudes de onda correspondientes a los máximos de absorción de los dos componentes estén suficientemente diferenciados (Figura 5a). ). Operando a la longitud de onda λ1, la medida de la distancia AB permite determinar la concentración C1 (Figura 5c). ). Un razonamiento análogo, permite determinar la concentración C2, o bien, utilizar la segunda derivada del espectro suma.

187


La exactitud conseguida en la mezcla de componentes, depende de los parámetros siguientes: a) Relación de la altura de la banda que interfiere y de la banda de interés analítico b) lo mismo respecto a la anchura medida. c) Separación entre los máximos de absorción de los componentes. (González, 2000).

que eligió una Σ estilizada como su símbolo para la integral: F(x) =  .

(20)

Un ejemplo Químico para este caso es en la Cromatografía, ya que al trabajar en esta técnica, se obtiene un cromatograma, el cual es el resultado de graficar la respuesta del detector contra el tiempo y puede ser utilizado para información cualitativa y cuantitativa; esto último se aplica en cromatografía de gases y en cromatografía líquida de alta resolución (ver Figura 6) (López y Valadez, 2008). Mediante la cromatografía se separa una determinada mezcla de sustancias (Figura 6a); en el cromatograma (Figura 6b), aparecen 3 picos claramente separados (de una mezcla de 3 sustancias). Una medición de sus perfiles en función del tiempo de elusión suministra los datos que pueden ser útiles para calcular la concentración. Para ésto, se trabaja con concentraciones conocidas para cada componente (A, B, etc) y se calcula el área bajo la curva utilizando la Regla de Simpson: ∆

A =  ∑   + 4  + 2  ) + 4  + (21) 2  ) + … + 4  +  )]

con ∆ 

 

,

(22)

siendo a y b, los valores en tiempo desde el inicio al final (respectivamente) del pico en el cromatograma. Para esto se elabora una tabla de datos (para cada componente) con dos columnas, en la primera es el valor x (tiempo) y en la segunda f(x) respuesta (altura), y se calcula el área bajo la curva utilizando las Ecuaciones (21) y (22), y con esto se tienen datos de área para cada concentración, después se hace lo mismo para la muestra problema y de acuerdo al área obtenida se puede ver a que concentración corresponde y se hace lo mismo para cada componente en la mezcla (Dence, 1978).

Figura 5. Aplicación de la técnica del zero crossing para la obtención de la señal analítica utilizable en la cuantificación. a) Espectros solapados de orden cero. b) Espectros de primera derivada de los dos componentes. c) Espectro de primera derivada de la mezcla de los dos componentes (Fuente: González, 2000).

II.3 Cálculo Integral La derivada es el límite de la razón de dos cantidades pequeñas, la integral es el límite de una suma en la forma que la concibió Leibniz y, de hecho esta es la razón por la

188


Figura 6. a) Separación de una mezcla por cromatografía; b) Cromatograma (los tres componentes separados) (Fuente: López y Valadez, 2008). III. DISCUSIÓN Así como estos ejemplos, existen una gran variedad que pueden aplicarse en las clases de las diferentes áreas de matemáticas en las carreras de Química o relacionadas. Y lo importante no es solo comentarlo sino hacer la aplicación con ejercicios en estos temas, tal vez de los más básicos y en otras materias de los más avanzados. Solo así se desarrollará una buena base de enseñanza a los alumnos al resolver problemas de forma práctica y hacer esta relación Química-Matemáticas. Comunicar, enseñar y/o aprender matemáticas tiene hoy un significado diferente. La fuerza motriz de las

matemáticas se constituye por los problemas, los ejemplos y el contexto. Se considera un buen problema aquel cuya resolución, en vez de limitarse a poner orden en lo que no era sino un callejón sin salida, abre perspectivas totalmente nuevas. La matemática, para su transmisión o socialización, sufre una serie de adecuaciones, ya que de ser un objeto de conocimiento se transforma en objeto de enseñanza. La transformación está mediada por complejos mecanismos ideológicos, sociológicos y epistemológicos que influyen primero en la conformación del currículo y después en su puesta en marcha por el docente. El profesor genera una práctica docente a la que le imprime su sello personal, ya que está signada por sus creencias, saberes, certezas y valores; es decir, por aquellos elementos teórico-experienciales que lo caracterizan como profesor. Su práctica docente adquiere alguno de los modelos siguientes: • La enseñanza tradicional • La enseñanza tecnológica • La enseñanza espontaneísta • La enseñanza centrada en la investigación Los modelos anteriores no son puros en el contexto escolar, sino que el docente transita en ellos. Sin embargo, uno se hace más visible y desde él se establece la relación con la matemática, con el alumno y con el contexto considerando los diversos componentes de la práctica educativa –metodología, sentido de la asignatura, concepción de aprendizaje, papel del alumno, papel del profesor y evaluación- y adquiriendo características específicas en cada una. En la enseñanza tradicional, la actividad en el aula se caracteriza por la repetición ininterrumpida de ejercicios tipo. La exposición es la técnica habitual, uso de libro de texto y el pizarrón. El profesor sigue una programación ya formulada, externa a él y rígida, sin plantearse para qué y sin relaciones entre los contenidos de las unidades programáticas. La asignatura se orienta, exclusivamente, a la adquisición de conceptos y reglas. La finalidad de la asignatura es exclusivamente informativa: dar a conocer a los alumnos un cierto “panorama” matemático que se espera aprendan. El aprendizaje es sinónimo de memorización; esto se logra con la superposición de unidades de información. El alumno no participa ni activa ni pasivamente en el diseño de las actividades de enseñanza. El profesor transmite verbalmente los contenidos de aprendizaje. La enseñanza tecnológica trata más de la docencia por medio de la tecnología y la espontaneísta de la práctica docente de forma espontánea, por lo tanto se pasa directo a la última en la lista, la enseñanza centrada en la investigación: solución de problemas, se considera mejor ya que los alumnos se enfrentan a situaciones para las que no poseen soluciones dadas. Los objetivos marcan con claridad la dirección educativa, pero están sujetos a cambios debidamente fundamentados. El profesor elabora una propuesta

189


organizativa de los componentes del programa, pero sin una vinculación rígida. El interés se centra en la adquisición de conceptos, procesos y actitudes de la propia materia y el trabajo escolar en general. La matemática escolar tiene su punto de despegue en la etnomatemática y se va adaptando a las necesidades del alumno con la finalidad de dotarlo de instrumentos que le posibiliten un aprendizaje autónomo. Los objetos de aprendizaje, además de significado, cuentan también con la capacidad de ser utilizados en contextos diferentes de los de la escuela, adquiriendo así un carácter móvil a través de una red conceptual. El aprendizaje comienza con la observación de regularidades que permiten construir una conjetura; pero a ésta ha de seguir una comprobación razonable y, en la medida de lo posible, una generalización adecuada. El aprendizaje se produce a través de investigaciones que han sido planificadas por el profesor y la forma de organizar el grupo para operar dicha producción, depende de la actividad a desarrollar. El móvil ideal del aprendizaje es el equilibrio entre los intereses y la estructura mental de los alumnos y los contenidos de la matemática. El alumno participa directa o indirectamente en el diseño didáctico de la actividad docente y para que haya aprendizaje se necesita que el alumno de significado a lo que aprende y tenga conciencia de su proceso de aprendizaje y asi se concientiza sobre lo que hace ante la información que se dinamiza en el aula. El profesor desafía la curiosidad del alumno, conduce la investigación hacia el logro de aprendizajes. Su carácter de experimentador-interactivo del contenido y del método le obliga a analizar los procesos en el contexto del aula (investigación-acción); estos criterios se modifican en función del contexto y del consenso alcanzado con los alumnos, quedando la evaluación poco definida. El profesor trata de medir el grado de implicación del alumno en el quehacer del aula, así como la inclusión significativa de sus conocimientos y la programación de las actividades de aprendizaje permite negociar los contenidos en función de las demandas contextuales. El profesor trata de valorar el grado de implicación del alumno y la significancia y relevancia de sus aprendizajes; para esta valoración del proceso de los alumnos, el profesor utiliza la información obtenida con base en el análisis del cuaderno de clase, sus observaciones sistemáticas, los datos provenientes de los exámenes, trabajos de grupo, etcétera (Ortiz, 2001; D´amore, 2005; Sánchez, 2012). La formación en general se define como la configuración que ha adquirido la personalidad de un individuo, como producto de los aprendizajes significativos que ha logrado a lo largo de su vida (Zarzar, 2006).

IV. CONCLUSIONES La formación integral de cada alumno no depende de un solo profesor, es resultado de la interacción de todos los docentes que colaboran en la instrumentación y aplicación de un plan de estudios a nivel preescolar, primaria, secundaria, bachillerato, profesional y posgrado. Todo profesor adoptará un modelo de práctica educativa en el que se sienta seguro y que responda a su manera de entender su oficio, pero existe la dificultad en la comparación objetiva de dos o más modelos, y también el hecho de que un modelo de enseñanza no existe en estado puro: siempre representa una combinación profesor-modelo. La formación general del estudiante, como producto de los aprendizajes significativos, está relacionada con que la personalidad del individuo se desarrolla de determinada manera, es decir, adquiere determinada forma o configuración. Esta formación integral debe abarcar tres aspectos generales: la adquisición de la información, el desarrollo de capacidades y el desarrollo de la subjetividad. El desarrollo de capacidades incluye las habilidades (parte intelectual) y destrezas (parte física o motora del desarrollo). Una didáctica de matemáticas aplicando ejemplos reales en el área, en este caso Química, les ayuda a construir y fortalecer su aprendizaje, ya que entre los elementos de la formación integral del alumno está la adquisición de información, y ésta se clasifica en conocer, comprender y manejar tal información, y saber manejar la información implica ser capaz de utilizarla, aplicarla y transferirla, lo cual se logra satisfactoriamente solo al relacionar las matemáticas con el área de la Química, y así en cada área y no solo problemas de abstracción matemática en las materias de matemáticas. Solamente así podrá efectivamente desarrollar sus capacidades, a través del modelo de enseñanza centrada en la investigación y un poco del modelo de enseñanza tecnológica debido a que cada vez se está automatizando todo y trabajando mas con y por la tecnología; se recomienda que el modelo de enseñanza tradicional y el de enseñanza espontaneísta no sean los principales modelos sino sólo utilizarlos en ocasiones para explicar las bases del tema, pero en aplicación cambiar a los modelos antes mencionados. V. REFERENCIAS Amaya G. J. y Prado M. E., 2011, Estrategias de aprendizaje para universitarios (un enfoque constructivista), Editorial Trillas, México. D´amore, B., 2005, Bases filosóficas, pedagógicas, espistemológicas y conceptuales de la Didáctica de la Matemática, Editorial Reverté, España.

190


Dence, J. B., 1978, Técnicas matemáticas aplicadas a la Química, Editorial Limusa, México. Fuhrmann J. y Zachmann H., 1978, Ejercicios de matemáticas para químicos, Serie Reverté de problemas, España. González L. M., 2000, “Desarrollo de nuevos métodos analíticos de determinación de colorantes de uso alimentario por espectrofotometría en medios organizados”, Tesis de Doctorado, Universidad de Guanajuato, México. Gordus A. A., 1987, Química Analítica, Serie Schaum, McGraw-Hill, México. Grossman S. I., 2001, Álgebra lineal, McGraw-Hill, México. López H. E. y Valadez V. A., 2008, Análisis Cromatográfico en las Ciencias Agropecuarias, Editorial: Universidad Juárez Autónoma de Tabasco, México. Martínez Lauces V., 2001, Enseñanza de matemáticas en carreras químicas desde un enfoque aplicado y motivador, Revista de didáctica de las matemáticas 45, 43-52. Ontiveros Q. J., 1994, El fracaso en la enseñanza de las matemáticas del bachillerato, Universidad Autónoma de Querétaro, México. Ortiz R. F., 2001, Matemática (estrategias de enseñanza y aprendizaje), Pedagogía dinámica, Editorial Pax, México. Rubinson J. F. y Rubinson K. A., 2000, Química Analítica contemporánea, Pearson Educación, México. Salinas P., Alanís J. A., Pulido R., Santos, F., Escobedo J. C. y Garza J. L., 2004, Elementos del cálculo (Reconstrucción conceptual para el aprendizaje y la enseñanza), Editorial Trillas, México. Sánchez V. M. E, 2012, Estrategias didácticas (para bachillerato y nivel superior), Editorial Trillas, México. Trejo G. M., 1983, El balanceo de las reacciones químicas, Edamex, México. Zarzar C. A., 2006, Habilidades básicas para la docencia. Editorial Patria, México.

191


Síntesis y caracterización de óxidos metálicos mixtos: soportes para catalizadores de oro Synthesis and characterization of mixed metal oxides: support for gold catalysts

A. Moreno Martell, División de Investigación y Posgrado, Facultad de Ingeniería. Universidad Autónoma de Querétaro. ubba_15@yahoo.com.mx

R. Nava Mendoza, División de Investigación y Posgrado, Facultad de Ingeniería. Universidad Autónoma de Querétaro. rufino@uaq.mx

RESUMEN. Se preparó una serie de óxidos metálicos mixtos de Al2O3-CeO2, Al2O3-TiO2, Al2O3-ZrO2 y Al2O3-Fe2O3 mediante el método sol-gel. Técnicas de caracterización tales como Difracción de rayos X (XRD, por sus siglas en ingles), Análisis termogravimétrico (TGA, por sus siglas en ingles) y Espectroscopia por Reflectancia Difusa (DRS, por sus siglas en ingles), fueron empleadas para investigar la estructura de los óxidos metálicos mixtos. Los resultados de XRD mostraron las fases cristalinas de la alúmina (Al2O3) y del otro oxido metálico (CeO2, TiO2, ZrO2, Fe2O3). Las curvas termogravimetricas del TGA mostraron la estabilidad de las fases cristalinas en los óxidos metálicos mixtos. Mientras que en los espectros de Reflectancia Difusa en el rango ultravioleta visibles, se mostró la naturaleza y coordinación de los iones metálicos y las transiciones presentes de los elementos de los soportes catalíticos. Palabras claves: Oxido metálico mixto, catalizadores de oro, método sol-gel. ABSTRACT. A serie of mixed metal oxides of Al2O3-CeO2, Al2O3-TiO2, Al2O3-ZrO2 y Al2O3-Fe2O3 was prepared by the sol-gel method. Characterization techniques, such as X-ray diffraction (XRD), Thermal Analysis (TGA-DTA) and UV-Vis Diffuse Reflectance Spectroscopy were employed to investigate the structure of mixed metal oxides. The XRD results showed the crystallines phases of alumina and another metal oxide (CeO2, TiO2, ZrO2, y Fe2O3). The TGA-DTA curves showed the thermal stability of the crystalline phases in the mixed metal oxides. The DRS results showed the nature and coordination of metal-ions in the mixed metal oxides.

Keywords: mixed metal oxide, gold catalyst, sol-gel method. 1. INTRODUCCIÓN La mayoría de los soportes catalíticos requieren de una alta área superficial y una buena estabilidad térmica. Entre los sólidos potencialmente interesantes, los óxidos metálicos mixtos han recientemente atraído una gran atención debido a su uso potencial como suportes para catalizadores. El interés en los óxidos metálicos mixtos como soportes catalíticos es debido en general a uno de los siguientes factores: (i) Este incrementa sustancialmente la interacción entre la fase activa y el soporte, alterando la actividad y selectividad del sistema (Mercera et al., 1991, Vrinat et al., 1994). (ii) Este posee propiedades químicas las cuales pueden ser de importancia en el comportamiento del sistema catalítico, tales como la habilidad de reducción y oxidación (Mercera et al., 1991).

192

Es bien conocido que el diseño de un sistema catalítico depende no solamente de la naturaleza y estructura de la fase activa, sino que también depende de las características químicas y texturales del soporte. Se ha reportado que la naturaleza del soporte (propiedades físicas y químicas), pueden influir fuertemente en la actividad de los catalizadores de oro resultantes (la actividad catalítica, se puede medir mediante el % de conversión de reactivo), no obstante, la mayoría de los catalizadores no mantienen su actividad catalítica (eficiencia) al mismo nivel por períodos indefinidos, sino que experimentan desactivación, es decir, la actividad catalítica disminuye con el transcurso del tiempo bajo las condiciones de reacción (Moreau y Bond, 2006). Con el propósito de generar alta actividad catalítica, se han investigado varios óxidos metálicos como soportes. La preparación de los óxidos metálicos


mixtos por el método sol-gel (Zhang y Glasser, 1993; Brinker et al., 1986) parece ser la mejor manera de producir soportes que permitan una buena dispersión de las nanopartículas de oro sobre su superficie. En el presente trabajo se sintetizaron una serie de óxidos metálicos mixtos de Al2O3-CeO2, Al2O3-TiO2, Al2O3-ZrO2 y Al2O3-Fe2O3 preparados por el método solgel y se caracterizaron por XRD, TGA y DRS UV-Vis. 2. EXPERIMENTAL 2.1. Preparación de los soportes Cuatro óxidos metálicos mixtos de Al2O3-CeO2, fueron Al2O3-TiO2, Al2O3-ZrO2 y Al2O3-Fe2O3 preparados por el método sol-gel. En todos los casos 1propanol y agua, fueron usados como solvente y como agente hidrolizante respectivamente. Los precursores empleados para síntesis de los óxidos metálicos mixtos fueron: para la alúmina (Al2O3), el isopropóxido de aluminio Al(CH3-CH2O-CH3)3 (sigma Aldrich), para la nitrato de cerio hexahidatado (III) Ceria (CeO2), el Ce(NO3)36H2O (Sigma Aldrich), para el óxido de Hierro (Fe2O3), el Cloruro Férrico hexahidratado (FeCl36H2O) (Mallinckrodt Chemicals), para la Titania (TiO2), el Isopropóxido de Titanio (C12H28O4Ti) (Sigma Aldrich) y para la Zirconia (ZrO2), el Propóxido de Zirconio (IV) (C12H23O4Zr) (Sigma Aldrich), el cual es una solución comercial al 70% en n-propanol y como solvente se utilizó el 1-propanol (Baker). El proceso general de síntesis fue el siguiente: el isopropóxido de Aluminio fue disuelto lentamente en 150 ml de 1-propanol durante 30 minutos con agitación vigorosa. Una vez disuelto el isopropóxido de Aluminio, se agregó el percusor correspondiente al óxido metálico mixto a sintetizar. Pasados 30 minutos, se agregaron 15 ml de agua desionizada para iniciar la hidrolisis, una vez que se terminó de adicionar el agua, se continuó la agitación durante 24 h para homogeneizar la solución y precipitar el gel. Los óxidos metálicos mixtos, se obtuvieron filtrando la solución en un embudo de Butcher. Posteriormente, los soportes se secaron a temperatura ambiente, seguido de un secado a 110°C. Consecutivamente los soportes se calcinaron a 500°C. 2.2. Caracterización de los soportes 2.2.1 Difracción de Rayos X (XRD) La caracterización de los óxidos metálicos mixtos por Difracción de Rayos X en polvo, se llevó a cabo en un Difractómetro Bruker D8 Advance en el rango de 2θ de 10°-80°, usando un filtro de radiación CuKα (λ=1.5415Å) a una velocidad de 0.5° min-1.

2.2.2 Análisis Termogravimétrico (TGA/DTG) El análisis termogravimétrico de los óxidos metálicos mixtos fue llevado a cabo en un analizador TGA Q500 TA Instruments, bajo una atmosfera de nitrógeno a 100 ml min-1, en un rango de temperatura de 30°-800°C y a una velocidad de calentamiento de 10 °C min-1. 2.2.3 Espectroscopia de reflectancia difusa en el rango Uv-Vis Los espectros de UV-Vis se midieron en un espectrofotómetro UV-VIS-NIR CARY 5000 Agilent. Los espectros se registraron a temperatura ambiente y en el rango de longitud de onda de 200-800 nm. 3. RESULTADOS Y DISCUSIÓN 3.1 Difracción de rayos X (Fases cristalinas) En este estudio los óxidos metálicos mixtos para soportes catalíticos fueron preparados por el método solgel seguido por calcinación a 500°C por 6 horas. Los difractogramas de los cuatro óxidos mixtos de Al2O3-CeO2, Al2O3-TiO2, Al2O3-ZrO2 y Al2O3-Fe2O3 son mostrados en la figura 1. El calcinado a 500°C al que fueron sometidos los soportes catalíticos, causó la formación de una estructura pobremente cristalina de γAl2O3 (Ferreira et al., 2010), lo que puede ser asignado a la fase hexagonal de la γ-Al2O3, la cual tiene un bajo grado de cristalinidad (Klimova et al., 1998) . Los picos característicos de la γ-Al2O3 se detectaron en los difractogramas de los soportes catalíticos, los cuales se localizan en 2θ = 32°, 37°, 45 y 67 que corresponden a las reflexiones (220), (311), (400) y (440) respectivamente, las cuales corresponde a la γ-Al2O3 (JCPDS referencia No. 00-010-0425) (Yu et al., 2012). El patrón de XRD del CeO2 (la figura no se muestra aquí) muestra tres picos a 2θ de 28.6°, 47.5° y 56.3°, los cuales son característicos de los planos [111], [220] y [311] de la estructura cubica de la Ceria (PDF no. 431002) (Escamilla-Perea et al., 2010).En el difractograma del óxido metálico mixto de Al2O3-CeO2 (figura 1), se observó solo la reflexión (111) de la estructura del CeO2 a 2θ= 28.6° (los demás picos no se observaron debido a su baja intensidad, mismo caso para la Al2O3). La baja intensidad de los picos sugiere una buena dispersión de las fases de alúmina y Ceria. Con respecto al patrón de XRD del ZrO2 (la figura no se muestra aquí) se presentan tres picos a 2θ= 30.4, 50.2 y 60.3 correspondientes a los planos [011], [112] y [013] respectivamente que corresponde a la estructura tetragonal de la Zirconia (PDF no. 50-1089) (Galata et al., 2010). Para el difractograma del óxido metálico

193


mixto de Al2O3-ZrO2 (figura 1) se detectó un pico amplio a 2θ= 30.4°, y un pico de muy baja intensidad a 50.6°. Con respecto al patrón de XRD del TiO2 (la figura no se muestra aquí), se evidencia que la anatasa es la única fase presente en la Titania como es indicado con los picos a 2θ= 24.5° [101], 38° [004], 48° [200], 54.5° [105], 62.5° [118], 70° [116] y 75° [220] (PDF no. 21-1272) (Pookmanee y Phanichphant, 2009; Peza-Ledesma et al., 2010). Para el difractograma del óxido metálico mixto de Al2O3-TiO2 (figura 1) se observaron todas las reflexiones del TiO2 a 25.1°, 37.9°, 47.8°, 54.3°, 62.7°, 70.2° y 75.0°.

Con respecto al patrón de XRD del Fe2O3 (la figura no se muestra aquí), se observan los picos de difracción característicos de la hematita α-Fe2O3 localizados en 2θ= 24.10 [012], 33.10 [104], 35.60 [110], 40.80 [113], 49.30 [024] y 54.0 [116], los cuales pueden ser asignados a la estructura hexagonal centrada de α-Fe2O3 (hematite: JCPDS File no. 72-0469) (Escamilla et al., 2011). Y para el difractograma del óxido metálico mixto de Al2O3Fe2O3 se presentan tales picos en 2θ= 24.0°, 32.9°, 35.3°, 40.6°, 49.2°, 54.0°, correspondientes a los planos [012], [104], [110], [113], [024], [116] respectivamente.

Fe2O3

(104) Fe2O3 32.9°(110) 35.3°

Fe2O3

Al2O3-Fe2O3

Al2O3

Intensidad (u.a)

(101) TiO2 25.1°

49.2°

Al2O3

54.0°

(440) 67.5°

Al2O3

37.0° (311)

46.7° (400)

Al2O3 TiO2

Al2O3 TiO2

TiO

TiO

2 2 (200) (105) (211) 47.8° 54.3° 55.0°

(004) 37.9°

Al2O3-TiO2

(116)

(024)

(113) 40.6°

(012) 24.0°

Fe2O3

Fe2O3

Fe2O3

TiO2

(118) 62.7°

(011) ZrO 2 30.4°

10

20

Al2O3

(220) 32.0°

(111)

Al2O3-CeO2

(400) 46.4°

CeO2 Al2O3

28.6°

30

TiO2 (220) 75.0°

Al2O3

Al2O3

Al2O3-ZrO2

TiO2 (116) 70.2°

67.0°

Al2O3

(112) ZrO 2 50.6°

(440) 66.8°

Al2O3

(400) 46.3°

32.0° (220)

40

50

60

70

80

2 (°) Figura 1. Difractogramas de los óxidos metálicos mixtos de Al2O3-CeO2, Al2O3-TiO2, Al2O3-ZrO2 y Al2O3-Fe2O3 calcinados a 500°C 3.2 Análisis térmico).

Termogravimétrico

(comportamiento

Las curvas termogravimetricas de los cuatro óxidos metálicos mixtos para los soportes catalíticos calcinados a 500°C, son mostradas en la figura 2. En la curva correspondiente al óxido metálico mixto de Al2O3-CeO2 se observa una pérdida total de masa del 6% en peso. Con respecto a la forma de la curva, esta presenta cuatro perdidas de masa. La primera de temperatura ambiente a 104 °C puede ser asociada a la perdida de agua fisiadsorbida. La segunda de 104°C a 334°C puede ser asignada a la deshidroxilación de la muestra. La tercera y cuarta pérdida de masa de 334°C a 606°C y de 605 °C a 800°C, pueden ser asignadas a las transiciones de fase de los óxidos de aluminio y cerio (Damyanova y Bueno, 2003; Ferreira, et al., 2010). Para el óxido metálico mixto de Al2O3-ZrO2, se observa

194

una pérdida de masa del 13% en peso. Y con respecto a la forma de la curva, esta presenta una continua pérdida de peso durante todo el rango de temperatura, este comportamiento puede ser relacionado a los diferentes grados de hidrolisis de la alúmina y del zirconio. Además este resultado muestra el típico comportamiento de los geles de Zirconia, los cuales muestran una continua deshidratación y deshidroxilación que ocurre sobre todo el rango de temperatura estudiado (Klimova et al., 1998; Mercera y Ommen, 1999). Para el óxido metálico mixto de Al2O3-Fe2O3, se observa una pérdida de masa del 9% en peso. La mayor pérdida de masa se presenta de temperatura ambiente hasta los 400°C, lo cual puede ser atribuido a la perdida de agua y a la deshidroxilación de la muestra. En aproximadamente 655 °C se presenta un evento térmico lo cual es atribuido a la transición de fase (Liu et al., 2013). del α-Fe2O3


Perdida de Peso (%)

100

Al2O3-CeO2

95

Al2O3-Fe2O3

90 Al2O3-ZrO2 Al2O3-TiO2

85 0

200

400

600

800

Temperatura (°C) Figura 2. Termograma de los óxidos metálicos mixtos de Al2O3-CeO2, Al2O3-TiO2, Al2O3-ZrO2 y Al2O3-Fe2O Finalmente, para el óxido metálico mixto de Al2O3-TiO2, se observa una pérdida de masa de 15 % en peso antes de los 400°C, la cual puede ser asociada a la evaporación del agua y a la deshidroxilación de la muestra. La mayor pérdida de masa se presenta después de los 400°C la cual puede ser atribuida a la transición de fase de las partículas de los óxidos de TiO2 y Al2O3. 3.3. Espectroscopía de Reflectancia Difusa (DRS) en el rango ultravioleta visible (UV-vis) Los espectros de reflectancia difusa en el rango ultravioleta visible (Uv-vis) se muestran en la figura 3. Para el espectro del óxido metálico mixto de Al2O3-CeO2 se muestran dos picos centrados a aproximadamente 232 y 290 nm. Su interpretación no es fácil debido a un ancho de banda, la cual es frecuentemente observada en todos los espectros de Ce. Es bien conocido que el CeO2 muestra la estructura de la fluorita en cada anión O2- anión (Binet et al., 1999; Escamilla-Perea et al., 2010). Por lo tanto, la banda de absorción cerca de los 290 nm puede ser asociada con la presencia del ión Ce4+ en una estructura tipo fluorita con número de coordinación 8 (Bensalem et al., 1995; Laha et al., 2002; Pepe et al., 2004; Escamilla-Perea et al., 2010). Sin embargo lo amplio de esta banda sugiere que los iones de Ceria pudieron haber tenido más de un simple estado de oxidación.

Para el caso del óxido metálico mixto Al2O3TiO2, se observan dos bandas de absorción centradas en aproximadamente 220 y 270 nm. Las bandas son asociadas con la transferencia de carga causada por la migración del electrón entre los sitos tetraédricos del Ti4+ y el O (Tuel y HubertPfalzgraf, 2003, Peza-Ledesma et al., 2010). Finalmente se muestra una banda a 325 nm la cual es designada a la fase anatasa. En el espectro del óxido metálico mixto de muestra una banda a Al2O3-Fe2O3 se aproximadamente 500 nm la cual es asociada a las nanopartículas de Fe2O3, otra banda a 300 nm es típica a la especie Fe3+. Esto indica que se está obteniendo una alta dispersión de la fase de hierro en la muestra. En el espectro del óxido metálico mixto de Al2O3-ZrO2 se puede observar una banda a aproximadamente a 350 nm la cual es característico de las transiciones O2- Zr4+. 4. CONCLUSIONES De acuerdo a los resultados obtenidos de este trabajo, se puede llegar a las siguientes conclusiones:

195


2.0 220 265

Absorbancia (u.a. )

230

1.5

290 312 490

1.0 325

Al2O3-Fe2O3

0.5 Al2O3-ZrO2 Al2O3-CeO2

350

Al2O3-TiO2

0.0 200

300

400

500

600

700

800

Longitud de Onda (nm) Figura 3. Espectros Uv-vis de los óxidos metálicos mixtos de Al2O3-CeO2, Al2O3-TiO2, Al2O3-ZrO2 y Al2O3-Fe2O3 El proceso sol-gel permitió obtener los distintos óxidos metálicos mixtos. Mediante la técnica de Difracción de Rayos X fue posible detectar las fases cristalinas presentes en cada oxido metálico mixto, y mediante este análisis se detectó que las partículas se encuentran bien dispersas sobre el soporte. De igual manera mediante el análisis termogravimétrico, se corroboro la presencia de los dos tipos de óxidos en los soportes catalíticos, ya que cada uno de ellos muestra la descomposición de los distintos óxidos presentes en el soporte catalítico. Y por Espectroscopia de Reflectancia Difusa, fue posible detectar los estados electrónicos de los metales presentes en los óxidos metálicos mixtos y sus transiciones. Esto nos demuestran la influencia de las interacciones entre la Al2O3 y el otro oxido metálico con el que se encuentra unido. AGRADECIMIENTOS Los autores de este artículo están grandemente agradecidos con el Dr. Rodrigo Velázquez Castillo por su asistencia técnica en las mediciones de TGA y DRX. Y a Daniel Álvarez Rivera por el apoyo técnico en la espectroscopia Uv-vis.

196

5. REFERENCIAS Bensalem A., Buzon-Verduraz f, Delamar M., Buggli G., 1995, Applied Catalysis: General 121, 81-93. Binet C., Daturi M., Lavalleu J.-C., 1999, Catal. Today 50, 207-225. Brinker C.J., Clark D.E., Ulrich D.R., 1986, Better Ceramics Through Chemistry, MRS Symp. Proc., Materials Research Society, Pittsburg, PA., Vol. 73, 820. Damyanova S y Bueno J.M.C., 2003, Effect of CeO2 loading on the surface and catalytic behaviors of CeO2-Al2O3-supported Pt catalysts, Applied Catalysis A: General 253, 135-150. Escamilla-Perea L. Nava R., Pawelec B., Rosmaninho M.G., Peza-Ledesma C.L., Fierro J.L.G., 2010, SBA-15- supported gold nanoparticles decorated by CeO2: Structural characteristics and CO oxidation activity, Applied Catalysis A: General 381, 42-53. Escamilla-Perea L., Peza-Ledesma C.L., Nava R., Rivera-Muñoz E.M., Pawelec B., Fierro J.L.G., 2011, CO oxidation at 20 °C over Au/SBA-15


catalysts decorated by Fe2O3 nanoparticles, Catalysis Communications 15, 108-112. Ferreira A.P., Zanchet D., Rinaldi R., Schuchardt U., Damyanova S., Bueno J.M.C., 2010, Effecto of the CeO2 content on the surface and structural properties of CeO2-Al2O3 mixed oxides prepared by sol-gel method. Catalysis A: General, 388, 45-56.

Yu J., Huo R., Wu C., Wu X., Wang G., Jiang P., 2012, Influence of Interface Structure on Dielectric Properties of Epoxy/Alumina Nanocomposites, Macromolecular Research 8 (20), 816-826. Zhang W., Gasser F.P., 1993, J. Mater. Sci. 28, 1129.

Galata S.F., Tsoutsou D.., Apostolopoulos G., Tsipas P., Sortiropoulos A., Mavrou G., Panayiotatos Y., Dimouls A., 2000, Stabilization of a veri high-k tetragonal phase in Ge-doped ZrO2 films grown by direct doping with Germanium. Klimova T., Rojas M.L., Castillo P., Cuevas R., Ramirez J., 1998, Characterization of Al2O3-ZrO2 mixed oxide catalytic supports prepared by the solgel method, Microporous and mesoporous materials 20, 293-306. Laha S.C., Mukerjee P., Sainkar S.R., Kumar R., 2002, J Catal., 207, 213-223. Liu R., Gao N., Zhen F., Zhan Y., Mei L., Zeng X., 2013, Dopping effect of Al2O3 and CeO2 on Fe2O3 support for gold catalyst in CO oxidation at lowtemperature, Chemical Engineering Journal 225, 245-253. Mercera P.D.L., Ommen J.G., Doesburg E.G.M., Burggraaf J.F.H., Ross J.R.H., 1991, Applied Catalysis 78, 79. Moreau F., Bond G.C., Taylor A.O., 2004, Chem. Commun., 1642. Pepe A., Aparicio M., Ceré S., Durán A., 2004, J. Non Cryst. Solids 348, 162.171. Peza-Ledesma C.L., Escamilla-Perea L., Nava R., Pawelec B., Fierro J.L.G., 2010, Supported gold catalysts in SBA-15 modified with TiO2 for oxidation of carbon monoxide, Applied Catalysis A: General 375, 37-48. Poookmanee P., Phanichphant S., 2009, Titanium dioxide powder prepared by a sol-gel method, Ceramic Processing Research, 2 (10), 167-170. Tuel A., Hubert-Pfalzgraf L.G., 2003, J. Catal. 217, 343-353. Vrinat M., Breysse M., Geantet C., Ramírez J., Massoth F., 1994, Catalytic Letter 26, 25.

197


Efecto de la ceniza de bagazo de caña sobre las propiedades mecánicas en morteros de cemento Effect of bagasse ash on the mechanical properties in cement mortars

J. L. Rodríguez Bucio, J. L. Reyes Araiza, R. Ramírez Jiménez, A. Manzano Ramírez, C. Lara Gómez, E. M. Alonso Guzmán, W. Martínez Molina, H. L. Chávez, C. Bernabé Reyes, M. A. Villicaña Cupa, S. C. Arguello Hernández, M. Arreola Sánchez. Universidad Autónoma de Querétaro,

DIPFI, Facultad de Ingeniería, Universidad Autónoma de Querétaro; Universidad Michoacana de San Nicolás de Hidalgo Cuerpo Académico UMSNH-147, Departamento y Laboratorio de Materiales de la Facultad de Ingeniería Civil; Centro de Investigación y Estudios Avanzados (CINVESTAV), Querétaro.

RESUMEN. El uso de cenizas (puzolanas), como sustitución parcial del cemento Portland, para elaborar concreto hidráulico o mortero de albañilería, puede tener ventajas tales como: reducción del contenido de cemento Portland para ahorrar costos y energía, disminuir emisiones de CO2 a la atmósfera, reducción del calor de hidratación (para disminuir la aparición de fisuras durante el fraguado), mejorar la trabajabilidad, conseguir resistencias elevadas a largo plazo, reducción de la permeabilidad, entre otros, y esto dependerá del tipo de ceniza a emplearse. Por lo mencionado anteriormente, es de suma importancia en nuestro tiempo estudiar el uso de cenizas como componente en los concretos y morteros para producir materiales sustentables. La ceniza utilizada, en este trabajo de investigación, es producto de la quema del bagazo de caña (residuo agroindustrial), obtenida del ingenio azucarero “Lázaro Cárdenas”, Municipio de Taretan, Michoacán, México. La ceniza de bagazo de caña (CBC) fue sustituida en porcentajes de 5, 10, 15, 20 y 30, en relación al peso del cemento, para elaborar morteros para la construcción, que son usados para adherir mampostería y recubrir muros. Se realizaron diferentes especímenes para determinar resistencia mecánicas de compresión, flexión, tensión, mediante pruebas destructivas. También se llevaron a cabo pruebas no destructivas de velocidad de pulso ultrasónico y resistividad eléctrica. Se evalúo además el comportamiento del mortero, sobre un sustrato de concreto, midiendo su adhesividad. De los resultados obtenidos se puede concluir que a la edad de 45 días, los morteros estudiados con sustitución de ceniza en porcentajes del 5% y 20% presentan los mejores comportamientos mecánicos, aún por encima de los especímenes que no poseen ceniza.

SUMMARY. The use of ash ( pozzolan ) as partial replacement of Portland cement , to produce hydraulic concrete or masonry mortar, may have advantages such as reduced Portland cement content to save costs and energy, reduce CO2 emissions to the atmosphere, reduction of heat ( to decrease the occurrence of cracks during curing ), improve workability, high resistance to achieve long term, reduced permeability, among others, and this will depend on the types of ash used. By the above, it is of paramount importance in our time studying the use of ash as a component in concrete and mortar to produce sustainable materials. The ash used in this research is the result of the burning of bagasse (agro residue), obtained from sugar wit " Lazaro Cardenas" Taretan Municipality, Michoacán , Mexico. The bagasse ash (CBC) was substituted in percentages of 5, 10, 15, 20 and 30, relative to the weight of cement , to produce mortars for construction, that are used for bonding and coating masonry walls. Different specimens were performed to determine mechanical compression strength, bending, tension, by destructive testing. Also performed nondestructive testing ultrasonic pulse velocity and electrical resistivity. They also evaluated the behavior of mortar on a concrete substrate, measuring its adhesiveness. From the results obtained it can be concluded that at the age of 45 days, the mortars studied ash substitution rates of 5% to 20% develop the best mechanical behavior, still above specimens not have ashes. Palabras clave: mortero, ceniza de bazo de caña (CBC), sustitución.

1.

INTRODUCCIÓN.

Las puzolanas han sido empleadas en la industria de la construcción durante años, con el fin de aportar propiedades especiales a las ya provistas por el cemento. Ciertas cenizas producto de residuos orgánicos son consideradas como puzolanas, las cuales son un compuesto que por sí solas poseen un valor cementante nulo, pero al combinarse en la mezcla de mortero reaccionan en el proceso de hidratación de calcio del

198

cemento alterando el proceso químico y la microestructura del mortero mejorando las propiedades físicas y mecánicas. Las puzolanas están compuestas esencialmente por oxido de silicio (SiO2) y oxido de aluminio (Al2O3). Shetty (2008), asegura que incorporando la cantidad adecuada de puzolanas en una mezcla, se modifican ciertas propiedades de los morteros y hormigones frescos y endurecidos, como: alta defensa frente a los


sulfatos y cloruros, la resistencia frente al agua de mar, aumento de la impermeabilidad, debido a la reducción de grietas en el fraguado, reducción del calor de hidratación, incremento en la resistencia a la compresión, aumento de la resistencia a la abrasión, aumento en la durabilidad del concreto y disminuye la necesidad de agua. La hidratación de cemento da lugar al hidróxido de calcio, el cual tiene nulo valor cementante y es soluble en el agua de la mezcla y expulsada por efecto de la lechada (Shetty, 2008). Las puzolanas reaccionan con el hidróxido de calcio produciendo silicatos de calcio y aluminatos de calcio, lo que conduce a la formación de hidrato de silicato de calcio(C-S-H), aumentando la resistencia y la densidad del mortero (Liu et al., 2005). De acuerdo con la norma ASTM C 618-05 las cenizas se clasifican en tres grupos o clases: N, F, C. Las cenizas clase N, son puzolanas naturales, cenizas de origen volcánico rocas o suelos. Las clasificadas como clase F y C son un subproducto de la combustión. La principal diferencia entre estas últimas es la presencia de Fe2O3 y CaO. La Ceniza de Bagazo de Caña es el subproducto resultado de la quema del bagazo de caña y se caracteriza por un alto contenido de sílice, por tal motivo puede ser considerada para sustituir parcialmente al cemento, para tratar de modificar y mejorar las propiedades mecánicas y físicas de las mezclas con cemento (Morales et al., 2007). Berry E.E. et al. (1994) en un estudio de hidratación de pastas con cenizas volantes tipo "F" concluyó que dicho material cementante suplementario (SCM por su sigla en inglés) posee una extensiva participación en la hidratación y reacciones cementantes incluso a edades de 180 días. Encontraron además una ceniza volante que no reacciona pero que ayudan a llenar los espacios vacíos en la microestructura (densificación). Otro estudio (Jiang L. et al., 1999), concluye que si bien un incremento en la cantidad de SCM puede inicialmente aumentar la porosidad de la pasta, la porosidad decrece con el tiempo a medida que el SCM se hidrata. Ellos concluyen además que hay un límite en el reemplazo de cemento por SCM para mejorar la microestructura de la pasta. La generación de silicatos de calcio hidratados a partir de la reacción puzolánica contribuye a densificar la microestructura de la pasta e cemento, disminuir su porosidad y aumentar la

resistencia (Meddad M.S. y A. Tagnit-Hamou, 2009). El efecto de las SCM´s en la estructura de poros está fuertemente relacionado con la composición del SCM y la razón agua cemento (Diamond S, 2000). Adicionalmente, para la que la reacción puzolánica se lleve a cabo es necesario un buen curado que asegure la presencia de agua (Malhotra V.M. y P.K. Mehta, 2005; Ayers M.E. y M.S. Khan, 1993). Otra investigación (Uzal B. et al., 2007) que utilizó puzolanas naturales, cenizas volantes y escoria granulada de alto horno como SCM concluyó que dichas SCM contribuyen a la reducción de la permeabilidad a iones cloruro especialmente a 90 días de edad. La permeabilidad a iones cloruro a la edad de 90 días de las mezclas con SCM fue entre un 6 y un 14% de aquella de una mezcla sin SCM de resistencia a compresión similar. En una investigación de durabilidad en hormigones con SCM (Gu P. et al., 2000), concluyó que el uso de SCM redujo considerablemente la permeabilidad a iones cloruro respecto de mezclas sin SCM lo que se vio reflejado en mayor protección al acero de refuerzo incluso con recubrimientos bajos. 2.

DESARROLLO.

El trabajo que se presenta a continuación se desarrolló en las instalaciones de Universidad Autónoma de Querétaro en conjunto con la Universidad Michoacana de San Nicolás de Hidalgo. Las Cenizas de Bagazo de Caña (CBC) fueron obtenidas del ingenio Lázaro Cárdenas (México, Taretan Michoacán). La ceniza se recolectó de los tiraderos del ingenio y posteriormente se determinó mediante fluorescencia de RX la caracterización química de la CBC, Gráfica 1. La ceniza se tamizó por la malla No 200 y se sustituyó en la mezcla. Se determinó usar la siguiente combinación para las diferentes mezclas de mortero: 100-0 (T), 95-5 (CBC5%), 90-10 (CBC10%), 85-15 (CBC15%), 80-20 (CBC20%) y 70-30 (CBC30%) (% de cemento % de CBC), con arena de río. Para evaluar la reacción puzolánica de la ceniza en el mortero, los especímenes fueron probados a compresión, tensión, flexión, adherencia, adicionalmente se realizaron pruebas de velocidad de pulso ultrasónico y resistividad eléctrica. La elaboración y pruebas de los especímenes, cubos, prismas y briquetas, se efectuó bajo las normas ASTM, los cuales consisten en 3 especímenes por sustitución y por tipo de

199


4 RESISTENCIA (MPa)

prueba, para posteriormente obtener un promedio de los resultados de las pruebas por tipo de mezcla y geometría del especimen. Las pruebas se desarrollaron a los 14, 28 y 45 días posteriores a la elaboración de los especímenes y mientras se cumplía la fecha para prueba, los especímenes permanecieron inmersos en agua a temperatura ambiente.

T

3

CBC5%

2

CBC10%

1

CBC15% CBC20%

0 14

28

45

CBC30%

EDAD (DÍAS)

3.

RESULTADOS.

Gráfica 3. Resultados del ensaye a flexión

La fluorescencia de RX muestra un alto contenido de sílice, lo que permite presuponer una reacción puzolanica en la mezcla de mortero.

Los resultados de CBC indican que, los morteros con CBC en lugar de aportar un aumento en la tensión, se disminuye la resistencia de la misma. Los datos reflejados en la Gráfica 4, representan un promedio de tres ensayes por edad.

Fluorescencia RX SiO2

30.01% 1.57%

Fe2O3

56.62%

2.01%

MgO CaO

5.49%

Otros

4.29%

RESISTENCIA (MPa)

Al2O3

2.00 1.50 1.00 0.50 0.00

T CBC5% CBC10% CBC15%

14

28

45

CBC20%

EDAD (DÍAS)

CBC30%

Gráfica 1. Composición química de la CBC. Gráfica 4. Resistencia a tensión briquetas.

La Gráfica 2 y 3, muestra los resultados de un promedio de tres especímenes por edad, del ensayo de compresión y flexión de la mezcla testigo (T), y las mezclas que contienen sustitución de una parte de cemento Portland por CBC, en los diferentes porcentajes ya mencionados. 12 RESISTENCIA (MPa)

10

T

8

CBC5%

6

CBC10%

4

CBC15%

2

CBC20%

0

CBC30%

14

28

EDAD (DÍAS)

45

Gráfica 2. Resultados de ensayo a compresión.

200

Los resultados del ensayo de adherencia se pueden apreciar en la Gráfica 5. Esta prueba es utilizada para medir la fuerza de ligadura entre dos capas, lo cual es un factor importante, ya que en este trabajo estudia los morteros de albañilería a utilizarse como recubrimientos. Las pruebas de adherencia se realizaron a 14 y 28 días, en un promedio de tres ensayes; se observa que las mezclas con sustituciones son superiores respecto a la muestra testigo. RESISTENCIA (MPa)

Con los resultados de la prueba de microscopia, se considera la ceniza apta para continuar con el trabajo planeado. Se procedió a elaborar los especímenes ya mencionados para realizar las pruebas y de esta forma corroborar

2 1.5 1 0.5 0

T CBC 5% CBC 10% CBC 15%

14

28 EDAD (DÍAS)

CBC 20% CBC 30%

Gráfica 5. Resultados del ensayo de adherencia.


La velocidad de pulso ultrasónico permite conocer que tan denso es un espécimen. En la Gráfica 6 se puede apreciar que la velocidad del pulso ultrasonido no varía de manera trascendental en las mezclas con CBC, por lo que se pueden considerar casi iguales a la velocidad en el testigo, en las diferentes edades monitoreadas.

V.P.U (m/s)

4000.00

T

3000.00

CBC 5% CBC 10%

2000.00

CBC 15%

1000.00

CBC 20%

0.00

14

28

45

EDAD (DÍAS)

CBC 30%

Gráfica 6. Resultados de la velocidad de pulso ultrasónico. La resistividad eléctrica es una prueba que indirectamente indica que tan poroso es el elemento analizado. La Gráfica 7, muestra los resultados de la prueba de resistividad, en la que se observa que a la edad de 45 días todas las mezclas con sustitución de CBC presentan un mejor comportamiento.

Resistividad (Ohms-m)

40.00 T

30.00

CBC 5% CBC 10%

20.00

CBC 15%

10.00 0.00

CBC 20%

14

28

45

CBC 30%

EDAD (DÍAS)

Gráfica 7. Prueba resistividad eléctrica.

4.

CONCLUSIÓN

En base a los resultados obtenidos y haciendo un análisis general se puede concluir que las mezclas con sustituciones en peso del 5% de cemento por CBC son las que presentan un mejor comportamiento mecánico, ya que en la mayoría de los aspectos analizados ha superado al espécimen testigo a la edad de 45 días. El porcentaje de 20% en sustitución presenta un comportamiento interesante, muestra en algunas

gráficas una tendencia ascendente y considerando que el testigo alcanzo su estado límite al cumplir los 28 días. Además se observa que las mezclas con CBC presentan resultados más favorables a una mayor tiempo después de su fabricación a edades tempranas (45 días), lo cual puede deberse a que la reacción puzolánica necesita de un mayor tiempo para que su acción cementante se lleve a cabo adecuadamente. En lo correspondiente a la resistencia a compresión, los resultados parecen llamativos, teniendo en cuenta que los morteros de albañilería alcanzan su resistencia máxima a los 28 días y de ahí su incremento se considera insignificante, los especímenes que fueron elaborados con CBC presentan un tendencia ascendente en la resistencia a compresión, lo que permite presuponer que tendrán un mejor comportamiento ante este tipo de esfuerzo. En relación a la flexión, las mezclas con CBC en porcentajes del 5, 15 y 20 %, superan a la muestra testigo, pero después de 45 días de edad, lo que es similar al comportamiento de resistencia a compresión. La resistencia tensión de mezclas con CBC, fue menor, en todos los casos, a la muestra testigo, pero los morteros para la construcción generalmente no requieren tener una alta resistencia en esta solicitación mecánica. Los resultados de adhesividad son muy favorables para las muestras con CBC analizadas, ya que aumenta en los morteros en los casos estudiados. Además de que una de las finalidades más comunes de un mortero es el de fungir como recubrimiento de estratos, es un punto importante a mejorar. En relación a la velocidad de pulso ultrasónico, se constata que nos hay cambios en la matriz cementicea, ya que no hay variación apreciable en las mediciones de las mezclas testigo y con CBC. En el caso de la resistividad eléctrica, se puede observar un incremento para mezclas con CBC respecto a la mezcla testigos, para edades de 45 días, lo que podría suponer un aumento en la durabilidad del material con CBC, al ser más difícil que por él penetren iones que puedan agredir al material (cloruros, sulfatos, por ejemplo).

5.

BIBLIOGRAFÍA.

Ayers M.E. y M.S. Khan. 1993. Overview of Fly Ash and Silica Fume Concretes: The Need of

201


Rational CUring Standars, in Proceedingd ofV. MOhan Malhotra Symposium. 1993: American Concrete Institute.

Shetty MS. 2008. Concrete technology: Theory and practice. S. Chand & Company Ltd. New Delhi, India.

Berry E.E., R.T. Hemmings, M.H. Zhang, B.J. Cornelius y D.M. Golden. 1994. Hydration in High-Volume Fly Ash Concrete Binders. ACI Material Journal. 1994. 91(4): 382-389. Diamond S. 2000. Mercury Porosimetry: Benchmarking Concretes with Pozzolanic Materials in Terms of Rapid Chloride Penetration Test, ACI Material Journal, 2009. 106(3): 251-257.

Uzal B., L. Turanli y P.K. Mehta (2007), HighVolumne Pozzolan Concrete for Structural Applications. ACI Material Journal, 2007. 105(5): 535-538.

Gu P., J.J. Beaudoin, M.H. Zhang y V.M. Malhotra (2000), Performance of Reinforcing Steel in Concrete Containing Silica Fume and Blast-Furnanee Slag Ponded with SodiumChloride Solution. ACI Material Journal, 2000. 97(3): 254-262. Jiang L., B. Lin, y Y. Cai. 1999. Studies on Hydration in High-Volume Fly Ash Concrete Binders. ACI Material Journal, 1999. 96(6): 703706. Liu B, Xie Y, Li J. 2005. Influence of steam curing on the compressive strength of concrete containing supplementary cementing materials. Cem.Concr.Res., 35: 994-998. Malhotra V.M. y P.K. Mehta. 2005. HighPerformance, High-Volume Fly Ash Concrete: Material, Mixture Proportions, Propeties, Construction Practice, and Case Histories. 2nd ed. 2005, Ottawa: Suplementary Cementing Materials for Sustainable Development Inc. Meddah M.S. y A. Tagnit-Hamou. 2009. Pore Structure of Concrete with Mineral Admixtures and Its Effect on Self-Desiccation Shrinkage. ACI Material Journal. 2009. 106(3): 241-250. Morales, E.V., Villar-Cociña, E., Frías, M., Santos, S.F., Savastano, J.R. 2007. Actividad Puzolánica y aspectos microestructurales de las cenizas de bagazo y paja de caña de azucar a través de la microscopia electronica de transmisión. In: Conferência Brasileira sobre materiais e tecnologias nâo convencionais na construcao ecológica e sustentavel. BRASIL NOCMAT. Payá, J. et al. 2002. Sugarcane bagasse ash (SCBA): studie on its poperties for reusing in concrete production. Journal of Chemical Technology and Biotechnology. 77:321-325.

202


Geosintéticos y su uso en la ingeniería mexicana. Geosynthetics and their use in Mexican engineering.

D. Rosales-Hurtado, División de Estudios de Posgrado, Facultad de Ingeniería, Universidad Autónoma de Querétaro, C. U. Cerro de las Campanas S/N. C.P. 76010, Querétaro, Qro., México. E-mail: davidrosales1987@gmail.com T. López-Lara, División de Estudios de Posgrado, Facultad de Ingeniería, Universidad Autónoma de Querétaro, C. U. Cerro de las Campanas S/N. C.P. 76010, Querétaro, Qro., México. E-mail: lolte@uaq.com RESUMEN. Los geosintéticos engloban toda una gama de materiales que son ampliamente utilizados en la ingeniería geotécnica, ambiental e hidráulica en proyectos como: muros de tierra mecánicamente estabilizada, pavimentos, embalses, rellenos sanitarios, etc. Como lo indica su nombre, son materiales sintéticos fabricados mediante procesos industriales altamente controlados a base de polímeros y textiles que interactúan con materiales térreos o que están en contacto con el suelo. Usualmente son clasificados a partir de su función ingenieril, entre las que se encuentran el refuerzo de suelos, la contención de fluidos, la separación de materiales, la protección costera, etc. En México han sido utilizados desde la década de los años 70 y existen algunas historias de caso en la literatura nacional, sin embargo en cuanto a investigación y desarrollo la literatura es escasa o inexistente. Se ha probado su efectividad en distintas aplicaciones relacionadas con la ingeniería civil y se ha estimado que representan una reducción de costos en comparación con soluciones técnicas consideradas como tradicionales, no obstante, es muy difícil encontrar planes de estudio en las universidades e institutos tecnológicos del país que los incluyan como material de estudio, ya sea en las materias relacionadas con la mecánica de suelos o las de materiales de la construcción. El objetivo principal de este trabajo es introducir o reforzar los conocimientos del lector en esta área no muy utilizada en México, a través de una introducción a los geosintéticos, sus aplicaciones, ventajas y finalizando con estudios de caso de su aplicación en el país, algunos de éxito y otros de fracaso, que llevaron a grandes pérdidas por error conceptual y por mala aplicación. Palabras clave: Geosintéticos, refuerzo de suelo, contención de fluidos, protección costera, estudios de caso. ABSTRACT. Geosynthetics encompass a whole spectrum of materials widely used in geotechnical, environmental and hydraulical engineering in projects such as: mechanically earth stabilized walls, pavements, dams, landfills, etc. As its name implies, they are synthetic materials manufactured through highly controlled industrial processes based on polymers and textiles which interact with earthy materials or that are in contact with soil. Usually they are classified from its engineering function, among which is soil reinforcement, fluids containment, separation of materials, coastal protection, etc. In México they have been used since the 70’s and there are some case histories in national literature, however as research and development, literature is scarce or inexistent. It has been proven its effectiveness in various applications related to civil engineering and also it has been estimated that they represent a cost reduction compared with other traditional technical solutions, however, is highly difficult to find them as a topic in universities and technological institute’s curriculums, either in courses related with soil mechanics or construction materials. The main goal of this paper is to introduce or reinforce reader’s knowledge in this topics not very used in Mexico, through an introduction to Geosynthetics and their applications, advantages, and finally with case histories of its application in the country, success and failure stories that led to economic losses due to conceptual errors and bad practice. Key words: Geosynthetics, soil reinforcement, coastal protection, fluids containment, case histories.

1.

INTRODUCCIÓN

Es frecuente que en los sitios de construcción se encuentren suelos que no son adecuados para el tipo de obra a desplantarse, lo cual hace necesarias las técnicas de mejoramiento de suelos (Rico-Rodríguez, 1982). Años atrás, al lidiar con estos sitios la práctica convencional estaba limitada a remplazar al suelo problemático con un material de relleno de buena calidad (Donald, 2001) o evitarlo construyendo con

cimentaciones profundas, ambas soluciones altamente costosas. A nivel mundial, los geosintéticos han ido ganando terreno en la ingeniería geotécnica, hidráulica y ambiental durante las últimas cuatro décadas en obras donde el uso de materiales constructivos tradicionales estaban restringidos o eran considerablemente más caros. Hay un número significante de distintos tipos y se han mostrado como una respuesta versátil, efectiva y económica en

203


aplicaciones tales como: muros de tierra mecánicamente estabilizada, pavimentos, embalses, rellenos sanitarios, control de erosión, protección costera, etc.

filamentos o tiras conectadas por extrusión, nudos, calor, unión química o soldadura (Figura 1.c.d.e.f.).

ASTM (1997) define a los geosintéticos como productos planares manufacturados a partir de un polímero utilizado con suelo, roca, tierra, o algún otro material relacionado con la geotecnia y que se vuelve parte integral de proyectos de ingeniería civil, estructuras estructura o sistemas. Son fabricados por varios ios procesos industriales utilizando diferentes polímeros (Koerner, 1998). El objetivo principal del trabajo es introducir o reforzar los conocimientos del lector en el área de los geosintéticos, ya que estos os materiales no son muy utilizados en México a pesar de su extendido uso en países altamente industrializados donde se conocen las ventajas económicas y técnicas que traen consigo, ante soluciones tradicionales. Además, demás, su estudio se vuelve necesario ya que no suelen ser incluidos en muchos planes de estudios y como se observa en la sección 4, algunos casos de su aplicación en México terminaron en grandes pérdidas económicas por error conceptual así como por mala aplicación. 2.

TIPOS DE GEOSINTÉTICOS

2.1. Geotextiles. Históricamente los más antiguos, sson geosintéticos permeables hechos de materiales textiles. Su función principal es como filtros para prevenir que los suelos migren por el drenaje o los poros del agregado, pero sin evitar el drenaje del agua en sí. Pueden ser tejidos, no tejidos, punzonados, termo soldados, soldados etc. Generalmente son de polipropileno o poliéster siendo estos los de mayor módulo elástico y por consiguiente mayor resistencia a la tensión, sin embargo los de polipropileno son los de menor costo y de mayor resistencia química al tener un pH mayor (Van Santvoort, 1995). Los rollos son flexibles y tienen la apariencia de tela. Los geotextiles no tejidos han mostrado ser más efectivos en aplicaciones de drenaje y de control de erosión (Figura 1.b).. Los tejidos son comúnmente utilizados en el control de sedimentos (Figura 1.c). 2.2. Geomallas Su función principal es la de refuerzo, de geometría regular de elementos a tensión en forma de red con aperturas de tamaño suficiente para lograr una trabazón con el suelo de relleno. Los polímeros más utilizados son polietileno, polipropileno y poliéster (materiales termoplásticos). Son producidos a través de fibras,

204

a)

b)

d) c)

e)

f)

Figura 1. Geosintéticos usados para el refuerzo: a) Geotextil tejido, b) geotextil no tejido, c) georred, d) tira, e) geomalla uniaxial, f) geomalla biaxial. (Fuente: McGown y Brown, 2008). Un atributo importante es que pueden ser producidos para exhibir su resistencia a la tensión y rigidez en alguna de las direcciones siguientes: Una dirección (productos uniaxiales). y una dirección En una dirección principal princ secundaria ortogonal (productos anisotrópicamente biaxiales). • En dos direcciones iguales ortogonales (Productos isotrópicamente biaxiales) biaxiales). Su alta resistencia a la tensión y rigidez las vuelve especialmente efectivas como material de refuerzo del suelo. • •

2.3. Geomembranas impermeable usados Son geosintéticos relativamente impermeables para contención de fluidos; su presentación es de rollos continuos y a veces se combinan con otros productos tales como geotextiles y geomallas para asegurar su correcto funcionamiento ante las cargas impuestas, impuestas por Las ejemplo en rellenos sanitarios o embalses. embals membranas fabricadas a partir de extrusión son las de polietileno de alta densidad conocidas como HDPE (High density polyethylene)) por sus siglas en inglés y otras de baja densidad o muy flexibles de polietileno conocidas


como VFPE (very flexible polyethylene) por sus siglas en inglés. Algunas variaciones en su proceso incluyen la textura para mejorar la fricción en la interface con el suelo u otros geosintéticos. 2.4. Geocompuestos (Geosynthetic Clay Liners). Son geocompuestos prefabricados con una capa de arcilla bentonítica entre dos hojas de geotextil o soldada a una geomembrana. Al hidratarse la bentonita expande y funcionan como una barrera efectiva contra líquidos y gases. Algunas de las ventajas de los GCL sobre capas impermeables de arcilla compactada es que ocupan significativamente menos espacio mientras logran un desempeño equivalente, además, son flexibles, auto reparables y fáciles de instalar, por eso cada vez son más utilizados como remplazo de las capas de arcilla (Zornberg y Barry, 1999). En sitios de obra donde los materiales de baja conductividad hidráulica no se encuentran disponibles, su uso puede significar ahorros en la construcción. La capa de arcilla bentonítica es de un espesor aproximado de 5 mm. Los GCL contienen aproximadamente 5 kg/m2 de bentonita con una conductividad hidráulica aproximada de 1x10-9 cm/s. La infiltración bajo un gradiente unitario a través de un material con esta conductividad resultaría en una tasa de infiltración de 0.3 mm por año. Son de uso común en rellenos sanitarios. Constructivamente suele colocarse por encima de ellos una pequeña capa de arena para evitar daños por punzonamiento. 2.5. Geotubos. Los geotubos son geotextiles de alta resistencia y con alta capacidad drenante manufacturados en forma de grandes cilindros o costales, han sido utilizados con éxito para desaguar sedimentos contaminados, desechos de procesos industriales y para la protección costera. Evitan la erosión de las playas al ser tubos de grandes diámetros que funcionan como rompeolas, logrando que la arene sedimente y a la vez evitando la migración de la misma. Son muy utilizados para recuperar las playas después de eventos climáticos. 2.6. Geodrenes. Es un geocompuesto utilizado para el drenaje de peso ligero diseñado para remplazar procedimientos costosos de drenajes con agregados o sistemas de tubos perforados. Han sido rápidamente aceptados ya que proveen un drenaje adecuado y reducen los costos por

concepto de materiales, tiempo de instalación y en el diseño de complejos drenajes tradicionales. El núcleo de las hojas de geodren es una manta tridimensional de plástico extruido (usualmente polipropileno) que está termo soldado entre dos geotextiles no tejidos de poliéster en una configuración que promueve el drenaje y conducción de líquidos y gases. Las hojas de geotextil cumplen la función de filtros y la geomanta interna la de drenaje. Se utilizan para drenaje en muros de retención, campos deportivos, al costado de estructuras de pavimentos, en sótanos o cimentaciones. 2.7. Ventajas Los geosintéticos ya sean solos o combinados con materiales convencionales ofrecen las siguientes ventajas: • Ahorro de espacio: Al ser planares, ocupan mucho menos espacio en rellenos sanitarios, en capas de pavimento o como drenaje en comparación a las capas de agregado ya sea de arena o grava. • Ahorro en costos: Generalmente tienen menor costo a la compra, en transporte y en instalación que los agregados tradicionales. • Ahorro en tiempos: De fácil y rápida colocación. Una cuadrilla puede desplantar varias capas de geosintéticos en una jornada laboral. • Disponibilidad de material: La gran variedad de proveedores y la facilidad de transporte aseguran precios competitivos y alta disponibilidad. • Menor huella ambiental: Los geosintéticos reducen el uso de recursos materiales y la contaminación ambiental asociada a la explotación de bancos de materiales, su transporte y otras actividades relacionadas. Estas son algunas de las ventajas que trae consigo el uso de estos materiales. 3.

APLICACIONES

3.1. Refuerzo de suelos. Por definición cuando uno refuerza algún material (en este caso el suelo), el material de refuerzo debe ser aquel que contenga una o un conjunto de propiedades deseadas que hagan falta en el material original, o de tenerlas sean en un grado menor al requerido (Jones, 1999). Dentro de los métodos de mejoramiento de suelos, el concepto tradicional de reforzar el suelo va ligado a las inclusiones ya sean de tiras o mallas de metal o geosintéticos como lo son los geotextiles o las geomallas para crear un nuevo material composite, el cual consiste en una matriz (suelo) reforzada (Sawicki, 2000).

205


El uso moderno de estructuras de suelo reforzado tiene su origen en la década de los años 60 con la introducción del concepto de muros terre armée (tierra armada) (Schlosser y Vidal, 1969). El concepto patentado consiste en la formación de un muro mecánicamente estabilizado que usa suelo granular reforzado con tiras de metal ancladas a escamas de concreto prefabricado a manera de revestimiento (Vidal, 1969). El concepto de Suelo Reforzado es muy utilizado ya que presenta grandes ahorros, se ha estimado que el costo de las estructuras creadas mediante esta técnica puede ser muy bajo, en el orden de la mitad del costo real en muros de retención convencionales, siendo los muros de tierra mecánicamente estabilizada con geosintéticos los más económicos de todos (Figura 2) (Koerner et al., 1998).

• Los esfuerzos son transferidos entre el suelo y el refuerzo mediante fricción y/o resistencia pasiva dependiendo del tipo de geometría del refuerzo. El refuerzo del suelo mediante fibras. Las aplicaciones de refuerzo de suelos se pueden dividir en dos categorías principales (Bonaparte et al., 1985): Estructuras de suelo reforzado con geosintéticos que incluyen: muros de tierra mecánicamente estabilizada, taludes reforzados y terraplenes. Estructuras de soporte de carga reforzadas con geosintéticos, que incluyen: caminos no pavimentados y bases de caminos permanentes, camas para vías de ferrocarril. Y las aplicaciones comunes son (McGown y Brown, 2008): • Muros y taludes: Estructuras de retención, estribos de puentes, distribuidores, barreras contra el ruido, barreras de protección contra caídos rocosos, reparación de taludes.

Figura 2. Comparativa de costos en muros de retención (Fuente: Koerner et al., 1998). En el enfoque tradicional, el elemento de refuerzo es bidireccional en planos horizontales espaciados a una distancia recomendada menor o igual a 30 cm (Adams et al., 2011). El Suelo Reforzado es de alguna manera análogo al concreto reforzado, ya que las propiedades mecánicas de la masa son mejoradas por el refuerzo colocado paralelamente a la dirección principal de deformación para compensar la falta de resistencia a tensión del suelo. Las propiedades a tensión mejoradas son el resultado de la interacción entre el refuerzo y el suelo. El material composite tiene las siguientes características (Elias et al., 2001): • Existe una transferencia de esfuerzos entre el suelo y el refuerzo la cual toma lugar continuamente a lo largo del refuerzo. • El refuerzo está distribuido a lo largo de toda la masa de suelo con un grado de regularidad.

206

• Terraplenes en suelos Blandos: Sobre suelos pantanosos, suelos blandos, y donde haya cavidades potenciales. • Ingeniería de caminos: Pavimentos sobre suelos bandos, calles de acceso, pavimentos, estacionamientos, patios de maniobras y carreteras de alto desempeño. • Vías férreas: En el terraplén de la vía, entre capas de balasto, como soporte de balasto reciclado (Rujikiatkamjorn, 2011). Estas son algunas de las aplicaciones, sin embargo, cabe aclarar que con el fin de evaluar las propiedades de los geosintéticos que son de importancia para el refuerzo del suelo, se han desarrollado muchos procedimientos de prueba. Algunas de estas pruebas solo funcionan con propósitos de control de la calidad (pruebas índice) pero otras pueden ser utilizadas para determinar el comportamiento en operación (pruebas de desempeño) (Murray y McGown, 1982). Solo las propiedades obtenidas por las pruebas de desempeño son utilizadas en el diseño. 3.2. Rellenos sanitarios El variado uso de geosintéticos en el diseño de rellenos sanitarios modernos es un claro ejemplo de la aplicación en la que varios geosintéticos han sido utilizados para desarrollar las funciones vistas en las secciones a lo largo de este documento.


Figura 3. Esquema de un relleno sanitario construido con geosintéticos (Fuente: Zornberg y Barry, 1999). Una geomembrana impermeabilizante de apenas un par de milímetros de espesor puede proveer un desempeño equivalente al de un corazón de arcilla compactada de varios metros de espesor. Los lixiviados son la principal fuente de contaminación del suelo que subyace a un relleno sanitario y aún más importante, del agua subterránea. Capas de revestimiento son colocadas por encima de la configuración final del relleno para evitar al agua de lluvia, infiltrarse en el relleno y de esta manera producir los lixiviados. Los sistemas de contención de rellenos emplean geosintéticos en varios grados, ya sea en la cobertura o en la base del relleno (Figura 3). En la figura 3 se puede observar el estado del arte en el diseño de un relleno sanitario, la parte superior o cobertura está compuesta en la corona por un geosintético para el control de la erosión, seguido de una cobertura de suelo sobrepuesta a una geomalla que transfiere los esfuerzos ejercidos por el suelo de cobertura y demás acciones que se puedan generar sobre la misma. Inmediato a esto está colocado un geodren (geomanta soldada a una geomembrana) que evita la percolación de la lluvia en el relleno, a continuación se coloca una GCL para garantizar por completo la impermeabilidad de la cara superior. En medio y a través del relleno se colocan geodrenes para captar el gas y los lixiviados que se generen dentro del relleno. En la base dos geodrenes arropan la geomembrana primaria, bajo estos se encuentra la geomembrana secundaria. El talud está reforzado con geomallas para

evitar falla en los taludes del relleno causados por el peso propio del mismo y sobrecargas circunstanciales. De esta manera se logra un diseño óptimo del relleno sanitario, donde los espesores se reducen a través de la colocación de los geosintéticos, dejando más volumen disponible para la disposición de los residuos. 4.

ESTUDIOS DE CASO EN LA INGENIERÍA MEXICANA

4.1. Casos de estudio con uso de geotextiles. El primer caso bien documentado del uso de geosintéticos en la ingeniería mexicana, corresponde a una experiencia en el lago de Texcoco en 1973, se construyeron dos terraplenes idénticos donde en uno se instaló un geotextil en el desplante, el terreno de desplante era una zona de inundación con suelos blandos intransitable (Murillo, 2012). Se decidió el uso de geotextiles para reforzar el terraplén para obtener una mejor distribución de esfuerzos que lograra un hundimiento uniforme y un mejor comportamiento (Murillo y Hernández, 1990). Fue construido un segundo terraplén sin refuerzo que trabajó bajo las mismas condiciones que el primero para servir como elemento comparativo. Los resultados no mostraron ventaja alguna, incluso el terraplén con refuerzo registró mayores asentamientos. A pesar de que el refuerzo de suelos comenzó con el uso de geotextiles, el mérito de estos materiales es de separación y filtro, no son efectivos como refuerzo (Brown et al., 1982).

207


Todavía hasta el año de 1987 en México se consideraban a los geotextiles como los materiales alternativos para el refuerzo del suelo (Fernández, 1987), pero a últimos años el uso de geomallas ha estado cobrando auge en México siendo cada vez más utilizadas en distintas aplicaciones.

julio de 2008 se reportó el corrimiento de los materiales colocados sobre la geomembrana y para el 2009 este era de 1 a 4 m en 400 m de longitud de la cortina, dejando al descubierto la geomembrana, que en algunos sitios se desgarró por tensión. De principio la solución fue mal planteada ya que la geomembrana es lisa y el ángulo de fricción en la interface de la geomembrana con otros materiales es muy bajo, del orden de 6-11° en contacto con geotextiles y de aproximadamente 17-18° con suelos granulares (Murillo, 1994).

Cabe destacar las siguientes propuestas:

4.4. Casos de estudio con uso de geotubos

Palacios et al. (1998), proponen un método alternativo de muros de tierra mecánicamente estabilizada donde el uso de geomallas y concreto lanzado, pudieran representar una alternativa a los muros convencionales por su bajo costo y velocidad de colocación. Morales y Monroy et al. (1996), proponen el diseño de pavimentos reforzados con geosintéticos utilizando la metodología de diseño AASHTO 93, sustituyendo las características del geosintético en la evaluación del número de seguridad estructural SN. A pesar de que se ha probado la inefectividad del geotextil en el refuerzo de suelos y pavimentos, se considera una buena propuesta que bien se podría evaluar con el material adecuado.

El uso de geotubos para protección costera ha tenido bastante éxito en las costas del golfo de México así como en las costas del pacífico.

4.2. Casos de estudio con uso de geomallas

4.3. Casos de estudio con uso de geomembranas En la Laguna de Zumpango en el estado de México se construyeron bordos de confinamiento, en el bordo poniente se instaló una geomembrana con fines de control de erosión. La fijación de la membrana se realizó de acuerdo a las buenas prácticas, sin embargo, la intención era que cumpliera funciones de control de erosión y no de impermeabilización, pero debido a que las Geomembranas son de superficie lisa, las olas no perdían prácticamente energía y al romper sobre el talud recorrían una mayor distancia incluso que cuando no se había instalado. Como la membrana quedó expuesta fue vandalizada y robada, cinco años después de su colocación había desaparecido totalmente (Murillo, 2012). En el año 2006 después de lluvias torrenciales una presa de almacenamiento que data de 1969 en Nuevo León, sufrió tubificación en la zona de mayor altura y producto de esta se formaron ocho conductos que atravesaron el cuerpo de la cortina. El geotecnista encargado de la reparación recomendó retirar el material superior, reponerlo por nuevo, y sobre la cara aguas arriba recomendó colocar una geomembrana HDPE de 2.3 mm de espesor sobre la cual se instalaría un geotextil no tejido con gramaje de 275 g/m2 mínimo, y sobre ambos, suelo impermeable con espesor de 0.6 m a su vez cubierto con un espesor de 0.5 m de enrocamiento. En

208

México está localizado en una región subtropical. Debido a la concentración de fuertes tormentas tropicales que aumentan año con año, no solo en cantidad sino en energía, indirectamente causan la pérdida de la línea costera, y eventualmente esta erosión pone en peligro las estructuras costeras. En 1982, Petróleos Mexicanos construyó el puerto de Dos Bocas en el golfo de México. Muchos años después, el efecto del oleaje provocó la pérdida de arena en la parte este del puerto donde se alojaban muchos oleoductos dejándolos en riesgo de colapso debido a la pérdida del suelo de cimentación. Se utilizaron tubos de geotextil que sirvieron en un inicio como soporte de los tubos y que posteriormente lograron la estabilización de la línea costera (Tseng et al., 2011) Las playas de la costa norte de Yucatán han estado en un proceso de erosión permanente que ha incrementado dramáticamente los últimos 15 años. La tasa de pérdida de la línea costera se estima en 1 m por año. En el 2004, se decidió instalar un tubo de geotextil de polipropileno tejido a lo largo de 4 km de playa, el cual ayudó a reducir la energía de las olas, funcionando como un rompeolas. Detrás del geotextil se genera una zona donde la reducida energía de la ola propicia la sedimentación de la arena, restaurando la playa erosionada (Álvarez et al., 2007). 5.

CONCLUSIONES

Los geosintéticos son materiales que presentan grandes ventajas, tanto técnicas como económicas. A pesar de ser ampliamente utilizados en el mundo, en México no son muy considerados. Las aplicaciones son muy variadas, siendo desde el refuerzo de suelos, drenaje de muros y campos deportivos, como impermeabilización en embalses, canales y rellenos sanitarios, protección costera, control de erosión, etc.


Presentan grandes ventajas entre las que se encuentran:

6.

REFERENCIAS

Simplicidad de diseño. Facilidad de colocación. Rapidez de colocación. Ahorro en costos en cuanto a las aplicaciones tradicionales. Flexibilidad en almacenamiento y transporte. Mucha competencia entre proveedores, lo que se traduce en precios competitivos.

Adams M. Nicks J. Stabile T. Wu J. Schlatter W. y Hartmann J., 2011, FHWA Geosynthetic Reinforces Soil Integrated Bridge System, Syntesis Report No. FHWAHRT-11-027, Federal Highway Administration, USA.

Como se puede observar en los casos de estudio, el uso de geotubos en México ha sido un éxito logrando la protección de la infraestructura de Pemex así como la ganancia de línea costera en Yucatán.

ASTM, 1997, Annual book of standards, ASTM International, West Conshohocken, PA, 2011.

• • • • • •

Sin embargo, se tuvieron algunos fracasos en la aplicación de geotextiles y geomembranas, no por la mala calidad o aplicación de los materiales, sino en los errores conceptuales y de criterio por parte de los ingenieros proyectistas. El buen uso de ellos presenta claras ventajas tanto técnicas como económicas en todas las aplicaciones en comparación con las técnicas y con los materiales considerados tradicionales. A manera de propuesta, se debe comenzar con la inclusión en los planes de estudios de la carrera de ingeniería civil, con un capítulo en la materia de ingeniería ambiental (ingeniería sanitaria o equivalente) a nombre de: “diseño de rellenos sanitarios con geosintéticos”, dado que como se mostró en la sección anterior, el uso de geosintéticos los mismos representan el estado del arte en su diseño. En cuanto a su aplicación como material de refuerzo se propone la inclusión en la materia de Mecánica de suelos (Geotecnia 2, geotecnia aplicada o equivalente), en el capítulo concerniente al empuje de suelos y estructuras de retención, de un apartado de nombre “Estructuras de suelo reforzado”, dado que usualmente si es visto, suele darse como Tierra Armada®, el cual es el nombre de una compañía con un sistema patentado, no el de un concepto con aplicaciones variadas. En este apartado propuesto se puede enseñar el diseño de muros mecánicamente estabilizados con geosintéticos como material de refuerzo, dado que muestran la misma efectividad a un costo mucho menor. El estudio y desarrollo en esta área relativamente nueva, puede generar un gran avance en la ingeniería geotécnica, ambiental, hidráulica y de caminos, que se verá traducida en grandes beneficios para el país.

Alvarez E. Rubio R. y Ricalde h., 2007, Beach restoration with geotextile tubes as submerged breakwaters in Yucatan, Mexico. Geotextiles and Geomembranes 25: 233-241

Bonaparte R. Holtz R.D: y Giroud J.P., 1985, soil reinforcement design using geotextiles and geogrids, Proceedings of the ASTM Symposium on geotextiles testing and the design engineer, ASTM special technical publication 952. 69-116. Brown S.F. Jones C.P.D. y Broderick B.V., 1982, Use of non woven fabrics in permanent road pavements. Proceedings of the institution of civil engineers, pt. 2, 73, 441-563. Donald P. C., 2001, Foundation Design, Principles and Practices (2nd Edition). Prentice Hall. Elias V. Christopher B.R. y Berg R.R., 2001, FHWA Mechanically Stabilized Earth Walls and Reinforced Soil Slopes-Design and Construction Guidelines, No. FHWANHI-00-043, Federal Highway Administration, USA. Fernández C., 1987, Empleo de fibras textiles en pavimentación, Memorias de la XIII Reunión nacional de mecánica de suelos, Sociedad Mexicana de Mecánica de Suelos, Mazatlán, México. Jones M., 1999, Mechanics of Composite Materials (2nd edition), Taylor and Francis, USA. Koerner J. Soong T-Y. y Koerner R. M., 1998, Earth Retaining Wall Costs in the USA, GRI Report #20, Geosynthetics Institute, Folsom, PA, 1998. Mcgown A. y Brown S.F., 2008, Applications of reinforced soil for transport infrastructure, in: Advances in transport geotechnics, Ellis, yu, McDowell, Dawson & Thom (Eds). Taylor and Francis Group, London. Murillo R., 1994, Geomembranas usuales en México, Memorias de la XVII Reunión nacional de mecánica de suelos, Sociedad Mexicana de Mecánica de Suelos, Xalapa, México. Murillo R., 2012, Geosintéticos solución o problema, Memorias de la XXVI Reunión nacional de mecánica de suelos e ingeniería geotécnica, Sociedad Mexicana de Ingeniería Geotécnica, Cancún, México.

209


Murillo R. y Hernández A., 1990, Separación de materiales en caminos sobre suelos arcillosos blandos, Simposio Geosintéticos: Geotextiles y geomembranas, Sociedad Mexicana de Ingeniería Geotécnica, México. Murray R.T: y McGown A., 1982, The selection of testing procedures for the specification of geotextiles, Proceedings 2nd International Conference on Geotextiles. Las Vegas, 2, 291-296. Palacios S. Morales y Monroy R. y Hernández C., 1998, Muro de contención a base de georredes y concreto lanzado, Memorias de la XIX Reunión nacional de mecánica de suelos, Sociedad Mexicana de Mecánica de Suelos, Puebla, México. Rico-Rodríguez A., 1982, La Ingeniería de Suelos en las Vías Terrestres Vol. II (1ª Edición), Edit. Limusa, México. Rujikiatkamjorn C. (Ed), 2011, Advanced Rail –Ballasted track. CRC Press. Sawicki A., 2000, Mechanics of Reinforced Soil, Taylor & Francis. Schlosser F. y Vidal H., 1969, La terre armée, Bulletin de liaison des laboratoirie. Routiers ponts et chaussees 41, 101-144. Tseng F. Lin Z. Solis A. y Sánchez M., 2011, Geotextile Tube Solution for Dos Bocas PEMEX Marine Facilities Beach Erosion Problem in Tabasco, Mexico, Coastal Engineering Practice (2011), 640-649. Van Santvoort G., 1995, Geosynthetics in Civil Engineering, Centre for Civil engineering Research and Codes, Report 151, Balkema Publishers. Vidal, H., 1969, The principle of reinforced earth, Highway research record No. 282 Zornberg J.G. y Barry R.C., 1999, Geosynthetics, in: The handbook of groundwater engineering, Delleur J.W. (Ed), CRC Press LLC.

210


Biocompuestos arcillosos estabilizados a partir de cenizas de paja de cereal Straw ash stabilized clayey bio-composites

C. Cobreros Rodríguez, Facultad de Ingeniería, Universidad Autónoma de Querétaro, Av. Cerro de las Campanas s/n. Colonia Las Campanas, C.P. 76010, Santiago de Querétaro, Qro., México; carlos_cobreros@yahoo.es J.L. Reyes Araiza, Facultad de Ingeniería, Universidad Autónoma de Querétaro, Av. Cerro de las Campanas s/n. Colonia Las Campanas, C.P. 76010, Santiago de Querétaro, Qro., México; araiza@uaq.edu.mx A. Manzano-Ramírez, CINVESTAV-Querétaro. Libramiento Norponiente # 2000, C. P. 76230, Fraccionamiento Real de Juriquilla. Querétaro, Qro. México; amanzano@qro.cinvestav.mx R. Nava Mendoza, Facultad de Ingeniería, Universidad Autónoma de Querétaro, Av. Cerro de las Campanas s/n. Colonia Las Campanas, C.P. 76010, Santiago de Querétaro, Qro., México; rufino@uaq.edu.mx RESUMEN. En un momento de conciencia de los graves problemas ambientales del planeta y del impacto del sector de la construcción y sus consecuencias en este problema ambiental, se hace una revisión sobre como la construcción con tierra, y el uso de compuestos arcillosos, puede convertirse en una alternativa ante dicho panorama ambiental. La construcción con tierra y los compuestos arcillosos poseen una serie de ventajas, pero también una serie de inconvenientes, y parte de estos últimos se pueden solventar a partir de su estabilización. Se presenta una revisión de las diferentes posibilidades de estabilización de los compuestos arcillosos destacándose la inclusión de materiales puzolánicos y en concreto el uso de ceniza de paja de cereal como material puzolánico. Palabras clave: Paja de Cereal, Ceniza, Biocompuesto, Arquitectura Sustentable

1.

INTRODUCCIÓN

1.1.

Impacto ambiental y modelo industrial

Existen antecedentes de detección y manifestación de los problemas ambientales causados por el hombre en el planeta, pero no es hasta 1987 y con la aparición del informe Nuestro futuro común (Informe Bruntland) desarrollado por la comisión mundial sobre el Medio Ambiente y el Desarrollo de la Organización de las Naciones Unidas, cuando se produce un primer acuerdo mundial sobre la concepción contemporánea del problema ambiental, sobre las causas de la degradación del medio natural en el que estamos inmersos, y cuando se da la incorporación del concepto de sostenibilidad, más concretamente de desarrollo sostenible, al ideario de muchas disciplinas, entre ellas también la construcción y la arquitectura. Actualmente, el modelo productivo predominante tiene origen en la revolución industrial de hace unos doscientos cincuenta años. La actividad industrial depende de la interacción entre la humanidad y el medio ambiente, al estar consumiendo los recursos naturales para poder llevar a cabo su función. Los grandes corporativos que dirigen esta actividad industrial no le han prestado la debida importancia a cómo se da esta

interacción y no se han medido los impactos sociales y medio ambientales a largo plazo. El actual modelo de desarrollo económico, basado en el consumo desmesurado de los recursos naturales desentendido de su relación con el deterioro ecológico, se pone en crisis a partir del informe “Los límites del Crecimiento” encargado al Massachusetts Institute of Technology (Meadow et al., 1972). La sociedad actual, se basa en una disposición indiscriminada de fuentes de energía (primero el carbón, luego el petróleo, más tarde la energía nuclear) que han permitido acceder masivamente a los recursos con indiferencia respecto a su procedencia y distancia de origen. Estamos inmersos en una espiral de crecimiento ilimitado en el consumo de recursos y en la consiguiente generación de residuos (Cuchí, 2005). Nos hayamos en un fin de ciclo de acumulación sistémica. La aceleración del consumo de recursos, junto con el aumento de la renta per cápita, la explosión demográfica y la extensión del transporte horizontal han dado origen a esta otra forma de organización cultural, la sociedad industrial, donde cada material extraído de la litosfera acaba degradado y vertido sobre la delgada capa de biosfera. El modelo productivo dominante, está basado en una secuencia lineal extracción-fabricación-uso-residuo, que conlleva una transformación de recursos en desperdicios que implica una disminución del stock de capital natural con que cuenta el planeta, capital natural definido como

211


“el conjunto formado por los recursos naturales con que cuenta el planeta, en su orden y calidad originales y, por tanto, con una utilidad social específica” (Wadel, 2010). La tierra cuenta con una cantidad limitada de materia. La ley de organización de esta materia se modifica debido a lo que se conoce como degradación entrópica, un proceso natural que provoca el desorden y la dispersión de los materiales. Como según el modelo actual de producción no se realiza el reciclaje de los recursos invertidos éstos acaban convirtiéndose en residuos gaseosos, líquidos o sólidos, en cantidades y ritmos muy superiores a la capacidad del planeta para digerirlos o regenerarlos. Esto nos está llevando al límite de los recursos naturales a nivel global, pues se necesitan cada vez más territorios para adquirir más recursos para una sobreproducción que no puede dejar de crecer según los patrones de crecimiento actual. El sistema de producción natural, sin embargo, hace que el planeta no intercambie materiales con su entorno ni genere residuos, sino que recicla la materia constantemente, empleando en ello energía también renovable. La biosfera, litosfera e hidrosfera funcionan como grandes depósitos, zonas de tránsito y transformación de materiales que aprovechan el movimiento del agua en su ciclo hidrológico entre la biosfera y la atmosfera producido por la energía solar y la gravedad, así como las transformaciones materiales que produce la energía geotérmica en la litosfera y el fondo de la hidrosfera (Fernández, 2007). En la Biosfera se llega a alcanzar un metaequilibrio a nivel ecosístemico. Desde el presente trabajo de investigación, se pretende superar la idea de que existe un sistema natural y un sistema industrial totalmente separados. Se entiende que el sistema industrial y el natural están entrelazados, vinculados y con la idea de la ecología industrial se pretende hacer dialogar el sistema industrial en conjunto con el sistema natural. 1.2. Impacto construcción

ambiental

del

sector

de

la

Sabemos que la vida del ser humano gira en torno al hábitat construido, y que la arquitectura en la que se basa este hábitat construido se materializa a través de una construcción basada en una disposición indiscriminada de fuentes de energía (carbón, petróleo y nuclear) que permiten el acceso masivo a recursos minerales. La industria de la construcción es una de los mayores y más activos sectores en crecimiento a nivel mundial. El sector de la construcción, según la OCDE en 2003, por acciones directas o indirectas, consume más del 40% de la energía producida y es responsable del 30% de las emisiones de CO2, por acciones directas o indirectas y consume más materia prima que ninguna otra actividad

212

económica (Alrededor de 3000 Mt/año, casi el 50% del total en peso) (Pacheco-Torgal y Jabali, 2012). La fabricación de cementantes y concretos a base de cemento Portland para construcción contribuye aproximadamente con el 5% de la emisión antropogénica de CO2 a la atmósfera (Worrel et al., 2001; Gartner y MacPhee, 2011). Este impacto ambiental del sector de la edificación lo identificamos con el consumo de recursos no renovables (PachecoTorgal y Jabali, 2012), la generación de residuos contaminantes que conllevan la aceleración de la destrucción del stock de capital natural por degradación entrópica (Wadel et al., 2010), acrecentado por el actual continuo crecimiento de la población y sus necesidades en términos de edificación e infraestructura (PachecoTorgal y Jabali, 2012). El manejo de materiales no locales influye en el costo energético por transporte (Berge, 2001) y la industria de la construcción apenas presta atención a productos o materiales de construcción renovables, naturales y locales. Se da una situación de dependencia de consumo de combustibles fósiles que cada vez son más escasos y caros, lo que nos lleva a la búsqueda de nuevas alternativas en el uso de materiales con huella ecológica menor y nuevas fuentes de energía al tiempo que nuevas maneras de hacer eficiente el uso de la energía. Por otro lado, los edificios contienen una gran cantidad de químicos, metales pesados, componentes volátiles orgánicos (VOCs), y otros materiales tóxicos que contaminan el aire interior y pueden causar problemas de salud, enfermedades, desarrollo de enfermedades en recién nacidos, supresión del sistema inmune e incluso cáncer (Chikara et al., 2009; Reboux et al., 2011). Muchos materiales no regulan bien o no se comportan bien ante la humedad de los espacios interiores, conllevando una mala calidad del aire interior pudiendo provocar enfermedades como bronquitis, asma etc. Actualmente en México, los materiales de construcción que más se usan para vivienda son el tabique rojo y el block. Los hornos empleados para la producción de ladrillos rojos presentan los siguientes problemas: Emplean residuos como combustibles, son grandes generadores de contaminación, dan uso irracional del suelo, conforman un sector marginado, la gente que se dedica a la cocción de ladrillos no cuenta con recursos para invertir en tecnología. Los blocks conllevan todos los problemas que conllevan los materiales basados en el cemento, alto consumo de energía, de combustibles fósiles, consumo de recursos naturales (Manzano et al., 2011). 1.3.

Propuesta de cambio de tendencia

Partimos de la conciencia del deterioro ambiental y la degradación del medio natural en el que estamos


inmersos hoy día, de que la vida del ser humano gira en torno al hábitat construido, y de que la arquitectura en la que se basa este hábitat construido se materializa, actualmente, basada en una disposición indiscriminada de fuentes de energía y con un impacto ambiental ya comentado. Sabemos que el sector de la construcción y la arquitectura por sí solos no pueden resolver los problemas medioambientales del planeta, pero pueden contribuir significativamente. Ante la emergencia de un nuevo paradigma, “La arquitectura contemporánea debe incorporar la sensibilidad ambiental de su tiempo catalizando un nuevo impulso para la invención y la expresión formal en la manera de construir” (Pich Aguilera, 2008). Tomando la idea de metabolismo para cuantificar la energía y recursos/materiales que atraviesan las economías, definimos el “metabolismo industrial”, al igual que el metabolismo natural, como un sistema integrado de procesos técnicos que convierte materias primas y energía, más trabajo, en productos acabados y en residuos. El sistema es regulado por el balance entre la provisión y la demanda de productos y trabajo, siendo el marco económico el mecanismo de regulación del metabolismo industrial (Wadel, 2010). Según la definición de ecología industrial, se entiende que los flujos de materiales dentro de un metabolismo industrial pueden asimilar las condiciones de la biosfera donde los residuos de una actividad pueden ser los recursos de sí misma, o bien de otra. Ecología Natural → sistemas auto-reguladores naturales → sistemas auto-reguladores naturales humanos → Ecología Industrial. En los sistemas biológicos se rigen por ciclo en el que no hay residuos sino nutrientes y que es movido por la energía renovable solar, con participación de la gravedad. La idea principal que surge de la definición de ecología industria es la de cerrar los el ciclo de los flujos materiales, propuesto por William McDonough y Michael Braungart. Estos autores proponen avanzar desde los ciclos de vida “de la cuna a la tumba” para los productos y materiales hacia ciclos “de la cuna a la cuna”, sugiriendo así la idea del cierre de ciclos (McDonough y Braungart, 2002). La aplicación de la ecología industrial en la edificación se puede hacer a partir del análisis de ciclo de vida de los materiales utilizados en esta actividad. La meta del Análisis del Ciclo de Vida (ACV) es caracterizar todos los flujos materiales para especificar su potencial impacto ambiental y poder considerar alternativas a estos impactos. Teniendo como ejemplo y antecedente primero de producción sostenible la propia biosfera y naturaleza, considerada como una gran máquina de reciclar que es, la presente propuesta de investigación pretende trabajar alrededor de la idea de Sostenibilidad en la arquitectura,

donde, si consideramos la habitabilidad como la utilidad de la arquitectura, plantea reconocer y cuantificar todos los flujos materiales (los que proveen la energía precisa para conseguir la habitabilidad, los materiales de construcción, los residuos y el agua) que son precisos para conseguir esa habitabilidad, y reorganizarlos para que estos flujos circulen en ciclos cerrados, planteando el cierre de todos los ciclos abiertos de los sistemas de producción que generan residuos al aire, agua o tierra, pasando a considerar el residuo como propio recurso. Para poder cerrar el ciclo de los materiales, se presenta una propuesta de modelo a seguir (Wadel, 2010): Uso primordial de materiales naturales (por ejemplo, aislamiento térmico de lana de oveja o cerramientos interiores de madera), reciclados y reciclables (por ejemplo, aluminio y acero galvanizado con contenido reciclado en un 90% o más). Emplear materiales de bajo impacto ambiental (baja energía y CO2 incorporados, como los naturales renovables y reciclados/reciclables), y potenciar la reciclabilidad. Trabajar con el mínimo número de materiales posible y estudiar las posibilidades de gestión en ciclo cerrado para diversos materiales. Disponer de materiales con mayor participación de energías renovables, eliminación de procesos tóxicos y reciclaje en sus procesos de fabricación. No sólo hay que pensar en el tipo de edificio, el sistema constructivo y los materiales, sino también en la gestión de los recursos a lo largo de su vida útil. Si pensamos en los recursos y los materiales como nutrientes, ya sean biológicos o técnicos, se puede recuperar el valor económico del residuo, al considerarlo como recurso. La reconversión de los residuos en nuevos recursos es una necesidad del sistema técnico para afrontar el reto de la sostenibilidad, para poder hacer una gestión de los flujos materiales en ciclos cerrados. Conseguir el cierre total del ciclo de los flujos materiales es difícil, pues hay materiales que tienen dificultades técnicas para reciclarse completamente, existen límites termodinámicos que lo impiden. Es difícil el control total de la energía de extracción, fabricación y transporte de materiales, uso del edificio, derribo, etc. En el presente trabajo se hace una revisión sobre como la construcción con tierra, y el uso de compuestos arcillosos, puede convertirse en una alternativa ante el panorama ambiental enunciado. La construcción con tierra y los compuestos arcillosos poseen una serie de ventajas, pero también una serie de inconvenientes, y parte de estos últimos se pueden solventar a partir de su estabilización, por ello, se presenta una revisión de las diferentes posibilidades de estabilización de los compuestos arcillosos destacándose la inclusión de materiales puzolánicos y en concreto el uso de ceniza de paja de cereal como material puzolánico, como ejemplo de aprovechamiento de un residuo y su conversión en recurso.

213


2. COMPUESTOS DE ARCILLOSOS ESTABILIZADOS

TIERRA

El hombre ha construido con tierra desde hace aproximadamente 9000-10000 años (Minke, 2001). La construcción con tierra se puede decir que comenzó con las primeras sociedades agrícolas, que nos llevaría a entre 12000 y 7000 a.C. (Pacheco-Torgal y Jabali, 2012). La construcción con tierra consiste en el aprovechamiento del suelo disponible para la fabricación de materiales o elementos constructivos (Pacheco-Torgal y Jabali, 2012). El uso de la tierra en la construcción constituye una oportunidad de reducir el impacto ambiental en la edificación, fuente de abastecimiento de material ilimitada, permitiéndonos la posibilidad, incluso, de utilizar tierra de las propias excavaciones, favoreciendo la reducción de residuos de la obra y los gastos de transporte de material. El suelo que se usa en la construcción con tierra consiste sólo en la fase mineral excluyendo la fase vegetal presente en las primeras capas del mismo. Esta fase mineral incluye arcilla, limo y arena en diferentes proporciones (Pacheco-Torgal y Jabali, 2012). La arcilla es el principal material utilizado en los materiales de tierra (Manzano et al., 2007). La arcilla es producto de la descomposición química de silicatos y minerales (labradorita (moonstone), micas y minerales ferromanganésico (ferromagnesian)) (Pineda et al., 2007), puede ser definida como un material terroso, natural y de granulometría fina. La arcilla está compuesta esencialmente de sílice, alúmina y agua (Manzano et al., 2007), estructuras coplanarias de aluminosilicatos en los cuales algunos cationes pueden ser modificados de manera fácil (Pineda et al., 2007). La naturaleza particular de estos iones no es crítica como para mantener la estructura de la arcilla, sólo la carga eléctrica total es importante. En soluciones acuosas con un pH del agua normal, las partículas de arcilla presentan una carga negativa. La intensidad de la carga eléctrica depende la estructura atómica particular y la composición química de la arcilla. Por ejemplo, iones de potasio pueden ser remplazados por iones de hidrógenos induciendo a la hidratación interplanaria (Pineda et al., 2007). Según su estructura, las arcillas son clasificadas en tres grandes grupos: caolinitas, montmorillonitas e illitas (Pineda et al., 2007). La tierra o compuesto arcilloso se puede utilizar como material de construcción para edificaciones ecológicas y confortables debido a su bajo costo, su bajo consumo de energía en la construcción y su buen comportamiento térmico (Manzano et al., 2007; Pineda et al., 2007).

214

Las técnicas más usuales de usos de la tierra y los compuestos arcillosos en la construcción son: - “Bahareque”: paramentos de tierra con alma mediante entramado vegetal. - “Cob”: mezcla de arcilla y paja conformada in situ. Masa de barro y abundante paja que se apila y se moldea a mano para formar muros monolíticos, con textura y resistencia que permiten explorar cuestiones de forma, ligereza, escala y contraste (Bestraten, 2011). - “Tapial o tierra apisonada”: sobre moldes de encofrados) estabilizada o no, aunque actualmente la proyección es que sea estabilizada siempre. Consiste en tierra amasada y apisonada en encofrados para conformar muros monolíticos (Maldonado, 2003). Necesidad estructural de muros que van de 0.5-0.9m. de grosor con capacidad de edificarse con tapial hasta 2 plantas. Se tiene baja resistencia a compresión que origina serias limitaciones en términos arquitectónicos y de diseño estructural (Cristelo et al., 2012). La resistencia de este tipo de muros debe ser mejorada (Muntohar, 2011). En la construcción con tapial los suelos tienen un comportamiento arcilloso distintivo en cuanto que la cohesión juega un papel importante en la estabilidad del elemento constructivo. - “Adobe”: ladrillos de tierra arcillosa cruda, de la palabra árabe “attob”, que significa “ladrillo secado al sol”. Tierra conformada en molde secado al sol que muchas veces para evitar la fractura por retracción tiene añadido de refuerzo fibroso como la paja u otras fibras vegetales. El adobe está compuesto de arcilla arenosa, agua, paja y materiales orgánicos. El adobe se usa mayoritariamente en climas cálido-secos, donde es muy durable, aunque puede ser usado en climas húmedos con preparaciones especiales. Se conocen estructuras de adobe de más de 10000 años de vida, siendo uno de los materiales más antiguos que existen. Necesidad de gran cantidad de agua para su fabricación. Densidad 12001500kg/m3, Resistencia a compresión: 0,53-1,72 N/mm2. (Bestraten, 2011). - “Bloques de tierra comprimida”(BTC): evolución del adobe donde la tierra es comprimida manual o mecánicamente. Es una de las técnicas que más ha crecido y evolucionado en los últimos 50 años, especialmente en países en desarrollo (Lima et al., 2012). BTC como alternativa a los ladrillos de cerámica cocida. Densidad 1700-2000kg/m3, Resistencia a compresión: 1-10 N/mm2. (Bestraten, 2011). Actualmente, casi el 50% de la población vive en construcciones de tierra (Guillaud, 2008), mayoritariamente localizada en países en vía de desarrollo. Sin embargo, también se puede encontrar interés en la construcción con tierra en países desarrollados. Varios países ya tienen normativa en relación a la construcción con tierra (Pacheco-Torgal y Jabali, 2012), como por ejemplo la normativa UNE 41410:2008, publicada en el 2010 por AENOR sobre


definiciones, especificaciones y métodos de ensayo de los BTC. (Bestraten et al., 2011). La construcción con tierra y el uso de materiales arcillosos ha dado un paso adelante en los procesos de fabricación. Con la industrialización de los materiales de tierra se mejoran las características naturales del material y se garantizan unas calidades óptimas para su empleo y puesta en obra, reduciendo los tiempos de ejecución. En los últimos tiempos se ha desarrollado la prefabricación del tapial y la introducción en taller de sistemas de instalaciones dentro de los muros (Bestraten et al., 2011). En la última década se han publicado en Scopus casi 10 veces más que en la década anterior, lo que denota interés científico por transformar la industria de la construcción en más sostenible (Pacheco-Torgal y Jabali, 2012). Los materiales de tierra sin cocer son materiales que proveen una alternativa sostenible y saludable como reemplazo de los materiales convencionales de mampostería (Lawrence et al., 2008). El cambio de tendencia en el interés científico por la construcción con tierra ha originado también un aumento en el número de normativas y códigos de regulación respecto a ella (Cristelo et al., 2012) 2.1. Características y ventajas de la construcción con compuestos de tierra y arcillosos - Los procesos de producción son sencillos, sin necesidad de cocciones que generan combustiones y un alto consumo energético. No se producen emisiones toxicas durante el proceso de transformación ni durante su vida útil. El impacto paisajístico en la producción se puede reducir a cero. Es el material más accesible al hombre (Barrionuevo, 2011). Los materiales de tierra y arcillosos pueden absorber contaminantes (Minke, 2001; Zami y Lee, 2010). - Buen rendimiento térmico y por lo tanto energético = Eficiencia energética a la hora de garantizar el confort interior (Minke, 2001; Zami y Lee, 2010; Morton, 2008; Maini, 2007; Lima et al., 2012; Piattoni et al., 2011; Delgado y Guerrero, 2006). Buena conductividad térmica, del adobe 0,45-0,8W/mºC, del bloque de tierra comprimida 0,75-1,1 W/mºC, o del tapial con 0,7W/mºC en comparación del concreto con 1,6 y el ladrillo cerámico macizo con 1.8-2.0 W/mºC, ladrillo cerámico perforado con 1,4-1,6 W/mºC (Neila, 2005). La construcción con tierra y compuestos arcillosos, aporta inercia térmica que ayuda a mantener constante la temperatura interior en climas con variaciones térmicas amplias (Pineda et al., 2007). Un compósito de arcilla como recubrimiento interior en clima mediterráneo provee una significativa mejora del confort interior lo que conlleva un ahorro de energía de operación para climatización (Liuzzi et al., 2013).

- Aceptable energía primaria incorporada y emisiones de CO2 equivalentes de la tierra 0,45MJ/kg y 0,023kgCO2/kg en comparación con el concreto con 0,86MJ/kg y 0,13kgCO2/kg, del bloque de concreto con 0,67-0,81MJ/kg y 0,061-0,098kgCO2/kg y el ladrillo cerámico con 0,2-4MJ/kg y 0,22kgCO2/kg (Hammond y Jones, 2008). - Eficiencia en el costo (Zami y Lee, 2010; Minke, 2001; Morton, 2008; Walker et al., 2005; Maini, 2007), aunque esto depende de varios factores como la técnica usada, los costos de puesta en obra, el proceso de estabilización, la durabilidad y la necesidad de reparación (Pacheco-Torgal y Jabali, 2012). - No se requieren complejas tecnologías ni profesionales muy especializados para su puesta en obra (Zami y Lee, 2010; Minke, 2001; Maini, 2007) y esto hace que se potencie la autoconstrucción (Minke, 2001; Zami y Lee, 2010). - Posibilidad de creación de empleo descentralizado (Sanya, 2007; Zami y Lee, 2010) - La construcción con tierra no puede considerarse que consuma materiales no renovables, pero no consume tanta cantidad de materia prima como materiales tradicionales como el ladrillo (Pacheco-Torgal y Jabali, 2012). Abastecimiento de material casi ilimitado o con disponibilidad en grandes cantidades en la mayoría de las regiones (Bestraten et al., 2011; Zami y Lee, 2010). Es un material con posibilidad de extracción y producción local, lo que ayuda a la reducción de consumo de energía y emisiones de CO2 por transporte. La construcción con tierra puede reusar millones de toneladas de residuos de suelo y otros materiales como el yeso producidos en la ciudad (Morton, 2008). - Respecto a los residuos, los materiales en base a tierra o compuestos arcillosos pueden ser depositados en el medio sin suponer una amenaza ambiental, por lo que se puede considerar que no se genera residuo (PachecoTorgal y Jabali, 2012; Bestraten et al., 2011). Los materiales de tierra pueden ser reusados fácilmente sin afectar al medio ambiente mediante molienda y mojado, o devuelto a la tierra (Marín et al., 2011). Fácil demolición (Bestraten et al., 2011). En caso de un material estabilizado con cemento o cal, u otro estabilizante, la proporción del estabilizante recomendada (5-10%) es suficientemente baja como para no suponer ningún riesgo para el entorno natural, por lo se permite la regeneración de suelos y de la masa vegetal (Bestraten et al., 2011). - No se producen emisiones tóxicas durante el proceso de transformación ni durante su vida útil (Bestraten et al., 2011). La construcción con tierra no está asociada con los efectos adversos de la existencia de componentes volátiles orgánicos (VOCs), contribuyendo a la calidad del aire interior (PachecoTorgal y Jabali, 2012).

215


- Capacidad de regulación de la humedad interior (Pacheco-Torgal y Jabali, 2012; Liuzzi et al., 2013; Allison y Hall, 2010; Ashour et al., 2011; Hall y Allison, 2009; Liuzzi et al., 2010), ecualizando esta, siendo capaz de mantener esta dentro de los rangos de confort de entre 40% y 60% (Pacheco-Torgal y Jabali, 2012). Mejor comportamiento higrotérmico en comparación con materiales convencionales de construcción (Allison y Hall, 2010; Hall y Allison, 2011; Oti et al., 2010; Millogo et al., 2008; Minke, 2001; Oti et al., 2009; Parra-Saldivar y Batty, 2006). Edificios construidos en tierra logran un equilibrio de la humedad del ambiente interior más rápido que otros materiales convencionales (Minke, 2001). - Muy buen comportamiento ante el fuego (Zami y Lee, 2010; Walker, 2005). Material considerado incombustible, que no propaga el fuego y no emite gases tóxicos en caso de incendio. Resistencia al fuego considerada de REI90 para espesores iguales o mayores a 150mm (Bestraten et al., 2011). - Cualidad de aislamiento acústico debido a su densidad y masa (Zami y Lee, 2010; Bestraten, 2011; Lima et al., 2012; Piattoni et al., 2011; Delgado y Guerrero, 2006). Para una pared de entre 150 y 1200 mm de espesor, el aislamiento frente al ruido aéreo varía entre 49 y 70 dB, cumpliendo con la normativa española actual para ello (Bestraten et al., 2011). - A pesar de tener una resistencia a compresión baja, el adobe por ejemplo de 60kg/cm2 (Pineda et al., 2007), se pueden usar sin problema en la edificación como materiales no portantes (Lima et al., 2012), teniendo solvencia suficiente si se usan como elementos autoportantes independientes a la estructura principal del edificio (Bestraten et al, 2011). 2.2. tierra

Posibles desventajas de la construcción con

- La absorción de agua puede hacer perder estabilidad del adobe en ambientes húmedos, lo que supone un problema. La absorción de agua es afectada por el tipo de concentración de agentes tenso-activos. Cuando un agente tenso-activo no se usa en la mezcla, estos materiales pueden absorber mucha agua (Pineda et al., 2007). Una de las principales deficiencias en la construcción con tierra sin estabilizar es los daños por absorción de agua (Marín et al., 2011). - Menor durabilidad que la mayoría de los materiales convencionales de construcción. Necesidad de alto mantenimiento (Zami y Lee, 2010). Aunque existen construcciones en tierra de más de cientos de años de antigüedad, es algo sobre lo que hay que prestar atención. El mayor mecanismo responsable de la erosión de la tierra como material de construcción es la energía cinética del impacto de la lluvia (PachecoTorgal y Jabali, 2012).

216

- Puesta en obra y trabajabilidad intensiva (Zami y Lee, 2010; Pacheco-Torgal y Jabali, 2012), que puede conllevar un bajo rendimiento económico. - Mal comportamiento sísmico (Zami y Lee, 2010). - No facilidad en el revoco, enlucido y terminación (Zami y Lee, 2010). - No es un material homogeneizado y estandarizado (Zami y Lee, 2010). - Limitaciones estructurales, normalmente se necesitan grandes grosores de pared para su buen uso (Zami y Lee, 2010). Baja resistencia a compresión, aunque suficiente como para ser utilizado en muros de carga (Bestraten et al., 2011). Valores para esfuerzos de tracción, flexión y cortante mínimos (entre 0,02 y 0,1 N/mm2), lo que conlleva, según su función estructural, un armado (Bestraten et al., 2011). La resistencia y comportamiento mecánico muchas veces depende de la geometría y tamaño del elemento constructivo en tierra (Pacheco-Torgal y Jabali, 2012). El futuro de la construcción con tierra está en la investigación en la industrialización y mecanización para la optimización de los procesos. Investigación en la adición de materiales que aporten estabilización, tema que se aborda más adelante, y protección frente a la humedad, introducción de aligerantes que no comprometan la resistencia del material y las posibilidades de incorporación de residuos de diferentes industrias (cenizas volantes, escorias siderúrgicas, escombros de obras,…) (Bestraten et al., 2011). 2.3.

Caracterización de la tierra/arcilla

La posible aplicación o no de la tierra como material de construcción en el siglo 21 depende del conocimiento de las propiedades química, física y mecánicas del suelo (Manzano et al., 2007). Caracterización de los tipos de suelo/arcilla: - Distribución granulométrica: Contenido de arcilla, de limo, arena y grava (Cristelo et al., 2012; Guillaud, 2008). Se determina con respecto a los estándar ASTM C136 (2001) y ASTM D1140 (2000) (Marín et al., 2011). - Cohesión: Capacidad de las partículas a aglutinarse juntas y resistencia a flexión en la fracción gruesa. Por medio del test resistencia a compresión seca y el test de cohesión (Guillaud, 2008). - Límites de Atterberg (Límite líquido y límite plástico) (Cristelo et al., 2012). Límites de consistencia según ASTM D4318 (2000) (Marín et al., 2011). Plasticidad que conlleva una mejor trabajabilidad y adecuado contenido de agua (Guillaud, 2008). - Espectroscopia de impedancia (Impedance spectroscopy): para definir la configuración de la tierra modificada (Manzano et al., 2007). Método experimental para medir las propiedades eléctricas de los materiales y sus interfaces (Pineda et al., 2008). La


medición de impedancia es un método no destructivo para caracterizar materiales en electroquímica, física y geofísica. Esta técnica se usa para hacer correlaciones entre parámetros eléctricos y permeabilidad, difusividad y porosidad. Se usa también este método para relacionar los parámetros eléctricos con resistencia mecánica y la reducción de absorción de agua, asociada a la porosidad capilar (Pineda et al., 2008). - Difracción de rayos X: permite determinar al grupo al que pertenece la arcilla que se está analizando (Manzano et al., 2007; Manzano et al., 2011) y el espaciado/distancia interplanaria, con lo que se puede deducir la susceptibilidad para absorber agua y para ser susceptibles de ser expansivas. - Test de potencial Z: sirve para medir el tamaño de partícula de arcilla y su carga superficial y determinar la posibilidad de mezclar las partículas de arcilla con emulsiones que ayuden a estabilizar la tierra. (Manzano et al., 2007; Manzano et al., 2011). - Espectro de Infrarrojos (IR): para conseguir evidencia cualitativa de la absorción de ciertos agregados como la amina o ácidos grasos en la superficie de las partículas de arcilla y de su permanencia después de repetidos lavados y de la radiación UV (Pineda et al., 2007). - Microscopía de Escaneo Electrónico (SEM): para determinar la morfología de la arcilla, el suelo o la arcilla arenosa. Caracterización de los compuestos arcillosos: - Parámetros de compactación según los test Proctor: contenido óptimo de agua según norma BS 1377, 1990, q nos permite clasificar el suelo según la norma ASTM. D2487-11, 2011 (Cristelo et al., 2012; Guillaud, 2008). - Retracción: propiedad del suelo de cambiar de volumen en la presencia de agua (Guillaud, 2008). - Estudio de susceptibilidad a la absorción y desorción de agua (Manzano et al., 2007). Absorción de agua según norma ASTM C67 (2003). Existen modelos físicos-matemáticos para establecer la capacidad de absorción de agua (Pineda et al., 2007), que permiten determinar la concentración óptima de aditivos tensoactivos como para prevenir su uso. - Estudios de porosidad, permeabilidad y capilaridad: que indican posibilidades de degradación por infiltración de lluvia de agua etc. (Guillaud, 2008). - Resistencia a la erosión (Guillaud, 2008). - Test de resistencia del adobe las condiciones climáticas y a la radiación UV. - Test de resistencia mecánica: Test de resistencia a compresión. UNE-EN 196-1. ASTM C67-07 Testing brick and structural clay (ASTM, 2007) y módulo de ruptura a flexión, según estándar ASTM C67 (2003). - Conductividad térmica: que mide el flujo de estado estable de calor, según ASTM C177 (1997) (Marín et al., 2011).

2.4. Estabilización de la tierra o compuesto arcilloso La construcción contemporánea en tierra se puede englobar en tierra estabilizada y tierra sin estabilizar, prescribiéndose la tierra estabilizada como una solución adecuada para la crisis de vivienda urbana y la sostenibilidad medioambiental y siendo necesaria para cumplir con los estándares necesarios requeridos en el mercado (Zami, Lee, 2010). Según Guillaud (2008), la tierra estabilizada implica la modificación de las propiedades del sistema tierra-aguaaire, habiéndose identificado alrededor de 130 diferentes agentes estabilizadores, incluyendo el cemento, la cal y el bitumen (Lal, 1995) y concluye que no existe ningún estabilizador ideal que se pueda aplicar indiscriminadamente. El uso de estabilizadores no es nuevo, se han utilizado por siglos diferentes tipos de aceites, jugos de plantas, estiércol de animal etc. (Hossain y Mol, 2011). El registro más antiguo de estabilización de tierra con paja o bloques de tierra data del 4600 a.C. en Grecia (Guillaud y Houben, 1994). Cronistas señalan como en el virreinato en Perú, se estabilizaba la tierra con cal y en algunos casos se impermeabilizaba con una película de jugo de cactus. Se constata la capacidad aglutinante e impermeabilizante del jugo de cactácea, en concreto del gigantón (echinopsis peruvieanus), cactus San Pedro (Barrionuevo, 2011). Aunque la estabilización de la tierra es bastante antigua, no fue hasta 1920 que se hizo una aproximación científica y todavía no se ha realizado un bagaje suficiente de investigación sobre el tema (Zami y Lee, 2010). Existe diferencia sobre la concepción de la estabilización, donde se puede considerar que no sólo añadiendo estabilizadores se pueda conseguir una estabilización, por un lado, y por otro, que la estabilización debe ser permanente (Zami y Lee, 2010). La estabilización de la tierra consiste en cambiar las características del suelo como para mejorar sus características mecánicas y físicas. El objetivo de la estabilización es el de reducir la plasticidad, mejorar la trabajabilidad y la resistencia a la erosión (PachecoTorgal y Jabali, 2012). La tierra también se tiende a estabilizar para evitar las fracturas por retracción en el proceso de secado, disminuir la resistencia a erosión, y con ello, lograr mayor durabilidad (Reddy, 2007). La estabilización de suelos de baja capacidad portante puede ser un camino económico para reforzar el uso de la tierra en la edificación (Hossain y Mol, 2011). No existe mucha investigación sobre la rentabilidad de la tierra estabilizada (Zami y Lee, 2010). Procedimientos de estabilización: - Estabilización mecánica: compactación que provoca cambios de densidad, resistencia mecánica, compresibilidad, cohesión, permeabilidad y porosidad.

217


- Estabilización física: se actúa sobre la textura, mezclando diferentes tipos de fracciones de granulometría, corrigiendo la proporción de arcilla y arena. Tratamientos de secado, congelación, tratamiento eléctrico, tratamiento de electro-osmosis para mejora las cualidades de drenaje etc. - Estabilización química: se añaden materiales o químicos para modificar las propiedades físico-químicas de la tierra, creando matrices con las que aglutinar y abrigar los granos. Una reacción físico-químico puede conllevar la formación de un nuevo material, como una puzolana resultante de la reacción entre la arcilla y la cal. A través de la adición de fibra vegetal como refuerzo se puede conseguir estabilizar el suelo y lograr cualquier propuesta geométrica de manera más fácil y mejorar la durabilidad. La fibra vegetal, por adhesión o ayudando a aglutinar el suelo (Miraki et al., 2007), previene la fractura del suelo resultante de la retracción. Las fracturas por retracción son debidos al rápido y no uniforme secado (Manzano et al., 2007). Aunque la fibra vegetal puede servir como estabilizador y ayuda en evitar las fracturas por retracción y aportar aislamiento térmico y reducir el peso (Minke, 2001), su uso puede afectar la resistencia a compresión (Binici et al., 2005), donde influye el tamaño del elemento constructivo y el ratio de las dosificaciones. En la mayoría de los casos es necesario la combinación de estabilizadores químicos (Ceniza volante, Cal, Cemento,…) con el refuerzo de la fibra, pues mientras los estabilizadores mejoran la estabilidad del suelo, al mismo tiempo empeoran la ductilidad del compuesto, y la fibra, en este sentido ayuda a reducir la fragilidad del compuesto (Hejazi et al., 2012). Una de las técnicas más extendidas consiste en la mezcla con aglutinantes cementicios como los basados en cemento o cal, que aglutinan las partículas de suelo juntas por medio de una reacción química. El cemento tiene una reacción principalmente hidráulica, necesita sólo agua para reaccionar y aumentar la resistencia, y la cal puzolánica, necesita agua y material puzolánico. El cemento es, por ejemplo, uno de los estabilizadores más ampliamente utilizados en BTC. El cemento reacciona químicamente con el agua y también con ciertas partículas finas de tierra (Lima et al., 2012). El ratio de uso del estabilizador depende del tipo de tierra que se esté usando, si hay mucha arcilla en el suelo, al menos se requiere un 6% de cemento. Si la tierra es muy arenosa, el ratio tiene que ser superior. Si la tierra tiene una buena composición, un 4% puede ser suficiente (Lima et al., 2012). Cemento mejor que cal en términos de mejora de resistencia mecánica, pero con la cal se llegan a resultados adecuados. Si la fracción de arcilla es importante, caso de los suelos usados para la construcción con tierra, la mejora química es muy

218

efectiva debido a la reacción entre los componentes cálcicos de la cal con el suelo puzolánico. Es necesario como mínimo una fracción de 10% de arcilla en el suelo para que se pueda estabilizar con cal (Cristelo et al., 2012) La producción del cemento Portland es la mayor en volumen en la tierra siendo responsable del 5% de las emisiones de CO2 totales (Gartner y MacPhee, 2011). La tierra estabilizada con cemento puede causar contaminación aérea y que se necesitan más estudios con estabilizantes no basados en el cemento portland (Zami y Lee, 2010), pudiéndose analizar la estabilización con cal, yeso y residuos puzolánicos alumino-silicatos (Pacheco-Torgal y Jabali, 2012). La disminución de las emisiones de gases derivadas de la producción de cemento pueden agruparse en dos vertientes: 1) las orientadas a aumentar la eficiencia del proceso, y 2) las enfocadas a adición de materiales activos no calcinados compatibles con el producto cementante, lo que disminuye el consumo de combustibles fósiles (Galván, 2008). Los problemas que se tienen en la construcción con tierra por la absorción de agua pueden ser solventados estabilizando la tierra con pequeñas adiciones de cal, que mejora muchas de las propiedades del suelo y se produce un material de construcción mejorado (Mckinley et al., 2001). El único inconveniente en el uso de la cal para estabilizar la tierra son los problemas de durabilidad, como han reportado algunos investigadores (Wild et al., 1998). Se han reportado numerosos trabajos de como corregir la durabilidad de los suelos estabilizados con cal (Wild et al., 1999; Okagbue y Yakubu, 2000; Sivapullaiah y Lakshmikantha, 2005; Yilmaz y Berrin, 2009). El uso apropiado de la cal puede producir materiales eficientes para la construcción, con ahorros respecto al cemento por el diferencial en precio y rendimiento entre ambos productos. Existen beneficios del regreso al uso de cal en la industria de la construcción, entre otros: su producción requiere temperaturas inferiores a la del cemento y menos energía durante su calcinación, lo que implica menor emisión de gases de efecto invernadero; mínima contracción, lo que evita agrietamientos; los morteros de cal resisten algún grado de acomodamiento en la mampostería; deterioro causado por los álcalis contenidos en el cemento, lo cual no se presenta e en los morteros de cal; menor conductividad térmica; mayor impermeabilidad, y mejor adherencia para materiales de mampostería comparado con productos basados en cemento (Shi, 2001). La cal está regulada por la Norma Mexicana NMX-C003-ONNCCE-1996, que establece que la cal hidratada para la construcción se clasifica en cuanto a su composición química en tipo único y en un mismo grado de calidad, con un contenido mínimo de 80% en la suma de CaO + MgO en base no volátil, y un máximo


de 5% de MgO. El territorio mexicano cuenta con una extensa área con bancos de calizas. México es el 6º productor mundial de cal con 6.5 millones de toneladas/año y el 76% de esta cal es usada en la industria de la construcción (Galván, 2008). Se puede mejorar el producto incorporarando hidraulicidad mediante la adición de puzolanas naturales a la cal: se acelera el proceso de carbonatado, y se adquiere una mayor resistencia a la compresión. Se han publicado estudios sobre la estabilización con cal, cemento y ceniza volante (fly ash), pero no existe tanta literatura sobre estudios alrededor de la estabilización de suelos arcillosos expansivos mediante yeso (Marín, 2011). Vroomen (2007) apunta las ventajas de la tierra estabilizada con yeso basado en la comparativa con el adobe y la construcción con concreto, concluyendo que el material llega a ser de bajo costo, con una durabilidad media y emisiones de CO2 nula, donde la energía requerida para la producción es baja. Actualmente se da bastante uso de estabilizadores como bitumen, asfalto y resinas. Estabilizadores con propiedades puzolanas pueden ligar partículas de suelo juntas y reducir la absorción de agua por parte de las partículas de arcilla (Hossain y Mol, 2011). La adición de materiales puzolánicos y polímeros puede mejorar las propiedades de los compósitos, como el caso de uso exitoso de ceniza volante, escoria, humo de sílice, metacaolín (Toledo et al., 2003). El uso de polímeros (látex p. ej.) también puede mejorar las propiedades físico-mecánicas de la pasta cementicia (Stancato et al., 2005). Autores proponen la mezcla con componentes sintéticos (Manzano et al., 2007) o surfactantes químicos (Pineda et al., 2007) para reducir la absorción de agua y para aumentar la resistencia a compresión. Para reducir la absorción de agua se pueden agregar cualquier elemento catiónico o componente orgánico con fuertes enlaces eléctricos dentro de la formulación de la arcilla. El añadido de emulsiones asfálticas mejora la resistencia a compresión y rebaja la absorción de agua y además esta sustancia no se degrada con rayos UV (Pineda et al., 2007). El agregado de emulsiones busca provocar un efecto de dispersión de la arcilla con el propósito de que al consolidarse los bloques de arcilla, pudiera existir un mejor acomodo de éstas, en consecuencia la propiedad mecánica de resistencia a compresión se incremente, y la absorción disminuya (Manzano et al, 2011). Ventajas de la estabilización en la construcción con tierra (Zami y Lee, 2010): - Mejora de problemas habituales de la tierra ante la humedad y la lluvia. Mejora de los problemas con respecto a la erosión por lluvia. - Mayor durabilidad - Menor necesidad de mantenimiento.

- Mayor resistencia a compresión, a la abrasión y mejor comportamiento mecánico. - Mayor posibilidad de estandarización del material. - Abre el campo de posibilidad de no sólo ser construcción in situ, si no de trabajar con materiales y elementos constructivos prefabricados e industrializados. Se ha demostrado que un compósito estabilizado con cal reduce en un 30% la conductividad térmica y la difusividad térmica en un 20% (Liuzzi et al., 2013). - La construcción contemporánea con tierra estabilizada sigue siendo sostenible ambientalmente en comparación con los materiales convencionales como los ladrillos, tabiques, concreto etc. - Reducción de fracturas por retracción. - Mejora de los poderes aglutinantes de la matriz. 2.5. Estabilización de compuestos arcillosos a partir de materiales puzolánicos Diferentes normas internacionales (ASTM 618-78, EN 197) definen las puzolanas como “materiales silíceos o silico-aluminosos que por sí mismos poseen poca o ninguna actividad hidráulica, pero que finamente divididos y en presencia de agua pueden reaccionar con hidróxido de calcio (Ca(OH))2 a temperatura ambiente para formar compuestos con propiedades cementantes. Clasificación según características genéticas (Massazza, 1998): Puzolanas naturales (Rocas Piroclásticas, Materiales de origen mixto y Rocas clásticas) y puzolanas artificiales (Cenizas volantes, Cenizas de residuos vegetales, Esquistos arcillosos calcinados, Sílice activa, Materiales activados térmicamente, Escorias de altos hornos ácidas, Arcillas calcinadas). Las puzolanas naturales son todas aquellas que no necesitan procesos de transformación para su activación. La puzolanas naturales calcinadas o artificiales comprenden a los materiales que necesitan modificaciones químicas y mineralógicas para exhibir su actividad puzolánica, por ejemplo los residuos agroindustriales (Villar Cociña et al., 2011). Actividad puzolánica: Posibilidad de una puzolana de reaccionar con la el hidróxido de calcio para formar compuestos hidráulicos. Esto depende de varios factores, principalmente de sus propiedades puzolánicas. Es importante evaluar velocidad y tiempo de esta reacción. Esto determina su posible empleo. Las puzolanas reaccionan con el hidróxido de calcio (Ca(OH)2), dando lugar a productos hidratados, silicatos y aluminatos cálcicos (Villar Cociña et al., 2011). Factores de mayor incidencia en actividad puzolánica: Tamaño de partícula o finura, morfología de la superficie de la partícula, naturaleza amorfa, contenido de sílice y alumina reactiva, pH de la solución y composición química (Taylor, 1997; Larby y Bijen, 1990; Malhotra y Dave, 1999).

219


El problema teórico fundamental es calcular la velocidad de la acción o actividad puzolánica, esto se puede hacer por medio del análisis de la cinética de reacciones en estado sólido y sus parámetros, lo que supone campo de investigación por cubrir (Villar Cociña et al., 2011). Caracterización de las puzolanas: - Microscopia de escaneo electrónico (SEM): para determinar la morfología y microestructura (Cristelo et al., 2012). - Difracción de rayos X (XRD): para determinar la composición mineralógica (Marín et al., 2011) - Espectroscopia de dispersión energética (EDS): para determinar la composición química (Cristelo et al., 2012). - Fluorescencias de rayos X mediante espectrómetro: para determinar la composición química, con lo que se puede clasificar según la ASTM que clase de ceniza o puzolana es (Marín et al., 2011): - Masa específica (Lima et al., 2012). - Densidad de masa unitaria (Lima et al., 2012). - Máxima dimensión de grano (Lima et al., 2012). - Módulo de finura (Lima et al., 2012). Métodos y evaluación de la actividad puzolánica, evaluación y caracterización de la actividad puzolánica: se contemplan puntos de vista químicos, físicos y mecánicos, y se establecen evaluaciones cualitativas y cuantitativas. Todos los métodos se basan en la reacción del material puzolánico en sistemas puzolana-cal y puzolana-cemento. Existe disparidad de criterios acerca de cómo evaluar las propiedades puzolánicas, y discrepancia con origen en el mecanismo y en la cinética de las reacciones puzolánicas que son muy complejas y no estudiados con la profundidad requerida. Es por esto que se desconocen las características esenciales del proceso de reacción. El estudio cinético de las estas reacciones contribuirá a un mejor entendimiento del problema y mejor evaluación de las puzolanas. Las constantes de velocidad de reacción dan un índice muy exacto acerca de la reactividad de los materiales. La evaluación cinética de la actividad puzolánica abre un futuro muy prometedor desde el punto de vista científico (Villar Cociña et al., 2011). Los métodos pueden ser clasificados como métodos directos e indirectos (Moreau y Gliland, 1950). Los directos monitorean indirectamente la cal no reaccionada durante la reacción puzolánica con el tiempo de reacción, como es el caso del método conductimétrico (Greenberg, 1961). Otros métodos indirectos se basan en el comportamiento de la resistencia a la compresión a medida que ocurre la reacción (Malhorta, 1999). Los métodos directos se basan en la medida de la cantidad de Hidróxido de Calcio (HC) que ha reaccionado con la puzolana. Se usan técnicas como Termogravimetría (TG), análisis térmico diferencial (ATD), difracción de rayos X

220

(DRX) y análisis calorímetro. Los resultados obtenidos por estas técnicas suministran información del potencial puzolánico del material y pueden ser usados para estudiar la cinética de la reacción HC-puzolana. - Determinación de la velocidad de consumo de Ca(OH)2 como medida del progreso de la reacción. - Establecimiento de posibles avances de la reacción puzolánica a partir de la evaluación de la estructura de poros en las pastas. - Identificación y evolución de las fases hidratadas con el tiempo de reacción. Caracterización de mezclas con puzolanas: - Microscopia de escaneo electrónico (SEM): para determinar la morfología y la microestructura creada (Cristelo et al., 2012). También sirve para entender la hidratación del cemento y el aglutinamiento del aglutinante con los componentes del material (Lima et al., 2012) - Espectroscopia de dispersión energética (EDS): para determinar la composición química (Cristelo et al., 2012). - Microscopía óptica (OM): permite distinguir los minerales que componen el material mediante la información que provee debido al color (Lima et al., 2012) - Análisis de dispersión de energía por rayos X (EDX): para determinar la microestructura característica y obtener el análisis elemental semicuantitativo de los cristales en diferentes zonas de la aplicación (Marín et al., 2011) - Test de resistencia a compresión sin confinar (UCS test): para comprobar la efectividad de las mezclas después de un tiempo (Cristelo et al., 2012). Resistencia a compresión según NBR 8491 (Lima et al., 2012) y módulo de ruptura, Test a flexión, según estándar ASTM C67 (2003). - Resistencia a compresión diagonal y axial después de 28 días. NTE E0.80, RILEM TC76-LUMB1, RILEM TC76-LUMB6. (Lima et al., 2012) - Test de absorción de agua a 14 días NBR 8492 (Lima et al., 2012). 2.6. Puzolanas cenizas a partir de residuos agroindustriales Se ha estudiado el potencial del uso de residuos industriales para la estabilización de suelos con resultados bastante prometedores como escoria de altos hornos, ceniza volante (CV), ceniza de cáscara de arroz, arena de fundición, escoria de fundición, polvo de horno de manufacturación de cemento etc. El uso de polvo de hornos de manufacturación de cemento pueden ser una económica oportunidad de disposición de estos materiales con su apoyo al medioambiente. Se ha estudiado la combinación de CV con cal y cemento portland. El uso de estos materiales puede


ayudar a la reducción de los residuos, del uso de cemento, lo que representa un ahorro de energía, de costos y emisiones de gases de efecto invernadero. Se dan buenos resultados en resistencia a compresión y a tensión, módulo de elasticidad, así como en términos de resistencia al agua, absorción de agua y retracción (Hossain y Mol, 2011). Autores proponen la sustitución del cemento por materiales como la ceniza volante, ceniza de la cáscara de arroz o residuos de minas de carbón en mezclas con otros químicos (Karade, 2010; Mathur, 2005). Investigaciones previas plantean la estabilización por medio de la aplicación geopolímeros (activación alcalina) que puede ser con puzolanas como las cenizas volantes (Cristelo et al., 2011; Cristelo et al., 2012). Se han llegado a estudiar la influencia de superplasticidad del concreto y la reacción entre Na2O y la ceniza según diferentes ratios usados. Según estudios se concluye que la aplicación de la activación alcalina de la ceniza volante para la estabilización del suelo, y particularmente su aplicación donde hay compactación, no se da fácilmente. La técnica de activación alcalina tiene complicaciones adicionales cuando es usada con suelos, desde que el suelo trae una adicional configuración de relaciones intrínsecas y compromisos delicados. En esto influencia el máximo tamaño de partícula, que debería ser minimizado antes de hacer la mezcla con la ceniza, aunque faltan estudios sobre esto. El uso de estos aditivos no está justificado por cuestiones de tiempo, problemas que da y costo. Sólo si la cuestión del tiempo es importante el uso de calcio hidratado puede ser una solución para incrementar los niveles de resistencia más rápidamente, aunque se comprometa la resistencia máxima a alcanzar. Se tiene que mejorar la concentración sólido: líquido, para ver que concentración alcalina se usa. El ratio Na2O:ceniza es decisivo, que debería ser minimizado para obtener mayores valores de resistencia. Se puede mezclar la ceniza volante y el suelo mediante polvoreado y vibrado, evitando la energía de compactación empleada en el caso de muros de tierra comprimida (Cristelo et al., 2012). 2.7. Puzolanas cenizas a partir de residuos agrícolas Se puede considerar factible técnicamente la aplicación del uso de residuos agrícolas en la producción de componentes de tierra, para evitar el uso de materiales cerámicos a partir de combustión, evitando contaminación ambiental con ello. Usando residuos como reemplazo a los materiales convencionales se ofrece una contribución ambiental sustancial (Lima et al., 2012). La acumulación de residuos agrícolas no gestionados, especialmente en los países en desarrollo ha incrementado la preocupación ambiental. Reciclar

diferentes tipos de residuos en materiales de construcción es una solución viable para solucionar los problemas de contaminación y de conservación de los recursos naturales para la generaciones futura (Madurwar et al., 2013). Es muy importante el estudio y desarrollo de cualquier tecnología, procedimiento o método que puede ayudar reutilizarlos de manera eficiente (Villar-Cociña, et al., 2008). Con la calcinación de materiales orgánicos se da una descomposición térmica y se produce una ceniza en un tamaño de partícula fina que mezclado con cal se obtiene un material con propiedades aglutinantes (Biricik et al., 1999). En los últimos años, el uso de los residuos sólidos procedentes de la agricultura como puzolanas en la fabricación de morteros y hormigón mezclado ha sido el foco de nuevo investigación (Ordóñez et al., 2002; AlAkhras et al., 2002; Cook y Suwanvitaya; Ramaswamy et al., 1983; Chandrasekhar et al., 2006). De hecho, la adición al hormigón de las cenizas procedentes de la combustión de residuos sólidos agrícolas es, en la actualidad, una práctica frecuente debido a la actividad puzolánica de las cenizas hacia la cal (Villar-Cociña, et al., 2008). El comportamiento y durabilidad, en general, del concreto es mejorado con la adición de residuos agrícolas calcinados (Madurwar et al., 2013). Se han probado diferentes residuos agrícolas (Ramaswamy et al., 1983; Villar-Cociña, et al., 2008; Ganesan et al., 2007): ceniza de cáscara de arroz, médula de coco, aserrín, gránulos de corcho, ceniza de paja de trigo, ceniza de bagazo de caña, ceniza de paja de caña de azúcar, etc. Las plantas obtienen minerales y silicatos del suelo en su proceso de crecimiento. Materiales inorgánicos, en especial silicatos, son encontrados en grandes proporciones en plantas de crecimiento anual como el arroz, el trigo, el girasol, etc. (Biricik et al., 1999). Las condiciones de activación (temperatura y tiempo de retención en horno) son fundamentales en la actividad puzolánica del producto obtenido (Boateng y Skeete, 1990; Khangaonkar at al., 1992; Frías et al., 2007; Frías y Villar-Cociña, 2007; Payá, 2001; Sánchez de Rojas et al., 1999; Wang et al., 2001; Martirena et al., 1998; Payá et al., 1995). El parámetro común para determinar si se usa un material residuo agrícola como material puzolánico depende de contenido de silicio. Fairbairn et al., 2010, desarrolló un estudio del potencial reducción de emisiones de CO2 según la metodología desarrollada por United Nations Framework Convention on CLimate Change (UNFCCC) y dieron resultados de que con la ceniza de bagazo de caña de azúcar mezclada con cemento se reduce las emisiones de CO2 y generalmente mejora el comportamiento de los materiales cementicios.

221


Productos o compósitos para la construcción con uso de residuos agrícolas son más baratos, tienen conductividad térmica más bajo y son más durables, más ligeros y medioambientalmente más amigables que los materiales convencionales (Madurwar et al., 2013). - Ceniza de bagazo de caña de azúcar (BA): se puede usar como reemplazo del cemento en el concreto. BA como añadido mineral efectivo y puzolana con un ratio de 20% de cemento hasta el 50% (Amin, 2011). 20% de sustitución de cemento con BA como óptimo. BA fue estudiado por (Ganesan et al., 2007; Chusilp et al., 2009; Rukzon y Chindaprasirt, 2012; Akram et al., 2009). Incorporaciones por encima del 30% no sólo mejora la resistencia a la penetración de clorhoridos si no también la resistencia a compresión (Madurwar et al., 2013) - Ceniza de cascarilla de arroz (RHA): se usa como reemplazo de cemento que aumenta las propiedades mecánicas del concreto. (Ramasamy y Biswas, 2008; Xu et al., 2012; Tashima et al., 2004) y reduce la absorción de agua del concreto (Tashima et al., 2004). Nair et al., 2006 examinó la resistencia a largo plazo y concluyó con la sugerencia de que es un material asequible para vivienda rural en la India. Memon et al., 2011 investigó el RHA como agente modificador de la viscosidad en concreto y vio lo apropiado de su uso en concreto de bajo coste. - Cenizas de residuos de bambú (BLAash): estudios sobre las propiedades puzolánicas de estos desechos industriales son muy escasos. Línea muy novedosa a nivel mundial. Villar-Cociña et al., 2008, han iniciado pioneros estudios sobre el comportamiento puzolánico de las cenizas de bambú, mostrando los primeros parámetros cinéticos. Se estudia la cinética de reacción puzolánica entre el hidróxido de calcio (CH) y cenizas de hojas de bambú, calcinadas a 600 º C (BLAsh) y se aplica un método de actividad puzolánica (método de conductividad) basado en la medición de la conductividad eléctrica de la solución BLAsh/CH. Se cuantifica como procede la reacción y este último sobre los parámetros cinéticos mediante la aplicación de un modelo matemático cinético-difusivo, permitiendo el cálculo de los parámetros cinéticos de la reacción puzolánica, lo que permite cuantificar la actividad puzolánica de los materiales. Los resultados muestran las buenas propiedades puzolánicas de las cenizas de hojas de bambú calcinado a 600ºC. La correlación entre los valores de energía libre de activación y las constantes de velocidad de reacción se encuentran en correspondencia con los estudios teóricos sobre los valores de procesos reportada en la literatura (VillarCociña et al., 2008).

222

2.8. Puzolanas como ceniza a partir de la calcinación de paja de cereal 2.8.1. Paja de cereal, residuo subproducto agrícola A nivel mundial existe una alta producción de cultivos herbáceos cereales, sobre todo de trigo, cebada y maíz, con la paja como el subproducto más conocido y utilizado (Bowyer, y Stockmann, 2001). Actualmente estos residuos son incinerados o depositados en el campo y esto puede ocasionar varios problemas ambientales como la contaminación del aire, la emisión de gases con efecto invernadero y la ocupación de terreno fértil (Karade, 2010). Además, la biodegradación de los residuos lignocelulósicos en los vertederos emite metano, un gas efecto invernadero 72 veces más perjudicial que el CO2 y a veces el compostaje y la quema de estos residuos no es posible por legislación (Leliveld y Crutzen, 1992). La paja, que es el tallo y material fibroso de la planta de cereal (Minke y Mahlke, 2005), es un material lignocelulósico generado en grandes cantidades como residuo de los cultivos de cereal. Después de la recolección del grano, una gran cantidad de paja queda disponible como residuo (Karade, 2010). Se ha reportado que la paja de cereal tiene una microestructura más complicada que la madera, con una gran variedad de tamaño y tipo. Según estudios la paja de cereal puede contener un 45% de celulosa, un 28% de hemicelulosa un 18% de lignina y entre un 8 y 10% de cenizas (Halvarsson et al. 2004). La paja ha sido utilizada desde la antigüedad en la construcción, en cubiertas, como material fibroso refuerzo en el adobe, en muros continuos de tierra para alivianarlos, etc. Hoy día se puede llegar a nuevas formas de uso de estas fibras, de manera estandarizada, de fácil puesta en obra, que gracias a una nueva homogeneización pueda posicionarse en el exigente sector de la edificación, sin ignorar los estándares de durabilidad y confort de la vivienda construida, donde el uso de residuos agro-industriales puede tener una contribución vital (Mathur, 2005). Durante las dos últimas décadas se han publicado varios informes sobre el uso de residuos lignocelulósicos, incluido la paja de cereal, en la producción de compósitos de matriz inorgánica como el cemento portland, yeso o magnesita (Karade, 2010). La paja de cereal tiene características geométricas y mecánicas adecuadas como para hacer paneles con matrices cementicias, pero con problemas con la hidratación del cemento, teniendo en cualquier caso los requerimientos mecánicos, físicos y de durabilidad mínimos como para ser utilizado (Soroushian et al., 2004). El añadido de paja a un compósito ayuda a disminuir la factura por retracción y el tiempo de curado, y mejora la resistencia a compresión dentro de un ratio adecuado de


dosificación, además de mejorar el comportamiento mecánico del compósito (Li, 2005), mejorando la resistencia a cortante, la resistencia a flexión y la ductilidad (Bouhicha et al., 2005). Las fibras son embebidas en la matriz y absorben el esfuerzo a cortante a modo de resistencia a tracción (Jamshidi et al., 2010; Ghiassian et al., 2008; Abtahi et al., 2008). 2.7.2. Ceniza de paja de cereal como material puzolánico Ya se ha estudiado la producción de material puzolánico a partir de cenizas de paja de cereal (Biricik et al., 1999). La calidad del material depende del tiempo de calcinación, de la temperatura de calcinación, tiempo de enfriamiento y las condiciones de molienda. Para la calcinación de la paja Biricik et al., 1999 probaron con calcinación a diferentes temperaturas y tiempos de calcinación, 300, 400, 500, 700, 800, 900 y 1000ºC y tiempos de 1, 2, 3, 4, 5, 8, 24 y 30 horas. Para determinar el contenido de SiO2 y ceniza, se quema la paja a 575º +-25 en hornos eléctricos. Cuando la temperatura de calcinación es de 800ºC parte de la estructura amorfa se convierte en estructura cristalina. La adecuada temperatura de quema fue determinada entre 570 y 670 ºC por 5 horas. En estas condiciones el color gris y blanco indica una quema completa. Biricik et al., 1999 llegaron a que la paja de trigo tiene 8,6% de ceniza y el contenido de sílice de la ceniza es del 73%, que la paja quemada a 570 y 670 ºC tiene propiedades puzolánicas y que las propiedades puzolánicas de la ceniza quemada a 670 es mayor. Finalmente concluyen con que la ceniza obtenida de la paja de trigo puede ser usada como material puzolánico. Bensted y Munn (Bensted y Munn, 2000) amplían el estudio de Biricik et al., confirmando que la ceniza de la paja de cereal (CPC) es rica en contenido silicio y demuestra puzolanidad, confirmando que parece tener similitudes con el RHA en su comportamiento puzolánico. Añaden como el proceso de calcinación para la CPC es crítico. El proceso de calcinación debería de ser el óptimo como para maximizar el reparto aleatorio de grupos de SiO4, AlO4 y FeO4 dentro de la estructura desordenada de la ceniza y minimizando el contenido en minerales y estructuras cristalinas. Bensted y Munn (Bensted y Munn, 2000) hace una comparativa de la CPC con la escoria de altos hornos. Con varios activadores como el cemento portland, la cal, el sulfato de calcio la escoria puede montar compuestos cementicios, resultando un cemento hidratado que gana resistencia a compresión adecuada a los 28 días, además de tener baja permeabilidad. En el caso de puzolanas como el metacaolín, ceniza de combustiblel pulverizado, cáscara de cacahuate calcinada o CPC es la presencia de álcalis lo que imparte propiedades cementicias a la puzolana. Mejoran

la resistencia a los 28 días, bajan la permeabilidad, la temperatura de fraguado y por lo tanto el agrietado por temperatura y mejora la durabilidad en estructuras de concreto. El hidróxido alcalino NaOH y el KOH, más que el hidróxido de calcio, insta al comienzo de la actividad puzolánica. El contenido alcalino del CPC es alto, con altos contenidos de K 5,85% y de 1,83% de Na según (Biricik et al., 1999). Para considerar la CPC como un sustituto del cemento en un futuro es importante que el contenido de álcalis no sea fácilmente movible y por lo tanto no sujeto a ser una solución que se pierda con el tiempo. Los álcalis de la CPC deberían ser en su mayoría atrapados y por lo tanto no propensos a ser rápidamente separados mineralógicamente. En este caso sí se puede convertir en un buen sustituto del cemento, y sería la manera de emplear y convertir en producto lo que actualmente es un residuo. Se necesitan más estudios para terminar de satisfacer los puntos antes enunciados. Otro estudio destaca como la CPC bien quemada y bien molida puede ser una puzolánica muy activa en condiciones de curado adecuadas (Al-Akhras y AbuAlfoul, 2002). En esta investigación se estudia el aporte de las CPC en morteros autoclavados, donde la reacción puzolánica guía la formación de silicato de calcio hidratado que es la responsable de la resistencia del concreto. Se produce CPC a 650ºC calcinado por 20 horas con una gravedad específica de 1.97. Se utilizaron 3.6%, 7.3% y 10.9% de CPC reemplazando en peso a la arena. Se obtuvieron como resultados que el uso de CPC incrementa la resistencia mecánica del mortero bajo condiciones de curado de autoclavado. El reemplazo de 7.3% lleva a productos más hidratados (Silicato de Calcio Hidratado) (Al-Akhras y Abu-Alfoul, 2002). 3.

CONCLUSIONES

Con el trabajo de revisión realizado se determina como altamente estudiado el tema del uso de materiales y compuestos arcillosos y de tierra como alternativa real para la reducción del impacto ambiental del sector de la construcción. Se concluye de igual manera que existen diferentes maneras de lograr una mejora de estos compósitos y que lograrlo por medio de la estabilización es posible y hay un amplio abanico de posibilidades para ello. En la búsqueda de alternativas al cemento como estabilizador de los compuestos arcillosos y materiales de tierra, según las investigaciones realizadas y contextualizando, se determina que la cal, en concreto el hidróxido de cal, es una alternativa con bastante interés como para reemplazar el uso del cemento como estabilizador, pudiéndose o teniéndose que apoyar en

223


materiales puzolánicos para lograr una mayor mejora en su condición y un mayor logro. Los materiales puzolánicos como las cenizas de residuos agrícolas se consideran como una posibilidad real y alternativa posible, dentro de los que se destaca la ceniza de paja de cereal por su importancia en un contexto geográfico inmediato por su alta producción y por los beneficios que puede traer el transformar este residuo agrícola en recurso o materia prima como determina la idea de ecología industrial con la que se parte en este trabajo de investigación. Se concluye, igualmente, que son necesarios trabajos de caracterización de los compuestos arcillosos de cada contexto geográfico concreto donde se pretenda trabajar, así como existe un interés científico, y no mucho trabajado sobre ello, en la caracterización y experimentación de las cenizas de paja de cereal según diferentes temperaturas, tiempos y modos de calcinación, así como su incorporación como material puzolánico, en combinación con la cal, como estabilizador de los compuestos arcillosos para mejorar sus propiedades. 4.

REFERENCIAS BIBLIOGRÁFICAS

- Al-Akhras, N.M., Abu-Alfoul, B.A., 2002. Effect of wheat Straw ash on mechanical properties of autoclaved mortar. Cement and Concrete Research 32, 859-863 - Allinson, D, Hall, M., 2010. Hygrothermal analysis of a stabilised rammed earth test building in the UK. Energy Build 42, 845-52 - American Concrete Institute Committee, 2002. 232.2R-96, Use of Fly Ash in Concrete, 34. - Ashour, T, Georg, H, Wu, W., 2011. An experimental investigation on equilibrium moisture content of earth plaster with natural reinforcement fibres for straw bale buildings. Appl Thermal Eng 31, 293-303 - Barrionuevo, R., 2011. Tecnología mejorada del adobe. En Amigó, V., Savastano, H., Delvasto, S., Manzano, A., 2011. Aprovechamiento de residuos agroindustriales como fuente sostenible de materiales de construcción. Ed. Universitat Politécnica de Valencia, Valencia - Bensted, J., Munn, J., 2000. A discussion of the paper ``Study of pozzolanic properties of wheat straw ash'' by H. Biricik, F. AkoÈz, I. Berktay and A.N. Tulgar. Cement and Concrete Research 30, 1507-1508 - Bestraten, S., Hormías, E., Altemir A., 2011. Construcción con tierra en el siglo XXI. Informes de la Construcción, Vol. 63, 523, 5-20 - Berge, B., 2001. The Ecology of Building Materials. Ed. Reed Educational and Professional Publishing Ltd., Oxford - Binici, H., Aksogan, O., Shah, T., 2005. Investigation of fibre reinforced mud brick as a building material.

224

Construction and Building Materials 19, 313-8 - Biricik, H., Akoz, F., Berktay, I., Tulgar, A., 1999. Study of pozzolanic propierties of wheat straw ash. Cement and Concrete Research 29, 637-643 - Bouhicha, M., Aouissi, S., Kenai, S., 2005. Performance of composite soil reinforced with barley straw. Cement and Concrete Composites 27, 5, 617-621 - Bowyer, J.L. y Stockmann, V.E., 2001. Agricultural Residues: An exciting Bio-based Raw Material for the Global Panels Industry. Forest Products Journal, 51(1) - Chikara, H., Iwamoto, S., Yoshimura, T., 2009. Indoor air pollution of volatile organic compounds: indoor/outdoor concentrations, sources and exposures. Nippon eiseigaku zasshi. Japan J Hygene 64, 683-8 - Cristelo, N., Glendinning, S., Miranda, T., Oliveira, D., Silva, R., 2012. Soil stabilization using alkaline activation of fly ash for self-compacting rammed earth construction. Ed. Elsevier, Construction and Building Materials 36, 727-735 - Cristelo, N., Glendinning, S., Teixeira Pinto, A., 2011. Deep soft soil improvement by alkaline activation. Proc ICE – Ground Improv 164(2), 73–82 - Cuchí, A., 2005. Arquitectura y Sostenibilidad. Ed. Univ. Politécnica de Cataluña. Barcelona. - Fernández, J., 2007. MIT – building technology program. MITCOURSES Ecologies of Construction – Architecture. 4-406-spring-2007. Massachusets Technology Institute, Massachusets - Delgado, M.C.J., Guerrero, I.C., 2006. Earth building in Spain. Construction and Building Materials 20, 679– 690 - Galván, M., 2008. Desarrollo de nuevos materiales polifásicos para construcción basados en hidróxido de calcio. Tesis doctoral, Universidad Autónoma de Querétaro, Facultad de Ingeniería, Doctorado en Ingeniería, Querétaro - Gartner, E., MacPhee, E., 2011. A physico-chemical basis for novel cementitious binders. Cement and Concrete Research, 41, 736–749 - Ghiassian H., Jamshidi R., Tabarsa R., 2008. Dynamic performance of Toyoura sand reinforced with randomly distributed carpet waste strips. In: 4th Dec geol. earth eng. and soil dyn. conf., Sacramento, California, USA - Guillaud, H., 2008. Characterization of earthen materials. En: Avrami, E., Guillaud H., Hardy, M., editors. Terra literature review-an overview of research in earthen architecture conservation, Ed. The Getty Conservation Institute, Los Ángeles - Hall, M., Allinson, D., 2009. Analysis of the hygrothermal functional properties of stabilised rammed earth materials. Building and Environment 44, 1935-42. - Halvarsson, S., Norgren, M., and Edlun, H., 2004. Manufacturing of fiber composite medium density fiberboards (MDF) based on annual plant fiber and urea formaldehyde resin. International Conference on Environmentally-Compatible Forest Products, Fernando


Pessoa University, September 22-24, 131-147 - Hammond, G., Jones, C., 2008. Inventory of Carbon & Energy (ICE), Sustainable Energy Research Team (SERT), Department of Mechanical Engineering, University of Bath, Bath - Hejazi, S.M., Sheikhzadeh, M., Abtahi, S.M., Zadhoush, A., 2012. A simple review of soil reinforcement by using natural and synthetic fibers. Construction and Building Materials 30, 100-116 - Hossain, K.M.A., Mol, L., 2011. Some engineering properties of stabilized clayey soils incorporating natural pozzolans and industrial wastes. Construction Building Materials 25, 3495-3501 - Jamshidi R., Towhata I., Ghiassian H., Tabarsa R., 2010. Experimental evaluation of dynamic deformation characteristics of sheet pile retaining walls with fiber reinforced backfill. Soil Dyn. Earthq. Eng.; 30:438-, 6 - Jaquin, PA., 2008. Analysis of historic rammed earth construction. PhD thesis. Durham University, Durham - Karade S.R., 2010. Cement-bonded composites from lignocellulosic wastes. Construction and Building Materials, 24, 1323-1330 - Lal, A. K., 1995. Handbook of low cost housing. Ed. New Age International Publishers, New Delhi - Larbi, J.A., Bijen, M. J. M., 1990. The chemistry of the Pore Fluid of Silica Fume Blended Cement Systems. Cement and Concrete Research 20, 506-516 - Lawrence RMH, Heath AC, Walker P (2008). Mortars for thin unfired clay masory walls. In: Proceedings of LEHM 5th International conference on Building with Earth, Koblenz, Germany, 66-73. - Li C., 2005. Mechanical response of fiber-reinforced soil. Phd. Thesis, Faculty of the graduate School of the University of Texas, Austin - Lima, S. A., Varum, H., Sales A., Neto, V. F., 2012. Analysis of the mechanical properties of compressed earth block masonry using the sugarcane bagasse ash. Construction and Building Materials 35, 829-837 - Liuzzi, S., Petrella, M., Stefanizzi, P., 2010. Building with earth, a sustainable material for efficient buildings. In: Proceedings of XXXVII IAHS. Santander: October, 26-28 - Liuzzi, S., Hall, M.R., Stefanizzi, P., Casey, S.P., 2013. Hygrothermal behaviour and relative humidity buffering of unfired and hydrated lime-stabilised clay composites in a Mediterranean climate. Building and Env. 61, 82-92 - Leliveld J., Crutzen P.J., 1992. Indirect chemical effects of methane on climate warming. Nature; 355, 339-41 - Madurwar, M. V., Ralegaonkar, R.V., Mandavgane, S.A., 2013. Application of agro-waste for sustainable construction materials: A review. Construction and Building Materials 38, 872-878 - Maini, M., Dayal, A., Chattopadhyay, R.N., 2007. An assessment into the sustainability of earthen structure and modern transitions. International Symposium on

Earthen Structures, Indian Institute of Science, Bangalore, 22-24 August. Ed. Interline Publishing, Bangalore - Maldonado, L.; Vela Cossio, F.; Hoz, J., 2003. Diccionario de construcción tradicional. Tierra. Ed. Nerea, San Sebastian - Malhotra, S. K., Dave, N.G., 1999. Investigations into the effect of adittion of fly ash and burn clay puzzolana on certain engineering properties of cement composites. Cement and Concrete Composites 21, 285-291 - Manzano, A., Pineda, J., Ghavami, K., 2007. Characterization of Clay for Human Habitat. International Symposium on Earthen Structures, Indian Institue of Science, Bangalore - Manzano, A., Pineda, J., Reyes, J.L., 2011. Prototipo de vivienda sustentable para zonas rurales. En Amigó, V., Savastano, H., Delvasto, S., Manzano, A., 2011. Aprovechamiento de residuos agro-industriales como fuente sostenible de materiales de construcción. Ed. Universitat Politécnica de Valencia, Valencia - Marín, M., Reyes, J.L., Manzano, A., Pineda, J., Hernández, M.A., Pérez, J.J., Marroquín, A., 2011. Effect of fly ash and hemihydrate gypsum on the properties of unfired compressed clay bricks. Int.Journal of the Physical Sciences 17, 4264-4272 - Massazza, F., 1998. Puzzolana and Pozzolanic cements. In: Hewlwtt, P. C., (ed), Lea’s chemestry of cement and concrete. 4 ed. New York: J. Wiley, 471-631 - Mathur V.K., 2005. Composite materials from local resources. Const. and Building Materials 20, 470-477 - McDonough, W., Braungart, M., 2002. Cradle to Cradle: Remaking the Way We Make Things. Ed. North Point Press, New York - Mckinley, J.D., Thomas, H.R., Williams, K.P., Reid, J.M., 2001. Chemical analysis of contaminated soil strengthened by the addition of lime. Eng. Geol. 60 (1– 4), 181–192 - Meadows, D., Meadows, D.L., Randers, J., Behrens, W.W., 1972. Los límites del Crecimiento. Massachusetts Institute of Technology, Massachusetts Millogo, Y., Hajjaji, M., Ouedraogo, R., 2008. Microstructure and physical properties of lime-clayey adobe bricks. Constr Build Mater 22, 2386-92 - Minke, G., 2001. Manual de construcción en tierra. Ed. Nordan-Comunidad, Montevideo - Minke, G., Mahlke, F., 2005. Materiales de construcción con fardos de paja. Ed. Fin de Siglo, Montevideo - Miraki, M.K., Ghavami,K., and Daneshmand, F., 2006. Reinforced adobes as low-cost, energy saving building materials. Brasil-NOCMAT 2006 Salvador,conference in Bahia, 1-12 - Morton, T., 2008. Earth masonry – design and construction guidelines, Ed. HIS BRE Press, London - Muntohar, A.S., 2011. Engineering characteristics of the compressed-stabilized earth brick. Construction

225


Building Materials 25(11), 4215–20 - Neila, F.J., 2004. Arquitectura Bioclimática en un entorno sostenible. Ed. Munilla-Lería, Madrid - Okagbue, C.O., Yakubu, J.A., 2000. Limestone ash waste as a substitute for lime in soil improvement for engineering construction. Bulletin of Eng. Geol. Environ. 58, 107–113 - Oti, J.E., Kinuthia, J.M., Bai, J., 2009. Engineering properties of unfired clay masonry bricks. Eng Geol 107, 130-139 - Oti, J.E., Kinuthia, J.M., Bai, J., 2010. Design thermal values for unfired clay bricks. Mater Des 31, 104-12 - Pacheco-Torgal, F., Jalali, S., 2012. Earth construction: Lessons from the past for future eco-efficient construction. Const. and Building Materials 29, 512-519 - Parra-Saldivar, M.L., Batty, W., 2006. Thermal behaviour of adobe constructions. Building Environment 41, 1892-1904 - Piattoni, Q., Quagliarini, E., Lenci, S., 2011. Experimental analysis and modeling of the mechanical behavior of earthen bricks. Construction and Building Materials 25 (4), 2067-2075 - Pich-Aguilera, F., Batlle, T., Casaldáliga, P., 2008. La arquitectura residencial como una realidad industrial. Tres ejemplos recientes. Informes de la Construcción Vol. 60 (512), 47-60 - Pineda, J., Vega, J.T., Manzano, A., Pérez, J.F., Balmori, H., Hernández, M.A., 2007. Enhancement of mechanical and hydrophobic properties of Adobes for Building Industry by addition of polymeric agents. Building and Enviroment 42, 877-883 - Pineda, J., Mendoza, M.L., Manzano, A., Pérez, J.F., Vega, J.T., 2007. Water diffusion in clays with added organic surfactants. Journal of Physics D: Applied Physics; 40, 4991-4997 - Reboux, G., Bellanger, A-P., Roussel, S., Grenouillet, F., Millon, L., 2011. Moulds in dwellings: health risk and involved species. Archives des Maladies Professionnelles et de l’Environnement 72, 352-62 - Reddy, B.V.V., 2007. Indian standard code of practice for manufacture and use of stabilized mud blocks for masonry. International Symposium on Earthen Structures, Indian Institute of Science, Bangalore, 22-24 August. Ed. Interline Publishing, Bangalore - Salas, J., 2008. De los sistemas de prefabricación cerrada a la industrialización sutil de la edificación: algunas claves del cambio tecnológico. Informes de la Construcción Vol. 60 (512), 19-34 - Sanya, T., 2007. Living in Earth – the sustainability of earth architecture in Uganda. Phd. thesis, the Oslo School of Architecture and Design, Oslo - Sivapullaiah, P.V., Lakshmikantha, H., 2005. Limestabilised illite as a liner. Ground Improvement 9 (1), 39–45 - Soroushian, P., Aouadi, F., Chowdhury, H., Nossoni,

226

H., Sarwar, G., 2004. Cement-bonded straw board subjected to accelerated processing. Cement & Concrete Composites, 26, 797-802 - Stancato, A.C., Burke, A.K., Belardo, A.L., 2005. Mechanism of a vegetable waste composite with polymer-modified cement. Cement and Concrete Composites 27, Issue 5, 599-603 - Taylor, H.F.W., 1997. Cement Chemestry. Ed. Thomas Telford Services Ltd., London - Toledo Filho, R.D., Ghavami, K., England, G.L., Scrivener, K., 2003. Development of vegetable fibremortar composites of improved durability. Cement and Concrete Composites 25 (2), 185-196 - Villar Cociña, E., Frías, M., Talero, R., 2011. Adiciones activas al cemento: Inventario, caracterización y propiedades. En Amigó, V., Savastano, H., Delvasto, S., Manzano, A., 2011. Aprovechamiento de residuos agro-industriales como fuente sostenible de materiales de construcción. Ed. Universitat Politécnica de Valencia, Valencia - Villar-Cociña, E., Valencia Morales, E., Santos, S.F., Savastano Jr., H., 2008. Bamboo leaf ash as pozzolanic material: study of the reaction kinetics and determination of the kinetic parameters, NOCMAT 2008, Cali - Vroomen, R., 2007. Gypsum stabilised earth, Thessis for MSc Arquitecture, Building & Planning Endhoven Uni. Technol, Eindhoven - Wadel, G., Avellaneda, J., Cuchí, A., 2010. La sostenibilidad en la arquitectura industrializada: Cerrando el ciclo de los materiales. Informes de la Construcción 62 (517), 37-51 - Walker, P., Keable, R., Martin, J., Maniatidis, V., 2005. Rammed earth: Design and Construction Guidelines. Ed. BRE Bookshop, Zimbabwe - Wild, S., Kinuthia, J.M., Jones, G.I., Higgins, D.D., 1998. Effect of partial substitution of lime with ground granulated blast furnace slag (GGBS) on the strength properties of lime-stabilized sulphate-bearing clay soils. Eng. Geol. 51 (4), 37–53 - Wild, S., Kinuthia, J.M., Jones, G.I., Higgins, D.D., 1999. Suppression of swelling associated with ettringite formation in lime stabilized sulphate bearing clay soils by partial substitution of limewith ground granulated blastfurnace slag. Eng. Geol. 51 (4), 257–277 - Worrell, E., Price, L, Martin, N., Hendricks, C., and Ozawa Meida, L., 2001. Carbon Dioxide Emissions from the Global Cement Industry. Annual Review of Energy and Environment 26, 303-29. - Yilmaz, I., Berrin, C., 2009. Gypsum: An additive for stabilization of swelling clay soils. Applied Clay Sciences 44, 166-72 - Zami M. S., Lee A., 2010. Stabilized or unstabilized earth construction for contemporary urban housing. ICRM2010-Green Manufacturing, Ning


Se terminó de editar en el mes de noviembre de 2013 En DZIBAL, 200 digitales. (Belisario Domínguez #77, Col. Las Misiones, C.P. 76138 correo electrónico: rmendez@dzibal.com.mx) Tiraje: 200 ejemplares, más sobrantes para su reposición. Santiago de Querétaro, Qro., México.


Fi

7º Coloquio de Posgrado  

Avances de Jóvenes Investigadores DIPFI-UAQ 2013

Read more
Read more
Similar to
Popular now
Just for you