Page 1

MEMORIA DIGITAL

1


MEMORIA DIGITAL CONGRESO NACIONAL DE INGENIERÍA APLICADA – CNIA2012 UNIVERSIDAD DE IBAGUÉ Carrera 22 Calle 67, Barrio Ambalá PBX (8) 2709400 Ibagué, Tolima (Colombia)

www.cnia2012.net.co

ISSN:2322-9632

Recopilación de Información Adriana Isabel Linares Vanegas

Digitalizado en Colombia

Todos los derechos reservados. Esta es una publicación de la Universidad de Ibagué. Se prohíbe la reproducción parcial o total de su contenido, la recopilación en sistema informático, la transmisión en cualquier forma o por cualquier medio, por registro o por otros métodos, sin el permiso previo y por escrito de los editores.


Congreso Nacional de IngenierĂ­a Aplicada Construyendo Futuro Memoria Digital

Noviembre de 2012


Organización del Congreso El Congreso fue organizado por los grupos de investigación GINNOVA, GMAE y D+TEC de la Universidad de Ibagué y el grupo de investigación CEDAGRITOL de la Universidad del Tolima.

Líder del comité organizador: Helga Patricia Bermeo Andrade, Ph.D. Facultad de Ingeniería, Universidad de Ibagué Directora de Investigaciones

Comité organizador: Aldemar Muñoz, José Fernando Solanilla, Henry Vaquiro, Leonardo Mauricio Rodríguez Facultad de Ingeniería Agrondustrial, Universidad del Tolima Nelson Javier Tovar, Jorge Luis Enciso, Agustín Valverde Ganja, Mauricio Hernández, Oscar Barrero, Alfonso Muñoz, Adriana Isabel Linares Facultad de Ingeniería, Universidad de Ibagué

Apoyo Logístico: Oscar Javier Cárdenas Barón, Juan Felipe González Martínez, Carlos Andrés Pérez Vargas, Monica Tatiana Perdomo Pérez, Sandyra Masiel Cubillos Bonilla, Jennny Alexandra Pérez, Angee Lorena Rengifo Hernández, Leydi Camila Hernández Carrillo, Rubén Dario Conde Carvajal, Germán Ramírez Murillo, Ingrid Vanesa Guevara Cortés, Juan Sebastián Díaz Bonilla, William Gerardo Rivas Duarte, Jaime Andrés Jiménez Enciso, Sandra Arias, Anny Carolina Cortes Jaramillo, Luis Alejandro Ramírez Rojas, Jonathan Steven García Patiño, Francisco Javier Tocora Susa, Wilson Andrés Sánchez Romero, Luis Felipe Aguirre, Jesika Maria Rangel, Ivonne Quesada Pérez, Alejandra Quesada Pérez.


CONTENIDO

PRESENTACIÓN ......................................................................................................................... 7 SISTEMA DE MONITOREO DE VARIABLES PARA LA ESTIMACIÓN DE LA RADIACIÓN SOLAR .................................................................................................................. 9 DESARROLLO DE NUEVOS CATALIZADORES COMO POSIBLES ALTERNATIVAS PARA LA REACCIÓN DE DESHIDROGENACIÓN DE ETILBENCENO EN PRESENCIA CO2 EN LA PRODUCCIÓN DE ESTIRENO ............................................................................ 11 SISTEMA DE SUPERVISIÓN VÍA INTERNET EN UN REACTOR ANAERÓBICO PARA LA PRODUCCIÓN DE BIOGÁS .............................................................................................. 13 METODOLOGÍAS PARA EVALUACIÓN DE INCERTIDUMBRE EN LAS PREDICCIONES REALIZADAS CON MODELOS HIDROLÓGICOS .................................. 21 DETERMINACIÓN DEL CALOR ISOSTERICO Y LA CINETICA DE SORCIÓN PARA EL SALVADO DE ARROZ ............................................................................................................. 24 VULNERABILIDAD DEL TRATAMIENTO CONVENCIONAL DE AGUA PARA CONSUMO HUMANO .............................................................................................................. 26 MODELO MATEMÁTICO PARA LA SIMULACIÓN DE LA PRODUCCIÓN DE METANO EN UN REACTOR BATCH....................................................................................................... 29 TENDENCIAS ACTUALES EN LA ELECTRÓNICA DE POTENCIA DE LOS SISTEMAS FOTOVOLTAICOS .................................................................................................................... 30 VARIABLES DETERMINANTES DE LA MADUREZ COMERCIAL EN MORA DE CASTILLA ................................................................................................................................. 32 CARACTERIZACION NUTRACEUTICA DEL SALVADO DE ARROZ DE DIFERENTES VARIEDADES SEMBRADAS EN EL DEPARTAMENTO DEL TOLIMA ........................... 36 ESTUDIO DE OPTIMIZACION DE LA PRODUCCION DE METANO POR VIA BIOLOGICA DE LA FRACION ORGANICA DE RESIDUOS SOLIDOS URBANOS ......... 39 CONSTRUCCION DE UN SISTEMA DE LAVADO Y SECADO PARA BANANITO ........ 41 HERRAMIENTAS ESTADÍSTICAS APLICADAS AL MEJORAMIENTO Y ESTUDIO DE LA CALIDAD DE LOS PROCESOS ....................................................................................... 43 ANÁLISIS DE UN SISTEMA VMI MTO-MTS CON DEMANDA ESTOCÁSTICA............. 49 LAS TIC Y SU IMPACTO EN LA PRESTACIÓN DE SERVICIOS DE SALUD EN EL TOLIMA ..................................................................................................................................... 51 MODELACIÓN DE RIQUEZA DE PECES PARA LA RESTAURACIÓN DE RÍOS ............ 53 OPORTUNIDADES DE DESARROLLO SOCIO-AMBIENTAL Y ECONÓMICO DE LA AGROINDUSTRIA PESQUERA .............................................................................................. 56 ANÁLISIS DEL COMPORTAMIENTO AL DESGASTE POR DESLIZAMIENTO EN SECO DEL ACERO AISI-1020 EN ESTADO COMERCIAL EN LA CIUDAD DE IBAGUÉ ......... 62 SIMULACIÓN (MEF) DEL DESLIZAMIENTO DE UNA PARTÍCULA SOBRE UNA SUPERFICIE DE INGENIERÍA - EFECTO DE LA FORMA .................................................. 64 MODELO DE SIMULACIÓN (MEF) DEL FENOMENO DE DESGASTE EN ACERO 1045 ..................................................................................................................................................... 66 SIMULACIÓN DEL EFECTO DE LA FRICCIÓN EN EL DESLIZAMIENTO DE UNA PARTÍCULA .............................................................................................................................. 68


IMPLEMENTACION DIGITAL DE BAJO COSTO DEL SISTEMA DE CONTROL DE UN RECTIFICADOR CON CORRECCIÓN DE FACTOR DE POTENCIA.................................. 70 ESTUDIO DE CONVERTIDORES ELECTRÓNICOS PARA LA CONEXIÓN DE SISTEMAS FOTOVOLTAICOS DE GENERACIÓN DISTRIBUIDA .................................... 72 CONTROL DE CORRIENTE EN UN RECTIFICADOR PFCUSANDO UNSISTEMA DE REFERENCIA SÍNCRONO ....................................................................................................... 73 DETERMINACIÓN DE LOS ÍNDICES DE MADURACIÓN DEL BANANO USANDO PROCESAMIENTO DIGITAL DE IMÁGENES ...................................................................... 75 DESARROLLO DE UN SISTEMA DE MEDICIÓN DE MADURACIÓN DE FRUTAS BASADAS EN ESPECTROMETRÍA DE INFRARROJO CERCANO .................................... 77 CHARACTERISATION OF RICE BRAN FROM THE TOLIMA REGION IN COLOMBIA 79 PROGRAMACIÓN DE LA PRODUCCIÓN PARA LA PLANTA DE ACABADOS DE FABRICATO FIBRATOLIMA A PARTIR DE LA HEURÍSTICA CBM ................................ 80 REFLEXIONES DE LA APLICACIÓN DE HERRAMIENTAS DE INGENIERÍA PARA MEJORAR LA EFICIENCIA DE UN SERVICIO DE URGENCIAS REGIONAL ................. 83


PRESENTACIÓN El Congreso Nacional de Ingeniería Aplicada – CNIA2012, es un claro ejemplo de alianza interinstitucional entre la Universidad de Ibagué y la Universidad del Tolima. La denominación de „aplicada‟ obedece a la clara intención del Comité organizador de promover la difusión de nuevos conocimientos y tecnologías que resulten próximos para su potencial aplicación o transferencia a la solución de problemas sentidos de esta región centro de Colombia. Por ello, en este Congreso participaron reconocidos conferencistas y estudiosos de temas vinculados a la áreas de energía, medio ambiente, informática, materiales y alimentos. Todos estos temas, sin duda, de relevancia para el futuro desarrollo regional. No cabe duda que las soluciones que requiere el Tolima, han de venir a la dedicación y el trabajo colectivo y apasionado de muchos. Para reforzar esta idea, hago alusión a uno de los mensajes anecdóticos del escritor Gonzalo Gallo, publicado en su libro Oasis. Haciendo referencia a la „Pasión‟ escribe: “El espacio de los inventos es apasionante y casi siempre nacen para solucionar problemas y necesidades. De pronto a alguien lo ilumina la chispa creativa, más porque se consagra a investigar con paciencia y sabe observar, que por azar. Los casos abundan y uno bien interesante es el del húngaro Ladislao Biró y el bolígrafo. Biró era corrector de pruebas en una imprenta y un día se cansó de recargar su estilográfica y de mancharse las manos con tinta. Entonces decidió reinventar el bolígrafo creado por Loud en 1888 y mejorado por Evans, ambos americanos. Esos aparatos rudimentarios usaban tinta común, su letra era gruesa y sólo servían para marcar cajas o fardos. Biró había viajado a Buenos Aires, hizo muchos ensayos con un hermano, recibió apoyo del inglés Henrry Martin y logró su cometido. Poco después el australiano Frank Seech creó la tinta que se secaba al contacto con el aire. Ojo: su bolígrafo es el fruto de la dedicación y la pasión de muchos. ¿Eres un ser apasionado por los que amas y por lo que haces? El Congreso ofreció la oportunidad de ver los resultados de muchos estudiantes, profesores y empresarios, que de manera colectiva y dedicada, abordan actividades investigativas con el noble propósito de contribuir al desarrollo de una sociedad sana, justa y equilibrada. De manera especial, agradezco a todas las personas e instituciones que hicieron posible la realización del Congreso. A los invitados especiales, quienes nos permitieron lograr un evento académico de alto nivel; a los ponentes por su activa participación; al Codecyt y ACOFI por su apoyo institucional, quienes no dudaron en respaldar el desarrollo de este Congreso; a la Gobernación del Tolima y la Cámara de Comercio por facilitar las instalaciones locativas. Finalmente agradezco a cada uno de los integrantes del equipo organizador y logístico por su apoyo, sin cuyo trabajo y dedicación, este Congreso no hubiera sido posible.

Helga Patricia Bermeo Andrade Líder del comité organizador

Congreso Nacional de Ingeniería CNIA2012

7


PONENCIAS


SISTEMA DE MONITOREO DE VARIABLES PARA LA ESTIMACIÓN DE LA RADIACIÓN SOLAR S.M. Aragón-Avilés1, A. Valverde-Granja1, O. López-Santos2 1 GMAE, Universidad de Ibagué, Ibagué. 2 D+TEC, Universidad de Ibagué, Ibagué. Palabras claves: Radiación solar, panel solar.

Problema Entre las diferentes formas de utilización de energías renovables en el mundo, los sistemas fotovoltaicos se presentan como una alternativa promisoria, destacándose su alta confiabilidad, posibilidad de generación descentralizada, carácter modular, ausencia de residuos, renovabilidad y, desde el punto de vista económico, una tendencia a la disminución de los precios con un aumento de la eficiencia. También resulta una opción interesante para el abastecimiento de energía eléctrica a consumidores que se encuentren distanciados de la red de distribución de energía (Marini J. e Rossi L., 2003). Debido a la gran utilización que han tenido los sistemas fotovoltaicos en los últimos años en el mundo, por las ventajas que estos aportan, se ha planteado la necesidad del estudio del rango de la intensidad de radiación solar que es recibido en la ciudad de Ibagué, más específicamente en el campus de la Universidad de Ibagué, durante cierto periodo del año, para analizar la viabilidad de posibles proyectos fotovoltaicos. Metodología Para el desarrollo del proyecto se tienen en cuenta varias etapas con las cuales se llevará a cabo el proceso metodológico. La primera etapa es una fase documental, donde se proyecta la realización de una búsqueda bibliográfica, su clasificación, selección y estudio de la información obtenida sobre medidores de radiación solar. La segunda etapa es la selección de las variables experimentales que intervienen en la estimación de la radiación solar. Y la última fase del proceso, es el dimensionamiento e implementación del prototipo que permita realizar la estimación de la radiación solar recibida en la ciudad de Ibagué. Avances Para llevar a cabo el desarrollo del proyecto se realizó en primera instancia una búsqueda bibliográfica, en donde se seleccionaron algunos artículos investigativos, en los cuales se utiliza como herramienta principal para la supervisión de las variables determinantes de la radiación solar, el software LabVIEW [1, 2]. La adquisición de datos en distintos casos es realizada mediante la utilización de una tarjeta de adquisición o por conexión mediante puerto serial con el computador [2]. En uno de los artículos investigativos encontrados, se diseño el software PV-Size que simula instalaciones fotovoltaicas mediante la utilización de bases de datos y algoritmos [3]. En este artículo los autores mencionan que se debe realizar un seguimiento detallado y “analítico” del sistema. Las variables meteorológicas y eléctricas analizadas por el sistema de supervisión caracterizan el funcionamiento de la instalación fotovoltaica durante el intervalo de tiempo normalizado. Posteriormente, se definió como mecanismo de adquisición de datos la utilización de una tarjeta de adquisición y se seleccionaron las variables relevantes para la estimación de la radiación solar. Las variables definidas son la temperatura del panel solar, la temperatura del ambiente y la máxima potencia entregada por el panel solar. Con base en estas variables se diseñaron e implementaron los circuitos electrónicos para el acondicionamiento de las señales obtenidas a partir de los sensores de temperatura, voltaje y corriente utilizados. Además, se construyo un convertidor de potencia DC-DC de topología elevadora que permite estimar el máximo punto de potencia del panel solar a partir de la variación del ciclo útil de trabajo utilizando el método de perturbación y observación [4, 5, 6] (Ver Figura 1). La interfaz grafica actual implementada en LabVIEW, muestra la mediciónde las variables con un periodo de muestreo de un segundo para las temperaturas y de 70 segundos para cubrir el rango de ciclo útil definido para la perturbación en el convertidor (Ver Figura 2). La información obtenida es almacenada y clasificada en una base de datos que acumula mediciones históricas por día que permitan comparar las mediciones del sistema con las mediciones realizadas por una subestación de monitoreo meteorológica comercial ya instalada en el campus de la universidad. La comparación detallada entre cada una de las Congreso Nacional de Ingeniería CNIA2012

9


mediciones obtenidas de las variables con el prototipo experimental en relación con la radiación solar medida con la subestación permite encontrar el comportamiento que las correlaciona, dando así, una estimación de la función que determina la radiación solar dependiente de la potencia entregada por unidad de área de panel solar y de la temperatura del panel solar.

Figura 1. Montaje circuito convertidor de potencia DC-DC de topología elevadora.

Figura2. Interfaz gráfica estación de monitoreo en LabVIEW. Referencias [1] F. Chico, J. A. Aristizabal y G. Gordillo, “Desarrollo de Sistema de Medición y Evaluación del Potencial de Radiación Solar Usando Instrumentación Virtual”, Revista Colombiana de Física, vol. 41, No. 1, Enero, 2009. [2] N. Forero, F. Mesa y G. Gordillo, “Medición y análisis estadístico de radiación solar y temperatura ambiente, medidos en Bogotá”, Revista Colombiana de Física, vol. 35, No. 1, 2003. [3] Características de la Planta Solar Fotovoltaica del Laboratorio C.I.B.A. de la Universidad de Valladolid [Online]. Available:(www3.uva.es/renova/esp/proyectos/descripcionplantapvweb.doc), Agosto, 2011. [4] D.P. Hohm y M.E. Ropp, “Comparative study of maximum power point tracking algorithms”.Progress in Photovoltaics: Research and Applications, pp. 47–62, 2003. [5] T. Esram y P.L. Chapman, “Comparison of photovoltaic array maximum power point tracking techniques”.IEEE Transactions on Energy Conversion , vol. 22, No. 2, pp. 439–449, 2007. [6] A. Mellit, H. Rezzouk, A. Messai y B. Medjahed, “FPGA-based real time implementation of MPPTcontroller for photovoltaic systems”, Renewable Energy, vol. 36, pp. 1652-1661, 2011.

Congreso Nacional de Ingeniería CNIA2012

10


DESARROLLO DE NUEVOS CATALIZADORES COMO POSIBLES ALTERNATIVAS PARA LA REACCIÓN DE DESHIDROGENACIÓN DE ETILBENCENO EN PRESENCIA CO2 EN LA PRODUCCIÓN DE ESTIRENO R.E. Causado-Escobar1 y A. Liliana Barbosa López 2 1

2

Universidad de Cartagena, Campus de Zaragocilla, Cartagena de Indias, Colombia Laboratorio de Investigaciones en Catálisis y Nuevos Materiales de la Universidad de Cartagena, LICATUC Campus de Zaragocilla, Cartagena de Indias Colombia

Introducción El estireno es uno de los monómeros más importantes en la producción de polímeros, tales como resinas, cauchos sintéticos y plásticos, siendo uno de los intermediarios químicos de gran valor comercial y de gran utilización y consumo en la actualidad [1,2].La deshidrogenación catalítica de del etilbenceno es la vía de producción comercial más importante y también la que arroja mejores resultados. Sin embargo, este proceso presenta varias desventajas, asociadas principalmente a su carácter reversible y endotérmico y al excesivo vapor requerido. Las implicancias económicas de las mismas sobre el costo del proceso. Una alternativa interesante, a fin de superar estos inconvenientes y para la cual se ha señalado ventajas comparativas respecto a la deshidrogenación directa, es el proceso de deshidrogenación con dióxido de carbono de etilbenceno a estireno, Carmo Rangel y col (2008), muestran que la introducción de CO2 en la alimentación, produce el hidrocarburo insaturado e hidrogeno, alcanzándose las siguientes ventajas respecto al proceso de deshidrogenación directa: La reacción es irreversible y por lo tanto, la conversión no está limitada por el equilibrio [3]. El proceso es exotérmico en lugar de endotérmico. Las temperaturas de operación pueden ser mucho más bajas, razón por la cual varios grupos de investigación se enfocan en desarrollar nuevos catalizadores. Considerando estos aspectos, en este trabajo se desarrollaron diferentes alternativas en materia catalítica no disponibles en el mercado destinadas a la deshidrogenación de etilbenceno en presencia de dióxido de carbono. En una primera fase se tuvo en cuenta sistemas catalíticos novedosos tales como molibdatos de níquel, de hierro y de cobre, los cuales en trabajos como los realizados de manera independientes por Mazzocchia y col y Abello y col.han mostrado gran actividad y rendimiento en reacciones de deshidrogenación de alcanos [4,5], y se trabajó además con el ya conocido sistema férrico en forma de hematita, Fe 2O3, dado sus grandes valores de selectividades pero soportándolo en carbón activo nanoporoso y óxido cálcico comercial. En una segunda y última fase se caracterizaron estos materiales para conocer distintas propiedades de estas especies y así poder correlacionarlas con sus respectivas actividades y selectividades catalíticas. Experimental Preparación De Los Catalizadores Preparación del catalizador másico de NiMoO4 y NiMo/CaO: El catalizador estequiométrico de NiMoO4 se preparó por coprecipitación de una solución equimolar de ácido molíbdico y Nitrato de níquel (0.25M), a 85°C con un pH ajustado a 5.25 por adición de amoníaco. El precipitado obtenido se filtró en caliente y se secó a 120°C por 15 horas, entonces se calcinó a 550°C por 2 horas. Para la preparación del catalizador de NiMo/CaO se preparó primero la fase activa de igual forma como se preparó el catalizador másico de molibdato de níquel (coprecipitación ) y se impregnó sin interacción la fase activa en el soporte de CaO comercial con un porcentaje de 10% NiMo. Se sometió luego a secado a 393 K (120°C) por 15 horas y a calcinación a 773 K (500°C) por 2 horas. Preparación del catalizador másico de FeMo y CuMo: Los catalizadores másicos de FeMo se prepararon por el método de coprecipitación adicionando una solución de heptamolibdato de Amonio (HMA) de pH 4.7 y temperatura 80°C con otra de sulfato ferroso-férrico amónico (o de sulfato de cobre, CuSO4, para el CuMo) de igual pH y temperatura. Se filtró el precipitado resultante y se secó a 383 K (110°C) por 20 h. Posteriormente se calcinó a 773 K (500°C) por 2 h. Preparación del catalizador de Fe2O3/ CaO y Fe2O3 /C: Se prepararon por el método de impregnación sin interacción utilizando como fuente de hierro la sal cloruro férrico, la cual después de calculada la cantidad de hierro a soportar fue tratada con hidróxido de amonio para producir la precipitación de todo el hierro como hidróxido ferrico. Posteriormente se procedió a filtrar el precipitado lavándolo con abundante agua destilada. Seguidamente se colocó en agitación una suspensión acuosa del soporte (sea oxido cálcico comercial o el Carbón nanoporoso obtenido) y se le fue adicionando poco a poco pequeñas cantidades del hidróxido férrico con

Congreso Nacional de Ingeniería CNIA2012

11


un intervalo aproximado de una adición cada dos minutos. Se sometió luego a secado a 377 K (104°C ) por 12 horas y calcinó al aire a 1023 K (750°C) durante 5 horas. La carga de Fe fue de 10% en CaO y 1 al 3% en Carbon nanoporoso. Preparación del carbón nanoporoso: Una mezcla 1:2 de Resorcinol (99%, reactivo ACS) y Formaldehido (37 % solución acuosa, reactivo ACS) se adicionó a una solución acuosa coloidal de sílica sol (Ludox HS-40, Aldrich, 40 %), la mezcla de reacción se mantuvo a 85ºC por una semana ajustando el pH inicial hasta 8 con NaOH 1 N para obtener la composición de sílica y gel resorcinol-formaldehido (gel RF). A continuación la mezcla resultante se secó a 85ºC por dos días, y se carbonizó a 850ºC con una velocidad de calentamiento de 5ºC/min, por 3h en atmósfera de N2. Para remover el agregado de sílice en la composición sílice- carbón, se agitó en una solución acuosa de HF al 48% en peso por 12h, seguida por filtración y lavado con agua desionizada hasta pH del filtrado aproximadamente 7. La relación molar de los reactivos resorcinol: formaldehido: sílica: agua fue 1:2:7.5:86. Caracterización De Los Catalizadores Se caracterizaron los distintos materiales sintetizados por técnicas tales como la espectroscopia de absorción atómica (AAS), la difracción de rayos X (DRX), la espectroscopia infrarroja con transformada de Fourier (FTIR) , el método BET y el análisis de reducción a temperatura programada (TPR). Resultados y Discusión  AAS: los valores de absorción atómica para los catalizadores reflejaron los porcentajes metálicos esperados.  FT-IR: en los catalizadores NiMo/CaO, FeMo, se observaron estiramientos correspondientes a grupos Mo=O [O], Mo-O-Mo, H2O estructural, en el caso del FeMo se registraron bandas correspondientes a polimolibdatos de hierro, Mo=O[O] PoliMo, Fe-O [T], Mo-O-Mo, Fe-O-Mo. En el soporte de CaO comercial se presentaron estiramientos Ca-O, y se observó la presencia de carbonatos.  TPR: Los catalizadores de CuMo, NiMo y FeMo presentaron una reactividad mayor frente al hidrogeno siendo más fácilmente reducibles que el Fe2O3 / CaO en el que se aprecio la aparición de un solo pico correspondiente a la reducción de la especie Fe3+ a Fe2+, con una temperatura máxima de reducción de 779 °C ligeramente mayor que la reportada para la hematita másica.  XRD: En todos los catalizadores se aprecian picos definidos y agudos, lo que permite considerar que los sólidos son bastantes cristalinos. Al comparar los sólidos NiMo/CaO y NiMo se pudo observar que se estabiliza la fase beta (β) del Ni. En los catalizadores de oxido férrico de 10% soportado en CaO se apreciaron picos correspondientes a la fase hematita, posiblemente en partículas pequeñas y ampliamente dispersas.

Importancia Este tipo de reacciones gozan de profundo interés debido a su uso potencial en el renglón petroquímico y en los polímeros [10-12], por lo que se hace importante la búsqueda de nuevas y mejores alternativas catalíticas que mejoren el rendimiento de la reacción y reduzcan los costes del mismo. Referencias [1] Saito, M., Kimura, H., Mimura, N., Wu, J. Y Murata, K. Applied Catalysis A: General. 239 (2003) 71-77. [2] Lee, E. Catálisis Review. 84 (1963) 285. [3] Botelho, S., Pereira, D., Melo, A., Rabelo, D. y Rangel, M. Catalysis Today 133–135 (2008) 92–98. [4] Mazzochia, C.; Anouchosky, R.; Kaddouri, A.; Sautel, M. Y Thomas, R. J of ther Anal. 40 (1993). 12531265. [5] Abello, M., Gomez, M., Rivarola, J. Y Ferretti, O. XVI Simposio iberoamericano de catálisis. Cartagena de Indias. Colombia.23 al 28 de Agosto de 1998. Tomo3. 1998. Pag. 1575-1580.

Congreso Nacional de Ingeniería CNIA2012

12


SISTEMA DE SUPERVISIÓN VÍA INTERNET EN UN REACTOR ANAERÓBICO PARA LA PRODUCCIÓN DE BIOGÁS F.E. Muñoz., H. Numpaque., I.A Ruge. Universidad de Cundinamarca Palabras Claves: Instrumentación, Interfaz Hombre Maquina, Supervisión vía internet, Adquisición Remota.

Introducción. La problemática de los RSU ha venido aumentando como consecuencia de rápido crecimiento y la concentración desmesurada de la población, del desarrollo industrial, las actividades agrícolas y falta de políticas para una adecuada gestión de residuos sólidos urbanos. Un manejo y tratamiento inadecuado de los RSU provocan entre otros aspectos enfermedades, contaminación de recursos hídricos, deterioro del suelo y contaminación del aire afectando en corto tiempo la calidad del medio ambiente y la vida de las comunidades. En miras de encontrar posibles soluciones a dicha problemática, la Universidad de Ibagué en alianza con la Universidad de Cundinamarca formularon el proyecto de investigación titulado “Modelización, simulación, control y optimización la producción de metano e hidrogeno por vía digestión anaerobia de residuos orgánicos, urbanos y agrícolas”. El cual busca aprovechar dichos residuos en la producción de biogás e hidrogeno, para tal fin, el proyecto tiene como objetivo principal optimizar la producción de metano e hidrogeno por vía biológica en fase de fermentación de la Fracción Orgánica de Residuos Urbanos y Agrícolas en la planta piloto de la Universidad de Ibagué, aplicando sistemas de monitoreo en línea y estrategias de modelización, simulación, control no lineal y optimización de procesos. Este trabajo presenta el desarrollo de la primera fase del proyecto, en la cual se ha venido trabajando el diseño e implementación de un sistema de supervisión y adquisición de datos vía internet en el software LabVIEW. Dicho sistema permite crear registro histórico de las variables temperatura, pH, flujo de biogás, concentraciones volumétricas de CO2 y CH4, con su respectiva visualización en tiempo real. El registro histórico de estos datos será aprovechado para realizar el tratamiento de los mismos y posteriormente realizar la identificación dinámica del proceso y diseñar estrategias de control. Descripción del sistema: Como muestra la Figura 1, la plata piloto de biogás de la universidad de Ibagué cuenta con un bioreactor continuo (CSTR). En el tanque A se almacena el sustrato a tratar, en el B se lleva a cabo el tratamiento del sustrato mediante digestión anaeróbica y se genera el biogás. Cada uno de los tanques están construidos en acero inoxidable con una capacidad de 50L, en donde 24L son para el almacenamiento de sustrato y 26L son para el almacenamiento inicial de biogás.

Figura 1. Diagrama de bloques del sistema. La instrumentación que se emplea para monitorear las variables del sistema se encuentra instalada en el tanque B. El modulo de instrumentación está compuesto por una termocupla tipo J para medir la temperatura del proceso, una sonda de pH, un sensor de flujo de gas construido a partir de un sensor de presión diferencial acoplado a un tubo con placa de orificio y un sensor infrarrojo que permite cuantificar las concentraciones volumétricas de CO2 y CH4. Los sensores son conectados una tarjeta de adquisición de datos NI-USB6009, que está a su vez está conectada a una computadora personal dentro de la planta, que esta conectada Congreso Nacional de Ingeniería CNIA2012

13


permanentemente a internet, a esta computadora se le asigna el nombre de PC-servidor. El PC-servidor mediante una interfaz HMI (Interfaz Hombre Maquina) desarrollada en LabVIEW, adquiere y elabora un registro histórico de las variables del proceso, para posteriormente enviar vía internet dichas variables a un una computadora personal remota a la cual se le asigna el nombre de PC-cliente, donde las variables pueden ser visualizadas en tiempo real. El cliente cuenta con una HMI y un registro histórico de las variables supervisadas. Desarrollo del sistema de adquisición y supervisión remota de datos. El sistema supervisión de variables se divide en tres etapas: Instrumentación y Adquisición. Comunicación Remota. Interfaz Grafica de Usuario.

de adquisición y

Nota: En el desarrollo del sistema de supervisión se hace uso del software LabVIEW 9.0 a 32bit de Nacional Instruments. LabVIEW se describe por sus fabricantes como un extenso entorno de desarrollo que brinda a científicos e ingenieros integración con hardware sin precedentes y amplia compatibilidad. La principal característica de LabVIEW es el uso del lenguaje G, es decir grafico, donde la herramienta permite el desarrollo de aplicaciones mediante el uso de bloques funcionales que deben ser interconectados entre sí de acuerdo con las entradas y salidas que se cuente en cada bloque. Instrumentación y Adquisición de Datos.La instrumentación se compone de los siguientes sensores: Sensor de temperatura: El sensor de temperatura empleado es una termocupla tipo J, la cual cumple con las siguientes especificaciones según el fabricante: Rango de operación de -40 °C a 750°C. Sensibilidad ~52 µV/°C. Material de fabricación en Hierro-Constantana A razón que la señal de salida de la termocupla tipo está dada en milivoltios, es necesario implementar una etapa de amplificación a partir de un Amplificador de Instrumentación INA128P. El circuito necesario para realizar la amplificación en la termocupla es el presentado en la Figura 2.

Figura 2. Circuito amplificador para termocupla tipo J con Amplificador de Instrumentación INA128P. Implementado el circuito de la Figura 2 con la termocupla, se halla la curva característica del sensor, Figura 3.

Figura 3. Curva característica de termocupla tipo J con Amplificador de Instrumentación INA128P. Congreso Nacional de Ingeniería CNIA2012

14


Finalmente la ecuaciĂłn caracterĂ­stica del sensor es:

T °C =

0.001 ∗ y − 0.6569 0.0289

(1)

Sensor de pH: El sensor empleado es la sonda pH_03 de la empresa LUTRON ELECTRONIC, las especificaciones del fabricante de esta sonda son las siguientes: Rango de medición del pH de 1 a 14. Rango temperatura de operación del sensor de 0°C a 60°C. Igual que en sensor anterior, es necesario implementar un circuito de adecuación de seùal, para tal fin se implementa el circuito presentado en la Figura 4 con el amplificador de instrumentación de referencia INA114. La caracterización de la sonda es realizada en los valores de temperatura de 25°C, 30°C, 35°C, 40°C, 45°C, y 50°C.

Figura 4. Circuito amplificador para sonda pH_03 con Amplificador de Instrumentación INA114. Las curvas características halladas para este sensor es la presentada en la Figura 5. Caracterización sonda de pH en función de la temperatura -0.6 25°C 35° 40°C 47°C 50°C

-0.8 -1

pH

-1.2 -1.4 -1.6 -1.8 -2 -2.2

0

2

4

6 8 Temperatura [°C]

10

12

14

Figura 5. Curva caracterĂ­stica del sensor de pH. Mediante una regresiĂłn polinĂłmica de las curvas anteriores se halla la ecuaciĂłn caracterĂ­stica de la sonda. đ?‘?đ??ť = −5.781đ?‘‰ 3 − 24.27đ?‘‰ 2 − 42.25đ?‘‰ − 20.5

(2)

Sensor de CO2 y CH4: Para la medida de estas dos variables se cuenta con un sensor que posee doble propósito, el cual permite medir concentraciones volumÊtricas de CO2 y CH4, El sensor empleado es el IR15TT-R, el cual funciona por el principio de Absorción Infrarroja. Las especificaciones del fabricante son las siguientes: 

Dos canales para detecciĂłn simultĂĄnea de DiĂłxido de Carbono y Metano.

Congreso Nacional de IngenierĂ­a CNIA2012

15


  

Medición de 0 hasta 100% Vol. de Dióxido de Carbono. Medición de 0 hasta 100% Vol. De Metano. Resistente a la corrosión.

Según (R. Ilber, 2011) para poder hacer uso de este sensor se requiere de una etapa de amplificación y filtrado, tanto para el canal de medición del Dióxido de Carbono como para el canal de medición del Metano. El circuito utilizado es el presentado en la Figura 6.

Figura 6. Circuito amplificador y filtrado para sensor infrarrojo de gas IR15TT-R. Adquisición de datos: La adquisición de datos para el Sistema de Supervisión Remota se desarrolla con una tarjeta de adquisición de datos USB de National Instruments, referencia NI USB-6009. Esta tarjeta de adquisición cuenta con las siguientes características: - Sistema Operativo: Linux, Mac OS, Windows - Tipos de Medida: Voltaje - Entradas analógicas: 8 Canales de una sola terminal y 4 Canales Diferenciales, con una resolución de 14 bits y una velocidad de muestreo de 48 kS/s, con un máximo voltaje de entrada analógica de 10V y un rango de voltaje máximo de -10 V - 10 V. - Entradas y salidas TTL: 12 canales bidireccionales con resolución de 12 bits. En el aplicativo de LabVIEW el bloque usado para adquirir las señales a través de la tarjeta de adquisición es el DAQ assistant, el cual es configurado de tal forma se puedan recibir cinco señales a la vez, con un periodo de muestreo de 1kS/s. Los valores adquiridos por la tarjeta de adquisición deben ser convertidos a un formato de 8bit para poder ser usados en las siguientes etapas, por lo cual son convertidos en un formato extendido y luego multiplicados por un factor de 51, con el fin de obtener a la salida un valor entre 0 a 255 en formato de 8bit. En la Figura 7 se muestra el código desarrollado en LabVIEW para esta sección, donde cada hilo corresponde a cada una de las cinco variables, temperatura, pH, CO2, CH4, y flujo de gas a supervisar [7].

Figura 7. Programa para la adquisición de datos con la NI USB-6009.

Comunicación Remota. La comunicación remota permite que el sistema comparta información de forma bidireccional entre el PC-servidor ubicado en la Universidad de Ibagué y el PC-cliente ubicado en la Universidad de Cundinamarca. A la hora de realizar los estudios del funcionamiento de los bloques de comunicaciones se elije el uso de los bloque de comunicación de datos con el protocolo TCP. Es elegido este protocolo porque es orientado a la conexión y va a garantizar que el enlace entre el servidor y el cliente siempre Congreso Nacional de Ingeniería CNIA2012

16


este activo y en caso de caída de la conexión la reporta. Estudiando el funcionamiento de los bloques TCP se encontró que la comunicación entre dos equipos puede realizarse dentro de una red de área local, siempre y cuanto el PC-servidor y el PC-usuario estén conectados a dicha red de área local, es decir, si los dos equipos se encuentran conectados a un router se puede realizar la comunicación sin ningún inconveniente, lo único es definir una dirección IP estática a cada equipo y utilizar esa IP a la hora de realizar la comunicación entre los equipos. El inconveniente en el desarrollo de este proyecto se encontraba en la topología de red con que se cuenta, donde es imposible realizar la conexión entre los dos equipos a una red de área local, debido a la gran distancia que se encuentran ubicados, por tal razón es necesario recurrir al uso de una Red Privada Virtual, VPN. La función de la VPN es generar una red de área local virtual mediante un túnel a través de internet. Con la VPN se genera determinado número de direcciones IP que van a corresponder a una sola red privada virtual y dichas direcciones IP pueden tener determinados privilegios de acceso y comunicación, según los criterios que se hallan definido en la VPN y en cada uno de los equipos que pertenezcan a esa VPN. La Figura 8 muestra la topología de red que utiliza una VPN para realizar la conexión entre dos equipos que pertenecen a diferentes segmentos de red dentro de internet y el esquema que representa el túnel que permite la comunicación entre dos segmentos de red.

Figura 8. Esquema de configuración típica de una VPN Para la implementación de la VPN el software utilizado es Hamachi de la empresa LogMeIn, versión 2.1.0.210, el cual es de licencia gratuita en su versión más básica. Este software permite establecer una red segura entre dos o más equipos como si estuviesen conectados físicamente. La razón de elegir Hamachi para la implementación de la VPN es su capacidad de posibilitar la conexión entre los equipos sin importa la presencia de firewall lógicos o por hardware y antivirus. También es una herramienta muy fácil de utilizar con una GUI, tal como se presenta en la Figura 9, es muy amigable para el usuario más novato en el tema de VPN.

Figura 9. Vista preliminar de la GUI de Hamachi Los bloques de comunicación de datos con el protocolo TCP, fueron el bloque TCP Listen.vi, Figura 10, el cual es utilizado en el servidor y cumple la función de estar a la escucha de cuando el usuario se conecte a la red. Si este tiene dentro de su identificador la dirección IP asignada al servidor permite realizar la conexión. Tiene como parámetro de entrada el puerto del protocolo TCP por el que se desea realizar la comunicación y el connection ID que es el hilo por el que se realiza la conexión TCP, a través de este es donde se lleva a cabo la conexión y es por donde se interconectan todos los Bloques TCP, por lo que esta entrada o salida se va a encontrar en todos los bloques del protocolo TCP.

Congreso Nacional de Ingeniería CNIA2012

17


Figura 10. Bloque de comunicaciones TCP Listen.vi El bloque TCP Open Conecction.vi se muestra en la Figura 10, y es el encargado de abrir la conexión entre el PC-usuario y el PC-servidor. Este bloque se utiliza en el PC-usuario y tiene como parámetros de entrada la dirección IP del PC-servidor, el puerto del protocolo TCP por el que se desea realizar la comunicación y el connection ID. En tal caso la dirección IP que se ha de ingresar en este bloque es la entregada por software encargado de la gestión de la VPN, LogMeIn Hamachi que está instalado en el PC-servidor, tal como se mostro en la Figura 11.

Figura 11. Bloque de comunicaciones TCP Open Conecction.vi

Otro bloque utilizado es el TCP Close Conecction y se función es cerrar la conexión entre los dos computadores. Solo es necesario conectarle la entrada de connection ID como se muestra en la Figura 12.

Figura 12. Bloque de comunicaciones TCP Close Conecction.vi Con estos tres bloques mencionados hasta el momento se tiene la conexión por protocolo TCP, ahora para realizar la lectura de datos y escritura se usan los bloques TCP Read.vi, y TCP Write.vi, los cuales cumplen la función de recoger la información para luego ser transportada por el protocolo TCP, después bajarla en el host de llegada y finalmente escribirla en un arreglo string. Para el caso del TCP Read.vi es el encargado de subir la información por la comunicación establecida por protocolo TCP y para el cado del TCP Write.vi es el encargado de bajar la información enviada por el computador. Se puede observar en la Figura 13 el código mínimo para el transporte del valor de una variable, para este caso flujo de biogás. Este es un fragmento del código total implementado en el PC-servidor. En esta figura se puede observar el uso del bloque TCP Write.vi.

Figura 13. Fragmento del código implementado en el PC-servidor. Cabe resaltar la existencia de un bloque en particular dentro de la Figura 15, que se presenta individualmente en la Figura 14, este cumple una función muy específica de aplanar los datos que se van a llevar por el protocolo TCP [8].

Congreso Nacional de Ingeniería CNIA2012

18


Figura 14. Bloque Flatten To String Function, para aplanar datos. Para el caso del PC-Usuario, en comparación al código implementado en el del PC-Servidor, se van a notar algunas diferencias, Figura 15, la primera es que ya no se usa el bloque TCP Write.vi, en cambio de este se usa el bloque TCP Read.vi, cuya función es bajar los datos que provienen desde el PC-Servidor, vía internet.

Figura 15. Fragmento del código implementado en el PC-Usuario. La segunda diferencia en el PC-Usuario frente al PC-Servidor, es que en este hay que desaplanar los datos para regresarlos de nuevo a un formato string y la tercera es que el bloque usado para establecer la comunicación es el TCP Open Conecction.vi. Como se menciona antes en este bloque hay que ingresar la dirección IP de gestionada por LogMeIn Hamachi. Interfaz Grafica de Usuario. La Interfaz Grafica de Usuario (GUI), es el elemento donde es posible visualizar el comportamiento de las variables supervisadas en tiempo real y el registro histórico de dichas variables del proceso que se está llevando a cabo en el reactor anaeróbico ubicado en la Universidad de Ibagué. Para el caso de la Universidad de Cundinamarca, la GUI es muy similar a la GUI de la Universidad de Ibagué. La única diferencia que existe en las dos interfaces es que la de la Universidad de Cundinamarca tiene una pequeña caja de dialogo donde es posible ingresar la dirección IP de la estación a la que se desea conectar, en este caso, la de la Universidad de Ibagué. La GUI que cuenta tanto el PC-Servidor, como PC-Usuario son iguales y se cuenta con un display donde puede observarse el comportamiento en tiempo real de cada una de las variables que se han dedicado a supervisar por el sistema. Figura 16.

Figura 16. Fragmento de la GUI de visualización de las variables supervisadas en tiempo real.

Congreso Nacional de Ingeniería CNIA2012

19


También se cuenta con una serie de pestañas donde puede visualizarse el registro histórico y una visualización grafica (variable vs. Tiempo). En la Figura 17 se observa el comportamiento del flujo del biogás.

Figura 17. Fragmento de la GUI de del registro histórico del flujo de biogás. Análisis de resultados. La prueba realizada para calcular la latencia del sistema de supervisión, se realizó mediante el comando ping de DOS de un equipo a otro, donde la latencia promedio fue de 860ms, un valor muy aceptable teniendo en cuenta que las dos universidades cuentan con redes de internet que son administradas por servidores que poseen un alto trafico de información. Conclusión. Con el desarrollo del sistema de supervisión se ha garantizado el transporte de información en tiempo real; considerando el bajo tiempo de latencia, de tal forma que los datos del proceso pueda ser utilizados por ambas partes (Universidad de Ibagué y Universidad de Cundinamarca) para poder desarrollar modelos de identificación que permitan conocer mejor los procesos de la digestión anaeróbica de residuos sólidos orgánicos para propósitos de producción alternativa de energía como lo es el biogás, y por otro lado, contar la información suficiente para diseñar estrategias de control que permitan a futuro poder normalizar una producción de biogás de forma eficiente. Referencias  

  

National Instruments. Data Acquisition Basics Manual, January 2000 Edition Part Number 320997E-01. Disponible en internet en: http://www.ni.com/pdf/manuals/320997a.pdf LAJARA. José, LabVIEW, entorno grafico de programación, Alfaomega-marcombo, 2007, ISBN por marcombo 84-267-1426-29 y por alfaomega 970-15-1133-6 BAILEY. David, Practical SCADA for Industry, ELSEVIER, First published 2003, ISBN: 07506 5805. Disponible en internet en: http://www.fer.unizg.hr/_download/repository/Practical_SCADA_for_Industry.pdf RUGE. Ilber, Modulo De Entrenamiento Para El Aprendizaje De Comunicación Usb Entre Microcontrolador Pic Y Delphi Borland. 2010. Segundo Congreso Virtual, Microcontroladores y sus Aplicaciones. Disponible en:

http://www.areacapacitacion.com.ar/ Ruge, Ilber. Control difuso basado en microcontrolador para la producción de biogás en digestión anaerobia tipo batch de fracción orgánica de residuos sólidos, articulo publicado en: Memorias Segundo Congreso Internacional De Instrumentación Control Telecomunicaciones, ISBN: 978-958-8561-26-4, Universidad Santo Tomas, Tunja Boyacá, 2011. PEREZ. Yohan, Implementación de Comunicación USB con Microcontrolador PIC18F4550 y LabVIEW. Disponible en:

http://www.pcbporladerecha.com/descargas/USB%20con%20PIC18F4550%20y%20LabVIEW%20%20rev%202012.pdf Manual de usuario de la tarjeta de adquisición NI USB-6009. Disponible en internet: http://www.ni.com/whitepaper/8985/es

Congreso Nacional de Ingeniería CNIA2012

20


METODOLOGÍAS PARA EVALUACIÓN DE INCERTIDUMBRE EN LAS PREDICCIONES REALIZADAS CON MODELOS HIDROLÓGICOS J. C. Múnera-Estrada Programa Ingeniería Civil, Universidad de Ibagué, Ibagué Palabras claves: Evaluación de Incertidumbre, Modelos Hidrológicos, Métodos Bayesianos

Problema Al igual que ocurre con cualquier modelo matemático, los modelos hidrológicos pueden son herramientas útiles para representar de una forma simple la realidad física de un sistema muy complejo como es una cuenca hidrográfica. Muchos hidrólogos aluden a la dificultad que conlleva emular el comportamiento de una cuenca con un modelo matemático y resaltan la necesidad de incorporar en el análisis la incertidumbre derivada de este ejercicio. Por otro lado, los modelos hidrológicos están compuestos por sub-modelos que representan diversos procesos físicos interrelacionados en la cuenca entre el agua, la energía, el suelo y la vegetación. La dinámica de cada uno de ellos se estudia mediante ecuaciones matemáticas relativamente simples que actúan como representaciones agregadas de los mismos, que suelen tener una marcada variabilidad espacio-temporal. Por esta razón, los parámetros involucrados en las mismas no siempre representan una entidad física medible en forma directa, razón por la cual los valores estimados adquieren la connotación de "parámetros efectivos" [1]. Por otro lado, para su estimación o calibración se recurre con frecuencia a métodos indirectos basados en la dinámica de los flujos de entrada (precipitación) y de salida (caudal) en un período de tiempo determinado. No obstante, la variabilidad espacio-temporal de los primeros suele estar pobremente representada, y los errores de estimación de los segundos pueden ser apreciables, especialmente durante las crecidas; ambos efectos inducen sesgos considerables en la identificación de los parámetros del modelo. En este contexto, se puede afirmar sin lugar a dudas que las simulaciones o predicciones realizadas con modelos hidrológicos no están exentas de error. Por este motivo, un marco metodológico conceptual de modelación lluvia escorrentía no sólo debe describir y cuantificar los procesos hidrológicos, sino también incluir una evaluación objetiva de la incertidumbre en la modelación. Este análisis debe considerar tres aspectos fundamentales interrelacionados como son: el entendimiento, cuantificación y reducción de la incertidumbre [2]. Metodología En los últimos años se ha dado un debate en la comunidad científica de hidrólogos y meteorólogos sobre cuál es el marco metodológico más robusto para estimar e interpretar la incertidumbre vinculada a la modelación hidrológica, de modo que se obtenga su máximo potencial práctico, tanto en propósitos de investigación como en la práctica hidrológica operacional. Una corriente amplia coincide en que ese marco conceptual debe basarse en la teoría Bayesiana formal, mientras que otro grupo se ha orientado hacia métodos simplificados que se pueden considerar pseudo-probabilísticos. Los métodos del primer tipo intentan descomponer y propagar las diversas fuentes de incertidumbre que aparecen en el proceso de modelación (datos de entrada, parámetros, estructura del modelo, datos de salida), utilizando técnicas de simulación tipo Montecarlo para estimar los cuantiles de la variable simulada en cada paso de tiempo. Algunos ejemplos son: Markov Chain Montecarlo (MCMC), Bayesian Total Error Analysis (BATEA), Bayesian Recursive Analysis (BARE). Los segundos permiten analizar la sensibilidad del modelo ante las posibles variaciones en los datos de entrada o los valores que puede adoptar el espacio de parámetros. Algunos de éstos son: Generalized Likelihood Uncertainty Estimation (GLUE), General Sensitivity Analysis (GSA), Dynamic Identifiability Analysis (DYNIA). Incertidumbre de validación versus incertidumbre predictiva Es importante diferenciar entre la incertidumbre de validación y la incertidumbre predictiva (IP). Todas las aproximaciones mencionadas antes hacen referencia a la primera, la cual expresa la capacidad del modelo para emular la realidad [3] y se define como la incertidumbre de una predicción realizada por un modelo (ŷt), dado el Congreso Nacional de Ingeniería CNIA2012

21


conocimiento de lo que en realidad ha ocurrido, es decir, el valor observado (yt) al que se refiere tal predicción. Esta incertidumbre se expresa en términos de la función de densidad de probabilidad (fdp) condicionada fy y y y=y* (Figura 1) y es una información muy importante para evaluar la calidad del modelo con el claro propósito de mejorarlo modificando su estructura, los valores de los parámetros, etc. En contraste con lo anterior, en los casos de predicción lo que interesa es expresar la incertidumbre sobre el valor real que puede ocurrir en un futuro (yt), teniendo como única información disponible la predicción realizada con el modelo (ŷt). Este tipo de incertidumbre es la que se denomina incertidumbre predictiva (IP) y debe considerar explícitamente la fdp de un valor futuro desconocido de la variable de interés, condicionada a las predicciones realizadas con el modelo: fy y y y=y* (Figura 2).

Figura 1. Representación de la incertidumbre de validación

Figura 2. Representación de la incertidumbre predictiva

Congreso Nacional de Ingeniería CNIA2012

22


La metodología Bayesiana Model Conditional Processor (MCP) [4] está inspirada en el pos-procesador Hydrologic Uncertainty Processor (HUP) [5] y en la técnica Bayesian Model Averaging (BMA) [6]; esta última permite combinar predicciones realizadas con varios modelos. El MCP se basa en la idea de generalizar el uso de la transformación Normal Quantile Transform (NQT) para convertir la serie histórica observada y las predicciones de los modelos a un espacio Multi-Normal (ó Meta-gaussiano) para estimar la IP. La combinación de más de un modelo de predicción se realiza en tres fases: en la primera, se procesan las series originales de las observaciones y los modelos y se calcula el valor esperado por separado para cada modelo; en la segunda, se calcula el valor esperado de la combinación de valores esperados de cada uno de los modelos, y en la tercera, se procesa la serie del valor esperado de la combinación como si fuese un único modelo. Resultados Para la aplicación de la metodología propuesta se seleccionó la cuenca Baron Fork en Eldon (afluente del Río Illinois), con un área de drenaje de 795 km2. Esta cuenca está incluida en la segunda fase del proyecto de intercomparación de modelos hidrológicos distribuidos (DMIP2) del National Weather Service (NOAA/NWS). El MCP se ha aplicado por separado a las predicciones obtenidas con 3 modelos hidrológicos: dos modelos distribuidos físicamente basados (TETIS y TOPKAPI) y un modelo de Redes Neuronales Artificiales (ANN). Posteriormente se ha realizado la estimación de la IP para las 3 combinaciones posibles de dos modelos, y por último, la combinación de los 3 modelos. Para el evento de validación analizado (enero de 1998), la combinación de los dos modelos distribuidos parece más robusta, permitiendo reducir la banda de incertidumbre respecto a los dos modelos individuales, lo cual es un resultado esperable. En cuanto a la combinación de los 3 modelos, los resultados muestran un estrechamiento de la banda de incertidumbre que refleja el papel dominante del modelo ANN. Igualmente, se observa una mejora importante en la rama ascendente del hidrograma respecto a este modelo, aunque el valor esperado de la triple combinación infravalora el caudal pico del hidrograma. No obstante, la probabilidad de excedencia estimada en este último caso para el umbral de caudal prefijado (350 m3/s) es la que mejor se ajusta al comportamiento observado. La aplicación del MCP al caso de estudio evidencia que la esta metodología es una herramienta robusta y muy útil para estimar la IP asociada a la predicción de una avenida de magnitud considerable con uno o varios modelos. La metodología del MCP fue concebida como un pos-procesador de incertidumbre, de modo que permite utilizar como herramienta de predicción cualquier tipología de modelos hidrológicos, hidráulicos o basados en los datos que resulten adecuados al problema, beneficiándose de las diferentes potencialidades y características de cada uno de ellos. Referencias [1] Francés, F., J. I. Vélez, and J. J. Vélez “Split-parameter structure for the automatic calibration of distributed hydrological models”, Journal of Hydrology, 332(1-2), 226-240, 2007. [2] Liu, Y., and H. V. Gupta, “Uncertainty in hydrologic modeling: Toward an integrated data assimilation framework”, Water Resources Research, 43(7), 1-18, 2007. [3] Todini, E., “History and perspectives of hydrological catchment modeling”, Hydrology Research, 42(23), 73-85, 2011. [4] Todini, E., “A model conditional processor to assess predictive uncertainty in flood forecasting”, International Journal of River Basin Management, 6(2), 123–137, 2008. [5] Krzysztofowicz, R., “Bayesian theory of probabilistic forecasting via deterministic hydrologic model”, Water Resources Research, 35(9), 2739, 1999. [6] Raftery, A. E., T. Gneiting, F. Balabdaoui, and M. Polakowski, “Using Bayesian Model Averaging to Calibrate Forecast Ensembles”, Monthly Weather Review, 133(5), 1155-1174, 2005.

Congreso Nacional de Ingeniería CNIA2012

23


DETERMINACIÓN DEL CALOR ISOSTERICO Y LA CINETICA DE SORCIÓN PARA EL SALVADO DE ARROZ H.M. Hernández Sarabia1, B. De Meulenaere2 1 Programa de Automatización Industrial, Grupo de Investigación GMAE, Universidad de Ibagué 2 Department of Food Quality and Food Safety, Faculty of Bioscience Engineering, Ghent University, Belgium. Palabras claves: Cinética de sorcion, calor isosterico, salvado de arroz.

Problema La determinación de la cinética de sorción y el calor isosterico para el salvado de arroz (SA) es un cálculo determinante para establecer los requerimientos energéticos y el tiempo necesario para llevar el SA a una condición de equilibrio, pensando en los procesos de estabilización que son fundamentales para evitar la hidrolisis enzimática y el consecuente deterioro por alta acidez y enranciamiento del SA que limita su uso para nutrición humana, donde se tiene por su contenido de aceite y de proteína una fuente para obtener y desarrollar nuevos productos que le den valor agregado a este subproducto de bajo valor comercial y se puedan así, las utilidades en la molinería y en la cadena productiva del arroz. Metodología La determinación del calor isosterico y la cinética de sorción y desorción para el SA, fue realizada, aplicando los modelos GAB, BET, Henderson, Chung Pfost, Halsey y redes neuronales. Los modelos fueron verificados con datos obtenidos de experimentación realizada en el laboratorio de NutriFoodChem de la facultad de Bioingeniería de la Universidad de Gent en Bélgica. La experimentación se llevo a cabo por espacio de 4 meses para la determinación de las curvas de equilibrio por el método gravimétrico para la absorción y desorción del salvado de arroz. Para el cálculo de la cinética de desorcion y adsorción, las muestras fueron incubadas en recipientes plásticos con control de humedad relativa desde 40 hasta el 80% y almacenadas en cámaras con control de temperatura a 30 y 37 grados centígrados, hasta alcanzar el equilibrio final. El contenido de humedad fue determinado por mediciones constantes de peso, durante el tiempo de incubación. Los datos obtenidos en la parte experimental entonces, fueron procesados y los modelos mencionados, se obtuvieron utilizando Matlab/Simulink. Resultados Los resultado para las curvas de absorción y de sorción del SA obtenido por el molido del arroz paddy variedad Fedearroz 60, se presentan en las Figuras 1 y 2 para las temperaturas de 30 y 37 °C respectivamente. En las Figuras podemos observar el valor de la humedad en equilibrio (EMC) por sus siglas en ingles (Equilibrium Moisture Content) expresada en gramos de agua por 100 gramos de materia seca frente a la fracción de actividad de agua para el SA. Las muestras fueron medidas por triplicado y en las graficas se observa que la desviación estándar no fue significativa para el EMC en cada una de las fracciones de actividad de agua. El EMC fue alcanzado al tener por más de tres días en la incubación valores con una variación inferior de peso de 0,1 %. El EMC fue alcanzado primero en tiempo para la sorción a 37 °C, indicando que el intercambio de humedad entre el SA y el ambiente se incrementa al aumentarse la temperatura. Para las figuras se selecciono el modelo GAB (Líneas continuas) que fue el que mejor se ajusto a los valores experimentales (datos punteados). Estos resultados concuerdan con los obtenidos por diversos estudios de investigación desarrollados que se encuentran en las referencias [1], [2], [3] y [4], quienes seleccionaron como el modelo más ajustado el de GAB. El criterio de selección utilizado fue el porcentaje de error medio relativo (Pe) y el grafico de residuos recomendados por [1] y [2] en sus trabajos de investigación. El EMC para 30 °C se alcanza por debajo del 14% que es el valor al que se llega al equilibrio para las isotermas de sorción a 37°C, con los cual se evidencia que especialmente para la de sorción más rápidamente se alcanza el EMC a 37 °C. La histéresis generada por las curvas de adsorción y de sorción son similares para las curvas a las dos temperaturas trabajadas. El calor isosterico fue calculado aplicando la ecuación de Claussius Clapeyron de acuerdo con lo recomendado por [1] y el valor obtenido es de 7,11 k/mol. En Colombia realizada una exhaustiva revisión bibliográfica no se encontraron datos reportados Congreso Nacional de Ingeniería CNIA2012

24


confiablemente para el SA obtenido de la variedad de arroz paddy Fedearroz 60, con lo que no se pudo hacer una comparación a nivel local. 16,0

14,0

EMC (g agua/100 g ms)

12,0

10,0

8,0

Adsorción 6,0

Desorción

4,0

2,0

0,0 0

0,1

0,2

0,3

0,4

0,5

0,6

0,7

0,8

Actividad de Agua

Figura 1. Isotermas de sorción para el salvado de arroz a 30 °C 16,0

EMC (g agua/100 g ms)

14,0 12,0 10,0

Adsorción

8,0 6,0

Desorción 4,0 2,0 0,0 0

0,1

0,2

0,3

0,4

0,5

0,6

0,7

0,8

Actividad de Agua

Figura 2. Isotermas de sorción para el salvado de arroz a 30 °C Referencias [1] B. S. Reddy y A. Chakraverty.Equilibrium Moisture Content of Raw and Parboiled Paddy, Brown Rice and Bran. Drying Technology. Vol. 22, No 4, pp. 837 – 851. 2004. [2] S. Samapundo, F. Devlieghere, B. De Meulenaer, A. Atukwase, Y. Lamboni yJ. Debevere. Sorptionisotherms and isosteric heats of sorption of whole yellow dent corn. Journal of Food Engineering 79 pp. 168 – 175. 2007. [3] Ernesto O. Timmermann. Multilayer sorption parameters: BET or GAB values?.Colloids and Surfaces A: Physicochem. Eng. Aspects 220, pp. 235 – 260. 2003. [4] A. Vega Gálvez, E. Lara Aravena y R. Lemus Mondaca. Isotermas de adsorción en harina de maíz. Ciencia y Tecnología Alimentaria, 26(4), pp. 821-827. 2006.

Congreso Nacional de Ingeniería CNIA2012

25


VULNERABILIDAD DEL TRATAMIENTO CONVENCIONAL DE AGUA PARA CONSUMO HUMANO O.E. Ospina Zúñiga1, H. Ramírez Arcila2 1-2 Departamento de Ingeniería Civil, Grupo Investigación AQUA, Universidad Cooperativa de Colombia, Ibagué Palabras claves: Vulnerabilidad, contaminantes, tratamiento

Problema Las diversas y altas concentraciones de contaminantes incorporados a cuerpos de agua, ponen de manifiesto la vulnerabilidad de las plantas de tratamiento convencional de agua para consumo humano, con consecuencias en la salud pública. Colombia como reflejo de muchas regiones latinoamericanas, es víctima de una irresponsable actitud estatal y de particulares, que por ausencia de controles de calidad, legislación y tratamiento indiscriminado de cultivos con plaguicidas y agroquímicos están ocasionando un severo efecto ambiental en el agua, perjudicando sus componentes y tornándose mortal para la salud humana. Los sistemas de tratamiento convencionales son ineficientes para retener algunos de estos contaminantes. El principal detonante de las altas tasas de morbilidad y mortalidad que se presenta en la población, se ha convertido en uno de los problemas ambientales más graves del siglo XXI debido a la agresiva intervención antrópica de las Cuencas Hidrográficas, como fábricas de los cuerpos de agua abastecedores de sistemas de acueducto, con proliferación de todo tipo de contaminantes y especialmente químicos industriales. La riqueza hídrica que históricamente ha poseído Colombia, está en alto riesgo dada la mala práctica que la población le está dando a este preciado recurso, con la falacia que es inagotable e invulnerable. Metodología El trabajo se realizó mediante métodos evaluativos. La investigación se refiere a la evaluación de la vulnerabilidad de los sistemas convencionales de tratamiento de agua superficial, a partir de los potenciales contaminantes establecidos en la normativa vigente en Colombia [1]. El sistema de tratamiento convencional utilizado frecuentemente en Colombia, corresponde al conjunto de los siguientes procesos: Mezcla rápida, floculación – coagulación (clarificación), sedimentación, filtración y desinfección [2]. Todos ellos con la capacidad de remover contaminantes físicos, químicos, organolépticos y bacteriológicos, siempre y cuando la fuente de abastecimiento no contenga altos índices de contaminación (concentración, diversidad). La retención de partículas solubles y disueltas en el agua se remueve de mayor a menor tamaño, siendo la filtración la fase final de este proceso. Pero en el agua existen algunas partículas o elementos que por su tamaño no pueden ser cribadas en el proceso de tratamiento y se incorporan al agua tratada, siendo consumida por la población. También algunos micro-organismos son capaces de superar el proceso de filtración dado su tamaño. El proceso de clarificación del agua para consumo humano, definido como la separación de los sólidos del agua por acción de la gravedad, se obtiene a partir de la coagulación, floculación y separación de partículas (sedimentación y filtración) como se indica en la figura 1; siendo: Coagulación, la aglutinación de las partículas suspendidas y coloidales presentes en el agua mediante la adición de coagulantes; floculación, la aglutinación de partículas inducida por la agitación lenta de la suspensión coagulada [3]. El proceso de tratamiento convencional típico utilizado en Colombia y especialmente en la totalidad de municipios del departamento del Tolima, se describe en la Figura 1.

Congreso Nacional de Ingeniería CNIA2012

26


Figura 1. Esquema del proceso de tratamiento convencional Fuente: OSPINA, 2011

La norma Colombiana establece 40 indicadores de contaminación distribuidos en cinco (5) grupos: Microbiológicos, físicos, químicos con efecto directo, plaguicidas y químicos con efecto indirecto. Varios de ellos requieren para su remoción de procesos tecnológicos no incluidos en el sistema de tratamiento convencional, lo cual pone de manifiesto la vulnerabilidad del mismo en el evento de estar presente en la fuente de abastecimiento. Algunos contaminantes se remueven utilizando procesos de intercambio iónico, ósmosis inversa, carbón activado y aplicación de ozono, entre otros; tecnologías estas que no hacen parte del proceso convencional y no están disponibles para comunidades urbanas y rurales en Colombia, dado sus altos costos de operación y mantenimiento. Si la fuente de abastecimiento posee este tipo de contaminantes, es probable su consumo por parte de la población con su consecuente acción destructiva en la salud. Las plantas de tratamiento convencionales realizan la retención física de partículas de mayor a menor tamaño: En el desarenador se retienen hasta tamaños mínimos de 100 micras y en la filtración hasta de 5 micras.

Figura 2-A. Tamaño de partículas presentes en el agua y retenidas en el tratamiento físico convencional Fuente: OSPINA, 2011

Congreso Nacional de Ingeniería CNIA2012

27


Figura 2-B. Tamaño de partículas presentes en el agua y retenidas en el tratamiento físico convencional Fuente: OSPINA, 2011

Todo lo anterior cuando se trata de unidades operando en condiciones de buen funcionamiento y con los caudales y tiempos de retención de diseño. Para el caso de la filtración, en Colombia es frecuente utilizar multicapas con materiales como grava, arena y antracita [4]. El tamaño de varias partículas y micro-organismos son inferiores a 1 micra, por lo tanto la planta de tratamiento es vulnerable al respecto. El proceso de remoción de micro organismos del agua, es de gran complejidad y requiere especial atención cuando la fuente de abastecimiento posee altas concentraciones y algunos ooquistes inmunes a desinfectantes como el cloro (en dosis no letales para el ser humano). Resultados La investigación desarrollada pone de manifiesto la vulnerabilidad de las plantas de tratamiento convencionales de agua para consumo humano, cuando las condiciones físicas, químicas y bacteriológicas de la fuente de abastecimiento son deficientes. Si se analiza cada uno de los potenciales contaminantes que se presentan en aguas superficiales y el proceso eficaz de remoción, se puede determinar cuáles son retenidos en el sistema convencional y cuáles lo superan. Varios de los químicos con efecto directo en la salud humana provienen de actividades antrópicas (agricultura y ganadería), los cuales no son retenidos, por tratamientos convencionales. El tamaño de partículas disueltas y en suspensión pueden pasar el sistema de filtración, dejando en el agua para consumo humano presencia de algunas bacterias y virus que afectan la salud humana. En varias investigaciones se ha comprobado que los ooquistes de Cryptosporidium y Giardia son protozoos parásitos que sobreviven al tratamiento convencional del agua, como es el caso de la investigación realizada en el año 2010 a varios municipios de Galicia – España, donde se detectó la presencia de estos parásitos luego del proceso de tratamiento del agua [5]. El indicador de coliformes fecales es la escherichia coli [1], con la cual se evalúa la presencia o no de este tipo de contaminante (tamaño de hasta 3 micras). Sin embargo existen otras bacterias de menor tamaño que pasan sin dificultad la filtración, como es el caso del streptococcus y haemophilus influenza; lo cual implica un adecuado proceso de desinfección en el tratamiento. Referencias [1] Resolución 1096 (2000). Reglamento Técnico del Sector de Agua Potable y Saneamiento Básico R.A.S. 2000. Ministerio de Desarrollo Económico de la República de Colombia. [2] CEPIS - Centro Panamericano de Ingeniería Sanitaria y Ciencias del Ambiente) (1981). Teoría, diseño y control de los procesos de clarificación del agua – Serie Técnica 13. [3] O. Ospina. Sedimentación de agua con coagulantes naturales. Maestría en Gestión y Auditorías Ambientales. Universidad Internacional Iberomaericana de Puerto Rico, 2011. [4] H.E., Hilleboe. Manual de tratamiento de aguas. New York: Departamento de Sanidad del Estado de Nueva York, Albany.1998 Congreso Nacional de Ingeniería CNIA2012

28


MODELO MATEMÁTICO PARA LA SIMULACIÓN DE LA PRODUCCIÓN DE METANO EN UN REACTOR BATCH H.M. Hernández Sarabia1, M. Machado Higuera2 1 Facultad de Ingeniería/GMAE, Universidad de Ibagué, Ibagué. 2 Facultad de Ciencias Naturales y Matemáticas/NATURATU, Universidad de Ibagué, Ibagué. Palabras claves: Digestión anaerobia, Biogás, Bioproceso

Problema Obtener un modelo matemático que represente las reacciones químicas del proceso biológico (dinámico) de digestión anaerobia, para la producción de biogás en un reactor batch (no continuo). Luego simular el modelo utilizando Matlab/Simulink® y posteriormente validarlo con datos experimentales. Metodología La Formulación del modelo matemático que represente el proceso de digestión anaerobia, se realizo estudiando los procesos biológicos, químicos y físicos que tienen relación en un ecosistema donde coexisten diferentes tipos de microrganismos que catalizan las reacciones que tiene lugar en un bioreactor tipo batch. Se determinó la cinética de las reacciones en un sistema dinámico como este y se hizo una estimación de los parámetros del modelo tomando los resultados del comportamiento de las variables de pH, Temperatura, Acidez, Alcalinidad, remoción de materia orgánica y producción de Biogás que tienen lugar en un bioreactor. Para la solución del sistema se determinaron las constantes cinéticas del proceso para cada paso y se resolvieron las ecuaciones diferenciales que describen el sistema no lineal. Las ecuaciones diferenciales fueron implementadas en Matab/Simulink®, donde se realizaron simulaciones para analizar el comportamiento de las diferentes variables que interviene en el proceso, revisar su dinámica y ajustar parámetros iníciales. Luego para comprobar la validez del modelo se corrieron simulaciones con datos obtenidos de referencias bibliográficas confiables y se compararon resultados del modelo planteado contra los datos de validación. Resultados Se obtuvo un modelo matemático que representa satisfactoriamente la producción de Metano en un reactor tipo batch para diferentes tipos de sustratos. El modelo fue validado con datos obtenidos se demostró que es confiable para representar la dinámica de las variables como pH, producción de biogás, concentración de sustrato, concentración de biomasa en el proceso de digestión anaerobia en un reactor batch. Para la obtención del modelo el proceso fue dividido en tres partes, donde se representa mediantes ecuaciones químicas acopladas los procesos de desintegración, hidrolisis, acidogenesis, acetogenesis y metanización que se llevan a cabo dentro de la digestión anaerobia. Con el modelo obtenido se tiene una valiosa herramienta para profundizar en el conocimiento del proceso y para el diseño de estrategias de control automático que permitan tener una producción de Biogás estable y optimizar la producción a partir de la fracción orgánica de desechos orgánicos, contribuyendo de esta forma con una solución tangible al problema ambiental con el manejo de residuos sólidos y al calentamiento global con una producción de biogás estable que puede ser aprovechado por su contenido de Metano del 60% como un biocombustible renovable que ayude con la disminución de la concentración de gases efecto invernadero y el reemplazo de combustibles fósiles. Referencias [1] Bastone, D.J, Keller, J., Angelidaki, I., kalyuzhnyi, S.V, Pavlostatathis,S. G., Rozzi A., Sanders, W. T. M., Siegrist, H., Vavilin, V. A.(2002). Anaerobic Digestion Model No 1, scientifically and technical report No 13. IWA Publishing. [2] Batstone, D. J., Keller, J. & Steyer, J. P. (2005). A review of ADM1 extensions, applications, and analysis 2002 - 2005, Workshop. [3] García-Ochoa, F., Santos, V.E., Naval, L., Guardiola E. and López B., (1999). Kinetic model for anaerobic digestion of livestock manure. Elsevier Science Inc., Enzyme and Microbial Technology 25, 55-60. Congreso Nacional de Ingeniería CNIA2012

29


TENDENCIAS ACTUALES EN LA ELECTRÓNICA DE POTENCIA DE LOS SISTEMAS FOTOVOLTAICOS O. Lopez-Santos1, L. Martinez-Salamero2, G. Garcia3 1 D+TEC, Universidad de Ibagué, Ibagué, Colombia 2 GAEI, Universidad de Rovira i Virgili, Tarragona, España 3 MAC, Laboratoire d‟Analyse et d‟Architecture des Systèmes - LAAS, Toulouse, Francia Palabras claves: Sistemas fotovoltaicos, electrónica de potencia, generación distribuida. Problema Existe una clara tendencia mundial hacia el aprovechamiento de energías renovables que permitan reducir la producción de energía eléctrica a partir de hidrocarburos o energía nuclear. En los años recientes, debido a los acontecimientos que evidencian los riesgos introducidos por el uso de la generación nuclear, el interés por el uso de energías renovables se ha acelerado en todo el mundo, principalmente en Europa por la cantidad de centrales nucleares instaladas. Por lo tanto, diversos esfuerzos de investigación se enfocan en conseguir que los generadores fotovoltaicos y otras energías alternativas puedan usarse de forma distribuida [1,2]. Los generadores fotovoltaicos, han evolucionado históricamente desde las arquitecturas con un inversor centralizado para arreglos de múltiples paneles solares hacia las arquitecturas con un micro-inversor para cada panel solar. Esto se debe principalmente a que la conexión de paneles solares en arreglos serie, deteriora el rendimiento general del sistema debido a la no homogeneidad de los módulos o de las condiciones de operación. Las topologías usadas actualmente introducen una etapa de conversión DC-DC que permite extraer del panel solar la totalidad de la energía captada usando un algoritmo de seguimiento para el máximo punto de potencia MPPT (del inglés: MaximumPower Point Tracking), mejorando el rendimiento [3]. Entre las topologías actuales de los sistemas fotovoltaicos se destacan las arquitecturas con arreglos en cadena (del inglés: Multi-string), en donde los paneles fotovoltaicosson conectados cada uno a un convertidor DC-DC que posee MPPT, para posteriormente conectar los convertidores en serie y obtener un nivel de tensión apto para una etapa reductora DC-AC [4]. Otra arquitectura que ha despertado el interés de la comunidad científica e industrial, convierte la energía suministrada por un panel solar directamente a la forma de la red eléctrica permitiendo la conexión directa y en consecuencia la unificación del sistema en un único módulo AC [4]. Los módulos AC más comúnmente utilizados y de los que se ha discutido una inherente ventaja respecto a los demás utilizan una topología con dos etapas, una etapa DC-DC con MPPT y otra DC-AC [5]. Así, surge la pregunta: ¿Qué convertidores electrónicos pueden ser utilizados para desarrollar un módulo AC de dos etapas garantizando estabilidad, confiabilidad y valores aceptables de tamaño, peso y costo? Metodología Se han planteado tres mecanismos de obtención de información: indagación, simulación y experimentación. La indagación se realiza especialmente en publicaciones de IEEE e IET, hojas técnicas y manuales de fabricantes, con énfasis en los inversores fotovoltaicos conectados a la red eléctrica. La simulación es desarrollada usando PSIM y MATLAB, con el fin de explorar las topologías y realizar la verificación de los resultados que se deriven de análisis teóricos. La experimentación será enfocada en la construcción de un prototipo completo de modulo AC. Para la consecución de los objetivos propuestos, se definen los siguientes pasos:     

Estudiar diferentes configuraciones de módulos AC de dos etapas. Analizar el comportamiento estático de las etapas. Estudiar el funcionamiento de la estructura durante el arranque. Determinar las topologías más apropiadas para cada etapa. Diseñar leyes de control requeridas.

Todas las etapas validadas a través de simulaciones y experimentación. Avances Hasta el momento, la investigación ha permitido comparar al convertidor elevador, el convertidor elevador cuadrático y el convertidor elevador cúbico con el fin de satisfacer las condiciones de la etapa DC-DC sin usar un transformador de alta frecuencia. El estudio se ha centrado en el análisis de rendimiento de los convertidores, teniendo en cuenta tanto las pérdidas por conducción como las perdidas por conmutación. Estos resultados Congreso Nacional de Ingeniería CNIA2012

30


preliminares nos permiten concluir que el convertidor elevador cuadrático es una estructura competitiva para ser aplicada en el desarrollo del modulo AC de dos etapas propuesto. Además, se han realizado simulaciones del convertidor completo (Etapas DC-DC y DC-AC) conectado a la red eléctrica inyectando potencia real con resultados favorables. La Figura 1 presenta el modelo de simulación usado y la Figura 2, las señales correspondientes a la salida de cada una de las etapas del convertidor.

Figura 1. Modelo de simulación PSIM de modulo AC de dos etapas

Figura 2.Resultados de simulación:a) tensión de entrada, b) tensión de salida de la etapa DC-DC, c) corriente inyectada a la red, y d) tensión de la red. Referencias F. Blaabjerg, C. Zhe, S.B. Kjaer, "Power electronics as efficient interface in dispersed power generation systems," IEEE Transactions on Power Electronics,vol. 19, no. 5, pp. 1184-1194, Septiembre, 2004. Y.Xue; L. Chang; S.B.Kjaer; J. Bordonau,T. Shimizu, "Topologies of single-phase inverters for small distributed power generators: an overview", IEEE Transactions on Power Electronics, vol.19, no. 5, pp. 13051314, Septiembre, 2004. K.K.Tse, B.M.T. Ho, H.S.-H. Chung, S.Y.R.Hui, "A comparative study of maximum-power-point trackers for photovoltaic panels using switching-frequency modulation scheme," IEEE Transactions on Industrial Electronics, vol.51, no.2, pp. 410-418, Abril, 2004. J.M.A. Myrzik, M. Calais, "String and module integrated inverters for single-phase grid connected photovoltaic systems - a review", 2003 IEEE Bologna Power Tech Conference Proceedings, vol. 2, pp. 23-26, Junio, 2003. S.B. Kjaer, J.K. Pedersen, F. Blaabjerg, "A review of single-phase grid-connected inverters for photovoltaic modules", IEEE Transactions on Industry Applications,vol.41, no.5, pp. 1292-1306, Septiembre, 2005. Congreso Nacional de Ingeniería CNIA2012

31


VARIABLES DETERMINANTES DE LA MADUREZ COMERCIAL EN MORA DE CASTILLA L.C. Ayala S1., C.P. Valenzuela R2., Y. Bohórquez P3. 1-2-3 Grupo de Investigación CEDAGRITOL, Universidad del Tolima, Ibagué Palabras claves: Grado de madurez, pérdidas, comercialización. Problema La mora de castilla (Rubus glaucus Benth.), fruto cultivado en zonas de clima frio moderado del departamento del Tolima, en relación a su tendencia de producción, presenta un alto potencial para consumo en fresco e industrial. Sus características fisicoquímicas, morfológicas y fisiológicas hacen de éste uno de los frutos más lábiles de la cadena hortofrutícola, si se tiene en cuenta su alta perecibilidad, reducida vida en anaquel (3 – 5 días) bajo condiciones especiales de almacenamiento (90 - 95%HR y 0 – 1°C), susceptibilidad fitosanitaria al ataque de Botrytis cinerea, fermentación y daños mecánicos, que en general redundan en pérdidas que a nivel nacional pueden ascender a 70% en etapas de cosecha y postcosecha cuando su manejo no es adecuado [1]. Adicionalmente factores como su condición de respiración no climatérica, desarrollo y maduración no homogéneos dificultan las labores de cosecha, selección, empaque, transporte, conservación y comercialización, actividades que en la actualidad son realizadas de manera subjetiva, generando un producto con reducida calidad por avanzado estado de madurez, heterogeneidad en forma, tamaño y color, que afectan volúmenes ofertados, precios y aceptación en el mercado. En particular para este estudio se evaluó mora de Castilla proveniente del Cañón del Combeima – Municipio de Ibagué, donde más de 200 agricultores garantizan en promedio 14 toneladas/semana al mercado local y en su mayoría dependen de esta actividad económica por su posibilidad de generar buenos ingresos y empleos permanentes. Se espera que la difusión de resultados correspondientes a la estimación del estado de madurez óptimo de cosecha del producto que garantice un adecuado desarrollo físico, apariencia, acumulación de compuestos fitoquímicos, balance dulce/acido, resistencia y conservación en postcosecha sea en corto plazo de gran utilidad para productores, comercializadores y consumidores de la región. Metodología Material Vegetal: Los frutos de mora cultivados entre 1800-2300 msnm en la Vereda el Retiro del Cañón del Combeima, fueron recolectados en tres estados de madurez, según clasificación por color establecida en la NTC 4106 [2] con algunas modificaciones propuestas para esta investigación (tabla 1), posteriormente se dispusieron en contenedores de Ptereftalato de Polietileno (PET), y transportaron bajo cadena de frio a los laboratorios de postcosecha de la Universidad del Tolima y Salud Pública de la Secretaria de Salud Departamental para su correspondiente evaluación física, química y fisiológica . Tabla 1. Clasificación de frutos de Mora por grado de madurez, adaptada de NTC 4106 [2]. Grado de Madurez Grado 4

Características Fruto de color rojo con ¼ de área rojo intenso y/o morado

Grado 5

Fruto con mitad de área roja y mitad morada

Grado 6

Fruto morado oscuro

Parámetros Físicos: Se realizó la medición de longitud, diámetro mayor y menor empleando 75 frutos por muestra, haciendo uso de un calibrador HOPEX; y se registró el peso unitario en fresco por medio de una balanza de precisión electrónica HR-200 A&D con capacidad de 210 g ± 0,0001 g. Parámetros Químicos: Se cuantificó el contenido de sólidos solubles totales (SST) con refractómetro ATAGO escala de 0 a 32 °Brix; y la Acidez titulable (AT) se determinó con titulación potenciométrica haciendo uso de un potenciómetro CG 820 Schott a temperatura de referencia de 20°C, sus resultados se reportaron en porcentaje de ácido málico. Las metodologías de referencia corresponden a las normas ICONTEC para productos de frutas Congreso Nacional de Ingeniería CNIA2012

32


y hortalizas. A partir de la relación entre el valor mínimo de SST y el valor máximo de AT [3] se determinó el índice de madurez. Parámetros Fisiológicos: Índice de transpiración e intensidad respiratoria fueron evaluados, para tal fin se dispuso de 250 g de fruta por muestra, en empaques rígidos con tapa plana tipo tarrina de Ptereftalato de Polietileno (PET) 16 Oz., con 10% del área perforada y almacenados durante 6 días en refrigeración bajo condiciones de temperatura y humedad relativa de 2 ± 1°C y 65 – 85% respectivamente. La transpiración de los frutos se determinó mediante la cuantificación de la pérdida diaria de peso, su resultado se reportó en porcentaje p/p; entre tanto la taza de respiración se cuantificó diariamente utilizando un determinador de gases CheckMate3 PBI-Dansensor, expresando su resultado en mgCO2/Kg·h. Análisis Estadístico: Los resultados obtenidos por triplicado, fueron tabulados y evaluados a través de análisis de varianza simple y multifactorial (ANOVA - MANOVA), se empleo diferencias mínimas significativas (LSD) de Fisher como método de comparación múltiple, con un nivel de confianza del 95,0%. Dichos análisis se realizaron con el paquete estadístico Statgraphics Centurion Versión XV.II. (Statpoint Technologies Inc., Warrenton, VA, E.U.). Resultados Como variable de crecimiento de los frutos se tiene definido el tamaño (largo y ancho), sin embargo este proyecto incluyo el peso, diámetro mayor y menor en la estimación de desarrollo de los mismos. Los frutos de mora presentaron rangos de 18,15 a 38,1 mm; 14,0 a 28,55 mm y 8,3 a 19.95 mm en longitud, diámetro mayor y menor respectivamente. Como se observa en la tabla 2, la fruta en grado de madurez cinco (GM 5) presentó un promedio de longitud levemente superior a los frutos en GM 6, fenómeno atribuible a factores de recolección, clasificación de muestras de acuerdo al interés del estudio (grado de madurez) e irregularidad de crecimiento y maduración del producto en campo generado posiblemente por deficiencias en nutrición e irrigación de las plantas. No obstante, el análisis de varianza por diferencia mínima significativa (LSD) de Fisher estableció que no existen diferencias estadísticamente significativas entre medias de la longitud para los tres grados de madurez analizados (Tabla 2). Al relacionar este parámetro con las medidas de diámetro mayor y menor se observó que los frutos son más largos que anchos terminando en punta hacia el ápice. Las medias de diámetro mayor y menor presentaron diferencias estadísticas entre estados, particularmente el diámetro menor permite inferir que a partir del GM 4 se define la forma cónica característica de la fruta. Cabe resaltar que dichas medidas en promedio clasifican a la mora producida en el Cañón del Combeima en calibres B, C y D [2], aspecto a considerar para el diseño de nuevas alternativas de empaque y mejoramiento de calidad. Tabla 2. Parámetros fisicoquímicos de mora de Castilla producida en el Cañón del Combeima-Ibagué. Parámetro Grado de Madurez

Peso* (g)

Longitud* (mm)

Diámetro mayor* (mm)

Diámetro menor* (mm)

Acidez T.** (%Acido Málico)

SST** (°Bx)

Índice de Madurez** (°Bx/%AT)

GM 4

6,85±1,16a

27,29±2,87a

18,81±1,63a

12,71±1,76a

3,23±0,05a

6,93±0,12a

2,15±0,03a

GM 5

7,58±1,48b

28,09±3,49a

19,32±1,68a

12,09±1,24b

2,83±0,03b

7,93±0,12b

2,80±0,07b

GM 6

7,77±1,98b

27,05±3,68a

20,22±2,31b

12,10±1,69b

2,25±0,15c

8,00±0,00b

3,57±0,25c

* Valores promedio n=75±DE. Letras en el superíndice de cada columna indican diferencias significativas (p<0.05). ** Valores promedio n=3±DE. Letras en el superíndice de cada columna indican diferencias significativas (p<0.05).

El peso presentó un comportamiento ascendente, con incremento de 10% del GM 4 al GM 5 y 2% del GM 5 a GM 6, en este caso particular, el fruto en el estado de madurez GM 6 no experimento cambios estructurales en la protopectina que genera ablandamiento de los tejidos y liberación de agua y otros compuestos al medio, lo que en condiciones normales de cosecha y postcosecha en la zona (factores ambientales, empaques, almacenamiento Congreso Nacional de Ingeniería CNIA2012

33


en campo y transporte) generan una reducción en el peso del fruto cercana al 17% por lixiviados. El ANOVA evidenció que no existen diferencias estadísticamente significativas en los valores promedio de peso entre los estados de madurez GM 5 y GM 6. Respecto del contenido de SST se observo un aumento promedio de 6% SST entre grados de madurez, dichos valores se ubican dentro de los límites establecidos en la normatividad [2], además son superiores a 6,5°Brix, lo que indica que cumple con los requerimientos mínimos de sólidos solubles totales para mercado en fresco e agroindustrialización en cualquiera de los estados de madurez evaluados. La valoración estadística de este atributo indica que no existen diferencias significativas entre GM 5 y GM 6, condición que permite evidenciar la posibilidad de recolección en grado de madurez 5 para frutos con destino a mercado en fresco y procesado. La correlación positiva entre el estado de madurez y el aumento de SST, se atribuye a la conversión de ácidos orgánicos en azúcares o la reserva de carbohidratos de la planta por baja capacidad fotosintética del fruto [3]. Así mismo, se encontró una tendencia descendente para %AT con el avance de la madurez, comportamiento que diversos autores relacionan a la actividad de las deshidrogenasas y empleo de ácidos orgánicos como sustratos de la respiración para síntesis de nuevos componentes. La relación °Bx / Acidez titulable o índice de madurez (IM), además de ser un indicativo del estado de desarrollo de los frutos, constituye una aproximación a la calidad organoléptica de los mismos. En este sentido la tendencia ascendente, con máximo incremento (22%) entre los estados 5 y 6, coincide con lo obtenido por Galvis (1995) y diversos autores, para mora producida en otras regiones del país y pone de manifiesto la competitividad del producto local para el mercado nacional. El ANOVA indica que las medias son estadísticamente diferentes (p<0,05) entre grados de madurez, tanto para %AT como para IM.

Figura 1. Intensidad respiratoria de frutos de mora de Castilla (Rubus glaucus Benth.) en tres estados de madurez durante almacenamiento refrigerado (2°C±1°C).

Los frutos en los 3 estados de madurez presentaron un descenso en la actividad respiratoria, obteniendo valores entre 101,4 y 8.4 mgCO2/Kg·h, teniendo influencia directa la edad del tejido. El menor grado de madurez presentó la más alta tasa respiratoria, indicando que la recolección en GM 4 generará mayores cambios de calidad de la fruta y envejecimiento durante el almacenamiento y/o comercialización. Los resultados obtenidos para esta variable concuerdan con los reportados por Sora (2006) en mora proveniente de SilvaniaCundinamarca, refrigerada y empacada en atmósferas modificadas activas (170 y 5 mgCO 2/Kg·h) [4], lo que de nuevo pone de manifiesto la competitividad de la fruta del Cañón del Combeima en relación a su actividad metabólica ligeramente inferior a la presentada por un producto sometido a tratamientos más costosos. De igual manera, el comportamiento respiratorio ratifica a la mora como un fruto no climatérico, que ve afectado la síntesis de azucares y otros compuestos si es recolectado de forma prematura, aún cuando puede presentar cambios de coloración por síntesis de pigmentos. El análisis multifactorial indico que tanto el grado de madurez como el tiempo de almacenamiento tienen un efecto estadísticamente significativo sobre la respiración de los frutos con un nivel de confianza del 95,0%, además, la prueba múltiple de rangos discriminó los promedios entre grados de madurez. En general la intensidad respiratoria e índice de transpiración se ven afectados por condiciones de almacenamiento, principalmente por temperatura, humedad relativa, edad del fruto y variedad. Diversos autores Congreso Nacional de Ingeniería CNIA2012

34


resaltan el hecho de que a menores temperaturas los procesos metabólicos que inciden en el envejecimiento de los tejidos se ralentizan, es así como particularmente en la mora se obtiene una reducción significativa de la actividad respiratoria almacenada en condiciones de refrigeración. En conjunto las muestras indicaron un aumento progresivo de pérdida de peso por transpiración, sin diferencias estadísticamente significativas demostradas por la prueba múltiple de rangos (95,0% LSD Fisher). Los frutos experimentaron una reducción promedio de peso del 9.6% al sexto día de almacenamiento refrigerado, valor superior a frutos de mora empacados en atmósfera modificada activa y almacenada en sistemas convencionales de refrigeración (4°C 9095%HR) [4]. 10,00

% PP

8,00

GM4 GM5

6,00

GM6 4,00

2,00

0,00 0

1

2

3 4 Tiempo de almacenamiento (Días)

5

6

Figura 2. Pérdida de peso en frutos de mora de Castilla (Rubus glaucus Benth.) almacenados en refrigeración (2°C±1°C). Esta caracterización de frutos de mora en sus estados finales de madurez permitió establecer contrastes en calidad del producto, registrándose las mayores diferencias en parámetros morfométricos y químicos. Los valores obtenidos indicaron que la comercialización de la mora debe realizarse en GM 5 teniendo en cuenta que en dicho estado de madurez se alcanza la adecuada acumulación de ácidos, sólidos solubles, desarrollo y forma característica del fruto, sin diferencias significativas en peso respecto de la madurez comercial actual (GM 6). La cosecha en GM 4 se hace inviable, atendiendo especialmente a las diferencias en peso y alta tasa respiratoria, lo que conllevaría a la reducción en precios de venta y aceleración de procesos degradativos del producto. La recolección en GM 6 es descartable pese a las buenas características fisicoquímicas y fisiológicas presentadas, puesto que en dicho estado la resistencia a la compresión disminuye considerablemente, dificultando labores de empaque, transporte y comercialización por generación de daños mecánicos, lixiviación y fermentación. Finalmente, la cuantificación de atributos específicos de calidad de un fruto representativo del departamento como lo es la mora, permite ratificar su competitividad, así como suministrar a la comunidad en general, valiosos resultados para futuras negociaciones que se proyecten realizar a nivel local, nacional e internacional. Referencias [1] J.A. Galvis y A. Herrera, La mora: manejo postcosecha. ed. Medellín (Colombia): Universidad Nacional de Colombia-Sena, 1995. [2] Instituto Colombiano de Normas Técnicas y Certificación. Frutas Frescas. Mora de Castilla. Especificaciones (NTC 4106). ed. Bogotá (Colombia): ICONTEC, 1997. [3] C.R. Gómez, En: Caracterización de los productos hortofrutícolas Colombianos y establecimiento de las normas técnicas de calidad. Mora de Castilla (Rubus glaucus Benth.). ed. Bogotá (Colombia): CenicaféFederación Nacional de cafeteros de Colombia–Sena, 2004. [4] A.D. Sora, G. Fischer y R. Flórez, “Almacenamiento refrigerado de frutos de mora de Castilla (Rubus glaucus Benth.) en empaques con atmósfera modificada”. Agronomía Colombiana, vol. 24, no. 2, pp. 306-316, Diciembre, 2006.

Congreso Nacional de Ingeniería CNIA2012

35


CARACTERIZACION NUTRACEUTICA DEL SALVADO DE ARROZ DE DIFERENTES VARIEDADES SEMBRADAS EN EL DEPARTAMENTO DEL TOLIMA H.M. Hernández Sarabia1, M. Rojas2, B. De Meulenaere3 1 Programa de Automatización Industrial, Grupo de Investigación GMAE, Universidad de Ibagué 2 Department of Food Quality and Food Safety, Faculty of Bioscience Engineering, Ghent University, Belgium. Palabras claves: Aceite de salvado de arroz, proteína, antioxidantes Problema El arroz es el principal cereal consumido en Colombia, El departamento del Tolima es el primer productor y en su proceso de industrialización y producción se generan diferentes subproductos como el Salvado de arroz (SA) el cual no tiene un alto valor comercial y su principal uso es para alimento concentrado de animales. El contenido de Oryzanol, de vitamina E y la relación entre ácidos grasos saturados e insaturados hacen del aceite del SA un saludable aceite para consumo humano. La presencia de todos los aminoácidos esenciales, su alta digestibilidad y baja alergenicidad hacen de la proteína del SA un excelente suplemento proteico para ser aprovechado en la industria alimenticia. En este trabajo se presenta los análisis nutraceuticos del SA para las variedades Fedearroz 50, Fedearroz 60, Coprocem 304 y Mocari, en cuanto al contenido de oryzanol, tocotrienoles, tocoferoles, fracciones proteicas, aminoácidos, perfil de ácidos grasos, para realzar los potenciales usos en la industria alimenticia del SA y generar expectativa sobre este subproducto para un mejor aprovechamiento. Metodología Los análisis nutraceuticos se realizaron para las 4 variedades en el laboratorio de NutriFood Chem de la Universidad de Gent, Bélgica. Las muestras de SA fresco fueron tomadas en molinos de la región del Tolima, estabilizadas en horno microondas por 3 minutos a 750 MHz, para evitar la degradación enzimáticas y después fueron transportadas en el menor tiempo posible vía aérea hasta el laboratorio de la Universidad de Gante en Bélgica, donde fueron almacenadas a -30 °C hasta el momento de los respectivos análisis. Se tomaron muestras de las 4 variedades y 8 diferentes baches de producción para determinar la variación que se puede tener por condiciones climatológicas de los cultivos, calidad de semillas, preparación de terrenos, fertilización y manejo de cultivo. Se realizaron análisis bromatológicos de contenido de aceite, proteína, fibra dietaría, carbohidratos, humedad y cenizas de acuerdo con el método AOAC1990 [1]. La extracción para las determinaciones del contenido de Oryzanol, tocoferoles, tocotrienoles y perfil lipídico se realizo la extracción del aceite utilizando Éter de petróleo como solvente en una relación 1:8 entre el SA y el solvente. Las muestras se centrifugación a 20 °C por espacio de 15 minutos a 9000 rpm. El sobrenadante fue recogido y el residuo extraído dos veces más. El solvente con el aceite recolectado fue separado usando un rotovapor con temperatura de 40°C y luego el aceite recogido fue secado con Nitrógeno. El contenido de Oryzanol fue determinado a una longitud de onda de 314 nm utilizando un espectrofotómetro Varian Cary 50, en una alícuota de 0,05 gramos de aceite en 25 ml de Iso-Octano, de acuerdo con el método propuesto por Seetharamaiah and Prabhakar [2]. Se utilizo para la curva de calibración ɣ-Oryzanol puro adquirido en Tokyo Industrial Chemicol Corporation. Los análisis de Tocoferoles y Trocotienoles fueron realizados por cromatografía liquida usando un equipo Agilen 1100 ® con automuestreador con columna de separación de Silica de 5 µm LichroCART con un detector de fluorescencia y usando una fase móvil compuesta de 0,9% de Isopropanol, con 1% de agua en Hexano en un gradiente de flujo de 1 ml/min en un tiempo de eludación de 22 minutos. Para la curva de calibración se utilizo una mezcla estándar de Tocoferoles de 7,64%, 1,07%, 57,11%, y 24,52% de α, β, ɤ and δ Tocoferol respectivamente y una mezcla estándar de tocotrienoles obtenido de aceite de palma purificado. Para la determinación del contenido de aminoácidos las muestras se trataron en hidrolisis acida y básica para el Triptófano. Estándar interno fue utilizado para la calibración y fueron derivaizadas utilizando OPA y FMOC en el mismo equipo de HPLC Agilent pero con columna de separación Zorbax Eclipse AAA de rápida resolución de 4,6x150 mm. La fase móvil compuesta por dos solventes el primero con una composición de 45% de Metanol, 45% de Acetonitrilo y 10% de agua y el segundo solvente con solución buffer 45 mM de NaH2PO4.H2O con 0,02 % de Congreso Nacional de Ingeniería CNIA2012

36


NaN3 a pH de 7,8. La rata de flujo fue de 2 ml/min y el tiempo de eludación de 25 minutos. El perfil lipídico se realizaron por la descomposición de metil esteres de ácidos grasos de acuerdo con el método AOCS [3]. Fue utilizado para los análisis un cromatografo de gases Agilent 6890N, con una columna capilar de 58.5mmx250 µm y diámetro interno de 0.2 µm nominal. El gradiente de temperatura del horno fue de: 50ºC (4min), 50-120ºC (10ºC/min), 120-225ºC (6ºC/min); y el gas de transporte fue He con una rata de flujo de 1ml/min. Todos los análisis fueron realizados por triplicado y analizados estadísticamente utilizando S-Plus 8.0 Para Windows®, ANOVA y la prueba de Turkey fueron utilizadas para el análisis de significancia estadística con P=0,05. Resultados En las tablas del 1 al 5 se presentan los resultados obtenidos de los análisis Proximal, contenido de Oryzanol, Tocoferoles, Tocotrienoles y Perfil Lipídico en el aceite y contenido de Aminoácidos en la proteína, respectivamente. Tabla 1. Análisis Proximal Salvado de Arroz de diferentes variedades Variedades

Parameter

F60

C304

F50

RBM

Humedad (%)

9,62 ± 0,12

9,95 ± 0,08

11,11 ± 0,20

10,30 ± 0,43

Proteína Total (g/100gDM*)

13,60 ± 0,06

15,29 ± 0,10

14,62 ± 0,21

15,08 ± 0,12

Ceniza/100g DM)

12,08 ± 0,06

12,26 ± 0,13

12,58 ± 0,01

9,47 ± 0,06

Aceite Total (g/100g DM)

21,09 ± 0,66

23,44 ± 0,47

21,28 ± 0,50

22,15 ± 0,55

Fibra Total (g/100 DM)

25,96 ± 0,95

24,74 ± 1,15

29,94 ± 0,79

20,98 ± 0,54

Carbohidratos (%)

48,14

44,13

45,79

47,81

seca Tabla 2. Contenido de Oryzanol, Tocoferoles y Tocotrienoles en el Salvado de Arroz de diferentes variedades Variedades Parámetros

F60

C304

F50

RBM

γ Oryzanol(g/100g Aceite)

1.94 ± 0.32

1.43 ± 0.14

2.13 ± 0.20

1.78 ± 0.06

Alfa tocoferol (mg/kg aceite)

91.02 ± 17.78

212.45 ± 26.84

63.79 ± 5.61

104.95 ± 1.50

Betatocoferol (mg/kg aceite)

22.28 ± 5.48

29.18 ± 9.48

28.02 ± 10.19

10.09 ± 0.65

Gamma tocoferol (mg/kg aceite) 198.71 ± 38.33

56.28 ± 6.12

78.15 ± 6.75

94.43 ± 1.17

Delta tocoferol (mg/kg aceite)

8.33 ± 1.55

6.66 ± 4.34

4.44 ± 0.32

5.14 ± 0.23

Total tocoferol (mg/kg aceite)

320.33 ± 62.32

304.57 ± 37.30

174.40 ± 22.81

214.62 ± 3.13

Alfa tocotrienol (mg/kg aceite)

80.37 ± 20.33

106.11 ± 12.34

70.56 ± 6.69

65.41 ± 2.15

Gama tocotrienol (mg/kg aceite)

1115.95 ± 207.59

639.93 ± 80.68

873.12 ± 81.69

835.18 ± 13.79

Delta tocotrienol (mg/kg aceite)

99.99± 19.18

74.9609± 10.16

80.53± 7.37

63.43±1.73

Total tocotrienol (mg/kg aceite)

1296.32 ± 147.09

821.00 ± 102.65

1024.21 ± 95.41

964.02 ± 17.34

F60: Fedearroz 60; C304: Corpocem 304; F50: Fedearroz 50; RBM: Mocari.

Congreso Nacional de Ingeniería CNIA2012

37


Tabla 3. Contenido de Acidos grasos en el Salvado de Arroz de diferentes variedades Variedades Ácidos Grasos %

F60

C304

F50

RBM

C14:0

0.30 ± 0.03

0.32 ± 0.09

0.27 ± 0.09

0.28 ± 0.02

C14:1

0.02 ± 0.015

0.02 ± 0.016

0.01 ± 0.01

0.01 ± 0.02

C16:0

19.95 ± 0.45

19.83 ± 0.38

19.81 ± 1.06

20.86 ± 0.70

C16:1

0.18 ± 0.01

0.20 ± 0.02

0.20 ± 0.03

0.10 ± 0.09

C18:0

1.57 ± 0.04

1.78 ± 0.05

1.85 ± 0.03

1.86 ± 0.46

C18:1

40.70 ± 0.19

42.37 ± 0.65

42.27 ± 1.67

39.029±0.88

C18:2

35.32 ± 0.31

33.60 ± 0.35

33.56 ± 0.32

35.45± 0.82

C18:3

1.35 ± 0.02

1.08 ± 0.03

1.21 ± 0.09

1.42 ± 0.02

C20:0

0.61 ± 0.04

0.81 ± 0.10

0.80 ± 0.08

0.73± 0.05

SFA

22.433

22.73

22.74

23.73

MUFA

40.895

42.5896

42.47

39.139

PUFA

36.672

34.6776

34.77

36.87

SFA: Total de acidos grsos saturados; MUFA: Tatal de acidos grsos mono saturados; PUFA: Total de acidos grasos polisaturados

Tabla 4. Contenido de Amino acidos en el Salvado de Arroz de diferentes variedades Aminoácidos (mg/g proteína)

Variedades F60

C304

F50

RBM

Aspartate

75.35 ± 5.02

75.52 ± 0.54

76.91 ± 2.84

67.55 ± 3.16

Glutamate

120.36 ± 7.86

121.19 ± 0.14

117.05 ± 3.71

108.02 ± 4.46

Serine

47.83 ± 3.32

47.85 ± 0.44

48.10 ± 1.79

44.88 ± 3.07

Histidine

29.96 ± 2.22

29.08 ± 0.40

28.19 ± 1.18

27.35 ± 1.25

Glycine

61.16 ± 5.76

59.70 ± 0.28

61.05 ± 2.23

62.25 ± 3.78

Threonine

40.81 ± 3.17

40.44 ± 0.57

40.26 ± 1.62

36.99 ± 1.60

Arginine

72.69 ± 5.93

72.85 ± 1.44

72.44 ± 3.00

66.76 ± 2.91

Alanine

67.08 ± 5.06

67.65 ± 0.31

67.01 ± 2.64

60.85 ± 2.79

Tyrosine

36.94 ± 2.55

38.91 ± 0.02

37.38 ± 1.24

33.77 ± 1.32

Valine

52.06 ± 4.37

52.33 ± 1.29

52.85 ± 2.56

47.96 ± 2.09

Methionine

14.94 ± 0.40

16.12 ± 0.60

15.20 ± 0.87

15.29 ± 0.82

Phenylalanine

47.52 ± 3.56

47.90 ± 0.16

48.82 ± 1.99

43.65 ± 1.86

Isoleucine

39.22 ± 3.01

38.99 ± 0.05

39.52 ± 1.25

36.43 ± 1.36

Leucine

77.28 ± 5.96

77.75 ± 0.30

77.65 ± 3.22

70.46 ± 2.96

Lysine

47.79 ± 3.47

46.94 ± 0.55

46.72 ± 1.77

42.72 ± 1.84

Proline

50.94 ± 2.47

51.13 ± 1.87

51.79 ± 2.28

52.61 ± 4.86

Tryptophan

13.57 ± 1.59

12.38 ± 0.92

12.29 ± 0.23

6.51 ± 1.18

Referencias [1] AOAC, Association of Official Analytical Chemists. Official Methods of Analysis. 15th Edition, Washington, D.C., (1990). [2] G. S. Seetharamaiah y J. V. Prabhakar. Oryzanol content of Indian rice bran oil and its extraction from soap stock. Journal of Food and Technology, 23, 3-6.R, (1986). [3] AOCS, Official methods and recommended practices of the American Oil Chemists‟ society. Official methods Ce 1b-89 for marine oils. 5th Edition, D. Firestone, AOCS press, Champaign, (1990).

Congreso Nacional de Ingeniería CNIA2012

38


ESTUDIO DE OPTIMIZACION DE LA PRODUCCION DE METANO POR VIA BIOLOGICA DE LA FRACION ORGANICA DE RESIDUOS SOLIDOS URBANOS M. Hernández1, B.A. Gómez2 1-2 GMAE, Universidad de Ibagué, Ibagué Palabras claves: Biogás, Residuos, Potencial

Problema La fermentación anaeróbica es un proceso natural que ocurre en forma espontánea en la naturaleza y forma parte del ciclo biológico. Las primeras menciones sobre biogás se remontan al 1.600 DC. Pero es hasta el año 1890 es donde se encuentran las primeras referencias técnicas sobre la construcción del primer biodigestor a escala real en la India y ya en 1896 en Exeter. Para el caso de Colombia, solo hasta los años 70, se iniciaron procesos de difusión de la tecnología de los biodigestores en las fincas, copiando inicialmente los modelos chinos (cúpula fija, presión variable) e indios (campana flotante, presión estable), con la ayuda y divulgación de entidades estatales y privadas que han estado interesadas en la producción de Biogás a nivel industrial, de combustible domestico y para vehículos así como generación de energía eléctrica [1], en el marco de la utilización de energías renovables como fuente de abastecimiento amigable con el medio ambiente. Aún así la información disponible se encuentra de forma dispersa y no está organizada, por lo que no se considera una fuente de consulta veras para quienes están interesados; presenta discordancia en los datos suministrados, en cuanto a los valores objeto de análisis que además en varios casos presenta información desactualizada y no le permite a cada una de las regiones conocer su situación en tiempo real, frente a la producción de Biogás y tomar medidas que catalicen y fomenten la utilización de este tipo de energía pues se tiene una perspectiva equivoca en la que la generación de energía renovable no es viable económicamente debido a sus bajas escalas de producción y así como tampoco se tiene en cuenta que el esquema se puede combinar con la venta de créditos de carbono y la producción de biogás se puede convertir en una opción económica, ambiental y socialmente sostenible [2]. Metodología En este se proyecto se cuantifico la producción de Biogás en el Tolima con el objetivo de dejar una herramienta de consulta, para quienes en hoy en día están interesados en convertir la fracción orgánica de residuos domésticos, industriales, agropecuarios principalmente en fuente de combustible en el departamento, abriendo el espectro de aprovechamiento de los recursos con los que cuenta cada región y de esta manera estimular el desarrollo sostenible, mediante la utilización de energías renovables con peso económico importante que de forma escalonada puede disminuir la producción de metano fósil, a quien se le atribuye el 16% de las emisiones de gases de efecto invernadero en el mundo [3]. Contribuyendo al mismo tiempo con el cumplimiento del séptimo objetivo del milenio, con el que se pretende dar respuesta a las necesidades humanas presentes sin destruir la capacidad del medio ambiente para atender las necesidades energéticas en el largo plazo, aportando significativamente a la cuota latinoamericana. Se seleccionaron las fracciones orgánicas de residuos provenientes de plazas de mercado, desecho, residuos domiciliarios, estiércol producido por especies agrícolas bobinas, porcinas y avícolas y la materia orgánica de las aguas residuales domesticas que deben ser tratadas en las Plantas de Tratamiento de Aguas. El potencial se calculo tomando como base la descomposición anaerobia de la materia orgánica contenida en cada tipo de residuos. A pesar que el enfoque que se le dio al metano fue direccionado económico y ambientalmente, son múltiples las posibilidades de aprovechamiento implícitas de este recurso, adicionales a las mencionadas anteriormente y que a la conservación del medio ambiente se refiere. Su utilización se puede dar como Biofertilizante pues su estabilidad química es ideal para el tratamiento agrícola, adicionalmente, eliminar la dependencia de las empresas prestadoras de servicios públicos principalmente en el sector rural y lugares remotos, generara la descentralización de la producción eléctrica y estimula la creación de ciclos cerrados en la agricultura [4].

Congreso Nacional de Ingeniería CNIA2012

39


Resultados En Colombia para el manejo de residuos sólidos en rellenos sanitarios existen dos experiencias importantes a resaltar que son: el relleno Doña Juana ubicado en la ciudad de Bogotá y el relleno Don Juanito ubicado en la ciudad de Villavicencio, que a la fecha han generado iniciativas para tratar eficientemente los residuos sólidos orgánicos, utilizando formulación para estimar el potencial de recuperación de Biogás a partir del modelo propuesto por la USEPA. A nivel general, se han presentado dificultades en la transición y adopción de modelos e iniciativas verdes, evidenciando algunas causas durante el desarrollo de la investigación entre ellas la no existencia de un marco legal que reglamente el manejo de residuos sólidos en cada municipio, la no inclusión del Biogás dentro de la categorización de Biocombustible, tal como lo es el Etanol o el Biodiesel [5], que se afianzan de forma representativa en una industria que ha ido creciendo lentamente, pero que ya incluso supera el número de usuarios de los combustibles convencionales (Ver la Figura 1), la falta de inversión en investigación y financiación de estas iniciativas y la cultura no menos importante y necesaria para generar no solo cambios actitudinales sino mentales.

Figura 1. Venta de Biocombustibles en el 2011 Fuente: FedeCombustibles, 2011

Con los cálculos realizados del potencial de producción de Biogás estimamos que de acuerdo con la generación de Residuos Orgánicos en el departamento se podría generar 19‟.816.69 MW-h/año que podría suplir de energía eléctrica a 11.227,6 viviendas cubriendo de la población Tolimense y aun más interesante si utilizáramos este Biogás como gas domiciliario se podría suministrar el combustible necesario a 29.832,82 viviendas, adicionalmente se producirían 96‟044.425 Bonos de Carbono con un valor equivalente a 816‟377.612 USD con lo que se lograría un verdadero aporte a los objetivos de reducción de emisiones de gases efecto invernadero y se obtendrían recursos extras a los Municipios por la participación en Mercados de producción más limpia. Referencias [1] Ciro Serrano Camacho. (2007). Retrieved Marzo 15, 2012, from Ministerio de Minas y Energia: http://www.upme.gov.co [2] Da Silva, C. L. (2009). La Cadena de Biogas y la Sustentabilidad Local. Innovar: Revista de Ciencias Administrativas y Sociales , 83-98. [3] Ministerio de Minas y Energia. (2008). Dinero.com . [4] Kaiser, F. (2009). Produccion de Biogas - Europa y Potencial para Chile -. Santiago, Chile. [5] FedeBiocombustibles. (2011). Graficas Informativas del Sector de los Biocombustibles en Colombia. Armenia: Federacion Nacional de Biocombustibles en Colombia.

Congreso Nacional de Ingeniería CNIA2012

40


CONSTRUCCION DE UN SISTEMA DE LAVADO Y SECADO PARA BANANITO José Luis Guerrero1, Alfonso Cubillos Varela1, Angélica Sandoval2, Claudia Villota3 1 Programa de Ingeniería Mecánica, Universidad de Ibagué, Ibagué 2 Universidad del Tolima 3 CORPOICA CI TIBAITATA, Mosquera Palabras claves: Musa Acuminata, bananito, secado, lavado

Problema En zona rural del municipio de Icononzo (Tolima) se realiza el cultivo y adecuación de bananito (Musa Acuminata) con fines de exportación. El proceso se lleva a cabo por la asociación de productores de banano de Icononzo (ASOBAICOTOL), entidad sin ánimo de lucro que busca apoyar a los campesinos de la región en la comercialización de sus productos. Esta asociación cuenta con una planta de adecuación del producto donde se realiza el desmane, lavado, secado, desinfección y empaque de los gajos de bananito. En la etapa de enjuague se remueve el jabón con que se lava preliminarmente el bananito. En este proceso se utiliza agua en exceso, ya que por problemas de diseño de los tanques únicamente se utiliza la mitad de la capacidad de estos; además, los tiempos de permanencia de los gajos de bananito no son constantes y depende de la capacidad de secado, siguiente etapa del proceso. La Figura 1 muestra el tanque de enjuague con el producto, se observa el represamiento del producto (cuello de botella).

Figura 1. Tanque de enjuague El secado del producto se realiza con un lienzo (ver Figura 2) que puede rallar el producto y afectar su calidad. Además en este se puede acumular bacterias que pueden transmitirse al producto reduciendo su calidad y tiempo de vida útil. Al utilizar el secado por evaporación natural se evitan estos problemas pero se aumenta considerablemente el tiempo del proceso, generando cuellos de botella y reducción de la productividad. Se plantea entonces la implementación de un sistema de transporte que permita automatizar las actividades de enjuague y secado del producto. Este sistema permitiría reducir el tiempo de procesamiento y el uso de agua en el proceso y mantendría la calidad del producto.

Figura 2. Paño con el que se secan los bananitos (Musa acuminata)

Congreso Nacional de Ingeniería CNIA2012

41


Metodología La definición de los objetivos del diseño, así como las restricciones y parámetros de operación del proceso se realizaron en reuniones interdisciplinarias entre la Universidad de Ibagué y CORPOICA, así como el análisis de las condiciones de la planta de la asociación ASOBAICOTOL. La definición de las alternativas de construcción se definió al analizar procesos similares y patentes relacionados. La opción de construcción se determinó al evaluar las alternativas en función del cumplimiento de los objetivos y restricciones del diseño. La alternativa seleccionada fue presentada y discutida con los operarios y representantes de ASOBAICOTOL. El diseño escogido se presenta en la Figura 3, que consiste en una banda en la que cuelgan los bananitos. Esta banda sumerge el producto en el tanque de enjuague y luego lo pasa por un túnel de secado, con descarga en la mesa de empaque. El túnel de secado está construido en láminas de acero inoxidable y dos ventiladores que inyectan aire a presión para remover las gotas agua. Fue realizado el análisis estructural, la resistencia mecánica de los brazos que sostienen la banda y los bananitos. Se calculó la velocidad del sistema y la potencia necesaria del motor. Además, se realizó una simulación computacional del secador por aire a presión para garantizar su adecuado funcionamiento.

Figura 3. Sistema de enjuague y secado de bananito Resultados Se diseñó y construyó un sistema de transporte que permite enjuagar y secar los bananitos. La Figura 4 muestra los bananitos colgados en la banda, el motor y una sección del túnel de secado. Se logró obtener un producto seco sin alterar las condiciones de calidad del producto, con una producción continúa que redujo el tiempo de proceso.

Figura 4. Sistema de transporte con carga Referencias [1] DYM. Clive, LITTLE. Patrick, El proceso de diseño en ingeniería. Editorial LimusaWiley. 2006. [2] IICA. Instituto interamericano para de cooperación para la agricultura, Tecnología del Manejo de Postcosecha de Frutas y Hortalizas. ICCA 1986. [3] MORT, Robert L, Diseño de elementos de maquinas cuarta edición. Person Education 2006. [4] http://www.fao.org/Wairdocs/X5403S/x5403s06.htm#TopOfPage. Congreso Nacional de Ingeniería CNIA2012

42


HERRAMIENTAS ESTADÍSTICAS APLICADAS AL MEJORAMIENTO Y ESTUDIO DE LA CALIDAD DE LOS PROCESOS M.L. Pérez1, A. Carrión2, O.A. Troncoso3 1 Grupo de investigación GINNOVA, Universidad de Ibagué, 2 Director del Centro de Gestión de la Calidad y del Cambio, UPV - España 3 Director de calidad Grupo Segovia, Valencia - España, Palabras claves: Calados, tolerancia, capacidad de proceso

Problema El grupo SEGOVIA, está conformado por cinco plantas de fabricación de autopartes que provee piezas, componentes y conjuntos de piezas para el ensamble de carrocerías, motores, asientos y chasis en gran parte de las plantas de Europa, Asia y América; a fabricantes de automóviles, como FORD, VOLVO, SEAT, JAGUAR, LAND ROVER, FAURECIA, JOHNSON CONTROLS, BMW, AUDI. Entre las partes que fabrica se encuentra la pieza BRKT EXHAUST CONV MNTG, que es una pieza del motor que cumple una función de refuerzo. Esta pieza debe cumplir con una serie de especificaciones, marcadas en el plano de la pieza, en donde las tolerancias más importantes son la posición de los calados que tienen una tolerancia de 1 mm (+/- 0,5 mm) respecto a la alineación de la pieza en tres puntos (puntos A, B y C). La función de la pieza es ejercer de refuerzo y sujeción de otra pieza llamada MANIFOLD que es el colector de gases del motor y es suministrado por otro proveedor de Ford. La situación es entendida como un no cumplimiento específicamente de las tolerancias de posición de los calados CIR 1 y CIR 2 en el proceso de montaje de la pieza en la planta de Ford Michigan. El proceso de montaje de la pieza comienza con atornillar el calado b (CIR-B) y el coliso (SLT-C) siguiendo la alineación de la pieza, una vez atornillada la pieza al motor por estos dos puntos (ver figura 1), la pieza MANIFOLD (colector) debe coincidir exactamente con los dos calados restantes de la pieza (CIR-1 y CIR-2) (ver figura 2). Según lo denunciado por el cliente, estos dos calados no coincidían con la pieza MANIFOLD (colector) (figura 3), por lo que no se podía atornillar la pieza con el MANIFOLD (colector). De acuerdo con las manifestaciones del cliente (planta de Ford en Michigan y su departamento de INCOMING), se tienen problemas en el montaje de dicha pieza ya que la posición de los calados se encontraba fuera de la tolerancia de posición, es decir, estaban desplazados, generando de esta manera problemas en el encaje de la pieza, por lo que se requería desmontarla y probarla con otra dentro de la tolerancia de posición para poder proseguir con el proceso productivo del coche; este problema genera paros en la línea de producción y por consiguiente disminución de la productividad, generando costos a la planta de 6.000 euros/minuto.

Figura 1. Pieza BRKT EXHAUST CONV MNTG

Congreso Nacional de Ingeniería CNIA2012

43


Figura 2. BRKT EXHAUST CONV MNTG

Figura 3. BRKT EXHAUST CONV MNTG

Como se puede observar en el plano de la pieza, la tolerancia de posicion para los dos calados CIR-1 y CIR-2 es de 1mm, esto significa que el centro de los calados se pueden desviar +/-0,5mm en el eje X e Y en relacion a la alineacion de la pieza (puntos A, B y C). La alineacion de la pieza son los puntos que simulan el montaje en Ford y a partir de los cuales se mide la pieza dimensionalmente.

Figura 4. Plano BRKT EXHAUST CONV MNTG Metodología Para abordar la situación planteada por el cliente se realizó un estudio del proceso de fabricación de la pieza verificando paso por paso el cumplimiento de las condiciones de fabricación y sus tolerancias. Para esto se conformó un equipo de trabajo de cinco trabajadores del área de producción que tenían relación directa con la fabricación de esta pieza y aplicando la técnica estadística de gráficos de control se verificó que el proceso de fabricación de la pieza para la característica de calidad relacionada con la tolerancia de posición de los calados (1mm) respecto a la alineación marcada en el plano se encontraba controlada estadísticamente, es decir, su proceso de fabricación solamente estaba sometido a causas de variación aleatorias o del azar. De acuerdo con lo anterior se procedió a realizar el estudio de capacidad de proceso con el fin de determinar el nivel de cumplimiento de las especificaciones de los calados, lo que permitiría determinar si las piezas estaban incumpliendo sus especificaciones y por tanto causando los problemas mencionados por el cliente. Congreso Nacional de Ingeniería CNIA2012

44


Para realizar el estudio de capacidad de proceso se diseñó un plan de muestreo con las siguientes condiciones: N= 4 lotes n= 5 piezas por lote Tiempo total del muestreo: 20 horas, correspondiente a la producción de un día Tiempo entre muestras: 4 horas Se realizó el estudio de capacidad en el proceso de producción por lotes de producción los cuales son afectados por la variación de las variables de un proceso normal de estampación en frio, como lo son las características de la materia prima (Rm - limite de rotura, Re – Limite elástico, %A - Alargamiento), parámetros del proceso de estampado como pueden ser el esfuerzo de la maquina estampadora, el desgaste de los elementos de la matriz, el recorrido de la apertura de la prensa y la cantidad de lubricación de la maquina, entre otras. El estudio consistió en la verificación de las características de posición de los calados CIR-1 y CIR-2, que pudiera determinar si el proceso podría cumplir con las tolerancias requeridas en el plano. Adicionalmente el equipo de trabajo utilizó la disciplina de Global 8D, reuniendo un grupo de expertos para discutir la situación, y para la definición integral del problema se diseño y ejecuto el estudio de capacidad. El estudio se realizó muestreando cuatro lotes de fabricación diferentes, tomando una muestra de 5 piezas en cada uno, con el objetivo de evaluar y tener en cuenta todas las variables que pueden influir en las dimensiones requeridas en los calados, conociendo de esta manera si era capaz y aseguraba estadísticamente que todas las piezas estarían dentro de las tolerancias dadas en el plano (Ver figura 2). Las muestras fueron tomadas de manera aleatoria y a diferentes intervalos de tiempo dentro del proceso con un intervalo de cuatro horas entre muestra completando un total de 20 horas de producción continúa encontrándose los datos de la tabla siguientes en donde: - CIR1-X corresponde a la variación de la posición del calado 1 en el eje X,- CIR1Y corresponde a la variación de la posición del calado 1 en el eje Y, - CIR2X corresponde a la variación de la posición del calado 2 en el eje X, - CIR2Y corresponde a la variación de la posición del calado 2 en el eje Y. Una vez los datos han sido recogidos por las personas encargadas de ello en la planta y apuntados en las plantillas dadas en papel, se procedió a pasar estos datos informáticamente en la Tabla 1. En esta tabla se pueden observar todas las desviaciones de posición de cada uno de los calados (CIR 1 y 2) en los ejes X e Y. Tabla 1. Datos de muestras CIR1-X

CIR1-Y

CIR2-X

CIR2-Y

Hoja 1

-0,272

-0,006

-0,229

0,052

Hoja 2

-0,261

0,013

-0,190

0,076

Hoja 3

-0,305

-0,054

-0,298

0,013

Hoja 4

-0,363

-0,060

-0,334

0,008

Hoja 5

-0,363

-0,016

-0,301

0,057

Hoja 6

-0,264

-0,022

-0,215

0,039

Hoja 7

-0,293

-0,024

-0,253

0,039

Hoja 8

-0,369

-0,003

-0,301

0,060

Hoja 9

-0,384

-0,115

-0,409

-0,043

Hoja 10

-0,371

-0,065

-0,363

-0,002

Hoja 11

-0,312

-0,014

-0,254

0,052

Hoja 12

-0,311

-0,024

-0,257

0,038

Hoja 13

-0,368

-0,027

-0,319

0,037

Hoja 14

-0,327

-0,039

-0,302

0,017

Hoja 15

-0,304

-0,003

-0,218

0,057

Hoja 16

-0,322

0,003

-0,283

0,033

Hoja 17

-0,323

-0,031

-0,282

0,032

Hoja 18

-0,322

-0,015

-0,280

0,018

Congreso Nacional de Ingeniería CNIA2012

45


CIR1-X

CIR1-Y

CIR2-X

CIR2-Y

Hoja 19

-0,319

-0,029

-0,284

0,034

Hoja 20

-0,320

0,001

-0,281

0,031

Hoja 21

-0,318

-0,014

-0,283

0,033

Hoja 22

-0,317

-0,021

-0,285

0,035

Hoja 23

-0,299

0,004

-0,280

0,030

Hoja 24

-0,324

-0,028

-0,275

0,029

Hoja 25

-0,325

-0,012

-0,286

0,036

Con los anteriores datos se realizó el estudio de capacidad, encontrándose los índices de capacidad Cp y Cpk: Tabla 2. Capacidad del proceso VAR

CIR1-X

CIR1-Y

CIR2-X

CIR2-Y

X_max

-0,261

0,013

-0,190

0,076

X_avg

-0,322

-0,024

-0,282

0,032

X_min

-0,384

-0,115

-0,409

-0,043

R_max

0,123

0,128

0,219

0,119

S

0,033

0,027

0,046

0,023

SCpm

0,331

0,037

0,292

0,041

MIN

CIR1-X

CIR1-Y

CIR2-X

CIR2-Y

Cp

1,67

6,14

6,77

4,28

8,30

Cpk

1,67

2,18

6,44

1,86

7,76

Tabla 3. Histogramas de tolerancias en muestras VARIABLE DIMENZIÓ

CIR1-X

USL

0,5

LSL

-0,5

HISTOGRAMA / HISTOGRAM / HISZTOGRAMM

16

X_max

-0,261

X_avg

-0,322

X_min

-0,384

R_max

0,123

8

s

0,033

6

Cp

6,14

Cpk

2,18

14 12 10

4 2 0 -2,000 -1,750 -1,500 -1,250 -1,000 -0,750 -0,500 -0,250

Numero de muestras ESTUDIO: Number of samples STUDY Elemzésben résztvevő mérésszám:

Congreso Nacional de Ingeniería CNIA2012

25

0,000

0,250

Numero TOTAL de muestras: Number TOTAL of samples: Mérési eredmények száma

0,500

0,750

1,000

1,250

1,500

1,750

2,000

15

46


VARIABLE DIMENZIÓ

CIR1-Y

USL

0,5

LSL

-0,5

HISTOGRAMA / HISTOGRAM / HISZTOGRAMM X_max

0,013

25

20

X_avg

-0,024

X_min

-0,115

R_max

0,128

s

0,027

Cp

6,77

Cpk

6,44

15

10

5

0 -2,000 -1,750 -1,500 -1,250 -1,000 -0,750 -0,500 -0,250

Numero de muestras ESTUDIO: Number of samples STUDY Elemzésben résztvevő mérésszám:

VARIABLE DIMENZIÓ

25

0,000

0,250

0,500

0,750

Numero TOTAL de muestras: Number TOTAL of samples: Mérési eredmények száma

CIR2-Y

1,000

1,250

1,500

1,750

2,000

15

USL

0,5

LSL

-0,5

HISTOGRAMA / HISTOGRAM / HISZTOGRAMM X_max

0,076

X_avg

0,032

X_min

-0,043

R_max

0,119

s

0,023

Cp

8,30

Cpk

7,76

20 18

16 14 12 10 8 6 4 2 0 -2,000 -1,750 -1,500 -1,250 -1,000 -0,750 -0,500 -0,250 0,000

Numero de muestras ESTUDIO: Number of samples STUDY Elemzésben résztvevő mérésszám:

25

0,250

Numero TOTAL de muestras: Number TOTAL of samples: Mérési eredmények száma

0,500

0,750

1,000

1,250

1,500

1,750

2,000

15

Estos índices muestran la aptitud del proceso para producir productos dentro de los límites de especificaciones de calidad. Son índices basados en la reproducibilidad del producto hecho por el proceso, determinados por métodos estadísticos y comparando la producción con los límites de especificación con el fin de saber si el proceso puede consistentemente entregar un producto dentro de estos parámetros. Resultados El estudio de capacidad del proceso permitió demostrar que el proceso es capaz de producir las piezas BRKT EXHAUST CONV MNTG dentro de los límites de especificación de calidad. El cálculo de los índices de capacidad basados en la reproducibilidad del producto determinado por métodos estadísticos y comparados con Congreso Nacional de Ingeniería CNIA2012

47


los límites de especificación permite determinar la consistencia del proceso para entregar el producto dentro de los parámetros. La conclusión después de haber realizado el SPC fue que los Cp y los Cpk de las distintas dimensiones, resultaron por encima del mínimo estipulado por la empresa el cual es 1.67, lo que significa que el proceso es estadísticamente capaz de cumplir con las especificaciones marcadas en el plano (Ver Tabla 2) y que la probabilidad de generar una pieza fuera de tolerancias de posición es de menos de una pieza por cada millón de piezas fabricadas, 1 PPM (pieza por millón). Con vistas a la mejora continua de los procesos, se debe considerar que en las dos características de la dimensión X existe un considerable descentrado hacia la parte izquierda, Aunque esto no compromete la capacidad en el momento actual, es algo que debe considerarse para plantear su mejora en el futuro. De hecho las excelentes capacidades potenciales en las cuatro características analizadas (Cp entre 4.28 y 8.30), dan lugar a unos valores de capacidad aceptables pero mucho más modestos (Cpk de 1.86 y 2.18) en las dimensiones X. La aplicación de la herramienta Global 8D solo llego a la segunda de las etapas o disciplinas (2D), debido a que las piezas estaban correctamente fabricadas, el proceso no generaba partes con defectos (ver Tabla 3), este estudio fue principal arma para poder defender la posición frente a FORD Michigan. Debido a esto se concluyó que el problema lo estaba generando la pieza MANIFOLD (colector) ensamblada a la nuestra y suministrada por otro proveedor y eran estas las desviaciones que estaban provocando los problemas de montaje en el motor, por lo que Ford procedió a denunciar este problema al proveedor de la pieza MANIFOLD (colector) y a anular la reclamación hecha por problemas en la pieza BRKT EXHAUST CONV MNTG. Posteriormente y al ver los problemas en el ensamblaje de estas dos piezas, Ford propuso el cambio de tolerancias para las dos piezas, pasando de una tolerancia de posición de 1mm (+/-0,5mm) para los CIR1 y CIR2 a ampliarla a 1,5mm (+/-0,75mm), por lo que se eliminaron todos los problemas que pudieran surgir con el ensamblaje de estas dos piezas. Referencias [1] Eugene L. Grant y Richard S. Leavenworth, Control Estadístico de Calidad, México: Continental. 1996. ME. 2a ed. [2] Evans, James R., Administración y control de la calidad, México: Cengage Learning. 2008. 7 ed. [3] Gitlow, Howard S., Design for six sigma for green belts and champions: applications for service operatios, foundations, tools, DMADV, cases and certification, New York: Pearson. 2006. [4] Introducción al control estadistico de la calidad, Douglas C. Montgomery; Traducido por: Dirk. ValckxVerbeeck, Mexico:Iberoamerica,2004. [5] Pablo Juan Verdoy, Manual de control estadístico de calidad: teoría y aplicaciones, Castelló de la Plana (Francia): Publicaciones de la Universitat Jaume I, D.L. 2006. [6] Ronald E. Walpole, Raymond H. Myers, Sharon L. Myers, Keying Ye. Probability & [7] Statistics for Engineers & Scientists. Pearson. 2007. 8 ed.

Congreso Nacional de Ingeniería CNIA2012

48


ANĂ LISIS DE UN SISTEMA VMI MTO-MTS CON DEMANDA ESTOCĂ STICA O.M. Cepeda1, F. Torres2, E. Gutierrez3 1-2-3 Departamento IngenierĂ­a Industrial/Grupo InvestigaciĂłn, Universidad de los Andes, BogotĂĄ Palabras claves: VMI (administraciĂłn inventario por el proveedor), MTO (make to order), MTS (make to stock)

Problema La administraciĂłn de inventarios por el proveedor (VMI), es una estrategia en la cual el proveedor genera las Ăłrdenes basado en un intercambio de informaciĂłn con su minorista, lo que permite la generaciĂłn de grandes beneficios a la cadena de abastecimiento [1], no solo en costos, sino en servicio al cliente. La mayorĂ­a de los modelos matemĂĄticos bĂĄsicos de VMI han sido desarrollado bajo el supuesto de demanda determinĂ­stica [2]. Este supuesto se encuentra en la prĂĄctica claramente alejado de la realidad. El presente trabajo desarrolla un modelo matemĂĄtico de un esquema coordinado VMI entre un productor y un comprador con demanda estocĂĄstica, y un Ăşnico producto. El enfoque propuesto permite evaluar y comparar las estrategias MTO (make to order) [3] y MTS (make to stock) y facilita el estudio de esquemas coordinados. El estudio adicionalmente presenta un anĂĄlisis de sensibilidad de los modelos propuestos en varios escenarios. Los beneficios en la implementaciĂłn de las estrategias MTO y MTS son estudiados variando los parĂĄmetros que los componen, como son: tasas de producciĂłn y demanda, tiempos de aprovisionamiento, costos de mantener y ordenar, faltantes. La evaluaciĂłn de los diferentes escenarios se basa en la comparaciĂłn de los costos logĂ­sticos del productor, comprador y la cadena total en la situaciĂłn tradicional sin VMI y los esquemas coordinados con VMI bajo MTO y MTS. MetodologĂ­a Para el desarrollo se considerĂł una cadena compuesta por un proveedor y un comprador. El proveedor cuenta con una tasa de producciĂłn mayor a la tasa de demanda. Los parĂĄmetros del modelo fueron los siguientes. p tasa de producciĂłn. (und/aĂąo) d tasa de demanda. (und/aĂąo) m NĂşmero de pedidos del comprador en la fase productiva del ciclo del vendedor k NĂşmero de pedidos del comprador en el tiempo de ciclo del vendedor t tiempo de ciclo del comprador (aĂąo) q tamaĂąo de lote del comprador (und.) T tiempo de ciclo del vendedor (aĂąo) Q tamaĂąo de lote del vendedor (und.) As Costo de pedir (colocaciĂłn orden de producciĂłn) del vendedor ($/pedido) Hs Costo de mantener del vendedor ($/(und x aĂąo)) Gs Costo total del vendedor ($/aĂąo) Ab Costo de pedir del comprador ($/pedido) Hb Costo de mantener del comprador ($/(und x aĂąo)) F Costo de transporte ($/pedido) Gb Costo total del comprador ($/aĂąo) r Punto de reorden (und.) ss Stock de seguridad del comprador (und.) Ď&#x20AC;b Costo de faltantes del comprador ($/und.) đ??źđ?&#x2018;&#x203A;đ?&#x2018;Ł Inventario promedio del vendedor (und.) L(z) FunciĂłn de pĂŠrdida estandarizada. Un modelo enfocado la producciĂłn a partir de una orden (MTO) es adaptado de Torres [4], el cual se trabajĂł con la estructura de costos de la Ec. 1. đ?&#x2018;&#x2021;đ??śđ?&#x2018;&#x2030;đ?&#x2018;&#x20AC;đ??ź =

đ??ˇ đ?&#x2018;&#x201E;

đ??š + đ??´đ?&#x2018;? + đ??´đ?&#x2018;  + đ??ťđ?&#x2018;?

đ?&#x2018;&#x201E; 2

Congreso Nacional de IngenierĂ­a CNIA2012

+ đ?&#x2018;&#x; â&#x2C6;&#x2019; ÎźLT

đ?&#x2018;&#x201E;đ??ˇ

đ??ˇ

+ đ??ťđ?&#x2018;  2đ?&#x2018;&#x192; + đ?&#x153;&#x2039; đ?&#x2018;&#x201E; đ?&#x2018;?(đ?&#x2018;&#x;, đ?&#x2018;&#x201E;)

(1) 49


Para el caso de la producciĂłn para almacenar (MTS), se desarrollĂł la siguiente estructura de costos, consistente con el enfoque VMI. đ?&#x2018;&#x17E; Inventario promedio del vendedor đ??źđ?&#x2018;&#x203A;đ?&#x2018;Ł = 2 (1 + đ?&#x2018;&#x2DC; â&#x2C6;&#x2019; đ?&#x2018;&#x161;) (2) đ??´

đ??şđ?&#x2018;  = đ?&#x2018;&#x2DC;đ?&#x2018;Ąđ?&#x2018;  + đ??ťđ?&#x2018;  đ??źđ?&#x2018;&#x203A;đ?&#x2018;Ł

Vendedor:

đ??´đ?&#x2018;? đ?&#x2018;Ą

đ??š đ?&#x2018;Ą

(3)

đ??şđ?&#x2018;? = + + đ??ťđ?&#x2018;? đ??śđ?&#x2018;&#x2021; = đ??şđ?&#x2018;? + đ??şđ?&#x2018; 

Comprador: Costo total de la cadena :

đ?&#x2018;&#x17E; 2

+ đ?&#x2018; đ?&#x2018;  + đ?&#x153;&#x2039;đ?&#x2018;?

đ?&#x153;&#x17D;đ??żđ?&#x2018;&#x2021; đ??ż(đ?&#x2018;§) đ?&#x2018;Ą

(4) (5)

En un anĂĄlisis tradicional quien tiene conocimiento de la demanda serĂĄ el comprador; por lo tanto este optimizarĂĄ su inventario, obteniendo la siguiente relaciĂłn. đ?&#x2018;&#x17E;đ?&#x2018;&#x2021;đ?&#x2018;&#x2026;đ??ˇ =

2đ?&#x2018;&#x2018;(đ??´đ?&#x2018;? +đ??š+ đ?&#x153;&#x2039; đ?&#x2018;? đ?&#x153;&#x17D; đ??żđ?&#x2018;&#x2021; đ??ż(đ?&#x2018;§)

(6)

đ??ťđ?&#x2018;?

En el caso de la implementaciĂłn de un modelo VMI, se buscarĂĄ la minimizaciĂłn de costos totales en la cadena de suministro. Con lo cual obtenemos las siguientes relaciones Ăłptimas. đ?&#x2018;&#x201E;đ?&#x2018;&#x2030;đ?&#x2018;&#x20AC;đ??ź = đ?&#x2018;&#x2DC; Ă&#x2014; đ?&#x2018;&#x17E;đ?&#x2018;&#x2030;đ?&#x2018;&#x20AC;đ??ź =

2đ?&#x2018;&#x2018;đ??´đ?&#x2018;  đ?&#x2018;&#x2018; đ?&#x2018;?

đ??ťđ?&#x2018;  1â&#x2C6;&#x2019;

(7)

đ?&#x2018;&#x17E;đ?&#x2018;&#x2030;đ?&#x2018;&#x20AC;đ??ź =

2đ?&#x2018;&#x2018;(đ??´đ?&#x2018;? +đ??š+ đ?&#x153;&#x2039; đ?&#x2018;? đ?&#x153;&#x17D; đ??żđ?&#x2018;&#x2021; đ??ż(đ?&#x2018;§) đ??ť đ?&#x2018;? +đ??ťđ?&#x2018; 

(8)

Resultados En los modelos se desarrollĂł una instancia inicial que permitiĂł analizar el comportamiento de los costos en la cadena. En la Figura 1, se presenta el comportamiento en el porcentaje de reducciĂłn de costos, con las estrategias MTO y MTS al implementar VMI.

MTO

MTS

Figura 1. ComparaciĂłn de la implementaciĂłn de las estrategias VMI con MTO y MTS (D = 1800 und/aĂąo, Ď&#x192;=400und/aĂąo, P = 3800 und/aĂąo, b=0,01 aĂąos, As = 400, F = 300, Hs =50, Hb = 40, Ď&#x20AC; = 120) Observando el comportamiento del indicador, se puede concluir que fijando los parĂĄmetros diferentes al costo de ordenar (Ab) del comprador, la selecciĂłn de la estrategia mĂĄs apropiada entre MTO y MTS depende de la magnitud de Ab. Para la instancia seleccionada serĂĄ mĂĄs adecuada la implementaciĂłn de un modelo VMI con un enfoque MTS, cuando los costos de ordenar son mayores a $7625. Si los costos de ordenar presentan valores menores, la estrategia mĂĄs adecuada serĂĄ la implantaciĂłn de un modelo VMI con un enfoque MTO. Referencias [1] S.P. Nachiappan, N. Jawahar / European Journal of Operational Research 182 (2007) 1433â&#x20AC;&#x201C;1452. [2] Y. Yao et al. / Decision Support Systems 43 (2007) 663â&#x20AC;&#x201C;674. [3] Jafar Razmi & Reza Hosseini Rad & Mohamad Sadegh Sangari; â&#x20AC;&#x153;Developing a two-echelon mathematical model for a vendor-managed inventory (VMI) systemâ&#x20AC;?, Int J Adv Manuf Technol (2010) 48:773â&#x20AC;&#x201C; 783. [4] Torres. Fidel, GutiĂŠrrez. EliĂŠcer; Performance Analysis of a VMI System for a Producer-Buyer Supply Chain with Stochastic Demand; 22nd Annual POMs Conference. Reno, Nevada. 2011.

Congreso Nacional de IngenierĂ­a CNIA2012

50


LAS TIC Y SU IMPACTO EN LA PRESTACIÓN DE SERVICIOS DE SALUD EN EL TOLIMA Oscar Turriago Murillo1, Olga Suarez1, Helga Patricia Bermeo Andrade2 1 Empresa TURRISYSTEM Ltda. 2 Facultad de Ingeniería, Grupo GINNOVA, Universidad de Ibagué Palabras claves: TIC, Sector salud, SISBEN Problema El Proceso de Autorizaciones de Servicios de Salud de usuarios del SISBEN (Sistema de Selección de Beneficiarios a Programas Sociales) y del Régimen Subsidiado, es un trámite al que se enfrentan los pacientes en la red hospitalaria, cuando requieren de un proceso de atención con especialistas. La inexistencia en el Tolima, de sistemas informáticos en linea y actualizados con la información correspondiente a los usuarios, ocasiona entre otras cosas, demoras y sobrecostos en la prestación de los servicios de salud. Ante esta problemática, el Gobierno Nacional a través del Decreto 4747 expedido diciembre 7 del 2007, y el marco de un gran programa de e-government [1][2] para las ramas del sector público, modificó el trámite para la prestación de servicios de salud, con el fin de que los usuarios no tuvieran que intervenir en el mismo. Según el Decreto, los trámites para la prestación de servicios de salud deben pasar a ser un ejercicio entre instituciones, evitando que el paciente, sus familiares o terceros, se vuelvan tramitadores y mensajeros. Lo anterior requería el diseño y puesta en marcha de sistemas informáticos en línea que facilitaran este proceso, de manera más efectiva y para beneficio los usuarios de la red de servicios de salud del Departamento. De los productos existentes en el mercado que son especialmente estructurados como sistemas de información para el sector salud, existen diferentes alternativas y ambientes de desarrollo, que en general contribuyen a suplir las necesidades de soporte de los procesos que llevan las Secretarias de Salud, pero no todos los sistemas están ajustados a la normatividad y la dinámica de los cambios, lo que implicó la necesidad de realizar una herramientas desarrollada a la medida y ajustada a la normatividad y los procesos que se llevan dentro de la Secretaria de Salud del Tolima (SST). Metodología Naturaleza del estudio. El Proyecto se enfocó en un análisis descriptivo –comparativo. Primero se orientó a describir el actual proceso de atención a servicio de salud (PASS), para luego pasar a contrastar la operación actual del Proceso con la puesta en marcha de alternativas como la integración de una nueva herramienta informática para el sector salud. Fuentes y herramientas para colección de información. Las fuentes que se tuvieron en cuenta para el presente proyecto fueron: a) la documentación técnica de PASS en entidades del Ministerio de Protección Social, FOSYGA y Gobernación del Tolima; b) los funcionarios de la Secretaria de Salud del Tolima y c) los usuarios del sistema en el régimen SISBEN y subsidiado. Para obtener la información de cada una de las fuentes se hizo uso de: a) Documentación con la visita a las páginas de internet de las entidades relacionadas con el objeto estudio, b) Entrevistas a personal funcionarios y los usuarios de la red de servicios de salud del Tolima, c) Encuestas a los beneficiarios del Sistema. Etapas del proceso. En el desarrollo del proyecto se manejaron las siguientes etapas: Etapa 1: Documentación e investigación sobre el objeto de estudio Etapa 2: Elaboración y aplicación del nuevo sistema de información al problema en estudio. Etapa 3: Análisis de los efectos de la integración de la TIC en el PSS y conclusiones. Técnicas de análisis (Indicadores de desempeño). Se recurrió al análisis estadístico descriptivo como de comparación, de forma que se pudo contrastar las ganancias en términos de las siguientes variables de desempeño definidas para este estudio: a) Diferencia promedio entre los tiempos de solicitudes de autorizaciones b) Diferencia promedio en los costos de las solicitudes de autorizaciones. Congreso Nacional de Ingeniería CNIA2012

51


Resultados Con la revisión del proceso PASS se dio inicio al proceso de conceptualización, desarrollo e implementación en línea de una herramienta informática apoyada en la modalidad de computación en la nube [3][4] (Cloud Computing) y esquema cliente servidor, para el PASS en la Secretaría de Salud del Tolima (ver Figura 1a y 1b).

Figura 1. Esquema de conectividad (1a) y de operación (1b) del Software implementado en la SST Fuente: Suarez & Turriago [5] Los análisis de desempeño de la nueva herramienta informática, revelaron luego de la consulta a 300 usuarios del sistema PASS y unos tres meses de operación, que se había logrado una mejora significativa en la calidad y eficiencia del servicio. Antes del sistema informático, tan solo 8% de los usuarios lo calificaban como bueno mientras que luego el 98% de usuarios lo calificaron como bueno e incluso excelente. De otro lado, las demoras y costos en la prestación del servicio se redujeron dramáticamente para la gran mayoría: de un promedio de 1 a 3 días pasó a menos de 12 horas; y de un costo superior a los $20 mil pesos para el usuario. Conclusión Con la integración de las TIC a la organización encargada de la PASS, se logra que el nuevo sistema de información para el proceso PASS, tenga un efecto positivo en términos de calidad, costos y tiempos, tanto para los prestadores como para los usuarios del Sistema de Salud en el Tolima. Referencias [1] A. Glassman. From few to many: ten years of health insurance expanssion in Colombia. BID, 2009. [2] Khalil, O. e-Government readiness: Does national culture matter? Government Information Quarterly , 28, 2011. [3] F. Galea, ¿Qué es... cloud computing? Bit, vol.176. [4] M. Nour, A. AbdelRahman, A., & A. Fadlalla, A context-based integrative framework for e-government initiatives. Government Information Quarterly, Vol. 25, 2008. [5] Suárez Gutiérrez, O. P., & Turriago Murillo, O. Análisis del impacto socioeconómico de la implementación de las TIC en los trámites de autorizaciones de la secretaría de salud departamental del Tolima. Trabajo de grado en la Esp. en gestión de Operaciones y Tecnología, programa de Ingeniería Industrial, Universidad de Ibagué - Colombia, 2011.

Congreso Nacional de Ingeniería CNIA2012 52


MODELACIÓN DE RIQUEZA DE PECES PARA LA RESTAURACIÓN DE RÍOS E. J. Olaya-Marín, F. Martínez-Capel, R. Costa, J. Alcaraz-Hernández Institutd'Investigació per a la Gestió Integrada de ZonesCostaneres, UniversitatPolitècnica de València, C/ Paranimf, 1, 46730 Grau de Gandia (València), España. Palabras claves: Redes neuronales artificiales, riqueza de peces, restauración ecológica. Problema Debido principalmente a la rápida degradación que sufren los ecosistemas de agua dulce a nivel global, en los últimos años, la modelación ecológica se ha convertido en una herramienta muy importante para la conservación de la fauna silvestre y sus hábitats. En España y especialmente en los ríos de clima mediterráneo, la contaminación, la introducción de especies exóticas y la modificación del régimen hidrológico, han ocasionado el declive y/o la extinción de numerosas especies nativas. Por lo tanto, es necesario el desarrollo de herramientas que permitan mejorar el conocimiento de la ecología fluvial de estas cuencas para soportar el desarrollo de políticas y acciones alternativas encaminadas a la restauración de los ríos y principalmente de sus especies nativas. Metodología En este estudio se desarrollaron modelos de redes neuronales artificiales (RNA) para predecir la riqueza de peces y simular medidas de mitigación en tres ríos de clima mediterráneo (Júcar, Cabriel y Turia), ubicados al este de España. Se utilizaron datos de 90 puntos de muestreo de peces distribuidos a lo largo de los cauces de los tres ríos (Figura. 1). Las capturas se realizaron mediante pesca eléctrica, en los meses de primavera y verano en el período 2005-2009.Se tuvieron en cuenta tres grupos de variables ambientales: Calidad del agua: oxígeno disuelto, demanda biológica de oxígeno, fósforo total, nitritos, pH, sólidos suspendidos, conductividad, temperatura media anual del agua. Hidromorfología: porcentaje de mesohábitats (poza, tabla, corriente, rápido y run), distancia libre de obstáculos artificiales, área de drenaje, distancia al nacimiento, anchura media, caudal medio anual, caudal medio interanual, coeficiente de variación intra-anual, coeficiente de variación inter-anual. Índices biológicos: Iberian Biomonitoring Working Party-IBMWP, índice de vegetación de ribera – QBR. Se utilizó el método paso a paso hacia adelante y el método de las derivadas parciales (PaD) para seleccionar las variables más importantes en el modelo [1]. Se construyeron y probaron diferentes modelos de RNA con el fin de determinar el número óptimo de nodos en la capa oculta y el tipo de función de transferencia más apropiado. Se empleó validación cruzada k-fold para entrenar y validar la red neuronal artificial[2] y el algoritmo de optimización empleado en la construcción de las redes fue el Levenberg-Marquardt.

Congreso Nacional de Ingeniería CNIA2012 53


Figura 1. Ubicación de los 90 sitios muestreados en los ríos Júcar, Cabriel y Turia en la Península Ibérica Posteriormente, se simuló el efecto del aumento de la distancia libre de obstáculos artificiales sobre la riqueza de peces nativos, en el tramo de río comprendido entre los azudes de la Manchega y Torcío (Fig. 2). Para ello se evaluó el efecto de la eliminación de tres pequeños azudes fuera de uso en dicho segmento: Carrasco, La Marmota y Los Pontones. En segundo lugar, se estudió la sensibilidad de la riqueza de peces nativos a un incremento del porcentaje de corriente en 10, 20, 30, 40 y 50% con respecto a sus valores observados en dos segmentos del río Júcar bajo el embalse de Alarcón. Resultados La mejor arquitectura de red fue de tres capas (7-6-1), siete neuronas en la capa de entrada que corresponde a las variables ambientales, una capa oculta de seis neuronas y una capa de salida con una neurona la cual calcula el valor de la riqueza de especies nativas. El coeficiente de correlación (r) del modelo neuronal en la fase de entrenamiento fue de 0.90 y en validación 0.81.La aplicación del método de las derivadas parciales permitió establecer que las variables que más contribuyen al modelo fueron, en este orden, IBMWP, porcentaje de corriente y caudal medio anual con una importancia relativa de 20.72, 20.18, y 16.44% respectivamente. En los escenarios de simulación se encontró que la riqueza de especies nativas aumenta a medida que se incrementa la distancia libre de obstáculos artificiales y el porcentaje de hábitat de corriente (Figura 2).

Congreso Nacional de Ingeniería CNIA2012 54


Figura 2. Riqueza de pecesnativossimulada Aplicando el análisis de sensibilidad de PaD se observó la influencia de las principales variables ambientales en la predicción de la riqueza de peces nativos en el modelo, la cual se ilustra con tres diagramas de dispersión (Fig. 3). En ellos se puede interpretar que los valores positivo en el eje Y, indican una relación positiva entre la variable de entrada y la variable a predecir (riqueza de especies), y los valores negativos representan una influencia negativa. Se puede observar que los valores de las derivadas parciales de la riqueza de peces nativos con respecto al índice IBMWP, mesohábitat de corriente y caudal medio anual tienden a ser positivos, por lo tanto un incremento en alguna de estas tres variables llevará a un incremento de la riqueza de especies nativas en el área de estudio.

Figura 3. Derivadas parciales en función de las variables ambientales con mayor contribución en la predicción de la riqueza de pecesnativos en la RNA.

Referencias [1] M. Gevrey, Dimopoulosand S. Lek, “Review and comparison of methods to study the contribution of variables in artificial neural network modelsl”, EcologicalModelling,vol. 160, no. 3, pp. 249-264, February, 2003. [2] JD. Olden, Lawler and NL.Poff, 2008.“Machine Learning Methods Without Tears: A Primer for Ecologists”,The Quarterly Review of Biology, vol. 83, no. 2, pp. 171-193, June, 2008. Congreso Nacional de Ingeniería CNIA2012 55


OPORTUNIDADES DE DESARROLLO SOCIO-AMBIENTAL Y ECONÓMICO DE LA AGROINDUSTRIA PESQUERA N. Perea, J. Rodríguez Departamento de Ingeniería, Grupo de Investigación en Eficiencia Energética y Energías Alternativas, Universidad Nacional de Colombia, Palmira Palabras claves: residuos pesqueros, alternativas de aprovechamiento, caracterización de residuos.

Problema La actividad pesquera en Buenaventura genera aproximadamente 2370 ton/año de residuos sólidos, los cuales presentan un gran potencial económico por su alto contenido nutricional [1]. Sin embargo, actualmente estos residuos son descartados por las industrias pesqueras que intervienen desde la captura hasta la comercialización, ocasionando problemas ambientales y económicos en el sector pesquero, afectando la población y el turismo de la región. Estos residuos pesqueros pueden ser valiosos recursos biológicos, ya que contiene una abundante oferta de valor de bio-materiales, tales como proteínas, lípidos, enzimas y quitina. No obstante, en Colombia la poca información y falta de investigación sobre la caracterización y cuantificación de estos residuos y las alternativas para su aprovechamiento, ha limitado la generación de nuevas oportunidades de valor agregado para el sector, que permitan la diversificación en la oferta de los sub-productos y a su vez impacte en el desarrollo socio-ambiental y económico de la región. Metodología El objetivo del estudio fue cuantificar y caracterizar los residuos generados por la agroindustria pesquera de Buenaventura, con el fin de proponer estrategias ambientales preventivas y reactivas, las cuales contribuyan a mejorar el rendimiento de los procesos, diversificar la oferta de productos pesqueros e impactar menos en el ambiente. El estudio se llevó a cabo en las empresas pesqueras ubicadas en Muro Yusti-Pueblo Nuevo, del municipio de Buenaventura, donde se encuentran 24 empresas pesqueras. La metodología comprendió 2 fases: La primera fase, consistió en determinar la cantidad de residuo generado por proceso y caracterizar estos residuos. En la segunda se estimó la cantidad de residuo pesquero generado en Buenaventura y se generaron propuestas para el aprovechamiento de estos. En la primera fase, se realizó el balance de masa, caracterización e inspección a 3 procesos pesqueros en 4 empresas, esto, a partir del seguimiento a sus procesos durante jornadas de 6 horas. Los residuos sólidos se caracterizaron químicamente, usando los métodos propuestos por la A.O.A.C, 1990 [2]. La segunda fase de cuantificación de los residuos, se realizó a partir de la extrapolación del recurso pesquero desembarco en Buenaventura, a partir, del porcentaje de residuos generados por proceso y del porcentaje de nutrientes presentes en estos residuos y posteriormente se generaron alternativas para su aprovechamiento. Resultados En Buenaventura, los principales procesos pesqueros están enfocados a la producción de filetes de pescado y comercialización del producto fresco de pesca blanca y crustáceos. El proceso que mayor residuo genera es el fileteado de pescado. En este, se consumen 5 m3 de agua/ton de pescado, los cuales son utilizados para lavar el producto durante el procesamiento, producción de hielo, limpieza y desinfección de las áreas de trabajo, equipos, herramientas y utensilios del proceso; siendo la limpieza y desinfección la que consume alrededor del 45% del consumo total. Este residuo, se logran disminuir con la implementación de estrategias ambientales preventivas. Para ello, se propone la implementación de pistolas de presión en las mangueras, aprovechando que la presión de estas reduce los tiempos de operación de lavado; e igualmente evita que por olvidos del operario las llaves Congreso Nacional de Ingeniería CNIA2012 56


permanezcan abiertas, y dado que, trabajan a medio caudal, se produce reducción del consumo de agua, lo cual se traduce en ahorros económicos. En las empresas pesqueras, se encontró que ya se han implementado algunas estrategias preventivas, entre estas la implementación de cortinas térmicas en la entrada de cuartos fríos y, sistemas de aseo para el personal al ingreso del área de producción, sin embargo, se diagnosticó que es necesario capacitar y entrenar el personal de planta sobre la importancia de estas medidas, para incrementar la eficiencia del proceso y mejorar la calidad del producto. No obstante, se encontró que los residuos sólidos no se logran disminuir antes ni durante el proceso. El proceso de fileteado genera 538,3 g. residuo/Kg. de pescado, el de acondicionamiento de pescado fresco y el de camarón, 108 y 283,4 g. residuo/Kg. de pescado, respectivamente. Con el objetivo de caracterizar estos residuos y evaluar su potencial de aprovechamiento, se realizó un análisis proximal (tabla 1), en el cual se encontraron altos contenidos de minerales (representado en el contenido de cenizas), con 35,68% ±14,07 y proteínas, con 36,08% ± 15,66. Tabla 1. Análisis proximal de los residuos de la agroindustria pesquera.

Materia Seca

Exoesqueleto Hueso camarón tití pescado 17,7 35,75

de Piel de Vísceras pescado pescado 29,6 27,9

de Promedio 27,7

Desviación Estándar 7,5

Ceniza

40,2

46,8

16,7

27,9

32,9

13,3

Proteína

39,5

37,2

11,6

54,9

35,8

17,9

Extracto etéreo

2,2

8,05

2,2

3,5

4,0

2,8

Carbohidratos

18

7,95

69,4

13,8

27,3

28,4

En Buenaventura se desembarcan aproximadamente 9995 ton/año de pesca blanca, las cuales son procesadas y comercializadas en fresco, congeladas o fileteadas. Todas las especies se pueden filetear, pero algunas se filetean más que otras, y de las especies fileteables, aproximadamente el 50% se filetea [3], lo que equivale a 2650 ton/año de especies desembarcadas fileteadas. En cuanto a los crustáceos, se desembarcan aproximadamente 1061 ton/año, siendo el camarón y el langostino los más representativos. De acuerdo a los datos anteriores, se estimó que en Buenaventura se generan por proceso de fileteado 1500 ton/año de residuos, por acondicionamiento de pescado fresco, 675 ton/año y del de crustáceos, 300 ton/año. Es decir, que en total las empresas procesadoras y comercializadoras de pescado generan alrededor de 2.366 ton/año de residuos sólidos, los cuales van a dar finalmente a una celda de transición, causando impactos sociales a la población aledaña a esta. Al relacionar la cantidad de residuo generado, con el análisis proximal de estos, se estimó que la cantidad de nutrientes disponibles en estos, equivalen a 255 ton/año, 79 ton/año y 500 ton/año de minerales, grasa y proteína, respectivamente. Frente a este potencial nutricional, se propone para el aprovechamiento de los residuos de pesca blanca, la implementación de procesos alternos para la generación de subproductos como proteínas (utilizadas en la producción de alimentos de consumo animal, principalmente harinas), biodiesel y minerales y, para el aprovechamiento de residuos de crustáceos, se proponen procesos alternos para la obtención de quitosano y otros subproductos como proteínas y minerales (Tabla 2).

Congreso Nacional de Ingeniería CNIA2012

57


Tabla 2. Esquemas de alternativas de aprovechamiento de residuos sólidos provenientes de las empresas pesqueras

Residuos sólidos pesca blanca

Recepción, adecuación y separación

PROTEÍNAS

MINERALES

GRASAS

Planta de concentrados

Proceso

Proceso

Harina

Ca, CaCO3 y P

Biodiesel

Residuos sólidos crustáceos

Limpieza Secado Molienda HARINA

PROTEÍNA S

Comercializar

Acondicionamiento y separación

Proceso

MINERALES

QUITOSAN O

Ca, P y CaCO3 Harina

Referencias [1] J. Rodríguez, J. I. Hleap, F. Estrada, J. C. Clavijo y N. Perea. Agroindustria Pesquera en el Pacífico colombiano: Gestión de residuos pecuarios en sistemas de Producción Más Limpia. 1ra edición. Palmira: Universidad Nacional de Colombia. 2011. 228 pp. 162-165. [2] AOAC. Official methods of analysis. 14th ed. Washington, DC: Association of Official Analytical Chemists. 1990. [3] J. Clavijo. Formulación de una estrategia de competitividad para la Cooperativa Multiactiva de Pescadores artesanales de Buenaventura. Trabajo de grado. Universidad Nacional de Colombia. Palmira, 2009.

Congreso Nacional de Ingeniería CNIA2012

58


DETERMINACIÓN EXPERIMENTAL DE LOS PARÁMETROS CRÍTICOS DE LA DINÁMICA Y TERMOCONDUCTIVIDAD DEL SUELO BOYACENSE M. P. Rojas1, O. A. Bellón2 1 Facultad de Ciencias e Ingeniería, Departamento de Física, Grupo GIMAC Universidad de Boyacá. Tunja 2 Facultad de Ciencias e Ingeniería, Programa de Ingeniería Mecatrónica, Grupo GIMAC Universidad de Boyacá. Tunja Palabras claves: Arduino UNO, cultivos, dinámica, gradiente térmico, heladas climáticas, parámetros críticos, suelo, termoconductividad.

Problema Las heladas climáticas, afectan el desarrollo y calidad de los productos agrícolas cultivados en el altiplano cundiboyacense. Existe una buena cantidad de técnicas para combatir los efectos adversos, desencadenados por este fenómeno climático. Empero, resulta difícil evaluar en profundidad, con cual de las diferentes técnicas, se obtiene el mejor desempeño en términos de costo económico y efectividad, porque son muchos los factores a tener en cuenta al analizar, entre otros:      

Parámetros del suelo Entorno atmosférico cercano, Velocidad del viento Variables climáticas Morfología Composición química del suelo

La determinación de la mejor estrategia para combatir las heladas climáticas en un cultivo en particular, requiere un conocimiento en detalle de la dinámica de la transferencia de calor del sistema físico que comprende un cultivo particular. Este trabajo investigativo, es una primera etapa, en la determinación del modelo dinámico de la transferencia térmica del suelo y entorno atmosférico adyacente. La búsqueda, del conjunto de ecuaciones diferenciales, que describen este proceso, es el fundamento para llegar a una descripción precisa del fenómeno y determinar un algoritmo computacional que se constituya en una herramienta de alta precisión en la selección de la mejor técnica -o combinación de ellas-, así como, en la posterior selección de la estrategia de control. Metodología Este proyecto es una investigación descriptiva-experimental, porque el objetivo del proyecto es: La descripción precisa del proceso del flujo de energía en forma de transferencia de calor, en un entorno limitado y definido a escala, que represente un terreno de cultivo y su ambiente superior cercano. Para ello, se hace un análisis a partir de las leyes físicas de la conservación de la masa y la energía y el principio de continuidad, con el propósito de obtener una ecuación dinámica que relacione cuantitativamente un conjunto de variables ambientales. Debido a las características propias del terreno, es necesario determinar parámetros particulares, que sólo mediante una serie de pruebas experimentales, será posible definir numéricamente. Con los valores numéricos de los parámetros, de un terreno particular, en combinación con las leyes físicas, que describen los procesos de transferencia térmica, para lograr así generar un modelo matemático para sustentar la simulación numérica.

Congreso Nacional de Ingeniería CNIA2012

59


Para tal fin se tomaron muestras de terreno de un lote de cultivo en el municipio de Tunja en contenedores adiabáticos cilíndricos de 100 cm de altura y 5 cm de diámetro transversal (Volumen de muestra = 1963.5 cm^3). garantizando que el contenido mantuviera las características de densidad y distribución morfológica. Se hizo la instalación de 10 transductores de temperatura, espaciados equidistantemente desde la superficie expuesta en contacto con una fuente calórica de potencia conocida y constante, hasta el extremo inferior del contenedor. La señal de cada transductor, fue procesada mediante la tarjeta de desarrollo Arduino UNO, en interfaz con el programa MATLAB, en el que se hizo el procesamiento y análisis de datos. Resultados La importancia de esta investigación es que los resultados obtenidos de temperatura, gradiente térmico y dinámica de la termoconductividad del suelo Boyacense, permitieron generar un modelo matemático el cual suministra una herramienta confiable para tomar decisiones en la selección e implementación de metodologías de protección y regulación térmica en cultivos afectados por las heladas. Se tendrá un ambiente de simulación para valorar con precisión los resultados de una estrategia de control de temperatura en particular y se podrá comparar con otras estrategias, reduciendo el costo que implica la aplicación de metodologías por prueba y error. De otra parte, no sólo se tiene utilidad por la evaluación del comportamiento al utilizar diversas metodologías, sino por el ahorro económico significativo que el productor o inversionista, puede encontrar al examinar diversas alternativas y contar con criterios bien fundamentados para tomar una decisión. Referencias [1] Calpouzos, L. 1969. Fungicides, Volume 2. Academic, Press Inc., New York. p. 367-393. [2] Chapman, P. J. 1967. Petroleum oils for the control of orchard pests. N.Y. Agr. Exp. Sta. Bui. No. 814. 1-22. [3] Dean, H. A., E. L. Wilson, V. C. Bailey, and L. A. Riehl. 1961. Fluorescent dye technique for studying distribution of spray oil deposit on citrus. J. Econ. Ent. 54:333-340. [4] Griffiths, A. E., and J. J. Janes. 1952. Advances in chemistry series. No. 7. American Chemical Society, Washington, D. C. p. 37-43. [5] Klingman, G. C. 1961. Weed control: As a science.J. Wiley & Sons, Inc. p. 208-219. [6] Neff, M. S., and B. G. Sitton. 1962. Progress in screening materials for delaying bloom of tung. Proc. Amer. Tung Oil. Assoc. 29: 22-23. [7] Raese, J. T. 1971. Prolonging dormancy of tung trees with spray oil and succinic acid 2,2dimethylhydrazide.Hort.Science 6:408-410.

Congreso Nacional de Ingeniería CNIA2012

60


PÓSTERS


ANÁLISIS DEL COMPORTAMIENTO AL DESGASTE POR DESLIZAMIENTO EN SECO DEL ACERO AISI-1020 EN ESTADO COMERCIAL EN LA CIUDAD DE IBAGUÉ E.M. López-Vanegas, E.A. Pérez-Ruiz, J.A. García Grupo de Investigación D+Tec, Universidad de Ibagué, Ibagué Palabras claves: Tribología, Desgaste, Pin on Disk, AISI 1020, Coeficiente de fricción.

Problema En la industria metalmecánica regional se encuentra que los aceros AISI-1020 y AISI-1045 son la alternativa comercial más común en aplicaciones estructurales. Esto sin considerar que no es totalmente conocido el comportamiento al desgaste por deslizamiento en seco de estos aceros. Además, académicamente, a través de la literatura son conocidos solo algunos parámetros del coeficiente de friccion (μ) de dichos materiales, sin embargo estos parámetros no corresponden al comportamiento de los aceros de la industria nacional.Por lo anterior, es importante preguntarse: ¿Es posible conocer el comportamiento al desgaste por deslizamiento en seco del acero AISI-1020 comercialmente utilizado en la ciudad de Ibagué? Metodología La metodología de trabajo se centrará en el desarrollo de IV etapas, las cuales son: 

       

Etapa I: Familiarización con el equipo tipo pin-on-disk. El equipo en el que se trabajo fue diseñado y construido con anterioridad para un trabajo de grado de Luís Fernando Lamprea, este tribometro se rigepor la norma ASTM-G99. Para los ensayos de desgaste en el equipo pin-on-disk se requiere un par tribologico que se encuentran en movimiento relativo provocando una trayectoria de deslizamiento de forma circular sobre el disco. La primera probeta es un pin con punta redonda o plana puesta perpendicularmente sobre la segunda muestra, la cual es un disco circular plano en posición horizontal. Etapa II: Instrumentación y calibración. Esta etapa consiste en el rediseño del sistema electrónico y de control, el cual fue desarrollado por medio de las siguientes funciones: Amplificación: se realiza cuando el nivel de salida de un sensor es demasiado bajo. De esta forma los posibles ruidos que se introduzcan en el circuito resultarán cuantitativamente menores. Filtrado: consiste en eliminar una cierta banda de frecuencias de la señal. Linealización: consiste en obtener una señal de salida que varíe linealmente con la variable que se desea medir. Conversión de señal: se requiere cuando es necesario convertir un tipo de variación eléctrica en otro. Se utilizo una tarjeta de Instrumentación NI-6008. Interfaz Grafica: Se utilizo el software LabView, es un lenguaje de programación de alto nivel, de tipo gráfico, y enfocado al uso en instrumentación. Etapa III: Desarrollo experimental. Principales Variables de los experimentos: Cargas 1kg, 2.5kg y 3.5kg, Velocidad 60, 180, 300rpm, Distancia de deslizamiento 1000m. La cantidad de pruebas fue determinada por el método experimental de matriz 3X3 con 3 replicas por cada combinación resultante. Etapa IV: Análisis de los resultados y confrontación con la literatura

Resultados Al comparar los resultados del coeficiente de fricción obtenidos en la experimentación con la literatura podemos encontrar que los valores coinciden (Ver Tabla 1.)

Congreso Nacional de Ingeniería CNIA2012

62


Tabla 1. Valores orientativos para coeficiente de fricción estática y de rozamiento por deslizamiento.

Al analizar los valores de las medias de las pruebas se puede visualizar que μ disminuye al aumentar la carga y mantener constante la velocidad (Figura 1). Así mismo, al analizar los valores de las medias de las pruebas se puede visualizar que al amentar la velocidad y mantener constante la carga disminuye el μ. (Figura 2)

Figura 1. Prueba 11, 3.5Kg, 300RPM, Media (μ): 0,594177115.Prueba 1, 2.5Kg, 300RPM, Media (μ): 0,628592657

Figura 2. Prueba 13, 3.5Kg, 180RPM, Media (μ): 0,699141843.Prueba 10, 3.5Kg, 300RPM, Media (μ): 0,600008213 Referencias   

RABINOWICZ, Ernest. Friction and Wear of Materials. 2 ed. New York USA.: John Wiley and Sons, 1965. ASTM G-99 “Standard Test Method for Wear Testing with a Pin-on-Disk Apparatus” I.M. HUTCHINGS, Tribology, friction and wear of engineering materials, Ed. Arnold, London, 1992

Congreso Nacional de Ingeniería CNIA2012

63


SIMULACIÓN (MEF) DEL DESLIZAMIENTO DE UNA PARTÍCULA SOBRE UNA SUPERFICIE DE INGENIERÍA - EFECTO DE LA FORMA E. Pérez R1, Luis O Tafur B1, R.M. Souza2 1 Departamento de Ingeniería Mecánica, Universidad de Ibagué, Colombia 2 Laboratorio de Fenómenos de Superficie, Universidad de São Paulo, Brasil Palabras claves: Simulación Numérica, Ensayo Rayado, Desgaste.

Problema En el diseño de maquinaria y elementos de máquinas, es necesaria la selección de materiales resistentes a condiciones de contacto y deslizamiento relativo (desgaste). Para esto, son realizados ensayos (indentación y rayado) que permiten analizar algunas propiedades de los materiales tales como dureza y tenacidad, así como estudiar y asociar el efecto de las anteriores en la resistencia a la falla (deformación, concentración de esfuerzos, falla del material) de los materiales. En el estudio de los fenómenos de contacto, debido a la extensión en el número de operaciones de cálculo, son utilizadas herramientas de simulación, como es el análisis por el método de los elementos finitos (MEF), los cuales permiten de forma confiable obtener mapas de esfuerzos y deformaciones en los materiales al someterlos a condiciones de contacto[1]. El objetivo de este estudio se centra en simular, vía elementos finitos, y analizar el comportamiento de los esfuerzos y la deformación plástica de un acero AISI 1045 con acabado superficial (Ra = 0,79), cuando está sometido a contacto con una partícula rígida con forma esférica y con forma cónica y a deslizamiento de 2,5 mm bajo carga de contacto incremental hasta 15N. Metodología Etapa I: Familiarización con los Elementos Finitos. Esta etapa de la investigación se centra en el manejo herramientas computacionales, más específicamente en el método de los elementos finitos, utilizando el software de simulación ABAQUS, el cual es licenciado por el laboratorio de fenómenos de superficies LFS, de la universidad de São Paulo. Etapa II: Análisis del Estado del Arte. En esta etapa apoyada en la revisión bibliográfica, se buscará entender el comportamiento mecánico de sistemas recubiertos y no recubiertos, además se podrá extraer la información necesaria para la identificación de las variables a utilizar en el desarrollo de un modelo de simulación. Etapa III: Desarrollo de mallas de simulación. En esta etapa se desarrollan mallas que permitan simular las condiciones del modelo generado. Además se utilizara un análisis de convergencia buscando la malla que genere los resultados más confiables. Etapa IV: Resultados y Discusión. En esta etapa serán analizados y discutidos los resultados obtenidos, así como comparados con los resultados encontrados en la literatura, publicados por grupos de investigación internacional Resultados La figura 1-2 son dos graficas de tendencia (media móvil = 70), que muestran unos resultados de manera mas clara y que pueden ser analizados de una forma más eficiente, ya que el comportamiento de los esfuerzos y deformaciones en una superficie rugosa fluctúan según el perfil de rugosidad del material, de esta forma se puede generar un mayor entendimiento en los resultados. Las figuras 1-3 presentan la relación de los resultados de la distribución de esfuerzos equivalentes (Von Mises), del deslizamiento de una partícula rígida; cónica y esférica, a lo largo de la superficie rugosa (Ra=0.79) y lisa, respectivamente, calculados en función de la distancia recorrida (mm) y siendo medidos desde el inicio del desplazamiento hasta el final del recorrido de la partícula rígida.

Congreso Nacional de Ingeniería CNIA2012

64


En la figura 1 se ve claramente como los esfuerzos de Von Mises, tanto de la simulación con el indentador cónico, como la del indentador esférico, se elevan a medida que el deslizamiento avanza y la carga aumenta, tendiendo a estabilizarse sobre un rango [4], este rango coincide con el esfuerzo ultimo del material (acero 1045) [5], esto muestra la gran posibilidad de falla del material. Los esfuerzos generados por la partícula esférica, tienden a estabilizarse un instante después que los esfuerzos de la partícula cónica, como se muestra en la Figura 1, así mismo ocurre en la Figura 2 donde los esfuerzos generados por la partícula cónica son mayores que los esfuerzos generados por la partícula esférica, esto es una clara evidencia de la influencia que tiene la forma de la partícula rígida.

Figura 5. Relación Esfuerzos Von Mises

Figura 3. Relación Esfuerzos Von Mises, S. liso

Figura 2. Relación de Deformación

Figura 4. Relación de Deformación S. liso

La Figura 2-4 presenta la relación de la distribución de deformación del sustrato tanto rugoso como liso respectivamente, en el deslizamiento de una partícula cónica y esférica. En las figuras, es claro ver como la deformación, generada por el deslizamiento de la partículacónica, es mayor que el generado por la partícula esférica, esta es una evidencia de la influencia de la forma del indentador. Al comparar los esfuerzos y deformaciones generados en el sustrato rugoso de la figura 1-2, con los esfuerzos y deformaciones generados en el sustrato liso de la figura 3-4, es evidente que la rugosidad en el sustrato, produce mayor concentración de esfuerzos generando una mayor deformación y muchísima más probabilidad de falla del material. Referencias [1] J.L. Bucaille, E. Felder, G. Hochstetter "Mechanical analysis of the scratch test on elastic and perfectly plastic materials with the three-dimensional finite element modeling," wear, vol 249, pp. 422–432, 2001 [2] M. Tkaya, H. Zahouani, S. Mezlini. "The effect of damage in the numerical simulation of a scratch test," wear, vol 263, pp. 1533–1539, 2007 [3] D. Tabor, "The hardness of solids", Proceedings of the Institute of Physics F, Physics in Technology vol 1, pp. 145–179, 1970 [4] K. Holmberg, A. Laukkanen, H Ronkainen, K. Wallin, "Tribologicalcontact analysis of a rigidballsliding on a hardcoatedsurfacePart I: Modellingstresses and strains," Surface&Coatings Technology, vol 200, pp. 3793– 3809, 2006 Congreso Nacional de Ingeniería CNIA2012

65


MODELO DE SIMULACIÓN (MEF) DEL FENOMENO DE DESGASTE EN ACERO 1045 E.A. Pérez R., G. Muñoz T., R.M. Souza Departamento de Ingeniería Mecánica, Universidad de Ibagué, Colombia 2 Laboratorio de Fenómenos de Superficie, Universidad de São Paulo, Brasil 1

Resumen Para la evaluación del desgaste presente en los materiales, es necesario considerar la aplicación de cargas normales y tangenciales a la superficie del cuerpo en estudio, logrando de esta forma reproducir el fenómeno, el cual se fundamenta en el contacto y movimiento relativo de los cuerpos. Para la evaluación del desgaste es comúnmente utilizado el ensayo de rayado, en donde se desarrollan campos de esfuerzos y deformaciones, los cuales son la causa de falla. Para el presente estudio de los esfuerzos y las deformaciones generados en el acero 1045, es desarrollado un modelo de simulación utilizando (MEF). Problema La mayoría de los procesos en la industria y los elementos de maquina experimentan contacto y movimiento relativo entre ellos, esto lleva a que las superficies estén sometidas constantemente a condiciones de fricción y posible pérdida de material (desgaste) lo que posteriormente conduce a daños o detrimento del elemento. Objetivos Objetivo General. Desarrollar un modelo de simulación numérica utilizando el método de los elementos finitos, que permita reproducir el comportamiento de los esfuerzos y la deformación de un material sometido a contacto y deslizamiento con una partícula rígida. Objetivos específicos   

Analizar e identificar las variables de estudio a considerar en el modelo, teniendo en cuenta resultados de estudios de autores identificados en la revisión bibliográfica. Diseñar mallas de simulación, haciendo énfasis en el tipo de elemento, número de elementos, refinamientos y análisis de convergencia. Análisis del comportamiento de los esfuerzos y la deformación del material sometido a contacto y deslizamiento.

Metodología Etapa I: Familiarización con los Elementos Finitos.

Etapa II: Análisis de variables a considerar.

Congreso Nacional de Ingeniería CNIA2012

66


Etapa III: Obtención y ensamble de la geometría.

Etapa IV: Restricciones del modelo. Etapa V: Diseño de mallas de simulación.

Etapa VI: Resultados y Discusión Conclusiones Se creó un modelo (MEF) que permite reproducir el fenómeno de desgaste en superficies metálicas con una malla de 124.824 elemento y teniendo en cuenta diferentes parámetros que ayudan a la obtención de resultados confiables. Se concluye que el esfuerzo último del material (673Mpa) es alcanzado y sobrepasado después de una longitud de deslizamiento aproximadamente de 1.5mm, lo que puede dar idea de la formación de surcos, aparición de grietas y desgaste. Se puede concluir que a medida que la partícula desliza sobre la superficie la penetración se hace mayor, lo que lleva a pensar que la remoción de material es cada vez más alta (característica del fenómeno abrasivo). Referencias [1] K. Holmberg, A. Laukkanen, H Ronkainen, K. Wallin, "Tribological contact analysis of a rigid ball sliding on a hard coated surface Part I: Modelling stresses and strains," Surface & Coatings Technology, vol 200, pp. 3793–3809, 2006. [2] S. Hogmark, S. Jacobson, M. Larsson “Design and evaluation of tribological coatings” wear, vol 246, pp. 20- 33, 2000. [3] D. Tabor, "The hardness of solids", Proceedings of the Institute of Physics F, Physics in Technology vol 1, pp. 145–179, 1970.

Congreso Nacional de Ingeniería CNIA2012

67


SIMULACIÓN DEL EFECTO DE LA FRICCIÓN EN EL DESLIZAMIENTO DE UNA PARTÍCULA E.A Pérez R1, C.A Parra1, R.M. Souza2 1 Departamento de Ingeniería Mecánica, Universidad de Ibagué, Colombia 2 Laboratorio de Fenómenos de Superficie, Universidad de São Paulo, Brasil Resumen El objetivo de esta investigación es simular y analizar el comportamiento mecánico, como consecuencia del contacto de una superficie metálica con una partícula rígida sometida a carga normal y deslizamiento. Para esto, se realizan simulaciones (FEM), considerando una partícula esférica con diámetro 1.59mm deslizando sobre un sistema compuesto por un sustrato de acero AISI-1045. Los resultados permiten observar la influencia del coeficiente de fricción (0.3-0.5), en el comportamiento de los esfuerzos de contacto, así como analizar la relación inversa dada entre el coeficiente de fricción y los esfuerzos superficiales Problema El desgaste es el proceso de remoción de material debido al movimiento relativo de dos superficies, En dicho proceso, el material puede ser removido de la superficie y expulsado fuera de la región de contacto. También puede ser transferido a la otra superficie y quedarse adherido a ella o romperse y generar restos que pueden quedar, en parte, atrapados en el contacto. Objetivos Objetivo General. Analizar la influencia del coeficiente de fricción de (0.3-0.5) y las condiciones de contacto y deslizamiento, sobre los esfuerzos y deformación plástica de un material sin recubrimiento. Objetivos específicos   

Desarrollar un modelo de simulación para el contacto y deslizamiento de un cuerpo rígido con diferentes coeficientes de fricción, sobre un sustrato liso. Desarrollar mallas de simulación en 2D, para el contacto entre una partícula-substrato. Analizar el comportamiento de los esfuerzos y deformación del sustrato, considerando diferentes coeficientes de fricción sobre una superficie lisa

Metodología Etapa I: Familiarización con los Elementos Finitos.

Etapa II: Análisis del Estado del Arte

Etapa III: Desarrollo de mallas de Congreso Nacional de Ingeniería CNIA2012

68


simulación

Etapa IV: Resultados y Discusión En esta etapa serán analizados y discutidos los resultados obtenidos, así como comparados con los resultados encontrados en la literatura, publicados por grupos de investigación internacional Resultados

Conclusiones Al observar los resultados obtenidos mediante el deslizamiento de una partícula esférica sobre un sustrato liso se presenta que en diferentes puntos del recorrido hay mayores tensiones o esfuerzos los cuales son ocasionados por el material acumulado, el cual, presenta un aplastamiento y compresión debajo del indentador. Se observar que el comportamiento generado por la influencia de la fricción varia acorde al avance generado ocasionando al parecer el fenómeno stick-slip debido al patrón del comportamiento de los esfuerzos. Al haber analizado la influencia de la fricción en el comportamiento de la deformación plástica equivalente se observa que aumenta a medida que la carga se incrementa sin ser constante e incrementar de forma oscilatoria presuponiéndose que puede ocurrir por el fenómeno de stick-slip. Bibliografía [1].Caracterización de las propiedades tribológicas de los recubrimientos duros, Maryory Astrid Gomez Botero, Memoria presentada para optar el grado de doctora Barcelona, Diciembre de 2005,Marti i Franques,1,08028 Barcelona. [2].Análisis de simulación de esfuerzos y deformación plástica durante el contacto y deslizamiento de dos cuerpos., IVAN NEGRIN HERNANDEZ, EDUARDO A. PÉREZ RUIZ, Scientia et Technica Año XIV, No 39, Septiembre de 2008. Universidad Tecnológica de Pereira. ISSN 0122-1701]. [3]. Anantha Ram, B.S,Danckert, J., Faurholdt T., Finite element analysis of stress due to normal and sling contac conditions on an elastic surface, 4th European LS-DYNA Users Conference (2003). Congreso Nacional de Ingeniería CNIA2012

69


IMPLEMENTACION DIGITAL DE BAJO COSTO DEL SISTEMA DE CONTROL DE UN RECTIFICADOR CON CORRECCIÓN DE FACTOR DE POTENCIA J.M. Barrero, O. López-Santos Grupo de Investigación D+TEC, Universidad de Ibagué, Ibagué-Colombia Palabras claves: THD-R, Boost. Problema En la actualidad una de las preocupaciones más grandes en la ingeniería involucrada en el suministro eléctrico es la calidad de la energía. Diversas estandarizaciones actuales aplicadas en el mundo demandan que los dispositivos electrónicos sean desarrollados para extraer de manera más adecuada la potencia del sistema eléctrico, lo que implica un elevado factor de potencia y un bajo contenido armónico en la corriente. El problema de control asociado al desarrollo de rectificadores que permitan cumplir con estas exigencias es complejo debido a la referencia variante en el tiempo en el lazo de corriente y la necesidad de regulación en la tensión de salida. El semillero de investigación SICEP del grupo D+TEC de la Universidad de Ibagué ha desarrollado un prototipo del rectificador monofásico de topología Boost con control digital basado en DSPIC, sobre el cual se han realizado pruebas de control lineal y no lineal. En el presente trabajo, se busca plantear un nuevo esquema de control que permita mejorar el rendimiento del sistema y así mismo profundizar en las limitaciones físicas que impone la implementación digital como el limitado set de instrucciones y los tiempos de ejecución, además la implementación además el nuevo prototipo debe ser de bajo costo. Metodología Se realizara una búsqueda bibliográfica sobre las diferentes técnicas de control comúnmente utilizadas en este tipo de topología [2] y se analizara su rendimiento, se llevaran a cabo experimentaciones para obtener información del funcionamiento preliminar del dispositivo [1] con el fin de identificar posibles fallas que puedan alterar su comportamiento, de esta forma se realizaran modificaciones en los circuitos eléctricos para mejorar su rendimiento e inmunidad al ruido, se desarrollara un algoritmo que permita aprovechar en mayor medida los tiempos de ejecución y finalmente se realizara una comparación con los nuevos resultados obtenidos. Avances Se planteo un algoritmo que permite sincronizar la señal de referencia con el cruce por cero de la red eléctrica [3], se redujo el tiempo de procesamiento del lazo de corriente con la generación interna de la señal de referencia lo que conllevo a la reducción de la distorsión armónica de un 7.7% a un 3.3% [figura 1], se implemento un control en modo deslizante con tiempos de muestreo de 6.2us, lo que favoreció también la reducción del THD.

Congreso Nacional de Ingeniería CNIA2012

70


Figura 1. Referencia análoga digital

Figura 2. Referencia digital

Referencias [1] H.F.Murcia.“Rectificación Electrónica Del Factor De Potencia”, Trabajo de pregrado, Programa De Ingeniera Electrónica, Universidad De Ibagué, 2011. [2] L. Rossetto, G. Spiazzi, “Control Techniques for Power Factor Correction Converters”.P. Tenti, Department of Electrical Engineering, University of Padova,2000. [3] Miranda, U.A,, “A DQ Synchronous Reference Frame Current Control for Single-Phase Converters”, Power Electronics Specialists Conference, 2005. PESC '05. IEEE 36th.

Congreso Nacional de Ingeniería CNIA2012

71


ESTUDIO DE CONVERTIDORES ELECTRÓNICOS PARA LA CONEXIÓN DE SISTEMAS FOTOVOLTAICOS DE GENERACIÓN DISTRIBUIDA T. Sierra, O. López-Santos Grupo de Investigación D+TEC, Universidad de Ibagué, Ibagué-Colombia Problema El mundo actual siendo azotado por los cambios climáticos generados por la posesión de los recursos mundiales, degenerando así la sociedad y de esa misma manera el medio ambiente, se ve en la obligación de generar nuevas ideas, nuevas propuestas en cuanto a producción de energía se refiere. Sabemos que no dejaremos de consumir energía, mas sí podemos hacer que esta sea renovable y en esa medida amigable con el medio ambiente. El proyecto a continuación descrito pretende no solo desarrollar una idea para ser leída, sino para ser implementada a nivel local (Ibagué, Tolima), nacional y/o mundial. Para el desarrollo practico la universidad de Ibagué, propone un sistema de energía solar para alimentar y dar sostenimiento a la planta educativa, posiblemente no en su totalidad, pero si se proyecta a conectar una gran parte de esta, incluyendo las áreas de laboratorios de potencia y demás. Metodología La forma en la que se llevara a cabo el proceso metodológico se podría definir a razón de cómo se va entendiendo mejor la finalidad de este, así como se van conociendo nuevas ramas a las que se va a atacar y no solo a atacar sino a colaborar. Se quiere controlar un convertidor BOOST de segundo orden con un solo interruptor (menores perdidas), usando control programado con corriente. Se censa la corriente de conmutación para propósitos de re alimentación, de esta manera las dinámicas de cuarto orden en el convertidor pasan a ser de primer de orden, lo que simplifica sustancialmente el diseño del controlador del lazo externo. Estos convertidores se pueden configurar en cascada para obtener mayores niveles de potencia pero en cuanto más alta sea esta, más pérdidas habrá. El lazo de corriente se implementa cuando el interruptor de corriente es realimentado y amplificado usando una ganancia N, la resultante es inyectada al modulador. El lazo de voltaje en la salida tiene un divisor de voltaje y el controlador, de esta manera la señal de referencia y la señal de salida son comparadas en el controlador teniendo así el error. Lo más importante de estos nuevos convertidores es que solo necesitan de un transistor de conmutación para su funcionamiento. Por lo anterior se dice que respecto de pérdidas de potencia es mejor tener un convertidor simple, entonces estos convertidores cuadráticos se usan en casos específicos y completamente necesarios. Se están encontrando nuevos materiales para tener convertidores con mayor numero de etapas para los dispositivos de conmutación como Sic SBD‟s (diodos shotckey de barrera fabricados con carburo de silicio), estos son diodos de recuperación ultra rápida. Resultados Esperados El trabajo desarrollado en el proceso servirá como soporte para las empresas que empiezan en Latinoamérica a trabajar con energía solar, así mismo con otro tipo de energías. La finalidad es servir como soporte para nuevos descubrimientos y así seguir en la labor de difundir y reconocer este tipo de investigaciones. Por estos tiempos la energía solar y demás renovables/alternativas han dado de que hablar y ahora se ve una mayor preocupación tanto de los usuarios como de los proveedores o creadores de nuevas tecnológicas que guíen el reconocimiento e implantación de esta innovadora posibilidad de trabajo que además ayuda al medio ambiente. Bibliografía [1] K. K. Tse, Billy M. T. Ho, Henry Shu-Hung Chung, and S. Y. Ron Hui, IEEE. “A Comparative Study of Maximum-Power-Point Trackers for Photovoltaic Panels Using Switching-Frequency Modulation Scheme” [2] J.A. Morales-Saldan, R. Galarza-Quirino, J. Leyva-Ramos, E.E. Carbajal-Gutierrez and M.G. Ortiz-Lopez. “Multiloop controller design for a quadratic boost converter”

Congreso Nacional de Ingeniería CNIA2012

72


CONTROL DE CORRIENTE EN UN RECTIFICADOR PFCUSANDO UNSISTEMA DE REFERENCIA SÍNCRONO H.F. Murcia, O. Lopez-Santos, J.M. Barrero Grupo de Investigación D+TEC, Universidad de Ibagué, Ibagué, Colombia Palabras claves: Distorsión armónica, convertidor elevador, corrección de factor de potencia.

Problema Gran parte de las fuentes de energía de corriente directa están compuestas por un rectificador de puente completo monofásico convencional y una o más etapas de filtrado. Éste tipo de circuitos presentan significativos niveles de corriente en ciertas fracciones de tiempo y ausencia de consumo en otras, presentando un factor de cresta elevado y en consecuencia altos niveles de distorsión armónica. Esta distorsión armónica introduce además deterioro en el factor de potencia, provocando una reducción en la eficiencia y la capacidad disponible en las líneas de transmisión de energía eléctrica.

Figura 1. Topología boost PFC. Fuente: Autor

Dentro de las técnicas de rectificadores electrónicos con corrección de factor de potencia (PFC) se destaca el convertidor elevador (Boost)[1], [2], [3],con una respuesta fuertemente influenciada por las características del control aplicado sobre el convertidor. El sistema de control implementado propone un control en cascada en el que el lazo interno de control garantiza que la corriente de entrada tenga la misma forma de onda que la del voltaje de entrada. El lazo externo de control define la amplitud de la corriente de entrada y estabiliza el voltaje de salida en 48 VDC. La Figura 1 ilustra la topología del sistema de control empleada:

a)

b)

Figura 2. Esquema de control implementado para el convertidor boost PFC: a) referencia proporcional al voltaje de entrada, b) referencia síncrona. Fuente: Autor

El problema de este estudio, consiste en el desarrollo de un prototipo experimental de rectificador de topología boost (Figura 1) PFC que cumpla con los estándares IEEE519 e IEC 61000-3-2 para los niveles de Congreso Nacional de Ingeniería CNIA2012

73


contaminación armónica producidos por equipamiento electrónico. Este estudio permite ademásevaluar el desempeño final contrastando dos métodos de control para el seguimiento en corriente. Metodología El presente proyecto de investigación es de tipo experimental en la ingeniería electrónica, asociando: el índice de distorsión armónica (THD), el factor de potencia (PF), el factor de desplazamiento, la corriente y el voltaje de entrada entre otras como variables de medición. Agrupa áreas de la ingeniería: instrumentación, control, electrónica de potencia, electrónica industrial y electrónica digital con el propósito de contribuir en el mejoramiento de la eficiencia de sistemas electrónicos de potencia a partir de la evaluación del desempeño del convertidor en topología boost, sistemas de referencia para el control de corriente. El alcance de los objetivos contempló una secuencia metodológica que implicó: plantear el problema, definir los alcances y objetivos, establecer el estado del arte, proponer alternativas de solución, seleccionar la alternativa de solución más adecuada, diseñar, simular e implementar un prototipo de prueba, evaluar su desempeño usando como herramienta de análisis la comparación y finalmente formular nuevas aplicaciones. Con base en los resultados obtenidos se pretende dentro del semillero de investigación SICEP, replantear el problema y los propósitos de manera que se genere un ciclo que permita un continuo mejoramiento y progreso de estas ramas de la ingeniería. Resultados A continuación se presentan los resultados experimentales medidos sobre el prototipo implementado del rectificador activo del factor de potencia en topología boost empleando el osciloscopio AGILENT 54622D.

a)

b)

Figura 3. Señales medidas en el prototipocon control de corriente ON - OFF: a) señal de referencia proporcional a la tensión de entrada, b) señal de referencia síncrona. Tabla 1. Resultados experimentales de factor de potencia y distorsión armónica Método de generación de referencia Proporcional a la tensión de entrada

PF 1.00

DPF 1.00

THD 7.7%

Referencia sinusoidal sincronizada con la red

1.00

1.00

3.3%

A partir de la las señales ilustradas en la Figura 3 y los datos mostrados en la Tabla I, puede evidenciarse que aunque en el método de referencia proporcional al voltaje de entrada, la carga es percibida como una resistencia incluso para el contenido armónico.Por el contrario en el caso en que se aplica sistema de referencia síncronoa pesar de que el contenido armónico de la corriente difiere del contenido armónico del voltaje el índice de distorsión armónica es menor. Referencias W. Erickson, “Fundamentals of power electronics”, KLUWER ACADEMIC PUBLISHERS, 2004. H. Akagi, E. Watamable, M. Aredes, “Instantaneous power theory to power conditioning”, IEEE press, 2007. M. Chen, A. Mathew, J. Sun, “Nonlinear Current Control of Single-Phase PFC Converters”, IEEE Transactions on power electronics, vol. 22, no. 6, Nov. 2007. Congreso Nacional de Ingeniería CNIA2012

74


DETERMINACIÓN DE LOS ÍNDICES DE MADURACIÓN DEL BANANO USANDO PROCESAMIENTO DIGITAL DE IMÁGENES O. Barrero-Mendoza1, C. Herrán2 1 Investigador Universidad de Ibagué. 2 Estudiante de Maestría en Ingeniería de Control Industrial. Resumen El uso del procesamiento digital de imágenes (PDI) en el campo de la agricultura específicamente en el manejo poscosecha es muy importante, ya que después de cosechada la fruta, se acelera la respiración y por tanto su degradación físico-química causando pérdidas en el almacenamiento y en la distribución al consumidor final; la colorimetría basada en el PDI es un técnica eficiente, no destructiva que permite analizar el color de una muestra y obtener datos de su proceso de maduración y de las características relevantes a controlar para su preservación en las cámaras de atmosferas controladas. Problema Colombia como uno de los cinco principales países productores y exportadores de banano en el mundo produce más de 1.9 millones de toneladas al año; de la cual se pierde gran cantidad en pos-cosecha. Uno de los aspectos más importantes del almacenado en poscosecha es la determinación del estado de maduración y de las variables físico-química afectadas de forma rápida y no destructiva. Como solución se plantea desarrollar un colorímetro digital usando Image Processing Toolbox™ de Matlab que permita obtener y analizar el estado de maduración del banano y relacionándolo con sus características fisicoquímicas (pH, %acidez, contenido de sólidos solubles) para ser usado en cámaras de atmósfera controladas con el fin de mejorar el desempeño de sus sistemas de control automático.

Figura 1. Representación gráfica de los componentes principales de un colorímetro digital (adaptado de Agronomía Costarricense 2009). Objetivos Objetivo General. Usar procesamiento digital de imágenes (PDI) para mejorar las condiciones y prolongar el tiempo de almacenamiento del banano en cámaras de atmósfera controlada. Objetivos específicos Desarrollar software y hardware que permita hacer monitoreo del proceso de maduración del banano en línea. Validar el desempeño del dispositivo de medición de maduración del banano usando procesamiento digital de imágenes, en cámaras de atmósfera controlada. Metodología El procesamiento digital de imágenes se realiza usualmente utilizando un método de reconocimiento de patrones, cuyos pasos se ilustran en la Figura 2. Congreso Nacional de Ingeniería CNIA2012

75


Figura 2. Método de recopilación de información usando procesamiento digital de imágenes. Formación de la imagen, preprocesamiento, segmentación, umbralización extracción de características correlación de la información recabada para determinar las características fisicoquímicas (pH, %acidez, contenido de sólidos solubles).

Resultados Esperados Generación de conocimiento y/o nuevos desarrollos tecnológicos. Desarrollo del colorímetro digital usando Image Processing Toolbox™ de Matlab. Validar el desempeño del dispositivo de medición de maduración del banano usando procesamiento digital de imágenes, en cámaras de atmósfera controlada. Referencias Agronomía Costarricense 33(2): 283-301. ISSN:0377-9424 / 2009 http://www.mathworks.com/products/image/ Abdullah, M.Z.; Guan, L.C.; Lim, K.C. & Karim, A.A. (2004). The applications of computer vision and tomographic radar imaging for assessing physical properties of food. Journal of Food Engineering 61: 125-135.

Congreso Nacional de Ingeniería CNIA2012

76


DESARROLLO DE UN SISTEMA DE MEDICIÓN DE MADURACIÓN DE FRUTAS BASADAS EN ESPECTROMETRÍA DE INFRARROJO CERCANO O. Barrero-Mendoza1, C. Herrán2 1 Investigador Universidad de Ibagué. 2 Estudiante de Maestría en Ingeniería de Control Industrial Resumen La investigación de alternativas eficientes para el mejoramiento del manejo poscosecha es muy importante, ya que después de cosechada la fruta, se acelera la respiración y por tanto su degradación físico-química con cambios de color, acidez y concentración interna de azúcares; a nivel de laboratorio se utilizan técnicas destructivas para el análisis de estas variables. La espectrometría de infrarrojo cercano (NIR) es una técnica rápida, no destructiva ni contaminante de gran precisión, empleada como alternativa a los métodos químicos tradicionales, la cual se basa en la emisión de rayos de luz a longitudes de ondas definidas sobre las muestras. Problema El manejo poscosecha de frutas presenta serios inconvenientes en el almacenamiento y transporte, lo que conlleva a grandes pérdidas y disminución de la calidad del producto. Una de las tecnologías más usadas actualmente son las cámaras de atmósfera controlada (Nahor, 2005), las cuales permiten almacenar productos perecederos por largos periodos de tiempo, controlando sus propiedades fisicoquímicas y organolépticas; debido a esto, se propone en esta investigación diseñar un instrumento que permita medir la maduración de frutas, basado en espectrometría de infrarrojo cercano para ser usado en cámaras de atmósfera controladas con el fin de mejorar el desempeño de sus sistemas de control automático.

Figura 1. Representación gráfica de los componentes principales de un espectrómetro de infrarrojo (adaptado de Stuart, B. 2004). Objetivos Objetivo General. Usar espectrometría de infrarrojo cercano (NIR) para mejorar las condiciones y prolongar el tiempo de almacenamiento de frutas en cámaras de atmósfera controlada. Objetivos específicos Desarrollar software y hardware que permita hacer monitoreo del proceso de maduración de la fruta en línea. Validar el desempeño del dispositivo de monitoreo, por espectrometría de infrarrojo cercana, en cámaras de atmósfera controlada. Metodología La tecnología NIRS se basa en la emisión de un haz de luz sobre la muestra a analizar, la cual en función de su composición, o mejor aún, de la naturaleza de los enlaces presentes en sus moléculas, fundamentalmente de aquellos de tipo –CH, –NH y –OH, interaccionará con ellos absorbiendo una determinada cantidad de radiación electromagnética en el rango del infrarrojo cercano, de 780 a 2500 nm (Shenk et al., 2001). Congreso Nacional de Ingeniería CNIA2012

77


Figura 2. Formas de análisis NIR de los productos agroalimentarios (adaptado de Kawano, 2004). Para extraer la información química relevante de cada muestra es necesario emitir un haz de luz infrarrojo en un rango especifico de longitud de onda a través de la muestra y detectar la información según el método de recepción implementada (ver Figura 2) para luego ser interpretada por el software. Resultados Esperados Generación de conocimiento y/o nuevos desarrollos tecnológicos. Desarrollo del sensor para medición de la madurez en frutas basado en espectrometría de infrarrojo cercano (NIR). Validar el desempeño del dispositivo de monitoreo, por espectrometría de infrarrojo cercano (NIR), en cámaras de atmósfera controlada. Bibliografía Bhande, S. R. (2008). Respiration rate of banana fruit under aerobic conditions at different storage temperatures. Journal of Food Engineering , 116–123. Fonseca, S. O. (2002). Modelling respiration rate of fresh fruits and vegetables for modified atmosphere packages: a review. Journal of Food Engineering , 99–119. Ozaki, Y. M. (2007). Sampling techniques.In Near- Infrared Spectroscopy in Food Science and Trchnology. New Jersey: Wiley-Interscience.

Congreso Nacional de Ingeniería CNIA2012

78


CHARACTERISATION OF RICE BRAN FROM THE TOLIMA REGION IN COLOMBIA M. Hernandez-Sarabia1 D. Rojas1, B. De Meulenaer2 1 Programa de Automatización Industrial, Grupo de Investigación GMAE, Universidad de Ibagué 2 Department of Food Quality and Food Safety, Faculty of Bioscience Engineering, Ghent University, Belgium. Problem Rice is a staple food for more than half of humanity and every continent on the planet produces rice except Antarctica (Amissah et al, 2003), and it is also the third main commodity consumed in Colombia. Rice Bran (RB) is a by-product of rice milling factories and is underutilized. Actually in main rice producing region of Colombia, Tolima, a large proportion of RB is used as animal feed, wasting its excellent quality and nutritional value. It is essential to establish the chemical and nutritional variations in order to analyze the industrial potential of the rice bran in Tolima region in Colombia. Objetivs. Evaluated varietal differences and its effects on the quality parameters on RB and RBO from main 4 rice varieties cultivated from Tolima region in Colombia. Methods The analysis of rice bran composition was carried out for the four varieties, the two milling fractions comparison, and on the samples from the eight batches of F50 variety. The parameters measured were: protein, fat content, moisture, ash, total fibre, amino acids on one sample of rice bran in triplicate. In three oil extractions fatty acid profile, tocopherols, tocotrienols, and g-oryzanol were analyzed. The moisture, crude fat, crude protein and ash contents were determined based on the official methods of analysis of the AOAC (AOAC, 1990) in triplicate. Carbohydrate content was determined by difference. The conversion factor used for protein determination was 6.25. Total dietary fibre composition was obtained by a combination of enzymatic and gravimetric methods (Asp et al., 1983; AOAC, 1984). All reagents were obtained from BIOQUANT -Merck (Germany). The analysis was carried out using two samples of rice bran previously defatted and dried at room temperature, in order to correct the fibre content from protein and ash interference. Each sample and blank (same procedure without sample) was done in triplicate. The amino acids were analyzed using the method described by Kerkaert et al. (2010). All the amino acids except tryptophan were analyzed by HPLC after acid hydrolysis. In the acid hydrolyzed samples, all amino acids except proline were analyzed after pre-column ophtalaldehyde (OPA) derivatisation, while proline was analyzed after 9-fluorenylmethyl chloroformate (FMOC) derivatisation. Tryptophan was analyzed after basic hydrolysis by pre-column OPA derivatisation on HPLC. The HPLC analysis was done on 1100 Agilent HPLC equipped with a zorbax eclipse-AAA column. Oryzanol content was determined in a Varian Cary 50 series spectrophotometer according to the method described by Seetharamaiah and Prabhakar (1986). Standard was obtained from Tokyo Chemical Industry Co., Ltd. (Japan). The standard was used to create the calibration curve in the range 0-0.1 mg/ml. Results Parameter (g/100g DM) Moisture Protein Ash Fat Total fibre Carbohydrate

Varieties F60 10.65 ± 0.13 13.60 ± 0.06 12.08 ± 0.06 21.09 ± 0.66 25.96 ± 0.95 16.62

C304 11.04 ± 0.09 15.29 ± 0.10 12.26 ± 0.13 23.44 ± 0.47 24.74 ± 1.15 13.22

F50 12.50 ± 0.22 14.62 ± 0.21 12.58 ± 0.01 21.28 ± 0.50 29.94 ± 0.79 9.07

RBM 11.48 ± 0.48 15.08 ± 0.12 9.47 ± 0.06 22.15 ± 0.55 20.98 ± 0.54 20.8

Bibliografía  

AOAC (1984). Association of Official Analytical Chemists. Official Methods of Analysis. 1984. 14th Edition, washington, D. C. AOAC (1990). Association of Official Analytical Chemists. Official Methods of Analysis. 1990. 15th Edition, Washington, D. C.

Congreso Nacional de Ingeniería CNIA2012

79


PROGRAMACIÓN DE LA PRODUCCIÓN PARA LA PLANTA DE ACABADOS DE FABRICATO FIBRATOLIMA A PARTIR DE LA HEURÍSTICA CBM L.F Lozada-Valencia, E. Otalora-Murcia Grupo de Investigación Ginnova, Universidad de Ibagué, Ibagué – Tolima Palabras claves: Job Shop, Métodos Heurísticos, Programación de la Producción

Problema El principal problema a atacar en la planta de Acabados de la empresa Fabricato – Fibratolima, se orienta a la inadecuada programación de la producción con la que actualmente cuenta la compañía, afectando de manera directa el cumplimiento a las fechas de entrega pactadas con clientes potenciales, además de generar altos niveles de inventarios de producto en proceso y de producto terminado. El análisis de la información recolectada permite desglosar el problema anteriormente expuesto en unos puntos principales como lo son en primera medida, lo concerniente al proceso de producción normal de la tela, esto debido básicamente a la cantidad de referencias manejadas en la compañía, las cuales a pesar de clasificarse en líneas de producción ya estandarizadas con la mínima variación en el tejido al igual que las materias primas usadas para el mismo, hace que el proceso deba estimar un gran número de variables, entre las más sobresalientes están el color de la tela relacionado con los pases por teñido y fijado de las mismas, las velocidades de producción determinado por el peso y característica del telar, las mermas y perdidas normales referentes a cada línea de producción, entre otras; volviendo complejo el proceso tanto en la parte operativa de transformación de materias, como en la parte de programación de pedidos, ya que no se cuenta con una herramienta para efectuar esta actividad. Finalmente, el mayor problema es la limitada capacidad instalada con la que cuenta la empresa haciendo que el ciclo de producción se vea atascado por sus máquinas cuello botella localizadas principalmente en el área de teñido. Mediante la consolidación de las ideas anteriormente expuestas se hace evidente que para la compañía Fabricato – Fibratolima es indispensable dar solución a dos grandes problemas que son el retraso en el proceso de producción lo que genera a su vez el incumplimiento de entrega de pedidos y los altos niveles de telas enviadas a reproceso. Estos dos problemas están directamente relacionados y generan la siguiente pregunta de investigación: ¿Cómo la aplicación de la heurística “El cuello de botella móvil (CBM) o shiftingbottleneck”, contribuye a la mejora en la programación de la producción para la planta de Acabados de Fabricato – Fibratolima? Metodología El presente estudio obedece a cuatro etapas específicas: En la primera etapa se caracterizara el proceso productivo de la planta de acabados de Fabricato - Fibratolima, a partir de entrevistas a los distintos actores que intervienen en los procesos de producción, visitas a la planta y la búsqueda de documentación existente, con miras a determinar las variables de proceso más sobresalientes, líneas de producto de mayor importancia, problemas neurálgicos, con lo que se busca generen una idea global del tema a trabajar. En la segunda etapa, a partir de la información obtenida, se realizara la búsqueda de la información teórica que fundamente la heurística denominada “The Shifting Bottleneck Heuristic and The Makespan”,que se aplicara en la programación de la producción de la planta de acabados de Fabricato – Fibratolima. La tercera etapa se basa en la consecución de una serie de datos necesarios como los tiempos de procesamiento estándar por máquina, líneas de productos y referencias más sobresalientes, flujos de procesos estándar por línea de producto, tiempos de preparación y cambio de programa, ciclo de teñido de la tela, porcentaje de reproceso Congreso Nacional de Ingeniería CNIA2012

80


por línea de producción y maquinaria, programas maestros de producción mensuales, entre otros; los cuales serán la base y estado de partida que alimenten la heurística de programación a desarrollar. La cuarta y última etapa del proyecto es de desarrollo y aplicación de la heurística “The Shifting Bottleneck Heuristic and The Makespan”, el cual será recreado en la planta de acabados de la firma textil Fabricato – Fibratolima y que pretenderá solucionar los problemas de programación de la producción. Resultados Un taller de fabricación o Job-Shop es una configuración productiva que permite fabricar una gran cantidad de productos diferentes. Este tipo de sistema se caracteriza por tener máquinas de propósito general, y por qué cada trabajo tiene una ruta de fabricación única, que no necesariamente se repite entre trabajos. [1] La planta de acabados cuenta con un área de 11.200 metros cuadrados, en la cual se encuentra el área de productividad, de diseño, de calidad, de recursos humanos. Está conformado por 17 máquinas, en las cuales se realiza los procesos finales a la tela, como el pre tratamiento, teñido, estampación, suavidad, apresto, fijación del color. Estos procesos son indispensables para dar a la tela la textura, color y las características físicas necesarias para obtener un producto final de excelente calidad. El proceso de producción de la planta de acabados se inicia con la tela cruda proveniente de telares, la cual trae contaminantes tales como ceras, cascarilla, goma, grasas, aceites que deben ser retirados durante los diferentes procesos físicos y químicos.

Figura 1. Caracterización del Sistema Productivo El cuello de botella móvil (CBM) o shiftingbottleneck, desarrollado por Adams, Balas y Zawack (1989), es una de las heurísticas para programación de talleres más exitosas [2]. Su idea principal es secuenciar una a una las máquinas del taller según su grado de criticidad. Este último es calculado de acuerdo con la secuenciación de las máquinas que afecta la función objetivo. El algoritmo inicia con la determinación del cuello de botella inicial y establece una secuencia de trabajos óptima para esa máquina. Una vez se ha hecho esta operación, se imponen nuevas restricciones que afectan la secuenciación de las máquinas restantes. Se determina y se secuencia la nueva máquina cuello de botella entre aquellas no secuenciadas y el proceso se repite hasta que no haya máquinas sin secuenciar [3]. En el marco de la tercera y cuarta etapa de la metodología a continuación se muestra la tabla definida por el área de programación de la producción y los autores, para definir los tipos de base más sobresalientes en la planta de acabados de Fabricato – Fibratolima con el flujo estándar de las maquinas en la producción: Congreso Nacional de Ingeniería CNIA2012

81


Cuadro 1. Secuencia de las máquinas para acabados de tela más sobresalientes. TIPO DE BASE

BLANCOS

CAMUFLADO

TEÑIDO

UNIFORMERO ESTAMPADO

BASE

ACABADO

14513

140/12

DCOLE

DESC

BQEO

MERC

FLUJO ESTANDAR APR

PREENC

REV

PICAR

0

0

45524

480/33

DCOLE

DESC

BQEO

MERC

TDO

APR

PREENC

PICAR

0

0

45525

480/33

DCOLE

DESC

BQEO

MERC

TDO

APR

PREENC

PICAR

0

0

44520

140/12

DCOLE

DESC

BQEO

MERC

APR

PREENC

REV

PICAR

0

0

55506

870/PA

DCOLE

DESC

MERC

TDO

EST

REDUC

APR

PREENC

REV

PICAR

55502

870/PA

DCOLE

DESC

MERC

TDO

EST

REDUC

APR

PREENC

REV

PICAR

24527

460/62

DCOLE

DESC

BQEO

MERC

ESM

TDO

APR

PREENC

REV

PICAR

24520

460/62

DCOLE

DESC

BQEO

MERC

ESM

TDO

APR

PREENC

REV

PICAR

24524

460/62

DCOLE

DESC

BQEO

MERC

ESM

TDO

APR

PREENC

REV

PICAR

24526

460/62

DCOLE

DESC

BQEO

MERC

ESM

TDO

APR

PREENC

REV

PICAR

45524

480/33

DCOLE

DESC

BQEO

MERC

TDO

APR

PREENC

PICAR

0

0

45525

480/33

DCOLE

DESC

BQEO

MERC

TDO

APR

PREENC

PICAR

0

0

45528

480/TE

DCOLE

DESC

BQEO

MERC

TDO

APR

PREENC

REV

PICAR

0

24568

480/95

DCOLE

DESC

BQEO

MERC

TDO TIN

APR

PREENC

REV

PICAR

0

24582

480/95

DCOLE

DESC

BQEO

MERC

TDO TIN

APR

PREENC

REV

PICAR

0

18190

904/34

DCOLE

DESC

BQEO

EST PIGM TDO BCO OPT

APR

PREENC

REV

PICAR

0

45526

904/34

DCOLE

DESC

BQEO

EST PIGM TDO BCO OPT

APR

PREENC

REV

PICAR

0

A partir de la información obtenida luego de llevar a cabo la secuenciación de los doce pedidos trabajados en la prueba piloto, se destaca como la aplicación de la restricción definida por defecto en el área de teñido genera una variación considerable en los resultados obtenidos tanto para efectos del desarrollo del programa a partir del método actual asociado a regla de despacho FIFO, como para el método propuesto a través de la heurística CBM. Tomando como base de análisis el tiempo de fabricación máximo de todos los pedidos Cmax, como la variable de decisión en términos de comparación y selección de la mejor opción, se evidencia para el caso un aumento significativo de 1881 minutos para en el método de programación actual, ya que pasa de manejar un Cmax de 8628 minutos a un Cmax de 10509 minutos, el cual expresado en términos de días sería un incremento de casi día y medio de producción. De igual forma, para el caso de la heurística CBM se observa una variación relativa del 25% pasando de un Cmax de 7850 minutos a un Cmax de 9780 minutos, que en términos de días se expresa en un aumento de 1.34 días para dar por finalizada la corrida de producción. Referencias [1] Castro, C. A., Velez, M. C., & Maya, J. (2003). Algoritmo de Busqueda Aleatoria Para la Programacion de la Produccion en un Taller de Fabricacion. Revista EAFIT, 3-4. [2] PINEDO, M., & CHAO, X. (1999). Operations Scheduling With Applications In Manufacturing And Service. New York: McGraw Hill. [3] Britto, R. A., Mejia, G., & Caballero, J. P. (2007). Programación de la producción en sistemas de manufactura tipo taller con el algoritmo combinado cuello de botella móvil y búsqueda tabú. Universidad de los Andes, 205-206.

Congreso Nacional de Ingeniería CNIA2012

82


REFLEXIONES DE LA APLICACIÓN DE HERRAMIENTAS DE INGENIERÍA PARA MEJORAR LA EFICIENCIA DE UN SERVICIO DE URGENCIAS REGIONAL C. Saavedra-Moreno Ingeniería Industrial/GINNOVA, Universidad de Ibagué, Ibagué Palabras claves: servicio de urgencias, logística hospitalaria, ingeniería aplicada.

Problema La salud es un derecho fundamental del ser humano. Desde la Carta de Constitución de la Organización Mundial de la Salud - OMS se plantea que todo ser humano tiene derecho a que se le garantice la salud, sin distinción de raza, religión, ideología política o condición económica o social. Los avances en materia de salud a nivel mundial han sido limitados y desiguales, debido a situaciones de conflicto, malas gobernanzas, crisis económicas, alimentarias o humanitarias y la falta de recursos [1]. Según datos de la OMS [2], dos tercios de las muertes infantiles prematuras se deben a enfermedades que se podrían evitar o tratar con intervenciones simples, un tercio de las muertes de niños están asociadas a la malnutrición y cada día mueren unas 800 mujeres por causas prevenibles relacionadas con el embarazo y el parto. Una de las áreas de mayor prioridad para mejorar en un hospital es el área de urgencias, como se evidencia en Pantoja Rojas & Garavito Herrera [3], Hoot & Aronsky y Espinosa & Case [4], en donde se destaca la necesidad de mejorar esta área debido a que atiende servicios que requieren tiempos de respuesta óptimos y de alta calidad. Una respuesta inoportuna o un servicio deficiente pueden generar el empeoramiento de la salud e integridad física del paciente. En el Artículo 159 de la ley 100 colombiana se definen dentro de las garantías de los afiliados al sistema de seguridad social la atención eficiente de urgencias en todo el territorio nacional, una situación de servicio ineficiente está en contra de la ley y de los derechos constitucionales de los ciudadanos. En este marco, en donde los servicios de urgencias se configuran como áreas con altas congestiones, tiempos de espera altos, alta ocupación de instalaciones médicas y recursos limitados, no solo por la creciente demanda de usuarios, sino por ser la fuente de pacientes para otras especialidades de las clínicas, es importante identificar las herramientas ingenieriles que potencialmente pueden mejorar el funcionamiento operativo del servicio. Lo anterior, si se tienen en cuenta que actualmente el sistema de salud colombiano se encuentra en crisis debido a problemas en la regulación del sistema, la corrupción, prestación de servicios deficientes (baja actualización de personal y malas condiciones de infraestructura), entre otros factores [6]. Por lo anterior, en este artículo se realiza una revisión bibliográfica de las herramientas ingenieriles que se pueden integrar y adaptar en un servicio de urgencias regional, con el fin de maximizar el uso de los recursos disponibles y mejorar los procesos actuales. Metodología Para realizar el proceso de búsqueda de esta revisión se definieron las siguientes restricciones:  Los artículos tienen como objeto de estudio el servicio de urgencias de hospitales y plantean problemas que se solucionan con herramientas de ingeniería.  Las herramientas de ingeniería aplicables buscan mejorar el funcionamiento operativo del servicio, en particular la eficiencia del área de urgencias. La eficiencia medida por el indicador de oportunidad de atención.  Los artículos deben plantear los factores requeridos para construir una solución. Lo anterior, con el fin de identificar las alternativas que pudiesen adaptarse a la situación regional. Se revisaron alrededor de 50 artículos en bases científicas especializadas (Scienti y Scopus) de los cuales se seleccionaron 25 que cumplen las restricciones especificadas en el proceso de búsqueda y se publicaron en los últimos cinco años. Las ecuaciones de búsqueda utilizadas incluyeron los siguientes términos con diferentes combinaciones:, improve efficiency process emergency department, simulation emergency department, lean emergency department, operation research emergency department , six sigma emergency department. Por medio de la revisión de los artículos se lograron conocer las diferentes herramientas de ingeniería que se pueden utilizar para solucionar problemáticas propias de un servicio de urgencias. Además, conocer casos de aplicación que permiten evidenciar las mejoras de la operación del servicio, los factores que se deben tener en cuenta para replicar las investigaciones y ventajas y desventajas de cada una. Estos cuatro Congreso Nacional de Ingeniería CNIA2012

83


elementos se clasificaron y organizaron en tablas, que permiten seleccionar las alternativas para adaptar, dependiendo de los problemas que se identifiquen en el servicio de urgencias a mejorar. Resultados La revisión de literatura muestra diferentes aplicaciones de ingeniería diseñadas a la medida de las necesidades propias de cada entidad, teniendo en cuenta las diferencias que puedan existir en el marco de la regulación legal, la cantidad de servicios que se ofrecen, el volumen y características de usuarios que la entidad atiende y su presupuesto. Sin embargo, se evidencia en su mayoría que la aplicación de herramientas de ingeniería para mejorar servicios de urgencias genera beneficios cuantificables en el indicador de oportunidad de atención (es decir se disminuyen los tiempos de espera de los pacientes). En la tabla 1 se muestran las metodologías analizadas con los diferentes elementos estudiados para solucionar problemas de servicios de urgencias. Tabla 1. Herramientas de Ingeniería aplicadas para mejorar la oportunidad de atención en el servicio de urgencias Herramienta de ingeniería

Herramienta especifica

Mejoras alcanzadas

Simulación de eventos discretos

Identificación de cuellos de botella Planeación e identificación de capacidad Evaluación de escenarios

Simulación Simulación basada en agentes

Programación de recursos o actividades

Gestión calidad

de

Mejoras en pacientes y sistema

el flujo de recursos del

Asignaciones optimas de recursos Disminución de los tiempos ociosos

Seis Sigma

Reducción de la variabilidad de los procesos Disminución en errores y devoluciones

Manufactura Esbelta

Reducción de desperdicios (eliminación de procesos que no generan valor) Incremento del nivel de satisfacción de los pacientes

la

Ventajas y/o identificadas

desventajas

Referencias [7], [8], [9], [10], [11], [12] [3]

Permite modelar un sistema complejo con funciones sencillas

Es una metodología que permite determinar configuraciones de los recursos.

[13], [14], [16], [17]

[15],

[18], [19], [21], [22]

[20],

Se centra en los componentes básicos no en el sistema en conjunto Permite la optimización en la asignación de recursos

[23] [24] [25] [26] [27] [28] [29] Tiene un enfoque hacia el cliente (en este caso el paciente) Se requiere del compromiso y participación del personal del área.

Referencias [1] L. M. Pantoja Rojas and L. A. Garavito Herrera, “Analysing the Diana Turbay CAMI emergency and hospitalisation processes using an Arena 10.0 simulation model for optimal human resource distribution,” Ingeniería e Investigación, pp. 146-153, 2008. [2 F. Venegas, C. Amaya and N. Velasco, “Modelo de Simulación de eventos discretos del servicio del departamento de emergencias para un hospital,” Los cuadernos de PYLO - Logística Hospitalaria, p. 13, 2008. [3] M. Taboada, E. Cabrera and L. Iglesias, “An Agent-Based Decision Support System for Hospitals Emergency Departments,” Procedia Computer Science, vol. 4, pp. 1870-1879, 2011. [4] J.-Y. Yeh and W.-S. Lin, “Using simulation technique and genetic algorithm to improve the quality care of a hospital emergency department,” Expert Systems with Applications, vol. 32, pp. 1073-1083, 2007.

Congreso Nacional de Ingeniería CNIA2012

84


memorias CNIA  

Memoria digital Congreso Nacional de Ingeniería CNIA2012

Advertisement
Read more
Read more
Similar to
Popular now
Just for you